SK Moduł 1

From Studia Informatyczne

Enlarge

Enlarge
Sieć komputerowa to medium umożliwiające połączenie dwóch lub więcej komputerów w celu wzajemnego komunikowania się.



Enlarge
Potrzeba swobodnego, efektywnego i bezpiecznego komunikowania się jest niewątpliwie najważniejszą przyczyną powstania sieci komputerowych.

Gdy w latach 40tych XXw. skonstruowano pierwsze komputery dostęp do nich miała stosunkowo niewielka grupa osób, co związane było głównie z ówczesnym poziomem techniki. Początkowo jedynymi użytkownikami komputerów byli programiści i bezpośrednia obsługa komputera. Przełomowym momentem w sposobie dostępu do komputera stało się odkrycie zjawiska tranzystorowego i wyprodukowanie w latach 50tych XXw. układu scalonego. Miniaturyzacja sprzętu, opracowanie systemów wielodostępnych z podziałem czasu i pierwszych systemów operacyjnych oraz języków programowania wysokiego poziomu doprowadziło do wzrostu liczby komputerów, tak że w latch 60tych XXw. standardem była zdalna praca przy użyciu terminala tekstowego połączonego z komputerem. Jednak nadal komputery, usytuowane na ogół w specjalnie do tego celu budowanych centrach obliczeniowych stanowiły samotne wyspy. Dostęp do komputerów możliwy był z poziomu terminali znajdujących się albo bezpośrednio w centrach obliczeniowych, albo w lokalizacjach połączonych z centrum dedykowaną, telefoniczną linią dzierżawioną, albo indywidualnie za pomocą modemu i komutowanej linii telefonicznej.



Enlarge
Wraz z upowszechnieniem się stosowania komputerów pojawiła się potrzeba bardziej efektywnego i szerszego dostępu do ich zasobów oraz potrzeba automatycznej wymiany danych między komputerami.

W wyniku tego w latach 60tych XXw. Departament Obrony Stanów Zjednoczonych rozpoczął tworzenie sieci komputerowej (ARPANET), której celem było połączenie uniwersytetów oraz innych jednostek realizujących projekty dla armii w celu umożliwienia im wzajemnego dostępu do mocy obliczeniowej komputerów. Gdy w późniejszym okresie opracowano rodzinę protokołów TCP/IP i zaimplementowano je w systemach UNIX’owych okazało się, że niemal natychmiast sieć ARPANET powiększyła się o wszystkie lokalne sieci komputerowe zainstalowane w uniwersytetach stanowych. W podobnym okresie, na Uniwersytecie Hawajskim prowadzone były badania umożliwiające komunikację za pomocą nadajników krótkofalarskich. W wyniku tych prac powstał protokół ETHERNET, który z czasem stał się niemal jedynym protokołem komunikacyjnym we wszystkich sieciach lokalnych.



Enlarge
Ponieważ komputery, a dokładnie minikomputery znalazły zastosowanie w firmach komercyjnych, także i tutaj pojawiła się potrzeba wzajemnego komunikowania się, np. między oddziałami tej samej firmy w celu wymiany i synchronizacji danych.

W tym obszarze stosowano głównie rozwiązania autorskie pochodzące od firm, które były producentami sprzętu komputerowego (Xerox, Intel, DEC, IBM). W zdecydowanej większości protokoły te zostały całkowicie wyparte w sieciach lokalnych przez protokół Ethernet, natomiast ich elementy można znaleźć wśród protokołów stosowanych w centralach telefonicznych.



Enlarge
Lawinowy wzrost zapotrzebowania na stworzenie metody komunikacji między komputerami powstał wraz z masowym pojawieniem się na rynku komputerów osobistych. W przypadku ośrodków obliczeniowych, akademickich, czy oddziałów firm komercyjnych komunikacja między komputerami lokalnymi odbywała się na niewielkim obszarze, a łączność między centrami realizowana była na ogół za pomocą pojedynczych i stosunkowo drogich łączy telekomunikacyjnych na dużych odległościach. O ile wielkie firmy komercyjne, uniwersytety, czy agendy rządowe stać było na stosowanie tego typu technologii, to małe, czy średnie firmy oraz osoby prywatne musiały szukać innych metod.

W związku z tym w latach 80tych XXw. opracowano sposób komunikacji typu punkt-punkt oparty na łączności modemowej wykorzystującej standardowe, komutowane łącza klasycznej sieci telefonicznej. Wykorzystując tę metodę stworzono specjalne centra zwane BBS’ami (ang. Bulletin Boards), pełniące rolę punktów kontaktowych, za pomocą których można było wymieniać wiadomości i pliki. Zaletą BBS’ów były: porównywalnie niższy koszt instalacji i utrzymania w stosunku do innych rozwiązań oraz tania metoda dostępu. Należy zaznaczyć, że tani koszt dostępu wynikał stąd, że wiadomości miały jedynie postać tekstową, a rozmiar plików w tamtym czasie był na tyle mały, że nawet szybkości transmisji na poziomie 1200/2400 bps umożliwiały szybki transfer, co oznaczało krótki czas płatnego połączenia komutowanego. Wadą BBS’ów było to, że jednocześnie z BBS’em mogło połączyć się tylu użytkowników ile było zainstalowanych linii telefonicznych oraz to, że każde połączenie wymagało osobnego modemu. Ponadto, należało wiedzieć o istnieniu danego BBS’u oraz znać jego numer. Jeżeli numer był z innej strefy taryfikacyjnej koszt połączenia zdecydowanie wzrastał.




Enlarge
Różnorodność sprzętu sieciowego, a przede wszystkim jego cena powstrzymywały firmy przed podejmowaniem decyzji o inwestowaniu w nowe technologie. Lęk przed chybionymi decyzjami wynikał też z niestabilnej sytuacji w obszarze komputerów osobistych. Szybki rozwój technologii oznaczał z jednej strony wzrost efektywności, z drugiej strony wymuszał zbyt częstą wymianę sprzętu.

Sytuacja zmieniła się wraz z opracowaniem standardów dotyczących sieci lokalnych, co dawało gwarancje kompatybilności sprzętowej i chroniło inwestycje. Standardem stały się konstrukcje oparte na sieciowym systemie operacyjnym z centralnym serwerem plików, wydruku oraz poczty elektronicznej, zapewniającym autentykację użytkowników i autoryzację dostępu do zasobów. Mniejsze firmy zadawalały się budową sieci równorzędnych, w których wszystkie komputery były nawzajem dla siebie serwerami i klientami. Jednak w obu przypadkach medium łączącym wszystkie elementy systemu w całość była ta sama sieć komputerowa. W przypadku systemów budowanych w oparciu o sieciowe systemy operacyjne uzyskiwano bardzo istotną funkcjonalność, jaką było centralne zarządzenie siecią i jej zasobami.



Enlarge
W początkowym okresie sieci komputerowe rozwijane były przede wszystkim w uczelniach amerykańskich w ramach projektów rządowych. Gdy w latach 80tych XXw. opracowywano podstawowe standardy dotyczące lokalnych sieci komputerowych w Stanach Zjednoczonych istniała już rozbudowana, ogólnokrajowa struktura łącząca sieci kampusowe, składające się z lokalnych sieci budowanych w ramach poszczególnych jednostek uczelnianych. Zarówno sieci kampusowe, jak i sieci lokalne budowane były w oparciu o różne technologie, w zależności od momentu powstania danego fragmentu sieci. Wtedy też pojawiło się pojęcie „internet”, które oznaczało zbiór połączonych sieci komputerowych. W 1990 roku, gdy sieć ARPANET zaczęła się gwałtownie rozrastać zmieniono jej nazwę na Internet.

Funkcjonująca obecnie konstrukcja Internetu, zarówno na poziomie globalnym jak i pojedynczej sieci lokalnej oparta jest na tych samych zasadach jakie opracowano i opublikowano na przełomie lat 80tych i 90tych XXw. Zasadnicze zagadnienia, które związane są z budową Internetu dotyczą takich spraw jak:

  • łączenie komputerów w lokalną sieć komputerową,
  • podłączanie do sieci pojedynczych komputerów w sytuacji dużych odległości,
  • rozbudowa lokalnych sieci komputerowych,
  • komunikacja między sieciami lokalnymi,
  • usługi sieciowe,
  • bezpieczeństwo sieci,
  • zarządzanie i monitoring sieci.

W ramach rozwiązywania poszczególnych zagadnień opracowano wiele różnych metod. Niektóre z nich stały się powszechnie obowiązującymi standardami.



Enlarge
Jednym z pierwszych elementów związanych z fizyczną konstrukcją sieci jest typ sieci. Analizując zarówno sposób powstawania Internetu, jak i właściwości poszczególnych jego fragmentów dostrzec można między nimi pewne różnice związane z parametrami technicznymi oraz geograficznymi.

Pierwotnie rozpoznawano dwa typy sieci: sieci rozległe (WAN) łączące uczelnie, ośrodki obliczeniowe i inne placówki naukowo badawcze oraz sieci lokalne (LAN) stosowane do łączenia komputerów w poszczególnych ośrodkach. Wraz z rozrastaniem się sieci uczelnianych pojawił się termin „sieci kampusowe” oznaczający sieć komputerową jednej lub kilku uczelni powstałą w wyniku połączenia ich wewnętrznych sieci lokalnych. Sieci metropolitalne (MAN) charakterystyczne są dla dużych ośrodków miejskich, gdzie znajdują się siedziby wielu uczelni, urzędów oraz firm komercyjnych, a także istnieje specyficzna dla tego środowiska infrastruktura techniczna. Ostatnio powstał jeszcze jeden termin definiujący prywatne sieci komputerowe (PAN). Określenie to dotyczy sieci instalowanych w domach lub w obrębie jednego lub kilku stanowisk pracy znajdujących się w niewielkiej odległości od siebie (do ok. 10m).



Enlarge
Sieci rozległe charakteryzują przede wszystkim długie połączenia zlokalizowane na stosunkowo dużym obszarze takim jak województwo, kraj, kontynent czy cały glob.

Realizacja połączeń na ogół związana jest z niską przepustowością i stosowaniem interfejsów szeregowych. Zapewniają łączność w pełnym lub ograniczonym wymiarze czasowym.



Enlarge



Enlarge
Sieci lokalne dotyczą instalacji zlokalizowanych na stosunkowo niewielkim obszarze. Teoretyczna średnica sieci lokalnej może wynosić nawet kilkaset metrów, jednak po uwzględnieniu geometrii pomieszczeń obszar instalacji ogranicza się do jednego budynku lub jego części, np. piętra.

W sieciach lokalnych stosuje się krótkie łącza (do ok.. 100m) o wysokiej przepustowości lub rozwiązania oparte na technice radiowej. Sieci lokalne charakteryzuje też wysoka niezawodność działania



Enlarge
W przypadku uniwersytetów na ogół stosuje się rozwiązanie polegające na łączeniu poszczególnych, wewnętrznych sieci lokalnych łączami charakterystycznymi dla technik stosowanych w budowie lokalnych, a nie rozległych sieci komputerowych.

Wynika to przede wszystkim ze względów praktycznych i ekonomicznych. Wszystkie sieci lokalne albo ich zdecydowana większość znajdują się na stosunkowo niewielkim obszarze o bardzo rozwiniętej infrastrukturze technicznej, której zarządzanie znajduje się w gestii uczelni. Ponadto charakter działalności i związane z tym potrzeby i rygory bezpieczeństwa z jednej strony pozwalają, z drugiej wymagają dużej swobody w konfiguracji sieci.



Enlarge
Sieci metropolitalne przypominają swoją budową zarówno sieci kampusowe jak i sieci rozległe. Ich zadaniem jest łączenie wielu sieci lokalnych znajdujących się w obrębie aglomeracji miejskiej, co nadal stanowi stosunkowo niewielki obszar. Jednak w tym przypadku względy formalne oraz względy bezpieczeństwa sprawiają, że połączenia te mają na ogół charakter typowy dla sieci rozległych. Dodatkowo, do zadań sieci metropolitalnych należy łączenie indywidualnych komputerów, głównie osób prywatnych do Internetu.

Konstrukcja sieci metropolitalnych oparta jest zazwyczaj na sieci szkieletowej, do której podłączane są sieci lokalne różnego rodzaju organizacji oraz osób prywatnych za pomocą indywidualnych łączy typowych dla sieci rozległych. Oczywiście, ze względu na rozbudowaną infrastrukturę techniczną jaka zazwyczaj występuje w środowisku miejskim stosowane są konfiguracje charakterystyczne dla sieci kampusowych w przypadku uczelni, urzędów, czy dużych firm.



Enlarge
Sieci prywatne (PAN), to konstrukcje stosowane głównie w domach i niewielkich biurach. Charakteryzuje je niewielki zasięg geograficzny (do ok. 10m) i dość duża różnorodność mediów, jak:
skrętka UTP
komunikacja bezprzewodowa
WLAN
BlueTooth
Podczerwień
Itp..

Główny cel istnienia takiej sieci, to komunikacja pojedynczego komputera z Internetem, łączenie do komputera urządzeń peryferyjnych, urządzeń typu laptop, palmtop, telefon komórkowy, telefony VoIP.



Enlarge
Drugim elementem charakteryzującym fizyczną konstrukcję sieci komputerowej jest topologia sieci, określająca sposób łączenia poszczególnych urządzeń sieciowych.

Fizyczne topologie sieci to:

magistrali,
pierścienia,
podwójnego pierścienia,
gwiazdy,
rozszerzonej gwiazdy,
hierarchiczna,
siatki.



Enlarge
Topologia magistrali charakteryzuje się tym, że wszystkie urządzenia podłączone są do jednego, współdzielonego medium fizycznego, którym zazwyczaj jest kabel koncentryczny zakończony z obu stron terminatorami (oporniki o parametrach dostosowanych do typu kabla).

Topologię magistrali stosuje się do budowy lokalnych sieci komputerowych. Zaletą tej topologii jest niska cena wynikająca z małego zużycia kabli i braku urządzeń pośredniczących w dostępie do medium. Do zalet należy zaliczyć także łatwość instalacji. Wadą są ograniczenia związane z rozbudową sieci i wrażliwość na awarię. Przerwanie magistrali w jednym miejscu oznacza awarię całej sieci.



Enlarge
Konstrukcja topologii pierścienia polega na bezpośrednim łączeniu urządzeń (każde urządzenie połączone jest z dwoma sąsiednimi), tak że całość tworzy krąg.

Topologia ta stosowana jest głównie do budowy lokalnych sieci komputerowych. Transmisja w sieci zbudowanej w oparciu o tę topologię polega na przekazywaniu żetonu dostępu. Oprócz tego, każde urządzenie pełni rolę regeneratora sygnału. Podobnie jak w przypadku topologii magistrali zaletą topologii pierścienia jest niska cena wynikająca z małego zużycia kabli i braku aktywnych urządzeń pośredniczących w komunikacji między komputerami. Dodatkowo do budowy sieci w tej topologii można użyć różnych mediów transmisyjnych (kabel koncentryczny, skrętkę, kable światłowodowe). Wadą tej topologii są ograniczenia i utrudnienia związane z rozbudową i konserwacją sieci. Uszkodzenie jednego z urządzeń lub łączy oznacza przerwę w pracy całej sieci.



Enlarge
Topologia podwójnego pierścienia polega na tych samych zasadach, co topologia pierścienia, z tą różnicą, że urządzenia połączone są podwójnymi łączami, co pozwala na zachowanie transmisji w obszarach ograniczonych punktami awarii. W przypadku jednego punktu uszkodzenia sieć zachowuje możliwość działania w pełnym zakresie.

Tego typu topologie stosowane są w budowie sieci szkieletowych lub w sieciach kampusowych i metropolitalnych.



Enlarge
W topologii gwiazdy wszystkie urządzenia połączone są w jednym wspólnym punkcie, w którym znajduje się aktywne urządzenie pośredniczące (koncentrator) pełniące rolę regeneratora sygnału.

Łączenie urządzeń może odbywać się przy pomocy różnych mediów transmisyjnych. Istotną zaletą tej topologii jest niewątpliwie przejrzystość konstrukcji i odporność całej sieci na awarię zarówno urządzeń jak i łączy. Wadą tej topologii jest wysoki koszt okablowania oraz dodatkowy koszt związany z obecnością koncentratora. Należy jednak zaznaczyć, że topologia gwiazdy stała się podstawową o ile nie jedyną topologią lokalnych sieci komputerowych. Jej zalety okazały się silniejsze od wad, a rosnąca popularność spowodowała obniżenie kosztów związanych z instalacją.



Enlarge
Podstawą konstrukcji topologii rozszerzonej gwiazdy jest topologia gwiazdy ze wszystkimi zaletami i wadami.

Topologia ta stosowana jest głównie w przypadku rozbudowanych sieci lokalnych oraz sieci kampusowych.



Enlarge
Topologia hierarchiczna jest łudząco podobna do topologii rozszerzonej gwiazdy jednak różni się co do sposobu działania. W topologii hierarchicznej urządzenia aktywne oprócz regeneracji sygnału pełnią rolę urządzeń sterujących dostępem do sieci.



Enlarge
Topologia siatki jest typowa dla sieci metropolitalnych i sieci rozległych. Konstrukcja tej topologii oparta jest na takim łączeniu urządzeń, że każde z nich połączone jest z więcej niż jednym urządzeniem.

Tego typu rozwiązania stosowane są w celu zapewnienia redundantnych połączeń między wszystkimi urządeniami.



Enlarge
Urządzenia sieciowe stanowią trzeci element fizycznej budowy sieci. Zaliczamy do nich zarówno urządzenia bierne:

kable koncentratory bierne jak i elementy aktywne: huby mosty przełączniki routery konwertery modemy punkty dostępowe sieci bezprzewodowych oraz urządzenia końcowe: stacje robocze serwery drukarki terminale inne sieciowe urządzenia peryferyjne



Enlarge
Urządzenia bierne to kable oraz koncentratory.

W budowie sieci komputerowych wykorzystywane są trzy rodzaje kabli: koncentryczny skrętka światłowód. Dokładne omówienie kabli stosowanych w instalacjach sieci komputerowych zostanie przedstawione w module 3



Enlarge
Koncentratory (hub’y) bierne stosowane były głównie w sieciach zbudowanych w oparciu o kabel koncentryczny. Ze względu na duże ograniczenia związane z dopuszczalną długością połączeń koncentratory wykorzystywano w sieciach o niewielkich rozmiarach.



Enlarge
Podstawowym zadaniem urządzeń aktywnych jest regeneracja sygnału lub łączenie różnych rodzajów mediów (huby, konwertery, modemy)

Bardziej skomplikowane urządzenia (mosty, przełączniki, routery) posiadają znacznie więcej funkcjonalności umożliwiających np. separację, sterowanie, monitorowanie czy filtrowanie. Szczegółowa funkcjonalność danego urządzenia zależy od roli jaką ma pełnić w sieci. W przypadku budowy prostej sieci najczęściej stosowano huby, natomiast gdy sieć przekraczała dopuszczalne parametry (liczba urządzeń aktywnych/końcowych, długość kabli) stosowano mosty i routery. Obecnie do budowy i rozbudowy sieci wykorzystywane są przełączniki wyposażone w moduł routera, natomiast routery stosuje się głównie na styku sieć wewnętrzna/Internet. W przypadku sieci bezprzewodowych stosuje się urządzenia pełniące rolę punktów dostępowych. Bardziej szczegółowe omówienie urządzeń aktywnych zostanie przedstawione w następnych modułach.



Enlarge
Przykładowa realizacja fragmentu sieci komputerowej, usytuowanego na granicy wewnętrznej sieci komputerowej firmy z Internetem.



Enlarge
Zewnętrzny modem wykorzystujący połączenia komutowane realizowane w ramach telefonii tradycyjnej. Obecnie stosowany jest głównie do celów administracyjnych, gdy wymagany jest zapasowy dostęp do urządzeń sieciowych w przypadku awarii sieci komputerowej.



Enlarge
Przykład wewnętrznego modemu do połączeń komutowanych. Wadą tego typu modemów jest brak pełnej kontroli przez użytkownika, co jest szczególnie dotkliwe (finansowo) w przypadku „zarażenia” systemu operacyjnego wirusem, którego działanie polega na wykonywaniu połączeń komutowanych bez wiedzy użytkownika.



Enlarge
Zewnętrzny modem DSL, stosowany do podłączania domowych lub firmowych sieci komputerowych do Internetu, za pomocą dzierżawionych linii telefonicznych lub sieci telewizji kablowej.



Enlarge
Mediakonwerter umożliwiający łączenie dwóch urządzeń, wyposażonych w interfejsy sieciowe dostosowane do różnego rodzaju mediów:

skrętka/światłowód, kabel koncentryczny/skrętka, kabel koncentryczny/światłowód, złącze AUI/(skrętka albo kabel koncentryczny, albo światłowód). Mediakonwertery stosowane są najczęściej do łączenia dwóch odległych urządzeń za pomocą linii światłowodowych.



Enlarge
Przykład typowego koncentratora (huba) do zastosowań w niewielkich biurach, grupach roboczych, czy w domach.



Enlarge
Przykład standardowego punktu dostępowego dla sieci bezprzewodowych. Zastosowanie dwóch anten w sposób zasadniczy poprawia jakość połączeń z urządzeniami końcowymi.



Enlarge



Enlarge



Enlarge
Urządzenia końcowe to na ogół różnego rodzaju komputery: terminale, stacje robocze, komputery przenośne, serwery. Okazuje się jednak, że taką rolę może pełnić inne, dowolne urządzenie, np. drukarka, faks, oscyloskop, itp.

Tym co łączy te wszystkie urządzenia jest konieczność posiadania interfejsu umożliwiającego dołączenie danego urządzenia do sieci. Interfejs łączący urządzenie do sieci to karta sieciowa, która może mieć postać dodatkowego układu elektronicznego instalowanego w danym urządzeniu (starsze rozwiązania) albo może stanowić integralną część urządzenia (rozwiązanie stosowane obecnie).



Enlarge
Wewnętrzna karta sieciowa ze złączem typu PCI i interfejsem sieciowym RJ45, stosowana w stacjonarnych stacjach roboczych i serwerach.



Enlarge
Wewnętrzna karta sieciowa ze złączem typu PCMCIA i interfejsem sieciowym RJ45, stosowana w komputerach przenośnych.



Enlarge
Przykłady zintegrowanych kart sieciowych w komputerze przenośnym (na lewo) i w komputerze stacjonarnym (na prawo).



Enlarge
Wewnętrzne karty sieciowe dla protokołu Bluetooth ze złączem PCMCIA.



Enlarge
Wewnętrzna karta sieciowa ze złączem PCMCIA do sieci bezprzewodowej.



Enlarge
Wewnętrzna karta sieciowa ze złączem PCI do sieci bezprzewodowej.

Karty do sieci bezprzewodowych stosowane w komputerach stacjonarnych konstruowane są na bazie kart wewnętrznych ze złączem PCMCIA. Obwód drukowany wraz z innymi elementami elektronicznymi pełni rolę adaptera między złączem PCMCIA, a złączem PCI. Dodatkowo karty dla komputerów stacjonarnych mają wyprowadzone złącze do podłączenia anteny zewnętrznej.



Enlarge
Wielość rozwiązań stosowanych w budowie pierwszych sieci komputerowych w sposób istotny utrudniała wzajemną komunikację pomiędzy sieciami działającymi na podstawie różnych specyfikacji. Fakt ten był bezpośrednią przyczyną podjęcia działań w kierunku standaryzacji rozwiązań.

W wyniku analizy modeli sieciowych, takich jak DECnet (ang. Digital Equipment Corporation net), SNA (ang. Systems Network Architecture) i TCP/IP, organizacja ISO (ang. International Organization for Standardization) opracowała zbiór zasad umożliwiający budowę wzajemnie zgodnych sieci, który został opublikowany w 1984 roku jako model odniesienia OSI (ang. Open System Interconnection). Obecnie, ze względu na ujednolicenie stosowanych technologii zawarte w modelu zasady zdezaktualizowały się ale sam model odniesienia stał się głównym modelem komunikacji sieciowej stosowanym podczas projektowania, wdrażania i użytkowania sieci komputerowych, a przede wszystkim w procesie szkolenia.



Enlarge
Model odniesienia ISO/OSI przedstawia proces komunikacji w postaci siedmiu warstw.

Każda warstwa odpowiada konkretnemu fragmentowi procesu komunikacji, który sam w sobie stanowi zamkniętą całość. Dla każdej warstwy zdefiniowano interfejsy do warstw sąsiednich. Przy użyciu tego modelu można wyjaśnić, w jaki sposób pakiet przechodzi przez różne warstwy do innego urządzenia w sieci, nawet jeśli nadawca i odbiorca dysponują różnymi typami medium sieciowego. Dzięki takiemu podejściu uporządkowano reguły konstrukcji i jednocześnie uproszczono proces projektowania sieci, który w pewnym sensie także uległ rozbiciu na „warstwy”. Do najważniejszych zalet modelu ISO/OSI należy zaliczyć:

  • podział procesu komunikacji sieciowej na mniejsze, łatwiejsze do zarządzania elementy składowe;
  • utworzenie standardów składników sieci, dzięki czemu składniki te mogą być rozwijane i obsługiwane przez różnych producentów;
  • umożliwienie wzajemnej komunikacji sprzętu i oprogramowania sieciowego różnych producentów;
  • wyeliminowanie wpływu zmian wprowadzonych w jednej warstwie na inne warstwy;
  • podział procesu komunikacji sieciowej na mniejsze składowe, co pozwala na łatwiejsze jego zrozumienie.



Enlarge
Zadaniem warstwy fizycznej jest transmitowanie sygnałów cyfrowych pomiędzy urządzeniami sieciowymi. Jednostką informacji na poziomie tej warstwy jest pojedynczy bit. Parametry charakteryzujące tę warstwę to właściwości fizyczne łącza takie jak częstotliwości, napięcia, opóźnienie, długość, zniekształcenia, poziom zakłóceń, itp.



Enlarge
Warstwa łącza danych odpowiada za komunikację pomiędzy hostami, podłączonymi do tego samego medium. Jej głównym zadaniem jest sterowanie dostępem do medium. Jednostką informacji w tej warstwie jest ramka składająca się z bitów o ściśle określonej strukturze zawierająca adresy nadawcy i adresata. Adresy urządzeń mogą mieć dowolną postać, określoną w specyfikacji zastosowanego standardu komunikacji. Warstwa wyposażona jest w mechanizm kontroli poprawności transmisji, w celu zapewnienia niezawodnego przesyłania danych przez medium.



Enlarge
Głównym zadaniem warstwy sieci jest umożliwienie komunikacji pomiędzy hostami znajdującymi się w różnych sieciach lokalnych. Realizacja tego zadania możliwa jest dzięki dwóm mechanizmom: jednolitej adresacji urządzeń w całej sieci oraz routingu.

Podstawową jednostką informacji w tej warstwie jest pakiet o ściśle określonej strukturze zawierający oprócz danych, adresy: nadawcy i odbiorcy pakietu. Warstwa ta nie gwarantuje niezawodności transmisji, natomiast wyposażona jest w mechanizmy monitorowania transmisji, co pozwala m.in. na identyfikację przyczyn uniemożliwiających komunikację.



Enlarge
Warstwa transportowa odpowiedzialna jest za niezawodne przesyłanie danych między urządzeniami. Warstwa ta posiada mechanizmy umożliwiające inicjację, utrzymanie i zamykanie połączenia między urządzeniami, sterowanie przepływem danych oraz wykrywanie błędów transmisji.



Enlarge
Zadaniem warstwy sesji jest zarządzanie komunikacją między aplikacjami działającymi na danym hoście, a aplikacjami działającymi na innych hostach w sieci.

Ze względu na funkcjonalność systemów operacyjnych zawsze występuje sytuacja, gdy liczba aplikacji korzystających z sieci jest większa od liczby fizycznych interfejsów sieciowych. Rola tej warstwy sieci polega na stworzeniu mechanizmu umożliwiającego dostarczanie danych jakie przyszły z sieci oraz wysyłanie danych do sieci do aplikacji, dla której te dane są przeznaczone.



Enlarge
Zadaniem warstwy prezentacji jest konwersja danych pod względem formatu oraz struktury aby interpretacja tych danych była jednakowa na obu urządzeniach: wysyłającym i odbierającym.

Najczęściej konieczność dostosowania danych wynika z różnic między platformami sprzętowymi, na których działają komunikujące się aplikacje.



Enlarge
Zadaniem warstwy aplikacji jest zapewnienie dostępu do usług sieciowych procesom aplikacyjnym, działającym na danym urządzeniu.



Enlarge
Model komunikacji w sieci komputerowej oparty jest na komunikacji równorzędnej (ang. peer-to-peer).

W procesie przesyłania danych między dwoma hostami, każda warstwa sieciowa jednego hosta komunikuje się z odpowiadającą jej warstwą drugiego hosta. Komunikacja równorzędnych warstw odbywa się poprzez wymianę ściśle określonych dla danej warstwy jednostek informacji oznaczanych skrótowo PDU (ang. Protocol Data Unit).



Enlarge
Aby taka forma komunikacji mogła zostać zrealizowana warstwy wyższe hosta wysyłającego muszą skorzystać z usług świadczonych przez warstwy niższe, natomiast w przypadku hosta odbierającego odwrotnie. Polega to na tym, że warstwa wyższa przekazuje dane do wysłania warstwie niższej, która przekształca dane do odpowiedniej postaci i przekazuje następnej, niższej warstwie. Gdy dane dojdą do warstwy fizycznej zostają przekształcone do postaci ciągu bitów i przekazane za pomocą medium transmisyjnego do warstwy fizycznej hosta odbierającego, na którym zachodzi proces odwrotny.



Enlarge
Wędrówce danych między warstwami modelu odniesienia towarzyszy proces enkapsulacji (opakowania) jeżeli dane przekazywane są w dół stosu oraz proces dekapsulacji (rozpakowania), gdy dane przekazywane są w kierunku przeciwnym.

Warstwa niższa przekształcając dane do odpowiedniej postaci dodaje niezbędne informacje (enkapsulacja), aby dane te mogły zostać poprawnie przesłane do równorzędnej warstwy hosta odbierającego i poprawnie przez nią zinterpretowane. Następnie, równorzędna warstwa hosta odbierającego dokonuje procesu dekapsulacji i przekazuje dane warstwie wyższej.



Enlarge
Wszystkie procesy związane z dwustronną komunikacją zarówno między warstwami równorzędnymi komunikujących się urządzeń, jak i warstwami sąsiednimi danego urządzenia opisane są w postaci zestawu reguł zwanych protokołami.

Protokoły określają wszystkie aspekty komunikacji w sieci: budowa sieci fizycznej, sposoby łączenia komputerów z siecią, sposoby formatowania danych do transmisji, sposoby wysyłania danych, sposoby obsługi błędów. Dzięki temu dane wysłane z jednego urządzenia mogą być poprawnie transmitowane przez szereg pośredniczących urządzeń sieciowych do urządzenia docelowego, a następnie poprawnie odebrane i zinterpretowane. Nad procesem tworzenia protokołów czuwają specjalnie do tego celu powołane organizacje międzynarodowe: Institute of Electrical and Electronic Engineers (IEEE), American National Standards Institute (ANSI), Telecommunications Industry Association (TIA), Electronic Industries Alliance (EIA), International Telecommunications Union (ITU, dawny Comité Consultatif International Téléphonique et Télégraphique (CCITT)).



Enlarge
Zadaniem modelu odniesienia ISO/OSI było uporządkowanie i ujednolicenie procesów związanych z komunikacją w sieci:

budowa sieci, działanie sieci, zarządzanie siecią. Ze względów praktycznych (stan rozwoju technologii, konkurencja między producentami, preferencje użytkowników, sytuacja polityczna) zaproponowane wraz z modelem ISO/OSI rozwiązania nie przyjęły się, poza samym modelem odniesienia. Weryfikacji rozwiązań dokonał „rynek”. Można zaryzykować stwierdzenie, że momentem decydującym było opracowanie rodziny protokołów TCP/IP, zaimplementowanie ich w sieci ARPANET oraz w systemach UNIX’owych. Z czasem, w celu zachowania jednolitego modelu komunikacji w całym Internecie rodzina protokołów TCP/IP stała się także podstawowym standardem wykorzystywanym w sieciach lokalnych.



Enlarge
Model TCP/IP składa się z czterech warstw:

warstwy dostępu do sieci, warstwy internetu, warstwy transportowej, warstwy aplikacji. Ze względu na dużą różnorodność rozwiązań w zakresie fizycznej konstrukcji sieci, jaka istniała w chwili opracowywania, model TCP/IP zapewnia interfejs do warstwy dostępu do sieci traktując ją jako monolit. Warstwa ta odpowiada dwóm najniższym warstwom, fizycznej oraz łącza danych modelu ISO/OSI. Warstwa internetu odpowiada warstwie sieci w pełnym zakresie funkcjonalności. Warstwa transportowa modelu TCP/IP realizuje te same zadania, co warstwa transportowa modelu ISO/OSI oraz dodatkowo zajmuje się podstawowymi aspektami związanymi z zarządzaniem sesjami aplikacyjnymi. Pozostałe zadania warstwy sesji modelu ISO/OSI oraz zadania warstwy prezentacji i aplikacji zostały umieszczone w modelu TCP/IP w warstwie aplikacji. Obecnie rodzina protokołów TCP/IP jest podstawowym modelem komunikacji w Internecie i zdecydowanej większości lokalnych sieci komputerowych nie podpiętych do Internetu.



Enlarge