dr inż. Konrad Sobolewski Politechnika Warszawska Informatyka 1
Sieć komputerowa to medium umożliwiające połączenie dwóch lub więcej komputerów (urządzeń) w celu wzajemnego komunikowania się.
Potrzeba swobodnego, efektywnego i bezpiecznego komunikowania się jest niewątpliwie najważniejszą przyczyną powstania sieci komputerowych. XX wiek, lata 40 pierwsze komputery, niewielka grupa użytkowników XX wiek, lata 50 wynalezienie tranzystora przełom XX wiek, lata 60 standardem jest praca zdalna przy użyciu terminala
Ponieważ komputery, a dokładnie minikomputery znalazły zastosowanie w firmach komercyjnych, także i tutaj pojawiła się potrzeba wzajemnego komunikowania się, np. między oddziałami tej samej firmy w celu wymiany i synchronizacji danych. W tym obszarze stosowano głównie rozwiązania autorskie pochodzące od firm, które były producentami sprzętu komputerowego (Xerox, Intel, DEC, IBM). W zdecydowanej większości protokoły te zostały całkowicie wyparte w sieciach lokalnych przez protokół Ethernet, natomiast ich elementy można znaleźć wśród protokołów stosowanych w centralach telefonicznych.
Wspólny dostęp do danych (plików, baz danych), Wspólne korzystanie z urządzeń peryferyjnych (drukarek, modemów), Przesyłanie informacji pomiędzy użytkownikami sieci tekst, grafika, dźwięk, wideo, Szybka dystrybucja informacji, aktualizacji, poprawek oprogramowania, W przypadku organizacji możliwość zdalnego zarządzania sprzętem w oddziałach, filiach, itp. Możliwość integracji głosu w ramach sieci rozległej.
Lawinowy wzrost zapotrzebowania na stworzenie metody komunikacji między komputerami powstał wraz z masowym pojawieniem się na rynku komputerów osobistych. O ile wielkie firmy komercyjne, uniwersytety, czy agendy rządowe stać było na stosowanie drogich dzierżawionych łączy telefonicznych, to małe, czy średnie firmy oraz osoby prywatne musiały szukać innych metod. W związku z tym w latach 80-tych XX wieku opracowano sposób komunikacji typu punkt-punkt oparty na łączności modemowej wykorzystującej standardowe, komutowane łącza klasycznej sieci telefonicznej.
Różnorodność sprzętu sieciowego, a przede wszystkim jego cena powstrzymywały firmy przed podejmowaniem decyzji o inwestowaniu w nowe technologie. Lęk przed chybionymi decyzjami wynikał też z niestabilnej sytuacji w obszarze komputerów osobistych. Szybki rozwój technologii oznaczał z jednej strony wzrost efektywności, z drugiej strony wymuszał zbyt częstą wymianę sprzętu. Sytuacja zmieniła się wraz z opracowaniem standardów dotyczących sieci lokalnych, co dawało gwarancje kompatybilności sprzętowej i chroniło inwestycje.
Standardem stały się konstrukcje oparte na sieciowym systemie operacyjnym z centralnym serwerem plików, wydruku oraz poczty elektronicznej, zapewniającym autentykację użytkowników i autoryzację dostępu do zasobów. Mniejsze firmy zadowalały się budową sieci równorzędnych, w których wszystkie komputery były nawzajem dla siebie serwerami i klientami. Jednak w obu przypadkach medium łączącym wszystkie elementy systemu w całość była ta sama sieć komputerowa. W przypadku systemów budowanych w oparciu o sieciowe systemy operacyjne uzyskiwano bardzo istotną funkcjonalność, jaką było centralne zarządzenie siecią i jej zasobami.
W początkowym okresie sieci komputerowe rozwijane były przede wszystkim w uczelniach amerykańskich w ramach projektów rządowych. Zarówno sieci kampusowe, jak i sieci lokalne budowane były w oparciu o różne technologie, w zależności od momentu powstania danego fragmentu sieci. Wtedy też pojawiło się pojęcie internet, które oznaczało zbiór połączonych sieci komputerowych. W 1990 roku, gdy sieć ARPANET zaczęła się gwałtownie rozrastać zmieniono jej nazwę na Internet.
Zasadnicze zagadnienia, które związane są z budową Internetu dotyczą takich spraw jak: łączenie komputerów w lokalną sieć komputerową, podłączanie do sieci pojedynczych komputerów w sytuacji dużych odległości, rozbudowa lokalnych sieci komputerowych, komunikacja między sieciami lokalnymi, usługi sieciowe, bezpieczeństwo sieci, zarządzanie i monitoring sieci.
Jednym z pierwszych elementów związanych z fizyczną konstrukcją sieci jest typ sieci. Analizując zarówno sposób powstawania Internetu, jak i właściwości poszczególnych jego fragmentów dostrzec można między nimi pewne różnice związane z parametrami technicznymi oraz geograficznymi. WAN (ang. Wide Area Network) MAN (ang. Metropolitan Area Network) Sieci kampusowe LAN (ang. Local Area Network) PAN (ang. Private Area Network)
Sieci rozległe charakteryzują przede wszystkim długie połączenia zlokalizowane na stosunkowo dużym obszarze takim jak województwo, kraj, kontynent czy cały glob. Realizacja połączeń na ogół związana jest z niższą przepustowością i stosowaniem interfejsów szeregowych. Zapewniają łączność w pełnym lub ograniczonym wymiarze czasowym.
Sieci lokalne dotyczą instalacji zlokalizowanych na stosunkowo niewielkim obszarze. Teoretyczna średnica sieci lokalnej może wynosić nawet kilkaset metrów, jednak po uwzględnieniu geometrii pomieszczeń obszar instalacji ogranicza się do jednego budynku lub jego części, np. piętra. W sieciach lokalnych stosuje się krótkie łącza (do ok. 100m) o wysokiej przepustowości lub rozwiązania oparte na technice radiowej. Sieci lokalne charakteryzuje też wysoka niezawodność działania
W przypadku uniwersytetów na ogół stosuje się rozwiązanie polegające na łączeniu poszczególnych, wewnętrznych sieci lokalnych łączami charakterystycznymi dla technik stosowanych w budowie lokalnych, a nie rozległych sieci komputerowych. Wszystkie sieci lokalne albo ich zdecydowana większość znajdują się na stosunkowo niewielkim obszarze o bardzo rozwiniętej infrastrukturze technicznej, której zarządzanie znajduje się w gestii uczelni. Ponadto charakter działalności i związane z tym potrzeby i rygory bezpieczeństwa z jednej strony pozwalają, z drugiej wymagają dużej swobody w konfiguracji sieci.
Sieci metropolitarne przypominają swoją budową zarówno sieci kampusowe jak i sieci rozległe. Ich zadaniem jest łączenie wielu sieci lokalnych znajdujących się w obrębie aglomeracji miejskiej, co nadal stanowi stosunkowo niewielki obszar. Jednak w tym przypadku względy formalne oraz względy bezpieczeństwa sprawiają, że połączenia te mają na ogół charakter typowy dla sieci rozległych. Dodatkowo, do zadań sieci metropolitalnych należy łączenie indywidualnych komputerów, głównie osób prywatnych do Internetu.
Konstrukcja sieci metropolitalnych oparta jest zazwyczaj na sieci szkieletowej, do której podłączane są sieci lokalne różnego rodzaju organizacji oraz osób prywatnych za pomocą indywidualnych łączy typowych dla sieci rozległych. Oczywiście, ze względu na rozbudowaną infrastrukturę techniczną jaka zazwyczaj występuje w środowisku miejskim stosowane są konfiguracje charakterystyczne dla sieci kampusowych w przypadku uczelni, urzędów, czy dużych firm.
Sieci prywatne (PAN), to konstrukcje stosowane głównie w domach i niewielkich biurach. Charakteryzuje je niewielki zasięg geograficzny (do ok. 10m) i dość duża różnorodność mediów, jak: skrętka UTP komunikacja bezprzewodowa WLAN BlueTooth Podczerwień
Drugim elementem charakteryzującym fizyczną konstrukcję sieci komputerowej jest topologia sieci, określająca sposób łączenia poszczególnych urządzeń sieciowych. Fizyczne topologie sieci to: magistrali, pierścienia, podwójnego pierścienia, gwiazdy, rozszerzonej gwiazdy, hierarchiczna, siatki.
Liczba połączeń potrzebnych przy N komputerach jest proporcjonalna do N 2 : lp = N 2 N 2 Nowy komputer musi mieć połączenie z każdym spośród już istniejących. Stąd dodanie N-tego komputera wymaga N-1 nowych połączeń.
Zbudowane są z wykorzystaniem kabla koncentrycznego 50 Ω RG-58 (tzw. cienki koncentryk). Długość jednego segmentu sieci (czyli od jednego końca do drugiego) nie może dla cienkiego koncentryka przekraczać 185 m. Komputery są dołączone do kabla za pomocą trójników. Każdy segment sieci musi być ponadto na końcach wyposażony w terminatory o oporności przystosowanej do impedancji falowej kabla (powszechnie jest to 50 Ω).
Zaletą tej topologii jest niska cena wynikająca z małego zużycia kabli i braku urządzeń pośredniczących w dostępie do medium. Do zalet należy zaliczyć także łatwość instalacji. Wadą są ograniczenia związane z rozbudową sieci i wrażliwość na awarię. Przerwanie magistrali w jednym miejscu oznacza awarię całej sieci.
Wyobrażenie przepływu bitów przez sieć Ethernet. Na czas transmisji ramki komputer ma wyłączność użycia kabla.
Zalety: jest mało wrażliwy na zakłócenia i szumy; nadaje się do sieci z przesyłaniem modulowanym (szerokopasmowym) jest tańszy niż ekranowany kabel skręcany Wady: łatwo ulega uszkodzeniom trudności przy lokalizowaniu usterki jakakolwiek usterka kabla bądź połączeń powoduje awarię całej sieci podłączenie nowego komputera wymaga rozpięcia kabla co skutkuje unieruchomieniem całej sieci
Konstrukcja topologii pierścienia polega na bezpośrednim łączeniu urządzeń (każde urządzenie połączone jest z dwoma sąsiednimi), tak że całość tworzy krąg. Transmisja w sieci zbudowanej w oparciu o tę topologię polega na przekazywaniu żetonu dostępu. Podobnie jak w przypadku topologii magistrali zaletą topologii pierścienia jest niska cena wynikająca z małego zużycia kabli i braku aktywnych urządzeń pośredniczących w komunikacji między komputerami. Wadą tej topologii są ograniczenia i utrudnienia związane z rozbudową i konserwacją sieci. Uszkodzenie jednego z urządzeń lub łączy oznacza przerwę w pracy całej sieci.
Topologia podwójnego pierścienia polega na tych samych zasadach, co topologia pierścienia, z tą różnicą, że urządzenia połączone są podwójnymi łączami, co pozwala na zachowanie transmisji w obszarach ograniczonych punktami awarii. W przypadku jednego punktu uszkodzenia sieć zachowuje możliwość działania w pełnym zakresie. Tego typu topologie stosowane są w budowie sieci szkieletowych lub w sieciach kampusowych i metropolitalnych.
W topologii gwiazdy wszystkie urządzenia połączone są w jednym wspólnym punkcie, w którym znajduje się aktywne urządzenie pośredniczące (koncentrator) pełniące rolę regeneratora sygnału. Istotną zaletą tej topologii jest niewątpliwie przejrzystość konstrukcji i odporność całej sieci na awarię zarówno urządzeń jak i łączy. Wadą tej topologii jest wysoki koszt okablowania oraz dodatkowy koszt związany z obecnością koncentratora.
Podstawą konstrukcji topologii rozszerzonej gwiazdy jest topologia gwiazdy ze wszystkimi zaletami i wadami. Topologia ta stosowana jest głównie w przypadku rozbudowanych sieci lokalnych oraz sieci kampusowych.
Topologia hierarchiczna jest łudząco podobna do topologii rozszerzonej gwiazdy jednak różni się co do sposobu działania. W topologii hierarchicznej urządzenia aktywne oprócz regeneracji sygnału pełnią rolę urządzeń sterujących dostępem do sieci.
Topologia siatki jest typowa dla sieci metropolitalnych i sieci rozległych. Konstrukcja tej topologii oparta jest na takim łączeniu urządzeń, że każde z nich połączone jest z więcej niż jednym urządzeniem. Tego typu rozwiązania stosowane są w celu zapewnienia redundantnych połączeń między wszystkimi urządzeniami
Urządzenia sieciowe stanowią trzeci element fizycznej budowy sieci. Zaliczamy do nich zarówno urządzenia bierne: kable, koncentratory bierne, jak i elementy aktywne: huby, mosty, przełączniki, routery, konwertery, modemy, punkty dostępowe sieci bezprzewodowych oraz urządzenia końcowe: stacje robocze, serwery, drukarki, terminale, inne sieciowe urządzenia peryferyjne
Urządzenia bierne to media transmisyjne i akcesoria sieciowe (pasywne, bierne). W budowie sieci komputerowych wykorzystywane są trzy rodzaje kabli: koncentryczny skrętka światłowód.
W sieciach typu Ethernet można stosować różne rodzaje mediów transmisyjnych. Ich wybór opiera się na kilku czynników, które należy uwzględniać, a to: wymagana szybkość transmisji, perspektywy rozwoju sieci, odległości między komputerami, rozległość sieci (kabel, transmisja radiowa lub satelitarna), wymagana tolerancja błędu ( wrażliwość na awarie ), środowisko rodzaj i moc zakłóceń generowanych przez otoczenie cena.
W specyfikacji IEEE 802.3 zawarto wiele różnych standardów, spośród których aktualnie najważniejsze są: 10Base2 - standard definiujący tzw. Thin Ethernet czyli sieć używającą cienkiego kabla koncentrycznego ( 50 ohm ) o max. długości do 185m i szybkości transmisji 10 Mb/s. 10Base5 - standard definiujący tzw Thick Ethernet czyli sieć używającą grubego kabla koncentrycznego ( 50 ohm ) o max. długości do 500m i szybkości transmisji 10 Mb/s. 10BaseT - standard definiujący sieć używającą kabla telefonicznego ( UTP Cat 3 ) o max. długości do 100m i szybkości transmisji 10 Mb/s.
100BaseFX - Fiber Ethernet standard określający światłowodowe połączenie pomiędzy koncentratorami. Szybkość transmisji do 100 Mb/s przy użyciu dwóch włókien optycznych o max. długości do 412m. 1000BaseT - Giga Ethernet - standard zwiększający szybkości transmisji do 1000 Mb/s przy użyciu czterech par kabla telefonicznego (UTP level 5) o max. długości do 100m. 1000BaseFX jw. tylko dla kabla światłowodowego.
Technologia oparta na kablu koncentrycznym przechodzi do historii. Zalety kabla koncentrycznego: Ze względu na posiadany ekran mało wrażliwy na zakłócenia, nie wygórowana cena (tańszy niż skrętka ekranowana), ma twardą osłonę, dzięki temu jest odporny na uszkodzenia fizyczne, duża odległość łączenia składników sieci 185m Wady: ograniczenie szybkości do 10 Mb, niewygodny sposób instalacji, słaba skalowalność, niska odporność na poważne awarie, trudności w lokalizacji usterki.
Wyróżnia się dwa rodzaje kabla koncentrycznego: Ethernet gruby 10Base-5 (Thick Ethernet) oznaczenie kabla RG-8 i RG-11, o impedancji falowej 50 Ω i grubości 1/2", praktycznie wyszedł z użycia, czasem stosowany jako rdzeń sieci (max. odległość między stacjami do 500m). Ethernet cienki 10Base-2 (Thin Ethernet) oznaczenie kabla RG-58, o impedancji falowej 50 Ω i grubości 1/4", powszechnie stosowany w małych sieciach lokalnych (przy połączeniu 2 komputerów max. odległość między nimi to 185m). Czasem jeszcze spotyka się tą technologię w praktycznych zastosowaniach.
Budowa kabla koncentrycznego
W technologii 10Base-2 kolejne odcinki kabla łączymy w topologii magistrali za pomocą końcówek BNC.
Podczas instalacji końcówki BNC wykorzystuje się specjalne narzędzie do przycięcia poszczególnych części kabla na odpowiednie długości. Następnie za pomocą szczypiec zaciskowych wykonuje się połączenie mechaniczne i elektryczne końcówki BNC.
Kable koncentryczne powinny być zakończone terminatorami (specjalne końcówki o rezystancji 50 Ω dostosowanej do impedancji falowej kabla), z czego jeden z nich powinien być uziemiony (podłączony krótkim łańcuszkiem do obudowy komputera).
Skrętka UTP Aktualnie najpopularniejszy środek transmisji, nieekranowany, dwuparowy kabel skręcany (UTP Unshielded Twisted Pair). Składa się on z ośmiu przewodów skręconych po dwa (czterech par) umieszczonych we wspólnej izolacji. Standard opracowany w 1991 roku w USA przez EIA/TIA w którym zdefiniowano podział kabli na kategorie (1,2,3,4,5). Cat 2 - nieekranowana skrętka umożliwiająca transmisję głosu i danych ( modem ) o częstotliwości do 4 MHz. Kabel składa się z dwóch par przewodów, transmisja głosu lub danych o niskiej jakości, Cat 3 -skrętka umożliwiająca transmisję o szybkości do 10 Mbps. Kabel składa się z czterech par przewodów,
Cat 4 skrętka umożliwiająca transmisję o szybkości do 16 Mbps, Cat 5 -skrętka umożliwiająca transmisję o szybkości do 100 Mbps. Kabel składa się z czterech par przewodów, Cat 6 - rozszerzenie ISO/IEC 11801/TlA wprowadzone w 1999, obejmuje okablowanie, którego wymagania pasma są do częstotliwości 250 MHz (przepustowość rzędu 200 Mb/s). Przewiduje ono implementację Gigabit Ethernetu (4x 250 MHz = 1 GHz) i transmisji ATM 622 Mb/s Cat 6A - wprowadzona przez ISO/IEC 11801 2002:2 Poprawka 1. Obejmuje pasmo do częstotliwości 500 MHz
Cat 7 - opisana w ISO/IEC 11801 2002:2. Możliwa jest realizacja aplikacji wykorzystujących pasmo do 600 MHz. Różni się ona od poprzednich klas stosowaniem kabli typu S/FTP (każda para w ekranie plus ekran obejmujący cztery pary) łączonych ekranowanymi złączami. Dla tej klasy okablowania jest możliwa realizacja systemów transmisji danych z prędkościami przekraczającymi 1 Gb/s; Cat 7A - wprowadzona przez ISO/IEC 11801 2002:2 Poprawka 1. Obejmuje pasmo do częstotliwości 1000 MHz;
Zalety skrętki : najtańsze medium transmisji, wysoka prędkość transmisji, wygodny sposób instalacji, łatwe jest diagnozowanie uszkodzeń, akceptowana przez wiele rodzajów sieci. Wady skrętki : mała długość odcinka kabla, skrętka nieekranowana jest mało odporna na zakłócenia, mało odporna na uszkodzenia mechaniczne.
Wyróżniamy 3 rodzaje połączeń końcówek kabla UTP: odwrotny - końcówka 1 do 8, końcówka 7 do 2, itd. zastosowany w kablu telefonicznym, zgodny - końcówka 1 do 1, końcówka 2 do 2, itd. np.: połączenie Ethernet pomiędzy koncentratorem i kartą sieciową komputera, krzyżowy - (cross-over) odwraca tylko niektóre połączenia, często spotykane przy połączeniach pomiędzy koncentratorami lub przy łączeniu dwóch komputerów bez pośrednictwa koncentratora. W większości koncentratorów jednak istnieje możliwość dokonania zamiany kolejności przewodów wewnątrz urządzenia i wykorzystania kabla zgodnego. Metoda ta nazywana jest wewnętrznym krzyżowaniem.
Sposoby łączenia skrętki
Światłowód Najnowocześniejszym i zapewniającym największe szybkości transmisji jest aktualnie światłowód (Fiber Optic Cable). Jak sama nazwa wskazuje, jego działanie opiera się na transmisji impulsów świetlnych między nadajnikiem przekształcającym sygnały elektryczne na świetlne a odbiornikiem przekształcającym sygnały świetlne na elektryczne. Połączenie światłowodowe dokonuje się za pomocą dwóch włókien, jednego do transmisji, a drugiego do odbierania danych. Połączenia są całkowicie odporne na zakłócenia elektromagnetyczne oraz na podsłuch elektroniczny.
Budowa światłowodu Włókno optyczne, złożone z dwóch rodzajów szkła o różnych współczynnikach załamania (Refraction Index): cześć środkowa rdzeń (Core), najczęściej o średnicy 62,5 um (rzadziej 50um) część zewnętrzną płaszcz zewnętrzny (Cladding), o średnicy 125 um; Warstwa akrylowa Tuba izolacja o średnicy 900 um. Oplot kewlarowy. Izolacja zewnętrzna.
Budowa światłowodu
Złącza światłowodowe
Koncentratory (hub y) bierne stosowane były głównie w sieciach zbudowanych w oparciu o kabel koncentryczny. Ze względu na duże ograniczenia związane z dopuszczalną długością połączeń koncentratory wykorzystywano w sieciach o niewielkich rozmiarach.
Podstawowym zadaniem urządzeń aktywnych jest regeneracja sygnału lub łączenie różnych rodzajów mediów (huby, konwertery, modemy) Bardziej skomplikowane urządzenia (mosty, przełączniki, routery) posiadają znacznie więcej funkcjonalności umożliwiających np. separację, sterowanie, monitorowanie czy filtrowanie. Obecnie do budowy i rozbudowy sieci wykorzystywane są przełączniki wyposażone w moduł routera, natomiast routery stosuje się głównie na styku sieć wewnętrzna/internet.
Zewnętrzny modem wykorzystujący połączenia komutowane realizowane w ramach telefonii tradycyjnej. Obecnie stosowany jest głównie do celów administracyjnych, gdy wymagany jest zapasowy dostęp do urządzeń sieciowych w przypadku awarii sieci komputerowej.
Przykład wewnętrznego modemu do połączeń komutowanych. Wadą tego typu modemów jest brak pełnej kontroli przez użytkownika, co jest szczególnie dotkliwe (finansowo) w przypadku zarażenia systemu operacyjnego wirusem, którego działanie polega na wykonywaniu połączeń komutowanych bez wiedzy użytkownika.
Zewnętrzny modem DSL, stosowany do podłączania domowych lub firmowych sieci komputerowych do Internetu, za pomocą dzierżawionych linii telefonicznych lub sieci telewizji kablowej.
Mediakonwerter umożliwiający łączenie dwóch urządzeń, wyposażonych w interfejsy sieciowe dostosowane do różnego rodzaju mediów: skrętka/światłowód, kabel koncentryczny/skrętka, kabel koncentryczny/światłowód, złącze AUI/(skrętka albo kabel koncentryczny, albo światłowód). Mediakonwertery stosowane są najczęściej do łączenia dwóch odległych urządzeń za pomocą linii światłowodowych.
Koncentrator to urządzenie łączące wiele urządzeń sieciowych w sieci komputerowej o topologii gwiazdy. Koncentrator przesyła sygnał z jednego portu (gniazda) na wszystkie pozostałe. Nie analizuje ramki pod kątem adresu MAC oraz IP. Ponieważ koncentrator powtarza każdy sygnał elektroniczny, tworzy jedną domenę kolizyjną. Koncentrator najczęściej podłączany jest do routera jako rozgałęziacz, do niego zaś dopiero podłączane są pozostałe urządzenia sieciowe: komputery pełniące rolę stacji roboczych, serwerów, drukarki sieciowe i inne.
Obecnie urządzenia te, wyparte przez przełączniki praktycznie nie są już stosowane. Jednakże koncentrator przenosi sygnał z portu wejściowego na wszystkie porty wyjściowe bit po bicie, przełącznik natomiast ramka po ramce, co jest powodem wprowadzania opóźnień (także dodatkowych, zmiennych, w zależności od długości ramki). Jest to z jednej strony zaletą, z drugiej zaś wadą urządzenia.
Jest to urządzenie zapewniające stacjom bezprzewodowym dostęp do zasobów sieci za pomocą bezprzewodowego medium transmisyjnego (częstotliwości radiowe). Punkt dostępowy jest także mostem łączącym sieć bezprzewodową z siecią przewodową (najczęściej Ethernet). W związku z tym każdy punkt dostępowy ma minimum dwa interfejsy: interfejs bezprzewodowy komunikujący się z sieciami standardu 802.11 oraz drugi służący połączeniu PD z siecią przewodową.
Urządzenie służy do łączenia różnych sieci komputerowych (różnych w sensie informatycznym, czyli np. o różnych klasach, maskach itd.), pełni więc rolę węzła komunikacyjnego. Na podstawie informacji zawartych w pakietach TCP/IP jest w stanie przekazać pakiety z dołączonej do siebie sieci źródłowej do docelowej, rozróżniając ją spośród wielu dołączonych do siebie sieci. Proces kierowania ruchem nosi nazwę trasowania, routingu lub rutowania.
Urządzenia końcowe to na ogół różnego rodzaju komputery: terminale, stacje robocze, komputery przenośne, serwery. Okazuje się jednak, że taką rolę może pełnić inne, dowolne urządzenie, np. drukarka, faks, oscyloskop, itp. Tym co łączy te wszystkie urządzenia jest konieczność posiadania interfejsu umożliwiającego dołączenie danego urządzenia do sieci. Interfejs łączący urządzenie do sieci to karta sieciowa, która może mieć postać dodatkowego układu elektronicznego instalowanego w danym urządzeniu (starsze rozwiązania) albo może stanowić integralną część urządzenia (rozwiązanie stosowane obecnie).
Jest to karta rozszerzenia, która służy do przekształcania pakietów danych w sygnały, które są przesyłane w sieci komputerowej. Karty NIC pracują w określonym standardzie, np. Ethernet, Token Ring, FDDI, ArcNet, inne. Dla większości standardów karta NIC posiada własny, unikatowy w skali światowej adres fizyczny, znany jako adres MAC, przyporządkowany w momencie jej produkcji przez producenta, zazwyczaj umieszczony na stałe w jej pamięci ROM. Adres ten można dynamicznie zmieniać o ile stosowane oprogramowanie na to pozwala.
Wielość rozwiązań stosowanych w budowie pierwszych sieci komputerowych w sposób istotny utrudniała wzajemną komunikację pomiędzy sieciami działającymi na podstawie różnych specyfikacji. Fakt ten był bezpośrednią przyczyną podjęcia działań w kierunku standaryzacji rozwiązań. W wyniku analizy modeli sieciowych, takich jak DECnet (ang. Digital Equipment Corporation net), SNA (ang. Systems Network Architecture) i TCP/IP, organizacja ISO (ang. International Organization for Standardization) opracowała zbiór zasad umożliwiający budowę wzajemnie zgodnych sieci, który został opublikowany w 1984 roku jako model odniesienia OSI (ang. Open System Interconnection).
Model odniesienia ISO/OSI przedstawia proces komunikacji w postaci siedmiu warstw. Każda warstwa odpowiada konkretnemu fragmentowi procesu komunikacji, który sam w sobie stanowi zamkniętą całość. Dla każdej warstwy zdefiniowano interfejsy do warstw sąsiednich. Przy użyciu tego modelu można wyjaśnić, w jaki sposób pakiet przechodzi przez różne warstwy do innego urządzenia w sieci, nawet jeśli nadawca i odbiorca dysponują różnymi typami medium sieciowego.
Do najważniejszych zalet modelu ISO/OSI należy zaliczyć: podział procesu komunikacji sieciowej na mniejsze, łatwiejsze do zarządzania elementy składowe; utworzenie standardów składników sieci, dzięki czemu składniki te mogą być rozwijane i obsługiwane przez różnych producentów; umożliwienie wzajemnej komunikacji sprzętu i oprogramowania sieciowego różnych producentów; wyeliminowanie wpływu zmian wprowadzonych w jednej warstwie na inne warstwy; podział procesu komunikacji sieciowej na mniejsze składowe, co pozwala na łatwiejsze jego zrozumienie.
Zadaniem warstwy fizycznej jest transmitowanie sygnałów cyfrowych pomiędzy urządzeniami sieciowymi. Jednostką informacji na poziomie tej warstwy jest pojedynczy bit. Parametry charakteryzujące tę warstwę to właściwości fizyczne łącza takie jak częstotliwości, napięcia, opóźnienie, długość, zniekształcenia, poziom zakłóceń, itp.
Warstwa łącza danych odpowiada za komunikację pomiędzy hostami, podłączonymi do tego samego medium. Jej głównym zadaniem jest sterowanie dostępem do medium. Jednostką informacji w tej warstwie jest ramka składająca się z bitów o ściśle określonej strukturze zawierająca adresy nadawcy i adresata. Adresy urządzeń mogą mieć dowolną postać, określoną w specyfikacji zastosowanego standardu komunikacji. Warstwa wyposażona jest w mechanizm kontroli poprawności transmisji, w celu zapewnienia niezawodnego przesyłania danych przez medium.
Głównym zadaniem warstwy sieci jest umożliwienie komunikacji pomiędzy hostami znajdującymi się w różnych sieciach lokalnych. Realizacja tego zadania możliwa jest dzięki dwóm mechanizmom: jednolitej adresacji urządzeń w całej sieci oraz routingu. Podstawową jednostką informacji w tej warstwie jest pakiet o ściśle określonej strukturze zawierający oprócz danych, adresy: nadawcy i odbiorcy pakietu. Warstwa ta nie gwarantuje niezawodności transmisji, natomiast wyposażona jest w mechanizmy monitorowania transmisji, co pozwala m.in. na identyfikację przyczyn uniemożliwiających komunikację.
Warstwa transportowa odpowiedzialna jest za niezawodne przesyłanie danych między urządzeniami. Warstwa ta posiada mechanizmy umożliwiające inicjację, utrzymanie i zamykanie połączenia między urządzeniami, sterowanie przepływem danych oraz wykrywanie błędów transmisji.
Zadaniem warstwy sesji jest zarządzanie komunikacją między aplikacjami działającymi na danym hoście, a aplikacjami działającymi na innych hostach w sieci. Ze względu na funkcjonalność systemów operacyjnych zawsze występuje sytuacja, gdy liczba aplikacji korzystających z sieci jest większa od liczby fizycznych interfejsów sieciowych. Rola tej warstwy sieci polega na stworzeniu mechanizmu umożliwiającego dostarczanie danych jakie przyszły z sieci oraz wysyłanie danych do sieci do aplikacji, dla której te dane są przeznaczone.
Zadaniem warstwy prezentacji jest konwersja danych pod względem formatu oraz struktury aby interpretacja tych danych była jednakowa na obu urządzeniach: wysyłającym i odbierającym. Najczęściej konieczność dostosowania danych wynika z różnic między platformami sprzętowymi, na których działają komunikujące się aplikacje.
Zadaniem warstwy aplikacji jest zapewnienie dostępu do usług sieciowych procesom aplikacyjnym, działającym na danym urządzeniu.
Model komunikacji w sieci komputerowej oparty jest na komunikacji równorzędnej (ang. peer-to-peer). W procesie przesyłania danych między dwoma hostami, każda warstwa sieciowa jednego hosta komunikuje się z odpowiadającą jej warstwą drugiego hosta. Komunikacja równorzędnych warstw odbywa się poprzez wymianę ściśle określonych dla danej warstwy jednostek informacji oznaczanych skrótowo PDU (ang. Protocol Data Unit).
Aby taka forma komunikacji mogła zostać zrealizowana warstwy wyższe hosta wysyłającego muszą skorzystać z usług świadczonych przez warstwy niższe, natomiast w przypadku hosta odbierającego odwrotnie. Polega to na tym, że warstwa wyższa przekazuje dane do wysłania warstwie niższej, która przekształca dane do odpowiedniej postaci i przekazuje następnej, niższej warstwie. Gdy dane dojdą do warstwy fizycznej zostają przekształcone do postaci ciągu bitów i przekazane za pomocą medium transmisyjnego do warstwy fizycznej hosta odbierającego, na którym zachodzi proces odwrotny.
Wędrówce danych między warstwami modelu odniesienia towarzyszy proces enkapsulacji (opakowania) jeżeli dane przekazywane są w dół stosu oraz proces dekapsulacji (rozpakowania), gdy dane przekazywane są w kierunku przeciwnym. Warstwa niższa przekształcając dane do odpowiedniej postaci dodaje niezbędne informacje (enkapsulacja), aby dane te mogły zostać poprawnie przesłane do równorzędnej warstwy hosta odbierającego i poprawnie przez nią zinterpretowane. Następnie, równorzędna warstwa hosta odbierającego dokonuje procesu dekapsulacji i przekazuje dane warstwie wyższej.
Wszystkie procesy związane z dwustronną komunikacją zarówno między warstwami równorzędnymi komunikujących się urządzeń, jak i warstwami sąsiednimi danego urządzenia opisane są w postaci zestawu reguł zwanych protokołami. Protokoły określają wszystkie aspekty komunikacji w sieci. Nad procesem tworzenia protokołów czuwają specjalnie do tego celu powołane organizacje międzynarodowe: Institute of Electrical and Electronic Engineers (IEEE), American National Standards Institute (ANSI), Telecommunications Industry Association (TIA), Electronic Industries Alliance (EIA), International Telecommunications Union (ITU, dawny Comité Consultatif International Téléphonique et Télégraphique (CCITT)).
Zadaniem modelu odniesienia ISO/OSI było uporządkowanie i ujednolicenie procesów związanych z komunikacją w sieci: budowa sieci, działanie sieci, zarządzanie siecią. Można zaryzykować stwierdzenie, że momentem decydującym było opracowanie rodziny protokołów TCP/IP, zaimplementowanie ich w sieci ARPANET oraz w systemach UNIX owych. Z czasem, w celu zachowania jednolitego modelu komunikacji w całym Internecie rodzina protokołów TCP/IP stała się także podstawowym standardem wykorzystywanym w sieciach lokalnych.
Cztery warstwy. Ze względu na dużą różnorodność rozwiązań w zakresie fizycznej konstrukcji sieci, jaka istniała w chwili opracowywania, model TCP/IP zapewnia interfejs do warstwy dostępu do sieci traktując ją jako monolit. Warstwa ta odpowiada dwóm najniższym warstwom, fizycznej oraz łącza danych modelu ISO/OSI. Warstwa internetu odpowiada warstwie sieci w pełnym zakresie funkcjonalności.
Warstwa transportowa modelu TCP/IP realizuje te same zadania, co warstwa transportowa modelu ISO/OSI oraz dodatkowo zajmuje się podstawowymi aspektami związanymi z zarządzaniem sesjami aplikacyjnymi. Pozostałe zadania warstwy sesji modelu ISO/OSI oraz zadania warstwy prezentacji i aplikacji zostały umieszczone w modelu TCP/IP w warstwie aplikacji. Obecnie rodzina protokołów TCP/IP jest podstawowym modelem komunikacji w Internecie i zdecydowanej większości lokalnych sieci komputerowych nie podpiętych do Internetu.
Powszechność Różnorodność rozwiązań fizycznych Różnorodność rozwiązań logicznych Urządzenia sieciowe Model sieci