TUTORIAL 5. Technologia Ethernet. Standardy i implementacja

Podobne dokumenty
Ethernet. Ethernet odnosi się nie do jednej, lecz do wielu technologii sieci lokalnych LAN, z których wyróżnić należy cztery podstawowe kategorie:

ETHERNET. mgr inż. Krzysztof Szałajko

TCP/IP. Warstwa łącza danych. mgr inż. Krzysztof Szałajko

Sieci komputerowe Wykład 3

Sieci komputerowe - warstwa fizyczna

Przesyłania danych przez protokół TCP/IP

Sieci komputerowe. Zajęcia 2 Warstwa łącza, sprzęt i topologie sieci Ethernet

Sieci komputerowe. Zadania warstwy łącza danych. Ramka Ethernet. Adresacja Ethernet

Sieci komputerowe test

- system budowy sieci opracowany przez firmę Xerox, podniesiony do poziomu standardu w wyniku współpracy firm: Xerox, DEC i Intel.

Sieci komputerowe. Dr inż. Robert Banasiak. Sieci Komputerowe 2010/2011 Studia niestacjonarne

pasja-informatyki.pl

Podstawy sieci komputerowych

Podstawy Informatyki. Inżynieria Ciepła, I rok. Wykład 13 Topologie sieci i urządzenia

Protokoły sieciowe - TCP/IP

Sieci komputerowe. Wykład 2: Sieci LAN w technologii Ethernet. Marcin Bieńkowski. Instytut Informatyki Uniwersytet Wrocławski

Urządzenia sieciowe. Tutorial 1 Topologie sieci. Definicja sieci i rodzaje topologii

Adresy w sieciach komputerowych

TECHNOLOGIE SIECI LAN

Urządzenia sieciowe. Część 1: Repeater, Hub, Switch. mgr inż. Krzysztof Szałajko

Rok szkolny 2014/15 Sylwester Gieszczyk. Wymagania edukacyjne w technikum. SIECI KOMPUTEROWE kl. 2c

ISO/OSI warstwach 2 i 1 Standardy IEEE podwarstwy

MODEL WARSTWOWY PROTOKOŁY TCP/IP

Sieci komputerowe. Informatyka Poziom rozszerzony

Akademickie Centrum Informatyki PS. Wydział Informatyki PS

Enkapsulacja RARP DANE TYP PREAMBUŁA SFD ADRES DOCELOWY ADRES ŹRÓDŁOWY TYP SUMA KONTROLNA 2 B 2 B 1 B 1 B 2 B N B N B N B N B Typ: 0x0835 Ramka RARP T

PODSTAWOWE PODZIAŁY SIECI KOMPUTEROWYCH

Akademia Techniczno-Humanistyczna w Bielsku-Białej

5R]G]LDï %LEOLRJUDğD Skorowidz

Warstwa łącza danych. Model OSI Model TCP/IP. Aplikacji. Aplikacji. Prezentacji. Sesji. Transportowa. Transportowa. Sieciowa.

Warstwy i funkcje modelu ISO/OSI

Na powyższym obrazku widać, że wszystkie 24 porty przełącznika znajdują się w tej samej sieci VLAN, a mianowicie VLAN 1.

ARP Address Resolution Protocol (RFC 826)

1. Sieć komputerowa - grupa komputerów lub innych urządzeń połączonych ze sobą w celu wymiany danych lub współdzielenia różnych zasobów.

Protokoły sieciowe model ISO-OSI Opracował: Andrzej Nowak

Sieci komputerowe. Wykład 2: Sieci LAN w technologii Ethernet. Marcin Bieńkowski. Instytut Informatyki Uniwersytet Wrocławski

Skąd dostać adres? Metody uzyskiwania adresów IP. Statycznie RARP. Część sieciowa. Część hosta

Plan wykładu. Warstwa sieci. Po co adresacja w warstwie sieci? Warstwa sieci

Pytanie 1 Z jakich protokołów korzysta usługa WWW? (Wybierz prawidłowe odpowiedzi)

Sieci komputerowe Zasada działania i konfigurowanie przełączników

Wykład 5. Projektowanie i Realizacja Sieci Komputerowych. 1. Technologie sieci LAN (warstwa 2) urządzenia 2. Sposoby przełączania

Podstawy Transmisji Danych. Wykład IV. Protokół IPV4. Sieci WAN to połączenia pomiędzy sieciami LAN

Sieci Komputerowe. Wykład 1: TCP/IP i adresowanie w sieci Internet

Zadania z sieci Rozwiązanie

Model OSI. mgr inż. Krzysztof Szałajko

Topologie sieciowe. mgr inż. Krzysztof Szałajko

SIECI KOMPUTEROWE Adresowanie IP

WRSTWA FIZYCZNA W ETHERNECIE. Warstwa fizyczna opisywana jest według schematu, jaki przedstawia poniższy rysunek

Protokoły dostępu do łącza fizycznego. 24 października 2014 Mirosław Juszczak,

Sieci komputerowe - standardy LAN

Technologie sieciowe Ethernet (IEEE 802.3) Jest najszerzej wykorzystywaną technologią w sieciach lokalnych (LAN).

Technologie informacyjne (5) Zdzisław Szyjewski

Podstawowe pojęcia dotyczące sieci komputerowych

1. Sieć komputerowa to medium umożliwiające połączenie dwóch lub więcej komputerów w celu wzajemnego komunikowania się.

Rywalizacja w sieci cd. Protokoły komunikacyjne. Model ISO. Protokoły komunikacyjne (cd.) Struktura komunikatu. Przesyłanie między warstwami

Zarządzanie infrastrukturą sieciową Modele funkcjonowania sieci

DR INŻ. ROBERT WÓJCIK DR INŻ. JERZY DOMŻAŁ ADRESACJA W SIECIACH IP. WSTĘP DO SIECI INTERNET Kraków, dn. 24 października 2016r.

PBS. Wykład Zabezpieczenie przełączników i dostępu do sieci LAN

Sieci komputerowe. ABC sieci - podstawowe pojęcia. Ewa Burnecka / Janusz Szwabiński. ewa@ift.uni.wroc.pl / szwabin@ift.uni.wroc.pl

Sieć komputerowa Adresy sprzętowe Adresy logiczne System adresacji IP (wersja IPv4)

ORGANIZACJA ZAJĘĆ WSTĘP DO SIECI

Zespół Szkół Ponadgimnazjalnych Nr 1 w Barlinku - Technik informatyk

Laboratorium - Wykorzystanie programu Wireskark do badania ramek Ethernetowych

Rodzaje, budowa i funkcje urządzeń sieciowych

ZiMSK. VLAN, trunk, intervlan-routing 1

Wykład 4. Interfejsy USB, FireWire

Sieci komputerowe Warstwa transportowa

Akademickie Centrum Informatyki PS. Wydział Informatyki PS

Sieci Komputerowe Modele warstwowe sieci

Konfigurowanie sieci VLAN

Wykład I. Administrowanie szkolną siecią komputerową. dr Artur Bartoszewski

Mapa wykładu. 5.6 Koncentratory, mosty, i switche 5.7 Bezprzewodowe łącza i sieci lokalne 5.8 PPP 5.9 ATM 5.10 Frame Relay

Uniwersalny Konwerter Protokołów

Urządzenia sieciowe. host urządzenie końcowe umożliwiające połączenie z siecią może istnieć bez sieci

MASKI SIECIOWE W IPv4

Wykład 6. Projektowanie i Realizacja Sieci Komputerowych. 1. Ethernet - technologia sieci LAN (warstwa 2)

Kurs Ethernet przemysłowy konfiguracja i diagnostyka. Spis treści. Dzień 1/2

Wykład 6. Ethernet c.d. Interfejsy bezprzewodowe

Sieć LAN to dziś nieodzowny element infrastruktury informatycznej

router wielu sieci pakietów

Scenariusz lekcji Opracowanie: mgr Bożena Marchlińska NKJO w Ciechanowie Czas trwania jednostki lekcyjnej: 90 min.

SIECI KOMPUTEROWE Typy sieci: Media transmisyjne: Kategorie skrętek miedzianych:

Uproszczony opis obsługi ruchu w węźle IP. Trasa routingu. Warunek:

Referencyjny model OSI. 3 listopada 2014 Mirosław Juszczak 37

OSI Data Link Layer. Network Fundamentals Chapter 7. ITE PC v4.0 Chapter Cisco Systems, Inc. All rights reserved.

Stos protokołów TCP/IP (ang. Transmission Control Protocol/Internet Protocol)

Sieci bazujące na SERWERZE - centralne - tylko serwer oferuje usługi - bezpieczeństwo danych - dane i programy są fizycznie na serwerze

Aby lepiej zrozumieć działanie adresów przedstawmy uproszczony schemat pakietów IP podróżujących w sieci.

STRUKTURA OGÓLNA SIECI LAN

Dr Michał Tanaś(

Laboratorium - Przechwytywanie i badanie datagramów DNS w programie Wireshark

Switching czyli przełączanie. Sieci komputerowe Switching. Wstęp. Wstęp. Bridge HUB. Co to jest? Po co nam switching? Czym go zrealizować?

W standardzie zarządzania energią ACPI, dopływ energii do poszczególnych urządzeń jest kontrolowany przez:

Plan wykładu. Warstwa sieci. Po co adresacja w warstwie sieci? Warstwa sieci

Pytania na kolokwium z Systemów Teleinformatycznych

Wykład II. Administrowanie szkolną siecią komputerową. dr Artur Bartoszewski

Działanie komputera i sieci komputerowej.

Technika sieciowa Ethernet

Sieci Ethernet. Autor: dr inŝ. K. Miśkiewicz

VPLS - Virtual Private LAN Service

Transkrypt:

1 TUTORIAL 5 Technologia Ethernet Internet Engineering Task Force (IETF) zajmuje się funkcjonowaniem protokołów oraz usług w górnych warstwach stosu TCP/IP. Z drugiej strony protokoły i usługi warstwy łącza danych i warstwy fizycznej modelu OSI są opisywane przez różne organizacje skupiające inżynierów (IEEE, ANSI, ITU) lub firmy prywatne (protokoły własne). Od chwili, gdy Ethernet objął standardy tych niższych warstw, może on być najlepiej zrozumiany w odniesieniu do modelu OSI. Model OSI oddziela funkcje adresowania, tworzenia ramek i dostępu do medium, od standardów mediów warstwy fizycznej. Standardy Ethernet definiują zarówno protokoły warstwy 2, jak i technologie warstwy 1. Chociaż specyfikacje Ethernet wspierają różne media, różną wielkość pasma oraz inne elementy warstw 1 i 2, to podstawowy format ramki i schemat adresowania jest taki sam dla wszystkich wariantów Ethernetu. Standardy i implementacja Standardy IEEE Pierwsza na świecie sieć LAN była oparta na pierwotnej wersji technologii Ethernet. Robert Metcalfe wraz ze swoimi współpracownikami z firmy Xerox zaprojektował ją ponad trzydzieści lat temu. Pierwszy standard Ethernet został opublikowany w 1980 roku przez konsorcjum trzech firm: Digital Equipment Corporation, Intel i Xerox (DIX). Metcalfe chciał, aby Ethernet najpierw był współdzielonym standardem, z którego wszyscy mogą korzystać, a następnie miałby się stać standardem otwartym. Pierwsze produkty, które były opracowane na podstawie standardu Ethernet, były sprzedane na początku lat osiemdziesiątych XX w. W roku 1985 standardy dotyczące sieci LAN zostały opublikowane przez komitet ds. standardów dla sieci lokalnych i miejskich organizacji IEEE (ang. standards committee for Local and Metropolitan Networks, Institute of Electrical and Electronics Engineers). Numery tych standardów rozpoczynają się od liczby 802. Standardem dla Ethernetu jest 802.3. IEEE chciała mieć pewność, że standardy są zgodne ze standardami Międzynarodowej Organizacji Standardów (ISO) i modelem OSI. W celu zapewnienia zgodności standard IEEE 802.3 był zmuszony przyjąć wymagania warstwy 1 i niższej podwarstwy warstwy 2 modelu OSI. W rezultacie w standardzie 802.3 wprowadzono niewielkie modyfikacje w stosunku do początkowej wersji standardu Ethernet. Ethernet działa w dwóch najniższych warstwach modelu OSI: warstwie łącza danych i warstwie fizycznej.

2 Ethernet działa w dwóch warstwach modelu OSI. Model dostarcza wytycznych, do których standard Ethernet się odnosi, ale równocześnie cały czas jest implementowany w zakresie niższej podwarstwy warstwy łącza danych, która nazywana jest podwarstwą kontroli dostępu do medium MAC (ang. Media Access Control) oraz w zakresie warstwy fizycznej. Ethernet w warstwie 1 dotyczy: sygnałów, strumieni bitów, które podróżują w medium, fizycznych komponentów, które wprowadzają sygnały do medium oraz różnych topologii. Warstwa 1 technologii Ethernet odgrywa zasadniczą rolę w komunikacji, która zachodzi pomiędzy urządzeniami, lecz każda z jej funkcji ma swoje ograniczenia. Zamieszczony schemat przedstawia sposób eliminacji tych ograniczeń przez warstwę drugą. Podwarstwy łącza danych istotnie przyczyniają się do technologicznej zgodności i komunikacji między komputerami. Podwarstwa MAC skupia się na fizycznych komponentach, które są wykorzystywane do komunikacji oraz przygotowuje dane do transmisji poprzez media.

3 Podwarstwa LLC (ang. Logical Link Control) pozostaje stosunkowo niezależna od fizycznego sprzętu, który zostanie użyty w procesie komunikacji. Podwarstwa sterowania łączem logicznym Ethernet rozdziela funkcje warstwy łącza danych na dwie wyraźne podwarstwy: podwarstwa sterowania łączem logicznym (ang. Logical Link Control - LLC) i podwarstwę kontroli dostępu do medium (ang. Media Access Control - MAC). Funkcje przypisane w modelu OSI do warstwy łącza danych są przydzielone do podwarstw LLC i MAC. Używanie podwarstw znacząco przyczynia się do uzyskania zgodności pomiędzy różnorodnymi urządzeniami. Dla Ethernetu standard IEEE 802.2 określa funkcje podwarstwy LLC, a standard 802.3 określa funkcje podwarstwy MAC i warstwy fizycznej. Podwarstwa LLC (Logical Link Control) kieruje komunikacją pomiędzy wyższymi warstwami i oprogramowaniem sieciowym. Nad niższymi warstwami kontrolę najczęściej sprawuje już sprzęt. Podwarstwa LLC pobiera dane z warstwy sieci, zwykle są to pakiety IPv4 i dodaje dane kontrolne, pomagające dostarczyć pakiet do miejsca docelowego. Warstwa 2 komunikuje się z wyższymi warstwami poprzez podwarstwę LLC. LLC jest implementowana programowo, a jej implementacja jest niezależna od fizycznych urządzeń. W komputerze, sterownik do karty sieciowej (NIC) może być traktowany jako podwarstwa LLC. Sterownik do karty sieciowej jest programem, który współdziała bezpośrednio z układami karty sieciowej w celu przetworzenia danych pozyskanych z podwarstwy MAC na postać wysyłaną przez medium.

4 MAC przesyłanie danych do medium Media Access Control (MAC) jest niższą podwarstwą warstwy łącza danych. Media Access Control jest zaimplementowana sprzętowo, typowo w karcie sieciowej komputera. Ethernetowa podwarstwa MAC ma dwa podstawowe zadania: Enkapsulacja danych Sterowanie dostępem do medium (Media Access Control) Enkapsulacja danych Enkapsulacja realizuje trzy podstawowe funkcje: Ograniczanie ramki Adresowanie Wykrywanie błędów Proces enkapsulacji danych obejmuje utworzenie ramki przed transmisją i analizę ramki po jej odebraniu. W trakcie formowania ramki, podwarstwa MAC dodaje nagłówek i pole końcowe do jednostki danych protokołu warstwy 3 (PDU). Wykorzystanie ramek pomaga w transmitowaniu bitów, gdy są one umieszczane w medium i grupowaniu tych bitów na węźle odbierającym. Proces tworzenia ramek wykorzystuje ograniczniki, które są używane do identyfikacji grup bitów tworzących ramkę. Ten proces dokonuje synchronizacji pomiędzy węzłami transmitującym i odbierającymi. Proces enkapsulacji obsługuje adresację dla warstwy łącza danych. Każdy nagłówek Ethernetowy dodany do ramki zawiera fizyczny adres (adres MAC), który umożliwia przesłanie ramki do węzła docelowego. Dodatkową funkcją enkapsulacji danych jest wykrywanie błędów. Każda ramka Ethernetowa zawiera pole końcowe z sumą kontrolną (CRC) zawartości ramki. Po odebraniu ramki odbierający węzeł tworzy sumę kontrolną i porównuje ją z sumą kontrolną z odebranej ramki. Jeżeli wyniki obliczeń są zgodne, to przyjmuje się, że ramka została odebrana bez błędów. Kontrola dostępu do medium Podwarstwa MAC steruje umieszczaniem ramek w medium i usuwaniem ramek z medium. Jak sama nazwa wskazuje, zarządza ona sterowaniem dostępem do medium. Obejmuje to inicjowanie transmisji ramki i odzyskiwanie ramki po niepowodzeniu transmisji spowodowanej kolizją.

5 Topologia logiczna Zasadniczą topologią dla logicznej topologii sieci Ethernet jest wielodostępna magistrala. To oznacza, że wszystkie węzły (urządzenia) w tym segmencie sieci współdzielą medium. Zatem wszystkie węzły w tym segmencie odbierają wszystkie ramki transmitowane przez każdy węzeł znajdujący się w tym segmencie. Ze względu na fakt, iż wszystkie węzły odbierają wszystkie ramki, każdy węzeł musi określić, czy ramka jest dla niego przeznaczona i powinna być przez niego przetwarzana. Wymaga to sprawdzenia w ramce adresu MAC. Ethernet dostarcza metod określających, w jaki sposób węzły współdzielą dostęp do medium. Metodą dostępu do medium w klasycznym Ethernecie, jest metoda CSMA/CD, nazywana też metodą wielodostępu do nośnej z wykrywaniem kolizji (ang. Carrier Sense Multiple Access with Collision Detection). Implementacja fizyczna Ethernetu Większość ruchu w Internecie jest zarówno generowana w sieci Ethernet, jak i trafia do hostów pracujących w sieci Ethernet. Od początku lat siedemdziesiątych XX wieku technologia Ethernet rozwija się, starając się sprostać rosnącym wymaganiom dotyczącym dużej przepustowość sieci LAN. Po wprowadzeniu światłowodów Ethernet został dostosowany do nowej technologii przejmując jej zalety szerszego pasma i rzadziej występujących błędów. Dzisiaj ten sam protokół, który transmitował dane z szybkością 3Mb/s, jest w stanie przesyłać dane z szybkością 10Gb/s. Sukces technologii Ethernet jest związany z następującymi czynnikami: Prostota i łatwość obsługi, Możliwość dostosowywania się do nowych technologii, Niezawodność, Niski koszt instalacji i rozbudowy. Wprowadzenie gigabitowego Ethernetu rozszerzyło oryginalną technologię sieci LAN do rozmiaru, który powoduje, że Ethernet stał się standardem sieci MAN i WAN. Jako technologia związana z warstwą fizyczną, Ethernet specyfikuje i implementuje schematy kodowania i dekodowania, które umożliwiają przenoszenie bitów ramki w postaci sygnałów w medium. Urządzenia Ethernetowe pozwalają używać rożnego rodzaju okablowania oraz łączy. We współczesnych sieciach, Ethernet używa miedzianych kabli UTP oraz światłowodów do łączenia urządzeń sieciowych, poprzez urządzenia pośredniczące, takie jak koncentratory i przełączniki. Uwzględniając różnego typu media wspierane przez Ethernet, ramka Ethernetu zachowuje konsekwentnie strukturę bez względu na fizyczne implementacje. To z tego powodu technologia Ethernet może rozwijać się spełniając współczesne wymagania sieciowe. Ethernet historyczny Założenia dla technologii Ethernetu zostały po raz pierwszy ustanowione w 1970 roku w programie o nazwie Alohanet. Alohanet była cyfrową siecią radiową, zaprojektowaną do transmisji danych poprzez współdzieloną częstotliwość radiową, pomiędzy Wyspami Hawajskimi. Alohanet zmuszała wszystkie stacje do śledzenia protokołu, w którym niepotwierdzona transmisja wymagała po krótkim czasie oczekiwania retransmisji. Stosowane techniki umożliwiające wykorzystanie w taki sposób współdzielonego medium zostały później zastosowane w technologii kablowej w formie Ethernetu.

6 Ethernet został zaprojektowany z myślą o zapewnieniu możliwości komunikacji wielu komputerom, które są połączone w topologii współdzielonej magistrali. Pierwsza wersja Ethernetu zastosowała metodę dostępu do medium, znaną jako Metoda wielodostępu do nośnej z wykrywaniem kolizji (CSMA/CD). CSMA/CD rozwiązuje problemy, które powstają, kiedy kilka urządzeń stara się jednocześnie komunikować przez współdzielone medium. Media wczesnego Ethernetu Pierwsze wersje Ethernetu wykorzystywały kable koncentryczne do połączenia komputerów w topologii magistrali. Każdy komputer był bezpośrednio podłączony do magistrali. Te wczesne wersje Ethernetu były znane jako gruby Ethernet (10BASE5) i jako cienki Ethernet (10BASE2). 10BASE5 (gruby Ethernet) wykorzystywał gruby kabel koncentryczny, umożliwiający okablowanie dystansu do 500 metrów, bez konieczności wykorzystania regeneratora sygnału (ang. repeater). 10BASE2 (cienki Ethernet) wykorzystywał cienki kabel koncentryczny, który miał mniejszy zasięg (do 185 metrów), ale był bardziej elastyczny i wygodniejszy w stosowaniu. Możliwości migracji od pierwotnych implementacji Ethernetu do bieżących i przyszłych implementacji, bazują na praktycznie niezmienionej strukturze ramki warstwy 2. Fizyczne media, technologie związane z dostępem do medium oraz sterowaniem medium podlegają ciągłym zmianom. Jednakże mimo to nagłówek i pole końcowe ramki Ethernetowej pozostają niezmienne. Wczesne implementacje Ethernetu były rozwijane w środowisku sieci LAN o małej szerokości pasma, gdzie dostęp do współdzielonego medium był realizowany przy pomocy techniki CSMA, a później przez CSMA/CD. Dodatkowo, aby być logiczną topologią magistrali w warstwie łącza danych, Ethernet wykorzystywał również fizyczną topologię magistrali. Topologia ta, sprawiała coraz więcej problemów wraz z rozrastaniem się sieci LAN oraz zwiększającym się zapotrzebowaniem usług sieciowych na coraz większą infrastrukturę. Pierwotne grube i cienkie kable koncentryczne były zamieniane przez kable UTP wczesnych kategorii. W porównaniu do kabli koncentrycznych z kablami UTP łatwiej się pracuje, są wygodniejsze i tańsze. Fizyczna topologia magistrali została zamieniona na topologię gwiazdy wykorzystującej koncentrator (ang. hub). Koncentratory służą do koncentrowania połączeń. Innymi słowy, dzięki nim grupa węzłów jest postrzegana od strony sieci jako pojedyncza jednostka. Gdy ramka przybędzie do jednego portu, jest kopiowana do pozostałych portów, co w efekcie sprawi, że dotrze ona do wszystkich segmentów

7 w sieci LAN. Wykorzystując koncentrator w takiej topologii magistrali zwiększana jest niezawodność sieci z tego względu, że uszkodzenie jednego kabla nie powoduje awarii całej sieci. Jednak wysyłanie ramki do wszystkich pozostałych portów nie rozwiązuje problemu kolizji. W dalszej części rozdziału zobaczymy, jak w sieciach Ethernet problem kolizji rozwiązywany jest przez zastosowanie przełączników. Zarządzanie kolizjami w sieci Ethernet Pierwotny Ethernet W sieciach 10BASE-T najczęściej centralnym punktem segmentu był koncentrator. Tworzył on współdzielone medium. Ze względu na fakt, iż media są współdzielone, tylko jedna stacja jest w stanie skutecznie transmitować dane w danej chwili. Ten typ połączenia jest opisywany jako komunikacja typu half-duplex, nazywana również jednokierunkową. Oznacza to, iż zwiększenie ilości urządzeń podłączonych do sieci Ethernet w znaczący sposób wpływa na wzrost liczby kolizji ramek. Podczas małej aktywności komunikacyjnej występujące nieliczne kolizje, obsługiwane są przez mechanizm CSMA/CD, nie wpływając w istotny sposób na wydajność sieci. Gdy liczba urządzeń i powodowany przez nie ruch w sieci wzrasta, to wzrost liczby kolizji może mieć znaczący wpływ na odczucia użytkowników dotyczące jakości działania sieci. Dobrą analogią jest sytuacja dotycząca ruchu ulicznego. Gdy jedziemy do pracy lub szkoły wcześnie rano, drogi są właściwie puste i niezatłoczone. Później, gdy na drodze jest więcej samochodów, dochodzi do kolizji i przepustowość drogi maleje.

8 Współczesny Ethernet Znaczący postęp w rozwoju sieci LAN bazujących na technologii Ethernet osiągnięto przez zamianę koncentratorów na przełączniki. Zmiany te były mocno związane z rozwojem standardu Ethernetu 100BASE-TX. Przełączniki są w stanie sterować przepływem danych przez izolowanie każdego portu i wysyłanie ramek tylko do właściwego dla tych ramek celu (jeżeli jest on znany). Strategia ta jest znacznie efektywniejsza niż przesyłanie każdej ramki do każdego urządzenia. Przełącznik redukuje liczbę urządzeń odbierających każdą ramkę, co z kolei redukuje lub minimalizuje możliwość wystąpienia kolizji. To i późniejsze wprowadzenie komunikacji pracującej w trybie fullduplex (tzn. komunikacji dwukierunkowej, odbywającej się w obu kierunkach równocześnie) pozwoliło na opracowanie Ethernetu o prędkościach 1Gb/s i większych. Ethernet Gigabyte i szybszy Aplikacje, które przeciążają łącza sieciowe na co dzień, nadwyrężają nawet najbardziej odporne sieci. Na przykład, zwiększanie wykorzystania usług przekazywania dźwięku (VoIP) i usług multimedialnych wymaga połączeń, które są szybsze niż Ethernet 100 Mb/s. Gigabitowy Ethernet opisuje implementację, która dostarcza szerokości pasma 1000 MB/s lub większych. Taka pojemność łącza, została zbudowana z wykorzystaniem komunikacji pracującej w trybie full-duplex oraz technologii wykorzystujących kable UTP oraz kable światłowodowe, stosowane we wcześniejszych rozwiązaniach Ethernetowych. Kiedy przepustowość zostaje zwiększona z 100 MB/s do 1 Gb/s i powyżej, zwiększenie wydajności sieci jest znaczące. Awansowanie do Ethernetu 1Gb/s nie zawsze oznacza, że istniejącą sieciową infrastrukturą kablową i przełączniki trzeba całkowicie wymienić. Wiele sprzętu i okablowania w nowoczesnych, dobrze zaprojektowanych i zainstalowanych sieciach może być zdolne do pracy z większymi prędkościami po minimalnym unowocześnieniu. Taka zdolność pozwala na redukcję całkowitego kosztu ponoszonego w związku z posiadaniem sieci. Rozszerzenie zasięgu Ethernetu poza sieć LAN Zwiększenie zasięgu okablowania przez użycie okablowania światłowodowego w sieciach Ethernetowych spowodowało zatarcie różnicy pomiędzy sieciami LAN i WAN. Ethernet był początkowo ograniczony do systemu okablowania LAN wewnątrz jednego budynku, a następnie rozszerzany pomiędzy budynkami. Obecnie może być on stosowany w całym mieście, co znane jest pod nazwą sieć miejska MAN (ang. Metropolitan Area Network).

9 Enkapsulacja pakietu w ramki Struktura ramki Ethernetowej dołącza nagłówek i pole końcowe do jednostki danych protokołu warstwy 3 (PDU) w procesie enkapsulacji wiadomości przeznaczonej do wysłania. Zarówno nagłówek, jak i pole końcowe Ethernetu ma kilka sekcji danych, które są wykorzystywane przez protokół Ethernet. Każda sekcja ramki jest nazywana polem. Wyróżniamy dwa style budowania ramek: IEEE 802.3 (oryginalny) i poprawiony IEEE 802.3 (Ethernet). Różnice pomiędzy stylami budowania ramek są minimalne. Najbardziej znaczącą różnicą pomiędzy IEEE 802.3 (oryginalnym) i poprawionym IEEE 802.3 jest dodanie pola Znacznik początku ramki SFD (ang. Start Frame Delimiter) i mała zmiana, aby pole Typ obejmowało również Długość, co zostało przedstawione na schemacie. Rozmiar ramki Ethernet Pierwotny standard Ethernet definiował minimalny rozmiar ramki na 64 bajty, a maksymalny na 1518 bajtów. Dotyczy to wszystkich bajtów, począwszy od pola Docelowy adres MAC, do pola Suma kontrolna ramki (FCS). Należy przy tym zwrócić uwagę, iż preambuła i pole Znacznik początku ramki SFD nie są liczone podczas określania długości ramki. Standard IEEE 802.3ac opublikowany w 1998 r., rozszerzył maksymalny dostępny rozmiar ramki do 1522 bajtów. Rozmiar ramki został zwiększony w celu umożliwienia obsługi technologii Virtual Local Area Network (VLAN) nazywanej sieciami wirtualnymi. Jeżeli rozmiar transmitowanej ramki jest mniejszy niż minimalny lub większy niż maksymalny, to urządzenie odbierające odrzuca taką ramkę. Pojawiające się w sieci takie odrzucone ramki są prawdopodobnie rezultatem kolizji lub nieoczekiwanych sygnałów, a zatem przyjmuje się, że są nieprawidłowe. Pola Preambuła (7 bajtów) i Znacznik początku ramki SFD (1 bajt) są wykorzystywane do synchronizacji pomiędzy urządzeniami wysyłającymi i odbierającymi. Tych pierwszych 8 bajtów ramki używa się do powiadamiania węzłów odbierających o nadchodzącej ramce. Szczególnie pierwszych kilka bajtów mówi odbiorcy, żeby przygotował się na odbiór nowej ramki.

10 Adres odbiorcy Pole Adres odbiorcy (6 bajtów) jest identyfikatorem odbiorcy ramki. Przypomnijmy, że adres ten jest wykorzystywany w warstwie 2 przez urządzenie docelowe do określenia, czy ramka jest do niego adresowana. Adres w ramce jest porównywany z adresem MAC urządzenia. Jeżeli adresy są zgodne, to urządzenie akceptuje ramkę. Źródłowy adres MAC Pole Źródłowy adres MAC (6 bajtów) identyfikuje kartę sieciową lub interfejs nadawcy ramki. Przełączniki również wykorzystują te adresy, dodając je do swoich tablic adresów (ang. lookup table). Pole Długość/Typ Pole Długość/Typ (2 bajty) definiuje dokładną długość pola danych ramki. Jest ono wykorzystywane później jako część procedury sprawdzania kodu kontrolnego ramki sprawdzającej, czy wiadomość została poprawnie odebrana. W polu tym może zostać podana wartość dotycząca długości lub typu. Jednakże tylko jedna z tych dwóch danych może zostać użyta w danej ramce. Jeżeli przeznaczeniem pola jest określenie typu, to pole Typ wskazuje który protokół został zaimplementowany. Pole Długość/Typ we wczesnych wersjach standardu IEEE oznaczało jedynie długość ramki, a w wersji DIX wyłącznie typ ramki. Te dwa sposoby użycia tego pola zostały oficjalnie uznane w późniejszej wersji IEEE, ze względu na powszechne używanie obu sposobów. Pole typu w technologii Ethernet II zostało włączone do obecnej definicji ramki 802.3. Ethernet II jest formatem ramki Ethernetowej, który jest używany w sieciach TCP/IP. Kiedy węzeł odbiera ramkę musi sprawdzić pole Długość/Typ w celu ustalenia, jaki protokół warstwy wyższej jest z nią związany. Jeżeli dwubajtowa wartość jest równa lub większa od szesnastkowej liczby 0x0600 albo dziesiętnej 1536, to znaczy, że to pole określa typ protokołu, którego ramka jest umieszczona w polu danych i zawartość pola danych dekodowana jest zgodnie z tym protokołem. Pola Dane i Wypełnienie (ang. Pad Field) Pole danych i wypełnienia (o długości od 46 do 1500 bajtów) zawierają enkapsulowane dane warstwy wyższej (ang. Layer 3 PDU), które najczęściej są pakietami IPv4. Wszystkie ramki muszą mieć długość wynoszącą co najmniej 64 bajty. Jeśli mały pakiet jest enkapsulowany, pole wypełnienia wykorzystywane jest w celu zwiększenia rozmiaru ramki do wymaganego minimum. Pole Suma kontrolna ramki (ang. Check Sequence Field) Pole Suma kontrolna ramki (FCS) (4 bajty) jest wykorzystywane do wykrywania błędów w ramce. W celu określenia jego wartości, stosowana jest metoda cyklicznego kodu nadmiarowego CRC (ang. Cyclic Redundancy Check), służąca do obliczenia sumy kontrolnej danych. Urządzenie wysyłające umieszcza wynik obliczenia sumy kontrolnej w polu FCS ramki. Stacja odbierająca odbiera ramkę i oblicza sumę kontrolną CRC w celu sprawdzenia, czy ramka nie ma błędów. Jeśli wyniki są zgodne, to przyjmuje się, że błędy nie wystąpiły. Wyniki CRC, które się nie są

11 zgodne wskazują na to, że dane zostały zmienione, dlatego ramka jest odrzucana. Zmiana danych może być wynikiem zakłócenia sygnału elektrycznego, który reprezentuje bity. Adres Ethernetowy MAC Początkowo Ethernet został opracowany jako składnik standardu topologii magistrali. Wszystkie urządzenia sieciowe były podłączone do tego samego, współdzielonego medium. W sieciach o małym natężeniu ruchu, takie rozwiązanie było akceptowalne. Głównym problemem do rozwiązania było to, w jaki sposób identyfikować każde urządzenie. Sygnał może zostać wysłany do każdego urządzenia, lecz jak każde urządzenie zidentyfikuje, czy ono miało być odbiorcą wiadomości? Unikalny identyfikator zwany adresem MAC (ang. Media Access Control) został stworzony do pomocy w określaniu adresu źródłowego i docelowego wewnątrz sieci Ethernet. Niezależnie od tego, który wariant Ethernetu został użyty, konwencja nazewnicza dostarczała metody identyfikowania urządzeń w niższych warstwach modelu OSI. Przypomnijmy, że adres MAC jest dodawany jako część jednostki transmisji (PDU) warstwy 2. Ethernetowy adres MAC jest 48-bitową wartością przedstawianą za pomocą 12 cyfr szesnastkowych. Struktura adresu MAC Wartość adresu MAC jest bezpośrednim rezultatem wymuszonych przez IEEE zasad dla producentów, aby zapewnić globalnie unikalny adres dla każdego urządzenia Ethernetowego. Zasady ustanowione przez IEEE wymagają, aby każdy producent urządzeń Ethernet był zarejestrowany w IEEE. IEEE przydziela sprzedawcom 3 bajtowy kod zwany Niepowtarzalnym Identyfikatorem Organizacji (ang. Organizational Unique Identifier, OUI). IEEE wymaga od producentów stosowania dwóch prostych zasad: Każdy adres MAC przydzielony karcie sieciowej lub innemu urządzeniu Ethernetowemu musi mieć na pierwszych 3 bajtach kod OUI przydzielony producentowi. Wszystkie adresy MAC z taki samym identyfikatorem OUI muszą mieć przydzielone unikalne wartości na ostatnich 3 bajtach (numer seryjny). Adres MAC jest często nazywany adresem fizycznym (ang. burned-in address, BIA) dlatego, że najczęściej jest on na stałe zapisany w pamięci ROM karty sieciowej. Oznacza to, że adres jest trwale zapisany w układzie scalonym pamięci ROM i nie może być zmieniony przez oprogramowanie. Jednakże podczas uruchamiania komputera adres karty sieciowej kopiowany jest do pamięci RAM komputera. Podczas sprawdzania ramki, to adres zapisany w pamięci RAM porównywany jest z adresem docelowym z ramki. Adres MAC jest wykorzystywany przez kartę sieciową do określenia, czy wiadomość może być przekazana do dalszego przetwarzania przez warstwy wyższe.

12 Urządzenia sieciowe Gdy urządzenie nadawcze przekazuje wiadomość do sieci Ethernet, to dołączany jest do niej nagłówek zawierający docelowy adres MAC. Urządzenie nadawcze wysyła dane przez sieć. Każda karta sieciowa analizuje informacje, aby stwierdzić, czy adres MAC jest zgodny z jej adresem fizycznym. Jeżeli nie ma zgodności adresów, to urządzenie odrzuca ramkę. Gdy ramka osiągnie cel, w którym adres MAC karty sieciowej jest zgodny z adresem docelowym MAC w ramce, to karta sieciowa przekazuje ramkę do wyższej warstwy, w której będzie miał miejsce proces dekapsulacji. Wszystkie urządzenia przyłączone do Ethernetowej sieci LAN mają interfejsy z adresem MAC. Różni producenci sprzętu i oprogramowania mogą podawać adres MAC w różnych formatach szesnastkowych. Format adresu może być w postaci: 00-05-9A-3C-78-00, 00:05:9A:3C:78:00 lub 0005.9A3C.7800. Adres MAC jest przydzielany do stacji roboczych, serwerów, drukarek, przełączników i routerów - do każdego urządzenia, które może być nadawcą i/lub odbiorcą danych w sieci. Adresowanie kolejnych warstw Warstwa łącza danych Adresy fizyczne warstwy łącza danych modelu OSI, zaimplementowane jako adresy Ethernetowe MAC, są używane do transportu ramki poprzez lokalne media. Pomimo tego, że zapewniają one niepowtarzalne adresy hostów, to fizyczne adresy nie są hierarchiczne. Skojarzone są one z konkretnym urządzeniem niezależnie od jego położenia oraz od tego, do której sieci to urządzenie jest przyłączone. Adresy warstwy 2 nie mają znaczenia poza zasięgiem lokalnego medium sieciowego. Pakiet zanim osiągnie swój cel, może być zmuszony do przejścia przez różne technologie łącza danych, zarówno w sieci lokalnej jak i sieci rozległej. Dlatego urządzenie nadające nie ma wiedzy o technologii wykorzystywanej w sieciach pośrednich i w sieci docelowej ani o używanym tam adresowaniu i strukturach ramek w warstwie 2.

13 Warstwa sieci Adresy sieciowe (warstwy 3), jak np. adresy IPv4, dostarczają wszechobecnej, logicznej adresacji, która jest rozumiana przez źródło i punkt przeznaczenia. W celu przybycia do swojego ostatecznego celu, pakiet od swojego źródła otrzymuje docelowy adres warstwy 3. Jednocześnie podczas swojej podróży przez sieć może on być wielokrotnie pakowany w ramki i rozpakowywany przez różne protokoły warstwy łącza danych. Adresy warstwy 2, które za każdym razem otrzymuje tworzona ramka, dotyczą tylko lokalnego odcinka podróży oraz stosowanego w niej medium. W skrócie: Adresy warstwy sieci umożliwiają pakietowi przesłanie go do celu. Adresy warstwy łącza danych umożliwiają pakietowi przekazanie go przez lokalne medium każdego segmentu. Transmisja pojedyncza, grupowa i rozgłoszeniowa Transmisja pojedyncza (ang. unicast) Adres MAC typu unicast jest unikalnym adresem wykorzystywanym, gdy wiadomość jest wysyłana z jednego urządzenia transmitującego do innego pojedynczego urządzenia docelowego. W przykładzie pokazanym na schemacie host z adresem IP 192.168.1.5 (źródło) żąda strony WWW z serwera o adresie IP 192.168.1.200. Dla pakietu w transmisji pojedynczej, przy wysyłaniu i odbieraniu, docelowy adres IP musi być umieszczony w nagłówku pakietu IP. Jednocześnie odpowiadający mu docelowy adres MAC musi być obecny w nagłówki ramki Ethernetowej. Zestaw adresów IP i MAC umożliwia przekazanie danych do jednego specyficznego docelowego hosta.

14 Transmisja rozgłoszeniowa (ang. broadcast) W przypadku transmisji rozgłoszeniowej pakiet zawiera docelowy adres IP, który w części przeznaczonej na hosta ma same jedynki (binarnie). Taki sposób numerowania w adresie oznacza, że wszystkie hosty w tej lokalnej sieci (domenie rozgłoszeniowej) odbiorą i będą przetwarzać ten pakiet. Wiele protokołów sieciowych takich jak DHCP (ang. Dynamic Host Configuration Protocol) i ARP (ang. Address Resolution Protocol) wykorzystuje transmisję rozgłoszeniową. W jaki sposób ARP wykorzystuje rozgłoszenia do odwzorowania adresów warstwy 2 na adresy warstwy 3, przedyskutowane jest w dalszej części tego rozdziału. Jak pokazano na schemacie, adres rozgłoszeniowy IP dla sieci, wymaga odpowiedniego rozgłoszeniowego adresu MAC w ramce Ethernetowej. W sieciach Ethernetowych rozgłoszeniowy adres MAC zawiera 48 jedynek prezentowanych w postaci szesnastkowej jako FF-FF-FF-FF-FF-FF.

15 Transmisja grupowa (ang. multicast) Przypomnijmy sobie, że adres grupowy umożliwia urządzeniu źródłowemu wysłać pakiet do grupy urządzeń. Urządzenia, które przynależą do takiej grupy mają przydzielony odpowiedni adres grupowy IP. Adresy grupowe obejmują zakres od 224.0.0.0 do 239.255.255.255. Ze względu na fakt, iż adresy grupowe reprezentują grupę adresów (czasem nazywaną grupą hostów), mogą być używane w pakiecie tylko jako adresy docelowe. Adres źródłowy zawsze będzie adresem pojedynczym. Przykłady, gdzie adresy grupowe mogłyby być używane, to zdalne gry komputerowe, w których wielu graczy jest połączonych zdalnie, ale grają w tę samą grę, albo zdalne nauczanie poprzez wideokonferencje, gdzie wielu studentów jest połączonych do jednej klasy. Tak jak w przypadku adresów IP pojedynczych i rozgłoszeniowych, z adresami grupowymi IP związane są odpowiednie adresy grupowe MAC, umożliwiające dostarczanie ramek w lokalnej sieci. Grupowy adres MAC ma specjalną wartość, która rozpoczyna się liczbą 01-00-5E w reprezentacji heksadecymalnej. Jej pozostałe trzy bajty zawierają mniej znaczące 23 bity adresu grupowego (w reprezentacji heksadecymalnej) wykorzystywanego przez grupę hostów. Brakujący 24 bit adresu MAC ma zawsze wartość "0". W przykładzie pokazanym na schemacie jest to wartość 01-00-5E-00-00-0A przedstawiona w reprezentacji heksadecymalnej. Każda cyfra w systemie szesnastkowym oznacza 4 bity w systemie binarnym. Sterowanie dostępem do medium w Ethernecie W środowisku współdzielonych mediów wszystkie urządzenia mają zagwarantowany dostęp do medium, lecz nie mają pierwszeństwa ubiegania się o nie. Jeśli więcej niż jedno urządzenie wysyła w tym samym czasie dane, fizyczne sygnały interferują ze sobą i sieć musi je kolejno odtwarzać w celu kontynuacji komunikacji. Kolizje są ceną, którą Ethernet płaci za utrzymanie ogólnie niskiego kosztu związanego z każdą transmisją. Ethernet używa metody wielodostępu do nośnej z wykrywaniem kolizji (CSMA/CD) w celu wykrycia, obsługiwania i zarządzania wznowieniami komunikacji.

16 Ponieważ wszystkie komputery używające Ethernetu wysyłają wiadomości przez to samo medium, schemat rozproszonej koordynacji (CSMA) jest używany do detekcji elektrycznej aktywności w kablu sieciowym. Urządzenie jest w stanie ustalić, kiedy może nadawać. Urządzenie może wysyłać dane, kiedy wykryje, że inne komputery nie wysyłają ramki ani sygnału nośnej. Proces CSMA / CD Nasłuch nośnej W metodzie dostępu CSMA/CD wszystkie urządzenia, które mają do wysłania wiadomości, muszą nasłuchiwać zanim rozpoczną transmisję. Jeśli urządzenie wykryje sygnał z innego urządzenia, to musi ono poczekać określony okres czasu zanim spróbuje rozpocząć nadawanie.

17 Kiedy nie zostanie wykryta transmisja, urządzenie wysyła swoją wiadomość. W przypadku, gdy występuje transmisja, urządzenie kontynuuje nasłuchiwanie ruchu lub kolizji występujących w sieci. Po wysłaniu wiadomości urządzenie wraca do domyślnego trybu nasłuchiwania. Wielodostęp Jeżeli dystans pomiędzy urządzeniami jest taki, że opóźnienie sygnału z jednego urządzenia powoduje, że sygnały nie są wykryte przez drugie urządzenie, to drugie urządzenie może również rozpocząć transmisję. W tym przypadku w medium istnieją dwa urządzenia transmitujące sygnały w tym samym czasie. Ich wiadomości będą propagowane w medium dopóki się nie spotkają. W tym punkcie sygnały ulegną interferencji i wiadomości zostaną zniszczone. Pomimo tego, że wiadomości zostały uszkodzone, to pozostałe zakłócone części sygnału nadal propagują w medium.

18 Wykrywanie kolizji Urządzenie w trybie nasłuchiwania może wykryć występujące kolizje we współdzielonym medium. Wykrycie kolizji jest możliwe, bo wszystkie urządzenia są w stanie wykryć zwiększenie amplitudy sygnału powyżej normalnego poziomu. Gdy tylko kolizja wystąpi, to pozostałe urządzenia będące w trybie nasłuchiwania, jak również urządzenia transmitujące, wykryją zwiększenie amplitudy sygnału. Po wykryciu kolizji każde urządzenie nadające nadal kontynuuje transmisję, aby zapewnić, że kolizja zostanie wykryta przez wszystkie urządzenia w sieci. Sygnał zakłócający i losowy czas obsługi kolizji Gdy urządzenia transmitujące wykryją kolizję, rozsyłają sygnał zakłócający. Sygnał zakłócający jest wykorzystywany do zawiadomienia pozostałych urządzeń o wystąpieniu kolizji, co spowoduje wywołanie przez nie algorytmu backoff (obsługi kolizji). Algorytm obsługi kolizji powoduje, że wszystkie urządzenia zatrzymują transmisję na losowy okres czasu, który pozwala zniekształconemu sygnałowi wygasnąć.

19 Po zakończeniu tego czasu, urządzenie powraca do trybu nasłuchiwania przed transmisją. Losowy okres czasu obsługi kolizji powoduje, że urządzenia, które uczestniczyły w kolizji nie będą próbować ponownego wysyłania swoich ramek w tym samym czasie, bo spowodowałoby to kolejną kolizję i powtórzenie procesu obsługi kolizji. Ale to również oznacza, że trzecie urządzenie może rozpocząć transmisję danych, zanim uwikłane w pierwotną kolizję urządzenia otrzymają szansę na retransmisję. Koncentratory i domeny kolizyjne Zakładając, że kolizje występują rzadko w jakiejś topologii współdzielonego medium, to nawet stosując mechanizm CSMA/CD należy analizować warunki, które mogą przyczyniać się do zwiększenia liczby kolizji. Z powodu szybkiego rozrastania się Internetu: Coraz więcej urządzeń zostaje podłączonych do sieci. Urządzenia coraz częściej uzyskują dostęp do medium sieciowego. Zwiększa się dystans pomiędzy urządzeniami. Zwróćmy uwagę na to, że koncentratory zostały zbudowane jako urządzenia pośredniczące, które umożliwiają większej liczbie urządzeń podłączenie do współdzielonego medium. Koncentratory (również znane jako wieloportowe regeneratory sygnału) retransmitują odebrane sygnały do wszystkich podłączonych urządzeń z wyjątkiem tego, z którego koncentrator odebrał sygnał. Koncentratory nie wykonują żadnych funkcji sieciowych, takich jak kierowanie danych na podstawie adresu. Koncentratory i regeneratory sygnału są urządzeniami pośredniczącymi, rozszerzającymi dystans określony przez kabel Ethernetowy. Ponieważ koncentratory pracują w warstwie fizycznej, obejmują one swoim działaniem jedynie sygnały przesyłane w medium. Zatem kolizje mogą występować zarówno pomiędzy urządzeniami, które te koncentratory łączą, jak i pomiędzy samymi koncentratorami. Ponadto, umożliwiając dostęp do sieci większej liczbie użytkowników przy pomocy koncentratorów, redukowana jest wydajność sieci dla każdego użytkownika. Wynika to z faktu, iż ustalona pojemność medium musi być współdzielona przez większą liczbę urządzeń. Podłączone urządzenia, które mają dostęp do medium poprzez koncentrator lub serię bezpośrednio podłączonych koncentratorów, tworzą tzw domenę kolizyjną. Domena kolizyjna jest też określana jako segment sieci. Tak więc stosowne koncentratory i regeneratory sygnału zwiększają rozmiar domeny kolizyjnej.

20 Jak pokazano na schemacie, połączenie z wykorzystaniem koncentratorów tworzy topologię fizyczną zwaną rozszerzoną gwiazdą. Rozszerzona gwiazda może utworzyć bardzo rozszerzoną domenę kolizyjną. Zwiększająca się liczba kolizji redukuje sprawność i efektywność działania sieci, aż w końcu kolizje staną się uciążliwe dla użytkownika. Chociaż CSMA/CD jest systemem zarządzania kolizjami ramek, to został on zaprojektowany do zarządzania kolizjami w sieciach o niedużym obciążeniu, składających się z niedużej liczby urządzeń. Dlatego też, w sytuacji gdy duża liczba użytkowników wymaga dostępu do sieci, a sama sieć staje się coraz bardziej wykorzystywana, wymagane są inne mechanizmy. Zmniejszyć ten problem może zastąpienie koncentratorów przełącznikami. Zależności czasowe w sieci Ethernet Szybsze fizyczne implementacje Ethernetu wprowadzają większą złożoność mechanizmów zarządzających kolizjami. Opóźnienie Jak to było już przedyskutowane, każde urządzenie, które zamierza transmitować dane, najpierw musi nasłuchiwać medium, żeby sprawdzić, czy nie odbywa się w nim transmisja. Jeżeli nie ma ruchu, to stacja zacznie natychmiast transmitować dane. Transmisja sygnału elektrycznego w kablu zajmuje pewien okres czasu (opóźnienie). Każdy koncentrator i regenerator sygnału, znajdujący się na trasie sygnału, przekazując bity z jednego portu do drugiego, zwiększa opóźnienie. Takie zakumulowane opóźnienie zwiększa prawdopodobieństwo wystąpienia kolizji dlatego, że nasłuchujący węzeł może rozpocząć transmisję sygnału w czasie, gdy koncentrator lub regenerator przetwarza wiadomość. Dzieje się tak dlatego, że sygnał nie dotarł do węzła w chwili gdy on nasłuchiwał. Zatem nie otrzymując żadnych sygnałów uznał, że medium jest dla niego dostępne. Taka sytuacja często skutkuje wystąpieniem kolizji. Zależności czasowe i synchronizacja W trybie komunikacji jednokierunkowej (half-duplex), jeżeli nie wystąpiła kolizja, to urządzenie wysyłające będzie transmitowało 64 bity preambuły, które będą wykorzystywane przez stacje odbierające do synchronizacji. Następnie urządzenie wysyłające przetransmituje całą ramkę. Ethernet o przepustowości 10 Mb/s i mniejszej, jest asynchroniczny. Komunikacja asynchroniczna w tym kontekście oznacza, że każde urządzenie odbierające wykorzysta 8 bajtów danych do synchronizacji obwodów odbiorczych dla przychodzących danych i następnie te 8 bajtów odrzuci.

21 Implementacje Ethernetu z przepustowością 100 Mb/s i większymi są synchroniczne. Komunikacja synchroniczna w tym kontekście oznacza, że informację synchronizujące nie są potrzebne. Aczkolwiek ze względu na kompatybilność, preambuła i bajt startu (SFD) są ciągle obecne. Czas transmisji bitu Dla każdej prędkości transmisji w różnych mediach potrzebny jest pewien okres czasu na umieszczenie bitu w medium oraz jego odczytanie. Ten okres czasu jest nazywany czasem transmisji bitu. W technologii Ethernet 10 Mb/s transmisja jednego bitu w warstwie MAC trwa 100 ns. Przy szybkości 100 Mb/s transmisja tego samego bitu trwa 10 ns. Przy szybkości 1000 Mb/s to zajmuje 1 ns. W przybliżonych szacunkach często przyjmuje się, że opóźnienie sygnału w kablu UTP o długości 20,3 cm (8 cali) wynosi 1 ns. Oznacza to, że przesłanie sygnału w standardzie 10BASE-T przez 100 metrów kabla UTP zajmuje mniej niż czas potrzebny na wysłanie w tym standardzie 5 bitów. Do funkcjonowania metody CSMA/CD stosowanej w sieciach Ethernet konieczne jest, aby stacja wysyłająca wiedziała o wystąpieniu kolizji zanim zostanie zakończona transmisja ramki o minimalnym rozmiarze. Przy szybkości 100 Mb/s jest to możliwe zaledwie dla kabla o długości 100 metrów. Przy szybkości 1000 Mb/s wymagane są specjalne korekty, gdyż prawie cała ramka o minimalnym rozmiarze zostałaby wysłana, zanim pierwszy bit pokonałby pierwsze 100 metrów kabla UTP. Z tego powodu tryb komunikacji jednokierunkowej (half-duplex) nie jest dozwolony w technologii 10 Gigabitowego Ethernetu. Te zależności czasowe wymusiły zastosowanie przerwy międzyramkowej i czasu obsługi kolizji (oba te zagadnienia są opisane w następnym podrozdziale), aby się upewnić, że podczas transmisji przez urządzenie następnej ramki, ryzyko kolizji jest minimalne.

22 Czas trwania szczeliny W przypadku Ethernetu pracującego w trybie komunikacji jednokierunkowej, gdzie dane mogą podróżować w danej chwili tylko w jednym kierunku, ważnym parametrem przy określaniu, jak wiele urządzeń może współdzielić sieć, jest czas trwania szczeliny. We wszystkich odmianach technologii Ethernet o szybkości transmisji nieprzekraczającej 1000 Mb/s, standard wyznacza minimalny czas pojedynczej transmisji, nie krótszy niż szczelina czasowa. Określenie czasu szczeliny jest kompromisem pomiędzy potrzebą zredukowania wpływu kolizji (czasu obsługi kolizji i retransmisji), a potrzebą rozsądnego i wystarczająco dużego rozmiaru sieci. Kompromis polegał na przyjęciu maksymalnego rozmiaru sieci (około 2500 m) i dobraniu minimalnej długości ramki tak, aby nawet w najgorszych przypadkach istniała gwarancja wykrycia kolizji. Przyjęto, że szczelina czasowa dla 10 Mb/s i 100 Mb/s będzie równa czasowi trwania 512 bitów (64 oktety). Natomiast szczelina czasowa dla 1000 Mb/s będzie równa czasowi trwania 4096 bitów (512 oktety). Czas trwania szczeliny czasowej daje pewność, że jeżeli kolizja ma wystąpić, to będzie ona wykryta w trakcie transmisji pierwszych 512 bitów (4096 dla 10Gb/s). Takie podejście upraszcza zarządzanie retransmisją ramek po kolizji. Czas szczeliny jest ważny z następujących powodów: 512-bitowy czas szczeliny określa minimalny rozmiar ramki Ethernet, który wynosi 64 bajty. Dowolna ramka, która jest krótsza niż 64 bajty jest uznawana za fragment kolizyjny (ang. collision fragment) albo zbyt krótka ramka (ang. runt frame) i jest automatycznie odrzucana przez stację odbiorczą. Czas szczeliny wyznacza granicę maksymalnego rozmiaru segmentu sieci. Jeżeli sieć rozrośnie się do zbyt dużych rozmiarów, to będą mogły wystąpić kolizje opóźnione. Późne kolizje są traktowane jako awaria sieci, dlatego że kolizja w trakcie transmisji jest wykryta przez urządzenie zbyt późno, aby być automatycznie obsłużona przez CSMA/CD. Szczelina czasowa jest obliczana przy założeniu maksymalnych długości kabli w największej dopuszczalnej architekturze sieciowej. Wszystkie czasy opóźnień propagacji sprzętowej są na

23 poziomie dopuszczalnego maksimum, a gdy zostanie wykryta kolizja, używana jest 32-bitowa sekwencja zakłócająca. Rzeczywista obliczona szczelina czasowa jest nieco dłuższa niż teoretyczna ilość czasu wymagana do przebycia drogi pomiędzy najdalszymi punktami domeny kolizyjnej. Przewidziano, że kolizja może wystąpić w ostatnim możliwym momencie i musi minąć czas, aby zniszczony w kolizji fragment ramki powrócił do stacji nadawczej i został wykryty. Popatrz na zamieszczony schemat. Aby system działał, pierwsza stacja musi dowiedzieć się o kolizji zanim zakończy wysyłanie ramki o najmniejszym dopuszczalnym rozmiarze. Aby umożliwić działanie sieci Ethernet 1000 Mb/s w trybie komunikacji jednokierunkowej przy wysyłaniu krótkich ramek, dodano pole rozszerzenia służące jedynie do utrzymania urządzenia transmitującego w stanie zajętości na tyle długo, by mogły wrócić fragmenty kolizyjne. Pole to, jest obecne tylko przy szybkości 1000 Mb/s w przypadku łączy pracujących w trybie half-duplex po to, aby ramki o minimalnym rozmiarze były wystarczająco długie, by móc sprostać wymaganiom szczeliny czasowej. Bity rozszerzenia są odrzucane przez stację odbierającą. Przerwa międzyramkowa Standard Ethernetu wymaga minimalnego odstępu między niekolidującymi ramkami. To daje czas na ustabilizowanie medium po przetransmitowaniu poprzedniej ramki i czas dla urządzenia na przetworzenie ramki. Ten czas jest oznaczany jako przerwa międzyramkowa i jest mierzony od ostatniego bitu pola FCS jednej ramki do pierwszego bitu preambuły ramki następnej. Po wysłaniu ramki wszystkie stacje w sieci Ethernet 10 Mb/s muszą oczekiwać co najmniej przez czas transmisji 96 bitów (9,6 mikrosekundy), zanim dowolne urządzenie będzie mogło transmitować następną swoją ramkę. W szybszych wersjach sieci Ethernet odstęp pozostaje taki sam (czas transmisji 96 bitów), lecz czas przerwy międzyramkowej jest odpowiednio krótszy. Synchronizacja opóźnień pomiędzy urządzeniami może skutkować utratą pewnej liczby bitów preambuły. To z kolei może powodować małą redukcję przerwy międzyramkowej, gdy koncentratory i regeneratory sygnału zregenerują pełną 64-bitową informację synchronizującą (tzn. preambułę i bajt startu) na początku każdej przekazywanej ramki. W przypadku Ethernetu o większych przepustowościach, niektóre wrażliwe urządzenia mogą popełniać błędy przy rozpoznawaniu pojedynczych ramek, co spowoduje niepowodzenie w przesłaniu takiej ramki. Sygnał zakłócający Przypomnijmy sobie, że Ethernet pozwala wszystkim urządzeniom rywalizować o czas transmisji. W przypadku, gdy dwa urządzenia transmitują równocześnie, procedura CSMA/CD podejmuje działanie

24 mające na celu rozwiązania tego problemu. Ale trzeba pamiętać, że gdy duża liczba urządzeń jest dodana do sieci, istnieje możliwość wystąpienia dużej liczby kolizji, z którymi trudno sobie poradzić. Gdy tylko kolizja zostaje wykryta, stacje wysyłające nadają 32-bitowy sygnał zakłócający (ang. jam), który wymusza kolizję. Takie działanie zapewnia, że kolizja zostanie wykryta przez wszystkie urządzenia w sieci. Ważnym jest, żeby sygnał zakłócający nie został potraktowany jako poprawna ramka, bo w przeciwnym przypadku kolizja mogłaby nie być zidentyfikowana. Najczęściej występującym wzorcem dla sygnału zakłócającego jest po prostu powtarzający się ciąg jedynek i zer, taki sam jak dla preambuły. Uszkodzona, częściowo nadana wiadomość, jest zwykle nazywana fragmentami kolizyjnymi lub ramkami karłowatymi (runts). Zwykłe kolizje mają mniej niż 64 oktety długości i dlatego są wykrywane zarówno z powodu zbyt małej długości, jak i przez test sumy kontrolnej FCS, co powoduje, że kolizję łatwo zidentyfikować. Zależności czasowe Backoff Po wystąpieniu kolizji, gdy w kablu nie ma sygnału od żadnej ze stacji (każda oczekuje przez czas pełnej przerwy międzyramkowej), stacje biorące udział w kolizji muszą odczekać dodatkowy czas (który może rosnąć wykładniczo) przed przystąpieniem do próby ponownego nadania ramki, przy nadawaniu której wystąpiła kolizja. Okres oczekiwania jest celowo zaprojektowany jako losowy, po to, by dwie stacje nie generowały takiego samego opóźnienia przed ponowieniem transmisji, gdyż powodowałoby to wystąpienie kolejnych kolizji. Częściowo zostało to osiągnięte przez zwiększanie najkrótszego interwału, na podstawie którego jest określany losowy czas ponowienia transmisji przy każdej następnej próbie. Okres oczekiwania jest mierzony w przyrostach jednostki, którą jest szczelina czasowa. Jeśli przeciążenie medium sprawia, że warstwa MAC nie może wysłać ramki, to po 16 próbach rezygnuje ona z tego procesu, a następnie zwraca błąd do warstwy sieci. Takie zdarzenie jest dosyć rzadkie w poprawnie działającej sieci i zachodzi jedynie przy niezmiernie dużych obciążeniach sieci, lub gdy w sieci istnieje jakiś problem natury fizycznej. Metody opisane w tym podrozdziale umożliwiają sieci Ethernet oferować lepszą usługę we współdzielonej topologii medium bazującej na wykorzystywaniu koncentratorów. W następnym podrozdziale, dotyczącym przełączania, zobaczymy jak wykorzystanie przełączników wpływa na zmniejszenie niedostatków związanych z mechanizmem CSMA/CD, a czasami nawet całkowicie je usunie. Warstwa fizyczna Ethernetu Różnice między klasyczną technologią Ethernet, technologią Fast Ethernet i Gigabit Ethernet występują w warstwie fizycznej często określanej jako Ethernet PHY. Ethernet opisywany jest przez standardy IEEE 802.3. Obecnie zdefiniowane są cztery prędkości transmisji dla kabli optycznych i tzw. skrętek: 10 Mb/s - Ethernet 10Base-T 100 Mb/s - Fast Ethernet 1000 Mb/s - Gigabit Ethernet 10 Gb/s - 10 Gigabit Ethernet Występuje wiele różnych implementacji Ethernetu, realizujących te cztery prędkości transmisji. Jednakże w kursie tym przedstawione będą tylko te, które są najbardziej powszechne. Schemat pokazuje wybrane charakterystyki warstwy fizycznej Ethernetu.

25 W tym podrozdziale omówiona będzie część Ethernetu działająca w warstwie fizycznej, począwszy od 10 Base-T, a skończywszy na 10 Gb/s. Ethernet 10Mbs i 100Mbs Główne implementacje Ethernetu 10 Mb/s obejmują: 10BASE5 wykorzystujący gruby kabel koncentryczny 10BASE2 wykorzystujący cienki kabel koncentryczny 10BASE-T wykorzystujący nieekranowaną skrętkę kategorii 3 lub 5 (Cat3/Cat5). Wczesne implementacje Ethernetu: 10BASE5 i 10BASE2 wykorzystywały kabel koncentryczny jako fizyczną magistralę. Implementacje te nie są już używane, a zatem nie są wspierane przez nowsze standardy 802.3. Ethernet 10 Mbps - 10BASE-T 10BASE-T używa kodowania Manchester realizowanego w dwóch skręconych nieekranowanych parach kabla. Wczesne implementacje Ethernetu 10BASE-T wykorzystywały kabel kategorii 3 (Cat3). Obecnie typowo używanym okablowaniem jest okablowanie kategorii 5 (Cat5) lub nowszej. Ethernet 10 Mb/s jest powszechnie uważany za rozwiązanie klasyczne. 10BASE-T wykorzystuje fizyczną topologię gwiazdy. Łącza Ethernetowe 10BASE-T mogą mieć długość do 100 m zanim będą potrzebowały koncentratora albo regeneratora sygnału. 10BASE-T używa dwóch par z 4-parowego kabla, który jest zakończony na obu końcach 8-stykowym złączem RJ-45. Para podłączona do styków 1 i 2 jest używana do nadawania sygnału, a para podłączone do styków 3 i 6 do odbierania sygnału. Schemat pokazuje układ styków w złączu RJ-45 wykorzystywanym w Etherenecie 10BASE-T. 10BASE-T generalnie nie jest używany podczas tworzenia nowych instalacji LAN. Aczkolwiek nadal wiele sieci Etherenet 10BASE-T egzystuje do dzisiaj. Zastąpienie koncentratorów przełącznikami w sieciach 10BASE-T znacząco zwiększyło dostępną przepustowość tych sieci i przedłużyło czas życia klasycznych sieci Ethernet. Łącza 10BASE-T podłączone do przełącznika mogą pracować w trybie halfduplex lub full-duplex.

26 Fast Ethernet - 100 Mb/s W połowie lat dziewięćdziesiątych XX wieku opracowanych zostało kilka nowych standardów 802.3, po to by zdefiniować metody transmisji danych przez medium Ethernetowe z prędkością 100 Mb/s. W celu uzyskania większych prędkości przesyłania danych, standardy te wykorzystywały różne sposoby kodowania sygnału. Ethernet 100 Mb/s, znany jako Fast Etherent, może być zaimplementowany z wykorzystaniem miedzianej skrętki lub światłowodu. Najbardziej popularnymi implementacjami Ethernetu 100 Mb/s są: 100BASE-TX wykorzystujący kabel UTP kategorii 5 lub późniejszej 100BASE-FX wykorzystujący kabel światłowodowy. Sygnały o wyższej częstotliwości wykorzystywane w sieciach Fast Ethernet są bardziej wrażliwe na szumy. Zatem w celu zwiększenia integralności sygnału 100 Mb/s Ethernet realizuje dwie oddzielne procedury kodujące. 100BASE-TX 100BASE-TX został zaprojektowany do obsługi transmisji poprzez dwie pary miedzianej nieekranowanej skrętki kategorii 5 (UTP Cat5) albo poprzez dwa włókna światłowodowe. Implementacja 100BASE-TX wykorzystuje te same pary i styki kabla UTP co 10BASE-T. 100BASE-TX wymaga jednak kabla kategorii 5 lub wyższej. Standard Ethernet 100BASE-TX wykorzystuje kodowanie 4B/5B. Podobnie jak 10BASE-TX, standard 100BASE-TX wykorzystuje topologię fizycznej gwiazdy. Zamieszczony schemat przedstawia przykład fizycznej topologii gwiazdy. W przeciwieństwie do 10BASE-TX, które wykorzystują koncentratory, w sieciach 100BASE-TX jako centralny element topologii gwiazdy zwykle stosuje się przełącznik. Mniej więcej w tym samym czasie, gdy 100BASE-TX stawała się wiodącą technologią, szeroko rozwijane były także przełączniki LAN. Ten równoczesny rozwój doprowadził do ich naturalnego związku z sieciami 100BASE-TX. 100BASE-FX Standard 100BASE-FX wykorzystuje tę samą procedurę sygnalizacji co 100BASE-TX, ale w medium optycznym zamiast w miedzianej skrętce. Chociaż kodowanie, dekodowanie i procedura synchronizacji są takie same w obu mediach, to sygnał jest różny - impulsy elektryczne w kablu miedzianym i impulsy świetlne w kablu optycznym. 100BASE-FX wykorzystuje złącza typu Low Cost Fiber Interface Connectors powszechnie nazywane złączem duplex SC.

27 Implementacje światłowodowe są zbiorem łączy typu punkt-punkt. To znaczy, że są używane do połączenia dwóch urządzeń. Połączenia te, mogą być pomiędzy dwoma komputerami, pomiędzy komputerem a przełącznikiem albo pomiędzy dwoma przełącznikami. 1000 Mb/s - Gigabitowy Ethernet Opracowanie standardu Gigabitowego Ethernetu uwzględnia specyfikację nieekranowanej skrętki miedzianej UTP, światłowodu jednomodowego i wielomodowego. W Gigabitowych sieciach Ethernet, wysyłanie jednego bitu zajmuje zaledwie ułamek czasu, który jest potrzebny na tą transmisję w sieciach 100 Mb/s i 10 Mb/s. W związku z tym, że sygnał trwa krócej, bity są bardziej wrażliwe na zakłócenia, a zatem zależności czasowe są tutaj elementem krytycznym. Wydajność związana jest bezpośrednio z tym, jak szybko adapter sieciowy albo interfejs jest w stanie zmieniać poziomy napięć oraz na ile niezawodnie i jednoznacznie zmiany te mogą być odczytane przez oddaloną o 100 m kartę sieciową lub interfejs. Przy tych wyższych szybkościach kodowanie i dekodowanie danych jest bardziej skomplikowane. Gigabitowy Ethernet wykorzystuje dwa oddzielne etapy kodowania. Transmisja danych jest bardziej efektywna dzięki wprowadzeniu kodów reprezentujących strumień bitów. Kodowanie danych umożliwia synchronizację, efektywne wykorzystanie pasma oraz zwiększenie stosunku sygnału do szumu. Ethernet 1000BASE-T Ethernet 1000BASE-T udostępnia transmisję typu full-duplex wykorzystując cztery pary kabla UTP kategorii 5 lub wyższej. Gigabitowy Ethernet na kablu miedzianym daje możliwość zwiększenia szybkości transmisji w jednym kierunku ze 100Mb/s na parę do 250 Mb/s na parę: sygnał przesyłany jest z szybkością 125 milionów symboli na sekundę a każdy symbol koduje 2 bity. Cztery pary transmitują zatem w sumie 1000 Mb/s. Każda para przesyła sygnał w obu kierunkach jednocześnie (full-duplex), co podwaja szybkość transmisji do 2x1000 Mb/s. 1000BASE-T wykorzystuje kodowanie liniowe 4D-PAM5, aby uzyskać przepustowość 1Gb/s. Ten schemat kodowania umożliwia transmitowanie sygnału po czterech parach równocześnie. Tłumaczy on 8-bitowy bajt danych na równoczesną transmisję 4 symboli kodowych (4D), które są wysyłane przez medium, każdy w innej parze jako sygnał o 5 poziomach napięcia (Pulse Amplitude Modulated PAM5). To oznacza, że każdy symbol odpowiada dwóm bitom danych. Ponieważ informacje są transmitowane jednocześnie czterema ścieżkami, układ sterujący nadajnika musi dzielić ramki, a układ odbiornika składać je ponownie. Zamieszczony schemat przedstawia reprezentację układu wykorzystywanego przez Ethernet 1000Base-T.

28 1000Base-T umożliwia transmisję i odbieranie danych w obu kierunkach w tym samym przewodzie i w tym samym czasie. Jednakże przepływ danych powoduje ciągłe kolizje w poszczególnych parach przewodów. W ich wyniku powstają skomplikowane sekwencje napięć. Hybrydowe układy wykrywania sygnałów wykorzystują wyrafinowane techniki takie jak tłumienie echa i korekcja błędów FEC (Forward Error Correction) w warstwie pierwszej oraz odpowiedni dobór poziomów napięć. Wykorzystując te techniki system uzyskuje przepustowość 1 Gb/s. W celu ułatwienia synchronizacji w warstwie fizycznej każda ramka jest opakowywana w znacznik startowy i znacznik końcowy. Zależności czasowe pętli są utrzymywane przez ciągły strumień symboli bezczynności (IDLE) wysyłanych w każdym przewodzie w czasie trwania przerwy międzyramkowej. W przeciwieństwie do większości sygnałów cyfrowych, które zwykle mogą przyjmować wartości z bardzo małego zestawu dyskretnych poziomów napięć, 1000Base-T używa wielu poziomów napięć. W okresie bezczynności w kablu można znaleźć dziewięć poziomów napięć. W trakcie transmisji poziomów tych może być aż siedemnaście. Ze względu na dużą liczbę stanów oraz pojawiające się zakłócenia, taki sygnał w przewodzie bardziej przypomina sygnał analogowy niż cyfrowy. System ten, podobnie jak analogowy, jest bardziej podatny na zakłócenia spowodowane przez kabel oraz problemy z jego zakończeniami. Ethernet 1000BASE-SX i 1000BASE-LX - wykorzystanie światłowodów Światłowodowe wersje gigabitowego Ethernetu - 1000BASE-SX i 1000BASE-LX - oferują następujące zalety w stosunku do kabli UTP: odporność na szumy, mały rozmiar fizyczny, zwiększony dystans bez regeneratora sygnału i zwiększona szerokość pasma. Wszystkie wersje 1000BASE-SX i 1000BASE-LX obsługują transmisję binarną w trybie full-duplex z szybkością 1250 Mb/s w dwóch włóknach światłowodu. Kodowanie transmisji bazuje na schemacie 8B/10B. Z powodu narzutu kodowania, szybkość transmisji danych wynosi 1000 Mb/s. Każda ramka danych jest opakowywana w warstwie fizycznej przed transmisją, a synchronizacja łącza jest utrzymywana przez ciągłe wysyłanie strumienia grup kodów bezczynności (IDLE) w czasie przerwy międzyramkowej. Głównymi różnicami pomiędzy 1000BASE-SX i 1000BASE-LX są: łącza medium, złącza i długość fali sygnału świetlnego. Różnice te przedstawiono na schemacie.

29 Klasyczny Ethernet i koncentratory Współdzielenie medium pomiędzy urządzeniami generuje znaczące problemy, gdy sieci się rozrastają. Zamieszczony schemat przedstawia kilka z omawianych tutaj problemów. Skalowalność W sieci z koncentratorami występuje ograniczenie rozmiaru pasma, dostępnego dla każdego urządzenia. Jednocześnie, dodanie urządzenia do sieci ze współdzielonym medium, zmniejsza średnią szerokość pasma dostępną dla każdego urządzenia. Oznacza to, iż ze wzrostem liczby urządzeń przyłączonych do medium zmniejsza się wydajność sieci. Opóźnienie Opóźnienie sieci jest to czas potrzebny, aby wysłany sygnał dotarł do wszystkich docelowych miejsc w medium. Każdy węzeł w sieci bazującej na koncentratorach musi czekać na możliwość rozpoczęcia transmisji, aby uniknąć kolizji. Opóźnienie powiększa się znacząco, gdy dystans pomiędzy węzłami jest powiększany. Na opóźnienie wpływa zarówno opóźnienie sygnału w medium, jak i przetwarzanie sygnału w koncentratorze i regeneratorze sygnału. Zwiększanie długości medium lub zwiększanie liczby koncentratorów i regeneratorów sygnału podłączonych do sieci, skutkuje zwiększeniem opóźnienia. Przy większym opóźnieniu jest bardziej prawdopodobne, że węzły nie odbiorą sygnału inicjującego, a wtedy zwiększy się liczba kolizji w sieci. Błędy w działaniu sieci Ze względu na to, że klasyczny Ethernet współdzieli medium, dowolne urządzenie w sieci może potencjalnie być źródłem problemów dla innych urządzeń. Jeżeli dowolne urządzenie podłączone do koncentratora generuje szkodliwy ruch, to komunikacja dla wszystkich urządzeń w medium może być utrudniona. Szkodliwy ruch może być powodowany przez ustawienie niepoprawnej szybkości lub trybu pracy na karcie sieciowej (full-duplex i half-duplex). Kolizje Zgodnie z CSMA/CD, węzeł nie może wysłać pakietu, jeżeli w sieci odbywa się ruch. Jeżeli dwa węzły wysyłają pakiety w tym samym czasie, to występuje kolizja i oba pakiety są tracone. Wtedy oba węzły wysyłają sygnał zakłócający, odczekują losowy okres czasu, a następnie dokonują retransmisji pakietu. Część sieci, gdzie pakiety wysłane z dwóch lub większej liczby węzłów sieci mogą ze sobą interferować, jest nazywana domeną kolizyjną. Sieć z dużą liczbą węzłów w jednym segmencie jest dużą domeną kolizyjną i zwykle jest ona mocno obciążona. Gdy ruch w takiej sieci powiększa, to wzrasta również prawdopodobieństwo wystąpienia kolizji.

30 Przełączniki Przełączniki dostarczają alternatywy dla środowiska klasycznego Ethernetu bazującego na rywalizacji o dostęp do łącza. W ciągu ostatnich kilku lat, przełączniki bardzo szybko stały się podstawowym elementem większości sieci. Przełączniki umożliwiają segmentowanie sieci na oddzielne domeny kolizyjne. Każdy port przełącznika reprezentuje oddzielną domenę kolizyjną i dostarcza pełnej szerokości pasma medium węzłowi lub węzłom podłączonym do tego portu. Mniejsza liczba węzłów w każdej domenie kolizyjnej zwiększa średnią szerokość pasma dostępną dla każdego węzła i redukuje liczbę występujących kolizji. Sieć LAN może mieć jedynie w centralnym miejscu przełącznik, do którego są podłączone koncentratory udostępniające łącze dla węzłów. W lepszym przypadku wszystkie węzły mogą być podłączone bezpośrednio do przełącznika. Topologie takie przedstawiono na schemacie. W sieci LAN, gdzie koncentrator jest podłączony do portu przełącznika, ma miejsce współdzielenie szerokości pasma, które może skutkować kolizjami we współdzielonym środowisku koncentratora. Przełącznik będzie jednak izolował segment i ograniczał kolizje do ruchu pomiędzy portami koncentratora.

31 Węzły są podłączone bezpośrednio W sieci, gdzie wszystkie węzły są podłączone bezpośrednio do przełącznika, wydajność sieci znacząco rośnie. Istnieją trzy podstawowe przyczyny odpowiedzialne za ten wzrost: Dedykowana szerokość pasma dla każdego portu Środowisko wolne od kolizji Praca w trybie full-duplex Takie fizyczne topologie gwiazdy w istocie są łączami typu punkt-punkt. Kliknij na współczynnikach wydajności na schemacie. Dedykowana szerokość pasma Każdy węzeł ma dostęp do pełnej szerokości pasma w połączeniach pomiędzy węzłami, a przełącznikiem. Z tego powodu, że koncentratory replikują sygnały oraz odbierają i wysyłają je do wszystkich innych portów, klasyczny koncentrator Ethernet jest logiczną magistralą. To oznacza, że wszystkie węzły są zmuszone do współdzielenia tej samej szerokości pasma na tej magistrali. W przypadku przełączników, każde urządzenie ma dedykowane połączenie typu punkt-punkt pomiędzy urządzeniem, a przełącznikiem, bez potrzeby rywalizowania o dostęp do łącza. Jako przykład porównajmy dwie sieci 100Mb/s LAN, z których każda posiada 10 węzłów. W segmencie sieci A 10 węzłów podłączonych jest do koncentratora. Każdy węzeł współdzieli dostępną szerokość pasma 100 Mb/s. To daje średnio 10 Mb/s dla każdego węzła. W segmencie sieci B 10 węzłów podłączonych jest do przełącznika. W tym segmencie wszystkie 10 węzłów ma dostęp do pełnej 100Mb/s szerokości pasma.

32 Nawet w tej małej przykładowej sieci zwiększenia szerokości pasma jest znaczące. Gdy liczba węzłów wzrośnie, to rozdźwięk pomiędzy dostępną szerokością pasma w obu tych implementacjach zwiększy się znacząco. Środowisko wolne od kolizji Dedykowane połączenie typu punkt-punkt do przełącznika usuwa wszelką rywalizację pomiędzy urządzeniami o medium, pozwalając węzłowi działać zaledwie z kilkoma kolizjami lub zupełnie bez kolizji. W klasycznej sieci Ethernet o umiarkowanym rozmiarze, wykorzystującej koncentratory, około 40-50% szerokości pasma jest konsumowane na obsługę kolizji. W przełączanej sieci Ethernet - gdzie właściwie nie ma kolizji - narzut spowodowany obsługą kolizji jest właściwie wyeliminowany. To daje przełączanym sieciom znacząco lepszy wskaźnik wydajności. Praca w trybie full-duplex Przełączanie pozwala także działać sieci Ethernetowej w trybie full-duplex. Zanim pojawiała się technologia przełączania, Ethernet działał tylko w trybie half-duplex. To oznaczało, że w danej chwili węzeł mógł albo transmitować dane, albo odbierać. W przełączanej sieci Ethernet pracującej w trybie full-duplex, urządzenia podłączone bezpośrednio do portu przełącznika, mogą wysyłać i odbierać dane równocześnie z pełną przepustowością medium. Połączenie pomiędzy urządzeniem i przełącznikiem jest wolne od kolizji. Takie rozwiązanie efektywnie podwaja szybkość transmisji w porównaniu z transmisją w trybie half-duplex. Na przykład, jeżeli szybkość sieci wynosi 100 Mb/s, każdy węzeł może transmitować ramki z szybkością 100 Mb/s i w tym samym czasie odbierać ramki z szybkością 100 Mb/s.

33 Wykorzystanie przełączników zamiast koncentratorów Najbardziej nowoczesne sieci Ethernet wykorzystują przełączniki dla urządzeń końcowych i pracują w trybie full-duplex. Przełączniki dostarczają o wiele większej przepustowości niż koncentratory, co znacząco zwiększają wydajność sieci. Zatem rodzi się pytanie: dlaczego nie używać przełączników w każdej sieci LAN? Są następujące trzy powody, dla których koncentratory są nadal używane: Dostępność - przełączniki LAN nie były produkowane do początku lat dziewięćdziesiątych i w połowie lat dziewięćdziesiątych nie były jeszcze łatwo dostępne. Wczesne sieci Ethernet wykorzystywały koncentratory UTP i wiele z nich działa jeszcze do tej pory. Opłacalność - początkowo przełączniki były raczej drogie. Wraz z obniżaniem się ceny przełączników, wykorzystanie koncentratorów malało, gdyż różnica cenowa miała coraz mniejsze znaczenie podczas podejmowania decyzji o zakupie. Wymagania - wczesne sieci Ethernet były prostymi sieciami zaprojektowanymi do wymiany plików i współdzielenia drukarek. W wielu miejscach te wczesne sieci ewoluowały do dzisiejszych sieci, w których występuje zapotrzebowanie na dużą szerokość pasma dla indywidualnego użytkownika. Jednak w wielu przypadkach koncentrator dla współdzielonego medium jest wystarczający, dlatego produkty te mogą przez jakiś czas pozostać jeszcze w sprzedaży. Działanie przełącznika Przełączniki Ethernet selektywnie przekazują poszczególne ramki z portu odbierającego do portu, do którego podłączony jest węzeł docelowy. Taki proces selektywnego przekazywania może być rozważany jako natychmiastowo zestawione połączenie punkt-punkt pomiędzy węzłami: nadawczym i odbiorczym. Połączenie jest zestawione tylko tak długo, jak długo trwa przekazywanie jednej ramki. W tym czasie dwa węzły mają pomiędzy sobą połączenie o pełnej szerokości pasma i reprezentują logiczne łącze punkt-punkt. Aby być technicznie precyzyjnym, należy stwierdzić, iż takie tymczasowe połączenie pomiędzy dwoma węzłami nie jest zrealizowane równocześnie. W efekcie, w ten sposób pomiędzy dwoma hostami realizowane jest połączenie typu punkt-punkt. W rzeczywistości dowolny węzeł pracujący w trybie full-duplex może transmitować swoją ramkę w dowolnej chwili, bez względu na dostępność węzła odbierającego. Jest to możliwe dzięki temu, że przełącznik będzie buforował przychodzące ramki, a następnie przekazywał je do odpowiedniego portu, gdy nie będzie on wykorzystywany. Proces ten nazywany jest jako "przechowaj i prześlij" (ang. store and forward).

34 Przy przełączaniu typu przechowaj i prześlij, przełącznik odbiera całą ramkę, sprawdza jej poprawność wykorzystując pole FCS i przekazuje ramkę do odpowiedniego portu węzła docelowego. Dlatego, że węzły nie muszą czekać, aż medium będzie wolne, mogą one wysyłać i odbierać dane z pełną prędkością medium bez strat związanych z kolizjami, lub narzutem związanym z obsługą kolizji. Przekazywanie opiera się na docelowym adresie MAC Przełącznik utrzymuje tablicę zwaną tablicą adresów MAC. Zawiera ona zestawienie docelowych adresów MAC z portami wykorzystywanymi do podłączenia tych węzłów/hostów. Dla każdej przychodzącej ramki docelowy adres MAC z tej ramki porównywany jest z pozycjami listy adresów w tablicy MAC. Jeżeli zgodność zostanie znaleziona, to numer portu z tablicy, który odpowiada docelowemu adresowi MAC, jest wykorzystywany jako port wyjściowy dla ramki. Tablica adresów MAC określana jest różnymi nazwami. Często nazywana jest ona tablicą przełączania. Jako, że przełączanie pochodzi od starszej technologii zwanej transparentnym mostkowaniem (ang. transparent bridging), tablica ta czasem jest nazywana tablicą mostkowania. Z tego powodu wiele procesów realizowanych przez przełączniki LAN w swoich nazwach może zawierać słowo most lub mostkowanie. Most jest urządzeniem wykorzystywanym bardziej powszechnie na początku istnienia sieci do łączenia (albo mostkowania) dwóch fizycznych segmentów sieci. Przełączniki mogą być wykorzystywane do wykonania tych czynności tak samo jak do udostępniania urządzeniu końcowemu łącza do sieci LAN. Na potrzeby przełączania w sieciach LAN zostało opracowanych wiele różnych technologii. Wiele z tych technologii będzie przedstawionych w późniejszej części tego kursu. Przykładem technologii, często wykorzystującej mostki, są sieci bezprzewodowe. Mosty bezprzewodowe wykorzystywane są w celu połączenia dwóch segmentów sieci bezprzewodowej. Tak więc w przemyśle sieciowym można spotkać się z wykorzystaniem obu tych terminów: przełączanie i mostkowanie.

35 Działanie przełącznika Żeby osiągnąć cel, Ethernetowe przełączniki LAN wykonują pięć podstawowych operacji: Uczenie się Uczenie się (ang. Learning) Starzenie się (ang. Aging) Zalewanie (ang. Flooding) Selektywne przekazywanie Filtrowanie Tablica adresów MAC musi być wypełniona adresami MAC i odpowiadającymi im portami. Proces uczenia się umożliwia dokonywanie dynamicznego odwzorowania w trakcie wykonywania normalnych operacji. Dla każdej wchodzącej do przełącznika ramki sprawdzany jest źródłowy adres MAC. Wykorzystując procedurę przeglądania przełącznik określa, czy w tablicy występuje zapis zawierający ten adres MAC. Jeżeli nie ma takiego wpisu, to przełącznik tworzy go w tablicy MAC, wykorzystując ten adres źródłowy i port, z którego ramka weszła do przełącznika. Teraz przełącznik może użyć tego odwzorowania w celu przesyłania ramek do tego węzła. Starzenie się Zapisy w tablicy MAC pozyskane w procesie uczenia się są zaznaczane tzw. znacznikiem czasowym. Ten znacznik jest wykorzystywany do usuwania starych zapisów z tablicy MAC. Po utworzeniu zapisu w tablicy MAC, uruchomiona jest procedura odliczania, zaczynając od wartości znacznika czasowego. Zanim wartość osiągnie zero, zapis w tablicy będzie odświeżany, gdy tylko przełącznik odbierze ramkę od tego samego węzła z tego samego portu. Zalewanie Jeżeli przełącznik nie wie, do którego portu wysłać ramkę, bo docelowy adres MAC z ramki nie występuje w tablicy MAC, to wysyła tę ramkę do wszystkich portów z wyjątkiem portu, z którego ramka została odebrana. Proces wysyłania ramek do wszystkich segmentów jest znany jako zalewanie (ang. flooding). Przełącznik nie przekazuje ramki do portu, z którego tę ramkę odebrał, gdyż docelowy węzeł w tym segmencie już tę ramkę odebrał. Zalewanie jest także używane do wysyłania ramek, gdy docelowym adresem jest adres rozgłoszeniowy.

36 Selektywne przekazywanie Selektywne przekazywanie jest procesem polegającym na sprawdzeniu docelowego adresu MAC w ramce i przekazaniu tej ramki do odpowiedniego portu. Jest to główna funkcja przełącznika. Gdy ramka dotrze od węzła do przełącznika, a przełącznik poznał już adresy MAC, to docelowy adres jest dopasowywany do zapisów w tablicy MAC, a następnie ramka jest przekazywana do odpowiedniego portu. Zamiast rozsyłania ramek do wszystkich portów przełącznik wysyła ramkę do docelowego węzła poprzez odpowiedni port. Takie działanie jest nazywane przekazywaniem. Filtrowanie W wielu przypadkach ramka nie jest przekazywana. Proces ten, nosi nazwę filtrowania ramek. Jeden sposób filtrowania został już omówiony: przełącznik nie przekazuje ramki do portu, z którego został odebrany. Przełącznik odrzuci również ramki uszkodzone - ramka zostanie odrzucona, jeżeli sprawdzenie sumy kontrolnej CRC zakończy się niepowodzeniem. Dodatkową przyczyną filtrowania ramek jest bezpieczeństwo. Przełącznik może być skonfigurowany tak, aby blokował ramki do i/lub z wybranych adresów MAC albo określonych portów. Proces ARP Protokół ARP dostarcza dwóch podstawowych funkcji: Odwzorowanie adresów IPv4 na adresy MAC Utrzymywanie podręcznej pamięci odwzorowania Odwzorowanie adresów IPv4 na adresy MAC W celu umieszczenia ramki w medium LAN koniecznym jest poznanie docelowego adresu MAC. Gdy pakiet jest wysyłany do warstwy łącza danych, aby następnie został opakowany w ramkę, węzeł odwołuje się do tablicy w jego pamięci w celu znalezienia adresu warstwy łącza danych, który jest związany z docelowym adresem IPv4. Tablica ta nazywana jest tablicą ARP albo pamięcią podręczną ARP (ang. ARP cache). Tablica ARP przechowywana jest w pamięci RAM urządzenia. Każdy zapis lub wiersz tej tablicy obejmuje parę wartości: adres IP i adres MAC. Relację pomiędzy tymi dwoma wartościami nazywamy odwzorowaniem, co oznacza, że po zlokalizowaniu w tej tablicy adresu IP można odczytać odpowiadający mu adres MAC. Tablica ARP przechowuje odwzorowanie dla lokalnych urządzeń sieci LAN. W celu rozpoczęcia procesu transmitujący węzeł próbuje zlokalizować w tablicy ARP adres MAC odwzorowany na docelowy adres IPv4. Jeżeli takie odwzorowanie jest zapisane w tablicy, to urządzenie wykorzystuje adres MAC jako adres docelowy w ramce, która opakowuje pakiet IPv4. Ramka jest następnie kodowana i umieszczana w medium sieciowym. Utrzymywanie tablicy ARP Tablica ARP jest utrzymywana dynamicznie. Są dwa sposoby, za pomocy których urządzenia mogą gromadzić adresy MAC. Jeden sposób to monitorowanie ruchu, który występuje w lokalnym segmencie sieci. Po odebraniu przez węzeł ramki z medium, może on zapisać źródłowy adres IP i MAC jako odwzorowanie w swojej tablicy ARP. Podczas transmisji ramek w sieci, urządzenie wypełnia tablicę ARP odczytywanymi parami adresów. Innym sposobem pozyskania par adresów, jest wysłanie rozgłoszenia w postaci zapytania ARP. Protokół ARP wysyła ramkę rozgłoszeniową warstwy drugiej do wszystkich urządzeń w lokalnej sieci Ethernet. Ramka zawiera pakiet zapytania ARP z adresem IP hosta docelowego. Węzeł odbierający ramkę, która zawiera jego adres IP, odpowiada przez wysłanie pakietu odpowiedzi do nadawcy zapytania wykorzystując jego adres (zarówno MAC jak i IP). Ta odpowiedź jest następnie wykorzystana do utworzenia nowego zapisu w tablicy ARP.

37 Takie dynamiczne zapisy w tablicy MAC są zaznaczane znacznikiem czasowym tak samo jak zapisy w tablicy przełącznika. Jeżeli urządzenie nie odbierze ramki z danego urządzenia przed tym jak znacznik czasowy straci ważność, to taki zapis jest usuwany z tablicy ARP. Dodatkowo, do tablicy ARP można wpisywać statyczne odwzorowania adresów, ale jest to rzadki przypadek. Statycznie wpisane do tablicy adresy ARP nie tracą ważności z upływem czasu i muszą być usuwanie ręcznie.

38 Tworzenie ramki Co robi węzeł, gdy musi utworzyć ramkę, a w pamięci podręcznej ARP nie ma odwzorowania docelowego adresu IP na adres MAC? Gdy protokół ARP odbierze od warstwy sieciowej polecenie odwzorowania adresu IPv4 na adres MAC, to szuka takiego odwzorowania w swojej tablicy ARP. Jeżeli zapis nie zostanie znaleziony, to enkapsulacja pakietu IPv4 nie powiedzie się, a proces warstwy 2 zawiadomi ARP, że jest potrzebne odwzorowanie.

39 Wtedy proces ARP wyśle pakiet zapytania ARP (ang. ARP request), aby uzyskać adres MAC docelowego urządzenia w sieci lokalnej. Jeżeli urządzenie odbierające to zapytanie ma docelowy adres IP, to odpowiada pakietem odpowiedzi ARP (ang. ARP reply). Następnie w tablicy ARP tworzone jest odwzorowanie. Pakiety związane z tym adresem IPv4 mogą teraz być opakowywane w ramkach. Jeżeli żadne urządzenie nie odpowie na zapytanie ARP, to pakiet jest porzucany, ponieważ nie ma możliwości utworzenia ramki. Informacja o braku powodzenia enkapsulacji jest przekazywana do wyższych warstw urządzenia. Jeżeli urządzenie jest urządzeniem pośredniczącym, np. routerem, to wyższe warstwy mogą poinformować nadawcę o takiej sytuacji wysyłając mu pakiet ICMPv4. Proces ARP w przypadku węzła docelowego poza siecią lokalną Wszystkie ramki muszą być przekazane do węzła w lokalnym segmencie sieci. Jeżeli docelowy host IPv4 jest w lokalnej sieci, to ramka użyje adresu MAC tego urządzenia jako adresu docelowego. Jeżeli docelowego hosta IPv4 nie ma w lokalnej sieci, to węzeł źródłowy musi przekazać ramkę do interfejsu routera, który jest bramą albo następnym routerem wykorzystywanym do tego, aby osiągnąć cel. Węzeł źródłowy użyje adresu MAC bramy jako docelowego adresu dla ramek zawierających pakiety IPv4 adresowane do hostów z innych sieci. Adres bramy interfejsu routera jest przechowywany w konfiguracji hosta. Gdy host tworzy pakiet dla docelowego węzła, to porównuje docelowy adres IP ze swoim adresem, aby określić, czy te dwa adresy IP są ulokowane w tej samej sieci warstwy 3. Jeżeli docelowy host nie jest w tej samej sieci, nadawca wykorzystuje proces ARP do określenia adresu MAC interfejsu routera pracującego jako brama. W przypadku, gdy w tablicy nie ma zapisu dotyczącego bramy, to normalny proces ARP wyśle zapytanie ARP, aby uzyskać adres MAC powiązany z adresem IP interfejsu routera.

40

41 Proxy ARP Występują przypadki, w których host może wysyłać zapytania ARP w poszukiwaniu odwzorowania adresu IPv4 spoza zakresu sieci lokalnej. W tych przypadkach urządzenie wysyła zapytania ARP dla adresów IPv4 spoza lokalnej sieci zamiast pytać o adres MAC związany z adresem IPv4 bramy. W celu dostarczenia adresów dla takich hostów interfejs routera może używać tzw. Proxy ARP, aby odpowiedzieć na zachowanie takich zdalnych hostów. To oznacza, że tablica ARP pytającego hosta będzie zawierać adresy MAC bramy odwzorowane na adresy IP nie należące do lokalnej sieci. Wykorzystując Proxy ARP router odgrywa rolę hosta z adresem IPv4, o którym mówi zapytanie ARP. Przez zafałszowanie tożsamości router bierze odpowiedzialność za przekazywanie pakietów do prawdziwego adresata. Przykładem użycia takiego procesu może być sytuacja, w której starsza implementacja IPv4 nie jest w stanie określić, czy docelowy host jest w tej samej logicznej sieci co nadawca. W takich implementacjach ARP zawsze wysyła zapytania ARP z docelowymi adresami IPv4. Jeżeli Proxy ARP jest wyłączone na interfejsie routera, to takie hosty nie mogą komunikować się z węzłami ulokowanymi poza siecią lokalną. Innym przykładem, gdzie Proxy ARP jest wykorzystywane jest sytuacja, w której host jest przekonany, że jest bezpośrednio podłączony do tej samej logicznej sieci co host docelowy. Taka sytuacja występuje wtedy, gdy host jest skonfigurowany z niepoprawną maską. Jak pokazano na schemacie, host A został niepoprawnie skonfigurowany z maską podsieci /16. Ten host jest przekonany, że jest bezpośrednio podłączony do wszystkich sieci 172.16.0.0/16 zamiast do podsieci 172.16.10.0/24. Przy próbie komunikacji z dowolnym hostem o adresie IPv4 z zakresu 172.16.0.1 do 172.16.255.254, host A wyśle zapytanie ARP pod taki adres. Router może wykorzystywać Proxy ARP do formułowania odpowiedzi związanych z adresami IPv4 hosta C (172.16.20.100) i hosta D (172.16.20.200). W tablicy ARP Hosta A znajdą się wtedy zapisy odwzorowujące te adresy IP na adresy MAC Interfejsu E0 routera (00-00-0c-94-36-ab). Jeszcze inaczej można wykorzystać Proxy ARP, gdy host nie ma skonfigurowanej domyślnej bramy. Proxy ARP może pomóc urządzeniom w sieci osiągnąć podsieć bez potrzeby konfigurowania routingu i domyślnej bramy. Domyślnie routery Cisco mają włączoną usługę Proxy ARP na interfejsach LAN.

42 ARP Usuwanie odwzorowania adresów Dla każdego urządzenia, licznik czasu pamięci podręcznej usuwa pozycje ARP, które nie były używane przez określony okres czasu. Ten okres czasu jest różny i uzależniony od urządzenia i jego systemu operacyjnego. Na przykład systemy operacyjne Windows przechowują zapisy w pamięci podręcznej ARP przez 2 minuty. Jeżeli zapis jest użyty ponownie w czasie tego okresu, to wtedy licznik czasu rozpoczyna odliczanie od 10 minut. Do ręcznego usunięcia wszystkich lub wybranych pozycji z tablicy ARP mogą zostać użyte również komendy. Po tym jak zapis zostanie usunięty, proces wysyłania zapytań ARP i odbierania odpowiedzi ARP musi się powtórzyć, aby wprowadzić odwzorowania do tablicy ARP. W laboratorium do tego podrozdziału będzie używana komenda arp do wypisania i czyszczenia zawartości pamięci podręcznej ARP komputera. Zauważ, że ta komenda pomimo jej nazwy nie powoduje uruchomienia protokołu ARP w jakikolwiek sposób. Jest ona jedynie wykorzystywana do wyświetlania, dodawania i usuwania zapisów w tablicy ARP. Usługa ARP jest zintegrowana z protokołem IPv4 i zaimplementowana na urządzeniu. Jej operacje są niewidoczne zarówno dla wyższych warstw stosu jak i użytkowników.

43 Rozgłaszanie ARP zagadnienia Narzut komunikacyjny w medium Jako ramka rozgłoszeniowa, zapytanie ARP jest odbierane i przetwarzane przez każde urządzenie w lokalnej sieci. W typowej sieci firmowej te rozgłoszenia miałyby prawdopodobnie minimalny wpływ na wydajność sieci. Jednak, gdy duża liczba urządzeń zostałaby włączona i wszystkie rozpoczęłyby używanie usług sieciowych w tym samym czasie, to mogłoby spowodować to przez krótki okres czasu obniżenie wydajności sieci. Na przykład, jeżeli wszyscy studenci w laboratorium zalogowaliby się do komputerów i próbowali uzyskać dostęp do Internetu w tej samej chwili, to pojawiłyby się znaczące opóźnienia. Po tym jak urządzenia wyślą inicjujące pakiety rozgłoszeniowe i nauczą się wymaganych adresów MAC, wpływ takiego postępowania na działanie sieci będzie minimalny. Bezpieczeństwo W wielu przypadkach używanie ARP może prowadzić do potencjalnego ryzyka związanego z bezpieczeństwem. Podszywanie się (ang. ARP spoofing) lub zatruwanie ARP (ang. ARP poisoning) jest techniką wykorzystywaną przez atakującego do wstrzyknięcia niepoprawnych odwzorowań adresów MAC na adresy sieciowe przez wprowadzenie fałszywych zapytań ARP. Napastnik fałszuje w nich adresy MAC urządzeń (źródłowy adres MAC w zapytaniu ARP), co skutkuje możliwością wysyłania ramek do złego węzła docelowego. Ręczne konfigurowanie statycznych odwzorowań jest jednym ze sposobów zapobiegania podszywaniu się. Autoryzowany adres MAC może być skonfigurowany na kilku urządzeniach sieciowych w celu ograniczenia dostępu tylko do znanych urządzeń.

44 Pytania sprawdzające 1. Jakie są dwie podwarstwy łącza danych? Podaj ich przeznaczenie 2. Wymień ograniczenia starszych technologii ethernetowych 3. Wymień pola ramki Ethernet i podaj ich przeznaczenie 4. Opisz strukturę Ethernetowego adresu MAC (w tym ile bitów na które pole) 5. Dlaczego adres MAC warstwy 2 jest niezbędny? 6. Jakie adresy MAC wykorzystuje transmisja pojedyncza, rozgłoszeniowa i grupowa? 7. Wymień fazy procesu CSMA/CD 8. Opisz Ethernetową domenę kolizyjną 9. Wymień zalety zamiany koncentratorów na przełączniki 10. Podaj etapy działania przełącznika Ethernet 11. Na czym polega przekazywanie ramki przez przełącznik 12. Kiedy i dlaczego host w sieci rozgłasza zapytania ARP? 13. Jakie jest przeznaczenie procesu Proxy ARP? 14. Dlaczego zapisy w ARP hosta są czyszczone po pewnym czasie nie używania?