Budowa, działanie i parametry dysku twardego Podział dysków Obecnie na rynku znajdziemy kila typów dysków jako nośników pamięci masowej: dyski HDD dyski magnetyczne dyski hybrydowe bufor DRAM zastąpiono pamięcią flash dyski SSD dyski flash dyski M2 Budowa dysku HDD Dyski twarde (nazwane tak z powodu swej sztywnej konstrukcji) umieszczone są w odpowiednio skonstruowanym pyłoszczelnym zespole napędowym, który zawiera następujące układy sterownia: napędu dysków przesuwu głowic (pozycjonerem) głowicami zapisu głowicami odczytu inne układy sterujące i kontrolne zespołu napędowego Pracą elementów mechanicznych sterują układy elektroniki, zawierające: blok zapisu, blok odczytu z detekcją i korekcją błędów, sterownie pozycjonera.
Przykład budowy dysku
Rola bufora danych dysku HDD Dyski twarde wyposażone są w bufor danych, zwany też dyskową pamięcią podręczną (cache), umożliwiający zwiększenie szybkości transmisji. Aby przyspieszyć transmisję w dyskach z pamięcią Cache, stosuje się następującą zasadę: z dysku podczas odczytu wczytuje się do pamięci Cache, oprócz interesujących nas w danej chwili sektorów, również sektory następujące po nich. Jeśli dane te zostaną zażądane później, to nie muszą być odczytane z dysku, lecz przywołane są z pamięci Cache. Dysk gotowy jest do pracy dopiero wtedy, gdy zostanie sformatowany przez producenta lub użytkownika. Formatowanie polega na podziale dysku na ścieżki i sektory. Jest to tzw. formatowanie niskiego poziomu lub formatowanie fizyczne. Parametry dysków HDD Komputer domowy potrzebuje dysk pojemne, wydajne i niedrogie. Z kolei dla serwerów ważne są dyski dla, których najważniejszym parametrem jest wydajność, niezawodność oraz pojemność. Do głównych parametrów dysku należą: pojemność wydajność, na którą składa się: o o o o o o prędkość przesyła danych z talerza do elektroniki dysku średni czas dostępu (średni czas wyszukania i opóźnienia) prędkość obrotowa wielkość bufora (bufor to szybka pamięć DRAM - cache) interfejs niezawodność (AFR- procent prawdopodobieństwa uszkodzenia dysku; MTBF ilość godzin bezawaryjnej pracy dysku) Od prędkości obrotowej dysków zależy opóźnienie (ang. latency) w dostępie do wybranego sektora. Im większa prędkość wirowania dysku tym krótsze opóźnienie rotacyjne. Ważnym parametrem jest czas przejścia głowicy ze ścieżki na ścieżkę, zwłaszcza przy transmisji dużych dysków. Dlatego konstruktorzy dysków nieznacznie opóźnili początki kolejnych ścieżek, tak aby po przeczytaniu całej ścieżki głowica zdążyła przesunąć się na ścieżkę następną i trafić na jej początek (technika ta nosi nazwę Cylinder Skewing). Współczesne dyski mają wbudowany system zarządzania poborem mocy (ang. Power Management), który powoduje wyłączenie silnika dysku i zaparkowanie głowic, po pewnym (określonym przez producenta) czasie od momentu ostatniej operacji we/wy wykonanej na dysku. Fakt przejścia dysku najpierw w stan jałowy (ang. Idle), a następnie uśpienia (ang. Sleep lub Standby) powoduje znaczące zmniejszenie poboru mocy (w niektórych przypadkach aż czterokrotne).
Dodatkowo współczesne dyski dysponują funkcją S.M.A.R.T (ang. Self-Monitoring Analysis and Reporting Technology) polegająca na tym, że elektronika dysku monitoruje i analizuje oraz raportuje stan urządzenia (np. wysokość lotu głowicy, czas uzyskania nominalnej prędkości obrotowej). Jeśli postępuje degradacja tych wielkości, układy kontrolne wysyłają wtedy ostrzeżenia do użytkownika, że dysk może ulec uszkodzeniu - należy podkreślić, że wszyscy producenci dysków trzymają się norm standardu S.M.A.R.T. Interfejs IDE Dyski z interfejsem IDE mogą współpracować z pamięcią komputera (czyli wykonywać operacje wejścia/wyjścia) na dwa sposoby: pod nadzorem procesora (sygnały sterujące i adresy, niezbędne do przesyłania informacji do/z pamięci operacyjnej generowane są przez procesor ten sposób operacji zwany jest trybem PIO ang. Programmed Input/Output); w trakcie tej czynności procesor nie może wykonywać żadnych innych operacji fakt ten spowalnia pracę komputera, bezpośredni dostęp do pamięci (ang. Direct Memory Acces - DMA) podczas którego wymiana informacji pomiędzy pamięcią operacyjną a urządzeniem peryferyjnym zachodzi bez udziału procesora (który w tym czasie może wykonywać inne operacje) sterowanie operacją wejścia/wyjścia realizowane jest przez specjalny układ zwany kontrolerem DMA. Dla dysków z interfejsem IDE opracowano wiele protokołów wymiany informacji z pamięcią operacyjną; są to protokoły PIO oraz protokoły DMA (tzw. jednosłowowy bezpośredni dostęp do pamięci ang. single word DMA i wielosłowowy, szybszy ang. multiword DAM) - standard Ultra ATA/133 umożliwia transmisję danych pomiędzy dyskiem twardym a kontrolerem z maksymalną prędkością, równą 133 MB.
Taśmy IDE: 40- i 80-przewodowa
Interfejs SATA Zasilanie: żółty 12 V, czerwony 5 V
Dyski SSD Początek technologii SSD przypada na lata 70 i 80 ubiegłego wieku. Wtedy narodziła się idea utworzenia trwałej pamięci w oparciu o półprzewodniki. W takiej formie dyski SSD znalazły zastosowanie w pierwszych superkomputerach do użytku wojskowego czy serwerach, w których tradycyjne twarde dyski były albo zbyt powolne, albo zbyt wrażliwe. Współczesne SSD są złożone praktycznie tylko z pamięci flash i są powszechnie używane w serwerach przetwarzających tysiące zapytań na minutę, jak i w komputerach przenośnych. Ciekawa jest także historia nazwy SSD. Został nazwany dyskiem stałym ze względu na fakt, że w przeciwieństwie do tradycyjnego twardego dysku, nie posiada żadnych ruchomych części. Standardowy mechanizm umożliwiający zapis danych na HDD był oparty na igle kodującej dane na wirujących talerzach. SSD nie zawiera ani jednej części mechanicznej i jest to ogromna zaleta. Eliminacja ruchomych elementów uczyniła go znacznie odporniejszym na wstrząsy, wibracje i różnego typu uszkodzenia mechaniczne. Wszystkie dyski SSD wykorzystują układy pamięci NAND flash, ale szybki rozwój technologii powoduje, że są to pamięci bardzo różne. Początkowo były to układy typu SLC, przechowujące w każdej komórce jeden bit informacji. Obecnie są to niemal wyłącznie pamięci MLC (dwa bity), a nawet TLC (trzy bity), co przede wszystkim obniża koszty produkcji. Poza tym mogą to być pamięci typu DDR (tak samo jak SDRAM przesyłają dane dwa razy w jednym takcie zegara), a także DDR2. Jeśli chodzi o sposób współpracy z kontrolerem, mogą to być układy synchroniczne lub asynchroniczne. Drugim ważnym elementem jest kontroler. Obecnie dominują kontrolery LSI Sand- Force, Phison z serii PS31xx i Marvell 88SS918x jest między nimi sporo podobieństw,
ale i różnic. Inne są np. sposoby korekcji błędów, kompresji i szyfrowania danych, buforowania, zarządzania wolną pamięcią, oszczędzania energii itd. Poszczególne kontrolery mają różną liczbę kanałów, co zwielokrotnia szybkość przesyłu danych z i do pamięci flash. Najnowsze współpracują z pamięciami TLC. Jeszcze inną grupę stanowią kontrolery umożliwiające podłączenie SSD do magistrali PCI Express. Kombinacja zastosowanych elementów decyduje, w jaki sposób będzie pracować dysk SSD. Ideałem byłaby możliwość przesyłania danych z pełną szybkością interfejsu SATA 3. Pożądany jest również jak najkrótszy czas dostępu do danych nie tylko rzędu ułamków milisekundy, ale wręcz rzędu mikrosekund. Poza tym w najbardziej wymagających zastosowaniach dysk musi realizować tysiące, a nawet dziesiątki tysięcy operacji odczytu i zapisu w ciągu sekundy. Właśnie dwa najważniejsze elementy, czyli pamięć flash oraz kontroler, decydują o tych wszystkich parametrach. Oczywiście niezbędna jest też niezawodność oraz trwałość, która jest piętą achillesową technologii, bo komórki pamięci flash mają pewną ograniczoną liczbę cykli zapisu i odczytu danych. O trwałości świadczy kilka parametrów: MTBF (Mean Time Between Failures, czyli średni czas między awariami, wynoszący zwykle około miliona godzin), TBW (Total Bytes Written, czyli maksymalny limit danych do zapisania, liczony w setkach terabajtów) lub po prostu oferowany przez producenta okres gwarancyjny, który w przypadku dobrych dysków wynosi 5 lat. Porównanie dysków SSD i HDD
Dyski M2 W coraz bardziej zminiaturyzowanych generacjach komputerów od lat istniała potrzeba wprowadzania miniaturowych złączy. W laptopach od dawna jest dostępny interfejs mini-pci Express, w którym instaluje się np. karty Wi-Fi. Z czasem do tego interfejsu dodano możliwość współpracy z dyskami SATA w ten sposób powstał interfejs msata. Służył głównie do instalacji pamięci flash, tzw. ExpressCache, o niewielkiej pojemności (zwykle 8 GB) przyspieszającej uruchamianie i pracę systemu. Interfejs M.2 jest fizycznym złączem o szerokości 22 mm kolejną mutacją interfejsu mini-pci Express, również (a może nawet przede wszystkim) dostosowaną do instalacji pamięci flash, gdyż jest zgodny ze standardem SATA 3. Może też służyć do instalacji kart rozszerzeń, w tym Wi-Fi, bluetooth, modułów NFC, odbiorników GPS itd., w tym przypadku dzięki zgodności z PCI Express 3.0. Zatem jest to uniwersalne złącze, do którego da się podłączyć wiele różnych urządzeń. Parametry dysków M.2 Dyski M.2 muszą pasować do gniazda typu M.2, dlatego mają złącza krawędziowe o szerokości 22 mm. Aby pasowały do określonych wnęk w laptopach, są również ustandaryzowane pod względem długości najczęściej mają 42, 60 lub 80 mm. Zatem są znacznie mniejsze niż pamięci RAM, a i tak mieszczą setki gigabajtów danych. Nie mają obudowy, która nawet w nowoczesnych dyskach SSD zawiera głównie powietrze. Fizyczne złącze M.2 jest zgodne zarówno z interfejsem SATA, jak i PCI Express. Również dyski mogą mieć jeden lub drugi interfejs, przy czym prawie wszystkie mają SATA. Jest to o tyle istotne, że SATA ma realną przepustowość ograniczoną do 550 MB/s, dlatego nawet najlepsze 2,5-calowe dyski SSD do tej pory nie miały lepszych osiągów. Jeśli dysk M.2 pracuje na magistrali PCI Express z pominięciem kontrolerów SATA, jego osiągi są wyższe. Teoretycznie jest to 1 GB/s (dla PCIe x2, jak w większości płyt), albo nawet 4 GB/s w wersji Ultra M.2, w której pamięć flash komunikuje się bezpośrednio z procesorem (na przykład w płycie ASRock Z97 Extreme6). Większa jest również liczba losowych operacji odczytu i zapisu dyski M.2 wykonują ponad 100 tys. operacji na sekundę.