Architektura harwardzka Architektura i organizacja systemu komputerowego Struktura i funkcjonowanie komputera procesor, rozkazy, przerwania

Podobne dokumenty
dr inż. Jarosław Forenc

dr inż. Jarosław Forenc Dotyczy jednostek operacyjnych i ich połączeń stanowiących realizację specyfikacji typu architektury

dr inż. Jarosław Forenc

Struktura i funkcjonowanie komputera pamięć komputerowa, hierarchia pamięci pamięć podręczna. System operacyjny. Zarządzanie procesami

Podstawowe zadanie komputera to wykonywanie programu Program składa się z rozkazów przechowywanych w pamięci Rozkazy są przetwarzane w dwu krokach:

Informatyka 1. Wykład nr 7 ( ) Plan wykładu nr 7. Politechnika Białostocka. - Wydział Elektryczny. Architektura von Neumanna

Informatyka 1. Wykład nr 6 ( ) Plan wykładu nr 6. Politechnika Białostocka. - Wydział Elektryczny. Architektura von Neumanna

Architektura komputera

Architektura komputerów

Architektura komputera. Dane i rozkazy przechowywane są w tej samej pamięci umożliwiającej zapis i odczyt

Architektura komputera. Cezary Bolek. Uniwersytet Łódzki. Wydział Zarządzania. Katedra Informatyki. System komputerowy

LEKCJA TEMAT: Zasada działania komputera.

Magistrala systemowa (System Bus)

Systemy operacyjne i sieci komputerowe Szymon Wilk Superkomputery 1

Wstęp do informatyki. System komputerowy. Magistrala systemowa. Architektura komputera. Cezary Bolek

43 Pamięci półprzewodnikowe w technice mikroprocesorowej - rodzaje, charakterystyka, zastosowania

Wykład II. Pamięci półprzewodnikowe. Studia Podyplomowe INFORMATYKA Architektura komputerów

PAMIĘCI. Część 1. Przygotował: Ryszard Kijanka

Technologie informacyjne - wykład 2 -

Organizacja typowego mikroprocesora

Architektura komputerów

Budowa komputera: dr inż. Jarosław Forenc. IDE - Intelligent Drive Electronics, Integrated Device Electronics inne nazwy:

Technologia informacyjna. Urządzenia techniki komputerowej

Architektura komputerów

Pamięć. Podstawowe własności komputerowych systemów pamięciowych:

Logiczny model komputera i działanie procesora. Część 1.

Wykład I. Podstawowe pojęcia Pamięci półprzewodnikowe. Studia stacjonarne inżynierskie, kierunek INFORMATYKA Architektura systemów komputerowych

Architektura systemu komputerowego

Podstawy Informatyki JA-L i Pamięci

Technika mikroprocesorowa. W. Daca, Politechnika Szczecińska, Wydział Elektryczny, 2007/08

Komputer IBM PC niezależnie od modelu składa się z: Jednostki centralnej czyli właściwego komputera Monitora Klawiatury

Wykład II. Pamięci operacyjne. Studia stacjonarne Pedagogika Budowa i zasada działania komputera

Pamięć wirtualna. Przygotował: Ryszard Kijaka. Wykład 4

8. MAGISTRALE I GNIAZDA ROZSZERZEŃ. INTERFEJSY ZEWNĘTRZNE.

ARCHITEKTURA PROCESORA,

dr hab. Joanna Jędrzejowicz Podstawy informatyki i komputeryzacji Gdańska Wyższa Szkoła Humanistyczna

dr inż. Jarosław Forenc

Który z podzespołów komputera przy wyłączonym zasilaniu przechowuje program rozpoczynający ładowanie systemu operacyjnego? A. CPU B. RAM C. ROM D.

Spis treúci. Księgarnia PWN: Krzysztof Wojtuszkiewicz - Urządzenia techniki komputerowej. Cz. 1. Przedmowa Wstęp... 11

Architektura komputerów

WPROWADZENIE Mikrosterownik mikrokontrolery

Budowa komputera: dr inż. Jarosław Forenc

Urządzenia zewnętrzne

dr inż. Jarosław Forenc

RODZAJE PAMIĘCI RAM. Cz. 1

Spis treœci. Co to jest mikrokontroler? Kody i liczby stosowane w systemach komputerowych. Podstawowe elementy logiczne

Struktura i funkcjonowanie komputera struktura połączeń, magistrala, DMA systemy pamięci komputerowych hierarchia pamięci, pamięć podręczna

Mikroprocesor Operacje wejścia / wyjścia

MOŻLIWOŚCI PROGRAMOWE MIKROPROCESORÓW

Architektura komputerów

Wykład I. Podstawowe pojęcia. Studia Podyplomowe INFORMATYKA Architektura komputerów

Budowa komputera. Lubię to! - podręcznik

Budowa i zasada działania komputera. dr Artur Bartoszewski

Budowa systemów komputerowych

Budowa komputera Komputer computer computare

Magistrala. Magistrala (ang. Bus) służy do przekazywania danych, adresów czy instrukcji sterujących w różne miejsca systemu komputerowego.

Architektura komputerów. Układy wejścia-wyjścia komputera

Temat: Pamięci. Programowalne struktury logiczne.

Podstawy obsługi komputerów. Budowa komputera. Podstawowe pojęcia

Informatyka 1. Wykład nr 6 ( ) Plan wykładu nr 6. Politechnika Białostocka. - Wydział Elektryczny. Architektura von Neumanna

Układ sterowania, magistrale i organizacja pamięci. Dariusz Chaberski

Architektura Systemów Komputerowych. Bezpośredni dostęp do pamięci Realizacja zależności czasowych

Budowa Mikrokomputera

Architektura komputerów

Wykład 4. Przegląd mikrokontrolerów 16-bit: - PIC24 - dspic - MSP430

Komputer. Komputer (computer) jest to urządzenie elektroniczne służące do zbierania, przechowywania, przetwarzania i wizualizacji informacji

MIKROKONTROLERY I MIKROPROCESORY

Wykład Mikroprocesory i kontrolery

Architektura Systemów Komputerowych. Jednostka ALU Przestrzeń adresowa Tryby adresowania

Architektura Systemów Komputerowych. Rozwój architektury komputerów klasy PC

Wykład II. Pamięci półprzewodnikowe. Studia stacjonarne inżynierskie, kierunek INFORMATYKA Architektura systemów komputerowych

Interfejs urządzeń peryferyjnych

Charakterystyka mikrokontrolerów. Przygotowali: Łukasz Glapiński, Mateusz Kocur, Adam Kokot,

Zarządzanie pamięcią operacyjną

MAGISTRALE ZEWNĘTRZNE, gniazda kart rozszerzeń, w istotnym stopniu wpływają na

System mikroprocesorowy i peryferia. Dariusz Chaberski

URZĄDZENIA WEJŚCIA-WYJŚCIA

Wykład II. Pamięci półprzewodnikowe. Studia stacjonarne inżynierskie, kierunek INFORMATYKA Architektura systemów komputerowych

dr inż. Jarosław Forenc

Chipset i magistrala Chipset Mostek północny (ang. Northbridge) Mostek południowy (ang. Southbridge) -

Pamięci półprzewodnikowe w oparciu o książkę : Nowoczesne pamięci. Ptc 2013/

Rok akademicki: 2013/2014 Kod: EEL s Punkty ECTS: 2. Poziom studiów: Studia I stopnia Forma i tryb studiów: Stacjonarne

Wstęp do informatyki. Interfejsy, urządzenia we/wy i komunikacja. Linie magistrali

Przykładowe pytania DSP 1

Urządzenia wejścia-wyjścia

Dydaktyka Informatyki budowa i zasady działania komputera

Działanie systemu operacyjnego

Wykład 2. Przegląd mikrokontrolerów 8-bit: -AVR -PIC

Programowanie Niskopoziomowe

Wprowadzenie do informatyki i użytkowania komputerów. Kodowanie informacji System komputerowy

Podzespoły Systemu Komputerowego:

Działanie systemu operacyjnego

Pośredniczy we współpracy pomiędzy procesorem a urządzeniem we/wy. W szczególności do jego zadań należy:

LEKCJA. TEMAT: Pamięć operacyjna.

Architektura systemu komputerowego

Zygmunt Kubiak Instytut Informatyki Politechnika Poznańska

UTK ARCHITEKTURA PROCESORÓW 80386/ Budowa procesora Struktura wewnętrzna logiczna procesora 80386

Zasada działania pamięci RAM Pamięć operacyjna (robocza) komputera - zwana pamięcią RAM (ang. Random Access Memory - pamięć o swobodnym dostępie)

Wybrane bloki i magistrale komputerów osobistych (PC) Opracował: Grzegorz Cygan 2010 r. CEZ Stalowa Wola

LEKCJA TEMAT: Współczesne procesory.

Transkrypt:

Rok akademicki 2010/2011, Wykład nr 7 2/46 Plan wykładu nr 7 Informatyka 1 Politechnika Białostocka - Wydział Elektryczny Elektrotechnika, semestr II, studia stacjonarne I stopnia Rok akademicki 2010/2011 Architektura harwardzka Architektura i organizacja systemu komputerowego Struktura i funkcjonowanie komputera procesor, rozkazy, przerwania struktura połączeń, magistrala, DMA systemy pamięci komputerowych hierarchia pamięci, pamięć podręczna Wykład nr 7 (04.04.2011) Rok akademicki 2010/2011, Wykład nr 7 3/46 Rok akademicki 2010/2011, Wykład nr 7 4/46 Architektura harwardzka Architektura komputera, w której pamięć danych programu jest oddzielona od pamięci instrukcji Nazwa architektury pochodzi komputera Harward Mark I: zaprojektowany przez Howarda Aikena pamięć instrukcji - taśma dziurkowana, pamięć danych - elektromechaniczne liczniki Architektura harwardzka Pamięci danych i instrukcji mogą różnić się: technologią wykonania strukturą adresowania długością słowa Przykład: ATmega16-16kB Flash, 1 kb SRAM, 512 B EEPROM Pamięć na instrukcje jest zazwyczaj większa niż pamięć na dane Pamięć instrukcji i danych zajmują inną przestrzeń adresową Procesor może w tym samym czasie czytać instrukcje oraz uzyskiwać dostęp do danych Architektura ta jest szybsza od architektury von Neumanna Stosowana w mikrokomputerach jednoukładowych, procesorach sygnałowych oraz przy dostępie procesora do pamięci podręcznej

Rok akademicki 2010/2011, Wykład nr 7 5/46 Rok akademicki 2010/2011, Wykład nr 7 6/46 Architektura harwardzka i von Neumanna W architekturze harwardzkiej pamięć instrukcji i pamięć danych: zajmują różne przestrzenie adresowe mają oddzielne szyny (magistrale) do procesora zaimplementowane są w inny sposób Procesor Zmodyfikowana architektura harwardzka Zmodyfikowana architektura harwardzka łączy w sobie cechy architektury harwardzkiej i architektury von Neumanna W architekturze tej oddzielone są pamięci danych i rozkazów, lecz wykorzystują one wspólną magistralę danych i adresową Architektura ta pozwala na dostęp do pamięci instrukcji tak jakby były to dane Magistrala instrukcji Pamięć programu (instrukcje programu) Magistrala danych Pamięć danych (dane programu) Część pamięci instrukcji może zawierać stałe dane, np. łańcuchy znaków, które mogą być przesyłane bezpośrednio do procesora z pominięciem pamięci na dane - zapewnia to oszczędność pamięci na dane Architektura von Neumanna Architektura harwardzka Rok akademicki 2010/2011, Wykład nr 7 7/46 Rok akademicki 2010/2011, Wykład nr 7 8/46 Architektura von Neumanna i harwardzka W obecnie stosowanych procesorach występują elementy obu architektur: pamięć operacyjna (RAM) komputera jest to typowa architektura von Neumanna pamięć podręczna (cache) podzielona jest na pamięć instrukcji i pamięć danych Z punktu widzenia programisty posługujemy się architekturą von Neumana, zaś implementacje sprzętowe zawierają architekturę harwardzką Stosowane obecnie mikrokontrolery są oparte na zmodyfikowanej architekturze harwardzkiej (AVR, ZiLOG Z8Encore!) Architektura i organizacja systemu komputerowego Przedstawienie struktury i zasady działania komputerów jest zagadnieniem dość skomplikowanym, gdyż: istnieje ogromna różnorodność sprzętu komputerowego (od komputerów masywnie równoległych do komputerów PC) technika komputerowa rozwija się bardzo szybko, ciągle pojawiają się nowe technologie, interfejsy, standardy komputer jest systemem złożonym z bardzo dużej liczby elementów Z powyższych powodów zazwyczaj przedstawia się hierarchiczną strukturę systemu komputerowego system hierarchiczny jest to układ wzajemnie powiązanych podsystemów, z których każdy ma również strukturę hierarchiczną na każdym poziomie określana jest struktura składników systemu (sposób ich wzajemnego powiązania) oraz funkcje składników systemu (działanie poszczególnych składników jako części struktury)

Rok akademicki 2010/2011, Wykład nr 7 9/46 Rok akademicki 2010/2011, Wykład nr 7 10/46 Architektura komputera a organizacja komputera Architektura komputera odnosi się do atrybutów systemu, które są widzialne dla programisty i mają bezpośredni wpływ na logiczne wykonywanie programu do atrybutów architektury należą m.in. lista rozkazów, liczba bitów wykorzystywanych do prezentacji różnych typów danych, mechanizmy wejścia/wyjścia, metody adresowania pamięci Organizacja komputera odnosi się do jednostek operacyjnych i ich połączeń, które stanowią realizację specyfikacji typu architektury atrybuty organizacyjne są to rozwiązania sprzętowe niewidzialne dla programisty, np. sygnały sterujące, interfejsy między komputerem a urządzeniami peryferyjnymi, wykorzystywana technologia pamięci Funkcjonowanie komputera Funkcje realizowane przez komputer: przetwarzanie danych przechowywanie danych (krótkotrwałe lub długotrwałe) przenoszenie danych (pomiędzy komputerem a światem zewnętrznym) urządzenia peryferyjne (proces wejścia-wyjścia) duża odległość (transmisja danych) sterowanie (powyższymi funkcjami) Rok akademicki 2010/2011, Wykład nr 7 11/46 Rok akademicki 2010/2011, Wykład nr 7 12/46 Struktura komputera Komputer składa się z czterech głównych składników: Struktura procesora Główne składniki strukturalne procesora to: procesor (jednostka centralna, CPU) - steruje działaniem komputera i realizuje funkcje przetwarzania danych pamięć główna - przechowuje dane wejście-wyjście - przenosi dane między komputerem a jego otoczeniem zewnętrznym jednostka sterująca - steruje działaniem procesora i pośrednio całego komputera jednostka arytmetyczno-logiczna (ALU) - realizuje funkcję przetwarzania danych przez komputer rejestry - realizują wewnętrzne przechowywanie danych w procesorze połączenia systemu - wszystkie mechanizmy zapewniające komunikację między jednostką centralną, pamięcią główną a wejściem-wyjściem połączenia procesora - wszystkie mechanizmy zapewniające komunikację między jednostką sterującą, ALU i rejestrami Wszystkie powyższe składniki mogą występować w komputerze pojedynczo lub w większej liczbie

Rok akademicki 2010/2011, Wykład nr 7 13/46 Rok akademicki 2010/2011, Wykład nr 7 14/46 Działanie komputera Podstawowe zadanie komputera to wykonywanie programu Program składa się z rozkazów przechowywanych w pamięci Rozkazy są przetwarzane w dwu krokach: Cykl pobierania (ang. fetch): odczytanie rozkazu z pamięci do śledzenia, który rozkaz ma być pobrany służy rejestr zwany licznikiem rozkazów (PC) lub wskaźnikiem instrukcji (IP) jeśli procesor nie otrzyma innego polecenia, to powoduje inkrementację licznika PC po każdym pobraniu rozkazu i wykonuje następny rozkaz Działanie komputera Podstawowe zadanie komputera to wykonywanie programu Program składa się z rozkazów przechowywanych w pamięci Rozkazy są przetwarzane w dwu krokach: Cykl wykonywania (ang. execution): może zawierać kilka operacji, jest zależny od natury rozkazu pobrany rozkaz jest ładowany do rejestru w procesorze zwanego rejestrem rozkazu (IR) rozkaz ma formę kodu binarnego określającego działania, które ma podjąć procesor procesor interpretuje rozkaz i przeprowadza wymagane działania Rok akademicki 2010/2011, Wykład nr 7 15/46 Rok akademicki 2010/2011, Wykład nr 7 16/46 Działanie komputera W celu przyspieszenia pracy systemu stosuje się tzw. wstępne pobranie instrukcji (ang. prefetching) Działanie komputera Graf stanów cyklu wykonania rozkazu ma następującą postać: CP1 CW1 CP2 CW2 CP3 CW3 CP1 CW1 CP2 CW2 prefeching CP3 CW3 czas CP - cykl pobierania CW - cykl wykonywania Działania procesora można podzielić na cztery grupy: przesłanie danych z procesora do pamięci lub odwrotnie przesłanie danych z procesora do modułu we-wy lub odwrotnie operacje arytmetyczne lub logiczne na danych sterowanie (np. zmiana sekwencji wykonywania programu) Wykonywanie rozkazów może zawierać kombinacje powyższych działań (3) - analiza rozkazu w celu określenia rodzaju operacji, która ma być wykonana oraz w celu określenia argumentu (jednego lub kilku) (8) - zapisanie wyniku w pamięci lub skierowanie go do we/wy Nie wszystkie stany z powyższego schematu muszą występować

Rok akademicki 2010/2011, Wykład nr 7 17/46 Rok akademicki 2010/2011, Wykład nr 7 18/46 Działanie komputera Graf stanów cyklu wykonania rozkazu ma następującą postać: Działanie komputera Każdy rozkaz przechowywany jest w postaci binarnej, ma określony format i używa określonego trybu adresowania Format to sposób rozmieszczenia informacji w kodzie rozkazu Rozkaz zawiera kod operacji (rodzaj wykonywanej operacji) i argumenty (lub adresy argumentów) wykonywanych operacji Mogą wystąpić sytuacje, w których jeden rozkaz może określać operacje na wektorze liczb lub na szeregu znaków, co wymaga powtarzania operacji pobrania i/lub przechowywania Tryb adresowania jest to sposób określania miejsca przechowywania argumentów rozkazu (operandów): natychmiastowe - argument znajduje się w kodzie rozkazu bezpośrednie - adres argumentu znajduje się w kodzie rozkazu rejestrowe - argument znajduje się w rejestrze pośrednie - adres argumentu znajduje się w rejestrze Rok akademicki 2010/2011, Wykład nr 7 19/46 Rok akademicki 2010/2011, Wykład nr 7 20/46 Działanie komputera - przerwania Wykonywanie kolejnych rozkazów przez procesor może być przerwane poprzez wystąpienie tzw. przerwania Można wyróżnić kilka klas przerwań: programowe - generowane po wystąpieniu błędu podczas wykonania rozkazu (np. dzielenie przez zero) zegarowe - generowane przez wewnętrzny zegar procesora we-wy - generowane przez sterownik we-wy w celu zasygnalizowania normalnego zakończenia operacji lub błędu uszkodzenie sprzętu - generowane przez uszkodzenie, np. defekt zasilania, błąd parzystości pamięci Przerwania zostały zaimplementowane w celu poprawienia efektywności przetwarzania - procesor może wykonywać inne rozkazy, gdy jest realizowana operacja we-wy Działanie komputera - przerwania Aby dostosować się do przerwań do cyklu rozkazu jest dodawany cykl przerwania: Po sygnale przerwania procesor: zawiesza wykonanie bieżącego programu i zachowuje jego kontekst ustawia licznik programu na początkowy adres programu obsługi przerwania wykonuje program obsługi przerwania wznawia wykonywanie programu użytkowego

Rok akademicki 2010/2011, Wykład nr 7 21/46 Rok akademicki 2010/2011, Wykład nr 7 22/46 Działanie komputera - przerwania Jak działa przerwanie? Działanie komputera - przerwania wielokrotne Podczas obsługi jednego przerwania może pojawić się sygnał kolejnego przerwania Problem przerwań wielokrotnych rozwiązywany jest na dwa sposoby: uniemożliwienie innych przerwań, jeśli jakiekolwiek inne przerwanie jest przetwarzane określenie priorytetów przerwań - przerwanie o wyższym priorytecie powoduje przerwanie programu obsługi przerwania o niższym priorytecie Rok akademicki 2010/2011, Wykład nr 7 23/46 Rok akademicki 2010/2011, Wykład nr 7 24/46 Działanie komputera - struktura połączeń Struktura połączeń jest to zbiór ścieżek łączących podstawowe moduły komputera, tj. procesor, pamięć i urządzenia we-wy Pamięć: Działanie komputera - struktura połączeń Struktura połączeń jest to zbiór ścieżek łączących podstawowe moduły komputera, tj. procesor, pamięć i urządzenia we-wy Procesor: pamięć składa się z określonej liczby słów o jednakowej długości słowa umieszczone są pod konkretnymi adresami słowo może być odczytane z pamięci lub do niej zapisane odczytuje rozkazy i dane wysyła dane po przetworzeniu steruje pracą całego systemu poprzez sygnały sterujące otrzymuje sygnały przerwań Rozkazy Dane Sygnały przerw. Procesor Sygnały ster. Dane typ operacji określają sygnały sterujące odczyt i zapis

Rok akademicki 2010/2011, Wykład nr 7 25/46 Rok akademicki 2010/2011, Wykład nr 7 26/46 Działanie komputera - struktura połączeń Struktura połączeń jest to zbiór ścieżek łączących podstawowe moduły komputera, tj. procesor, pamięć i urządzenia we-wy Moduł wejścia-wyjścia: istnieją dwie operacje: zapis i odczyt każdy z interfejsów z urządzeniem zewnętrznym określany jest portem i ma jednoznaczny adres moduł może wysyłać sygnały przerwań do procesora Odczyt Zapis Adres Dane wew. Dane zew. Moduł we/wy Dane wew. Dane zew. Sygnał przerw. Działanie komputera - struktura połączeń Struktura połączeń musi umożliwiać przesyłanie następujących danych: DMA - bezpośredni dostęp do pamięci: Dane Dane najczęściej procesor bezpośrednio odczytuje dane z pamięci i zapisuje oraz komunikuje się z urządzeniami we-wy w pewnych przypadkach pożądane jest umożliwienie bezpośredniej wymiany danych między we-wy a pamięcią podczas takiego przesyłania moduł we-wy odczytuje lub zapisuje rozkazy w pamięci, uwalniając procesor od odpowiedzialności za tę wymianę powyższe operacje nazywane są bezpośrednim dostępem do pamięci (ang. DMA - Direct Memory Access) Rok akademicki 2010/2011, Wykład nr 7 27/46 Rok akademicki 2010/2011, Wykład nr 7 28/46 Działanie komputera - magistrala Najczęściej stosowana struktura połączeń to magistrala Działanie komputera - magistrala Linie dzielą się na trzy grupy: linie danych, adresów i sterowania Magistrala jest wspólnym nośnikiem transmisji, do którego dołączonych jest wiele urządzeń, a sygnały wysyłane przez jedno z nich mogą być odbierane przez pozostałe urządzenia Magistrala składa się z wielu linii komunikacyjnych, którym przypisane jest określone znaczenie i określona funkcja Fizycznie magistrala jest zbiorem równoległych połączeń elektrycznych System komputerowy zawiera pewną liczbę różnych magistrali Magistrala łącząca główne zasoby komputera (procesor, pamięć, wejście-wyjście) nazywana jest magistralą systemową Linie danych: przenoszą dane między modułami systemu wszystkie linie danych nazywane są szyną danych liczba linii określa szerokość szyny danych (8, 16, 32, 64 bity)

Rok akademicki 2010/2011, Wykład nr 7 29/46 Rok akademicki 2010/2011, Wykład nr 7 30/46 Działanie komputera - magistrala Linie dzielą się na trzy grupy: linie danych, adresów i sterowania Działanie komputera - magistrala Linie dzielą się na trzy grupy: linie danych, adresów i sterowania Linie adresowe: służą do określania źródła i miejsca przeznaczenia danych przesyłanych magistralą liczba linii adresowych (szerokość szyny adresowej) określa maksymalną możliwą pojemność pamięci systemu Linie sterowania: służą do sterowania dostępem do linii danych i linii adresowych Rok akademicki 2010/2011, Wykład nr 7 31/46 Rok akademicki 2010/2011, Wykład nr 7 32/46 Działanie komputera - struktury wielomagistralowe W przypadku większej liczby urządzeń podłączonych do magistrali znacząco spada jej wydajność Rozwiązaniem tego problemu są struktury wielomagistralowe o określonej hierarchii Działanie komputera - typy magistral ISA (ang. Industry Standard Architecture) 1981 rok 8-bitowa (XT) i 16-bitowa (AT) szyna danych 24-bitowa szyna adresowa teoretyczna przepustowość: 8 MB/s (praktycznie: 1,6-1,8 MB/s) PCI (ang. Peripheral Component Interconnect) Wersja Rok Szyna danych Przepustowość PCI 2.0 1993 32-bitowa 133 MB/s PCI 2.1 1994 64-bitowa 528 MB/s PCI 2.2 1999 64-bitowa 528 MB/s PCI 2.3 2002 64-bitowa 528 MB/s

Rok akademicki 2010/2011, Wykład nr 7 33/46 Rok akademicki 2010/2011, Wykład nr 7 34/46 Działanie komputera - typy magistral PCI-Express (PCIe, PCI-E) 2004 rok magistrala lokalna typu szeregowego, łącząca dwa punkty występuje w kilku wariantach: x1 (250 MB/s), x2 (500 MB/s), x4 (1000 MB/s), x8 (2000 MB/s), x16 (4000 MB/s), x32 (8000 MB/s) Systemy pamięci komputerowych Ze względu na położenie pamięci w stosunku do komputera wyróżniamy pamięć: procesora (rejestry) wewnętrzną (pamięć główna) zewnętrzną (pamięć pomocnicza - pamięci dyskowe i taśmowe) Parametry charakteryzujące pamięć: pojemność - maksymalna liczba informacji jaką można przechowywać w danej pamięci czas dostępu - czas niezbędny do zrealizowania operacji odczytu lub zapisu czas cyklu pamięci - czas dostępu plus dodatkowy czas, który musi upłynąć zanim będzie mógł nastąpić kolejny dostęp szybkość przesyłania (transferu) - maksymalna liczba danych jakie można odczytać z pamięci lub zapisać do pamięci w jednostce czasu Rok akademicki 2010/2011, Wykład nr 7 35/46 Rok akademicki 2010/2011, Wykład nr 7 36/46 Systemy pamięci komputerowych Ze względu na sposób dostępu do danych wyróżniamy: dostęp sekwencyjny (pamięci taśmowe) dostęp bezpośredni (pamięci dyskowe) dostęp swobodny (pamięć główna) dostęp skojarzeniowy (pamięć podręczna) Dostęp sekwencyjny: jednostka danych to rekord dostęp do rekordów jest możliwy w określonej sekwencji liniowej przejście z jednego rekordu do następnego następuje poprzez przepuszczenie i odrzucenie rekordów pośrednich czas dostępu do różnych rekordów może bardzo różnić się Systemy pamięci komputerowych Dostęp bezpośredni: odczyt i zapis realizowany jest za pomocą tego samego mechanizmu poszczególne bloki (rekordy) mają unikatowy adres oparty na fizycznej lokacji dostęp jest realizowany przez bezpośredni dostęp do najbliższego otoczenia, po którym następuje sekwencyjne poszukiwanie, liczenie lub oczekiwanie w celu osiągnięcia lokacji finalnej Dostęp swobodny: każda adresowalna lokacja w pamięci ma unikatowy fizycznie wbudowany mechanizm adresowania czas dostępu jest stały i niezależny od poprzednich operacji dostępu

Rok akademicki 2010/2011, Wykład nr 7 37/46 Rok akademicki 2010/2011, Wykład nr 7 38/46 Systemy pamięci komputerowych Dostęp skojarzeniowy: każda lokacja ma własny mechanizm adresowania czas dostępu jest stały i niezależny od poprzednich operacji dostępu słowa są wprowadzane na podstawie części swojej zawartości, a nie na podstawie całego adresu Hierarchia pamięci Istnieją wzajemne zależności pomiędzy parametrami pamięci: kosztem, pojemnością i czasem dostępu: mniejszy czas dostępu - większy koszt na bit większa pojemność - mniejszy koszt na bit większa pojemność - dłuższy czas dostępu W systemach komputerowych nie stosuje się jednego typu pamięci, ale hierarchię pamięci Rozpatrując hierarchię od góry do dołu obserwujemy zjawiska: malejący koszt na bit rosnącą pojemność rosnący czas dostępu malejącą częstotliwość dostępu do pamięci przez procesor Rok akademicki 2010/2011, Wykład nr 7 39/46 Rok akademicki 2010/2011, Wykład nr 7 40/46 Półprzewodnikowa pamięć główna RAM (Random Access Memory) - pamięć o dostępie swobodnym odczyt i zapis następuje za pomocą sygnałów elektrycznych pamięć ulotna - po odłączeniu zasilania dane są tracone DRAM: przechowuje dane podobnie jak kondensator ładunek elektryczny wymaga operacji odświeżania jest mniejsza, gęściej upakowana i tańsza niż pamięć statyczna stosowana jest do budowy głównej pamięci operacyjnej komputera SRAM: przechowuje dane za pomocą przerzutnikowych konfiguracji bramek logicznych nie wymaga operacji odświeżania jest szybsza i droższa od pamięci dynamicznej stosowana jest do budowy pamięci podręcznej Półprzewodnikowa pamięć główna ROM (ang. Read-Only Memory) - pamięć stała pamięć o dostępie swobodnym przeznaczona tylko do odczytu dane są zapisywane podczas procesu wytwarzania pamięć nieulotna PROM (ang. Programmable ROM) - programowalna pamięć ROM pamięć nieulotna, może być zapisywana tylko jeden raz zapis jest realizowany elektrycznie po wyprodukowaniu

Rok akademicki 2010/2011, Wykład nr 7 41/46 Rok akademicki 2010/2011, Wykład nr 7 42/46 Półprzewodnikowa pamięć główna Inne typy pamięci: EPROM - pamięć wielokrotnie programowalna, kasowanie następuje przez naświetlanie promieniami UV EEPROM - pamięć kasowana i programowana na drodze czysto elektrycznej Flash - rozwinięcie koncepcji pamięci EEPROM, możliwe kasowanie i programowanie bez wymontowywania pamięci z urządzenia, występuje w dwóch odmianach: NOR (Flash BIOS) NAND (pen drive, karty pamięci) Pamięć podręczna Zastosowanie pamięci podręcznej ma na celu przyspieszenie dostępu procesora do pamięci głównej W systemie komputerowym występuje względnie duża i wolniejsza pamięć główna oraz mniejsza i szybsza pamięć podręczna pamięć podręczna zawiera kopię części zawartości pamięci głównej przed odczytaniem słowa z pamięci następuje sprawdzenie czy znajduje się ono w pamięci podręcznej jeśli tak, to jest przesyłane do procesora jeśli nie, to blok pamięci głównej (ustalona liczba słów) jest wczytywany do pamięci podręcznej, a następnie słowo jest przesyłane do procesora Rok akademicki 2010/2011, Wykład nr 7 43/46 Rok akademicki 2010/2011, Wykład nr 7 44/46 Pamięć podręczna Do pamięci podręcznej jest przesyłany cały blok, gdyż ze względu na tzw. zjawisko lokalności odniesień, istnieje duże prawdopodobieństwo, że przyszłe odniesienia będą dotyczyły innych słów w tym samym bloku Pamięć podręczna Porównanie różnych typów pamięci Level Access Time Typical Size Technology Managed By Registers 1-3 ns ~1 KB Custom CMOS Compiler Level 1 Cache (on-chip) Level 2 Cache (off-chip) 2-8 ns 8 KB-128 KB SRAM Hardware 5-12 ns 0.5 MB - 8 MB SRAM Hardware Main Memory 10-60 ns 64 MB - 1 GB DRAM Hard Disk 3,000,000-10,000,000 ns 20-100 GB Magnetic Operating System Operating System/User źródło: http://arstechnica.com/old/content/2002/07/caching.ars/2

Rok akademicki 2010/2011, Wykład nr 7 45/46 Rok akademicki 2010/2011, Wykład nr 7 46/46 Pamięć zewnętrzna Do pamięci zewnętrznych zaliczane są: dyski twarde - HDD pamięci optyczne - CD, DVD magnetyczne pamięci taśmowe Budowa dysku twardego: nośnik danych część mechaniczna kontroler Koniec wykładu nr 7 Dziękuję za uwagę!