Informatyka 1. Wykład nr 7 ( ) Plan wykładu nr 7. Politechnika Białostocka. - Wydział Elektryczny. Architektura von Neumanna

Podobne dokumenty
dr inż. Jarosław Forenc

Informatyka 1. Wykład nr 6 ( ) Plan wykładu nr 6. Politechnika Białostocka. - Wydział Elektryczny. Architektura von Neumanna

Architektura harwardzka Architektura i organizacja systemu komputerowego Struktura i funkcjonowanie komputera procesor, rozkazy, przerwania

Struktura i funkcjonowanie komputera pamięć komputerowa, hierarchia pamięci pamięć podręczna. System operacyjny. Zarządzanie procesami

dr inż. Jarosław Forenc

dr inż. Jarosław Forenc Dotyczy jednostek operacyjnych i ich połączeń stanowiących realizację specyfikacji typu architektury

Podstawowe zadanie komputera to wykonywanie programu Program składa się z rozkazów przechowywanych w pamięci Rozkazy są przetwarzane w dwu krokach:

LEKCJA TEMAT: Zasada działania komputera.

Architektura komputera. Cezary Bolek. Uniwersytet Łódzki. Wydział Zarządzania. Katedra Informatyki. System komputerowy

Architektura komputerów

Wstęp do informatyki. System komputerowy. Magistrala systemowa. Architektura komputera. Cezary Bolek

Magistrala systemowa (System Bus)

Architektura komputera. Dane i rozkazy przechowywane są w tej samej pamięci umożliwiającej zapis i odczyt

Architektura komputera

Systemy operacyjne i sieci komputerowe Szymon Wilk Superkomputery 1

Informatyka 1. Wykład nr 6 ( ) Plan wykładu nr 6. Politechnika Białostocka. - Wydział Elektryczny. Architektura von Neumanna

Technologie informacyjne - wykład 2 -

PAMIĘCI. Część 1. Przygotował: Ryszard Kijanka

Logiczny model komputera i działanie procesora. Część 1.

Architektura komputerów

Architektura komputerów

Budowa komputera Komputer computer computare

Wykład II. Pamięci półprzewodnikowe. Studia Podyplomowe INFORMATYKA Architektura komputerów

Podstawy obsługi komputerów. Budowa komputera. Podstawowe pojęcia

Technologia informacyjna. Urządzenia techniki komputerowej

dr inż. Jarosław Forenc

Budowa i zasada działania komputera. dr Artur Bartoszewski

Chipset i magistrala Chipset Mostek północny (ang. Northbridge) Mostek południowy (ang. Southbridge) -

Organizacja typowego mikroprocesora

Podstawy Informatyki JA-L i Pamięci

8. MAGISTRALE I GNIAZDA ROZSZERZEŃ. INTERFEJSY ZEWNĘTRZNE.

Pamięć wirtualna. Przygotował: Ryszard Kijaka. Wykład 4

Pamięć. Podstawowe własności komputerowych systemów pamięciowych:

43 Pamięci półprzewodnikowe w technice mikroprocesorowej - rodzaje, charakterystyka, zastosowania

Mikroprocesor Operacje wejścia / wyjścia

Architektura komputerów

Podstawy Informatyki Systemy sterowane przepływem argumentów

Wydział Elektryczny. Katedra Automatyki i Elektroniki. Instrukcja. do ćwiczeń laboratoryjnych z przedmiotu: SYSTEMY CYFROWE 1.

Budowa systemów komputerowych

Komputer IBM PC niezależnie od modelu składa się z: Jednostki centralnej czyli właściwego komputera Monitora Klawiatury

Budowa komputera. Lubię to! - podręcznik

Spis treúci. Księgarnia PWN: Krzysztof Wojtuszkiewicz - Urządzenia techniki komputerowej. Cz. 1. Przedmowa Wstęp... 11

Urządzenia zewnętrzne

Rok akademicki: 2013/2014 Kod: EEL s Punkty ECTS: 2. Poziom studiów: Studia I stopnia Forma i tryb studiów: Stacjonarne

Architektura komputerów

Budowa Mikrokomputera

Budowa komputera: dr inż. Jarosław Forenc. IDE - Intelligent Drive Electronics, Integrated Device Electronics inne nazwy:

Architektura komputerów

Architektura komputerów wer. 3

2. Podstawowe elementy PC

ARCHITEKTURA PROCESORA,

Komputer. Komputer (computer) jest to urządzenie elektroniczne służące do zbierania, przechowywania, przetwarzania i wizualizacji informacji

Architektura komputerów. Układy wejścia-wyjścia komputera

RODZAJE PAMIĘCI RAM. Cz. 1

Architektura komputerów wer. 7

Zygmunt Kubiak Instytut Informatyki Politechnika Poznańska

Wykład I. Podstawowe pojęcia Pamięci półprzewodnikowe. Studia stacjonarne inżynierskie, kierunek INFORMATYKA Architektura systemów komputerowych

Magistrala. Magistrala (ang. Bus) służy do przekazywania danych, adresów czy instrukcji sterujących w różne miejsca systemu komputerowego.

WPROWADZENIE Mikrosterownik mikrokontrolery

UTK ARCHITEKTURA PROCESORÓW 80386/ Budowa procesora Struktura wewnętrzna logiczna procesora 80386

Podzespoły Systemu Komputerowego:

Systemy operacyjne. Struktura i zasady budowy. Rozdział 1 Wprowadzenie do systemów komputerowych

Dydaktyka Informatyki budowa i zasady działania komputera

Urządzenia wejścia-wyjścia

Charakterystyka mikrokontrolerów. Przygotowali: Łukasz Glapiński, Mateusz Kocur, Adam Kokot,

Pamięci półprzewodnikowe w oparciu o książkę : Nowoczesne pamięci. Ptc 2013/

Wykład II. Pamięci operacyjne. Studia stacjonarne Pedagogika Budowa i zasada działania komputera

Wybrane bloki i magistrale komputerów osobistych (PC) Opracował: Grzegorz Cygan 2010 r. CEZ Stalowa Wola

MIKROKONTROLERY I MIKROPROCESORY

Podstawy Informatyki DMA - Układ bezpośredniego dostępu do pamięci

Wykład Mikroprocesory i kontrolery

Interfejs urządzeń peryferyjnych

dr hab. Joanna Jędrzejowicz Podstawy informatyki i komputeryzacji Gdańska Wyższa Szkoła Humanistyczna

Uniwersytet w Białymstoku Wydział Ekonomiczno-Informatyczny w Wilnie SYLLABUS na rok akademicki 2010/2011

dr inż. Jarosław Forenc

Architektura Systemów Komputerowych. Bezpośredni dostęp do pamięci Realizacja zależności czasowych

Programowanie Niskopoziomowe

Wstęp do informatyki. Interfejsy, urządzenia we/wy i komunikacja. Linie magistrali

Wykład I. Podstawowe pojęcia. Studia Podyplomowe INFORMATYKA Architektura komputerów

UTK Można stwierdzić, że wszystkie działania i operacje zachodzące w systemie są sterowane bądź inicjowane przez mikroprocesor.

Spis treœci. Co to jest mikrokontroler? Kody i liczby stosowane w systemach komputerowych. Podstawowe elementy logiczne

Adresowanie obiektów. Adresowanie bitów. Adresowanie bajtów i słów. Adresowanie bajtów i słów. Adresowanie timerów i liczników. Adresowanie timerów

Układ sterowania, magistrale i organizacja pamięci. Dariusz Chaberski

Podstawy Projektowania Przyrządów Wirtualnych. Wykład 9. Wprowadzenie do standardu magistrali VMEbus. mgr inż. Paweł Kogut

Architektura Systemów Komputerowych. Rozwój architektury komputerów klasy PC

LEKCJA TEMAT: Współczesne procesory.

Który z podzespołów komputera przy wyłączonym zasilaniu przechowuje program rozpoczynający ładowanie systemu operacyjnego? A. CPU B. RAM C. ROM D.

Struktura i działanie jednostki centralnej

Architektura systemu komputerowego

MAGISTRALE ZEWNĘTRZNE, gniazda kart rozszerzeń, w istotnym stopniu wpływają na

Projektowanie. Projektowanie mikroprocesorów

Architektura i administracja systemów operacyjnych

Wykład 14. Zagadnienia związane z systemem IO

Zarządzanie pamięcią operacyjną

dr inż. Jarosław Forenc

Technika mikroprocesorowa. W. Daca, Politechnika Szczecińska, Wydział Elektryczny, 2007/08

Zasada działania pamięci RAM Pamięć operacyjna (robocza) komputera - zwana pamięcią RAM (ang. Random Access Memory - pamięć o swobodnym dostępie)

Temat: Pamięci. Programowalne struktury logiczne.

Magistrale i gniazda rozszerzeń

Zaliczenie Termin zaliczenia: Sala IE 415 Termin poprawkowy: > (informacja na stronie:

Transkrypt:

Rok akademicki 2007/2008, Wykład nr 7 2/45 Plan wykładu nr 7 Informatyka 1 Politechnika Białostocka - Wydział Elektryczny Elektrotechnika, semestr II, studia niestacjonarne I stopnia (zaoczne) Rok akademicki 2007/2008 Architektura von Neumanna i architektura harwardzka Architektura i organizacja systemu komputerowego Struktura i funkcjonowanie komputera procesor przerwania struktura połączeń magistrala systemy pamięci komputerowych Wykład nr 7 (18.05.2008) Rok akademicki 2007/2008, Wykład nr 7 3/45 Rok akademicki 2007/2008, Wykład nr 7 4/45 Architektura von Neumanna Architektura von Neumanna jest to rodzaj architektury komputera, opisanej w 1945 roku przez matematyka Johna von Neumanna ChociaŜ nazwa pochodzi od jego nazwiska, to tego typu architektura była znana juŝ wcześniej Inne spotykane nazwy: architektura z Princeton, store-program computer (koncepcja przechowywanego programu) Architektura von Neumanna zakłada podział komputera na kilka części: jednostkę sterującą jednostkę arytmetyczno-logiczną pamięć główną urządzenia wejścia-wyjścia Architektura von Neumanna Jednostka sterująca (Control Unit): interpretuje rozkazy z pamięci i powoduje ich wykonanie Jednostka arytmetyczno-logiczna (ALU - Arithmetic Logic Unit): wykonuje działania na liczbach binarnych Pamięć (Memory): zawiera dane i program (instrukcje programu, rozkazy programu) Urządzenia wejścia-wyjścia (Input/Output): ich pracą kieruje jednostka sterująca Jednostka arytmetyczno-logiczna oraz sterująca tworzą obecnie procesor (CPU - Central Processing Unit)

Rok akademicki 2007/2008, Wykład nr 7 5/45 Rok akademicki 2007/2008, Wykład nr 7 6/45 Architektura von Neumanna Charakterystyka systemu komputerowego zbudowanego w oparciu o architekturę von Neumanna: Architektura von Neumanna Charakterystyka systemu komputerowego zbudowanego w oparciu o architekturę von Neumanna: informacje przechowywane są w komórkach pamięci o jednakowym rozmiarze komórki pamięci tworzą uporządkowany zbiór z jednoznacznie określonymi numerami zwanymi adresami zawartość komórki pamięci moŝe zmienić tylko procesor dokonując, w wyniku wykonania rozkazu, przesłania słowa do pamięci praca systemu komputerowego polega na sekwencyjnym odczytywaniu instrukcji z pamięci komputera i ich wykonywaniu w procesorze dzięki takiej organizacji systemu moŝna przełączać wykonywanie programu z jednego na inny bez fizycznej ingerencji w strukturę systemu system komputerowy ma skończoną i funkcjonalnie pełną listę rozkazów dane programu oraz instrukcje programu (rozkazy) przechowywane są w tej samej pamięci i są jednakowo dostępne dla procesora w architekturze von Neumanna procesor nie moŝe w tym samym czasie odczytywać z pamięci danych i instrukcji, gdyŝ korzysta ze wspólnej magistrali dane i instrukcje zakodowane są za pomocą liczb - bez analizy programu trudno jest określić, czy dany obszar pamięci zawiera dane czy instrukcje program jest wprowadzany do systemu komputerowego poprzez urządzenia zewnętrzne i przechowywany w pamięci w sposób identyczny jak dane wąskim gardłem architektury von Neumanna jest ograniczony transfer pomiędzy procesorem a pamięcią - procesor jest w stanie szybko przetwarzać dane, ale musi czekać na dane przesyłane do lub z pamięci zjawisko to nazywane jest von Neumann bottleneck, a jego rozwiązaniem jest zastosowanie pamięci podręcznej cache Rok akademicki 2007/2008, Wykład nr 7 7/45 Rok akademicki 2007/2008, Wykład nr 7 8/45 Architektura harwardzka Architektura komputera, w której pamięć danych programu jest oddzielona od pamięci instrukcji Nazwa architektury pochodzi od nazwy komputera Harward Mark I, zaprojektowanego przez Howarda Aikena, w którym pamięć instrukcji stanowiła taśma dziurkowana, zaś pamięć danych - elektromechaniczne liczniki Architektura harwardzka Pamięci przeznaczone do przechowywania danych i instrukcji nie muszą być takie same, mogą róŝnić się technologią wykonania, strukturą adresowania, długością słowa Pamięć na instrukcje jest zazwyczaj większa niŝ pamięć na dane Pamięć instrukcji i danych zajmują inną przestrzeń adresową Procesor moŝe w tym samym czasie czytać instrukcje oraz uzyskiwać dostęp do danych Dzięki prostszej budowie oraz moŝliwości jednoczesnego odczytywania instrukcji i danych architektura harwardzka jest szybsza od architektury von Neumanna Architektura harwardzka jest stosowana w mikrokomputerach jednoukładowych, procesorach sygnałowych oraz przy dostępie procesora do pamięci cache

Rok akademicki 2007/2008, Wykład nr 7 9/45 Rok akademicki 2007/2008, Wykład nr 7 10/45 RóŜnice między architekturą harwardzką a von Neumanna Pamięć instrukcji i pamięć danych zajmują róŝne przestrzenie adresowe Pamięć instrukcji i pamięć danych mają oddzielne szyny (magistrale) do procesora Pamięć instrukcji i pamięć danych są zaimplementowane w inny sposób Zmodyfikowana architektura harwardzka (mieszana) Zmodyfikowana architektura harwardzka łączy w sobie cechy architektury harwardzkiej i architektury von Neumanna W architekturze tej są oddzielone pamięci danych i rozkazów, lecz wykorzystują one wspólną magistralę danych i adresową Architektura ta pozwala na dostęp do pamięci instrukcji tak jakby były to dane Część pamięci instrukcji moŝe zawierać stałe dane, np. łańcuchy znaków, które mogą być przesyłane bezpośrednio do procesora z pominięciem pamięci na dane - zapewnia to oszczędność pamięci na dane Zazwyczaj w architekturze harwardzkiej pamięć instrukcji jest tylko do odczytu, a pamięć danych do odczytu i zapisu - stwarza to problemy z inicjalizacją wartości w pamięci danych Rozwiązaniem powyŝszego problemu jest właśnie dodanie odpowiednich połączeń i instrukcji umoŝliwiających przesyłanie danych z pamięci instrukcji do pamięci danych Rok akademicki 2007/2008, Wykład nr 7 11/45 Rok akademicki 2007/2008, Wykład nr 7 12/45 Architektura von Neumanna i harwardzka - podsumowanie W obecnie stosowanych procesorach występują elementy obu architektur: von Neumanna i harwardzkiej Pamięć operacyjna komputera jest to typowa architektura von Neumanna Pamięć cache jest podzielona na pamięć instrukcji i pamięć danych - jeśli danych nie ma w pamięci cache to są ściągane z pamięci głównej Z punktu widzenia programisty posługujemy się architekturą von Neumana, zaś implementacje sprzętowe zawierają architekturę harwardzką Większość stosowanych obecnie mikrokontrolerów jest oparta na zmodyfikowanej architekturze harwardzkiej, np. AVR (Atmel) TMS320 (Texas Instruments) ZiLOG Z8Encore! Architektura i organizacja systemu komputerowego Przedstawienie struktury i zasady działania komputerów jest zagadnieniem dość skomplikowanym, gdyŝ: istnieje ogromna róŝnorodność sprzętu komputerowego (od komputerów masywnie równoległych do zwykłych komputerów PC) technika komputerowa rozwija się bardzo szybko, ciągle pojawiają się nowe technologie, interfejsy, standardy komputer jest systemem złoŝonym z bardzo duŝej liczby elementów Z powyŝszych powodów zazwyczaj przedstawia się hierarchiczną strukturę systemu komputerowego system hierarchiczny jest to układ wzajemnie powiązanych podsystemów, z których kaŝdy ma równieŝ strukturę hierarchiczną na kaŝdym poziomie określana jest struktura składników systemu (sposób ich wzajemnego powiązania) oraz funkcje składników systemu (działanie poszczególnych składników jako części struktury) Hierarchiczna struktura przedstawiana jest od góry do dołu

Rok akademicki 2007/2008, Wykład nr 7 13/45 Rok akademicki 2007/2008, Wykład nr 7 14/45 Architektura komputera a organizacja komputera Architektura komputera odnosi się do atrybutów systemu, które są widzialne dla programisty i mają bezpośredni wpływ na logiczne wykonywanie programu do atrybutów architektury naleŝą m.in. lista rozkazów, liczba bitów wykorzystywanych do prezentacji róŝnych typów danych, mechanizmy wejścia/wyjścia, metody adresowania pamięci Organizacja komputera odnosi się do jednostek operacyjnych i ich połączeń, które stanowią realizację specyfikacji typu architektury atrybuty organizacyjne są to rozwiązania sprzętowe niewidzialne dla programisty, np. sygnały sterujące, interfejsy między komputerem a urządzeniami peryferyjnymi, wykorzystywana technologia pamięci Funkcjonowanie komputera Funkcje realizowane przez komputer: przetwarzanie danych przechowywanie danych (krótkotrwałe lub długotrwałe) przenoszenie danych (pomiędzy komputerem a światem zewnętrznym) urządzenia peryferyjne - proces wejścia/wyjścia duŝa odległość - transmisja danych sterowanie (trzema powyŝszymi funkcjami) Rok akademicki 2007/2008, Wykład nr 7 15/45 Rok akademicki 2007/2008, Wykład nr 7 16/45 Struktura komputera Komputer składa się z czterech głównych składników strukturalnych: Struktura procesora Główne składniki strukturalne procesora to: procesor (jednostka centralna, CPU) - steruje działaniem komputera i realizuje funkcje przetwarzania danych pamięć główna - przechowuje dane wejście-wyjście - przenosi dane między komputerem a jego otoczeniem zewnętrznym jednostka sterująca - steruje działaniem procesora i pośrednio całego komputera jednostka arytmetyczno-logiczna (ALU) - realizuje funkcję przetwarzania danych przez komputer rejestry - realizują wewnętrzne przechowywanie danych w procesorze połączenia systemu - wszystkie mechanizmy zapewniające komunikację między jednostką centralną, pamięcią główną a wejściem-wyjściem połączenia procesora - wszystkie mechanizmy zapewniające komunikację między jednostką sterującą, ALU i rejestrami Wszystkie powyŝsze składniki mogą występować w komputerze pojedynczo lub w większej liczbie

Rok akademicki 2007/2008, Wykład nr 7 17/45 Rok akademicki 2007/2008, Wykład nr 7 18/45 Działanie anie komputera Podstawowe zadanie komputera to wykonywanie programu Program składa się z zestawu rozkazów przechowywanych w pamięci Rozkazy są przetwarzane w dwu krokach: Działanie anie komputera Podstawowe zadanie komputera to wykonywanie programu Program składa się z zestawu rozkazów przechowywanych w pamięci Rozkazy są przetwarzane w dwu krokach: Cykl pobierania: Cykl wykonywania: odczytanie rozkazu z pamięci do śledzenia, który rozkaz ma być pobrany słuŝy rejestr zwany licznikiem programu (PC) jeśli procesor nie otrzyma innego polecenia, to powoduje inkrementację licznika PC po kaŝdym pobraniu rozkazu i wykonuje następny rozkaz w ciągu moŝe zawierać kilka operacji, jest zaleŝny od natury rozkazu pobrany rozkaz jest ładowany do rejestru w procesorze zwanego rejestrem rozkazu (IR) rozkaz ma formę kodu binarnego określającego działania, które ma podjąć procesor procesor interpretuje rozkaz i przeprowadza wymagane działania Rok akademicki 2007/2008, Wykład nr 7 19/45 Rok akademicki 2007/2008, Wykład nr 7 20/45 Działanie anie komputera Działania procesora moŝna podzielić na cztery grupy: procesor-pamięć - przesłanie danych z procesora do pamięci lub odwrotnie procesor-we/wy - przesłanie danych z procesora do modułu we/wy lub odwrotnie przetwarzanie danych - operacje arytmetyczne lub logiczne na danych sterowanie - np. zmiana sekwencji wykonywania programu, czyli pobranie innego rozkazu niŝ kolejny Działanie anie komputera Graf stanów cyklu wykonania rozkazu ma następującą postać: Wykonywanie rozkazów moŝe zawierać kombinacje powyŝszych działań (3) - analizowanie rozkazu w celu określenia rodzaju operacji, która ma być wykonana oraz w celu określenia argumentu (jednego lub kilku) (8) - zapisanie wyniku w pamięci lub skierowanie go do we/wy Nie wszystkie stany z powyŝszego schematu muszą występować

Rok akademicki 2007/2008, Wykład nr 7 21/45 Rok akademicki 2007/2008, Wykład nr 7 22/45 Działanie anie komputera Graf stanów cyklu wykonania rozkazu ma następującą postać: Działanie anie komputera - przerwania Wykonywanie kolejnych rozkazów przez procesor moŝe być przerwane poprzez wystąpienie tzw. przerwania MoŜna wyróŝnić kilka klas przerwań: programowe - generowane po wystąpieniu błędu podczas wykonania rozkazu (np. przepełnienie arytmetyczne, dzielenie przez zero) zegarowe - generowane przez wewnętrzny zegar procesora we/wy - generowane przez sterownik we/wy w celu zasygnalizowania normalnego zakończenia operacji lub zasygnalizowania błędu uszkodzenie sprzętu - generowane przez uszkodzenie, np. defekt zasilania, błąd parzystości pamięci Mogą wystąpić sytuacje, w których jeden rozkaz moŝe określać operacje na wektorze liczb lub na szeregu znaków, co wymaga powtarzania operacji pobrania i/lub przechowywania Przerwania zostały zaimplementowane w celu poprawienia efektywności przetwarzania Poprzez wykorzystanie przerwań procesor moŝe wykonywać inne rozkazy, gdy jest realizowana operacja we/wy Rok akademicki 2007/2008, Wykład nr 7 23/45 Rok akademicki 2007/2008, Wykład nr 7 24/45 Działanie anie komputera - przerwania Aby dostosować się do przerwań do cyklu rozkazu jest dodawany cykl przerwania: Działanie anie komputera - przerwania Jak działa przerwanie? Po sygnale przerwania procesor: zawiesza wykonanie bieŝącego programu i zachowuje jego kontekst ustawia licznik programu na początkowy adres programu obsługi przerwania wykonuje program obsługi przerwania wznawia wykonywanie programu uŝytkowego

Rok akademicki 2007/2008, Wykład nr 7 25/45 Rok akademicki 2007/2008, Wykład nr 7 26/45 Działanie anie komputera - przerwania wielokrotne Podczas obsługi jednego przerwania moŝe pojawić się sygnał kolejnego przerwania Problem przerwań wielokrotnych rozwiązywany jest na dwa sposoby: uniemoŝliwienie innych przerwań, jeśli jakiekolwiek inne przerwanie jest przetwarzane określenie priorytetów przerwań - przerwanie o wyŝszym priorytecie powoduje przerwanie programu obsługi przerwania o niŝszym priorytecie Działanie anie komputera - struktura połą łączeń Struktura połączeń jest to zbiór ścieŝek łączących podstawowe moduły komputera, tj. procesor, pamięć i urządzenia wejścia/wyjścia Pamięć: pamięć składa się z określonej liczby słów o jednakowej długości słowa umieszczone są pod konkretnymi adresami słowo moŝe być odczytane z pamięci lub do niej zapisane typ operacji określają sygnały sterujące odczyt i zapis Rok akademicki 2007/2008, Wykład nr 7 27/45 Rok akademicki 2007/2008, Wykład nr 7 28/45 Działanie anie komputera - struktura połą łączeń Struktura połączeń jest to zbiór ścieŝek łączących podstawowe moduły komputera, tj. procesor, pamięć i urządzenia wejścia/wyjścia Procesor: Działanie anie komputera - struktura połą łączeń Struktura połączeń jest to zbiór ścieŝek łączących podstawowe moduły komputera, tj. procesor, pamięć i urządzenia wejścia/wyjścia Moduł wejścia/wyjścia: odczytuje rozkazy i dane wysyła dane po przetworzeniu steruje pracą całego systemu poprzez sygnały sterujące otrzymuje sygnały przerwań Rozkazy Dane Sygnały przerw. Procesor Sygnały ster. Dane istnieją dwie operacje: zapis i odczyt kaŝdy z interfejsów z urządzeniem zewnętrznym określany jest portem i ma jednoznaczny adres moduł moŝe wysyłać sygnały przerwań do procesora Odczyt Zapis Adres Dane wew. Dane zew. Moduł we/wy Dane wew. Dane zew. Sygnał przerw.

Rok akademicki 2007/2008, Wykład nr 7 29/45 Rok akademicki 2007/2008, Wykład nr 7 30/45 Działanie anie komputera - struktura połą łączeń Struktura połączeń musi umoŝliwiać przesyłanie następujących danych: DMA - bezpośredni dostęp do pamięci: najczęściej procesor bezpośrednio odczytuje dane z pamięci i zapisuje oraz komunikuje się z urządzeniami wejścia/wyjścia w pewnych przypadkach poŝądane jest umoŝliwienie bezpośredniej wymiany danych między we/wy a pamięcią podczas takiego przesyłania moduł we/wy odczytuje lub zapisuje rozkazy w pamięci, uwalniając proces od odpowiedzialności za tę wymianę powyŝsze operacje nazywane są bezpośrednim dostępem do pamięci (ang. DMA - Direct Memory Access) Działanie anie komputera - magistrala Najczęściej stosowana struktura połączeń to magistrala Magistrala jest drogą zapewniającą komunikację między urządzeniami Magistrala jest wspólnym nośnikiem transmisji, do którego dołączonych jest wiele urządzeń, a sygnały wysyłane przez jedno z nich mogą być odbierane przez pozostałe urządzenia Magistrala składa się z wielu linii komunikacyjnych - fizycznie jest to zbiór równoległych połączeń elektrycznych System komputerowy zapewnia pewną liczbę róŝnych magistrali Magistrala łącząca główne zasoby komputera (procesor, pamięć, wejście/wyjście) nazywana jest magistralą systemową Magistrala składa się z wielu oddzielnych linii, którym przypisane jest określone znaczenie i określona funkcja Rok akademicki 2007/2008, Wykład nr 7 31/45 Rok akademicki 2007/2008, Wykład nr 7 32/45 Działanie anie komputera - magistrala Linie moŝna podzielić na trzy grupy: linie danych, adresów i sterowania Działanie anie komputera - magistrala Linie moŝna podzielić na trzy grupy: linie danych, adresów i sterowania Linie danych: przenoszą dane między modułami systemu wszystkie linie danych nazywane są szyną danych liczba linii określa szerokość szyny danych (8, 16, 32, 64 bity) Linie adresowe: słuŝą do określania źródła i miejsca przeznaczenia danych przesyłanych magistralą liczba linii adresowych (szerokość szyny adresowej) określa maksymalną moŝliwą pojemność pamięci systemu

Rok akademicki 2007/2008, Wykład nr 7 33/45 Rok akademicki 2007/2008, Wykład nr 7 34/45 Działanie anie komputera - magistrala Linie moŝna podzielić na trzy grupy: linie danych, adresów i sterowania Działanie anie komputera - struktury wielomagistralowe W przypadku większej liczby urządzeń podłączonych do magistrali znacząco spada jej wydajność Rozwiązaniem tego problemu są struktury wielomagistralowe o określonej hierarchii Linie sterowania: słuŝą do sterowania dostępem do linii danych i linii adresowych Rok akademicki 2007/2008, Wykład nr 7 35/45 Rok akademicki 2007/2008, Wykład nr 7 36/45 Działanie anie komputera - typy magistral ISA (ang. Industry Standard Architecture) 1981 rok 8-bitowa (XT) i 16-bitowa (AT) szyna danych 24-bitowa szyna adresowa teoretyczna przepustowość: 8 MB/s (praktycznie: 1,6-1,8 MB/s) PCI (ang. Peripheral Component Interconnect) PCI 2.0, 1993 rok, 32-bitowa szyna danych, przepustowość: 133 MB/s PCI 2.1, 1994 rok, 64-bitowa szyna danych, przepustowość: 533 MB/s PCI 2.2, 1999 rok, 64-bitowa szyna danych, przepustowość: 533 MB/s PCI 3.0, 2002 rok, 64-bitowa szyna danych, przepustowość: 533 MB/s PCI-Express (PCIe, PCI-E) 2004 rok magistrala lokalna typu szeregowego, łącząca dwa punkty występuje w kilku wariantach: x1 (250 MB/s), x2 (500 MB/s), x4 (1000 MB/s), x8 (2000 MB/s), x16 (4000 MB/s), x32 (8000 MB/s) Systemy pamięci komputerowych Ze względu na połoŝenie pamięci w stosunku do komputera wyróŝniamy pamięć: procesora (rejestry) wewnętrzną (pamięć główna) zewnętrzną (pamięć pomocnicza - pamięci dyskowe i taśmowe) Parametry charakteryzujące pamięć: pojemność - w przypadku pamięci wewnętrznej wyraŝana w bajtach lub słowach (8, 16, 32 bity), a w przypadku pamięci zewnętrznej - w bajtach czas dostępu - czas niezbędny do zrealizowania operacji odczytu lub zapisu, tj. czas od chwili doprowadzenia adresu do chwili zmagazynowania lub udostępnienia danych czas cyklu pamięci - czas dostępu plus dodatkowy czas, który musi upłynąć zanim będzie mógł nastąpić kolejny dostęp szybkość przesyłania (transferu) - szybkość z jaką dane mogą być wprowadzane do jednostki pamięci lub z niej wyprowadzane

Rok akademicki 2007/2008, Wykład nr 7 37/45 Rok akademicki 2007/2008, Wykład nr 7 38/45 Systemy pamięci komputerowych Ze względu na sposób dostępu do danych wyróŝniamy: dostęp sekwencyjny (pamięci taśmowe) dostęp bezpośredni (pamięci dyskowe) dostęp swobodny (pamięć główna) dostęp skojarzeniowy (pamięć podręczna) Dostęp sekwencyjny: jednostka danych to rekord dostęp do rekordów jest moŝliwy w określonej sekwencji liniowej odczyt i zapis wykonywane są za pomocą tego samego mechanizmu przejście z jednego rekordu do następnego następuje poprzez przepuszczenie i odrzucenie rekordów pośrednich czas dostępu do róŝnych rekordów moŝe bardzo róŝnić się Systemy pamięci komputerowych Dostęp bezpośredni: odczyt i zapis realizowany jest za pomocą tego samego mechanizmu poszczególne bloki (rekordy) mają unikatowy adres oparty na fizycznej lokacji dostęp jest realizowany przez bezpośredni dostęp do najbliŝszego otoczenia, po którym następuje sekwencyjne poszukiwanie, liczenie lub oczekiwanie w celu osiągnięcia lokacji finalnej Dostęp swobodny: kaŝda adresowalna lokacja w pamięci ma unikatowy fizycznie wbudowany mechanizm adresowania czas dostępu jest stały i niezaleŝny od poprzednich operacji dostępu Dostęp skojarzeniowy: kaŝda lokacja ma własny mechanizm adresowania czas dostępu jest stały i niezaleŝny od poprzednich operacji dostępu słowa są wprowadzane na podstawie części swojej zawartości, a nie na podstawie całego adresu Rok akademicki 2007/2008, Wykład nr 7 39/45 Rok akademicki 2007/2008, Wykład nr 7 40/45 Hierarchia pamięci Istnieją wzajemne zaleŝności pomiędzy parametrami pamięci: kosztem, pojemnością i czasem dostępu: mniejszy czas dostępu - większy koszt na bit większa pojemność - mniejszy koszt na bit większa pojemność - dłuŝszy czas dostępu W systemach komputerowych nie stosuje się jednego typu pamięci, ale hierarchię pamięci Rozpatrując hierarchię od góry do dołu obserwujemy zjawiska: malejący koszt na bit rosnącą pojemność rosnący czas dostępu malejącą częstotliwość dostępu do pamięci przez procesor Półprzewodnikowa pamięć główna RAM (ang. Random Access Memory) - pamięć o dostępie swobodnym odczyt i zapis za pomocą sygnałów elektrycznych pamięć ulotna - po odłączeniu zasilania dane są tracone dzieli się na pamięć dynamiczną DRAM i statyczną SRAM DRAM: przechowuje dane podobnie jak kondensator ładunek elektryczny wymaga operacji odświeŝania jest mniejsza, gęściej upakowana i tańsza niŝ pamięć statyczna SRAM: przechowuje dane za pomocą przerzutnikowych konfiguracji bramek logicznych nie wymaga operacji odświeŝania jest szybsza i droŝsza od pamięci dynamicznej

Rok akademicki 2007/2008, Wykład nr 7 41/45 Rok akademicki 2007/2008, Wykład nr 7 42/45 Półprzewodnikowa pamięć główna Organizacja pamięci DRAM Półprzewodnikowa pamięć główna ROM (ang. Read-Only Memory) - pamięć stała moŝliwy tylko odczyt danych dane są zapisywane podczas procesu wytwarzania pamięć nieulotna PROM - programowalna pamięć ROM pamięć nieulotna, moŝe być zapisywana tylko jeden raz zapis jest realizowany elektrycznie po wyprodukowaniu Inne typy pamięci: EPROM EEPROM Flash memory źródło: W. Stallings: Organizacja i architektura systemu komputerowego. Projektowanie systemu a jego wydajność. Rok akademicki 2007/2008, Wykład nr 7 43/45 Rok akademicki 2007/2008, Wykład nr 7 44/45 Pamięć podręczna Zastosowanie pamięci podręcznej ma na celu przyspieszenie dostępu procesora do pamięci głównej W systemie komputerowym występuje względnie duŝa i wolniejsza pamięć główna oraz mniejsza i szybsza pamięć podręczna Pamięć podręczna Do pamięci podręcznej jest przesyłany cały blok, gdyŝ ze względu na tzw. zjawisko lokalności odniesień, istnieje duŝe prawdopodobieństwo, Ŝe przyszłe odniesienia będą dotyczyły innych słów w tym samym bloku pamięć podręczna zawiera kopię części zawartości pamięci głównej przed odczytaniem słowa z pamięci następuje sprawdzenie czy znajduje się ono w pamięci podręcznej jeśli tak, to jest przesyłane do procesora jeśli nie, to blok pamięci głównej (ustalona liczba słów) jest wczytywany do pamięci podręcznej, a następnie słowo jest przesyłane do procesora

Rok akademicki 2007/2008, Wykład nr 7 45/45 Rok akademicki 2007/2008, Wykład nr 7 46/45 Pamięć zewnętrzna Do pamięci zewnętrznych zaliczane są: dyski twarde - HDD pamięci optyczne - CD, DVD magnetyczne pamięci taśmowe Budowa dysku twardego: nośnik danych część mechaniczna kontroler Koniec wykładu nr 7 Dziękuj kuję za uwagę! Rok akademicki 2007/2008, Wykład nr 7 47/45 Rok akademicki 2007/2008, Wykład nr 7 48/45 Źródła a (KsiąŜ ąŝki): Źródła a (Internet): Biernat J.: Architektura komputerów. Oficyna Wydawnicza Politechniki Wrocławskiej, Wrocław, 2005 - Rozdz. 2.1. Koncepcja programu pamiętanego (str. 17-19) Stallings W.: Organizacja i architektura systemu komputerowego. Projektowanie systemu a jego wydajność. WNT, Warszawa, 2004. http://pl.wikipedia.org/wiki/architektura_von_neumanna - Architektura von Neumanna http://pl.wikipedia.org/wiki/architektura_harwardzka - Architektura harwardzka http://pl.wikipedia.org/wiki/zmodyfikowana_architektura_harwardzka - Zmodyfikowana architektura harwardzka http://en.wikipedia.org/wiki/von_neumann_architecture - von Neumann architecture http://en.wikipedia.org/wiki/harvard_architecture - Harvard architecture http://en.wikipedia.org/wiki/modified_harvard_architecture - Modified Hardvard architecture