HISTORIA ROZWOJU KOMPUTERÓW

Podobne dokumenty
Historia informatyki

Historia komputerów. Szkoła Podstawowa nr 8 im. Jana Wyżykowskiego w Lubinie

algorytm przepis rozwiązania przedstawionego zadania komputer urządzenie, za pomocą którego wykonywane są algorytmy

O informatyce i jej historii. R. Robert Gajewski omklnx.il.pw.edu.pl/~rgajewski

Technika mikroprocesorowa

Komputery. Komputery. Komputery PC i MAC Laptopy

Architektura komputerów Historia systemów liczących

Historia komputera. Architektura komputera Historia komputera. Historia komputera. Historia komputera. Historia komputera

Systemy operacyjne i sieci komputerowe Szymon Wilk Superkomputery 1

Pracownia Komputerowa. Wyk ad I Magdalena Posiada a-zezula

Wykład pierwszy Rys historyczny rozwoju sprzętu komputerowego

JAKIE IDEE WPŁYNĘŁY NAJSILNIEJ NA ROZWÓJ I EWOLUCJĘ INFORMATYKI?

Wprowadzenie do inżynierii przetwarzania informacji

Cyfrowe układy scalone

Historia komputera. Lubię to! - podręcznik

Systemy operacyjne i sieci komputerowe

Cyfrowe układy scalone

Wstęp do architektury komputerów

1. CZYM JEST INFORMATYKA 1

Podstawy informatyki. Podstawowe pojęcia Historia informatyki

Jak liczono dawniej? 1

PRZESŁANKI I PIERWSZE KONCEPCJE AUTOMATYCZNEGO LICZENIA

Architektura komputerów

Jako pierwszych do liczenia używano palców.

Komputer IBM PC niezależnie od modelu składa się z: Jednostki centralnej czyli właściwego komputera Monitora Klawiatury

Dla człowieka naturalnym sposobem liczenia jest korzystanie z systemu dziesiętnego, dla komputera natomiast korzystanie z zapisu dwójkowego

Wstęp do Informatyki. dr inż. Paweł Pełczyński

12:00 1 MAJA 2015, CZWARTEK

Przeszłość i przyszłość informatyki

LEKCJA TEMAT: Zasada działania komputera.

PRACA ZALICZENIOWA Z WORDA

Algorytm. Krótka historia algorytmów

Cyfrowe układy scalone

Języki Programowania

Podstawy Informatyki Organizacja prostego komputera dydaktycznego

Budowa komputera Komputer computer computare

Języki Programowania. Generacje języków programowania. Wojciech Sobieski

Komputery. Historia i budowa.

Opracował: Jan Front

Podstawy obsługi komputerów. Budowa komputera. Podstawowe pojęcia

urządzenie elektroniczne służące do przetwarzania wszelkich informacji, które da się zapisać w formie ciągu cyfr albo sygnału ciągłego.

1. Budowa komputera schemat ogólny.

Architektura Systemów Komputerowych. Paweł Pełczyński

Budowa komputera. Lubię to! - podręcznik

Podstawy Informatyki Systemy sterowane przepływem argumentów

Informatyka. Prowadzący: Dr inż. Sławomir Samolej D102 C, tel: , WWW: ssamolej.prz-rzeszow.

Wykład I: Kodowanie liczb w systemach binarnych. Studia Podyplomowe INFORMATYKA Podstawy Informatyki

Elementy historii INFORMATYKI

PI 02-01/12. W jednym bajcie można można zakodować 256 różnych znaków.

Teraz bajty. Informatyka dla szkoły podstawowej. Klasa VI

Technologie Informacyjne

Fascynujący świat komputerów

Logiczny model komputera i działanie procesora. Część 1.

Architektura komputerów wer. 7

Budowa Mikrokomputera

Architektura komputerów wer. 3

Podstawy Informatyki

Scenariusz lekcji. omówić dokonania w dziedzinie przetwarzania informacji do XIX wieku;

Podzespoły Systemu Komputerowego:

Struktura i funkcjonowanie komputera pamięć komputerowa, hierarchia pamięci pamięć podręczna. System operacyjny. Zarządzanie procesami

dr hab. Joanna Jędrzejowicz Podstawy informatyki i komputeryzacji Gdańska Wyższa Szkoła Humanistyczna

Powrót do przeszłości i przyszłości

Turing i jego maszyny

Budowa pierwszych komputerów i ich zastosowanie w matematyce

Komputer. Komputer (computer) jest to urządzenie elektroniczne służące do zbierania, przechowywania, przetwarzania i wizualizacji informacji

Wprowadzenie do informatyki i użytkowania komputerów. Kodowanie informacji System komputerowy

Wymagania edukacyjne z informatyki dla uczniów klas VI SP nr 53 w Krakowie w roku szkolnym 2019/2020

Podstawy Informatyki. Podstawy Informatyki. Warunki zaliczenia. Program wykładów. Metalurgia, I rok. Czym jest informatyka? Z czego się uczyć?

Podstawy Informatyki Języki programowania

Komputer i urządzenia z nim współpracujące.

Historia komputera. Narzędzia informatyki

Informatyka. Michał Rad

Wstęp do współczesnej inżynierii EKS i komputery sterowane myślami. Andrzej Materka, listopad 2010

Dydaktyka Informatyki budowa i zasady działania komputera

Komputer nie myśli. On tylko wykonuje nasze polecenia. Nauczmy się więc wydawać mu rozkazy

Budowa komputera KROK PO KROKU! Opis wszystkich części komputera w sposób zrozumiały dla nowatorów

Techniki multimedialne

12. Wprowadzenie Sygnały techniki cyfrowej Systemy liczbowe. Matematyka: Elektronika:

WOJEWÓDZKI KONKURS INFORMATYCZNY DLA UCZNIÓW DOTYCHCZASOWYCH GIMNAZJÓW ETAP SZKOLNY BIAŁYSTOK, 22 LISTOPADA 2017 R.

Maszyny liczace - rys historyczny


Kod U2 Opracował: Andrzej Nowak

HISTORIA KOMPUTERÓW 2015/16. Bartosz Klin.

Budowa systemów komputerowych

Tranzystor JFET i MOSFET zas. działania

Metody numeryczne Technika obliczeniowa i symulacyjna Sem. 2, EiT, 2014/2015

Alan M. TURING. Matematyk u progu współczesnej informatyki

Programowanie sterowników PLC wprowadzenie

Urządzenia zewnętrzne

HISTORIA KOMPUTERÓW Wyciąg z początkowych fragmentów książki W. Ducha Fascynujący świat komputerów (

43 Pamięci półprzewodnikowe w technice mikroprocesorowej - rodzaje, charakterystyka, zastosowania

Programowanie Strukturalne i Obiektowe Słownik podstawowych pojęć 1 z 5 Opracował Jan T. Biernat

Luty 2001 Algorytmy (7) 2000/2001

Technologie Informacyjne Wykład 2

Budowa Komputera część teoretyczna

Płyta główna (ang. motherboard) najważniejsza płyta drukowana urządzenia elektronicznego, na której zamontowano najważniejsze elementy urządzenia, umo

Technologia informacyjna. Urządzenia techniki komputerowej

Technika mikroprocesorowa. W. Daca, Politechnika Szczecińska, Wydział Elektryczny, 2007/08

Budowa i zasada działania komputera. dr Artur Bartoszewski

Transkrypt:

KOMPUTERÓW HISTORIA ROZWOJU Ludzkość wytwarza coraz więcej informacji. Tak wiele, że jej przetwarzanie, czyli pamiętanie, klasyfikowanie, poszukiwanie, obrazowanie i zestawianie jest ponad ludzkie siły. Dlatego tak duże znaczenie osiągnęły "maszyny", które radzą sobie z tym zadaniem lepiej i szybciej od człowieka - komputery. Komputery, czyli maszyny liczące ( z ang. compute - obliczać ) mają więcej lat niż się na ogół przypuszcza. Za przodków komputera uznać bowiem należy wszystkie urządzenia służące do liczenia. Od Starożytności do Średniowiecza

W wykopaliskach między Mezopotamią i Indiami odnaleziono ślady stosowanych już w X wieku p.n.e. systematycznych metod znajdowania wyniku najprostszych operacji za pomocą specjalnie przygotowanych i poukładanych kamieni. Początkowo kamienie układano w rzędach na piasku tworząc w ten sposób plansze obliczeniowe, które nazywamy abakami ( lub abakusami ). Później zaczęto nawlekać kamienie na pręty, tworząc liczydła, czyli kompletne i przenośne przyrządy do obliczeń. W obu przypadkach, abakusa i liczydła, stan obliczeń określało rozmieszczenie elementów ruchomych na piasku lub na prętach. Liczydła przeżywały swój renesans w wiekach średnich. Wtedy na przykład ukształtował się japoński soroban w swej obecnej postaci. Jest on jeszcze dzisiaj dość powszechnie stosowanym liczydłem w Japonii. Soroban - jak każde liczydło - ma wady, które zostały naprawione częściowo w kalkulatorze a ostatecznie dopiero w komputerach. Służy on bowiem tylko do odnotowania bieżących wyników obliczeń, gdyż nie ma w nim miejsca ani na pamiętanie wyników pośrednich, ani na pamiętanie kolejno wykonywanych działań. Wiek XVII i XVIII Na początku XVII wieku John Neper opublikował najpierw swoje dzieło o logarytmach a następnie przedstawił system wspomagający wykonywanie mnożenia, zwany pałeczkami Nepera. Genialność tego systemu polegała na sprowadzeniu mnożenia do serii dodawań. Pomysł Nepera wykorzystało wielu konstruktorów urządzeń liczących, jemu współczesnych i żyjących po nim. Za twórcę pierwszej w historii mechanicznej maszyny do liczenia jest uznawany Wilhelm Schickard ( 1592-1635 ), który przez długie lata był zupełnie zapomniany. Schickard opisał projekt swojej czterodziałaniowej maszyny, wykorzystując udoskonalone pałeczki Nepera w postaci walców, w liście do Keplera, któremu miała ona pomóc w jego astronomicznych ( dosłownie i w przenośni ) rachunkach. Niestety jedyny zbudowany egzemplarz maszyny spłonął w niewyjaśnionych okolicznościach, a dzisiejsze jej repliki zostały odtworzone dopiero niedawno na podstawie opisu z listu Keplera. W XVII wieku żyli i tworzyli wielcy matematycy Gottfried Wilhelm Leibniz ( 1646-1716 ) i Blaise Pascal ( 1623-1662). Pascal zainteresował się zbudowaniem maszyny liczącej z myślą o dopomożeniu swojemu ojcu, który był poborcą podatkowym. Wyprodukowano około 50 egzemplarzy Pascaliny - maszyny według pomysłu Pascala. Kilka egzemplarzy istnieje w muzeach do dzisiaj; część z nich była przeznaczona do obliczeń w różnych systemach monetarnych, a część - dla różnych miar odległości i powierzchni ( z przeznaczeniem dla geodetów ). Pascal który zbudował maszynę wykonującą tylko dwa działania ( dodawanie i odejmowanie ) przez ponad trzysta lat uchodził niesłusznie za wynalazcę pierwszej mechanicznej maszyny do liczenia. Schickard i Pascal wprowadzili w swoich maszynach mechanizm do przenoszenia cyfr przy dodawaniu i odejmowaniu. Obie maszyny miały także pewne możliwości zapamiętywania niektórych wyników pośrednich. Leibniz odkrył na nowo pochodzący ze starożytnych Chin system dwójkowy ( zwany także binarnym ) do zapisu liczb. Przypisuje się jemu także zbudowanie pierwszej mechanicznej maszyny mnożącej. Chociaż w tym czasie istniała już Pascalina i Leibniz miał możność zapoznania się z nią w Paryżu, projekt swojej "żywej ławy do liczenia" opisał przed pierwszą wizytą w Paryżu. W maszynie tej wprowadził wiele części, które zostały użyte w późniejszych maszynach biurowych. Maszyny Schickarda, Pascala, i Leibniza wymagały od użytkownika

manualnej pomocy w wielu czynnościach związanych z kolejnymi krokami obliczeń. Za ich pomocą nie było jeszcze można w pełni automatycznie i w całości wykonać prostego działania na dwóch liczbach. W tym miejscu wypada wspomnieć o udziale naszego rodaka w dziele tworzenia maszyn liczących. Abraham Stern ( 1769-1842 ), z zawodu zegarmistrz, wykonał serię maszyn, które poza czterema działaniami podstawowymi, wyciągały także pierwiastki kwadratowe. Jedna z jego maszyn, raz uruchomiona, potrafiła wykonać za pomocą mechanizmu zegarowego wszystkie operacje bez ingerencji człowieka. Maszyny skonstruowane przez Sterna okazały się jednak mało praktyczne ze względu na wyjątkowo delikatną budowę. Charles Babbage ( 1791-1871 ) Za najwybitniejszego twórcę maszyn liczących, żyjącego przed erą elektroniczną, uważa się Anglika Charlesa Babbage'a. Swoją pierwszą maszynę nazwaną maszyną różnicową, ( gdyż wykonywała obliczenia metodą różnicową ), konstruował przez ponad 10 lat. Trapiony jednak wieloma kłopotami rodzinnymi i finansowymi oraz nie mogąc do końca porozumieć się ze swoim głównym wykonawcą - konstruktorem Clementem zaprzestał dalszych prac nad nią w 1842 roku. Zmontowaną część maszyny (podobno nadal sprawną) można oglądać w Muzeum Nauk w Londynie. Należy dodać, że w odróżnieniu od maszyn Leibniza i Pascala, po ręcznym ustawieniu początkowego stanu, dalsze działania maszyny różnicowej nie wymagają już żadnej ingerencji użytkownika poza kręceniem korbą. Prace Babbage'a zainspirowały wielu jemu współczesnych, którzy jak na przykład Szwedzi George i Edward Scheutzowie, często z większym powodzeniem ukończyli swoje, może mniej ambitne ale nadal praktyczne konstrukcje maszyn różnicowych. Ale Babbage nie poprzestał na próbie skonstruowania maszyny różnicowej. Marzył o maszynie, która mogłaby rozwiązywać bardziej złożone zadania. Tak narodził się jeszcze w trakcie prac nad maszyną różnicową pomysł zbudowania maszyny analitycznej, którym Babbage żył do śmierci. Było to przedsięwzięcie czysto abstrakcyjne - przewidywane przeszkody techniczne i trudności finansowe nie pozwoliły nawet na rozpoczęcie prac konstrukcyjnych. W projekcie Babbage zawarł jednak wiele pomysłów zrealizowanych dopiero we współczesnych komputerach. Między innymi rozdzielił pamięć ( zwaną magazynem ) od jednostki liczącej ( młyna ), czyli miejsce przechowywania danych od jednostki wykonującej na nich działania. Obie te części maszyny analitycznej miały być sterowane za pomocą dodatkowego urządzenia kontrolnego, które otrzymywało polecenia na kartach perforowanych, udoskonalonych i rozpowszechnionych przez Jacquarda do programowania maszyn tkackich. Można więc uznać maszynę analityczną Babbege'a za pierwszy pomysł kalkulatora sterowanego programem zewnętrznym. Opis działania maszyny analitycznej trafił w ręce Ady ( jej pełne nazwisko: Ada Augusta hrabina Lovelace), znanej w owych czasach z błyskotliwego umysłu. Urzeczona doskonałością projektu uważała, że... " maszyna analityczna tkać będzie wzory algebraiczne, tak jak krosna Jacquarda tkają licie i kwiaty...". Nie czekając na skonstruowanie maszyny ( czego i tak by nie doczekała ), Ada zajęła się sporządzaniem opisów jej używania do rozwiązywania konkretnych zadań obliczeniowych. Opisy te nazwano by dzisiaj programami, dlatego uważa się ją za pierwszą programistkę komputerów. Dla uczczenia zasług Ady na tym polu nazwano jej imieniem jeden z najbardziej uniwersalnych języków programowania.

Przełom XIX i XX wieku Koniec XIX wieku był początkiem rozwoju urządzeń mechanograficznych, których głównym przeznaczeniem było usprawnienie rachunków statystycznych, księgowych i biurowych. Zaczęło się w Stanach Zjednoczonych od Hermana Holleritha, który postanowił zautomatyzować prace statystyczne związane ze spisem ludności przeprowadzanym wtedy w Stanach co dziesięć lat. Hollerith sięgnął po elektryczność, jako źródło impulsów i energii, rozwinął postać karty perforowanej, na której zapisywano dane i zbudował elektryczny czytnik - sorter kart. Olbrzymim sukcesem Holleritha okazał się spis 1890 roku, którego wyniki zostały całkowicie opracowane za pomocą jego urządzeń na podstawie danych zebranych na jego kartach. W następnych latach Hollerith dostarczał lub wypożyczał swoje urządzenia do przeprowadzenia spisów w wielu krajach, w tym także w Europie, między innymi w Rosji. Na przełomie XIX i XX wieku powstało wiele firm, które początkowo oferowały maszyny sterowane kartami perforowanymi i z latami zyskiwały na swojej potędze a wiele z nich przetrwało do dzisiaj, jak na przykład IBM, Bull, Remington - Rand, Burroughs, a także NCR ( kasy ), i Bell ( telefony ). Udoskonalona i znormalizowana karta perforowana przez wiele dziesięcioleci była uniwersalnym nośnikiem informacji, a pierwsze maszyny mechaniczne do przetwarzania danych zapoczątkowały stale rosnący popyt na przetwarzanie informacji. Wniosło to także zmiany w stosunkach międzyludzkich, a w szczególności między państwem ( posiadaczem maszyn do obróbki informacji ) i obywatelem. Początek XX wieku Wśród modeli obliczeń powstałych w pierwszej połowie XX wieku największą popularność zdobyły maszyny Turinga. W swojej fundamentalnej pracy z 1936 roku, Alan Turing bardzo przystępnie opisał tok mylenia prowadzący od obliczeń wykonywanych ręcznie do obliczeń wykonywanych przez bardzo prostą maszynę. Oto jej opis. Obliczenia ręczne są najczęściej wykonywane na pokratkowanej kartce papieru, której pojedyncze kratki są wypełnione cyframi i symbolami działań. Dysponujemy tylko skończoną liczbą znaków ( cyfr, np. 0 oraz 1 i symboli działań ), które mogą być wpisywane w kratki. To, co robimy w ustalonej chwili, zależy od znaków, które obserwujemy i od działania, jakie podjęliśmy. Można przyjąć, że liczba kratek obserwowanych w danej chwili jest ograniczona. Przejrzenie za większej ich liczby sprowadza się do wykonania ciągu obserwacji. Możemy także założyć, że liczba wszystkich stanów, w jakich może znaleźć się nasz umysł wykonujący obliczenia, chociaż duża jest skończona. Turing doszedł do koncepcji swojej maszyny wprowadzając pewne uproszczenia i uściślenia w działaniach na kartce i nad nią. Po pierwsze, zapis obliczeń na kartce papieru ( a dokładniej na dwuwymiarowym układzie kratek ) można sprowadzić do zapisu na jednowymiarowej pokratkowanej kartce, czyli na tamie podzielonej na kratki. Wystarczy w tym celu treść obliczeń wypełniających kartkę zapisać wierszami. Traci się przy tym czytelność, ale zyskuje redukcję wymiaru kartki. Po drugie, umysł wykonujący obliczenia można zastąpić przez obiekt bardziej fizyczny zwany głowicą, która znajduje się nad tamą, może się poruszać w obie strony tamy, a w danej chwili widzi jedynie symbol umieszczony w kratce, nad którą zawisła. Działanie głowicy jest określone przez ustalony zbiór instrukcji, zgodnie z którymi może poruszać się w lewo, w prawo lub stać w miejscu, potrafi rozpoznawać symbole i może zmieniać zawartości kratki, nad którą się znajduje. Wykonanie instrukcji przez maszynę Turniga jest działaniem głowicy,

uzależnionym od stanu, w jakim się znajduje i co widzi. Obliczenia wykonywane za pomocą maszyny Turinga zależą od początkowego zapisu symboli na tamie i od przyjętego zestawu dozwolonych instrukcji. Zatem działa ona podobnie jak dzisiejsze komputery - wyniki obliczeń zależą od zapisanych w pamięci komputera danych i od zestawu wykonywanych instrukcji. Zawartoć tamy po zatrzymaniu się maszyny zależy od obu tych czynników. Nieodparcie nasuwa się pytanie o to, co można policzyć za pomocą tak prostych maszyn. Okazuje się, że bardzo wiele. Sam Turing sformułował tezę, iż na maszynie tego typu można zrealizować każdy algorytm. Do dzisiaj nie obalono tej tezy. Zauważa się, że w związku z tym można przyjąć, iż algorytmem jest dowolny opis wykonania obliczeń na maszynie Turinga. Analizując moc swoich maszyn, Turing doszedł jednak do wniosku, że istnieją funkcje, których wartości nie mogą one obliczać. Wspomnieć tutaj należy jeszcze o dwóch innych dziedzinach działalności Turinga ściśle związanych z automatyzacją obliczeń i komputerami. W latach II wojny światowej Turing został włączony do grupy specjalistów zajmujących się w Wielkiej Brytanii deszyfracją kodów Enigmy - maszyny, którą Niemcy używali do kodowania meldunków i rozkazów rozsyłanych swoim jednostkom na wszystkich frontach. W 1941 roku działalność tej grupy przyczyniła się do zredukowania brytyjskich strat na morzach o 50%. Brytyjscy specjaliści korzystali z materiałów ( wśród których był egzemplarz Enigmy oraz maszyna deszyfrująca zwana bombą ) przekazanych im w 1939 roku przez grupę Polaków kierowaną przez Mariana Rejewskiego, zajmujących się od pięciu lat skonstruowaniem maszyny deszyfrującej. Chociaż Brtyjczycy udoskonalili maszynę deszyfrującą otrzymaną od Polaków, pozostawała ona nadal maszyną mechaniczną i jej działanie nie nadążało za ciągle udoskonalanymi i zmienianymi przez Niemców egzemplarzami Enigmy. Ocenia się że w szczytowym okresie II wojny światowej Niemcy używali ponad 70 tysięcy maszyn szyfrujących Enigma. Prace nad maszyną deszyfrującą Enigmę przyczyniły się do powstania pod koniec wojny w Wielkiej Brytanii kalkulatorów elektronicznych. Powstało kilka wersji maszyny o nazwie Coloss, których głównym konstruktorem był T.H. Fowers. Były to już maszyny elektroniczne, w których wykorzystano arytmetykę binarną, sprawdzane były warunki logiczne ( a więc można było projektować obliczenia z rozgałęzieniami ), zawierały rejestry, mogły wykonywać programy ( poprzez uruchomienie tablic rozdzielczych ) i wyprowadzać wyniki na elektryczną maszynę do pisania. Pierwsze komputery Pierwsze komputery zbudowano dopiero w naszym stuleciu, chociaż pomysły, jakie w nich zrealizowano, pojawiły się przynajmniej sto lat wcześniej, już za czasów Babbage'a. Zastosowane w komputerach środki techniczne pojawiły się bowiem dopiero w latach międzywojennych. Za największego inspiratora powstania komputera w jego obecnej postaci uważa się Johna von Neumanna. Ale najpierw trzeba oddać właściwe miejsce twórcom rzeczywiście najwcześniejszych konstrukcji, pretendujących do miana komputera. Pojawienie się większości z nich przyspieszyła II wojna światowa. W 1941 roku Konrad Zuse ukończył w Niemczech prace nad maszyną Z 3, która wykonywała obliczenia na liczbach binarnych zapisanych w reprezentacji, nazywanej dzisiaj zmiennopozycyjną, sterowane programem zewnętrznym podawanym za pomocą perforowanej tamy filmowej. Maszyna Z 3 została całkowicie zniszczona w czasie bombardowania w 1945 roku. Następny model maszyny Zusego, Z 4 przetrwał i działał do końca lat pięćdziesiątych.

Maszyny Zusego były kalkulatorami przekaźnikowymi. W tym czasie znane już były prace Claude Shannona dotyczące działań binarnych ( logicznych ) za pomocą układów elektronicznych zgodnie z regułami Boole'a. W roku 1942 zespół specjalistów pod kierunkiem J.W. Mauchly'ego i J.P. Eckerta zaprojektował i zbudował maszynę ENIAC ( ang. Electronic Numerical Integrator And Computer ). Pierwsze obliczania maszyna ta wykonała w listopadzie 1945 roku. Maszyna ENIAC jest uznawana powszechnie za pierwszy kalkulator elektroniczny, chociaż w 1976 roku okazało się, że wczeniej zaczęły pracować w Wielkiej Brytanii maszyny Coloss I i II. Maszyna ENIAC była monstrualną konstrukcją złożoną z 50 szaf o wysokości 3 metrów zawierających około 20 tysięcy lamp. Słabością tej maszyny było: użycie zwykłego systemu dziesiętnego do pamiętania liczb, brak rozdziału między funkcjami liczenia i pamiętania oraz bardzo uciążliwy sposób zewnętrznego programowania. Wady te zostały usunięte dopiero w projekcie EDVAC. John von Neumann ( 1903-1957 ) John von Neumann, z pochodzenia Węgier, był w swoich czasach jednym z najwybitniejszych matematyków. W 1946 roku zainspirował on prace w projekcie EDVAC ( ang. Electronic Discrete Variable Automatic Computer ), których celem było zbudowanie komputera bez wad poprzednich konstrukcji. Zaproponowano architekturę, zwaną odtąd von neumannowską, według której buduje się komputery do dzisiaj. W komputerze von Neumanna można wyróżnić przynajmniej następujące elementy: pamięć złożoną z elementów przyjmujących stan 0 lub 1, arytrometr zdolny wykonywać działania arytmetyczne, logiczne i inne, sterowanie, wprowadzanie danych i wyprowadzanie wyników. Program, czyli zbiór instrukcji, według których mają odbywać się obliczenia, jest wpisywany do pamięci. Kolejne rozkazy programu są pobierane przez jednostkę sterującą komputerem w takt centralnego zegara i rozpoznawane zgodnie z mikroprogramem wpisanym w układ elektroniczny. Należy podkrelić, że program jest przechowywany w pamięci komputera i jego działanie może zmieniać zawartość dowolnego obszaru pamięci ( programy mogą się także same modyfikować ). Fizycznie nie ma żadnej różnicy między danymi i programami przechowywanymi w pamięci komputera: są podobnie kodowane jako ciąg zer i jedynek i tak samo zrealizowane technicznie. Można więc powiedzieć, że celem działania komputera von neumannowskiego jest przejście w takt zegara od jednego stanu zawartości pamięci ( danego na początku ) do innego, zawierającego oczekiwany wynik. Można zauważyć podobieństwo tego spojrzenia na komputer von Neumanna do maszyny Turinga. Nie ma w tym nic dziwnego gdyż von Neumann bardzo dobrze znał osiągnięcia Turinga. Postęp w elektronice umożliwił dalszy rozwój komputerów. W latach sześćdziesiątych lampy zastąpiono tranzystorami. Pierwszy tranzystorowy komputer zbudowano w 1956 roku w Massachusettes Institute of Technology. Z kolei układy scalone zastąpiły tranzystory ( układ scalony zawierał w jednej obudowie kilkadziesiąt tranzystorów i innych elementów elektronicznych ). Dalszy postęp produkcji tych układów pozwolił umieszczać w jednej "kostce" dziesiątki tysięcy tranzystorów. Obwody takie nazwano układami wielkiej skali integracji ( VLSI z ang. Very Large Scale of Integration ). Wymyślono termin: " generacja komputerów " i nazwano komputery lampowe mianem pierwszej generacji, tranzystorowe - drugiej, zbudowane z układów scalonych - trzeciej, a w technologii VLSI - czwartej.

Postęp w technologii produkcji komputerów odbywał się tak szybko, że zaczęto mówić o rewolucji komputerowej. Wprowadzenie na rynek tanich układów scalonych umożliwiło powstanie mikrokomputerów, w których elementy przetwarzające informacje umieszczono w jednym układzie - mikroprocesorze. Komputer typu PC Pierwsze komputery osobiste ( PC z ang. Personal Computer ) zostały opracowane przez IBM. Ponieważ firma ta nie miała nic przeciwko temu, by inne przedsiębiorstwa skorzystały z jej pomysłu i podążyły jej śladem, wielu producentów sprzedaje dziś własne komputery, które jednak są wciąż budowane według tej samej koncepcji firmy IBM. Ponieważ na rynku pojawiało się coraz więcej produktów, zaczęto pisać programy dla tego typu komputerów. Producenci sprzętu odpowiedzieli na to kolejną falą unowocześnionych komputerów typu IBM - PC. Proces ten rozwijał się na zasadzie lawiny: komputery, nowe komponenty i oprogramowanie są obecnie tworzone przez setki najróżniejszych producentów. Tym sposobem PC stał się najbardziej rozpowszechnionym typem komputera na wiecie. Niemal w tym samym czasie, którym narodził się PC, firma Apple zaczęła budować swój własny typ komputera osobistego, dzieło Steve Woźniaka i Steve Jobsa. System Apple nie był jednak zgodny z IBM - PC ani pod względem sprzętu, ani oprogramowania. Swój sukces zawdzięczał on faktowi, iż po raz pierwszy wykorzystano tam graficzny sposób komunikowania się z użytkownikiem bazujący na obrazkach i oknach - na rok przed rozpowszechnieniem się Windows firmy Microsoft. Komputery Apple od samego początku były systemami kompletnymi. Oznaczało to, że w ich przypadku nie było już konieczne kupowanie dodatkowych komponentów, aby na przykład osiągnąć dźwięk odpowiedniej jakości. W przeciwieństwie do ówczesnych komputerów PC - tów, komputery Apple były znacznie prostsze w obsłudze. Mac, jak chętnie nazywa się komputer firmy Apple, szybko stał się ulubionym narzędziem ludzi z kręgów twórczych. Używali go przede wszystkim architekci, muzycy i projektanci, którym najczęściej potrzebny był właśnie wydajny i łatwy w obsłudze komputer. Tak więc Mac wciąż pozostaje główną alternatywą dla komputerów typu IBM - PC, a fakt, iż w porównaniu z PC -tem jest mniej dostępny na rynku, wynika głównie stąd, że firma Apple nie udostępniła nikomu praw do kopii swojego projektu. Większość producentów skorzystała co prawda z koncepcji peceta firmy IBM, niemniej niektórzy wyłamali się i podążyli własną drogą tworząc komputery osobiste niezgodne ze standardem. Stąd też oprogramowanie stworzone dla typowego komputera PC z reguły nie może być na nich uruchamiane. W zupełnym oderwaniu od standardu IBM - a powstały rozwiązania, które przewyższają pierwowzór czy to pod względem ceny, czy przydatności do gier, czy też obróbki dźwięku czy też grafiki. Niejeden z tego typu systemów był i wciąż jeszcze jest wspaniałym narzędziem, jednakże przeznaczonym wyłącznie dla specjalistów skupiających się na wykonywaniu określonej grupy zadań. KRONIKA 1642 rok - Blaise Pascal skonstruował jedną z pierwszych maszyn matematycznych.

1822 rok - Brytyjski matematyk Charles Babbage zaprezentował model maszyny różnicowej, który miał różnice drugiego rzędu i osiem miejsc po przecinku. Zajął się on następnie maszyną o różnicach siódmego rzędu i 290 miejscach po przecinku, poniósł jednak porażkę przy rozwiązywaniu problemu wykonania skomplikowanego napędu zębatego. 1833 rok - Charles Babbage przedstawił pomysł pierwszej cyfrowej maszyny analitycznej. Nie została ona nigdy zbudowana. Projekt przewidywał jednak istotne składniki nowoczesnego przetwarzania danych. 1930 rok - W Massachusetts Institute of Technology w Cambridge (USA) grupa naukowców pod kierownictwem inżyniera elektryka Vannevara Busha konstruuje pierwszy - pracujący elektromechanicznie - komputer analogowy. 1936 rok -Francuz R. Valtat zgłosił do opatentowania maszynę liczącą, której zasada działania oparta była na systemie dwójkowym. 1937 rok-niemiec Konrad Zuse zbudował elektromechaniczną maszynę liczącą opartą na systemie dwójkowym. 1940 rok - Alianci zbudowali pierwszą nadającą się do użytku maszynę deszyfrującą. 1941 rok - Niemiecki inżynier Konrad Zuse zaprezentował swoją cyfrową maszynę liczącą "Zuse Z3".Była to pierwsza sterowana programowo maszyna matematyczna,o wysokich parametrach eksploatacyjnych. "Zuse Z3" posiadała binarny mechanizm liczący z prawie 600 przekaźnikami jako bistabilnymi elementami i pamięcią z około 1400 przekaźnikami. 1942 rok- Amerykanin John V. Atanasoff ukończył pierwszą sprawną elektroniczną maszynę liczącą w technice lampowej. Atanasoff podjął plan już w roku 1937. Był przekonany, że metoda cyfrowa i zastosowanie liczb binarnych będzie najwłaściwsze do budowy maszyn liczących. 1943 rok - Niemiecki inżynier Henning Schreyer zgłosił do opatentowania pełnoelektroniczną pamięć i urządzenie liczące z lampami jarzeniowymi. Schreyer od 1937 r. wspólnie z Konradem Zuse zajmował się konstruowaniem układu połączeń lampowych do przetwarzania danych. Teraz opracował on ideę budowy pełnoelektronicznej maszyny liczącej. Jednakże w czasie wojny w Niemczech brakowało środków na realizację jego planów. 1944 rok - Węgiersko-amerykański matematyk i chemik John von Neuman rozpoczął próby z modelem pierwszej maszyny liczącej z pamięcią EDVAC (Electronic Discrete Variable Automatic Computer). W urządzeniu kodowano program, składający się z serii pojedynczych instrukcji. Program zawierał instrukcje warunkowe, które umożliwiały tworzenie pętli. Każda instrukcja programowa mogła być zmieniona przez samą maszynę, jak każdy inny argument operacji. Z takim sposobem

działania maszyna zdecydowanie górowała nad wszystkimi dotychczasowymi maszynami matematycznymi. Fizyk Howard Hathavay oddał do użytku na Universytecie Harvarda cyfrową maszynę liczącą. Nazywała się MARK I bądź ASCC - miała potężne wymiary i była pierwszą sterowaną programowo maszyną liczącą USA. 1945 rok- Na Uniwersytecie Pensylwania uruchomiono pierwszą wielką elektroniczną maszynę liczącą wiata ENIAC (Electronic Numerical Integrator and Computer). Zbudowana została przez Johna Prespera Ecckerta i Johna Williama Mauchly. Do czasu aż wszystkie jej zespoły stały się całkowicie zdolne do użytku, minęły jeszcze dwa lata. Wielka maszyna matematyczna wyposażona była w lampy elektronowe i liczyła 2000 razy szybciej niż komputer z elektromechanicznymi przekaźnikami. ENIAC zajmował powierzchnię zasadniczą 140 m.kw., posiadał przeszło 18000 lamp elektronowych, 1500 przekaźników i zużywał 150 kw mocy. Niemiecki inżynier Konrad Zuse zakończył prace nad swoją maszyną liczącą " Zuse Z4". Komputer był rozwinięciem poprzedniego typu Z3. 1947 rok - W Stanach Zjednoczonych zbudowano maszynę liczącą " Mark II " w technice przekaźnikowej. Amerykańska firma IBM buduje komputer SSEC z 12500 lampami i 21400 przekaźnikami. Jest on sterowany za pomocą tamy dziurkowanej. Umożliwiono ingerencję w program. 1948 rok - W toku rozwoju elektronicznych maszyn liczących, opartych na dwójkowym systemie liczbowym, znaczenie praktyczne zyskuje ugruntowana już przed ok. stu laty algebra Boole'a. Posługuje się ona wartościami logicznymi "Tak / Nie" lub " 0 / 1". Ten " krok binarny" określa matematyk John W. Tukey jako " bit" ( binarny digit ). Bit staje się jednostką informacji w przetwarzaniu danych. IBM 604 jest pierwszą dużą maszyną liczącą sterowaną tamą perforowaną. 1949 rok - Na Uniwersytecie Manchester ( Anglia ) pod kierownictwem Maurica V. Wilkesa skonstruowano po trzech latach pierwszy komputer lampowy z programowalną pamięcią EDSAC ( Electronic Delay Storage Automatic Computer ). W tym samym czasie również IBM uruchamia w Nowym Jorku pod kierownictwem Johna Prespera Eckerta układ z programowalną pamięcią - SSEC ( Selective Sequence Electronic Calculator). EDSAC pracuje z 4500 lampami elektronowymi, a SSEC z 12500 lampami elektronowymi i 21400 przekaźnikami. Nowością w tych komputerach jest to, że tak przebieg programu jak i obróbka danych są zakodowane w pamięci maszyny, program zawiera rozkazy warunkowe, które umożliwiają rozgałęzienia i skoki i wreszcie każdy rozkaz programowy z operacyjną częścią adresową może samodzielnie zmienić. Koncepcję tych komputerów opracował już w 1944 r. matematyk amerykański pochodzenia węgierskiego John von Neamann. Jednakże jego urządzenie EDVAC rozpoczyna pracę dopiero w roku 1952. Np. w 1945 r.

Zuse sformułował ogólny algorytmiczny język formuł, który uwzględniał możliwe warianty programowania pamięci. Pod koniec lat czterdziestych pojawiają się w elektrotechnice drukowane połączenia. Ścieżki przewodzące są drukowane za pomocą lakieru odpornego na kwasy na cienkiej płytce izolatora ( żywica epoksydowa ) z naniesioną warstwą miedziową. 1950 rok - " Univac I " firmy Eckert and Mauchly Computer Company jest komputerem produkowanym seryjnie. Komputer " Mark III " używa tamy magnetycznej zamiast kart perforowanych. 1951 rok - Na Uniwersytecie Harwarda w Cambridge ( Massachusetts ) matematyk Howard H. Aiken uruchomił swoją maszynę cyfrową MARK III. Urządzenie to było kontynuacją urządzeń poprzednich MARK I i MARK II, które Aiken budował już od roku 1939. W niedługim czasie Aiken buduje pierwszy, wykonany w pełni w technice lampowej maszynę liczącą MARK IV. 1952 rok - Howard H. Aiken uruchomił w USA lampową maszynę liczącą MARK IV. 1954 rok - J.W. Backus stworzył język komputerowy FORTRAN ( formula translator ). Umożliwia on dialog pomiędzy użytkownikiem a bankiem danych bez konieczności korzystania z pomocy programisty. FORTRAN jest skomplikowanym językiem komputerowym, który nie tylko przekazuje maszynie polecenia, lecz zawiera w sobie szereg wzorów ułatwiających programowanie. 1955 rok - W Bell Telephone Laboratory w USA rozpoczęła pracę pierwsza tranzystorowa maszyna licząca " Tradic " skonstruowana przez zespół pod kierownictwem J. H. Felkera. Jest ona znana jako " komputer drugiej generacji ". Wkrótce pojawiły się na rynku tranzystorowe komputery ( " 7090 IBM" i "Gamma 60 Bull "). 1956 rok - Niemiecka firma Zuse KG rozpoczęła seryjną produkcję maszyn liczących " Zuse Z 11". W Bell Laboratory wykonano tranzystorowy komputer " Leprechaun". IBM ( International Business Machines Corporation ) zbudował komputer na płycie magnetycznej. 1958 rok - Opracowano komputerowy język programowania ALGOL ( Algorithmic Language ). Podobnie jak FORTRAN - ALGOL jest językiem problemowo zorientowanym, ale nie bardziej niż te, które są specjalistycznymi językami naukowo-technicznymi. Ma on inną strukturę niż FORTRAN. 1960 rok - Zostaje opracowany język programowania COBOL ( Common Business Oriented Language ). COBOL używa stosunkowo dużej liczby

symboli słownych. 1961 rok - IBM przedstawia swoją metodę " Tele - processing". Za pomocą tej metody dane, przekazywane poprzez telefon, przetwarzane są bezpośrednio przez komputer. Zwiastuje to technikę o zasięgu krajowym, a nawet światowym. Zasada jest prosta. Każdy komputer współpracuje z tzw. urządzeniami peryferyjnymi. Należą do nich jednostki wprowadzania i wyprowadzania informacji. Jednostkami wprowadzania mogą być np. klawiatura, czytnik kart dziurkowanych czy tam magnetycznych. Jako jednostki wyprowadzania informacji wchodzą w rachubę drukarki, monitory ekranowe, dziurkarki czy magnetofony. 1962 rok - Maleńkie tranzystory zwiększają prędkość elektronicznego przetwarzania danych ( trzecia generacja komputerów ). American Airlines wprowadza na komputerze międzynarodowy system rezerwacji lotów oparty na zdalnym przetwarzaniu danych. 1963 rok - Firma IBM buduje szybką drukarkę wierszową " IBM 1403 ", przystosowaną do pracy z komputerem, która pisze 600 wierszy w ciągu minuty. Nowością w tym urządzeniu jest układ czcionek. Są one umieszczone na łańcuchu, będący w stałym obiegu, poprzecznie do kierunku ruchu. Łańcuch porusza się poziomo przed papierem do zadrukowania. Magnesy odbijające przyciskają poszczególne czcionki przez kolorową tamę do powierzchni zadrukowywanej wtedy, gdy czcionka, wybrana przez komputer, znajduje się w odpowiednim położeniu. 1965 rok - Nowe dziedziny dla zastosowania komputera docierają do wiadomości społecznej: w Berlinie zostaje uruchomiony pierwszy w Europie komputer do kierowania ruchem drogowym, a z okazji wyborów do Bundestagu przed zliczeniem głosów komputer opracowuje prognozy wyników wyborów. 1966 rok - Wynaleziono nowy typ pamięci dla elektronicznych urządzeń przetwarzania danych. Pamięć składa się z warstwy kryształów granatu grubości 1 µm, z domieszką żelaza, która przez epitaksję naniesiona jest na nienamagnesowany granat. Namagnesowanie określonego miejsca pamięci jest oceniane jako " 1", jego brak jako " 0 ". 1967 rok - Anglik Norman Kitz zaprezentował " Anita Mark 8 " pierwszą elektroniczną biurkową maszynę matematyczną. Wynalazek Kitza był możliwy dzięki osiągnięciom dokonanym w tym zakresie w USA w 1965 roku. 1968 rok - Monolityczne układy przełączające zastępują minitranzystory i hybrydowe układy scalone. Zaczyna się czwarta generacja komputera. Podczas gdy komputery drugiej generacji wykonywały na sekundę 1300 dodawań, a trzeciej 160 000 dodawań, to nowe urządzenia wykonują ponad 300 000. IBM zbudowało pierwszą elektroniczną maszynę liczącą " System 360 " w

technice monolitu, a więc przy zastosowaniu zintegrowanych układów. 1969 rok - Informatyk Cragon w USA tworzy tzw. LSI- komputer celem zastosowania go w dziedzinie geofizyki. LSI znaczy Large Scale Integration, a więc integracja na dużą skalę. W zintegrowanych połączeniach stopień integracji daje informację odnośnie liczby elementów układu na jednostkę powierzchni. Zazwyczaj jest on podawany w ilości funkcji tranzystorowych na " chip" ( chip - struktura półprzewodnikowa ). 1971 rok - Texas Instruments wyprodukował pierwszy kalkulator kieszonkowy wykorzystując do tego pierwszy mikroprocesor. Zasada działania kalkulatora z mikroprocesorem daje się porównać z zasadą działania większych komputerów. Różnice polegają na mniejszych i bardziej ograniczonych możliwościach, mniejszych wymiarach, mniejszej ilości i prostszych urządzeniach peryferyjnych i mniejszych kosztach wytwarzania kalkulatora kieszonkowego. Mieści w sobie, obok mikroprocesora również inne zintegrowane z nim obwody, m.in. pamięć. IBM opracował stacje przetwarzania danych sprzężone z centralą elektronicznego przetwarzania danych, tzw. terminale. Terminale składają się przeważnie z monitora i klawiatury, pozwalają wielu oddalonym od siebie użytkownikom na dostęp do centralnego urządzenia obliczeniowego. W USA powstał pierwszy mikroprocesor na wiecie MCS - 4 ( PMOS ) wyprodukowany przez firmę Intel. Mikroprocesor jest układem scalonym tzn. obejmuje on w sobie funkcje od 5000 do 100 000 tranzystorów. Spełnia zadanie tzw. jednostki centralnej w komputerach ( CPU - Central Processing Unit ). CPU zajmuje się centralnym sterowaniem przebiegu i koordynacją całego systemu komputera, wydając na zewnątrz ( najczęściej ) sekwencyjnie poszczególne rozkazy zapamiętywanego programu. Mikroprocesor taki, będący scaloną jednostką funkcyjną, jest tylko częścią mikrokomputera. 1972 rok - Amerykański inżynier elektryk Bushnell stworzył pierwszą grę komputerową. Elektroniczne maszyny liczące mogą rozwiązywać problemy logiczne. Gry komputerowe z punktu widzenia stosowanej przy ich tworzeniu logiki i sposobu realizacji zadania, można podzielić na : gry zręcznościowe i strategiczne. Na początku lat siedemdziesiątych upowszechnił się w elektronicznym przetwarzaniu danych międzynarodowy " Multi - User -System". System ten znany również jako system abonencki, odnosi się do systemu operacyjnego urządzeń komputerowych. System operacyjny komputera, to pakiet programów, który kontroluje i steruje przebiegiem programów użytkowych. 1974 rok - Wraz z modelem " HP 35" amerykańska firma elektroniczna Hewlett- Packard wypuściła na rynek pierwszy programowany kalkulator kieszonkowy. Do kalkulatora dołączono ponad 100 stronicowy, podręcznik obsługi. Obok objaśnienia sposobu działania skomentowano liczne funkcje matematyczno - naukowe, które zostały trwale zaprogramowane w

kalkulatorze. 1976 rok - Technika ECL ( Emitter Coupled Logic ) umożliwiła firmie Motorola wyprodukowanie mikroprocesora typu 10 800, który przewyższa wszystkie dotychczasowe układy scalone pod względem prędkości działania. Układy scalone typu bipolarnego zmontowano opierając się na logice RTL bądź DTL. Wkrótce musiały one prawie bez wyjątku ustąpić typowi TTL ( układ tranzystor - tranzystor logiczny ). Układy TTL miały tranzystory z wieloma emiterami, które działały na wspólnej bazie i wspólnym kolektorze. Te tranzystory wielo - emitrowe sterowały tranzystorami przełącznikowymi, które ze swej strony sterowały systemem trzech tranzystorów mocy. Technika ECL ( " układ logiczny o sprzężeniu emiterowym" ) jest nowym wariantem TTL. 1979 - Prawie równocześnie, ale niezależnie od siebie, D.A.B.Miller i S.D. Smith w Wielkiej Brytanii oraz H.M.Gibbs w USA opisali metodę produkcji optycznych tranzystorów, tzw. transphasorów. W swej funkcji odpowiadają one elementom budowy tranzystorów, uruchamiają jednak strumień protonów a nie elektronów. Transphasory są pierwszym krokiem w rozwoju systemu optycznego przekazywania danych i optycznych komputerów. Ich prędkość pracy przewyższa w znaczący sposób elektroniczny system, gdyż protony poruszają się szybciej niż elektrony. Daje to możliwość budowy bardzo szybkich komputerów. 1980 rok - Brytyjscy inżynierowie wprowadzili na rynek komputer osobisty ( Sinclair ZX - 80). Japońskie firmy Sharp, Casio, Sanyo i Panasonic oraz amerykańskie przedsiębiorstwo Tandy wprowadziły na rynek pierwsze kieszonkowe komputery. Te " podręczne' urządzenia mają w zasadzie wszystkie właciwości dużych komputerów. Jedynie ich pojemność jest ze względu na wielkość pamięci mniejsza oraz pracują one wolniej niż duże komputery. Komputery kieszonkowe mają na stałe zaprogramowane funkcje liczące od działań zakresu podstawowego do różnych kompleksowych funkcji matematycznych. Obok tego są zaprogramowane w bardziej rozwiniętym języku komputerowym. Najczęściej jest to uproszczona wersja rozpowszechnionego języka programowania BASIC, Urządzenia te współpracują z zewnętrzną pamięcią i drukarką. Wyposażone są przeważnie w ekran LCD i wykorzystują monitory telewizyjne. Najnowocześniejsze elementy pamięci mają pojemność 64 000 bitów. Układy scalone o dużej skali integracji mają bardzo szerokie zastosowanie: ROM ( read only memory) mają dane zapisane przez producenta. Można je tylko odczytywać. PROM ( programmable ROM ) pozwalają na zapis pewnych funkcji przez użytkownika. Zawartość zachowana jest na stałe. EPROM ( erasable PROM ) umożliwia kasowanie zawartości promieniami UV i ponowny zapis nowych danych. EAROM ( electrically alterable ROM ) pozwala usunąć zapis przy wykorzystaniu do tego celu sygnałów elektrycznych. Obok układów ROM istnieją także RAM ( random access mmemory - pamięć o dostępie swobodnym ) pozwalające na wielokrotne

zapisywanie i odczytywanie informacji. Pamięci typu ROM po wyłączeniu zasilania nie tracą zapisanych informacji, w pamięciach RAM ulegają one zniszczeniu. 1983 rok - Firma Apple zaprezentowała komputer biurowy Lisa wyposażony w myszkę, która częściowo zastępuje klawiaturę. Jako peryferyjne pamięci dyskowe komputerów osobistych upowszechniły się w dużym stopniu dyskietki ( ang. floppy disks ). Dyskietka składa się z giętkiego krążka plastikowego pokrytego nośnikiem magnetycznym i plastikowej mocnej osłonki ( koperty ) z zamontowaną na ściance wewnętrznej częścią samoczyszczącą lub też poprawiającą moment obrotowy dysku. 1985 rok - W połowie lat osiemdziesiątych duża część biur przestawiła się na pracę z wykorzystaniem sprzętu elektronicznego. Na ogół dla podstawowego wyposażenia normalnego biura w urzędzie, biura pocztowego czy sekretariatu, nie były to już żadne maszyny do pisania z pamięcią, lecz komputer biurowy. 1987 rok - W ramach programu węzłowego Niemieckiej Wspólnoty Badawczej niemieccy naukowcy zajmowali się skonstruowaniem optyelektronicznego komputera. Tego rodzaju systemy mogą zastąpić dotychczasową technikę komputerową. Podstawowym materiałem dzisiejszej elektroniki jest krzem. Jego elektryczne właściwości pozwalają na produkcję elementów układu, w którym można przełączać między stanem przewodzącym i nieprzewodzącym. Z takich łączników buduje się logiczny układ połączeń. Optoelektronika wykorzystuje łączniki świetlne, które jako nośniki informacji nie wykorzystują przepływu elektronów, lecz przepływ fotonów. 1988 rok - Na Uniwersytecie Cambridge w Wielkiej Brytanii powstał tranzystor, do którego budowy zastosowano poliacetylen, który umożliwia zmniejszenie wymiarów obwodu scalonego o 99 %. Firma IBM przygotowuje eksperymentalny tranzystor, mniejszy od wszystkich dotychczasowych. Międzynarodowy tytuł arcymistrzowski zdobył pierwszy w wiecie komputer " Deep Thought " ( Głęboka myśl ) symulujący grę w szachy. Miniona dekada charakteryzuje się nieustannym udoskonalaniem programów komputerowych do gier strategicznych, w tym do gry w szachy. 1990 rok - Amerykańska firma AT&T Bell Laboratories przygotowuje pierwszy na wiecie cyfrowy procesor optyczny. W środku każdego komputera znajduje się ten maleńki dyrygent - procesor - który koordynuje pracę zespołów komputera. Mikroprocesor jest o wiele mniejszą i bardziej niezależną odmianą centralnego systemu sterującego, gdyż powierza mu się kierowanie różnymi, skomplikowanymi urządzeniami elektronicznymi. 1991 rok - Amerykańska firma Texas Imnstruments zaprezentowała urządzenie, dzięki któremu można przedstawić grafikę komputerową w

trzech wymiarach. Najważniejszą częścią przyrządu jest wirująca skona płyta szklana, która w następstwie efektu stereoskopowego postrzegana jest jako pełen cylinder szklany. Pierwsze komputery ważyły tony, miały znacznie mniejszą pamięć niż nowoczesne mikrokomputery oraz zużywały milion razy więcej energii.