Podstawy informatyki Podstawowe pojęcia Historia informatyki
Plan wykładu Historia, budowa i rodzaje komputerów Systemy operacyjne budowa i użytkowanie Oprogramowanie, licencje Przetwarzanie tekstów Arkusze kalkulacyjne Bazy danych Grafika menedżerska i prezentacyjna Sieci komputerowe Usługi w sieci Internet Bezpieczeństwo i ochrona systemów komputerowych
Strona WWW http://degra.pb.bialystok.pl/~adam/dydaktyk.html lub GOOGLE : Adam Klimowicz
Literatura 1. A. Skorupski, Podstawy budowy i działania komputerów. Wydawnictwa Komunikacji i Łączności, Warszawa 2000. 2. O. Choreń, Podstawy użytkowania komputerów. Politechnika Gdańska, Gdańsk 1997. 3. M. Czajka, Ł. Kołodziej, Microsoft Office XP od podstaw. Mikom, Warszawa 2002. 4. J. Kraynak, Microsoft Office 2000 : nie tylko dla orłów. Intersoftland, Warszawa 2000. 5. Seria Europejski Certyfikat Umiejętności Komputerowych : W. Sikorski, Podstawy technik informatycznych. M. Kopertowska, Przetwarzanie tekstów. M. Kopertowska, Arkusze kalkulacyjne. M. Kopertowska, Bazy danych. M. Kopertowska, Grafika menedżerska i prezentacyjna. A. Wojciechowski, Usługi w sieciach informatycznych. Mikom, Warszawa. 6. Każda inna pozycja omawiająca budowę i zasadę działania komputerów oraz system Windows i pakiet MS Office 7. Dla chętnych np. P. Metzger, Anatomia PC, Helion, 2009
Technologia informacyjna IT (akronim od ang. Information Technology) dziedzina wiedzy obejmująca informatykę (włącznie ze sprzętem komputerowym oraz oprogramowaniem używanym do tworzenia, przesyłania, prezentowania i zabezpieczania informacji), telekomunikację, narzędzia i inne technologie związane z informacją. Dostarcza ona użytkownikowi narzędzi, za pomocą których może on pozyskiwać informacje, selekcjonować je, analizować, przetwarzać, zarządzać i przekazywać innym ludziom.
Podstawowe pojęcia hardware (sprzęt komputerowy materialna część komputera) software (oprogramowanie - całość informacji w postaci zestawu instrukcji, zaimplementowanych interfejsów i zintegrowanych danych przeznaczonych dla komputera do realizacji wyznaczonych celów. Celem oprogramowania jest przetwarzanie danych w określonym przez twórcę zakresie.) Podział ten jest nieostry, gdyż współcześnie wiele elementów sprzętu komputerowego posiada "wszyte" weń na stałe oprogramowanie, stanowiące jego integralną część, bez którego elementy te nie mogłyby funkcjonować.
Początki Pierwsze urządzenia wspomagające obliczenia matematyczne powstały w starożytnym Egipcie, Rzymie oraz Grecji. Pierwszym znanym, bardziej skomplikowanym przyrządem służącym do obliczeń był datowany na ok. IV wiek p.n.e. abak (łac. abacus, gr. ábaks) a w 967 r. Gerbert Aurillac skonstruował pierwsze znane liczydło. Rzymski abak
Początki W Chinach i Japonii Soroban chiński
Da Vinci Pierwszą znaną maszynę liczącą zaprojektował Leonardo da Vinci (prace nazwane "Codex Madrid"). W roku 1968 została ona odtworzona przez dr Roberto Guatelliego znanego eksperta w dziedzinie twórczości Leonarda (dzisiejsze dzieje tej repliki są nieznane i nie wiadomo gdzie ona się znajduje). Codex Madrid
Pałeczki Nepera i suwak logarytmiczny W 1616 r. szkocki matematyk John Napier (Neper) zastosował do obliczeń pałeczki (pałeczki Nepera), które pozwalały na znaczne przyspieszenie żmudnych obliczeń. Jego wynalazek zapoczątkował rozwój urządzeń analogowych służących do liczenia. W 1622 r. angielscy matematycy E. Gunter i W. Oughtred wynaleźli suwak logarytmiczny.
William Schickard Twórcą pierwszej w historii mechanicznej maszyny do liczenia jest Wilhelm Schickard (1592-1635), który przez długie lata był zupełnie zapomniany. Schickard opisał projekt swojej czterodziałaniowej maszyny (dodawanie, odejmowanie, mnożenie i dzielenie liczb całkowitych), wykorzystując udoskonalone pałeczki Nepera w postaci walców, w liście do Keplera, któremu miała ona pomóc w jego astronomicznych rachunkach. Niestety jedyny zbudowany egzemplarz maszyny spłonął w niewyjaśnionych okolicznościach, a dzisiejsze jej repliki zostały odtworzone dopiero niedawno na podstawie opisu z listu do Keplera.
Pascalina Blaise Pascal (1623-1662) pomógł ojcu, który był poborcą podatkowym. Wyprodukowano około 50 egzemplarzy Pascaliny do liczenia w różnych systemach monetarnych, a część dla różnych miar odległości i powierzchni. Pascalina wykonywała tylko dwa działania (dodawanie i odejmowanie), miała także pewne możliwości zapamiętywania niektórych wyników pośrednich. Abraham Stern (1769-1842), z zawodu zegarmistrz, wykonał serię maszyn, które poza czterema działaniami podstawowymi, wyciągały także pierwiastki kwadratowe. Jedna z jego maszyn, raz uruchomiona, potrafiła wykonać za pomocą mechanizmu zegarowego wszystkie operacje bez ingerencji człowieka. Maszyny skonstruowane przez Sterna okazały się jednak mało praktyczne ze względu na wyjątkowo delikatną budowę.
Krosna Jacquarda Joseph-Marie Jacquard (1752-1834) - ukoronował w 1805 r. kilka wieków rozwoju urządzeń z kodem sterującym procesami (pozytywki itp.), konstruując we Francji krosna, w których kod na taśmie perforowanej sterował haczykami wybierającymi nici odpowiedniego koloru do wzorów na tkaninach. Pomysł ten inspirował Babbage'a i Holleritha, a jego wpływ sięgał aż po von Neumanna, którego ojciec bankier kredytował na Węgrzech inwestycje związane z krosnami Jacquarda.
Algebra Boole'a George Boole (1815-1864) - matematyk z uniwersytetu w Cork (Irlandia), choć nie skonstruował żadnej maszyny, ma unikalny wkład w konstrukcję bramek logicznych komputera, które są budowane według praw stworzonej przezeń algebry, zwanej algebrą Boole'a. Ta sama algebra zapoczątkowała w połowie XIX w. logikę matematyczną, dostarczającą teoretycznych podstaw informatyki (zagadnienia obliczalności itp.) i metod automatycznego dowodzenia twierdzeń.
Maszyna elektryczna Herman Hollerith (1860-1929) - jako pierwszy sięgnął po elektryczność, jako źródło impulsów i energii maszyny liczącej. Rozwinął także postać karty perforowanej, na której zapisywano dane i zbudował elektryczny czytnik - sorter kart. Niewątpliwym sukcesem Holleritha był spis ludności w Stanach Zjednoczonych (1890 r.), którego wyniki zostały całkowicie opracowane za pomocą jego urządzeń na podstawie danych zebranych na kartach perforowanych.
Alan Turing W 1936 roku Alan Turing (1912-1954) ogłosił rewolucyjną pracę dotyczącą teorii maszyn obliczeniowych i algorytmów. Turing sformułował tezę, że na maszynach jego pomysłu można zrealizować każdy algorytm. Do dzisiaj nie obalono tej tezy. Turing brał również udział w pracach nad deszyfracją kodów Enigmy. Prace nad maszyną deszyfrującą Enigmę przyczyniły się do powstania pod koniec wojny w Wielkiej Brytanii kalkulatorów elektronicznych.
Maszyna Turinga Maszyna Turinga stanowi najprostszy, wyidealizowany matematyczny model komputera, zbudowany z taśmy, na której zapisuje się dane i poruszającej się wzdłuż niej "głowicy", wykonującej proste operacje na zapisanych na taśmie wartościach. Każde pole może znajdować się w jednym z N stanów. Maszyna zawsze jest ustawiona nad jednym z pól i znajduje się w jednym z N stanów. Zależnie od kombinacji stanu maszyny i pola maszyna zapisuje nową wartość w polu, zmienia stan, a następnie może przesunąć się o jedno pole w prawo lub w lewo. Taka operacja nazywana jest rozkazem. Maszyna Turinga jest sterowana listą zawierającą dowolną ilość takich rozkazów. Lista rozkazów dla maszyny Turinga może być traktowana jako jej program. Przy aktualnym stanie wiedzy nie jest jasne, czy prawa fizyki rządzące naszym światem pozwalają na skonstruowanie maszyn obliczeniowych silniejszych, niż maszyna Turinga.
Generacje komputerów Generacje komputerów to umowny podział komputerów cyfrowych, zależnie od zastosowanej technologii. Wyróżniamy następujące generacje: 0 generacja - przed pojawieniem się uniwersalnych, elektronicznych maszyn cyfrowych np. przekaźnikowy Z3 1 generacja - budowane na lampach elektronowych np. XYZ 2 generacja - budowane na tranzystorach np. ZAM 41 3 generacja - budowane na układach scalonych małej i średniej skali integracji np. Odra 1305 4 generacja - budowane na układach scalonych wielkiej skali integracji np. komputer osobisty (PC) 5 generacja - projekty o niekonwencjonalnych rozwiązaniach, np. komputer optyczny.
Zerowa generacja lat 30-tych Maszyny cyfrowe na przekaźnikach elektromechanicznych i elementach mechanicznych MARK I, II, III, IV (USA) oraz maszyny Z-1, 2, 3, 4 (Niemcy) Z-1 MARK I
Komputery elektroniczne Pierwsza generacja (lampowe) Pierwsza elektroniczna maszyna cyfrowa - 1945 - ENIAC (Electronic Numerical Integrator And Computer) 50 szaf o wysokości 3 metrów zawierających około 20 tysięcy lamp
Druga generacja (komputery tranzystorowe) Wynalezienie tranzystora 1947 spowodowało powstanie komputera tranzystorowego (1951), dzięki czemu: zmniejsza się zużycie energii, wielkości maszyny, awaryjności maszyny, zwiększa szybkość działania układu, wzrost liczby zastosowań komputerów.
Trzecia i wyższe generacje komputerów Komputery zbudowane za pomocą układów scalonych Układy scalone - 1958 - potocznie chipy, kości, czyli wiele elementów na jednej płytce półprzewodnika. Pojawienie się układów scalonych zaowocowało rozwojem architektury komputerów w dwóch kierunkach: 1. Budowy dużych komputerów (superkomputerów o dużej mocy obliczeniowej) 2. Minikomputerów (komputerów osobistych - PC)
Superkomputery
Minikomputery ALTAIR 8800 (bez monitora i klawiatury) 1975 r.
Minikomputery Apple 1 1976 r.
Minikomputery IBM PC 5150 1981 r.
Minikomputery IBM PC/XT 1983 r.
Minikomputery Apple Macintosh z graficznym interfejsem i myszą 1984 r.
Przyszłość komputerów Prawo Moore'a: ekonomicznie optymalna liczba tranzystorów w układzie scalonym podwaja się co 18-24 miesiące. Prawa fizyki ograniczają możliwości miniaturyzacji układów scalonych, a ponad to wraz ze wzrostem częstotliwości taktowania procesora znacząco rośnie moc wydzielana w postaci ciepła. Dlatego więc naukowcy poszukują nowych rozwiązań.
Nanokomputery Postępujący proces gęstości upakowania w układzie scalonym wiąże się z dwoma zjawiskami: wzrostem prędkości komputera w wyniku skracania drogi przepływu sygnału (ograniczenia: miniaturyzacja obwodu), wzrostem energii wydzielanej w układzie. Wniosek: Konieczność projektowania obwodów na poziomie molekularnym, czyli poziomie nanotechnologii (10-9) Badania nad tym tematem doprowadziły do powstania w: 2000 roku giga-pc (109 operacji na sekundę z pamięcią 109 bitów), a przewiduje się, że doprowadzi w: 2015 do powstania tera-pc (1012), 2030 peta-pc (1015).
Komputery optyczne Ich niewątpliwymi zaletami byłyby: odporność na zakłócenia elektromagnetyczne, szybkość (strumień fotonów porusza się znacznie szybciej niż elektrony i ma szersze pasmo) ten sam element może równolegle przetwarzać sygnały przenoszone przez światło o różnej długości fali.
Komputery kwantowe Obecna informatyka klasyczna nie ma przed sobą dalekosiężnych perspektyw i mimo bezsprzecznych aktualnych jej sukcesów, może okazać się nieskuteczna wobec złożoności mikroświata. Komputer kwantowy byłby urządzeniem, przy pomocy którego można by skutecznie symulować dowolny inny układ kwantowy w sposób niemożliwy dla klasycznych komputerów. Prawdziwe zainteresowanie komputerem kwantowym pojawiło się jednak, gdy Peter Shor (1994) przedstawił kwantowy algorytm do faktoryzacji liczb całkowitych (tj. rozkładu liczb na czynniki pierwsze, a zatem szukania wielocyfrowych liczb pierwszych), działający eksponencjalnie szybciej niż najlepsze algorytmy klasyczne. Niewielki nawet komputer kwantowy mógłby zatem w bardzo krótkim czasie na przykład złamać wszystkie kody i zabezpieczenia współczesnych systemów informatycznych (wykorzystujących właśnie duże liczby pierwsze).