Podstawy informatyki. Podstawowe pojęcia Historia informatyki



Podobne dokumenty
algorytm przepis rozwiązania przedstawionego zadania komputer urządzenie, za pomocą którego wykonywane są algorytmy

Technologie Informacyjne

Historia komputera. Architektura komputera Historia komputera. Historia komputera. Historia komputera. Historia komputera

MASZYNA TURINGA W 1936 roku Alan Turing ( ) ogłosił rewolucyjną pracę dotyczącą teorii maszyn obliczeniowych i algorytmów. Turing sformułował

O informatyce i jej historii. R. Robert Gajewski omklnx.il.pw.edu.pl/~rgajewski

Historia komputerów. Szkoła Podstawowa nr 8 im. Jana Wyżykowskiego w Lubinie

Historia komputera. Lubię to! - podręcznik

Architektura komputerów Historia systemów liczących

Przeszłość i przyszłość informatyki

Historia informatyki

Podstawy Informatyki Organizacja prostego komputera dydaktycznego

Jak liczono dawniej? 1

Technika mikroprocesorowa

Jako pierwszych do liczenia używano palców.

Wstęp do Informatyki. dr inż. Paweł Pełczyński

Turing i jego maszyny

Komputery. Komputery. Komputery PC i MAC Laptopy

Wstęp do współczesnej inżynierii EKS i komputery sterowane myślami. Andrzej Materka, listopad 2010

Elementy historii INFORMATYKI

Scenariusz lekcji. omówić dokonania w dziedzinie przetwarzania informacji do XIX wieku;

JAKIE IDEE WPŁYNĘŁY NAJSILNIEJ NA ROZWÓJ I EWOLUCJĘ INFORMATYKI?

Języki Programowania. Generacje języków programowania. Wojciech Sobieski

Przeszłość i Przyszłość Informatyki

I. KARTA PRZEDMIOTU CEL PRZEDMIOTU

Powrót do przeszłości i przyszłości

Wprowadzenie do inżynierii przetwarzania informacji

Wstęp do architektury komputerów

PRACA ZALICZENIOWA Z WORDA

Wprowadzenie do współczesnej inżynierii. Rozwój komputerów i metod komunikacji człowieka z komputerem

Wprowadzenie do architektury komputerów. Historia Pojęcia podstawowe Reprezentacja danych i arytmetyka binarna

Wykład I: Kodowanie liczb w systemach binarnych. Studia Podyplomowe INFORMATYKA Podstawy Informatyki

Podstawy Informatyki. Podstawy Informatyki. Warunki zaliczenia. Program wykładów. Metalurgia, I rok. Czym jest informatyka? Z czego się uczyć?

Wykład I. Podstawowe pojęcia. Studia Podyplomowe INFORMATYKA Architektura komputerów

Informatyka. Prowadzący: Dr inż. Sławomir Samolej D102 C, tel: , WWW: ssamolej.prz-rzeszow.

Algorytm. Krótka historia algorytmów

O ALGORYTMACH I MASZYNACH TURINGA

Podział komputerów. Wykład z Technologii Informacyjnych. Piotr Mika

Podstawy Informatyki

Budowa pierwszych komputerów i ich zastosowanie w matematyce

Efekt kształcenia. Ma uporządkowaną, podbudowaną teoretycznie wiedzę ogólną w zakresie algorytmów i ich złożoności obliczeniowej.

Architektura komputerów

Historia. Zasada Działania

Podstawy Informatyki Systemy sterowane przepływem argumentów

Pracownia Komputerowa. Wyk ad I Magdalena Posiada a-zezula

Politechnika Krakowska im. Tadeusza Kościuszki. Karta przedmiotu. obowiązuje studentów rozpoczynających studia w roku akademickim 2018/2019

I. KARTA PRZEDMIOTU CEL PRZEDMIOTU

Architektura komputerów wer. 7

Elektronika cyfrowa i mikroprocesory. Dr inż. Aleksander Cianciara

Współczesna problematyka klasyfikacji Informatyki

Efekty kształcenia dla kierunku studiów INFORMATYKA, Absolwent studiów I stopnia kierunku Informatyka WIEDZA

Karta (sylabus) modułu/przedmiotu Mechanika i Budowa Maszyn Studia I stopnia. Technologie informacyjne Rodzaj przedmiotu:

12:00 1 MAJA 2015, CZWARTEK

Architektura Systemów Komputerowych. Paweł Pełczyński

Informacja w perspektywie obliczeniowej. Informacje, liczby i obliczenia

Alan M. TURING. Matematyk u progu współczesnej informatyki

Budowa komputera Komputer computer computare

Systemy operacyjne i sieci komputerowe

W5. Komputer kwantowy

Zakładane efekty kształcenia dla kierunku


Technologie informacyjne Information technologies

KARTA MODUŁU KSZTAŁCENIA

PRZEWODNIK PO PRZEDMIOCIE

Architektura komputerów Wykład 2

WOJEWÓDZKI KONKURS INFORMATYCZNY DLA UCZNIÓW DOTYCHCZASOWYCH GIMNAZJÓW ETAP SZKOLNY BIAŁYSTOK, 22 LISTOPADA 2017 R.

O higienie pracy, komputerze, sieciach komputerowych i Internecie

Technologie informacyjne

Architektura komputerów wer. 3

Podsumowanie wyników ankiety

Systemy operacyjne i sieci komputerowe Szymon Wilk Superkomputery 1

XV FESTIWAL NAUKI 2011 WPROWADZENIE DO BIOCYBERNETYKI

Kierunek Informatyka stosowana Studia stacjonarne Studia pierwszego stopnia

Historia maszyn liczących

E-1EZ s1. Technologie informacyjne. Elektrotechnika I stopień (I stopień / II stopień) Ogólnoakademicki (ogólno akademicki / praktyczny)

LEKCJA TEMAT: Zasada działania komputera.

Podstawy informatyki. dr inż. Izabela Szczęch

Cezary Bolek. Uniwersytet Łódzki. Wydział Zarządzania. Katedra Informatyki. Informacje organizacyjne

Między przeszłością a przyszłością komputerów i informatyki

Komputer IBM PC niezależnie od modelu składa się z: Jednostki centralnej czyli właściwego komputera Monitora Klawiatury

Informatyka. Michał Rad

Wykorzystanie programów komputerowych do obliczeń matematycznych, cz. 2/2

KARTA KURSU. Techniki informatyczne

2) opisu i analizy działania systemów elektronicznych, w tym systemów zawierających układy programowalne;

Wstęp do informatyki. Informacje organizacyjne. Literatura. 1. David Harel, Rzecz o istocie informatyki - algorytmika, WNT 2000

Wstęp do informatyki. Informacje organizacyjne. Literatura. Informatyka jako dyscyplina naukowa

UCHWAŁA NR 46/2013. Senatu Akademii Marynarki Wojennej im. Bohaterów Westerplatte z dnia 19 września 2013 roku

Komputery. Historia i budowa.

Algorytm. Słowo algorytm pochodzi od perskiego matematyka Mohammed ibn Musa al-kowarizimi (Algorismus - łacina) z IX w. ne.

Państwowa Wyższa Szkoła Techniczno-Ekonomiczna w Jarosławiu

Podstawy fizyki: Budowa materii. Podstawy fizyki: Mechanika MS. Podstawy fizyki: Mechanika MT. Podstawy astronomii. Analiza matematyczna I, II MT

Cel wykładu. Literatura. WyŜsza Szkoła MenedŜerska w Legnicy. Wykład 1. Informatyka w zarządzaniu Zarządzanie, zaoczne, sem. 3

Kryształy, półprzewodniki, nanotechnologie. Dr inż. KAROL STRZAŁKOWSKI Instytut Fizyki UMK w Toruniu skaroll@fizyka.umk.pl

Informatyka zarys historii informatyki. dr hab. inż. Mikołaj Morzy

PROGRAM KSZTAŁCENIA dla kierunku Elektronika i Telekomunikacja studiów I stopnia o profilu ogólnoakademickim

Wymagania z informatyki na poszczególne oceny przy realizacji programu i podręcznika Informatyka wyd. Operon dla klasy II.

Metody optymalizacji soft-procesorów NIOS

dr inż. Andrzej Skorupski Wydział Elektroniki i Technik Informacyjnych Politechnika Warszawska

Algorytm. Słowo algorytm pochodzi od perskiego matematyka Mohammed ibn Musa al-kowarizimi (Algorismus - łacina) z IX w. ne.

Maszyny liczace - rys historyczny

Transkrypt:

Podstawy informatyki Podstawowe pojęcia Historia informatyki

Plan wykładu Historia, budowa i rodzaje komputerów Systemy operacyjne budowa i użytkowanie Oprogramowanie, licencje Przetwarzanie tekstów Arkusze kalkulacyjne Bazy danych Grafika menedżerska i prezentacyjna Sieci komputerowe Usługi w sieci Internet Bezpieczeństwo i ochrona systemów komputerowych

Strona WWW http://degra.pb.bialystok.pl/~adam/dydaktyk.html lub GOOGLE : Adam Klimowicz

Literatura 1. A. Skorupski, Podstawy budowy i działania komputerów. Wydawnictwa Komunikacji i Łączności, Warszawa 2000. 2. O. Choreń, Podstawy użytkowania komputerów. Politechnika Gdańska, Gdańsk 1997. 3. M. Czajka, Ł. Kołodziej, Microsoft Office XP od podstaw. Mikom, Warszawa 2002. 4. J. Kraynak, Microsoft Office 2000 : nie tylko dla orłów. Intersoftland, Warszawa 2000. 5. Seria Europejski Certyfikat Umiejętności Komputerowych : W. Sikorski, Podstawy technik informatycznych. M. Kopertowska, Przetwarzanie tekstów. M. Kopertowska, Arkusze kalkulacyjne. M. Kopertowska, Bazy danych. M. Kopertowska, Grafika menedżerska i prezentacyjna. A. Wojciechowski, Usługi w sieciach informatycznych. Mikom, Warszawa. 6. Każda inna pozycja omawiająca budowę i zasadę działania komputerów oraz system Windows i pakiet MS Office 7. Dla chętnych np. P. Metzger, Anatomia PC, Helion, 2009

Technologia informacyjna IT (akronim od ang. Information Technology) dziedzina wiedzy obejmująca informatykę (włącznie ze sprzętem komputerowym oraz oprogramowaniem używanym do tworzenia, przesyłania, prezentowania i zabezpieczania informacji), telekomunikację, narzędzia i inne technologie związane z informacją. Dostarcza ona użytkownikowi narzędzi, za pomocą których może on pozyskiwać informacje, selekcjonować je, analizować, przetwarzać, zarządzać i przekazywać innym ludziom.

Podstawowe pojęcia hardware (sprzęt komputerowy materialna część komputera) software (oprogramowanie - całość informacji w postaci zestawu instrukcji, zaimplementowanych interfejsów i zintegrowanych danych przeznaczonych dla komputera do realizacji wyznaczonych celów. Celem oprogramowania jest przetwarzanie danych w określonym przez twórcę zakresie.) Podział ten jest nieostry, gdyż współcześnie wiele elementów sprzętu komputerowego posiada "wszyte" weń na stałe oprogramowanie, stanowiące jego integralną część, bez którego elementy te nie mogłyby funkcjonować.

Początki Pierwsze urządzenia wspomagające obliczenia matematyczne powstały w starożytnym Egipcie, Rzymie oraz Grecji. Pierwszym znanym, bardziej skomplikowanym przyrządem służącym do obliczeń był datowany na ok. IV wiek p.n.e. abak (łac. abacus, gr. ábaks) a w 967 r. Gerbert Aurillac skonstruował pierwsze znane liczydło. Rzymski abak

Początki W Chinach i Japonii Soroban chiński

Da Vinci Pierwszą znaną maszynę liczącą zaprojektował Leonardo da Vinci (prace nazwane "Codex Madrid"). W roku 1968 została ona odtworzona przez dr Roberto Guatelliego znanego eksperta w dziedzinie twórczości Leonarda (dzisiejsze dzieje tej repliki są nieznane i nie wiadomo gdzie ona się znajduje). Codex Madrid

Pałeczki Nepera i suwak logarytmiczny W 1616 r. szkocki matematyk John Napier (Neper) zastosował do obliczeń pałeczki (pałeczki Nepera), które pozwalały na znaczne przyspieszenie żmudnych obliczeń. Jego wynalazek zapoczątkował rozwój urządzeń analogowych służących do liczenia. W 1622 r. angielscy matematycy E. Gunter i W. Oughtred wynaleźli suwak logarytmiczny.

William Schickard Twórcą pierwszej w historii mechanicznej maszyny do liczenia jest Wilhelm Schickard (1592-1635), który przez długie lata był zupełnie zapomniany. Schickard opisał projekt swojej czterodziałaniowej maszyny (dodawanie, odejmowanie, mnożenie i dzielenie liczb całkowitych), wykorzystując udoskonalone pałeczki Nepera w postaci walców, w liście do Keplera, któremu miała ona pomóc w jego astronomicznych rachunkach. Niestety jedyny zbudowany egzemplarz maszyny spłonął w niewyjaśnionych okolicznościach, a dzisiejsze jej repliki zostały odtworzone dopiero niedawno na podstawie opisu z listu do Keplera.

Pascalina Blaise Pascal (1623-1662) pomógł ojcu, który był poborcą podatkowym. Wyprodukowano około 50 egzemplarzy Pascaliny do liczenia w różnych systemach monetarnych, a część dla różnych miar odległości i powierzchni. Pascalina wykonywała tylko dwa działania (dodawanie i odejmowanie), miała także pewne możliwości zapamiętywania niektórych wyników pośrednich. Abraham Stern (1769-1842), z zawodu zegarmistrz, wykonał serię maszyn, które poza czterema działaniami podstawowymi, wyciągały także pierwiastki kwadratowe. Jedna z jego maszyn, raz uruchomiona, potrafiła wykonać za pomocą mechanizmu zegarowego wszystkie operacje bez ingerencji człowieka. Maszyny skonstruowane przez Sterna okazały się jednak mało praktyczne ze względu na wyjątkowo delikatną budowę.

Krosna Jacquarda Joseph-Marie Jacquard (1752-1834) - ukoronował w 1805 r. kilka wieków rozwoju urządzeń z kodem sterującym procesami (pozytywki itp.), konstruując we Francji krosna, w których kod na taśmie perforowanej sterował haczykami wybierającymi nici odpowiedniego koloru do wzorów na tkaninach. Pomysł ten inspirował Babbage'a i Holleritha, a jego wpływ sięgał aż po von Neumanna, którego ojciec bankier kredytował na Węgrzech inwestycje związane z krosnami Jacquarda.

Algebra Boole'a George Boole (1815-1864) - matematyk z uniwersytetu w Cork (Irlandia), choć nie skonstruował żadnej maszyny, ma unikalny wkład w konstrukcję bramek logicznych komputera, które są budowane według praw stworzonej przezeń algebry, zwanej algebrą Boole'a. Ta sama algebra zapoczątkowała w połowie XIX w. logikę matematyczną, dostarczającą teoretycznych podstaw informatyki (zagadnienia obliczalności itp.) i metod automatycznego dowodzenia twierdzeń.

Maszyna elektryczna Herman Hollerith (1860-1929) - jako pierwszy sięgnął po elektryczność, jako źródło impulsów i energii maszyny liczącej. Rozwinął także postać karty perforowanej, na której zapisywano dane i zbudował elektryczny czytnik - sorter kart. Niewątpliwym sukcesem Holleritha był spis ludności w Stanach Zjednoczonych (1890 r.), którego wyniki zostały całkowicie opracowane za pomocą jego urządzeń na podstawie danych zebranych na kartach perforowanych.

Alan Turing W 1936 roku Alan Turing (1912-1954) ogłosił rewolucyjną pracę dotyczącą teorii maszyn obliczeniowych i algorytmów. Turing sformułował tezę, że na maszynach jego pomysłu można zrealizować każdy algorytm. Do dzisiaj nie obalono tej tezy. Turing brał również udział w pracach nad deszyfracją kodów Enigmy. Prace nad maszyną deszyfrującą Enigmę przyczyniły się do powstania pod koniec wojny w Wielkiej Brytanii kalkulatorów elektronicznych.

Maszyna Turinga Maszyna Turinga stanowi najprostszy, wyidealizowany matematyczny model komputera, zbudowany z taśmy, na której zapisuje się dane i poruszającej się wzdłuż niej "głowicy", wykonującej proste operacje na zapisanych na taśmie wartościach. Każde pole może znajdować się w jednym z N stanów. Maszyna zawsze jest ustawiona nad jednym z pól i znajduje się w jednym z N stanów. Zależnie od kombinacji stanu maszyny i pola maszyna zapisuje nową wartość w polu, zmienia stan, a następnie może przesunąć się o jedno pole w prawo lub w lewo. Taka operacja nazywana jest rozkazem. Maszyna Turinga jest sterowana listą zawierającą dowolną ilość takich rozkazów. Lista rozkazów dla maszyny Turinga może być traktowana jako jej program. Przy aktualnym stanie wiedzy nie jest jasne, czy prawa fizyki rządzące naszym światem pozwalają na skonstruowanie maszyn obliczeniowych silniejszych, niż maszyna Turinga.

Generacje komputerów Generacje komputerów to umowny podział komputerów cyfrowych, zależnie od zastosowanej technologii. Wyróżniamy następujące generacje: 0 generacja - przed pojawieniem się uniwersalnych, elektronicznych maszyn cyfrowych np. przekaźnikowy Z3 1 generacja - budowane na lampach elektronowych np. XYZ 2 generacja - budowane na tranzystorach np. ZAM 41 3 generacja - budowane na układach scalonych małej i średniej skali integracji np. Odra 1305 4 generacja - budowane na układach scalonych wielkiej skali integracji np. komputer osobisty (PC) 5 generacja - projekty o niekonwencjonalnych rozwiązaniach, np. komputer optyczny.

Zerowa generacja lat 30-tych Maszyny cyfrowe na przekaźnikach elektromechanicznych i elementach mechanicznych MARK I, II, III, IV (USA) oraz maszyny Z-1, 2, 3, 4 (Niemcy) Z-1 MARK I

Komputery elektroniczne Pierwsza generacja (lampowe) Pierwsza elektroniczna maszyna cyfrowa - 1945 - ENIAC (Electronic Numerical Integrator And Computer) 50 szaf o wysokości 3 metrów zawierających około 20 tysięcy lamp

Druga generacja (komputery tranzystorowe) Wynalezienie tranzystora 1947 spowodowało powstanie komputera tranzystorowego (1951), dzięki czemu: zmniejsza się zużycie energii, wielkości maszyny, awaryjności maszyny, zwiększa szybkość działania układu, wzrost liczby zastosowań komputerów.

Trzecia i wyższe generacje komputerów Komputery zbudowane za pomocą układów scalonych Układy scalone - 1958 - potocznie chipy, kości, czyli wiele elementów na jednej płytce półprzewodnika. Pojawienie się układów scalonych zaowocowało rozwojem architektury komputerów w dwóch kierunkach: 1. Budowy dużych komputerów (superkomputerów o dużej mocy obliczeniowej) 2. Minikomputerów (komputerów osobistych - PC)

Superkomputery

Minikomputery ALTAIR 8800 (bez monitora i klawiatury) 1975 r.

Minikomputery Apple 1 1976 r.

Minikomputery IBM PC 5150 1981 r.

Minikomputery IBM PC/XT 1983 r.

Minikomputery Apple Macintosh z graficznym interfejsem i myszą 1984 r.

Przyszłość komputerów Prawo Moore'a: ekonomicznie optymalna liczba tranzystorów w układzie scalonym podwaja się co 18-24 miesiące. Prawa fizyki ograniczają możliwości miniaturyzacji układów scalonych, a ponad to wraz ze wzrostem częstotliwości taktowania procesora znacząco rośnie moc wydzielana w postaci ciepła. Dlatego więc naukowcy poszukują nowych rozwiązań.

Nanokomputery Postępujący proces gęstości upakowania w układzie scalonym wiąże się z dwoma zjawiskami: wzrostem prędkości komputera w wyniku skracania drogi przepływu sygnału (ograniczenia: miniaturyzacja obwodu), wzrostem energii wydzielanej w układzie. Wniosek: Konieczność projektowania obwodów na poziomie molekularnym, czyli poziomie nanotechnologii (10-9) Badania nad tym tematem doprowadziły do powstania w: 2000 roku giga-pc (109 operacji na sekundę z pamięcią 109 bitów), a przewiduje się, że doprowadzi w: 2015 do powstania tera-pc (1012), 2030 peta-pc (1015).

Komputery optyczne Ich niewątpliwymi zaletami byłyby: odporność na zakłócenia elektromagnetyczne, szybkość (strumień fotonów porusza się znacznie szybciej niż elektrony i ma szersze pasmo) ten sam element może równolegle przetwarzać sygnały przenoszone przez światło o różnej długości fali.

Komputery kwantowe Obecna informatyka klasyczna nie ma przed sobą dalekosiężnych perspektyw i mimo bezsprzecznych aktualnych jej sukcesów, może okazać się nieskuteczna wobec złożoności mikroświata. Komputer kwantowy byłby urządzeniem, przy pomocy którego można by skutecznie symulować dowolny inny układ kwantowy w sposób niemożliwy dla klasycznych komputerów. Prawdziwe zainteresowanie komputerem kwantowym pojawiło się jednak, gdy Peter Shor (1994) przedstawił kwantowy algorytm do faktoryzacji liczb całkowitych (tj. rozkładu liczb na czynniki pierwsze, a zatem szukania wielocyfrowych liczb pierwszych), działający eksponencjalnie szybciej niż najlepsze algorytmy klasyczne. Niewielki nawet komputer kwantowy mógłby zatem w bardzo krótkim czasie na przykład złamać wszystkie kody i zabezpieczenia współczesnych systemów informatycznych (wykorzystujących właśnie duże liczby pierwsze).