JAKIE IDEE WPŁYNĘŁY NAJSILNIEJ NA ROZWÓJ I EWOLUCJĘ INFORMATYKI?

Podobne dokumenty
Elementy historii INFORMATYKI

Gotfried Wilhelm LEIBNIZ Ostatni z wielkich, którzy wiedzieli wszystko

CZYM SĄ OBLICZENIA NAT A URALNE?

Architektura komputerów Historia systemów liczących

Festiwal Myśli Abstrakcyjnej, Warszawa, Czy SZTUCZNA INTELIGENCJA potrzebuje FILOZOFII?

algorytm przepis rozwiązania przedstawionego zadania komputer urządzenie, za pomocą którego wykonywane są algorytmy

Historia komputera. Lubię to! - podręcznik

Alan M. TURING. Matematyk u progu współczesnej informatyki

Wstęp do Informatyki. dr inż. Paweł Pełczyński

Umysł Komputer Świat TEX output: :17 strona: 1

O informatyce i jej historii. R. Robert Gajewski omklnx.il.pw.edu.pl/~rgajewski

Informacja w perspektywie obliczeniowej. Informacje, liczby i obliczenia

Techniki multimedialne

Informatyka. Prowadzący: Dr inż. Sławomir Samolej D102 C, tel: , WWW: ssamolej.prz-rzeszow.

Przeszłość i przyszłość informatyki

JAKIEGO RODZAJU NAUKĄ JEST

O ALGORYTMACH I MASZYNACH TURINGA

Historia komputera. Architektura komputera Historia komputera. Historia komputera. Historia komputera. Historia komputera

Wprowadzenie do inżynierii przetwarzania informacji

Architektura komputerów wer. 3

Wykład I: Kodowanie liczb w systemach binarnych. Studia Podyplomowe INFORMATYKA Podstawy Informatyki

Kod U2 Opracował: Andrzej Nowak

Architektura komputerów wer. 7

PRACA ZALICZENIOWA Z WORDA

Architektura systemów komputerowych

O badaniach nad SZTUCZNĄ INTELIGENCJĄ

M T E O T D O ZI Z E E A LG L O G R O Y R TM

Systemy operacyjne i sieci komputerowe

12. Wprowadzenie Sygnały techniki cyfrowej Systemy liczbowe. Matematyka: Elektronika:

Systemy liczenia. 333= 3*100+3*10+3*1

PRZESŁANKI I PIERWSZE KONCEPCJE AUTOMATYCZNEGO LICZENIA

O LICZBACH NIEOBLICZALNYCH I ICH ZWIĄZKACH Z INFORMATYKĄ

Wykład pierwszy Rys historyczny rozwoju sprzętu komputerowego

Wstęp do architektury komputerów

Fascynujący świat komputerów

Informatyka. Michał Rad

Języki i metodyka programowania. Reprezentacja danych w systemach komputerowych

O badaniach nad SZTUCZNĄ INTELIGENCJĄ

Technika mikroprocesorowa

L6.1 Systemy liczenia stosowane w informatyce

Podstawy Informatyki

prawda symbol WIEDZA DANE komunikat fałsz liczba INFORMACJA (nie tyko w informatyce) kod znak wiadomość ENTROPIA forma przekaz

O badaniach nad SZTUCZNĄ INTELIGENCJĄ

Historia komputerów. Szkoła Podstawowa nr 8 im. Jana Wyżykowskiego w Lubinie

Kierunek:Informatyka- - inż., rok I specjalność: Grafika komputerowa

Ocena poziomu rozwoju podstawowych zdolności arytmetycznych w oparciu o baterie testów wydawnictwa PROMATHEMATICA

Instytut Informatyki, PWSZ w Nysie Kierunek: Informatyka Specjalność: Systemy i sieci komputerowe, SSK studia stacjonarne Rok 2012/2013

Kierunek Informatyka stosowana Studia stacjonarne Studia pierwszego stopnia

Architektura komputerów

HISTORIA KOMPUTERÓW Wyciąg z początkowych fragmentów książki W. Ducha Fascynujący świat komputerów (

ARCHITEKTURA SYSTEMÓW KOMPUTEROWYCH

12:00 1 MAJA 2015, CZWARTEK

Instytut Nauk Technicznych, PWSZ w Nysie Kierunek: Informatyka Specjalność: Systemy i sieci komputerowe, SSK studia niestacjonarne Dla rocznika:

Podstawy Informatyki. Podstawy Informatyki. Warunki zaliczenia. Program wykładów. Metalurgia, I rok. Czym jest informatyka? Z czego się uczyć?

Wstęp do kognitywistyki. Wykład 3: Logiczny neuron. Rachunek sieci neuronowych

Rok I, semestr I (zimowy) Liczba godzin

Dr inż. Grażyna KRUPIŃSKA. D-10 pokój 227 WYKŁAD 1 WSTĘP DO INFORMATYKI

Komputery. Komputery. Komputery PC i MAC Laptopy

Jednostki informacji. Bajt moŝna podzielić na dwie połówki 4-bitowe nazywane tetradami (ang. nibbles).

Historia informatyki

Podstawy informatyki. dr inż. Izabela Szczęch

Kod uzupełnień do dwóch jest najczęściej stosowanym systemem zapisu liczb ujemnych wśród systemów binarnych.

Algorytm. Krótka historia algorytmów

Podstawy Informatyki Systemy sterowane przepływem argumentów

Dla człowieka naturalnym sposobem liczenia jest korzystanie z systemu dziesiętnego, dla komputera natomiast korzystanie z zapisu dwójkowego

ARYTMETYKA BINARNA. Dziesiątkowy system pozycyjny nie jest jedynym sposobem kodowania liczb z jakim mamy na co dzień do czynienia.

Technologie informacyjne (wyk. 1) Podstawowe pojęcia związane z informatyką, zarys historii informatyki, komputerowy zapis informacji

O REDUKCJI U-INFORMACJI

Wykład I. Podstawowe pojęcia. Studia stacjonarne Pedagogika Budowa i zasada działania komputera

Systemy liczbowe. 1. Przedstawić w postaci sumy wag poszczególnych cyfr liczbę rzeczywistą R = (10).

Wstęp do informatyki. Pojęcie liczebności. Zapis liczb. Liczenie bez liczebników. Podstawy arytmetyki komputerowej. Cezary Bolek

Pracownia Informatyczna Instytut Technologii Mechanicznej Wydział Inżynierii Mechanicznej i Mechatroniki. Podstawy Informatyki i algorytmizacji

I rok. semestr 1 semestr 2 15 tyg. 15 tyg. Razem ECTS. laborat. semin. ECTS. konwer. wykł. I rok. w tym. Razem ECTS. laborat. semin. ECTS. konwer.

XV FESTIWAL NAUKI 2011 WPROWADZENIE DO BIOCYBERNETYKI

Cyfrowość i analogowość. Wstępny zarys tematyki metodologicznofilozoficznej

LEKCJA TEMAT: Zasada działania komputera.

Obowiązkowy A. Przedmioty kształcenia ogólnego 1 Etykieta w życiu publicznym wykład 9 zaliczenie tak 1 B. Przedmioty podstawowe

Wstęp do informatyki. Pojęcie liczebności. Liczenie bez liczebników. Podstawy arytmetyki komputerowej. Cezary Bolek

Komputery. Wersja: 5 z drobnymi modyfikacjami! Wojciech Myszka :08:

Kierunek:Informatyka- - inż., rok I specjalność: Grafika komputerowa i multimedia

Architektura komputerów

Rok I, semestr I (zimowy) Liczba godzin

Historia maszyn liczących

prawda symbol WIEDZA DANE komunikat fałsz liczba INFORMACJA kod (pojęcie interdyscyplinarne) znak wiadomość ENTROPIA forma przekaz

Język ludzki kod maszynowy

O systemach liczbowych

Stan wysoki (H) i stan niski (L)

Logiczny model komputera i działanie procesora. Część 1.

1259 (10) = 1 * * * * 100 = 1 * * * *1

Wstęp do Informatyki dla bioinformatyków

O RÓŻNYCH SPOSOBACH ROZUMIENIA ANALOGOWOŚCI W INFORMATYCE

Arytmetyka komputera

Przeszłość i Przyszłość Informatyki

Podstawy Automatyki. Wykład 9 - Podstawy matematyczne automatyki procesów dyskretnych. dr inż. Jakub Możaryn. Instytut Automatyki i Robotyki

Wprowadzenie do architektury komputerów systemy liczbowe, operacje arytmetyczne i logiczne

KARTA MODUŁU KSZTAŁCENIA

Cyfrowy zapis informacji. 5 grudnia 2013 Wojciech Kucewicz 2

Zagadnienia egzaminacyjne INFORMATYKA. Stacjonarne. I-go stopnia. (INT) Inżynieria internetowa STOPIEŃ STUDIÓW TYP STUDIÓW SPECJALNOŚĆ

Kierunek: Informatyka Poziom studiów: Studia I stopnia Forma i tryb studiów: Stacjonarne. Wykład Ćwiczenia

Transkrypt:

JAKIE IDEE WPŁYNĘŁY NAJSILNIEJ NA ROZWÓJ I EWOLUCJĘ INFORMATYKI?

Dlaczego dla informatyków ważne są liczby?

Dlaczego dla informatyków ważne są liczby? bo w pamięci komputerów cyfrowych wszelkie dane (teksty, obrazy, dźwięki ) są reprezentowane jako liczby (najczęściej: binarne). bo różne operacje na danych są implementowane w komputerze jako działania na liczbach (czy też: fizycznych odpowiednikach liczb). bo kody programów i danych dla maszyn cyfrowych można rozumieć jako liczby binarne; ( im większa liczba, tym więcej miejsca zajmuje dany obiekt w pamięci komputera ).

Kodowanie liczbowe Cytaty z książki Umysł Komputer Świat : Idea pierwsza stanowi matematyczny fundament informatyki, a jej przesłanki są tak stare jak sama matematyka. Chodzi o myśl następującą: obiekty matematyczne, w tym najprostsze z nich, czyli liczby, nie są ważne same dla siebie, lecz nadają się dobrze do opisu świata. Ujmując rzecz z drugiej strony: świat poddaje się matematycznym opisom, a wyrażając to samo w konwencji informatycznej: interesujące nas fragmenty świata możemy odzwierciedlić w pewnym kodzie liczbowym. I w tym właśnie sformułowaniu zawiera się kluczowa dla informatyki idea kodowania liczbowego.

Których uczonych można nazwać praojcami informatyki? XVII w.

Prehistoria informatyki: PASCAL i LEIBNIZ (1623 1662) (1646 1716) konstruuje mechaniczny kalkulator do dodawania i odejmowania (arytmometr). rozróżnia inteligencję ludzką i mechaniczną; wątpi w ideę umaszynowienia tej pierwszej.?

Prehistoria informatyki: PASCAL i LEIBNIZ (1623 1662) (1646 1716) konstruuje mechaniczny kalkulator do dodawania i odejmowania (arytmometr). rozróżnia inteligencję ludzką i mechaniczną; wątpi w ideę umaszynowienia tej pierwszej. ulepsza arytmometr Pascala, wynajduje kod binarny, daje projekt maszyny binarnej. wierzy, zgodnie z ideą CALCULEMUS, że maszyny dorównają (kiedyś) ludziom.

Od filozofii do informatyki G. W. Leibniz jest myślicielem, który antycypował współczesną informatykę. Żywił on przekonanie, że logika daje się sprowadzić do rachunku, a poznanie świata wymaga tylko metody zapisu myśli Bożych w odpowiednim języku i dochodzenia do prawdy metodą rachunkową. Takim językiem co ma znaczenie dla powstania informatyki miałby być język binarny. Dla rozwoju informatyki ma zaś znaczenie przekonanie, że wszystko, co można poznać, daje się policzyć. Kazimierz Trzęsicki, logik i historyk nauki, znawca Leibniza

Leibniza wynalazek kodu binarnego Ideę zapisu binarnego przejmuje z Chin W starożytnych Chinach symbole 0 i 1 miały znaczenie religijno-filozoficzne, oznaczały dwie przeciwne siły: jin i jang Odkrywa jednak pozycyjny system binarny Symbole 0 i 1 rozumie jako podstawowe symbole systemu liczbowego, systemu równoważnego notacji dziesiętnej Opracowuje reguły działań binarnych Wyjaśnia, jak można mechanicznie dodawać, odejmować, mnożyć i dzielić liczby binarne Tworzy projekt maszyny binarnej Miał to być automat przetwarzający kulki, których pozycje na dziurkowanej matrycy definiowały liczby binarne

Calculemus Pod hasłem Calculemus kryje się leibnizjańska idea mechanizacji rozumowań za pomocą maszyn operujących na liczbowych odpowiednikach myśli. CALCULEMUS czyli POLICZMY! zapiszmy myśli symbolicznie zakodujmy symbole liczbowo zlećmy obliczenia maszynie zamieńmy wyniki na symbole zinterpretujmy symbole

Idea maszyny uniwersalnej w sensie zewnętrznej programowalności Kto?

Idea maszyny uniwersalnej w sensie zewnętrznej programowalności Kto? Od roku 1821 C. Babbage angielski matematyk i konstruktor pracuje nad projektem uniwersalnej maszyny liczącej o wymiennym oprogramowaniu. Wykorzystuje pomysł francuskiego wynalazcy, J. M. Jaquarda, który ok. roku 1805 skonstruował automatyczne krosno, sterowane za pomocą kart perforowanych z kodem.

Czy istnieje wynalazca komputera cyfrowego?

Czy istnieje wynalazca komputera cyfrowego? NIE Komputer to wynalazek zbiorowy, dzieło wielu uczonych z różnych krajów, pracujących w dużej mierze niezależnie.

Pierwsze KOMPUTERY Z3 (Z1-Z23) Konrad Zuse (Niemcy 1941), przeznaczenie akademickie, potem komercyjne. ABC J. Atanasoff i C. Berry (USA 1939-1942), przeznaczenie akademickie, brak dalszych zastosowań. Mark I H. Aiken (USA 1943), obliczenia dla marynarki wojennej USA. Colossus konstrukcja zbiorowa (Anglia 1943), poważny udział A. Turinga; militarne zastosowania kryptograficzne (ENIGMA). ENIAC P. Eckert i J. Mauchly (USA 1946), zastosowania militarne (m.in. program budowy bomby wodorowej).

Dwie główne postaci: TURING i von NEUMANN (1903 1957) (1912 1954) GŁÓWNE IDEE schemat komputera; tzw. architektura von Neumanna. idea programu składowanego w pamięci automaty komórkowe GŁÓWNE IDEE uniwersalna maszyna Turinga, czyli logiczny opis komp. cyfr. istnienie problemów nieobliczalnych test na inteligencję maszyn

DWA nurty w historii komputerów Komputer = sprzęt + oprogramowanie (+ sieć) Sprzęt = technologia (np. układy scalone) Oprogramowanie = algorytmy + architektura (np. von Neumanna) + struktury danych CEL coraz większa miniaturyzacja elementów przetwarzających coraz większa szybkość przetwarzania danych CEL coraz większa moc obliczeniowa (zakres realizowanych zadań) coraz większa łatwość komunikacji z użytkownikiem

Rozwój sprzętu/technologii: GENERACJE komputerów Generacja 1 (1940-1959) Komputery-kolosy oparte na lampach próżniowych. Generacja 2 (1959-1964) Komputery wykorzystujące tranzystory i pamięci ferrytowe. Generacja 3 (1965-1970) Mini-komputery przetwarzające dane za pomocą układów scalonych. Generacja 4 (1970-?) Mikro-komputery wykorzystujące układy scalone o wysokiej i bardzo wysokiej skali integracji, w tym mikroprocesory. Kolejne generacje Komputery osobiste, sieciowe, przenośne

Rozwój oprogramowania: kolejne IDEE Kodowanie liczbowe Komputer operuje na liczbach, te zaś kodują dane opisujące poza-komputerowy świat.?

Rozwój oprogramowania: kolejne IDEE Kodowanie liczbowe Program składowany w pamięci Interfejs sprzężenie zwrotne przetwarzanie sieciowe Komputer operuje na liczbach, te zaś kodują dane opisujące poza-komputerowy świat. Interfejs ułatwia komunikację z komputerem, czyniąc zeń maszynę interaktywną. Idea sieci ma różne rozwinięcia: od neurokomputerów, przez sieci komputerowe, po Internet. Wymienny program jest przechowywany w pamięci razem z danymi. Dzięki programom uczącym się komputer doskonali działanie w interakcji ze środowiskiem.

Kolejne typy maszyn informatycznych Proste maszyny liczące np. PASCALINA Programowalne maszyny obliczeniowe np. EDVAC Maszyny do przetwarzania symboli np. UNIVAC Maszyny interaktywne, konwesacyjne np. IBM PC Maszyny uczące się Maszyny autonomiczne? np. robot COG?

Od Leibniza do współczesnej informatyki (kod binarny) + (maszyna binarna) + (calculemus) (uniwersalny język komputerów) + (komputer cyfrowy) + (algorytmy i programy) Nadal jednak możemy pytać Czy komputery są inteligentne? Czy komputery są obdarzone inwencją? Czy komputer przewyższa człowieka?