WIEDZA prawda komunikat symbol DANE fałsz kod INFORMACJA (nie tyko w informatyce) liczba znak forma ENTROPIA przekaz wiadomość
Czy żyjemy w erze informacji? TAK Bo używamy nowego rodzaju maszyn maszyn do przetwarzania informacji, czyli komputerów. Bo komputery zdominowały nasze życie (prywatne, ekonomiczne, gospodarcze ). Bo wytwarzamy, przetwarzamy i gromadzimy coraz więcej informacji (danych). Bo coraz więcej zjawisk opisujemy w kategoriach informacji.
Informacja Wykład 5. O informacji (nie tylko w informatyce) Czym jest INFORMACJA? (objaśnienie ogólne) Uporządkowana treść lub struktura kodowana, magazynowana, przetwarzana i przekazywana; różnie przez ludzi interpretowana, najczęściej jednak wzbogacająca ich wiedzę lub popychająca ich do określonych działań. Gra słów: in-formować to znaczy w pewien sposób formować, a więc kształtować dobierając odpowiednie struktury. uzyskiwanie zapis-kodowanie INFORMACJA przetwarzanie przekazywanie przechowywanie
Nośniki informacji (kodowanie) Przechowywanie, przetwarzanie i przekazywanie informacji wymaga jakiegoś jej zakodowania to znaczy takiego zapisu symbolicznego, który byłby dostosowany do typu informacji lub jej funkcji (np. celu przekazu). słowa, zdania, teksty gesty, ruchy, mowa ciała Typowe nośniki informacji kody komputerowe (w tym: programy) liczby, równania, wzory mat. twierdzenia, prawa, teorie naukowe
Różne wymiary informacji Przykładowe wymiary Komunikacyjny informacja jako treść pewnego przekazu Poznawczy (epistemologiczny) informacja jako czynnik wiedzotwórczy Informatyczny informacja jako dane (komputerowe) Fizyczny informacja jako uporządkowana struktura Inne cybernetyczny, biologiczny, statystyczny
Wg cybernetyków Wykład 5. O informacji (nie tylko w informatyce) Różne definicje informacji Treść zaczerpnięta przez system ze środowiska w procesie jego dostosowywania się do różnych ewentualności tego środowiska i czynnego życia w nim [Norbert Wiener, 1950]. Wg psychologów Wynik procesu psychicznego polegającego na odzwierciedlaniu i kategoryzowaniu wybranych elementów otoczenia w wewnątrzumysłowym kodzie [Czesław Nosal 1990]. Wg filozofów Jedna z trzech ogólnych kategorii (obok materii i energii) objaśniających rzeczywistość, pozwalająca formułować prawa rządzące sterowaniem zmianami i ich komunikowaniem. [Mieczysław Lubański 1991]
INFORMACJA vs materia i energia Z ogólno-naukowego punktu widzenia informację traktuje się często jako trzecią obok materii i energii kategorię wyjaśniająca (objaśniającą świat i występujące w nim zjawiska). M E I M Kategoria materii pozwala opisywać statyczne właściwości przedmiotów (np. budowę cząsteczkową ciał). E Kategoria energii pozwala formułować prawa rządzące zmianami i wzajemnymi oddziaływaniami układów materialnych (np. przemiany energii kinetycznej w elektryczną). I Kategoria informacji pozwala formułować prawa rządzące sterowaniem zmianami i ich komunikowaniem.
INFORMACJA, dane, wiedza treść przekazu (wiadomość) INFORMACJA tworzywo maszyn informatycznych (dane) czynnik wiedzotwórczy (dane poznawcze) element świata (forma?) wartościowanie weryfikacja, uzasadnianie interpretacja, rozumienie
INFORMACJA jako pojęcie informatyczne Informacja jako dane Informacja w kontekście informatycznym to tyle co dane, czyli odpowiednio ustrukturyzowane, zakodowane i fizycznie reprezentowane tworzywo maszyn informatycznych, np. cyfrowych. zapis: różne formaty, np. DOC, RTF, GIF, BMP, AVI Różne sposoby organizacji danych programowanie: różne struktury danych, np. tablice, listy, stosy, drzewa bazy danych: relacyjne, obiektowe, inne.
Informacja, DANE i liczby Informacja > Dane > Liczby Informacja to coś więcej niż dane, bo dane stanowią pewną tylko, to znaczy komputerowo dostępną, formę informacji. Dane to coś więcej niż liczby, bo jakkolwiek dane koduje się liczbowo, to są one dodatkowo związane pewnymi informatycznymi strukturami. Pytanie: W świetle powyższych objaśnień powstaje pytanie o to, w jakim sensie komputer jest maszyną obliczeniową, a także o to, w jakim sensie procesy przetwarzania danych redukują się do obliczeń?
Jak mierzyć informację? INFORMACJA ilość (np. jak dużo informacji zawiera dany tekst) wartość (np. jak ważne informacje zawiera tekst) Ilość informacji długość odpowiedniego kodu, np. binarnego. 001001010 = 9 Wartość informacji na ile dana informacja przybliża nas do realizowanego celu, np. do uzyskania pełnej wiedzy o pewnym frag - mencieświata lub do rozwiązania pewnego problemu. np. w(i) [0,1]
Dlaczego bity? Dlaczego bit jest najlepszą elementarną jednostką miary informacji? Bo kod binarny jest najprostszym efektywnym kodem cyfrowym. Bo system binarny jest najprostszym pozycyjnym systemem liczbowym. Bo najprostsze systemy logiczne wymagają dwóch tylko wartości logicznych: prawdy i fałszu. Bo najprostsza metoda zdobywania wiedzy polega na zadawaniu prostych pytań, na które odpowiadamy: tak lub nie.
Binarna ilość informacji (wg. Shannona) Jeśli przekaz informacji ma na celu jednoznaczne wskazanie odbiorcy jednego z n równie prawdopodobnych stanów, TO ilość informacji zawartej w takim przekazie jest minimalną liczbą bitów (zer lub jedynek) niezbędnych do wskazania na jeden z n stanów. I=log 2 n x x v x log 2 4 = 2
Wartość informacji? Wartość informacji można definiować poprzez prawdopodobieństwo osiągnięcia pewnego celu. Im bardziej dana informacja zwiększa prawdopodobieństwo osiągnięcia celu C tym bardzie jest wartościowa (w kontekście celu C). w(i 1 ) > w(i 2 ), gdy P(C/i 1 ) > P(C/i 2 ) Inaczej: wartość informacji polega na redukcji niepewności. Informacja wartościowa zwiększa stopień pewności odbiorcy co do danego przekonania, podjęcia określonej decyzji, dokonania określonego wyboru
Systemy do przetwarzania informacji systemy sztuczne (komputery, sieci ) SPIN-y systemy biologiczne (mózg, komórki ) systemy społeczne (urzędy, banki ) Czy powstanie informatyka ogólna? Czy oprócz informatyki tradycyjnej (komputerowej, ang. computer science) powstanie nauka zajmująca się, na dostatecznie wysokim poziomie abstrakcji, wszelkimi systemami do przetwarzania informacji (nie tylko komputerami)? [Marciszewski 2011]
Ludzki UMYSŁ vs komputer Umysł >? Komputer Umysł przetwarza informacje, a te są czymś więcej niż dane. Umysł może działać algorytmicznie (np. gdy rozwiązuje rutynowe problemy), ale zdolny jest do działań niealgorytmicznych. Komputer przetwarza dane, czyli pewną formę informacji. Komputer działa algorytmicznie, choć niektóre algorytmy są dane nie wprost, przez schematy uczenia się. Wątpliwość: Być może jednak umysł działa algorytmicznie i przetwarza dane, a nam, nieświadomym stopnia złożoności umysłowego algorytmu, wydaje się, że jest on czymś więcej