Informacja Informacja Czynnik, któremu człowiek może przypisać określony sens (znaczenie) w celu wykorzystania do różnych celów. Wszystko to, co może być zużytkowane do bardziej sprawnego wyboru działań prowadzących do realizacji pewnego celu.
Informacja Zbiór danych zebranych w celu ich przetworzenia i otrzymania wyników (nowych informacji). Wielkość abstrakcyjna, która może być przechowywana, przesyłana i przetwarzana w pewnych obiektach a także stosowana do sterowania obiektami (obiekty: organizmy żywe, urządzenia techniczne, systemy obiektów). Informacja/wiadomość Jest trzynasta. Godzinę temu była dwunasta. Jest trzynasta. Godzinę temu był ostatni w tym dniu samolot do Polski. Ta sama wiadomość może mieć różną wartość. Wiadomość jest rodzajem nośnika (sposobem zapisu) informacji, informacja jest zaś treścią wiadomości.
Wiadomość ść/komunikat Wiadomość może być przekazana w formie komunikatu. Ten sam komunikat może przekazywać różne wiadomości dla różnych odbiorców Wiadomość o wszczęciu zbrojnego wystąpienia przeciwko rządowi republikańskiemu przekazali spiskowcy frankistowscy komunikatem nad Hiszpanią niebo jest czyste. Informacja/wiadomość ść/komunikat Komunikat jest odpowiednio zakodowaną wiadomością, zawierającą pewną ilość informacji.
Definicja Informacja - wielkość abstrakcyjna, która może być przechowywana w pewnych obiektach, przesyłana pomiędzy obiektami, przetwarzana w pewnych obiektach i stosowana do sterowania pewnymi obiektami, przy czym przez obiekty rozumie się organizmy żywe, urządzenia techniczne oraz systemy takich obiektów. /A.Mazurkiewicz/ Informacja W praktyce informacje można zdefiniować jako dane wraz ze sposobem ich interpretowania. Dane jest więc pojęciem ogólniejszym, który obejmuje informacje bez znanego lub istotnego w danym kontekście znaczenia ich treści.
Teoria informacji Informacją zajmuje się nauka zwana Teorią Informacji - dotyczy ona przekazywania wiadomości ze źródła wiadomości do ich przeznaczenia (odbiorcy). Ilość informacji Fundamentalną koncepcją teorii informacji jest przyjęcie, że informacja zawarta w przekazie zwana zawartością informacyjną jest definiowalną i mierzalną wielkością matematyczną. Określenie zawartość nie odnosi się do znaczenia przekazywanej wiadomości, ale do prawdopodobieństwa, że określona wiadomość zostanie odebrana (odczytana) z całego zbioru możliwych wiadomości. Największa wartość zawartości informacyjnej odnosi się do wiadomości, która jest najmniej prawdopodobna.
Twierdzenie Shannona Dla odniesienia zawartości informacyjnej (k) do prawdopodobieństwa, Shannon wprowadził proste równanie: k=log 2 1/p, gdzie p jest prawdopodobieństwem uzyskania (otrzymania, zaistnienia) wiadomości, Im większe jest prawdopodobieństwo wyniku dla zdarzenia, tym mniejszą ilość informacji otrzymuje się w związku z jego zaistnieniem. I na odwrót - im mniej prawdopodobny był wynik zdarzenia, tym więcej informacji zawiera wiadomo o jego zaistnieniu. Łącze informacyjne Zakłócenia Źródło Nadajnik (kodowanie) Kanał Odbiornik (dekodowanie) Przeznaczenie informacji Informacja Sygnały Sygnały Informacja
Źródło o informacji Źródła analogowe przykłady Termometr, barometr Struny głosowe Instrumenty muzyczne Źródła cyfrowe przykłady Klawiatura Telegraf Źródło o informacji Generuje wiadomo (znak), koduje je w postaci sygnału i wysyła znaki (jeden po drugim w czasie). Modelem generacji jest zdarzenie losowe. Zakładamy dyskretne i stacjonarne zdarzenia losowe, tzn.: znaki są wybierane ze skończonego zbioru, z niezależnym od czasu prawdopodobieństwem.
Kanał przesyłowy Powietrze Linie telefoniczne Ethernet CD, DVD Dyski magnetyczne Pamięć operacyjna Przestrzeń międzyplanetarna Kanał przesyłowy na przesyłany sygnał oddziałują tu inne sygnały losowe, tzw. sygnały zakłócające - odebrany przez odbiornik sygnał może by różny od sygnału nadanego.
Odbiornik informacji następuje tu odwrotne dekodowanie sygnału na postać wiadomości (znaku) i odczytanie tej wiadomości. Odbiorca wiadomości musi podjąć decyzję, który spośród ustalonych z góry znaków został przyjęty. Kodowanie Kodowanie to zapisywanie informacji w określony sposób. Kodowanie: Alfabet wejściowy A (np( np. A={a,b,,z,z}) Alfabet wyjściowy B każdej literze z A przyporządkowuje ciąg g liter z B
Kodowanie Kodowanie binarne: każdemu elementowi alfabetu przyporządkowuje ciąg g binarny (np( np.. a 0001, a b 0010, itd. ) Inaczej K(a)=0001, K(b)=0010, gdzie K to kod. Słowo kodowe Jeśli K(a)=0001, to 0001 jest słowem s kodowym a. Kodowanie o stałej długod ugości: Kodowanie Każde słowo s kodowe ma tęt samą długość np.. K(a)=0001, K(b)=0010, K(c) ) musi mieć 4 bity Kodowanie o zmiennej długod ugości: Słowa kodowe mogą mieć różne długod ugości np.. K(a)=0001, K(b)=100 Kodowanie jednoznaczne Po zakodowaniu słowa s x do postaci y można je odkodować tylko na jeden sposób, uzyskując c x. Warunek jednoznaczności ci kodu o stałej długod ugości: Dla każdych dwóch liter a b wystarczy K(a) K(b)
Entropia informacyjna źródła informacji Informacja docierająca od nadawcy do odbiorcy, ulega różnorakim modyfikacjom, czasami wręcz zniekształceniom, do których przyczyniają się zarówno sami uczestnicy procesu komunikowania, jak i otoczenie fizyczne, a nawet kod. Zakłócenia tego rodzaju nazywane są entropią informacyjną lub szumem. Jeżeli źródło może nadawać n różnych komunikatów, to jego entropią informacyjną źródła nazywamy wartością oczekiwaną ilości informacji w komunikatach z tego źródła. Entropia informacyjna pojęcie entropii zostało o zapożyczone z termodynamiki do określenia średniej zawartości informacyjnej wiadomości z określonego źródła. entropia może e być rozumiana intuicyjnie jako miara nieuporządkowania systemu. w teorii informacji entropia wiadomości równa r się średniej zawartości informacyjnej. jeśli w jakimś zbiorze wiadomości, prawdopodobieństwo ich wystąpienia jest równe r to całkowit kowitą entropię określa wzór r H = log 2 N, gdzie N jest liczbą możliwych wiadomości w zestawie.
Redundancja Redundancja to ilość informacji przekraczająca wymagane do rozwiązania problemu minimum. Ułatwienie odtworzenia danych po ich częś ęściowej utracie, czy uszkodzeniu lub też do wykrycia takiego uszkodzenia (bit parzystości, suma kontrolna, kod nadmiarowy CRC) Nadmiarowość jest cechą każdego systemu informacyjnego przesyłaj ającego jakieś dane cyfrowe, Usuwanie nieprzydatnej redundancji to kompresja danych. Co przekazuje informacje? Informację przekazuje możliwość porównania dwóch stanów: - zmiana stanu jest informacją - brak zmian to brak informacji
Jednostki informacji bit podstawowa, najmniejsza i niepodzielna jednostka informacji cyfrowej, jaka może e być przetwarzana przez komputer bit może e przechowywać informację o jednym z dwóch możliwych stanów przyjmuje wartości oznaczane jako 0 albo 1 bit to skrót t terminu BInary DigiT. bit to po angielsku kawałek skrót: b Jednostki informacji 1 bit: 0, 1, rozróżnia 2 znaki 2 bity: 00, 01, 10, 11, rozróżniają 4 znaki. 3 bity: 000, 001, 010, 011, 100, 101, 110, 111, rozróżniają 8 znaków. 4 bity: 0000... 1111, rozróżniają 16 znaków (tetrada) 8 bitów pozwala odróżnić 28 = 16 x 16 = 256 znaków Cztery bity to tetrada Osiem bitów tworzy tzw. oktet zwany również bajtem (B)
Jednostki informacji Dwa bajty to (najczęś ęściej...) półsłowo. Cztery bajty (32 bity) to słowo. 64 bity to podwójne słowos owo. Słowo komputerowe - ilość informacji przetwarzanej przez komputer. Komputer 8, 8, 16,, 32 (64,, 128-) ) bitowy oznacza wielkość grupy danych, którą komputer może operować jako całości cią. Jednostki informacji W informatyce nazwy przedrostków nie odpowiadają tym w układzie SI kilo = 1000= 10 3 mega = 1000000= 10 6 = kilo x 1000 giga = 1000000000= 10 9 = mega x 1000 tera = 1000000000000 = 10 12 = giga x 1000 Kilo = 1024= 2 10 Mega = 1048576= 2 20 = Kilo x 1024 Giga = 1073741824= 2 30 = Mega x1024 Tera = 1099511627776 = 2 40 = Giga x 1024
Wielkość danych 2 10 =1024=1K kilobajt, typowa strona tekstu to kilka KB; 2 20 =1024K=1M megabajt, książka bez grafiki lub minuta muzyki; 2 30 =1024M=1G gigabajt, film cyfrowy, sporo grafiki, ludzki genom; 2 40 =1024G=1T terabajt, duża biblioteka, szerokoekranowy film w kinie; 2 50 =1024T=1P petabajt, ludzka pamięć; Rozróżnienie B i b: B=bajty, KB=kilobajty, MB=megabajty, GB=gigabajty b=bity, Kb=kilobity, Mb-megabity... Dlaczego komputery przetwarzają bity? Bity sąs proste mogą przyjmować tylko jeden z dwóch stanów: 0 i 1. Dlatego układy operujące na bitach sąs dużo o prostsze niż dla innych jednostek. Za pomocą bitów w można dobrze kodować dowolną informację,, więc c przetwarzanie informacji można wykonywać przy pomocy układ adów w operujących na bitach.
Dlaczego komputery przetwarzają bity? Bity sąs odporne na zakłócenia - w czasie przekazu należy y wykryć tylko dwa poziomy, wysoki H - 1 i niski L - 0. Brak wartości pośrednich. W przypadku innych jednostek sygnał musi mieć więcej poziomów, a więc c jest bardziej podatny na przekłamania w trakcie transmisji. Binarny system pozycyjny da się bezpośrednio zakodować w postaci bitów - każdej cyfrze binarnej odpowiada jeden bit (na bitach można wykonywać dowolne operacje arytmetyczne, a więc c liczyć) Przyszłość maszyn liczących cych komputer kwantowy Informacją kwantową nazywamy informację zawartą w stanie układu kwantowego. Jednostką informacji kwantowej jest kubit. Informacja kwantowa może być zakodowane w nielokalnych związkach pomiędzy poszczególnymi elementami układu, które nie mają odpowiednika w klasycznej teorii informacji. Mówimy wtedy, że układ jest w stanie splątanym.
Przyszłość maszyn liczących cych komputer kwantowy Inna cechą odróżniaj niającą informację kwantową od klasycznej informacji jest jej probabilistyczność ść. Mierząc c wartość jednego kubitu,, możemy uzyskać z pewnym prawdopodobieństwem wynik 0 lub 1. Z wyjątkiem pewnych szczególnych przypadków w nie możemy przewidzieć który z nich uzyskamy. System liczbowy Zbiór reguł do jednolitego zapisywania i nazywania cyfr. addytywne pozycyjno-wagowe
Systemy addytywne Posiadają osobne symbole dla pierwszych kilku małych liczb, a następnie posiadają kolejne symbole dla ich wielokrotności. W systemach tych liczby tworzy się przez "dodawanie" kolejnych symboli i stąd ich nazwa Przykład Jeśli "X"=10,"V"=5,"I"=1 to XVI = 10+5+1 = 16) (rzymski system liczbowy) Systemy pozycyjno-wagowe System pozycyjny to taki, w którym znaczenie znaków zależy od ich pozycji. System wagowy to taki, w którym każdej pozycji cyfry przypisana jest inna waga. Liczbę przedstawia się jako ciąg cyfr, przy czym wartość tej liczby zależy zarówno od cyfr jak i miejsca, na którym się one znajdują w tym ciągu Przykład Liczba 5004 w dziesiętnym systemie liczbowym, w którym podstawą pozycji jest 10 : 5 x 10 3 + 0 x 10 2 + 0 x 10 1 + 4 x 10 0 = 5 x 1000 + 4 x 1
System pozycyjno-wagowy Liczbę całkowitą L w systemie pozycyjnym o podstawie (bazie) r zapisujemy w postaci: (a n-1 a 1 a 0 ) r Unikalną reprezentacją liczby o wartości L jest zbiór cyfr {a n-1,,a 1,a 0 ) takich, że L P - podstawa systemu a kolejne cyfry w liczbie i indeks kolejnych cyfr n = ap i i= 0 i System dziesiętny (decymalny, arabski ) Podstawę systemu dziesiętnego tworzy liczba 10. Zapis liczby tworzymy za pomocą cyfr o przypisanych wartościach od 0 do 9. Przykład 126 10 = 1x10 2 + 2x10 1 + 6x10 0
System dwójkowy (binarny) Podstawę systemu binarnego tworzy liczba 2. Zapis liczby tworzymy za pomocą cyfr o przypisanych wartościach 0 i 1. Przykład 1010 2 = 1x2 3 + 0x2 2 + 1x2 1 + 0x2 0 = 8 + 2 = 10 10 System dwójkowy (binarny) Naturalny system informatyki Zalety: Prostota łatwa realizacja techniczna (elektronika) możliwość interpretacji cyfr {0, 1} jako wartości Wady: logicznych długość zapisu liczby przyzwyczajenie do systemu dziesiętnego
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 0000 0001 0010 0011 0100 0101 0110 0111 1000 1001 1010 1011 1100 1101 1110 1111 0 1 2 3 4 5 6 7 8 9 A B C D E F System szestnastkowy (hexadecymalny) Podstawę systemu binarnego tworzy liczba 16. Zapis liczby tworzymy za pomocą cyfr o przypisanych wartościach od 0 do 9 oraz kolejne litery alfabetu łacińskiego A, B, C, D, E, F. Przykład A1F 16 = Ax16 2 + 1x16 1 + Fx16 0 = 10x256 + 1x16 + 15x1 = 2591 10 Po co jest system szestnastkowy? Adresy komórek pamięci są szesnastkowe Zawartość komórek (bajtów) jest określana w sposób szesnastkowy
Zadania 43521 (7) =??? (10) 2101122 (3) =??? (10) AGF63B (17) =??? (10) Algorytm Hornera obliczania dziesiętnej wartości liczby całkowitej n - liczba cyfr w zapisie pozycyjnym danej liczby p - podstawa systemu pozycyjnego, w którym jest zapisana liczba c i - cyfra stojąca na i-tej pozycji. Pozycja o numerze 0 jest pierwszą pozycją od strony prawej. w - obliczana wartość liczby 1. w 0 2. i n - 1 3. w c i + w x p 4. jeśli i = 0, to koniec, w zawiera wartość liczby 5. i i - 1 6. wróć do punktu 3
Algorytm Hornera przykład Obliczyć przy pomocy algorytmu Hornera dziesiętną wartość liczby 742031 zapisanej w systemie pozycyjnym o podstawie p=8. w 0 w 7 + 0 x 8 = 7 w 4 + 7 x 8 = 60 w 2 + 60 x 8 = 482 w 0 + 482 x 8 = 3856 w 3 + 3856 x 8 = 30851 w 1 + 30851 x 8 = 246809 i kończymy, ponieważ osiągnęliśmy ostatnią cyfrę Algorytm Hornera zadanie Obliczyć przy pomocy algorytmu Hornera wartość liczby 2210112 zapisanej w systemie pozycyjnym o podstawie p=3.
Metoda przeliczania liczb Problem - znalezienie kolejnych cyfr zapisu liczby dziesiętnej w systemie docelowym. Wartość liczby L jest równa zgodnie ze wzorem: L = C n-1 p n-1 + C n-2 p n-2 +... + C 2 p 2 + C 1 p + C 0 Do wydobycia poszczególnych cyfr C i, i = 0,1,2,...,n-1, są nam potrzebne dwa działania: div - dzielenie całkowitoliczbowe - określa ile całkowitą ilość razy dzielnik mieści się w dzielnej, na przykład: 9 div 4 = 2, gdyż 4 mieści się w 9 dwa razy. mod - reszta z dzielenia całkowitoliczbowego, na przykład: 9 mod 4 = 1,gdyż 4 mieści się w 9 dwa razy, co daje 8 i pozostaje reszta 1. Znajdowanie rozwinięcia liczby o podstawie p w -wartość liczby p - podstawa systemu pozycyjnego c i - cyfra na i-tej pozycji w systemie pozycyjnym o podstawie p 1. i 0 2. c i reszta z dzielenia w / p 3. w wynik dzielenia całkowitego w / p 4. jeśli w = 0, to kończymy, wszystkie cyfry znalezione 5. i i + 1 6. wróć do punktu 2
Znajdowanie rozwinięcia liczby o podstawie p przykład Przeliczyć wartość 12786 na system piątkowy. w 12786 / 5 = 2557 i reszta 1 w 2557 / 5 = 511 i reszta 2 w 511 / 5 = 102 i reszta 1 w 102 / 5 = 20 i reszta 2 w 20 / 5 = 4 i reszta 0 w 4 / 5 = 0 i reszta 4 (koniec obliczeń, ponieważ otrzymaliśmy wartość 0) 12786 (10) = 402121 (5) Znajdowanie rozwinięcia liczby o podstawie p zadania Przeliczyć wartość 86597 (10) na system dwójkowy. Przedstawić w systemie trójkowym liczbę 325748 (10). Przedstawić w systemie czwórkowym liczbę 2743 (10).
Konwersja dwójkowo jkowo-ósemkowa cyfry ósemkowe cyfra 0 1 2 3 4 5 6 7 wartość 000 (2) 001 (2) 010 (2) 011 (2) 100 (2) 101 (2) 110 (2) 111 111 (2) 110101111011010101011101 (2) 110 101 111 011 010 101 011 101 (2) 110 101 111 011 010 101 011 101 6 5 7 3 2 5 3 5 110101111011010101011101 (2) = 65732535 (8) Konwersja ósemkowo-dwójkowa cyfry ósemkowe cyfra 0 1 2 3 4 5 6 7 wartość 000 (2) 001 (2) 010 (2) 011 (2) 100 (2) 101 (2) 110 (2) 111 111 (2) 7 5 2 4 0 1 111 101 010 100 000 001 752401 (8) = 111101010100000001 (2)
0000 0001 0010 0011 0100 0101 0110 0111 1000 1001 1010 1011 1100 1101 1110 1111 Konwersja dwójkowo jkowo-szestnastkowa 0 1 2 3 4 5 6 7 8 9 A B C D E F 110101111011010101011101 (2) 1101 0111 1011 0101 0101 1101 (2) D 7 B 5 5 D 110101111011010101011101 (2) = D7B55G (16) 0000 0001 0010 0011 0100 0101 0110 0111 1000 1001 1010 1011 1100 1101 1110 1111 Konwersja szestnastkowo-dw dwójkowa 0 1 2 3 4 5 6 7 8 9 A B C D E F D 7 B 5 5 D 1101 0111 1011 0101 0101 1101 D7B55G (16) = 111101010100000001 (2)