Jak zadać dobre pytanie, czyli czym jest informacja i jak ja

Podobne dokumenty
O oszczędnym dziennikarzu, czyli czym jest

Architektura systemów komputerowych Laboratorium 5 Kodowanie liczb i tekstów

Teoria informacji i kodowania Ćwiczenia Sem. zimowy 2016/2017

DZIESIĘTNY SYSTEM LICZBOWY

Instrukcja dotycząca kodów kreskowych

teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015

12. Wprowadzenie Sygnały techniki cyfrowej Systemy liczbowe. Matematyka: Elektronika:

ARCHITEKTURA KOMPUTERÓW. Reprezentacja danych w komputerach

Technologie informacyjne (3) Zdzisław Szyjewski

Technologie informacyjne (3) Zdzisław Szyjewski

teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015

4 Standardy reprezentacji znaków. 5 Przechowywanie danych w pamięci. 6 Literatura

Techniki multimedialne

Temat: Algorytm kompresji plików metodą Huffmana

Reprezentacja symboli w komputerze.

Podstawy języka C++ Marek Pudełko

Elementy teorii informacji i kodowania

L6.1 Systemy liczenia stosowane w informatyce

Wygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje

Technologie Informacyjne

Systemy liczenia. 333= 3*100+3*10+3*1

Dla człowieka naturalnym sposobem liczenia jest korzystanie z systemu dziesiętnego, dla komputera natomiast korzystanie z zapisu dwójkowego

1. System pozycyjny zapisu liczb

Języki i metodyka programowania. Reprezentacja danych w systemach komputerowych

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9,

Kompresja bezstratna. Entropia. Kod Huffmana

Wykład I: Kodowanie liczb w systemach binarnych. Studia Podyplomowe INFORMATYKA Podstawy Informatyki

Podstawowe pojęcia. Teoria informacji

Teoria Informacji - wykład. Kodowanie wiadomości

Teoria Informacji i Metody Kompresji Danych

Instrukcja obsługi. Komunikacja ModBus w przemiennikach częstotliwości HFinverter F1500-G. (0,4kW 75kW)

Kodowanie informacji. Przygotował: Ryszard Kijanka

Pracownia Komputerowa wyk ad VII

Wprowadzenie do informatyki i użytkowania komputerów. Kodowanie informacji System komputerowy

Granica kompresji Kodowanie Shannona Kodowanie Huffmana Kodowanie ciągów Kodowanie arytmetyczne. Kody. Marek Śmieja. Teoria informacji 1 / 35

Wstęp do informatyki. Pojęcie liczebności. Zapis liczb. Liczenie bez liczebników. Podstawy arytmetyki komputerowej. Cezary Bolek

mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. GOLOMBA I RICE'A

Pracownia Komputerowa wykład IV

Pracownia Komputerowa wykład V

Teoria informacji i kodowania Ćwiczenia

Wstęp do informatyki. Pojęcie liczebności. Liczenie bez liczebników. Podstawy arytmetyki komputerowej. Cezary Bolek

Kodowanie informacji

wiadomość komunikat - informacja Caius Julius Cesar Człowiek zasztyletowany przez senatorów na forum Romanum w Idy Marcowe roku DCCIX ab urbe condita

Krótka wycieczka do wnętrza komputera

PODSTAWY INFORMATYKI. Informatyka? - definicja

Wstęp do Informatyki

Arytmetyka komputera. Na podstawie podręcznika Urządzenia techniki komputerowej Tomasza Marciniuka. Opracował: Kamil Kowalski klasa III TI

Kody liczbowe - Naturalny Kod Binarny (NKB) Kody liczbowe - Kod BCD. Kody liczbowe - Przechowywanie liczb w kodzie BCD

Dane, informacja, programy. Kodowanie danych, kompresja stratna i bezstratna

Komunikacja człowiek-komputer

0 + 0 = 0, = 1, = 1, = 0.

Arytmetyka komputera

architektura komputerów w. 2

Pracownia komputerowa. Dariusz Wardecki, wyk. V

Pracownia Komputerowa wyk ad IV

ARCHITEKRURA KOMPUTERÓW Kodowanie liczb ze znakiem

Pracownia komputerowa. Dariusz Wardecki, wyk. VIII

Informatyka 1. Wykład nr 3 ( ) Politechnika Białostocka. - Wydział Elektryczny. dr inŝ. Jarosław Forenc

Kompresja Kodowanie arytmetyczne. Dariusz Sobczuk

0-0000, , , itd

Kod U2 Opracował: Andrzej Nowak

kodowanie informacji Autor prezentacji: 1 prof. dr hab. Maria Hilczer

Model warstwowy i architektura sieci komputerowej

ARYTMETYKA BINARNA. Dziesiątkowy system pozycyjny nie jest jedynym sposobem kodowania liczb z jakim mamy na co dzień do czynienia.

Temat pytań Teoria informacji

Bezprzewodowy czytnik kodów kreskowych 2D WD-686X Instrukcja użytkowania

Znaki w tym systemie odpowiadają następującym liczbom: I=1, V=5, X=10, L=50, C=100, D=500, M=1000

Kompresja danych kodowanie Huffmana. Dariusz Sobczuk

Dr inż. Grażyna KRUPIŃSKA. D-10 pokój 227 WYKŁAD 2 WSTĘP DO INFORMATYKI

Według raportu ISO z 1988 roku algorytm JPEG składa się z następujących kroków: 0.5, = V i, j. /Q i, j

Entropia Kodowanie. Podstawy kompresji. Algorytmy kompresji danych. Sebastian Deorowicz

Pracownia Komputerowa wyk ad V

prawda symbol WIEDZA DANE komunikat fałsz liczba INFORMACJA (nie tyko w informatyce) kod znak wiadomość ENTROPIA forma przekaz

Kodowanie i entropia

Podstawą w systemie dwójkowym jest liczba 2 a w systemie dziesiętnym liczba 10.

Przemysłowe Sieci Informatyczne (PSI) Wykład #3 kodowanie i wstęp do teorii informacji WYDZIAŁ ELEKTROTECHNIKI I AUTOMATYKI KATEDRA INŻYNIERII

Wstęp do informatyki- wykład 1

INFORMATYKA. Zajęcia organizacyjne. Arytmetyka komputerowa.

Kody Tunstalla. Kodowanie arytmetyczne

1.1. Pozycyjne systemy liczbowe

Dane, informacja, programy. Kodowanie danych, kompresja stratna i bezstratna

Kwantyzacja wektorowa. Kodowanie różnicowe.

Entropia w układach dynamicznych Środowiskowe Studia Doktoranckie z Nauk Matematycznych Uniwersytet Jagielloński, Kraków, marzec-kwiecień 2013

Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład Kody liniowe - kodowanie w oparciu o macierz parzystości

Formaty obrazów rastrowych biblioteki PBM

TIMKoD - Lab 1 - Przybliżenie języka naturalnego

Historia kodowania i format plików XML. Jolanta Bachan

Technologie cyfrowe semestr letni 2018/2019

Architektura systemów komputerowych

Modulacja i kodowanie. Labolatorium. Kodowanie źródłowe Kod Huffman a

Zapis liczb binarnych ze znakiem

Cyfrowy zapis informacji. 5 grudnia 2013 Wojciech Kucewicz 2

Urządzenia Techniki. Klasa I TI. System dwójkowy (binarny) -> BIN. Przykład zamiany liczby dziesiętnej na binarną (DEC -> BIN):

Szyfr ten w odróżnieniu od prostych szyfrów różni się tym że literę zastępuje się obrazkiem, a nie inną literą.

Temat 1. Zliczanie kropek numeracja dwójkowa

Matematyka dyskretna

Algorytmy zachłanne. dr inż. Urszula Gałązka

Przetwarzanie i transmisja danych multimedialnych. Wykład 2 Podstawy kompresji. Przemysław Sękalski.

Laboratorium Wykorzystanie kalkulatora Windows do obliczania adresów sieciowych

Rachunek prawdopodobieństwa

Transkrypt:

Jak zadać dobre pytanie, czyli czym jest informacja i jak ja zmierzyć Adam Doliwa doliwa@matman.uwm.edu.pl WYKŁAD Z CYKLU NIEZWYKŁA MATEMATYKA WYDZIAŁ MATEMATYKI I INFORMATYKI UWM Olsztyn, 28 września 2016 r. Adam Doliwa (UWM) Informacja 28-IX-2016 1 / 18

BIT binary digit cyfra dwójkowa Problem Ile bitów potrzeba do zapisania wyniku pięciu rzutów moneta? ORROR 01101 Tyle samo, ile trzeba zadać pytań binarnych, tzn. majacych za możliwa odpowiedź TAK lub NIE Przed doświadczeniem przyjmujemy każdy z możliwych 2 5 = 32 wyników za jednakowo prawdopodobny. Liczba 5 jest tu miara naszej niepewności co do wyniku rzutów Adam Doliwa (UWM) Informacja 28-IX-2016 2 / 18

BIT binary digit cyfra dwójkowa Problem Ile bitów potrzeba do zapisania wyniku pięciu rzutów moneta? ORROR 01101 Tyle samo, ile trzeba zadać pytań binarnych, tzn. majacych za możliwa odpowiedź TAK lub NIE Przed doświadczeniem przyjmujemy każdy z możliwych 2 5 = 32 wyników za jednakowo prawdopodobny. Liczba 5 jest tu miara naszej niepewności co do wyniku rzutów Adam Doliwa (UWM) Informacja 28-IX-2016 2 / 18

Informacja jako redukcja niepewności Problem Ile bitów informacji niesie wiadomość, że w poprzednim doświadczeniu za każdym razem uzyskaliśmy ten sam wynik? ALBO Teraz do opisania wyniku doświadczenia wystarczy znać odpowiedź na TYLKO JEDNO PYTANIE Wiadomość ta dostarcza nam cztery bity informacji Adam Doliwa (UWM) Informacja 28-IX-2016 3 / 18

Informacja jako redukcja niepewności Problem Ile bitów informacji niesie wiadomość, że w poprzednim doświadczeniu za każdym razem uzyskaliśmy ten sam wynik? ALBO Teraz do opisania wyniku doświadczenia wystarczy znać odpowiedź na TYLKO JEDNO PYTANIE Wiadomość ta dostarcza nam cztery bity informacji Adam Doliwa (UWM) Informacja 28-IX-2016 3 / 18

Logarytmy informatyczne lg = log 2...... 1 = 2 0 lg 1 = 0 2 = 2 1 lg 2 = 1 4 = 2 2 lg 4 = 2 8 = 2 3 lg 8 = 3 16 = 2 4 lg 16 = 4 32 = 2 5 lg 32 = 5...... Uwaga: lg 3 = 1, 584962501..., lg 5 = 2, 321928095... Zadanie 1 Ile bitów informacji ma wiadomość, że rzucajac osiem razy moneta uzyskaliśmy raz orła i siedem razy reszkę? Adam Doliwa (UWM) Informacja 28-IX-2016 4 / 18

Kod Morse a Stworzony w 1832 przez Samuela Morse a i Alfreda Vaila sposób reprezentacji alfabetu, cyfr i znaków specjalnych za pomoca dźwięków, błysków światła, impulsów elektrycznych lub znaków popularnie zwanych kreska i kropka. Alfabetem źródłowym jest alfabet łaciński z cyframi i znakami specjalnymi, a alfabetem kodowym M = {,, } (trzecim elementem zbioru M jest spacja). Spacja oddziela słowa kodowe, grupy znaków oddzielamy trzema spacjami. Adam Doliwa (UWM) Informacja 28-IX-2016 5 / 18

ASCII American Standard Code for Information Interchange Dec Bin Char Dec Bin Char Dec Bin Char Dec Bin Char 0 0000000 NUL 32 0100000 space 64 1000000 @ 96 1100000 1 0000001 SOH 33 0100001! 65 1000001 A 97 1100001 a 2 0000010 STX 34 0100010 66 1000010 B 98 1100010 b 3 0000011 ETX 35 0100011 # 67 1000011 C 99 1100011 c 4 0000100 EOT 36 0100100 $ 68 1000100 D 100 1100100 d 5 0000101 ENQ 37 0100101 % 69 1000101 E 101 1100101 e 6 0000110 ACK 38 0100110 & 70 1000110 F 102 1100110 f 7 0000111 BEL 39 0100111 71 1000111 G 103 1100111 g 8 0001000 BS 40 0101000 ( 72 1001000 H 104 1101000 h 9 0001001 TAB 41 0101001 ) 73 1001001 I 105 1101001 i 10 0001010 LF 42 0100010 * 74 1001010 J 106 1101010 j 11 0001011 VT 43 0100011 + 75 1001011 K 107 1101011 k 12 0001100 FF 44 0100100, 76 1001100 L 108 1101100 l 13 0001101 CR 45 0100101-77 1001101 M 109 1101101 m 14 0001110 SO 46 0100110. 78 1001110 N 110 1101110 n 15 0001111 SI 47 0100111 / 79 1001111 O 111 1101111 o 16 0010000 DLE 48 0101000 0 80 1010000 P 112 1110000 p 17 0010001 DC1 49 0101001 1 81 1010001 Q 113 1110001 q 18 0010010 DC2 50 0101010 2 82 1010010 R 114 1110010 r 19 0010011 DC3 51 0101011 3 83 1010011 S 115 1110011 s 20 0010100 DC4 52 0101100 4 84 1010100 T 116 1110100 t 21 0010101 NAK 53 0101101 5 85 1010101 U 117 1110101 u 22 0010110 SYN 54 0101110 6 86 1010110 V 118 1110110 v 23 0010111 ETB 55 0101111 7 87 1010111 W 119 1110111 w 24 0011000 CAN 56 0110000 8 88 1011000 X 120 1111000 x 25 0011001 EM 57 0110001 9 89 1011001 Y 121 1111001 y 26 0011010 SUB 58 0110010 : 90 1011010 Z 122 1111010 z 27 0011011 ESC 59 0110011 ; 91 1011011 [ 123 1111011 { 28 0011100 FS 60 0110100 92 1011100 \ 124 1111100 29 0011101 GS 61 0110101 = 93 1011101 ] 125 1111101 } 30 0011110 RS 62 0110110 94 1011110 ˆ 126 1111110 31 0011111 US 63 0110111? 95 1011111 127 1111111 DEL Adam Doliwa (UWM) Informacja 28-IX-2016 6 / 18

Opowieść o dziennikarzu (część pierwsza) Z Centusiowa do Słoneczkowa został wysłany młody dziennikarz, którego zadaniem było przesyłanie do centrali raz na tydzień wiadomości zbiorczej o pogodzie jaka była każdego dnia słonecznie zachmurzenie małe zachmurzenie duże deszcz 00 01 10 11 Przykładowa wiadomość: 01001101001001 Adam Doliwa (UWM) Informacja 28-IX-2016 7 / 18

Opowieść o dziennikarzu (część druga) Młody dziennikarz zauważył, że w Słoneczkowie (średnio rzecz biorac) raz na dwa dni jest zachmurzenie małe, raz na cztery dni słonecznie, raz na osiem dni jest zachmurzenie duże oraz raz na osiem dni pada deszcz. Postanowił to wykorzystać do skonstruowania lepszego kodowania wiadomości p 1 = 1 4 p 2 = 1 2 p 3 = 1 8 p 4 = 1 8 0 1 10 11 p 1 + p 2 + p 3 + p 4 = 2 8 + 4 8 + 1 8 + 1 8 = 1 Odpowiadajaca wiadomość: 101110101 może być odczytana (rozkodowana) jako: lub nawet jako: Adam Doliwa (UWM) Informacja 28-IX-2016 8 / 18

W poszukiwaniu optymalnego kodowania p 1 = 1 4 p 2 = 1 2 p 3 = 1 8 p 4 = 1 8 01 1 001 000 Jest to kod jednoznaczny i natychmiastowy (słowo kodowe nie jest poczatkiem innego słowa kodowego) Odpowiadajaca pogodzie postać: 1010001010011 Czy nowy kod jest lepszy od pierwszego? wiadomość ma Ile zaoszczędzi dziennikarz używajac przez 40 tygodni nowy kod zamiast pierwszego, jeśli przesłanie bitu kosztuje 1 PLN? Użytkowanie starego kodu kosztuje: 40 7 2 = 560 [PLN] Adam Doliwa (UWM) Informacja 28-IX-2016 9 / 18

Rozwiazanie zadania Koszty zwiazane z używaniem nowego kodu w przeciagu 40 tygodni: średnio 20 7 = 140 dni z małym zachmurzeniem: 1 140 = 140 średnio 10 7 = 70 dni słonecznych: 2 70 = 140 średnio 5 7 = 35 dni z dużym zachmurzeniem: 3 35 = 105 średnio 5 7 = 35 dni deszczowych: 3 35 = 105 Razem przesłano (średnio rzecz biorac) 140 + 140 + 105 + 105 = 490 bitów za sumę 490 PLN. Dziennikarz oszczędził 560 [PLN] - 490 [PLN] = 70 [PLN] Uwaga: Średnia długość słowa starego kodu wynosi E(K S ) = 2 bity, a nowego kodu wynosi E(K N ) = 490/280 = 7/4 bitu Pytanie Czy jest to najlepsze (optymalne) kodowanie? Adam Doliwa (UWM) Informacja 28-IX-2016 10 / 18

Entropia źródła Jeśli źródło informacji wysyła wiadomości z częstościami (prawdopodobieństwem) p 1, p 2,..., p n to jego entropia jest zdefiniowana wzorem H(p 1, p 2,..., p n ) = p 1 lg 1 p 1 + p 2 lg 1 p 2 +... p n lg 1 p n Przykład: Entropia pogody w Słoneczkowie ( 1 H 4, 1 2, 1 8, 1 ) = 1 8 4 lg 4 + 1 2 lg 2 + 1 8 lg 8 + 1 8 lg 8 = 7 4 p 1 = 1 4 p 2 = 1 2 p 3 = 1 8 p 4 = 1 8 01 1 001 000 E(K ) = 1 4 2 + 1 2 1 + 1 8 3 + 1 8 3 = 7 4 Adam Doliwa (UWM) Informacja 28-IX-2016 11 / 18

Twierdzenie Shannona Dla dowolnego źródła i dowolnego odpowiadajacego mu binarnego kodu natychmiastowego średnia długość E(K ) słowa kodowego jest nie mniejsza niż entropia tego źródła E(K ) H Claude Elwood Shannon (1918-2001) twórca matematycznej teorii informacji Wniosek: Ponieważ w kodowaniu wymyślonym przez młodego dziennikarza średnia długość słowa kodowego jest równa entropii źródła informacji, więc jest to kodowanie optymalne Adam Doliwa (UWM) Informacja 28-IX-2016 12 / 18

Entropia jako średnia niepewność W przypadku wyboru jednego elementu ze zbioru n-elementowego z równomiernym prawdopodobieństwem p i = 1 n, i = 1, 2,..., n entropia jest równa H( 1 n,..., 1 n ) = 1 n lg n + + 1 n lg n = lg n. Jest to maksymalna jej wartość spośród wszystkich możliwych rozkładów prawdopodobieństw 0 p i 1, p 1 + p 2 + + p n = 1 Na gruncie nauki o cieple entropię jako tajemnicza wielkość opisujac a stan układu wprowadził w 1854 roku Rudolf Clausius (1822-1888). Jej sens z punktu widzenia atomowej teorii materii wyjaśnił w 1877 roku Ludwig Boltzmann (1844-1906), jako wielkości mierzacej stopień nieuporzadkowania układu Adam Doliwa (UWM) Informacja 28-IX-2016 13 / 18

Zadanie 2 Średnie dane pogody w Deszczykowie przedstawione sa w tabeli poniżej. Wyznacz odpowiedni optymalny binarny i natychmiastowy kod do przesyłania informacji o pogodzie. p 1 = 1 16 p 2 = 1 16 p 3 = 1 8 p 4 = 1 2 p 5 = 1 4 Pierwsza osoba, która nadeśle prawidłowe odpowiedzi na oba zadania na adres doliwa@matman.uwm.edu.pl otrzyma w nagrodę monetę wybita z okazji Europejskiego Kongresu Matematyki (Kraków 2012) przedstawiajac a najwybitniejszego matematyka polskiego XX wieku Stefana Banacha (1892-1945) Adam Doliwa (UWM) Informacja 28-IX-2016 14 / 18

Siedziba Agencji Bezpieczen stwa Narodowego (National Security Agency) w Fort Meade w stanie Maryland najwieksze skupienie matematyków na s wiecie. Adam Doliwa (UWM) Informacja 28-IX-2016 15 / 18

Które pytanie najlepiej zadać? Alicja wybiera jedna liczbę naturalna od 1 do 12. Odpowiedź na które z pytań zmniejszy (średnio) w największym stopniu nasza niepewność na temat jej wyboru? 1 Czy jest to liczba podzielna przez trzy? 2 Czy jest to liczba parzysta? 3 Czy jest to liczba 10? Zanim zadamy pytanie, nasza niepewność co do wybranej liczby wynosi lg 12 3, 585 bitów Analiza odpowiedzi na pytanie 1 p(tak) = 4/12 = 1/3, pozostaje niepewność lg 4 = 2 bitów p(nie) = 8/12 = 2/3, pozostaje niepewność lg 8 = 3 bitów Średnia niepewność po otrzymaniu odpowiedzi na pytanie 1 wynosi 1 3 lg 4 + 2 3 lg 8 = 8 2, 667 3 Informacja = redukcja niepewności 0, 918 bitu Adam Doliwa (UWM) Informacja 28-IX-2016 16 / 18

Które pytanie najlepiej zadać? Alicja wybiera jedna liczbę naturalna od 1 do 12. Odpowiedź na które z pytań zmniejszy (średnio) w największym stopniu nasza niepewność na temat jej wyboru? 1 Czy jest to liczba podzielna przez trzy? 2 Czy jest to liczba parzysta? 3 Czy jest to liczba 10? Zanim zadamy pytanie, nasza niepewność co do wybranej liczby wynosi lg 12 3, 585 bitów Analiza odpowiedzi na pytanie 1 p(tak) = 4/12 = 1/3, pozostaje niepewność lg 4 = 2 bitów p(nie) = 8/12 = 2/3, pozostaje niepewność lg 8 = 3 bitów Średnia niepewność po otrzymaniu odpowiedzi na pytanie 1 wynosi 1 3 lg 4 + 2 3 lg 8 = 8 2, 667 3 Informacja = redukcja niepewności 0, 918 bitu Adam Doliwa (UWM) Informacja 28-IX-2016 16 / 18

Analiza odpowiedzi na pytanie 2 p(tak) = 6/12 = 1/2, pozostaje niepewność lg 6 2, 585 bitów p(nie) = 6/12 = 1/2, pozostaje niepewność lg 6 2, 585 bitów Średnia niepewność po otrzymaniu odpowiedzi na pytanie 2 wynosi 1 2 lg 6 + 1 lg 6 = lg 6 2, 585 2 Informacja = redukcja niepewności = lg 12 lg 6 = lg 2 = 1 bit Analiza odpowiedzi na pytanie 3 p(tak) = 1/12, pozostaje niepewność lg 1 = 0 bitów p(nie) = 11/12, pozostaje niepewność lg 11 3, 459 bitów Średnia niepewność po otrzymaniu odpowiedzi na pytanie 3 wynosi 1 11 lg 1 + lg 11 3, 171 12 12 Informacja = redukcja niepewności =lg 12 11 12 lg 11 0, 414 bitu Adam Doliwa (UWM) Informacja 28-IX-2016 17 / 18

Analiza odpowiedzi na pytanie 2 p(tak) = 6/12 = 1/2, pozostaje niepewność lg 6 2, 585 bitów p(nie) = 6/12 = 1/2, pozostaje niepewność lg 6 2, 585 bitów Średnia niepewność po otrzymaniu odpowiedzi na pytanie 2 wynosi 1 2 lg 6 + 1 lg 6 = lg 6 2, 585 2 Informacja = redukcja niepewności = lg 12 lg 6 = lg 2 = 1 bit Analiza odpowiedzi na pytanie 3 p(tak) = 1/12, pozostaje niepewność lg 1 = 0 bitów p(nie) = 11/12, pozostaje niepewność lg 11 3, 459 bitów Średnia niepewność po otrzymaniu odpowiedzi na pytanie 3 wynosi 1 11 lg 1 + lg 11 3, 171 12 12 Informacja = redukcja niepewności =lg 12 11 12 lg 11 0, 414 bitu Adam Doliwa (UWM) Informacja 28-IX-2016 17 / 18

Odpowiedź Najwięcej informacji uzyskamy jeśli zadamy pytanie numer 2 Podsumowanie W najprostszym przypadku logarytm z liczby możliwych odpowiedzi mierzy nasza niepewność co do wyniku obserwacji Jeśli prawdopodobieństwa wyników nie sa równe to miara niepewności jest entropia Informacja przekazana jest równa redukcji niepewności/entropii podczas transmisji Entropia pozwala wyznaczyć granice naszych możliwości w bezstratnej kompresji danych (opowieść o młodym dziennikarzu) W termodynamice entropia jest miara nieuporzadkowania układu i rośnie podczas procesów spontanicznych Organizmy żywe zmniejszaja swoja entropię wykorzystujac energię z zewnatrz i zwiększajac entropię otoczenia Czy jest możliwa zamiana informacji w energię? Adam Doliwa (UWM) Informacja 28-IX-2016 18 / 18