Podręcznik. Wzór Shannona

Podobne dokumenty
MODELOWANIE RZECZYWISTOŚCI

Podręcznik. Przykład 1: Wyborcy

MODELOWANIE RZECZYWISTOŚCI

Układy dynamiczne Chaos deterministyczny

Podręcznik. Nieskończona liczba przypadków

MODELOWANIE RZECZYWISTOŚCI

MODELOWANIE RZECZYWISTOŚCI

MODELOWANIE RZECZYWISTOŚCI

MODELOWANIE RZECZYWISTOŚCI

MODELOWANIE RZECZYWISTOŚCI

MODELOWANIE RZECZYWISTOŚCI

teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015

MODELOWANIE RZECZYWISTOŚCI

Teoria Informacji - wykład. Kodowanie wiadomości

MODELOWANIE RZECZYWISTOŚCI

MODELOWANIE RZECZYWISTOŚCI

teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015

Podręcznik. Model czy teoria

Elementy modelowania matematycznego

Spacery losowe generowanie realizacji procesu losowego

Granica kompresji Kodowanie Shannona Kodowanie Huffmana Kodowanie ciągów Kodowanie arytmetyczne. Kody. Marek Śmieja. Teoria informacji 1 / 35

Temat: Algorytm kompresji plików metodą Huffmana

Wygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje

prawda symbol WIEDZA DANE komunikat fałsz liczba INFORMACJA (nie tyko w informatyce) kod znak wiadomość ENTROPIA forma przekaz

Przepustowość kanału, odczytywanie wiadomości z kanału, poprawa wydajności kanału.

Algorytmy w teorii liczb

MODELOWANIE RZECZYWISTOŚCI

2 Arytmetyka. d r 2 r + d r 1 2 r 1...d d 0 2 0,

GRA Przykład. 1) Zbiór graczy. 2) Zbiór strategii. 3) Wypłaty. n = 2 myśliwych. I= {1,,n} S = {polować na jelenia, gonić zająca} S = {1,,m} 10 utils

Ćwiczenia: Ukryte procesy Markowa lista 1 kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II

Teoria informacji i kodowania Ćwiczenia

Stochastyczna dynamika z opóźnieniem czasowym w grach ewolucyjnych oraz modelach ekspresji i regulacji genów

Modelowanie wieloskalowe. Automaty Komórkowe - podstawy

SCHEMAT ROZWIĄZANIA ZADANIA OPTYMALIZACJI PRZY POMOCY ALGORYTMU GENETYCZNEGO

Metody numeryczne I Równania nieliniowe

Wprowadzenie do środowiska MATLAB z zastosowaniami w modelowaniu i analizie danych

0 + 0 = 0, = 1, = 1, = 0.

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9,

Elementy teorii informacji i kodowania

mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. GOLOMBA I RICE'A

Entropia to wielkość określająca liczbę bitów informacji zawartej w danej wiadomości lub źródle. Spełnia ona trzy naturalne warunki: I(s) jest

Kompresja bezstratna. Entropia. Kod Huffmana

Iteracyjne rozwiązywanie równań

METODY ROZWIĄZYWANIA RÓWNAŃ NIELINIOWYCH

Prognozowanie i Symulacje. Wykład I. Matematyczne metody prognozowania

Modelowanie wieloskalowe. Automaty Komórkowe - podstawy

Algorytm genetyczny (genetic algorithm)-

Metody Rozmyte i Algorytmy Ewolucyjne

Algorytmy genetyczne. Materiały do laboratorium PSI. Studia niestacjonarne

Stochastyczne dynamiki z opóźnieniami czasowymi w grach ewolucyjnych

Metody teorii gier. ALP520 - Wykład z Algorytmów Probabilistycznych p.2

Rozwiązywanie równań nieliniowych

Zadania domowe. Ćwiczenie 2. Rysowanie obiektów 2-D przy pomocy tworów pierwotnych biblioteki graficznej OpenGL

RÓWNANIA NIELINIOWE Maciej Patan

Algorytmy ewolucyjne NAZEWNICTWO

Języki, automaty i obliczenia

Wprowadzenie Metoda bisekcji Metoda regula falsi Metoda siecznych Metoda stycznych RÓWNANIA NIELINIOWE

Kody Tunstalla. Kodowanie arytmetyczne

MODELOWANIE RZECZYWISTOŚCI

Obliczenia inspirowane Naturą

Struktury danych i złożoność obliczeniowa Wykład 7. Prof. dr hab. inż. Jan Magott

11. Gry Macierzowe - Strategie Czyste i Mieszane

ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH

1 Równania nieliniowe

Dynamika nieliniowa i chaos deterministyczny. Fizyka układów złożonych

Algorytmy genetyczne. Materiały do laboratorium PSI. Studia stacjonarne i niestacjonarne

Zaawansowane algorytmy i struktury danych

Maszyna Turinga języki

1 Metody rozwiązywania równań nieliniowych. Postawienie problemu

Elementy inteligencji obliczeniowej

Algorytmy genetyczne w interpolacji wielomianowej

Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych

operacje porównania, a jeśli jest to konieczne ze względu na złe uporządkowanie porównywanych liczb zmieniamy ich kolejność, czyli przestawiamy je.

Imię, nazwisko, nr indeksu

Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład Kody liniowe - kodowanie w oparciu o macierz parzystości

FRAKTALE I SAMOPODOBIEŃSTWO

Biostatystyka, # 3 /Weterynaria I/

Kodowanie informacji

Techniki multimedialne

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe

Kompresja danych kodowanie Huffmana. Dariusz Sobczuk

Entropia Kodowanie. Podstawy kompresji. Algorytmy kompresji danych. Sebastian Deorowicz

Instytut Informatyki Uniwersytet Wrocławski. Dane w sieciach. (i inne historie) Marcin Bieńkowski

Podstawowe pojęcia. Teoria informacji

Algorytmy mrówkowe (optymalizacja kolonii mrówek, Ant Colony optimisation)

Przykład: Σ = {0, 1} Σ - zbiór wszystkich skończonych ciagów binarnych. L 1 = {0, 00, 000,...,1, 11, 111,... } L 2 = {01, 1010, 001, 11}

Wybrane metody przybliżonego. wyznaczania rozwiązań (pierwiastków) równań nieliniowych

Automaty komórkowe. Katarzyna Sznajd-Weron

Teoria Informacji i Metody Kompresji Danych

Optymalizacja ciągła

Teoria gier. prof. UŚ dr hab. Mariusz Boryczka. Wykład 4 - Gry o sumie zero. Instytut Informatyki Uniwersytetu Śląskiego

ODWZOROWANIE RZECZYWISTOŚCI

Tematy prac magisterskich i doktorskich

PRZYKŁADY ZADAŃ MATURALNYCH Z MATEMATYKI NA POSZCZEGÓLNE STANDARDY DLA WYBRANYCH TREŚCI PROGRAMOWYCH Z POZIOMU PODSTAWOWEGO I ROZSZERZONEGO

Matematyka dyskretna

Chaotyczne generatory liczb pseudolosowych

Teoria Chaosu. Proste modele ze złożonym zachowaniem: o teorii chaosu w ekologii.

Rozkład Gaussa i test χ2

Stanisław Cichocki. Natalia Neherebecka. Zajęcia 15-17

Deska Galtona. Adam Osękowski. Instytut Matematyki, Wydział Matematyki, Informatyki i Mechaniki Uniwersytet Warszawski

Transkrypt:

MODELOWANIE RZECZYWISTOŚCI Daniel Wójcik Instytut Biologii Doświadczalnej PAN d.wojcik@nencki.gov.pl tel. 5892 424 http://www.neuroinf.pl/members/danek/swps/ Iwo Białynicki-Birula Iwona Białynicka-Birula ISBN: 83-7255-103-0 Data wydania: 6 maja 2002 Podręcznik Informacja i niepewność Matematyczna teoria informacji zajmuje się pojemnością kanału transmisji informacji, zupełnie abstrahuje od znaczenia, wartości i sensu przekazywanej informacji. Informacja i niepewność to dwie strony tego samego medalu: zdobywając informację usuwamy niepewność i na odwrót, tracąc informację powiększamy niepewność. Im większa niepewność co do poszukiwanego wyniku, tym więcej informacji zdobywamy poznając ten wynik. Bit Miarą informacji jest bit skrót od binary digit. Jest to miara informacji otrzymanej w odpowiedzi na elementarne pytanie, to jest pytanie na które odpowiedź może brzmieć tylko tak lub nie. Większe jednostki to bajt, kilobajt, megabajt, itd. UWAGA: kilometr to 1000=10 3 metrów kilobajt to 1024 = 2 10 bajtów Wzór Shannona Zawartość informacyjna przekazu złożonego z n znaków wyrażona jest przez prawdopodobieństwa występowania tych znaków p i n H= p i log 2 p i i=1 Wielkość H oznacza informację mierzoną w bitach. Nazywa się ją entropią informacyjną. P log(p)

Własności informacji Informacja, jaka może być zawarta w danym ciągu znaków jest proporcjonalna do długości tego ciągu. (Informacja jest wielkością ekstensywną) Przyjmijmy, że informacja jest zapisana w alfabecie binarnym (0,1) Słowem binarnym jest ciąg zer i jedynek o długości N. Liczba N mierzy objętość nośnika informacji. Informacja zawarta w słowie jest proporcjonalna do N. Dlaczego logarytm Wybieramy jednostkę informacji tak, że Informacja H = Długość_słowa_binarnego Przy takim wyborze słowo złożone z jednego znaku niesie jeden bit informacji. Istnieje 2 N słów binarnych o długości N znaków. Zatem Długość_słowa = log 2 (Liczba_słów) Dlaczego logarytm cd Jeżeli prawdopodobieństwo wystąpienia każdego słowa jest takie samo, to wynosi ono p=1/liczba_słów Wobec tego informacja zawarta w pojedynczym słowie wynosi H = - log 2 (p) Gra w 20 pytań Miara informacji jest równa liczbie pytań potrzebnych do odgadnięcia słowa Rozważmy uproszczoną sytuację, kiedy jest 2 N równoprawdopodobnych słów o długości N. Ponumerujmy je wszystkie liczbami naturalnymi od 1 do 2 N. Mamy 2 N zakrytych komórek. W jednej z nich jest skarb. Znalezienie skarbu jest tym samym co odgadnięcie słowa. Najprostsza strategia 20 pytań cd Liczba pytań potrzebna do uzyskania pełnej informacji równa jest początkowej niepewności Na ogół prawdopodobieństwa wystąpienia różnych słów nie są takie same. Kiedy mamy odgadnąć słowo postaci KU_A nie wiemy, czy jest to KUFA, KULA, KUMA, KUNA, KUPA czy KURA. Kiedy mamy słowo postaci ŚW_T, to nie ma problemu.

Rozkład 1 Rozważmy skarb ukryty w jednej z 4 komórek, z prawdopodobieństwami = 0.5, p 2 = 0.25, p 3 = 0.125, p 4 = 0.125 Pierwotna strategia daje średnio 2 pytania do osiągnięcia sukcesu Lepsza strategia: Czy skarb jest w pierwszej komórce? Czy skarb jest w drugiej komórce? Czy skarb jest w trzeciej komórce? Średnio prowadzi ona do 1*0.5+2*0.25+3*0.25=7/4 < 2 pytań zatem jest lepsza od bisekcji. Rozkład 2 Rozważmy rozkład 6 komórkowy: = 1/3, p 2 = 1/5, p 3 = 1/5, p 4 = 2/15, p 5 = 1/15, p 6 = 1/15 Średnia liczba pytań wynosi tu 37/15 Rozkład 2 druga strategia Rozważmy rozkład 6 komórkowy: = 1/3, p 2 = 1/5, p 3 = 1/5, p 4 = 2/15, p 5 = 1/15, p 6 = 1/15 Średnia liczba pytań wynosi tu 36/15 Optymalna strategia algorytm Huffmana Z początkowego rozkładu p 0, 1 p0,..., 2 p0 n wybieramy dwa najmniej prawdopodobne zdarzenia p 0 oraz i p0. j Łączymy je w jedno o prawdopodobieństwie, mamy nowy rozkład k p1, 1 p1,..., 2 p1 n-1 Powtarzamy procedurę n-1 razy W ten sposób, od dołu, powstaje optymalne drzewo pytań. Przykład działania strategii Zaczynamy od rozkładu p 0 =1/3, 1 p0 =1/5, 2 p 0 =1/5, 3 p0 =2/15, 4 p0 =1/15, 5 p0 =1/15 6 Łączymy p 0 i 5 p0 w 6 p1. Dostajemy: 5 =1/3, 1 p1 =1/5, 2 p1 =1/5, 3 p1 =2/15, 4 p1 =2/15 5 Łączymy i 4 p1 w 5 p2. Dostajemy: 4 p 2 =1/3, 1 p2 =1/5, 2 p2 =1/5, 3 p2 =4/15 4 Łączymy p 2 i 2 p2 w 3 p3. Dostajemy: 3 p 3 =1/3, 1 p3 =4/15, 2 p3 =6/15 3 Łączymy p 3 i 1 p3 w 2 p4. Dostajemy: 2 p 4 =9/15, 1 p4 =6/15 2 Rozkład 2 trzecia strategia Rozważmy rozkład 6 komórkowy: = 1/3, p 2 = 1/5, p 3 = 1/5, p 4 = 2/15, p 5 = 1/15, p 6 = 1/15 Średnia liczba pytań wynosi tu również 36/15

Porównanie dwóch ostatnich strategii Rozważmy rozkład 6 komórkowy: = 1/3, p 2 = 1/5, p 3 = 1/5, p 4 = 2/15, p 5 = 1/15, p 6 = 1/15 Średnia liczba pytań wynosi dla obu strategii 36/15 Średnia informacja Nasze rozważania pokazują, że entropia Shannona mierzy średnią informację obliczoną w przypadku, gdy znane są wszystkie prawdopodobieństwa elementarne. Ogólne twierdzenie o bezszumowym kodowaniu możemy sformułować tak: Nie istnieje strategia o średnio mniejszej liczbie pytań niż entropia Shannona Doświadczenia Hymana R. Hyman pokazał, że czas reakcji na bodźce o określonej zawartości informacji jest proporcjonalny do entropii Shannona. Program Hyman Układ dynamiczny Układ: zbiór obiektów, których zmiany w czasie chcemy badać Dynamiczny: zmieniający się w czasie zgodnie z pewną regułą Typy układów dynamicznych Układy deterministyczne Układy autonomiczne Układy zależne od czasu Układy losowe (stochastyczne) Przykład 1: Wyborcy Stan układu: Preferencje wyborcze grupy respondentów Ewolucja: Zmiany preferencji następują na skutek kontaktów międzyludzkich

Przykład 2: Płatek śniegu Automat komórkowy na sieci o strukturze plastra miodu Ten sam stan początkowy zawsze daje ten sam stan końcowy (układ deterministyczny) Płatek śniegu Płatek śniegu Reguła: Nowy fragment powstaje w komórce sieci, która ma dokładnie jednego zmarzniętego sąsiada Ewolucja układu dynamicznego Rozwój w czasie układu dynamicznego opisuje równanie ewolucji w postaci wzoru iteracyjnego X n 1 =F p X n X n i X n+1 opisują stan układu w chwili n i n+1 F p określa jakim zmianom ulega stan układu w kolejnych krokach iteracji Przykład 3: algorytm Newtona Jak policzyć pierwiastek z a? Należy wybrać dowolną liczbę i iterować ją zgodnie z regułą x n 1 = 1 2 x n a x n Dlaczego? Jeżeli x a to a x a, a więc i na odwrót. a x a Weźmy x 0 =2 Wtedy x 1 =1,5 Przykład 3: pierwiastek z 2 x 2 =1,416 x 3 =1,414215 X 4 =1,414213562374 x 5 =1,414213562373095048801689... I tak dalej

Kilka pojęć Punkt stały: stan układu, który się nie zmienia z czasem Atraktor: stan, do którego układ dąży z czasem Dorzecze (basen) atraktora: zbiór stanów początkowych, które dążą do danego atraktora Przykład basenów atraktora Rozważmy odwzorowanie płaszczyzny x t 1 = 2 3 x t 1 2 2 x t y t 3 x 2 t y 2 t 2 y t 1 = 2 3 y 1 2 x t y t t 3 x 2 t y 2 t 2 To odwzorowanie ma trzy atraktory: 1,0, 1 2, 3 2, 1 2, 3 2 Baseny pierwiastków jedynki Model Ehrenfesta: psy i pchły N pcheł siedzi na dwóch psach: na Azorze A n, a na Burku B n Co chwilę jedna z pcheł podejmuje decyzję o przeskoku z jednego psa na drugiego Jak zmienia się rozkład pcheł? A n+1 = A n 1 z prawdopodobieństwem A n /N A n+1 = A n + 1 z prawdopodobieństwem (N-A n )/N Determinizm a losowość Większość procesów w przyrodzie ma składowe deterministyczną i losową Jeżeli szum jest nieduży, modelujemy układ jako ściśle deterministyczny Jeżeli szum jest dominujący, modelujemy układ jako proces stochastyczny W ogólności Jesteśmy bez szans...

Chaos deterministyczny Proste iteracje odwzorowań: Funkcja liniowa Funkcja logistyczna Układy z ciągłym czasem Wpływ topologii na ewolucję Przykład: funkcja liniowa Rozważmy populację much. Oznaczmy liczbę much w roku n-tym przez x n. Załóżmy, że na każdą muchę w pokoleniu n średnio przypada R much w pokoleniu następnym. Wtedy ewolucja much jest dana przez: x n 1 =R x n Przykład: funkcja liniowa Stały wzrost (R>1) Stały rozpad (R<1) x n =R n x 0 Przykład: funkcja logistyczna Model liniowy jest zbyt dużym uproszczeniem. Wzrost populacji zwykle ograniczony jest przez czynniki zewnętrzne: drapieżców, ograniczone zasoby, itp. Biorąc pod uwagę skończoną ilość dostępnego pożywienia dostajemy model zwany logistycznym. Jeżeli wzrost R jest pomniejszony o wielkość proporcjonalną do x n to dostajemy: x n 1 = R a x n x n y n 1 =r 1 y n y n W obszarze regularnym (r = 2.5) W obszarze regularnym (r = 3.2) Szereg czasowy W obszarze regularnym (r = 3.5) W obszarze chaotycznym (r = 3.7) Szereg czasowy

Wykres bifurkacyjny Dla mapy logistycznej Chaos deterministyczny Czuła zależność od warunków początkowych: Rysunek pokazuje różnicę między historią dwóch populacji różniących się początkowo o 0.0000001