Entropia w układach dynamicznych Środowiskowe Studia Doktoranckie z Nauk Matematycznych Uniwersytet Jagielloński, Kraków, marzec-kwiecień 2013

Podobne dokumenty
Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe

Podstawy metod probabilistycznych. dr Adam Kiersztyn

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe

Zadania do Rozdziału X

Chaotyczne generatory liczb pseudolosowych

Dyskretne procesy stacjonarne o nieskończonej entropii nadwyżkowej

G. Plebanek, MIARA I CAŁKA Zadania do rozdziału 1 28

Procesy stochastyczne

Robert Kowalczyk. Zbiór zadań z teorii miary i całki

Procesy stochastyczne

Rachunek prawdopodobieństwa (Elektronika, studia niestacjonarne) Wykład 1

Prawdopodobieństwo. Prawdopodobieństwo. Jacek Kłopotowski. Katedra Matematyki i Ekonomii Matematycznej SGH. 16 października 2018

Metody probabilistyczne

Wstęp do rachunku prawdopodobieństwa

Statystyka i eksploracja danych

Rodzinę spełniającą trzeci warunek tylko dla sumy skończonej nazywamy ciałem (algebrą) w zbiorze X.

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności

A i. i=1. i=1. i=1. i=1. W dalszej części skryptu będziemy mieli najczęściej do czynienia z miarami określonymi na rodzinach, które są σ - algebrami.

Zmienna losowa i jej rozkład Dystrybuanta zmiennej losowej Wartość oczekiwana zmiennej losowej

Teoria miary i całki

2. P (E) = 1. β B. TSIM W3: Sygnały stochastyczne 1/27

WYKŁAD 1. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Instytut Matematyki Uniwersytet Warszawski

Prawa wielkich liczb, centralne twierdzenia graniczne

Teoria Informacji - wykład. Kodowanie wiadomości

Rachunek Prawdopodobieństwa Rozdział 5. Rozkłady łączne

PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω)

Spacery losowe generowanie realizacji procesu losowego

Metody probabilistyczne

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

ZADANIA PRZYGOTOWAWCZE DO EGZAMINU Z UKŁADÓW DYNAMICZNYCH

Rachunek prawdopodobieństwa Rozdział 2. Aksjomatyczne ujęcie prawdopodobieństwa

Wykłady ostatnie. Rodzinę P podzbiorów przestrzeni X nazywamy σ - algebrą, jeżeli dla A, B P (2) A B P, (3) A \ B P,

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014

1 Relacje i odwzorowania

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka

Rachunek prawdopodobieństwa- wykład 6

Teoria ergodyczna. seminarium monograficzne dla studentów matematyki. dr hab. Krzysztof Barański i prof. dr hab. Anna Zdunik. rok akad.

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe

Statystyka i eksploracja danych

Wykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga

WYKŁAD 3. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

Wygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje

Prawdopodobieństwo i statystyka

Maksymalne powtórzenia w tekstach i zerowa intensywność entropii

Teoria miary. WPPT/Matematyka, rok II. Wykład 5

Wykład 1: Przestrzeń probabilistyczna. Prawdopodobieństwo klasyczne. Prawdopodobieństwo geometryczne.

Prawdopodobieństwo i statystyka

Wstęp do układów statycznych

7 Twierdzenie Fubiniego

Liczba obrotu i twierdzenie Poincare go o klasyfikacji homeomorfizmów okręgu.

1. Struktury zbiorów 2. Miara 3. Miara zewnętrzna 4. Miara Lebesgue a 5. Funkcje mierzalne 6. Całka Lebesgue a. Analiza Rzeczywista.

Kodowanie i entropia

Literatura. Leitner R., Zacharski J., Zarys matematyki wyŝszej dla studentów, cz. III.

Kompresja bezstratna. Entropia. Kod Huffmana

Detekcja rozkładów o ciężkich ogonach

Ogólnopolska Konferencja Naukowa Zagadnienia Aktuarialne - Teoria i praktyka Warszawa, 9 11 czerwca 2008

Co ma piekarz do matematyki?

Rachunek prawdopodobieństwa (Elektronika, studia niestacjonarne) Wykład 3

Teoria miary WPPT IIr. semestr zimowy 2009 Wyk lady 6 i 7. Mierzalność w sensie Carathéodory ego Miara Lebesgue a na prostej

L.O. św. Marii Magdaleny w Poznaniu, O POŻYTKACH PŁYN ACYCH Z RZUCANIA MONETA. Tomasz Łuczak

RACHUNEK PRAWDOPODOBIEŃSTWA - POJĘCIA WSTĘPNE MATERIAŁY POMOCNICZE - TEORIA

MNRP r. 1 Aksjomatyczna definicja prawdopodobieństwa (wykład) Grzegorz Kowalczyk

Rodzinę F złożoną z podzbiorów zbioru X będziemy nazywali ciałem zbiorów, gdy spełnione są dwa następujące warunki.

Rekurencyjna przeliczalność

teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne

Rachunek prawdopodobieństwa Rozdział 2. Aksjomatyczne ujęcie prawdopodobieństwa

Granica kompresji Kodowanie Shannona Kodowanie Huffmana Kodowanie ciągów Kodowanie arytmetyczne. Kody. Marek Śmieja. Teoria informacji 1 / 35

7. Miara, zbiory mierzalne oraz funkcje mierzalne.

Tablice z haszowaniem

Chaos w układach dynamicznych: miary i kryteria chaosu

Prawdopodobieństwo i statystyka

3. Podstawowe pojęcia statystyki matematycznej i rachunku prawdopodobieństwa wykład z Populacja i próba

Rachunek prawdopodobieństwa- wykład 2

Wykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa

Wykład 2 Zmienne losowe i ich rozkłady

Centralne twierdzenie graniczne

PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA. Piotr Wiącek

n=0 Dla zbioru Cantora prawdziwe są wersje lematu 3.6 oraz lematu 3.8 przy założeniu α = :

Matematyka dyskretna. Andrzej Łachwa, UJ, A/10

TEORIA ERGODYCZNA. Bartosz Frej Instytut Matematyki i Informatyki Politechniki Wrocławskiej

Algorytmy MCMC i ich zastosowania statystyczne

R n jako przestrzeń afiniczna

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe

Systemy liczbowe. Bibliografia: Urządzenia techniki komputerowej, K. Wojtuszkiewicz

Rozkłady prawdopodobieństwa

Entropia Kodowanie. Podstawy kompresji. Algorytmy kompresji danych. Sebastian Deorowicz

czyli o szukaniu miejsc zerowych, których nie ma

Prawdopodobieństwo i statystyka Wykład I: Przestrzeń probabilistyczna

Temat: Algorytm kompresji plików metodą Huffmana

Tablice z haszowaniem

Zmienne losowe i ich rozkłady

Wykład 2 Hipoteza statystyczna, test statystyczny, poziom istotn. istotności, p-wartość i moc testu

Deska Galtona. Adam Osękowski. Instytut Matematyki, Wydział Matematyki, Informatyki i Mechaniki Uniwersytet Warszawski

RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 1. L. Kowalski, Statystyka, 2005

WYKŁAD 2. Zdarzenia losowe i prawdopodobieństwo Zmienna losowa i jej rozkłady

Proces rezerwy w czasie dyskretnym z losową stopą procentową i losową składką

Teoria systemów uczacych się i wymiar Vapnika-Chervonenkisa

Estymacja parametrów w modelu normalnym

Transkrypt:

Entropia w układach dynamicznych Środowiskowe Studia Doktoranckie z Nauk Matematycznych Uniwersytet Jagielloński, Kraków, marzec-kwiecień 2013 Tomasz Downarowicz Instytut Matematyki i Informatyki Politechniki Wrocławskiej Część I: Entropia w teorii ergodycznej i Twierdzenie Shannona McMillana Breimana Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 1 / 26

Literatura podstawowa: ENTROPY IN DYNAMICAL SYSTEMS New Mathematical Monographs: 18 Cambridge University Press 2011 PART I: Entropy in Ergodic Theory PART II: Entropy in Topological Dynamics Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 2 / 26

Co to jest informacja? Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 3 / 26

Co to jest informacja? Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 3 / 26

Co to jest informacja? Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 3 / 26

Co to jest informacja? Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 3 / 26

Co to jest informacja? Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 3 / 26

Co to jest informacja? Ile to było informacji? Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 4 / 26

Co to jest informacja? Ile to było informacji? jedna z dwóch możliwości = JEDEN BIT Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 4 / 26

Co to jest informacja? Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 5 / 26

Co to jest informacja? Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 5 / 26

Co to jest informacja? Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 5 / 26

Co to jest informacja? jedna z czterech możliwości = DWA BITY Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 5 / 26

Co to jest informacja? Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 5 / 26

Co to jest informacja? jedna z trzech możliwości = PÓŁTORA BITU Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 5 / 26

Co to jest informacja? NIE NIE WSZYTSKIE WIELKOŚCI NA TYM ŚWIECIE SA LINIOWE!!! Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 5 / 26

Co to jest informacja? 0 BITÓW = 1 możliwość 1 BIT = 2 możliwości 2 BITY = 4 możliwości 3 BITY = 8 możliwości itd. # BITÓW = log 2 (# możliwości) 3 możliwości = log 2 (3) BITÓW 1.585 BITÓW Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 6 / 26

Co to jest informacja? CZY WYGRAŁEM? (TAK/NIE) Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 7 / 26

Co to jest informacja? NIE - 999999 z miliona możliwości TO BYŁO DO PRZEWIDZENIA... (była prawie na pewno tylko ta jedna możliwość prawie niczego nowego nie dowiedzieliśmy się) Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 8 / 26

Co to jest informacja? TAK - możliwość jedna na milion HURRRA!!! (duża ilość informacji) Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 8 / 26

Co to jest informacja? TAK - możliwość jedna na milion HURRRA!!! (duża ilość informacji) # BITÓW = log 2 (1000000) 19, 9 BITÓW Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 8 / 26

Co to jest informacja? NIE - 999999 z miliona możliwości TO BYŁO DO PRZEWIDZENIA... (była prawie na pewno tylko ta jedna możliwość prawie niczego nowego nie dowiedzieliśmy się) # BITÓW =??? Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 8 / 26

Co to jest informacja? TAK - możliwość jedna na milion HURRRA!!! (duża ilość informacji) # BITÓW = log 2 (1000000) 19, 9 BITÓW log 2 (1000000) = log 2 ( 1 1000000 ) = log 2 (prawdopodobieństwo wygranej) Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 8 / 26

Co to jest informacja? NIE - 999999 z miliona możliwości TO BYŁO DO PRZEWIDZENIA... (była prawie na pewno tylko ta jedna możliwość prawie niczego nowego nie dowiedzieliśmy się) # BITS = log 2 (prawdopodobieństwo przegranej) = log 2 ( 999999 1000000 ) 0, 0000014 BITÓW Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 8 / 26

Funkcja informacji Shannona DEFINICJA 1 Jeśli Ω jest przeliczalna przestrzenia probabilistyczna o atomach x 1, x 2,... o prawdopodobieństwach P(x i ), (i = 1, 2,...), to stowarzyszona funkcja informacji na Ω jest zdefiniowana jako I(x i ) = log 2 (P(x i )). Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 9 / 26

Funkcja informacji Shannona DEFINICJA 1 Jeśli Ω jest przeliczalna przestrzenia probabilistyczna o atomach x 1, x 2,... o prawdopodobieństwach P(x i ), (i = 1, 2,...), to stowarzyszona funkcja informacji na Ω jest zdefiniowana jako I(x i ) = log 2 (P(x i )). Jeśli Ω jest skończona i ma n elementów o jednakowych prawdopodobieństwach 1 n to funkcja informacji jest stała i równa log 2 (n). Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 9 / 26

Funkcja informacji Shannona DEFINICJA 2 Jeśli (Ω,Σ,µ) jest (być może bezatomowa) przestrzenia probabilistyczna,p ={P 1, P 2,...} jest przeliczalnym (lub skończonym) rozbiciem mierzalnym Ω, to stowarzyszona funkcja informacji na Ω jest zadana wzorem I P (x) = log 2 (µ(p x )), gdzie P x oznacza jedyny element rozbiciap zawierajacy x. Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 10 / 26

Funkcja informacji Shannona Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 11 / 26

Funkcja informacji Shannona Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 11 / 26

Funkcja informacji Shannona Where are you? Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 11 / 26

Funkcja informacji Shannona Where are you? Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 11 / 26

Funkcja informacji Shannona Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 11 / 26

Funkcja informacji Shannona x B, I P (x) = logµ(b) Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 11 / 26

Entropia Shannona rozbicia DEFINICJA 3 Jeśli (Ω,Σ,µ) jest (być może bezatomowa) przestrzenia probabilistyczna,p ={P 1, P 2,...} jest przeliczalnym (lub skończonym) rozbiciem mierzalnym Ω, to entropia Shannona rozbicia P nazywamy wartość oczekiwana funkcji entropii: H(P) = I P dµ = µ(p i ) log 2 µ(p i ) i (Jest to średna po przestrzeni ilość informacji dostarczona przez rozbicie.) Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 12 / 26

PRZYKŁAD Rozważmy następujace dwie bitmapy Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 13 / 26

PRZYKŁAD Rozważmy następujace dwie bitmapy Maja one te samy rozmiary (a nawet tę sama proporcję piksli czarnych do białych). Zatem każda z nich niesie tyle samo informacji w sensie Shannona, równa liczbie piksli. A jednak... Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 13 / 26

PRZYKŁAD Rozważmy następujace dwie bitmapy Dowolny program pakujacy (np. Winzip albo RAR) skompresuje bitmapę po lewej mniej więcej 5 razy bardziej niż tę po prawej. Dlaczego? Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 13 / 26

PRZYKŁAD Rozważmy następujace dwie bitmapy Wyobraźmy sobie, że chcemy przez telefon wytłumaczyć komuś jak wyglada bitmapa, tak aby odbiorca mógł ja precyzyjnie odtworzyć... Ile INFORMACJI musimy przekazać dla każdej z nich? Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 13 / 26

Co powoduje, że te dwie bitmapy tak bardzo się różnia zawartościa informacyjna, skoro obie zawieraja tyle samo informacji w sensie Shannona? Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 14 / 26

Co powoduje, że te dwie bitmapy tak bardzo się różnia zawartościa informacyjna, skoro obie zawieraja tyle samo informacji w sensie Shannona? Odpowiedzi dostarcza tzw. entropia dynamiczna i Twierdzenie Shannona McMillana Breimana. Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 14 / 26

Układy dynamiczne Teraz będziemy zakładać, że na naszej przestrzeni probabilistycznej (Ω,Σ,µ) mamy określona transformację mierzalna T : Ω Ω zachowujac a miaręµ, tzn. taka, żeµ(t 1 (A)) =µ(a) dla każdego zbioru mierzalnego A Σ. Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 15 / 26

Układy dynamiczne Teraz będziemy zakładać, że na naszej przestrzeni probabilistycznej (Ω,Σ,µ) mamy określona transformację mierzalna T : Ω Ω zachowujac a miaręµ, tzn. taka, żeµ(t 1 (A)) =µ(a) dla każdego zbioru mierzalnego A Σ. PRZYKŁAD Niech Ω ={0, 1} N, T = przesunięcie (T(x 1, x 2,...) = (x 2, x 3,...)) i niechµbędzie pewna miara niezmiennicza na przesunięcie T. Każda taka miara jest zadana przez swoje wartości na cylindrach C = [c 1, c 2,...,c n ]. Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 15 / 26

Przepływ informacji w układzie dynamicznym Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 16 / 26

Przepływ informacji w układzie dynamicznym Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 16 / 26

Przepływ informacji w układzie dynamicznym Where are you? Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 16 / 26

Przepływ informacji w układzie dynamicznym Where are you? Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 16 / 26

Przepływ informacji w układzie dynamicznym Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 16 / 26

Przepływ informacji w układzie dynamicznym x B, I P (x) = logµ(b) Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 16 / 26

Przepływ informacji w układzie dynamicznym Where are you going? Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 16 / 26

Przepływ informacji w układzie dynamicznym Where are you going? Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 16 / 26

Przepływ informacji w układzie dynamicznym Where are you going? Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 16 / 26

Przepływ informacji w układzie dynamicznym Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 16 / 26

Przepływ informacji w układzie dynamicznym Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 16 / 26

Przepływ informacji w układzie dynamicznym x B T 1 (A), I P 2(x) = logµ(b T 1 (B)) Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 16 / 26

Ciag funkcji informacji Shannona w układzie dynamicznym DEFINICJA 4 Niech (Ω,Σ,µ) będzie przestrzenia probabilistyczna i niech T : Ω Ω będzie mierzalna transformacja zachowujac a miarę. Niech P ={P 1, P 2,...} będzie przeliczalnym rozbiciem mierzalnym przestrzeni Ω. Wtedy funkcja informacji po n krokach na Ω jest zdefiniowana jako I P n(x) = log 2 (µ(px)), n gdzie P n x = P x T 1 (P Tx ) T 2 (P T 2 x ) T n+1 (P T n 1 x ) (jest to jedyny element rozbiciap n := n 1 i=0 T i (P) zawierajacy x i nazywa się on n-cylindrem wokół x). Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 17 / 26

PRZYKŁAD x [0, 1] Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 18 / 26

PRZYKŁAD x [0, 1] x = 0.765900862... Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 18 / 26

PRZYKŁAD x [0, 1] x = 0.765900862... Aby z cała precyzja zidentyfikować punkt x potrzebujemy nieskończonej ilości informacji. Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 18 / 26

PRZYKŁAD x [0, 1] x = 0.765900862... Aby z cała precyzja zidentyfikować punkt x potrzebujemy nieskończonej ilości informacji. Z każda cyfra zyskujemy ilość informacji równa log 2 (10) BITÓW. Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 18 / 26

PRZYKŁAD x [0, 1] x = 0.765900862... Aby z cała precyzja zidentyfikować punkt x potrzebujemy nieskończonej ilości informacji. Z każda cyfra zyskujemy ilość informacji równa log 2 (10) BITÓW. Odpowiada to przepływowi informacji w następujacym ukł. dyn.: Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 18 / 26

PRZYKŁAD x [0, 1] x = 0.765900862... Aby z cała precyzja zidentyfikować punkt x potrzebujemy nieskończonej ilości informacji. Z każda cyfra zyskujemy ilość informacji równa log 2 (10) BITÓW. Odpowiada to przepływowi informacji w następujacym ukł. dyn.: T : [0, 1] [0, 1], T(x) = 10x mod 1, gdzieµjest miara Lebesgue a Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 18 / 26

PRZYKŁAD x [0, 1] x = 0.765900862... Aby z cała precyzja zidentyfikować punkt x potrzebujemy nieskończonej ilości informacji. Z każda cyfra zyskujemy ilość informacji równa log 2 (10) BITÓW. Odpowiada to przepływowi informacji w następujacym ukł. dyn.: T : [0, 1] [0, 1], T(x) = 10x mod 1, gdzieµjest miara Lebesgue a T(0.765900862...) = 0.65900862..., T 2 (0.765900862...) = T(0.65900862...) = 0.5900862... Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 18 / 26

PRZYKŁAD x [0, 1] x = 0.765900862... Aby z cała precyzja zidentyfikować punkt x potrzebujemy nieskończonej ilości informacji. Z każda cyfra zyskujemy ilość informacji równa log 2 (10) BITÓW. Odpowiada to przepływowi informacji w następujacym ukł. dyn.: T : [0, 1] [0, 1], T(x) = 10x mod 1, gdzieµjest miara Lebesgue a T(0.765900862...) = 0.65900862..., T 2 (0.765900862...) = T(0.65900862...) = 0.5900862... P ={[0, 0.1),[0.1, 0.2),...,[0.9, 1]} Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 18 / 26

Entropia dynamiczna rozbicia Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 19 / 26

Entropia dynamiczna rozbicia P n (x) = {punkty, które daja te same odpowiedzi co x przez n kroków} Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 19 / 26

Entropia dynamiczna rozbicia P n (x) = {punkty, które daja te same odpowiedzi co x przez n kroków} I P n(x) = logµ(p n (x)) Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 19 / 26

Entropia dynamiczna rozbicia P n (x) = {punkty, które daja te same odpowiedzi co x przez n kroków} I P n(x) = logµ(p n (x)) H(P n ) := I P n dµ (średnia po przestrzeni ilość informacji w n krokach) Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 19 / 26

Entropia dynamiczna rozbicia P n (x) = {punkty, które daja te same odpowiedzi co x przez n kroków} I P n(x) = logµ(p n (x)) H(P n ) := I P n dµ (średnia po przestrzeni ilość informacji w n krokach) DEFINICJA 5 Entropia dynamiczna rozbicia P jest zdefiniowana jako h(t,p) := lim n 1 n H(Pn ). Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 19 / 26

Entropia dynamiczna rozbicia P n (x) = {punkty, które daja te same odpowiedzi co x przez n kroków} I P n(x) = logµ(p n (x)) H(P n ) := I P n dµ (średnia po przestrzeni ilość informacji w n krokach) DEFINICJA 5 Entropia dynamiczna rozbicia P jest zdefiniowana jako h(t,p) := lim n 1 n H(Pn ). Entropię dynamiczna interpretujemy jako średni po przestrzeni i po czasie przyrost informacji w jednym kroku. Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 19 / 26

PRZYKŁAD Zacznijmy od podziału kwadratu na równe zbiory. Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 20 / 26

PRZYKŁAD Zacznijmy od podziału kwadratu na równe zbiory. h(p) = log 4 Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 20 / 26

PRZYKŁAD Niech T 1 (P) wyglada tak: Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 20 / 26

PRZYKŁAD Niech T 1 (P) wyglada tak: Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 20 / 26

PRZYKŁAD WtedyP 2 wyglada tak: Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 20 / 26

PRZYKŁAD WtedyP 2 wyglada tak: Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 20 / 26

PRZYKŁAD WtedyP 2 wyglada tak: h(p 2 ) = log 16 = 2 log 4 Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 20 / 26

PRZYKŁAD WtedyP 2 wyglada tak: h(p 2 ) = log 16 = 2 log 4 w tym kroku przybyło DUŻO entropii (log 4) Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 20 / 26

PRZYKŁAD A teraz wróćmy do poczatku. Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 20 / 26

PRZYKŁAD Niech tym razem T 1 (P) wyglada tak: Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 20 / 26

PRZYKŁAD Niech tym razem T 1 (P) wyglada tak: Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 20 / 26

PRZYKŁAD WtedyP 2 wyglada tak: Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 20 / 26

PRZYKŁAD WtedyP 2 wyglada tak: Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 20 / 26

PRZYKŁAD WtedyP 2 wyglada tak: h(p 2 ) = log 8 = log 4+log 2 Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 20 / 26

PRZYKŁAD WtedyP 2 wyglada tak: h(p 2 ) = log 8 = log 4+log 2 w tym kroku przybyło ZNACZNIE MNIEJ entropii (log 2) Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 20 / 26

WNIOSEK Entropia dynamiczna jest duża, jeśli kolejne przeciwobrazy rozbicia sa wzajemnie niezależne (lub bliskie niezależności). Oznacza to, że kolejne symbole w reprezentacji typowego punktu pojawiaja się losowo. Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 21 / 26

WNIOSEK Entropia dynamiczna jest duża, jeśli kolejne przeciwobrazy rozbicia sa wzajemnie niezależne (lub bliskie niezależności). Oznacza to, że kolejne symbole w reprezentacji typowego punktu pojawiaja się losowo. Mała entropia dynamiczna oznacza, że kolejne symbole sa zależne (z dużym prawdopodobieństwem przewidywalne na podstawie poprzednich symboli). Oznacza to wysoka organizację (niska losowość) układu. Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 21 / 26

Twierdzenie Shannona McMillana Breimana Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 22 / 26

Twierdzenie Shannona McMillana Breimana TWIERDZENIE 1 Jeśli µ jest ergodyczna, to 1 n I P n(x) µ a.e. h(t,p) n Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 22 / 26

Twierdzenie Shannona McMillana Breimana TWIERDZENIE 1 Jeśli µ jest ergodyczna, to 1 n I P n(x) µ a.e. h(t,p) n To znaczy, średni przyrost informacji w jednym kroku nie zależy od punktu poczatkowego (nie trzeba uśredniać po przestrzeni). Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 22 / 26

PRZYKŁAD Niech Ω ={0, 1} N, T = przesunięcie i niechµbędzie ergodyczna miara niezmiennicza na przesunięcie T. Wtedy dlaµ-prawie każdego punktu x = (x 1, x 2,...) miara długiego cylindra wokół x, x[1, n] := [x 1, x 2,...,x n ], wynosi w przybliżeniu 2 nh(t,p), gdziep jest dwu-elementowym rozbiciem{[0],[1]}. Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 23 / 26

PRZYKŁAD Niech Ω ={0, 1} N, T = przesunięcie i niechµbędzie ergodyczna miara niezmiennicza na przesunięcie T. Wtedy dlaµ-prawie każdego punktu x = (x 1, x 2,...) miara długiego cylindra wokół x, x[1, n] := [x 1, x 2,...,x n ], wynosi w przybliżeniu 2 nh(t,p), gdziep jest dwu-elementowym rozbiciem{[0],[1]}. Znaczenie w przybliżeniu jest bardzo zgrubne, gdyż oznacza jedynie, że 1 n log 2 µ(x[1, n]) h(t,p). Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 23 / 26

PRZYKŁAD Wróćmy do naszego przykładu z dwiema bitmapami: Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 24 / 26

Z grubsza rzecz biorac, bitmapy możemy traktować jako długie fragmenty orbit punktów w układzie dynamicznym{0, 1} N z przesunięciem, typowych dla dwóch różnych miar ergodycznych, odpowiednioµ 1 iµ 2 o różnych entropiach h(µ 1 ) i h(µ 2 ). Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 25 / 26

Z grubsza rzecz biorac, bitmapy możemy traktować jako długie fragmenty orbit punktów w układzie dynamicznym{0, 1} N z przesunięciem, typowych dla dwóch różnych miar ergodycznych, odpowiednioµ 1 iµ 2 o różnych entropiach h(µ 1 ) i h(µ 2 ). Pierwsza bitmapa jest wysoce uporzadkowana, zatem reprezentuje miarę o małej entropii. Druga bitmapa jest losowa, zatem reprezentuje miarę o dużej entropii, czyli mamy h(µ 1 )<< h(µ 2 ). Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 25 / 26

Z grubsza rzecz biorac, bitmapy możemy traktować jako długie fragmenty orbit punktów w układzie dynamicznym{0, 1} N z przesunięciem, typowych dla dwóch różnych miar ergodycznych, odpowiednioµ 1 iµ 2 o różnych entropiach h(µ 1 ) i h(µ 2 ). Pierwsza bitmapa jest wysoce uporzadkowana, zatem reprezentuje miarę o małej entropii. Druga bitmapa jest losowa, zatem reprezentuje miarę o dużej entropii, czyli mamy h(µ 1 )<< h(µ 2 ). Entropie te, to średnie ilości informacji po przestrzeni i czasie w jednym kroku przesunięcia. Dzięki twierdzeniu S M B, nie musimy uśredniać po przestrzeni; te same średnie po czasie sa realizowane już w naszych indywidualych orbitach (czyli w bitmapach). Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 25 / 26

Z grubsza rzecz biorac, bitmapy możemy traktować jako długie fragmenty orbit punktów w układzie dynamicznym{0, 1} N z przesunięciem, typowych dla dwóch różnych miar ergodycznych, odpowiednioµ 1 iµ 2 o różnych entropiach h(µ 1 ) i h(µ 2 ). Pierwsza bitmapa jest wysoce uporzadkowana, zatem reprezentuje miarę o małej entropii. Druga bitmapa jest losowa, zatem reprezentuje miarę o dużej entropii, czyli mamy h(µ 1 )<< h(µ 2 ). Entropie te, to średnie ilości informacji po przestrzeni i czasie w jednym kroku przesunięcia. Dzięki twierdzeniu S M B, nie musimy uśredniać po przestrzeni; te same średnie po czasie sa realizowane już w naszych indywidualych orbitach (czyli w bitmapach). Jeden krok przesunięcia odpowiada jednemu symbolowi (pikslowi) w bitmapie. Zatem efektywna ilość informacji zawartej w każdej z bitmap jest równa liczbie piksli razy średnia ilość inofrmacji na piksel (czyli razy odpowiednio h(µ 1 ) lub h(µ 2 )). Ilość piksli jest ta sama, stad w pierwszej bitmapie jest o wiele mniej informacji niż w drugiej. Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 25 / 26

Wszystko to, co zostało powiedziane będzie opisane w ścisły szczegółowy sposób w dalszej części kursu... Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 26 / 26

Wszystko to, co zostało powiedziane będzie opisane w ścisły szczegółowy sposób w dalszej części kursu... przy zastosowaniu bardziej tradycyjnych mediów, czyli tablicy i kredy (lub, nie daj Boże, markerów). Tomasz Downarowicz (Poland) Entropia w układach dynamicznych semestr letni, 2013 26 / 26