Do czego przydaje się matematyka? Od układów dynamicznych, przez optymalizację, do algorytmów genetycznych

Podobne dokumenty
Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.

Teoria ergodyczna. seminarium monograficzne dla studentów matematyki. dr hab. Krzysztof Barański i prof. dr hab. Anna Zdunik. rok akad.

Prawa wielkich liczb, centralne twierdzenia graniczne

ZADANIA PRZYGOTOWAWCZE DO EGZAMINU Z UKŁADÓW DYNAMICZNYCH

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.

VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa.

Spacery losowe generowanie realizacji procesu losowego

Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova

Prawdopodobieństwo i statystyka

Stochastyczna dynamika z opóźnieniem czasowym w grach ewolucyjnych oraz modelach ekspresji i regulacji genów

Statystyka i eksploracja danych

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

1 Relacje i odwzorowania

Próbny egzamin maturalny z matematyki Poziom rozszerzony

Elementy modelowania matematycznego

Geometryczna zbieżność algorytmu Gibbsa

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

Efekt motyla i dziwne atraktory

RACHUNEK PRAWDOPODOBIE STWA

WEKTORY I WARTOŚCI WŁASNE MACIERZY. = λ c (*) problem przybliżonego rozwiązania zagadnienia własnego dla operatorów w mechanice kwantowej

Prawdopodobieństwo i statystyka

Wykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa

Układy dynamiczne. proseminarium dla studentów III roku matematyki. Michał Krych i Anna Zdunik. rok akad. 2014/15

Biostatystyka, # 3 /Weterynaria I/

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Chaotyczne generatory liczb pseudolosowych

PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka

Optymalizacja ciągła

Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu.

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie

Proces rezerwy w czasie dyskretnym z losową stopą procentową i losową składką

Wykład 9: Markov Chain Monte Carlo

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe

Wstęp do rachunku prawdopodobieństwa. Cz. 2 / William Feller. wyd. 4, dodr. 3. Warszawa, Spis treści

Matematyka dyskretna. Andrzej Łachwa, UJ, /15

Prawdopodobieństwo i statystyka

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności

Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona) f(x) = 0, gdzie. dla n=2 np.

Układy stochastyczne

Procesy stochastyczne

Wstęp do układów statycznych

Metody probabilistyczne

Literatura. Leitner R., Zacharski J., Zarys matematyki wyŝszej dla studentów, cz. III.

Funkcje charakterystyczne zmiennych losowych, linie regresji 1-go i 2-go rodzaju

Stabilność II Metody Lapunowa badania stabilności

WSTĘP. Tematy: Regresja liniowa: model regresji liniowej, estymacja nieznanych parametrów. Wykład:30godz., ćwiczenia:15godz., laboratorium:30godz.

czyli o szukaniu miejsc zerowych, których nie ma

Metody Rozmyte i Algorytmy Ewolucyjne

Procesy stochastyczne

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

Dystrybucje. Marcin Orchel. 1 Wstęp Dystrybucje Pochodna dystrybucyjna Przestrzenie... 5

CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWE

Instytut Matematyczny Uniwersytet Wrocławski. Zakres egzaminu magisterskiego. Wybrane rozdziały anazlizy i topologii 1 i 2

Procesy stochastyczne

Uwaga. 1. Jeśli uczeń poda tylko rozwiązania ogólne, to otrzymuje 4 punkty.

Tematy prac magisterskich i doktorskich

SIMR 2016/2017, Analiza 2, wykład 1, Przestrzeń wektorowa

Zadania z Rachunku Prawdopodobieństwa II Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,

Zaawansowane metody numeryczne

Pojęcie szeregu nieskończonego:zastosowania do rachunku prawdopodobieństwa wykład 1

III. Funkcje rzeczywiste

Ćwiczenia: Ukryte procesy Markowa lista 1 kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II

ZAGADNIENIA DO EGZAMINU MAGISTERSKIEGO

5 Przegląd najważniejszych rozkładów

Zagadnienia brzegowe dla równań eliptycznych

Rozwiązywanie równań nieliniowych

PRZEWODNIK PO PRZEDMIOCIE

Spis treści 3 SPIS TREŚCI

Metody Lagrange a i Hamiltona w Mechanice

Zadania o numerze 4 z zestawów licencjat 2014.

Zmienne losowe, statystyki próbkowe. Wrocław, 2 marca 2015

WYDZIAŁ ELEKTRONIKI MIKROSYSTEMÓW I FOTONIKI

Prawdopodobieństwo i statystyka

Rachunek prawdopodobieństwa - Teoria - Przypomnienie.. A i B są niezależne, gdy P(A B) = P(A)P(B). P(A B i )P(B i )

Treści programowe. Matematyka 1. Efekty kształcenia. Literatura. Warunki zaliczenia. Ogólne własności funkcji. Definicja 1. Funkcje elementarne.

GRA Przykład. 1) Zbiór graczy. 2) Zbiór strategii. 3) Wypłaty. n = 2 myśliwych. I= {1,,n} S = {polować na jelenia, gonić zająca} S = {1,,m} 10 utils

Rachunek prawdopodobieństwa (Elektronika, studia niestacjonarne) Wykład 3

W naukach technicznych większość rozpatrywanych wielkości możemy zapisać w jednej z trzech postaci: skalara, wektora oraz tensora.

III. Układy liniowe równań różniczkowych. 1. Pojęcie stabilności rozwiązań.

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne

RÓWNANIA RÓŻNICZKOWE ZWYCZAJNE. Marta Zelmańska

Algorytmy MCMC i ich zastosowania statystyczne

Rozdział 1 PODSTAWOWE POJĘCIA I DEFINICJE

Wykład 1 Próba i populacja. Estymacja parametrów z wykorzystaniem metody bootstrap

Ośrodkowość procesów, proces Wienera. Ośrodkowość procesów, proces Wienera Procesy Stochastyczne, wykład, T. Byczkowski,

2. P (E) = 1. β B. TSIM W3: Sygnały stochastyczne 1/27

26 marzec, Łańcuchy Markowa z czasem ciągłym. Procesy Stochastyczne, wykład 7, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136

METODY SZTUCZNEJ INTELIGENCJI algorytmy ewolucyjne

EGZAMIN DYPLOMOWY, część II, Biomatematyka

Wokół wyszukiwarek internetowych

Wstęp do rachunku prawdopodobieństwa. Cz. 1 / William Feller. wyd. 6, dodr. 4. Warszawa, Spis treści

Rozkłady statystyk z próby

Kurs wyrównawczy - teoria funkcji holomorficznych

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Algorytm Metropolisa-Hastingsa

Przykładowe zadania na egzamin z matematyki - dr Anita Tlałka - 1

II. FUNKCJE WIELU ZMIENNYCH

Transkrypt:

Do czego przydaje się matematyk(a)? Od układów dynamicznych, przez optymalizację, do algorytmów genetycznych Interdyscyplinarne Centrum Modelowania UW 26 października 2012

Spis treści wykładu 1 Wstęp 2 Własności statystyczne funkcji wymiernych Dyskretne układy dynamiczne Teoria ergodyczna Wyniki uzyskane w rozprawie 3 Siatki obliczeniowe dopasowane do sygnału; optymalizacja 4 Plany na przyszłość Obszary zainteresowań Zastosowanie łańcuchów Markowa i teorii układów dynamicznych do badania algorytmów genetycznych

Matematyk 2011-...: praca w ICM UW 2012: stopień doktora matematyki, praca: Własności stanów równowagi dla przekształceń przestrzeni rzutowych, IM PAN; dwie publikacje w tym temacie razem z prof. Anną Zdunik i prof. Mariuszem Urbańskim 2008: stopień magistra informatyki, praca: Kompresja fraktalna i jej modyfikacje (ze szczególnym uwzględnieniem kompresji fraktalno-falkowej), MIM UW 2006: stopień magistra matematyki, praca: O wymiarach pewnych konstrukcji fraktalnych, MIM UW 2000: drugi etap olimpiady informatycznej 1996: laureat olimpiady matematycznej szkół podstawowych W międzyczasie : pomoc przy rozwijaniu oprogramowania graficznego.

Matematyka "I m not a religious man, but it s almost like being in touch with God when you re thinking about mathematics." Paul Halmos (1916 2006) fragment wywiadu z 1990 (tłum. Romana Murawskiego) Nie jestem człowiekiem religijnym, ale rozmyślanie nad matematyką, to jest prawie tak, jakby się miało kontakt z Bogiem.

Dyskretne układy dynamiczne Niech X będzie przestrzenią, a T : X X przekształceniem tej przestrzeni w siebie (endomorfizmem).

Dyskretne układy dynamiczne Niech X będzie przestrzenią, a T : X X przekształceniem tej przestrzeni w siebie (endomorfizmem). Obiektem naszych badań są iteracje: T n, to znaczy n-krotne złożenia T.

Dyskretne układy dynamiczne Niech X będzie przestrzenią, a T : X X przekształceniem tej przestrzeni w siebie (endomorfizmem). Obiektem naszych badań są iteracje: T n, to znaczy n-krotne złożenia T. Szczególnie interesują nas trajektorie(inaczej: orbity): x, T (x), T 2 (x),...

Dyskretne układy dynamiczne Niech X będzie przestrzenią, a T : X X przekształceniem tej przestrzeni w siebie (endomorfizmem). Obiektem naszych badań są iteracje: T n, to znaczy n-krotne złożenia T. Szczególnie interesują nas trajektorie(inaczej: orbity): x, T (x), T 2 (x),... Dyskretne układy dynamiczne pojawiają się naturalnie w badaniu wielu zjawisk przyrodniczych, ale również w analizie numerycznej (algorytmy iteracyjne: metoda Newtona, optymalizacje, itd.).

Metoda Newtona i dynamika holomorficzna Szukamy miejsc zerowych funkcji f (x). T (x) = x f (x) f (x)

Metoda Newtona i dynamika holomorficzna Szukamy miejsc zerowych funkcji f (x). T (x) = x f (x) f (x) Fakt x 0 jest miejscem zerowym f (x) x 0 jest punktem stałym T (x)

Metoda Newtona i dynamika holomorficzna Szukamy miejsc zerowych funkcji f (x). T (x) = x f (x) f (x) Fakt x 0 jest miejscem zerowym f (x) x 0 jest punktem stałym T (x) Ponadto, jeśli x jest odpowiednio blisko x 0, to trajektoria x zbiega do x 0.

Metoda Newtona i dynamika holomorficzna Szukamy miejsc zerowych funkcji f (x). T (x) = x f (x) f (x) Fakt x 0 jest miejscem zerowym f (x) x 0 jest punktem stałym T (x) Ponadto, jeśli x jest odpowiednio blisko x 0, to trajektoria x zbiega do x 0. Ale co się dzieje globalnie?

Metoda Newtona i dynamika holomorficzna Szukamy miejsc zerowych funkcji f (x). T (x) = x f (x) f (x) Fakt x 0 jest miejscem zerowym f (x) x 0 jest punktem stałym T (x) Ponadto, jeśli x jest odpowiednio blisko x 0, to trajektoria x zbiega do x 0. Ale co się dzieje globalnie? Twierdzenie (E. Schröder 1871, A. Cayley 1879) Jeśli f : Ĉ Ĉ jest wielomianem kwadratowym to metoda Newtona jest zbieżna dla każdego x spoza pewnej prostej. Cayleyowi mimo prób nie udało się przenieść tego wyniku na wielomiany wyższego stopnia...

Przyczyna niepowodzenia Cayleya Metoda Newtona dla f (z) = z 3 1: Zbiór Fatou: punkty, których trajektorie zbiegają do zer f (z). Zbiór Julii: pozostałe punkty; zbiór chaotyczny.

Przestrzenie rzutowe i ich przekształcenia 1 Przypadek jednowymiarowy T : Ĉ Ĉ to dowolna funkcja wymierna (szczególny przypadek to metoda Newtona dla wielomianu/funkcji wymiernej). 2 Przypadek wielowymiarowy Przestrzeń: zespolona przestrzeń rzutowa P k Przekształcenie: dowolny holomorficzny endomorfizm P k

Jak zapanować nad chaosem? Przełom nastąpił w roku 1889, kiedy król Oskar II świętował swoje 60. urodziny i z tej okazji ogłosił konkurs, w którym wystartował H. Poincaré.

Jak zapanować nad chaosem? Przełom nastąpił w roku 1889, kiedy król Oskar II świętował swoje 60. urodziny i z tej okazji ogłosił konkurs, w którym wystartował H. Poincaré. Definicja Mówimy, że punkt x B powraca do B (przy T ), jeżeli istnieje n > 0 takie, że T n x B.

Jak zapanować nad chaosem? Przełom nastąpił w roku 1889, kiedy król Oskar II świętował swoje 60. urodziny i z tej okazji ogłosił konkurs, w którym wystartował H. Poincaré. Definicja Mówimy, że punkt x B powraca do B (przy T ), jeżeli istnieje n > 0 takie, że T n x B. Niech (X, B, µ) - dowolna przestrzeń X z miarą skończoną (np. miarą objętości na pewnym ograniczonym zbiorze),

Jak zapanować nad chaosem? Przełom nastąpił w roku 1889, kiedy król Oskar II świętował swoje 60. urodziny i z tej okazji ogłosił konkurs, w którym wystartował H. Poincaré. Definicja Mówimy, że punkt x B powraca do B (przy T ), jeżeli istnieje n > 0 takie, że T n x B. Niech (X, B, µ) - dowolna przestrzeń X z miarą skończoną (np. miarą objętości na pewnym ograniczonym zbiorze), zaś T : X X - dowolne przekształcenie odwracalne zachowujące miarę µ.

Jak zapanować nad chaosem? Przełom nastąpił w roku 1889, kiedy król Oskar II świętował swoje 60. urodziny i z tej okazji ogłosił konkurs, w którym wystartował H. Poincaré. Definicja Mówimy, że punkt x B powraca do B (przy T ), jeżeli istnieje n > 0 takie, że T n x B. Niech (X, B, µ) - dowolna przestrzeń X z miarą skończoną (np. miarą objętości na pewnym ograniczonym zbiorze), zaś T : X X - dowolne przekształcenie odwracalne zachowujące miarę µ. T zachowuje µ T µ = µ n B µ(t n B) = µ(b)

Jak zapanować nad chaosem? Przełom nastąpił w roku 1889, kiedy król Oskar II świętował swoje 60. urodziny i z tej okazji ogłosił konkurs, w którym wystartował H. Poincaré. Definicja Mówimy, że punkt x B powraca do B (przy T ), jeżeli istnieje n > 0 takie, że T n x B. Niech (X, B, µ) - dowolna przestrzeń X z miarą skończoną (np. miarą objętości na pewnym ograniczonym zbiorze), zaś T : X X - dowolne przekształcenie odwracalne zachowujące miarę µ. T zachowuje µ T µ = µ n B µ(t n B) = µ(b) Twierdzenie (Poincarégo o powracaniu) Niech (T, µ) będzie układem jak wyżej. Wtedy dla dowolnego B B µ-prawie każdy punkt x B wraca do B.

Twierdzenie Poincarégo a fizyka statystyczna Problem:

Twierdzenie Poincarégo a fizyka statystyczna Problem: 5 6 4 1 2 3

Twierdzenie Poincarégo a fizyka statystyczna Problem: 5 6 4 1 2 3

Twierdzenie Poincarégo a fizyka statystyczna Problem: 5 6 4 1 2 3

Twierdzenie Poincarégo a fizyka statystyczna Problem: 5 6 4 3 1 2

Twierdzenie Poincarégo a fizyka statystyczna Problem: 5 6 4 3 1 2 Nadzieja: miara zbioru konfiguracji takich, że wszystkie cząsteczki są w jednej połowie pudełka jest bardzo mała (wynosi 1 2 n ).

Twierdzenie Poincarégo a fizyka statystyczna Twierdzenie (Lemat Kaca, 1947) (T, µ) - ergodyczny układ zachowujący skończoną miarę Dla dowolnego B X, zbioru o dodatniej mierze zachodzi: r B (x) dµ(x) = 1 µ(b) gdzie r B to pierwszy czas powrotu do B B Jeśli w pudełku mamy n cząsteczek, to miara zdarzenia takiego, że 1 wszystkie są w jednej połowie pudełka wynosi 2. n Zatem oczekiwany czas pierwszego powrotu wynosi 2 n.

Twierdzenie Poincarégo a fizyka statystyczna Twierdzenie (Lemat Kaca, 1947) (T, µ) - ergodyczny układ zachowujący skończoną miarę Dla dowolnego B X, zbioru o dodatniej mierze zachodzi: r B (x) dµ(x) = 1 µ(b) gdzie r B to pierwszy czas powrotu do B B Jeśli w pudełku mamy n cząsteczek, to miara zdarzenia takiego, że 1 wszystkie są w jednej połowie pudełka wynosi 2. n Zatem oczekiwany czas pierwszego powrotu wynosi 2 n. Ergodyczność oznacza, że przestrzeni X nie da się podzielić na nietrywialne podzbiory niezmiennicze. To oznacza, że jeśli zbiór A jest niezmienniczy (A = T 1 A), to jest miary 0 lub pełnej.

Ergodyczność Twierdzenie (Ergodyczne Birkhoffa, 1931) Niech (T, µ) to ergodyczny układ zachowujący miarę probabilistyczną, zaś f : X R jest funkcją µ-całkowalną (obserwablą). Wtedy dla µ-prawie każdego x X zachodzi: 1 n 1 lim f (T j x) = s dla s = n n j=0 X f (x) dµ

Ergodyczność Twierdzenie (Ergodyczne Birkhoffa, 1931) Niech (T, µ) to ergodyczny układ zachowujący miarę probabilistyczną, zaś f : X R jest funkcją µ-całkowalną (obserwablą). Wtedy dla µ-prawie każdego x X zachodzi: 1 n 1 lim f (T j x) = s dla s = n n j=0 X f (x) dµ Twierdzenie (Ergodyczne Birkhoffa w wersji probabilistycznej) Niech (X, µ) będzie przestrzenią probabilistyczną, zaś T : X X przekształceniem ergodycznym, zachowującym µ. Niech X 0 = f będzie dowolną całkowalną zmienną losową. Określmy ciąg zmiennych: X 1 = X 0 T,..., X n = X 0 T n,.... Ciąg ten spełnia Mocne Prawo Wielkich Liczb, to znaczy X 0+ +X n 1 n zbiega prawie na pewno do zmiennej stałej EX 0. CTG: rozkład X 0+ +X n n 1 nex 0 zbiega do rozkładu normalnego

Formalizm termodynamiczny Mamy przekształcenie T : X X, brakuje nam miary

Formalizm termodynamiczny Mamy przekształcenie T : X X, brakuje nam miary potencjał def φ : X R, co najmniej ciągły

Formalizm termodynamiczny Mamy przekształcenie T : X X, brakuje nam miary potencjał def φ : X R, co najmniej ciągły def zbiór probabilistycznych miar f -niezmienniczych M f 1

Formalizm termodynamiczny Mamy przekształcenie T : X X, brakuje nam miary potencjał def φ : X R, co najmniej ciągły M1 f def zbiór probabilistycznych miar f -niezmienniczych h µ (f ) entropia miary µ

Formalizm termodynamiczny Mamy przekształcenie T : X X, brakuje nam miary potencjał def φ : X R, co najmniej ciągły M1 f def zbiór probabilistycznych miar f -niezmienniczych h µ (f ) entropia miary µ stan równowagi def µ M1, f która maksymalizuje h µ (f ) + φ dµ

Formalizm termodynamiczny Mamy przekształcenie T : X X, brakuje nam miary potencjał def φ : X R, co najmniej ciągły M1 f def zbiór probabilistycznych miar f -niezmienniczych h µ (f ) entropia miary µ stan równowagi def µ M1, f która maksymalizuje h µ (f ) + φ dµ (Zasada Wariacyjna: sup µ M f 1 h µ (f ) + φ dµ = P(f, φ))

Formalizm termodynamiczny Mamy przekształcenie T : X X, brakuje nam miary potencjał def φ : X R, co najmniej ciągły M1 f def zbiór probabilistycznych miar f -niezmienniczych h µ (f ) entropia miary µ stan równowagi def µ M1, f która maksymalizuje h µ (f ) + φ dµ (Zasada Wariacyjna: sup µ M f 1 h µ (f ) + φ dµ = P(f, φ)) Urbański i Zdunik( 09) udowodnili, że przy pewnych założeniach na przekształcenie oraz dla pewnej klasy potencjałów hölderowskich φ stan równowagi µ φ istnieje i jest jedyny.

Formalizm termodynamiczny Mamy przekształcenie T : X X, brakuje nam miary potencjał def φ : X R, co najmniej ciągły M1 f def zbiór probabilistycznych miar f -niezmienniczych h µ (f ) entropia miary µ stan równowagi def µ M1, f która maksymalizuje h µ (f ) + φ dµ (Zasada Wariacyjna: sup µ M f 1 h µ (f ) + φ dµ = P(f, φ)) Urbański i Zdunik( 09) udowodnili, że przy pewnych założeniach na przekształcenie oraz dla pewnej klasy potencjałów hölderowskich φ stan równowagi µ φ istnieje i jest jedyny. Jest on mieszający, a więc również ergodyczny.

Wyniki uzyskane w rozprawie Niech φ będzie potencjałem hölderowskim, spełniającym sup φ inf φ < log d, takim że stan równowagi µ φ istnieje.

Wyniki uzyskane w rozprawie Niech φ będzie potencjałem hölderowskim, spełniającym sup φ inf φ < log d, takim że stan równowagi µ φ istnieje. Twierdzenie (asymptotyczne rozszerzanie) Wykładniki Lapunowa stanu równowagi µ φ są dodatnie.

Wyniki uzyskane w rozprawie Niech φ będzie potencjałem hölderowskim, spełniającym sup φ inf φ < log d, takim że stan równowagi µ φ istnieje. Twierdzenie (asymptotyczne rozszerzanie) Wykładniki Lapunowa stanu równowagi µ φ są dodatnie. Twierdzenie (własności statystyczne) Miary µ φ spełniają Centralne Twierdzenie Graniczne oraz wykładnicze ubywanie korelacji dla klasy funkcji próbnych hölderowskich.

Wyniki uzyskane w rozprawie Niech φ będzie potencjałem hölderowskim, spełniającym sup φ inf φ < log d, takim że stan równowagi µ φ istnieje. Twierdzenie (asymptotyczne rozszerzanie) Wykładniki Lapunowa stanu równowagi µ φ są dodatnie. Twierdzenie (własności statystyczne) Miary µ φ spełniają Centralne Twierdzenie Graniczne oraz wykładnicze ubywanie korelacji dla klasy funkcji próbnych hölderowskich. Twierdzenie (jednoznaczność stanów równowagi) Istnieje dokładnie jeden stan równowagi dla potencjału φ.

Twierdzenie Makarowa Przykład zastosowania właności statystycznych: Twierdzenie Miara harmoniczna ω na spójnym zbiorze D R 2 ma wymiar 1.

Twierdzenie Makarowa Przykład zastosowania właności statystycznych: Twierdzenie Miara harmoniczna ω na spójnym zbiorze D R 2 ma wymiar 1. Przykład Niech D to obszar ograniczony przez krzywą Kocha. Wymiar miary harmonicznej jest mniejszy niż wymiar brzegu D, więc mówiąc obrazowo miara harmoniczna widzi tylko bardzo mały fragment brzegu. Ponadto istnieje E D, zbiór ω-pełnej miary, który ma długość 0 (tzn. H 1 (E) = 0), bo H 1 i ω są wzajemnie singularne.

Siatki obliczeniowe Siatki obliczeniowe mają fundamentalne znaczenie w wielu problemach i zadaniach numerycznych (np. symulacjach).

Siatki obliczeniowe Siatki obliczeniowe mają fundamentalne znaczenie w wielu problemach i zadaniach numerycznych (np. symulacjach). Problem: skąd je brać?

Siatki dopasowane do sygnału

Siatki dopasowane do sygnału

Optymalizacja Z matematycznego punktu widzenia sprawa jest dosyć prosta: szukamy siatki, która będzie minimalizowała energię, zdefiniowaną jako suma wariancji na każdym elemencie siatki.

Optymalizacja Z matematycznego punktu widzenia sprawa jest dosyć prosta: szukamy siatki, która będzie minimalizowała energię, zdefiniowaną jako suma wariancji na każdym elemencie siatki. Problemy przy praktycznej realizacji (prosty) siatka początkowa

Optymalizacja Z matematycznego punktu widzenia sprawa jest dosyć prosta: szukamy siatki, która będzie minimalizowała energię, zdefiniowaną jako suma wariancji na każdym elemencie siatki. Problemy przy praktycznej realizacji (prosty) siatka początkowa (techniczny) obliczanie wartości funkcji energii

Optymalizacja Z matematycznego punktu widzenia sprawa jest dosyć prosta: szukamy siatki, która będzie minimalizowała energię, zdefiniowaną jako suma wariancji na każdym elemencie siatki. Problemy przy praktycznej realizacji (prosty) siatka początkowa (techniczny) obliczanie wartości funkcji energii niejednoznaczność siatki optymalnej + złe własności geometryczne minimów potrzeba geometrycznego składnika energii

Optymalizacja Z matematycznego punktu widzenia sprawa jest dosyć prosta: szukamy siatki, która będzie minimalizowała energię, zdefiniowaną jako suma wariancji na każdym elemencie siatki. Problemy przy praktycznej realizacji (prosty) siatka początkowa (techniczny) obliczanie wartości funkcji energii niejednoznaczność siatki optymalnej + złe własności geometryczne minimów potrzeba geometrycznego składnika energii wybór metody optymalizacji: metody bisekcyjne (np. Powella): kosztowne, słabo dostosowane do wielowymiarowych problemów

Optymalizacja Z matematycznego punktu widzenia sprawa jest dosyć prosta: szukamy siatki, która będzie minimalizowała energię, zdefiniowaną jako suma wariancji na każdym elemencie siatki. Problemy przy praktycznej realizacji (prosty) siatka początkowa (techniczny) obliczanie wartości funkcji energii niejednoznaczność siatki optymalnej + złe własności geometryczne minimów potrzeba geometrycznego składnika energii wybór metody optymalizacji: metody bisekcyjne (np. Powella): kosztowne, słabo dostosowane do wielowymiarowych problemów metody gradientowe: wrażliwe na gładkość minimalizowanej funkcji, konieczność analitycznego wyliczenia pochodnej (gradient numeryczny w praktyce nie wystarcza)

Pochodna wariancji Jak policzyć (i czym jest) pochodna wariancji?

Pochodna wariancji Jak policzyć (i czym jest) pochodna wariancji? Przestrzeń: jeśli ustalimy topologię (połączenia) siatki to każdą siatkę możemy opisać przez podanie współrzędnych jej wierzchołków.

Pochodna wariancji Jak policzyć (i czym jest) pochodna wariancji? Przestrzeń: jeśli ustalimy topologię (połączenia) siatki to każdą siatkę możemy opisać przez podanie współrzędnych jej wierzchołków. Nasz problem sprowadza się do policzenia pochodnej funkcji F ( ) = f, gdzie jest pewnym elementem siatki, zaś f pewną (niekoniecznie ciągłą) funkcją.

Pochodna wariancji Jak policzyć (i czym jest) pochodna wariancji? Przestrzeń: jeśli ustalimy topologię (połączenia) siatki to każdą siatkę możemy opisać przez podanie współrzędnych jej wierzchołków. Nasz problem sprowadza się do policzenia pochodnej funkcji F ( ) = f, gdzie jest pewnym elementem siatki, zaś f pewną (niekoniecznie ciągłą) funkcją. Fakt Niech będzie dowolnym trójkątem. Wtedy: ( ) F ( ) = f (u) du = f (x) p(x)dx de E I e gdzie E to dowolny bok trójkąta, I e to odcinek łączący punkt e E z przeciwległym wierzchołkiem trójkąta v, zaś p(x) = d(x,v) d(e,v) sin α, gdzie α to kąt między bokiem E i odcinkiem I α. Stąd pochodna F w punkcie e i kierunku równoległym do boku E wynosi I e f (x) p(x)dx.

Zrobione Udało się zaimplementować: obliczanie wartości funkcji energii w 2D gradient numeryczny i próby wykorzystania go do optymalizacji (wynik: nie spełnia swojej roli) optymalizację metodą Powella (wynik: działa) działający prototyp w oparciu o oprogramowanie VisNow

Do zrobienia Plany na przyszłość: zaimplementowanie całkowania w 3D po czworościanach analityczne obliczanie gradientu i wykorzystanie go do optymalizacji zastosowanie do budowy siatek obliczeniowych

Co dalej? Co jeszcze ostatnio zajmuje moją głowę: Matematyka dla Ciekawych Świata

Co dalej? Co jeszcze ostatnio zajmuje moją głowę: Matematyka dla Ciekawych Świata Uśrednianie w przestrzeni argumentu

Co dalej? Co jeszcze ostatnio zajmuje moją głowę: Matematyka dla Ciekawych Świata Uśrednianie w przestrzeni argumentu (Nie)sztuczna inteligencja, uczenie maszynowe Dynamika nierównowagowa

Co dalej? Co jeszcze ostatnio zajmuje moją głowę: Matematyka dla Ciekawych Świata Uśrednianie w przestrzeni argumentu (Nie)sztuczna inteligencja, uczenie maszynowe Dynamika nierównowagowa Samo-organizacja Gry (strategiczne, czasu rzeczywistego) Wiele, wiele innych...

Algorytmy genetyczne (tak jak je rozumiem) Cel: maksymalizacja funkcji f : Z R (funkcji oceny) Z = {z 1,..., z s } zbiór chromosomów (możliwych osobników )

Algorytmy genetyczne (tak jak je rozumiem) Cel: maksymalizacja funkcji f : Z R (funkcji oceny) Z = {z 1,..., z s } zbiór chromosomów (możliwych osobników ) Metoda: algorytmy genetyczne 1 Populacja: r-elementowy multi-zbiór chromosomów wektor probabilistyczny z przestrzeni Λ = {p R s : p k = n k r, p k 0, p k = 1} (s = #Z)

Algorytmy genetyczne (tak jak je rozumiem) Cel: maksymalizacja funkcji f : Z R (funkcji oceny) Z = {z 1,..., z s } zbiór chromosomów (możliwych osobników ) Metoda: algorytmy genetyczne 1 Populacja: r-elementowy multi-zbiór chromosomów wektor probabilistyczny z przestrzeni Λ = {p R s : p k = n k r, p k 0, p k = 1} (s = #Z) wektor z przestrzeni Λ = {p R s : p k 0, p k = 1}

Algorytmy genetyczne (tak jak je rozumiem) Cel: maksymalizacja funkcji f : Z R (funkcji oceny) Z = {z 1,..., z s } zbiór chromosomów (możliwych osobników ) Metoda: algorytmy genetyczne 1 Populacja: r-elementowy multi-zbiór chromosomów wektor probabilistyczny z przestrzeni Λ = {p R s : p k = n k r, p k 0, p k = 1} (s = #Z) wektor z przestrzeni Λ = {p R s : p k 0, p k = 1} 2 Selekcja: p k p k = f (z k )p k, gdzie f (p) = f (z f (p) k )p k

Algorytmy genetyczne (tak jak je rozumiem) Cel: maksymalizacja funkcji f : Z R (funkcji oceny) Z = {z 1,..., z s } zbiór chromosomów (możliwych osobników ) Metoda: algorytmy genetyczne 1 Populacja: r-elementowy multi-zbiór chromosomów wektor probabilistyczny z przestrzeni Λ = {p R s : p k = n k r, p k 0, p k = 1} (s = #Z) wektor z przestrzeni Λ = {p R s : p k 0, p k = 1} 2 Selekcja: p k p k = f (z k )p k, gdzie f (p) = f (z f (p) k )p k 3 Mutacja: p Up, gdzie U (stochastyczna) macierz mutacji, U ij to prawdopodobieństwo mutacji z z j do z i (U ii to prawdopobieństwo braku mutacji)

Algorytmy genetyczne (tak jak je rozumiem) Cel: maksymalizacja funkcji f : Z R (funkcji oceny) Z = {z 1,..., z s } zbiór chromosomów (możliwych osobników ) Metoda: algorytmy genetyczne 1 Populacja: r-elementowy multi-zbiór chromosomów wektor probabilistyczny z przestrzeni Λ = {p R s : p k = n k r, p k 0, p k = 1} (s = #Z) wektor z przestrzeni Λ = {p R s : p k 0, p k = 1} 2 Selekcja: p k p k = f (z k )p k, gdzie f (p) = f (z f (p) k )p k 3 Mutacja: p Up, gdzie U (stochastyczna) macierz mutacji, U ij to prawdopodobieństwo mutacji z z j do z i (U ii to prawdopobieństwo braku mutacji) Cały proces możemy zapisać skrótowo jako p G(p) := 1 f (p) US(p), gdzie S to macierz diagonalna taka, że S kk = f (z k )

Algorytmy genetyczne (tak jak je rozumiem) Cel: maksymalizacja funkcji f : Z R (funkcji oceny) Z = {z 1,..., z s } zbiór chromosomów (możliwych osobników ) Metoda: algorytmy genetyczne 1 Populacja: r-elementowy multi-zbiór chromosomów wektor probabilistyczny z przestrzeni Λ = {p R s : p k = n k r, p k 0, p k = 1} (s = #Z) wektor z przestrzeni Λ = {p R s : p k 0, p k = 1} 2 Selekcja: p k p k = f (z k )p k, gdzie f (p) = f (z f (p) k )p k 3 Mutacja: p Up, gdzie U (stochastyczna) macierz mutacji, U ij to prawdopodobieństwo mutacji z z j do z i (U ii to prawdopobieństwo braku mutacji) Cały proces możemy zapisać skrótowo jako p G(p) := 1 f (p) US(p), gdzie S to macierz diagonalna taka, że S kk = f (z k ) Metoda analizy: łańcuchy Markowa (na podstawie: On stability and Classification Tools for Genetic Algorithms, S. Kotowski, W. Kosiński, Z. Michalewicz et al.)

Łancuchy Markowa Aby wykorzystać teorię łancuchów Markowa, musimy zmienić przestrzeń.

Łancuchy Markowa Aby wykorzystać teorię łancuchów Markowa, musimy zmienić przestrzeń. Niech W = W (r) wszystkich możliwych populacji r-elementowych. Zbiór W będzie zbiorem stanów naszego łańcucha Markowa.

Łancuchy Markowa Aby wykorzystać teorię łancuchów Markowa, musimy zmienić przestrzeń. Niech W = W (r) wszystkich możliwych populacji r-elementowych. Zbiór W będzie zbiorem stanów naszego łańcucha Markowa. Przypomnijmy, że każdy element w W zadany jest przez wektor (w 1,..., w s ) Λ. Prawdopodobieństwo przejścia ze stanu w do w wynosi: s (G(w) j ) rw j r! (rw j )! gdzie G(p) = 1 f (p) USp j=1

Wnioski Twierdzenie Jeśli każda mutacja ma dodatnie prawdopodobieństwo, to nasz model jest asymptotycznie stabilny. Znaczy to, że istnieje stacjonarny rozkład prawdopodobieństwa na przestrzeni W do którego zbiega nasz łańcuch Markowa.

Wnioski Twierdzenie Jeśli każda mutacja ma dodatnie prawdopodobieństwo, to nasz model jest asymptotycznie stabilny. Znaczy to, że istnieje stacjonarny rozkład prawdopodobieństwa na przestrzeni W do którego zbiega nasz łańcuch Markowa. Stabilność nazywamy punktową, jeśli stan stacjonarny jest skupiony w (tylko) jednej populacji w W. Stabilność punktowa zachodzi wtedy i tylko wtedy, gdy zbiór osiągalnych chromosomów jest jednoelementowy.

A gdzie układy dynamiczne? Łańcuch Markowa możemy zamodelować za pomocą specjalnego układy dynamicznego zwanego przesunięciem Bernoulliego.

A gdzie układy dynamiczne? Łańcuch Markowa możemy zamodelować za pomocą specjalnego układy dynamicznego zwanego przesunięciem Bernoulliego. Z kolei takiemu układowi możemy przypisać kilka ważnych niezmienników o których wspominaliśmy wcześniej, np. entropię topologiczną (w klasie przesunięć Bernoulliego jest to pełny niezmiennik, tzn. dwa przesunięcia o tej samej entropii są izomorficzne).

A gdzie układy dynamiczne? Łańcuch Markowa możemy zamodelować za pomocą specjalnego układy dynamicznego zwanego przesunięciem Bernoulliego. Z kolei takiemu układowi możemy przypisać kilka ważnych niezmienników o których wspominaliśmy wcześniej, np. entropię topologiczną (w klasie przesunięć Bernoulliego jest to pełny niezmiennik, tzn. dwa przesunięcia o tej samej entropii są izomorficzne). Zastosowania: klasyfikacja algorytmów genetycznych

A gdzie układy dynamiczne? Łańcuch Markowa możemy zamodelować za pomocą specjalnego układy dynamicznego zwanego przesunięciem Bernoulliego. Z kolei takiemu układowi możemy przypisać kilka ważnych niezmienników o których wspominaliśmy wcześniej, np. entropię topologiczną (w klasie przesunięć Bernoulliego jest to pełny niezmiennik, tzn. dwa przesunięcia o tej samej entropii są izomorficzne). Zastosowania: klasyfikacja algorytmów genetycznych porównywanie algorytmów genetycznych

A gdzie układy dynamiczne? Łańcuch Markowa możemy zamodelować za pomocą specjalnego układy dynamicznego zwanego przesunięciem Bernoulliego. Z kolei takiemu układowi możemy przypisać kilka ważnych niezmienników o których wspominaliśmy wcześniej, np. entropię topologiczną (w klasie przesunięć Bernoulliego jest to pełny niezmiennik, tzn. dwa przesunięcia o tej samej entropii są izomorficzne). Zastosowania: klasyfikacja algorytmów genetycznych porównywanie algorytmów genetycznych (potencjalnie) rozkład algorytmów genetycznych na części składowe stworzenie metodologii konstrukcji algorytmów genetycznych

Koniec Dziękuję za uwagę!