Algorytmy MCMC (Markowowskie Monte Carlo) dla skokowych procesów Markowa

Podobne dokumenty
Algorytm Metropolisa-Hastingsa

Algorytmy MCMC i ich zastosowania statystyczne

Algorytmy MCMC i ich zastosowania statystyczne

Geometryczna zbieżność algorytmu Gibbsa

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova

Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa

Procesy stochastyczne

Algorytmy MCMC i ich zastosowania statystyczne

Imputacja brakujacych danych binarnych w modelu autologistycznym 1

Spacery losowe generowanie realizacji procesu losowego

Proces rezerwy w czasie dyskretnym z losową stopą procentową i losową składką

5 Błąd średniokwadratowy i obciążenie

Wykład 9: Markov Chain Monte Carlo

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.

Prawdopodobieństwo i statystyka

Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu.

PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω)

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014

Dyskretne procesy stacjonarne o nieskończonej entropii nadwyżkowej

Literatura. Leitner R., Zacharski J., Zarys matematyki wyŝszej dla studentów, cz. III.

Prawdopodobieństwo i statystyka

Oszacowania błędów estymatorów stosowanych w markowowskich metodach Monte Carlo

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

Wykład 2 Zmienne losowe i ich rozkłady

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.

Maksymalne powtórzenia w tekstach i zerowa intensywność entropii

Wielowymiarowy próbnik Gibbsa

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

Elementy modelowania matematycznego

Zadania z Rachunku Prawdopodobieństwa III - 1

19 marzec, Łańcuchy Markowa z czasem dyskretnym. Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136

Analiza Algorytmów 2018/2019 (zadania na laboratorium)

Statystyka i eksploracja danych

Rachunek prawdopodobieństwa - Teoria - Przypomnienie.. A i B są niezależne, gdy P(A B) = P(A)P(B). P(A B i )P(B i )

Lista 1. Procesy o przyrostach niezależnych.

Wpływ macierzy przejścia systemu bonus-malus ubezpieczeń komunikacyjnych OC na jego efektywność taryfikacyjną

REGRESJA LINIOWA Z UOGÓLNIONĄ MACIERZĄ KOWARIANCJI SKŁADNIKA LOSOWEGO. Aleksander Nosarzewski Ekonometria bayesowska, prowadzący: dr Andrzej Torój

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa

Co to jest model Isinga?

Proces Poissona. Proces {N(t), t 0} nazywamy procesem zliczającym jeśli N(t) oznacza całkowitą liczbę badanych zdarzeń zaobserwowanych do chwili t.

Oszacowania błędów estymatorów stosowanych w markowowskich metodach Monte Carlo

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 13 i 14 - Statystyka bayesowska

MODELOWANIE STOCHASTYCZNE CZĘŚĆ II - ŁAŃCUCHY MARKOWA. Biomatematyka Dr Wioleta Drobik-Czwarno

SPOTKANIE 11: Reinforcement learning

Algorytmy MCMC i ich zastosowania statystyczne

Zmienne losowe. Powtórzenie. Dariusz Uciński. Wykład 1. Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski

Procesy Markowa zawdzięczają swoją nazwę ich twórcy Andriejowi Markowowi, który po raz pierwszy opisał problem w 1906 roku.

Kwantyle. Kwantyl rzędu p rozkładu prawdopodobieństwa to taka liczba x p. , że. Możemy go obliczyć z dystrybuanty: P(X x p.

Wstęp do sieci neuronowych, wykład 14 Maszyna Boltzmanna

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka

Matematyka ubezpieczeń majątkowych r.

Eksploracja danych mikromacierzowych sieci Bayesa. Inżynieria Danych, 30 listopada 2009, Tomasz Kułaga

21 maja, Mocna własność Markowa procesu Wienera. Procesy Stochastyczne, wykład 13, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126

Pojęcie szeregu nieskończonego:zastosowania do rachunku prawdopodobieństwa wykład 1

Fuzja sygnałów i filtry bayesowskie

Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna.

PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA. Piotr Wiącek

Układy stochastyczne

Rachunek prawdopodobieństwa i statystyka

Zadania z Procesów Stochastycznych 1

Rachunek Prawdopodobieństwa i Statystyka

RACHUNEK PRAWDOPODOBIE STWA

Ogólnopolska Konferencja Aktuarialna Zagadnienia aktuarialne teoria i praktyka Warszawa, IE SGH 2009

F t+ := s>t. F s = F t.

Zadania z Rachunku Prawdopodobieństwa II Podaj przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,

Zadania z Rachunku Prawdopodobieństwa II Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,

WYKŁAD 3. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

2. P (E) = 1. β B. TSIM W3: Sygnały stochastyczne 1/27

Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak

Prognozowanie i Symulacje. Wykład I. Matematyczne metody prognozowania

Przestrzeń probabilistyczna

Wokół wyszukiwarek internetowych

Statystyka matematyczna

Uczenie ze wzmocnieniem

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

Algorytmy stochastyczne, wykład 08 Sieci bayesowskie

Estymatory regresji rangowej oparte na metodzie LASSO

III. ZMIENNE LOSOWE JEDNOWYMIAROWE

Rozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej

Sieci Mobilne i Bezprzewodowe laboratorium 2 Modelowanie zdarzeń dyskretnych

Modelowanie sieci złożonych

MODELE STOCHASTYCZNE Plan wykładu

Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX = 4 i EY = 6. Rozważamy zmienną losową Z =.

Wstęp do rachunku prawdopodobieństwa

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski

3. Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,

Teoria systemów uczacych się i wymiar Vapnika-Chervonenkisa

Matematyka ubezpieczeń majątkowych r.

MODELOWANIE STANÓW CZYNNOŚCIOWYCH W JĘZYKU SIECI BAYESOWSKICH

Prawdopodobieństwo i statystyka

dla t ściślejsze ograniczenie na prawdopodobieństwo otrzymujemy przyjmując k = 1, zaś dla t > t ściślejsze ograniczenie otrzymujemy przyjmując k = 2.

Wykład 1 Próba i populacja. Estymacja parametrów z wykorzystaniem metody bootstrap

01. dla x 0; 1 2 wynosi:

Prawdopodobieństwo i statystyka

Matematyka ubezpieczeń majątkowych r.

Formy kwadratowe. Mirosław Sobolewski. Wydział Matematyki, Informatyki i Mechaniki UW. 14. wykład z algebry liniowej Warszawa, styczeń 2017

Definicja 7.4 (Dystrybuanta zmiennej losowej). Dystrybuantą F zmiennej losowej X nazywamy funkcję: Własności dystrybuanty zmiennej losowej:

Transkrypt:

Algorytmy MCMC (Markowowskie Monte Carlo) dla skokowych procesów Markowa Wojciech Niemiro 1 Uniwersytet Warszawski i UMK Toruń XXX lat IMSM, Warszawa, kwiecień 2017 1 Wspólne prace z Błażejem Miasojedowem, Johnem Noble, Krzysztofem Opalskim.

Plan Skokowe procesy Markowa Definicja i przykłady Ukryte modele Markowa Algorytmy MCMC Reprezentacja trajektorii Algorytm Metropolisa-Hastingsa Algorytm Rao i Teha Geometryczna ergodyczność Geometryczna ergodyczność algorytmu Rao i Teha Geometryczna ergodyczność algorytmu Metropolisa-Hastingsa

Plan Skokowe procesy Markowa Definicja i przykłady Ukryte modele Markowa Algorytmy MCMC Reprezentacja trajektorii Algorytm Metropolisa-Hastingsa Algorytm Rao i Teha Geometryczna ergodyczność Geometryczna ergodyczność algorytmu Rao i Teha Geometryczna ergodyczność algorytmu Metropolisa-Hastingsa

Plan Skokowe procesy Markowa Definicja i przykłady Ukryte modele Markowa Algorytmy MCMC Reprezentacja trajektorii Algorytm Metropolisa-Hastingsa Algorytm Rao i Teha Geometryczna ergodyczność Geometryczna ergodyczność algorytmu Rao i Teha Geometryczna ergodyczność algorytmu Metropolisa-Hastingsa

Skokowe procesy Markowa (czas ciagły, przestrzeń dyskretna) X = {X(t), t min t t max } jest procesem Markowa na dyskretnej przestrzeni stanów S. Intensywność przejścia ze stanu s S do s s: 1 lim h 0 h P ( X(t + h) = s X(t) = s ) = Q t (s, s ). Intensywność wyjścia ze stanu: Q t (s) = s s Q t (s, s ). Proces jest jednorodny jeśli Q t = Q.

Modele reakcji (bio)chemicznych Równania reakcji : reakcja 1: A + 2B C,... reakcja k:.... Stan procesu: s = (n A, n B, n C, n D ) {0, 1,...} 4. Intensywność zachodzenia reakcji Q (1) ((n A, n B, n C, n D ), (n A 1, n B 2, n C + 1, n D )) zależy od stanu. Proces jednorodny: Q = Q (1) + Q (k).

Przykład sieci bayesowskiej z czasem ciagłym (CTBN)

Sieci bayesowskie z czasem ciagłym (CTBN) Graf skierowany (N, E). Dla i W, niech pa(i) = {j : i i}. Stan procesu to konfiguracja s = (s i ) i W, gdzie s i jest elementem skończonego alfabetu stanów wierzchołka i. CTBN jest jednorodnym procesem Markowa z czasem ciagłym na przestrzeni konfiguracji, z macierza intensywności Q (i) (s i, s Q(s, s i s pa(i)) jeśli s i = s i i s i s i ) = dla pewnego i; 0 jeśli s i s i dla wszystkich i, dla s s.

Ukryte modele Markowa Proces X jest nieobserwowany. Obserwujemy zmienna losowa Y o rozkładzie prawdopodobieństwa p(y X). Zadanie: obliczyć rozkład a posteriori p(x Y ). Powiedzmy, że znamy p(x) i p(y X). Szczególny przypadek: obserwujemy stan procesu w momentach t min t1 obs < < tk obs t max z błędem losowym. Formalnie, ciag zmiennych losowych Y = {Y 1,..., Y k } taki, że p(y X) = i p(y i X(ti obs )). Szczególny przypadek: obserwujemy pewne wierzchołki CTBN, inne sa ukryte.

Ukryte modele Markowa Proces X jest nieobserwowany. Obserwujemy zmienna losowa Y o rozkładzie prawdopodobieństwa p(y X). Zadanie: obliczyć rozkład a posteriori p(x Y ). Powiedzmy, że znamy p(x) i p(y X). Szczególny przypadek: obserwujemy stan procesu w momentach t min t1 obs < < tk obs t max z błędem losowym. Formalnie, ciag zmiennych losowych Y = {Y 1,..., Y k } taki, że p(y X) = i p(y i X(ti obs )). Szczególny przypadek: obserwujemy pewne wierzchołki CTBN, inne sa ukryte.

Algorytmy MCMC dla skokowych procesów Markowa Rozkład a posteriori π(x) = p(x Y ) jest rozkładem docelowym, Y jest ustalone. Generujemy łańcuch Markowa X 0, X 1,..., X m,... taki, że π(x) jest rozkładem stacjonarnym i X m π. Rozkład empiryczny ˆπ m = 1 m j=1 m δ X j jest aproksymacja π. Rozkład π jest miara probabilistyczna na przestrzeni trajektorii skokowego procesu Markowa, X m = (X m (t) : t min t t max ).

Nadmiarowa reprezentacja trajektorii 1 3 3 1 1 2 2 1 1 1 2 23 2 1 1 2 0.0 0.2 0.4 0.6 0.8 1.0 Time

Nadmiarowa reprezentacja trajektorii 1 3 3 1 1 2 2 1 1 1 2 23 2 1 1 2 0.0 0.2 0.4 0.6 0.8 1.0 Time X(t) State 1.0 1.5 2.0 2.5 3.0 0.0 0.2 0.4 0.6 0.8 1.0 Time

Nadmiarowa reprezentacja trajektorii 1 3 3 1 1 2 2 1 1 1 2 23 2 1 1 2 0.0 0.2 0.4 0.6 0.8 1.0 Time X(t) State 1.0 1.5 2.0 2.5 3.0 0.0 0.2 0.4 0.6 0.8 1.0 Time X(t) State 1.0 1.5 2.0 2.5 3.0 0.0 0.2 0.4 0.6 0.8 1.0 Time

Reprezentacja trajektorii Nadmiarowa reprezentacja procesu X = (X(t) : t min t t max ): T 1, T 2,..., T N losowe momenty skoków (być może wirtualnych ). S 0, S 1,..., S N szkielet : S i = X(T i ). X(t) = S i 1 dla T i 1 t < T i. T i jest skokiem wirtualnym jeśli S i = S i 1. ( t min T X = 1 T i T N t max ), S 0 S 1 S i S N gdzie N = max{n : T n < 1}.

Uniformizacja Niech λ max s Q(s), gdzie Q(s) = s Q(s, s ). T 1, T 2,..., T N jednorodny proces Poissona z intensywnościa λ. S 0, S 1,..., S N jednorodny łańcuch Markowa z prawdopodobieństwami przejścia Q(s, s ) λ P(s, s ) = 1 Q(s) λ jeśli s s (Rzeczywisty skok) jeśli s = s (Wirtualny skok).

Algorytm Metropolisa-Hastingsa B. Miasojedow, WN, J. Noble, K. Opalski (2014, 2016). Niech X oznacza nadmiarowa reprezentację trajektorii, π jest rozkładem a posteriori. Krok algorytmu MCMC: X m = X X = X m+1. Generujemy propozycję X q(x, ) i akceptujemy ruch X X z prawdopodobieństwem α(x, X ) = 1 π(x )q(x, X) π(x)q(x, X ). Jeśli akceptujemy, to X = X. Jeśli nie, to X = X. Prawdopodobieństwo akceptacji jest tak dobrane, że π jest rozkładem stacjonarnym.

Algorytm Metropolisa-Hastingsa 4 typy ruchów : ChangeTime: T i T i ChangeState: S i S i RemoveJump/AddJump: T = (T 1,..., T i 1, T i, T i+1,..., T N ) T = (T 1,..., T i 1, T i+1,..., T N ). + odpowiednie prawdopodobieństwa akceptacji.

Algorytm Rao i Teha V. Rao, Y.W. Teh (2012, 2013). (T, S) = (J, V, S) = (Rzeczywiste skoki, Wirtualne skoki, Szkielet). Próbnik Gibbsa: (T, S) = (J, V, S) (J, V, S) = (T, S) (T, S ).

Geometryczna ergodyczność algorytmu Rao-Teha TWIERDZENIE (B. Miasojedow i WN) Załóżmy, że macierz intensywności Q jest nieprzywiedlna i λ > max s Q(s). Wtedy łańcuch X m generowany przez algorytm Rao i Teha jest geometrycznie ergodyczny. Istnieje stała γ < 1 i funkcja M takie, że dla każdego X 0, p(x m X 0 ) π(x) TV γ m M(X 0 ).

Geometryczna ergodyczność algorytmu Metropolisa-Hastingsa TWIERDZENIE (B. Miasojedow, WN, J. Noble, K. Opalski) Załóżmy dodatkowo, że inf s s Q(s, s ) δ > 0. Wtedy łańcuch X m generowany przez algorytm Metropolisa-Hastingsa (skonstruowany przez nas) jest geometrycznie ergodyczny. Przykład Niech S = {0, 1, 2, 3, 4}, Q(s, s + 1 mod 5) > 0 i Q(s, s 1 mod 5) > 0, pozostałe intensywności = 0. Łańcuch generowany przez algorytm Metropolisa-Hastingsa nie jest geometrycznie ergodyczny.

Geometryczna ergodyczność algorytmu Metropolisa-Hastingsa TWIERDZENIE (B. Miasojedow, WN, J. Noble, K. Opalski) Załóżmy dodatkowo, że inf s s Q(s, s ) δ > 0. Wtedy łańcuch X m generowany przez algorytm Metropolisa-Hastingsa (skonstruowany przez nas) jest geometrycznie ergodyczny. Przykład Niech S = {0, 1, 2, 3, 4}, Q(s, s + 1 mod 5) > 0 i Q(s, s 1 mod 5) > 0, pozostałe intensywności = 0. Łańcuch generowany przez algorytm Metropolisa-Hastingsa nie jest geometrycznie ergodyczny.

V. Rao, Y. W. Teh. MCMC for continuous-time discrete-state systems. In Advances in Neural Information Processing Systems, 701 709, 2012. V. Rao, Y. W. Teh. Fast MCMC sampling for Markov jump processes and extensions. Journal of Machine Learning Research, 14, 3207 3232, 2013. B. Miasojedow, W. Niemiro, J. Noble, K. Opalski. Metropolis-type algorithms for Continuous Time Bayesian Networks. arxiv:1403.4035v1. B. Miasojedow, W. Niemiro. Geometric ergodicity of Rao and Teh s algorithm for homogeneous Markov jump processes. Statistics and Probability Letters 113, 1 6, 2016.