Procesy stochastyczne

Podobne dokumenty
19 marzec, Łańcuchy Markowa z czasem dyskretnym. Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.

Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova

Elementy modelowania matematycznego

Procesy Markowa zawdzięczają swoją nazwę ich twórcy Andriejowi Markowowi, który po raz pierwszy opisał problem w 1906 roku.

Spacery losowe generowanie realizacji procesu losowego

26 marzec, Łańcuchy Markowa z czasem ciągłym. Procesy Stochastyczne, wykład 7, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136

Algorytmy MCMC (Markowowskie Monte Carlo) dla skokowych procesów Markowa

Algorytm Metropolisa-Hastingsa

MATEMATYKA DYSKRETNA - MATERIAŁY DO WYKŁADU GRAFY

Wykład 9: Markov Chain Monte Carlo

Algorytmy MCMC i ich zastosowania statystyczne

Reprezentacje grafów nieskierowanych Reprezentacje grafów skierowanych. Wykład 2. Reprezentacja komputerowa grafów

1 Zbiory i działania na zbiorach.

Zaawansowane metody numeryczne

Ćwiczenia: Ukryte procesy Markowa lista 1 kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II

( n) Łańcuchy Markowa X 0, X 1,...

Wokół wyszukiwarek internetowych

Proces Poissona. Proces {N(t), t 0} nazywamy procesem zliczającym jeśli N(t) oznacza całkowitą liczbę badanych zdarzeń zaobserwowanych do chwili t.

Procesy stochastyczne

Procesy stochastyczne

Zdzisław Dzedzej. Politechnika Gdańska. Gdańsk, 2013

Geometryczna zbieżność algorytmu Gibbsa

ALGEBRA Z GEOMETRIĄ BAZY PRZESTRZENI WEKTOROWYCH

F t+ := s>t. F s = F t.

Proces rezerwy w czasie dyskretnym z losową stopą procentową i losową składką

Struktury danych i złożoność obliczeniowa Wykład 7. Prof. dr hab. inż. Jan Magott

Filogeneza: problem konstrukcji grafu (drzewa) zależności pomiędzy gatunkami.

Plan wykładu. Przykład. Przykład 3/19/2011. Przykład zagadnienia transportowego. Optymalizacja w procesach biznesowych Wykład 2 DECYZJA?

1 Pochodne wyższych rzędów

Zbigniew S. Szewczak Uniwersytet Mikołaja Kopernika Wydział Matematyki i Informatyki. Graniczne własności łańcuchów Markowa

1 Macierz odwrotna metoda operacji elementarnych

Wykład 10. Stwierdzenie 1. X spełnia warunek Borela wtedy i tylko wtedy, gdy każda scentrowana rodzina zbiorów domkniętych ma niepusty przekrój.

Rozwiązania, seria 5.

Analiza Algorytmów 2018/2019 (zadania na laboratorium)

Matematyczne Podstawy Informatyki

Zaawansowane metody numeryczne

Programowanie liniowe

Digraf. 13 maja 2017

Metody teorii gier. ALP520 - Wykład z Algorytmów Probabilistycznych p.2

Ośrodkowość procesów, proces Wienera. Ośrodkowość procesów, proces Wienera Procesy Stochastyczne, wykład, T. Byczkowski,

Wykład 5. Metoda eliminacji Gaussa

Uzupełnienia dotyczące zbiorów uporządkowanych (3 lutego 2011).

Macierze - obliczanie wyznacznika macierzy z użyciem permutacji

Lista 1. Procesy o przyrostach niezależnych.

Wykład 1. Na początku zajmować się będziemy zbiorem liczb całkowitych

Dyskretny proces Markowa

Baza w jądrze i baza obrazu ( )

Grupy. Permutacje 1. (G2) istnieje element jednostkowy (lub neutralny), tzn. taki element e G, że dla dowolnego a G zachodzi.

IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych,

Sortowanie topologiczne skierowanych grafów acyklicznych

Algorytmy MCMC i ich zastosowania statystyczne

a 11 a a 1n a 21 a a 2n... a m1 a m2... a mn x 1 x 2... x m ...

WYŻSZA SZKOŁA INFORMATYKI STOSOWANEJ I ZARZĄDZANIA

28 maja, Problem Dirichleta, proces Wienera. Procesy Stochastyczne, wykład 14, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126

Grupy Coxetera i diagramy Coxetera Dynkina

PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω)

zbiorów domkniętych i tak otrzymane zbiory domknięte ustawiamy w ciąg. Oznaczamy

Algorytmiczna teoria grafów

Rachunek prawdopodobieństwa - Teoria - Przypomnienie.. A i B są niezależne, gdy P(A B) = P(A)P(B). P(A B i )P(B i )

Teoria gier. wstęp Teoria gier Zdzisław Dzedzej 1

1 Wartości własne oraz wektory własne macierzy

Formy kwadratowe. Mirosław Sobolewski. Wydział Matematyki, Informatyki i Mechaniki UW. 14. wykład z algebry liniowej Warszawa, styczeń 2017

III. Układy liniowe równań różniczkowych. 1. Pojęcie stabilności rozwiązań.

Prawdopodobieństwo i statystyka

Algebry skończonego typu i formy kwadratowe

Zadania do Rozdziału X

Stochastyczna dynamika z opóźnieniem czasowym w grach ewolucyjnych oraz modelach ekspresji i regulacji genów

Zagadnienie transportowe

1 Macierze i wyznaczniki

Diagonalizacja macierzy i jej zastosowania

Układy stochastyczne

Relacje. opracował Maciej Grzesiak. 17 października 2011

Przekształcenia liniowe

Rodzinę F złożoną z podzbiorów zbioru X będziemy nazywali ciałem zbiorów, gdy spełnione są dwa następujące warunki.

domykanie relacji, relacja równoważności, rozkłady zbiorów

Układy równań i nierówności liniowych

5 Wyznaczniki. 5.1 Definicja i podstawowe własności. MIMUW 5. Wyznaczniki 25

Rodzinę spełniającą trzeci warunek tylko dla sumy skończonej nazywamy ciałem (algebrą) w zbiorze X.

Wykład 4. Określimy teraz pewną ważną klasę pierścieni.

3. Macierze i Układy Równań Liniowych

Wykłady z Matematyki Dyskretnej

Wyk lad 4 Macierz odwrotna i twierdzenie Cramera

Zastosowanie wartości własnych macierzy

Algorytmy stochastyczne laboratorium 03

Diagonalizacja macierzy i jej zastosowania

Znajdowanie maksymalnych skojarzeń przy pomocy eliminacji Gaussa

6. Punkty osobliwe, residua i obliczanie całek

Algorytmiczna teoria grafów Przepływy w sieciach.

Metody numeryczne I Równania nieliniowe

WYMAGANIA WSTĘPNE W ZAKRESIE WIEDZY, UMIEJĘTNOŚCI I INNYCHY KOMPETENCJI EFEKTY KSZTAŁCENIA

Marek Miszczyński KBO UŁ. Wybrane elementy teorii grafów 1

Struktury danych i złożoność obliczeniowa Wykład 5. Prof. dr hab. inż. Jan Magott

MACIERZE I WYZNACZNIKI

Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej

1. Zbadać liniową niezależność funkcji x, 1, x, x 2 w przestrzeni liniowej funkcji ciągłych na przedziale [ 1, ).

Wykład 7 Macierze i wyznaczniki

Transkrypt:

Wykład IV: dla łańcuchów Markowa 14 marca 2017 Wykład IV:

Klasyfikacja stanów Kiedy rozkład stacjonarny jest jedyny? Przykład Macierz jednostkowa I wymiaru #E jest macierzą stochastyczną. Dla tej macierzy każdy rozkład jest stacjonarny i każdy rozkład spełnia równanie równowagi szczegółowej. Problem Kiedy istnieje dokładnie jeden rozkład stacjonarny? Odpowiedź: gdy wszystkie wiersze macierzy Q są identyczne, tzn. δ ij + p ij + p ij (2) +... + p ij (n 1) n π j, dla wszystkich i, j E. W szczególności tak będzie, gdy p ij (n) π j, dla wszystkich i, j E. Wykład IV:

Klasyfikacja stanów I Klasyfikacja stanów Macierz P zadaje graf skierowany o wierzchołkach z E. P = 1 1 0 2 0 2 1 1 2 0 2 0 1 1 0 0 2 2 1 1 0 0 2 2 Definicja (Stany istotne i nieistotne) Stan i E nazywamy nieistotnym jeśli istnieje stan j E taki, że p ij (n 0 ) > 0 dla pewnego n 0 1, ale p ji (m) = 0 dla każdego m 1. Stan i jest istotny, jeśli nie jest nieistotny. Wykład IV:

Klasyfikacja stanów II Klasyfikacja stanów Definicja (Stany komunikujące się) Mówimy, że stany i oraz j komunikują się, jeśli istnieją liczby n 0, m 0 N takie, że p ij (n 0 ) > 0 i p ji (m 0 ) > 0. Uwaga: relacja komunikowania się jest relacją równoważności w zbiorze stanów istotnych. Twierdzenie Jeżeli E jest przeliczalną przestrzenią stanów, a P macierzą stochastyczną nad E, to istnieje takie rozbicie przestrzeni stanów E = E 0 E 1 E 2..., że E 0 składa się ze wszystkich stanów nieistotnych, a E 1, E 2,... są rozłącznymi klasami stanów istotnych, komunikujących się wewnątrz każdej klasy. Wykład IV:

Klasyfikacja stanów Definicja () Łańcuch Markowa jest nieprzywiedlny, jeśli wszystkie jego stany są istotne i komunikujące się. Definicja (Okres stanu) Okresem stanu i nazywamy NWD {n ; p ii (n) > 0}. Twierdzenie W łańcuchu nieprzywiedlnym wszystkie stany mają ten sam okres. Definicja (Łańcuch nieokresowy) Łańcuch Markowa jest nieokresowy, jeśli wszystkie jego stany mają okres 1. Wykład IV:

dla łańcuchów Markowa dla łańcuchów Markowa Twierdzenie Zakładamy, że przestrzeń stanów E jest skończona. I. Jeśli łańcuch Markowa jest nieprzywiedlny i nieokresowy, to: (i) i,j E p ij (n) π j ; (ii) j E π j > 0; (iii) 0 h<1 i,j E n N p ij (n) π j h n. II. Jeśli i,j E p ij (n) π j > 0, to łańcuch Markowa jest nieprzywiedlny i nieokresowy. Uwaga: bez założenia nieokresowości część I twierdzenia [ ] nie jest 0 1 prawdziwa. Wystarczy zbadać ewolucję dla P =. 1 0 Uwaga: Część II twierdzenia jest nieprawdziwa bez założenia π j > 0, j E. Wykład IV:

Najważniejsze kroki w dowodzie dla łańcuchów Markowa Lemat Niech a 1, a 2,..., a m N będą takie, że NWD {a 1, a 2,..., a m } = 1. Wówczas istnieje liczba N 0 taka, że każdą liczbę n N 0 można przedstawić w postaci gdzie l 1, l 2,..., l m N. n = l 1 a + l 2 a 2 +... + l m a m, Wniosek Jeśli łańcuch jest nieprzywiedlny i nieokresowy, to istnieje N 0 takie, że dla n N 0 wszystkie elementy macierzy P n są dodatnie. Wykład IV:

dla łańcuchów Markowa Problem Na E (zwykle bardzo licznym) mamy rozkład π. Szukamy P o własnościach: Uwaga (i) π jest rozkładem stacjonarnym dla P. (ii) P n szybko zmierzają do π (jak w tw. ergod.). Sposób osiągnięcia powyższych celów wymyślony został przez fizyków blisko 60 lat temu. W najprostszej sytuacji można go opisać w postaci algorytmu Metropolisa. Ten i inne podobne algorytmy stanowią podstawę dynamicznych metod Monte Carlo (ang. Markov Chain Monte Carlo ). Wykład IV:

dla łańcuchów Markowa Na E wybieramy strukturę grafu (nieskierowanego). W ten sposób każdy stan i E otrzymuje sąsiedztwo E i E w postaci zbioru wierzchołków, które są z nim połączone krawędziami grafu. Zakładamy, że d i = #E i > 1, i E. Weźmy i E. Kładziemy: { } 1 di π d i min j d j π i, 1 jeśli j E i, j i, { } p ij = 1 1 di π d i j E i min j d j π i, 1 jeśli j = i, 0 jeśli j / E i, j i. Łatwo sprawdzić, że tak określone p ij spełniają równanie równowagi szczegółowej(!). Dobierając odpowiednio strukturę grafową można na ogól zapewnić również nieprzywiedlność i nieokresowość, Wykład IV: