Fizyka statystyczna Procesy stochastyczne. P. F. Góra

Podobne dokumenty
Wykład 2. Przykład zastosowania teorii prawdopodobieństwa: procesy stochastyczne (Markova)

19 marzec, Łańcuchy Markowa z czasem dyskretnym. Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136

PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω)

Proces Poissona. Proces {N(t), t 0} nazywamy procesem zliczającym jeśli N(t) oznacza całkowitą liczbę badanych zdarzeń zaobserwowanych do chwili t.

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.

Spacery losowe generowanie realizacji procesu losowego

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

Procesy Markowa zawdzięczają swoją nazwę ich twórcy Andriejowi Markowowi, który po raz pierwszy opisał problem w 1906 roku.

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

Wykład 3 Jednowymiarowe zmienne losowe

Fizyka statystyczna Równanie Fokkera-Plancka

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

Lista 1. Procesy o przyrostach niezależnych.

Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna.

Fizyka statystyczna Zerowa Zasada Termodynamiki. P. F. Góra

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 4. Równania różniczkowe zwyczajne podstawy teoretyczne

Definicje i przykłady

13. Równania różniczkowe - portrety fazowe

Układy statystyczne. Jacek Jurkowski, Fizyka Statystyczna. Instytut Fizyki

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Fizyka statystyczna, elementy termodynamiki nierównowagowej Cele, zakres zagadnień

Pojęcie szeregu nieskończonego:zastosowania do rachunku prawdopodobieństwa wykład 1

Zmienne losowe. dr Mariusz Grzadziel. rok akademicki 2016/2017 semestr letni. Katedra Matematyki, Uniwersytet Przyrodniczy we Wrocławiu

Wykład 1 i 2. Termodynamika klasyczna, gaz doskonały

Fizyka statystyczna Równanie Fokkera-Plancka. P. F. Góra

PRAWDOPODOBIEŃSTWO. ZMIENNA LOSOWA. TYPY ROZKŁADÓW

Procesy stochastyczne 2.

Janusz Adamowski METODY OBLICZENIOWE FIZYKI Kwantowa wariacyjna metoda Monte Carlo. Problem własny dla stanu podstawowego układu N cząstek

Zmienne losowe. Powtórzenie. Dariusz Uciński. Wykład 1. Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski

Układy stochastyczne

Stochastyczna dynamika z opóźnieniem czasowym w grach ewolucyjnych oraz modelach ekspresji i regulacji genów

Wstęp do rachunku prawdopodobieństwa. Cz. 1 / William Feller. wyd. 6, dodr. 4. Warszawa, Spis treści

Wstęp do metod numerycznych Eliminacja Gaussa Równania macierzowe. P. F. Góra

Lista 6. Kamil Matuszewski 13 kwietnia D n =

Rozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej

W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych:

METODY ESTYMACJI PUNKTOWEJ. nieznanym parametrem (lub wektorem parametrów). Przez X będziemy też oznaczać zmienną losową o rozkładzie

Wykład 8 i 9. Hipoteza ergodyczna, rozkład mikrokanoniczny, wzór Boltzmanna

Statystyka matematyczna dla leśników

Prawdopodobieństwo i statystyka

1.1 Przegląd wybranych równań i modeli fizycznych. , u x1 x 2

Matematyka dyskretna. Andrzej Łachwa, UJ, /15

Statystyki kwantowe. P. F. Góra

W2 Podstawy rachunku prawdopodobieństwa (przypomnienie)

Elementy rachunku różniczkowego i całkowego

IX. MECHANIKA (FIZYKA) KWANTOWA

Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu.

STATYSTYKA MATEMATYCZNA. rachunek prawdopodobieństwa

Ogólnopolska Konferencja Aktuarialna Zagadnienia aktuarialne teoria i praktyka Warszawa, IE SGH 2009

Prawdopodobieństwo i statystyka

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności

Dystrybucje, wiadomości wstępne (I)

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014

Matematyka ubezpieczeń majątkowych r.

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych

Rozkłady dwóch zmiennych losowych

Fakty wstępne Problem brachistochrony Literatura. Rachunek wariacyjny. Bartosz Wróblewski

Rozkłady i ich dystrybuanty 16 marca F X (t) = P (X < t) 0, gdy t 0, F X (t) = 1, gdy t > c, 0, gdy t x 1, 1, gdy t > x 2,

Proces Poissona. Wykład Proces zliczajacy

26 marzec, Łańcuchy Markowa z czasem ciągłym. Procesy Stochastyczne, wykład 7, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136

GRA Przykład. 1) Zbiór graczy. 2) Zbiór strategii. 3) Wypłaty. n = 2 myśliwych. I= {1,,n} S = {polować na jelenia, gonić zająca} S = {1,,m} 10 utils

Fizyka statystyczna Zarys problematyki Kilka słów o rachunku prawdopodobieństwa. P. F. Góra

Zmienne losowe, statystyki próbkowe. Wrocław, 2 marca 2015

Komputerowa Analiza Danych Doświadczalnych

Fizyka statystyczna Termodynamika bliskiej nierównowagi. P. F. Góra

Stochastyczne równania różniczkowe, model Blacka-Scholesa

Zmienne losowe ciągłe i ich rozkłady

Tydzień nr 9-10 (16 maja - 29 maja), Równania różniczkowe, wartości własne, funkcja wykładnicza od operatora - Matematyka II 2010/2011L

Komputerowa analiza danych doświadczalnych

Zadanie 1. są niezależne i mają rozkład z atomami: ( ),

Wykład 2 Zmienne losowe i ich rozkłady

Zadania z Rachunku Prawdopodobieństwa III - 1

Fizyka statystyczna Zasady Termodynamiki. P. F. Góra

N ma rozkład Poissona z wartością oczekiwaną równą 100 M, M M mają ten sam rozkład dwupunktowy o prawdopodobieństwach:

Rachunek prawdopodobieństwa (Elektronika, studia niestacjonarne) Wykład 3

Ćwiczenia: Ukryte procesy Markowa lista 1 kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II

Zmienne losowe. dr Mariusz Grządziel Wykład 12; 20 maja 2014

RÓWNANIA RÓŻNICZKOWE WYKŁAD 2

Obliczenia iteracyjne

Wyznaczniki. Mirosław Sobolewski. Wydział Matematyki, Informatyki i Mechaniki UW. 6. Wykład z algebry liniowej Warszawa, listopad 2013

O procesie Wienera. O procesie Wienera. Procesy stochastyczne Wykład XV, 15 czerwca 2015 r. Proces Wienera. Ruch Browna. Ułamkowe ruchy Browna

MODELE STOCHASTYCZNE Plan wykładu

Stabilność II Metody Lapunowa badania stabilności

Wykład 3 Momenty zmiennych losowych.

Definicja i własności wartości bezwzględnej.

Prawa wielkich liczb, centralne twierdzenia graniczne

Wykład 3 Momenty zmiennych losowych.

TERMODYNAMIKA I FIZYKA STATYSTYCZNA

MECHANIKA II. Praca i energia punktu materialnego

Kwantyle. Kwantyl rzędu p rozkładu prawdopodobieństwa to taka liczba x p. , że. Możemy go obliczyć z dystrybuanty: P(X x p.

Wstęp do równań różniczkowych

zdarzenie losowe - zdarzenie którego przebiegu czy wyniku nie da się przewidzieć na pewno.

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 7a. Metody wielokrokowe

21 maja, Mocna własność Markowa procesu Wienera. Procesy Stochastyczne, wykład 13, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126

II. Równania autonomiczne. 1. Podstawowe pojęcia.

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Zadania do Rozdziału X

Zastosowania wyznaczników

Transkrypt:

Fizyka statystyczna Procesy stochastyczne P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2015

Procesy stochastyczne motywacja Układy makroskopowe maja bardzo dużo stopni swobody, rzędu liczby Avogadra, czyli rzędu 10 23. Demon Laplace a, czyli hipotetyczna istota zdolna śledzić wszystkie czastki mikroskopowe, jest w praktyce nieralizowalny, tym bardziej, że tak naprawdę interesuje nas albo zachowanie wybranych, obserwowalnych stopni swobody, albo też zmiennych makroskopowych, odpowiadajacych pewnym wielkościom uśrednionym. Wpływ licznych nieobserwowalnych stopni swobody zastępujemy procesem stochastycznym, którego własności statystyczne umiemy podać. Jeśli ograniczamy się do fizyki klasycznej, procesy stochastyczne sa proteza naszej niewiedzy. Copyright c 2015 P. F. Góra 2 2

Proces stochastyczny Proces stochastyczny to rodzina zmiennych losowych indeksowana pewna zmienna t. Zmienna indeksujac a t zwyczajowo nazywamy czasem, choć w niektórych zastosowaniach może ona oznaczać jakaś współrzędna przestrzenna. Niech f( ) będzie jakaś funkcja, X zmienna losowa. f(x) jest jakaś inna zmienna losowa. Proces stochastyczny można interpretować jako rodzinę f(x, t) gdzie t oznacza zmienna indeksujac a. Jeżeli dla każdej wartości t wybierzemy jakaś konkretna wartość zmiennej losowej X, dostaniemy funkcję zmiennej t y(t) = f(x, t) Copyright c 2015 P. F. Góra 2 3

która nazywamy realizacja procesu stochastycznego. Inne wybory warości zmiennej X, zachodzace z odpowiednimi prawdopodobieństwami, prowadza do innych realizacji tego samego procesu. Oczekujemy jednak, że pewne własności samego procesu stochastycznego, rozumianego na ogół jako kolekcja realizacji, będzie dało się wydedukować ze znajomosci rozkładu prawdopodobieństwa zmiennej X oraz z własności funkcji f( ). Copyright c 2015 P. F. Góra 2 4

Procesy Markowa Weźmy pewien ciag zmiennych indeksujacych t 1 < t 2 < < t n. Niech ( ) P 1 n 1 yn, t n y 1, t 1 ; y 2, t 2 ;... ; y n 1, t n 1 oznacza prawdopodobieństwo warunkowe, iż pewien proces stochastyczny w chwili t n przyjał wartość y n, pod warunkiem, że w chwili t n 1 przyjał wartość y n 1 oraz w chwili t n 2 przyjał wartość y n 2 oraz w chwili t n 3 przyjał wartość y n 3 oraz.... Jeżeli dla każdego n i dla każdego możliwego wyboru t 1 < t 2 < < t n zachodzi P 1 n 1 ( yn, t n y 1, t 1 ; y 2, t 2 ;... ; y n 1, t n 1 ) = P1 1 ( yn, t n y n 1, t n 1 ) proces taki nazywamy procesem Markowa. (1) Copyright c 2015 P. F. Góra 2 5

Anderi Andreiewicz Markow Copyright c 2015 P. F. Góra 2 6

Własność (1) mówi, że proces nie ma długiej pamięci : Gęstość prawdopodobieństwa warunkowego w chwili t n jest jednoznacznie wyznaczona przez wartości w chwili t n 1 i żadne informacje na temat wartości przyjmowanych we wcześniejszych chwilach nie maja na nia wpływu. Prawdopodobieństwo P 1 1 nazywamy prawdopodobieństwem przejścia. Proces Markowa jest w całości wyzanczony przez dwie funkcje: Prawdopodobieństwo poczatkowe P 1 (y 1, t 1 ) oraz prawdopodobieństwo przejścia P 1 1 (y 2, t 2 y 1, t 1 ). Istotnie, biorac dowolne t 1 < t 2 < t 3 otrzymamy dla prawdopodobieństwa łacznego P 3 (y 1, t 1 ; y 2, t 2 ; y 3, t 3 ) = P 1 2 (y 3, t 3 y 2, t 2 ; y 1, t 1 )P 2 (y 1, t 1 ; y 2, t 2 ) = P 1 1 (y 3, t 3 y 2, t 2 )P 1 1 (y 2, t 2 y 1, t 1 )P 1 (y 1, t 1 ) (2) Definicję procesu Markowa oraz powyższa własność można z łatwościa uogólnić na przypadek wielowymiarowy. Copyright c 2015 P. F. Góra 2 7

Równanie Chapmana-Kołmogorowa Jeżli scałkujemy (2) po y 2 dla t 1 < t 2 < t 3 otrzymamy P 2 (y 1, t 1 ; y 3, t 3 ) = P 1 (y 1, t 1 ) P 1 1 (y 3, t 3 y 2, t 2 )P 1 1 (y 2, t 2 y 1, t 1 ) dy 2. (3) Jeśli podzielimy powyższa równość przez P 1 (y 1, t 1 ), otrzymamy równanie Chapmana-Kołmogorowa: P 1 1 (y 3, t 3 y 1, t 1 ) = P 1 1 (y 3, t 3 y 2, t 2 )P 1 1 (y 2, t 2 y 1, t 1 ) dy 2, (4) gdzie całkowanie rozciaga się po całym zakresie zmiennej y 2 oraz musi być spełniony warunek t 1 < t 2 < t 3. Prawdopodobieństwo przejścia musi być całka (suma) prawdopodobieństw przejścia po wszystkich możliwych drogach pośrednich. Copyright c 2015 P. F. Góra 2 8

Tak naprawdę to równanie Chapmana-Kołmogorowa stanowi poprawna matematyczna definicje procesu Markowa: Każda funkcja P 1 1 ( ) spełniajaca równanie (4) jest prawdopodobieństwem przejścia w pewnym procesie Markowa. Musi także zachodzić P 1 (y 2, t 2 ) = P 1 1 (y 2, t 2 y 1, t 1 )P 1 (y 1, t 1 )dy 1. (5) Prawdopodobieństwo przejścia P 1 1 i jednopunktowa funcja rozkładu P 1 procesu Markowa spelniaja równania (4) i (5). Na odwrót, każde dwie funkcje spełniajace te równania wyznaczaja pewien proces Markowa. Copyright c 2015 P. F. Góra 2 9

Proces Wienera Rozpatrzmy proces zadany prawdopodobieństwem przejścia (y 1, y 2 R, t 2 > t 1 ) P 1 1 (y 2, t 2 y 1, t 1 ) = 1 exp 2π(t 2 t 1 ) [ (y 2 y 1 ) 2 2(t 2 t 1 ) ], (6) Łatwo sprawdzić, że funkcja (6) spełnia równanie Chapmana-Kołmogorowa. Jeżeli przyjmiemy, że P 1 (y 1, 0) = δ(y 1 ), z (5) otrzymamy P 1 (y, t) = 1 2πt exp [ y2 2t ], t > 0. (7) Jest to tak zwany proces Wienera. Gęstość (7) jest, jak zobaczymy, zależna od czasu gęstościa położenia czastki podlegajacej jednowymiarowej dyfuzji. Copyright c 2015 P. F. Góra 2 10

Proces Poissona Proces Poissona zlicza jakieś elementarne zdarzenia, jakie zaszły do danej chwili czasu t 0. Rozważamy zatem pewien proces N(t), o którym zakładamy, że i. h > 0: rozkład zmiennej losowej N(t + h) N(t) jest taki sam, to znaczy, nie zależy on od t. ii. Zmienne losowe N(t j ) N(t j ), N(t k) N(t k ) s a niezależne, jeśli tylko [t j, t j] [t k, t k] = (przedziały nie przecinaja się). iii. N(0) = 0, N(t) jest liczba całkowita, prawostronnie ciagł a i niemalejac a jako funkcja t. iv. P (N(t + h) N(t) 2) = P (N(h) 2) = o(h) gdy h 0 (prawdopodobieństwo, że w bardzo krótkim przedziale N wzrośnie o 2 lub więcej jest zaniedbywalnie małe). Copyright c 2015 P. F. Góra 2 11

6 5 4 N(t) 3 2 1 0 0 t 1 t 2 t 3 t 4 t 5 t 6 t Przykładowa realizacja procesu Poissona: Jednostkowe przyrosty pewnej wielkości w losowo wybranych chwilach czasu. Czas oczekiwania na kolejne skoki ma rozkład wykładniczy. Copyright c 2015 P. F. Góra 2 12

Przy tych założeniach można pokazać, że N(t) jest funkcja schodkowa, narastajac a w krokach o wysokości 1. Istnieje λ 0 taka, że zmienna losowa N(t + s) N(s) ma rozkład Poissona z parametrem λt. Czas oczekiwania na przeskok jest zmienna losowa o rozkładzie wykładniczym: Jeżeli τ 1, τ 2,..., sa czasami oczekiwania na kolejne skoki, prawdopodobieńswto skoku spełnia Patrz na przykład tutaj. P (τ j x) = e λx. Copyright c 2015 P. F. Góra 2 13

Prawdopodobieństwo warunkowe wynosi P 1 1 (N 2, t 2 N 1, t 1 ) = [λ(t 2 t 1 )] N 2 N 1 e λ(t 2 t 1 ) (N 2 N 1 )! (8) dla N 2 N 1, t 2 > t 1 (P 1 1 = 0 poza tym). Można łatwo sprawdzić, że prawdopodobieństwo przejścia (8) spełnia równanie Chapmana-Kołmogorowa, a zatem wraz z warunkiem N(0) = 0 definiuje pewien proces Markowa. Copyright c 2015 P. F. Góra 2 14

Procesy narodzin i śmierci Procesy narodzi i śmierci (Birth and Death Processes) sa uogólnieniem procesu Poissona. Zliczana zmienna może zwiększać się, ale także zmniejszać się o 1 w losowo dobranych momentach. N(t) nazywamy stanem procesu w chwili t. Proces narodzin i śmierci można zilustrować za pomoca diagramu stanów: λ k oznaczaja prędkości (ang. rate) narodzin, µ k prędkości śmierci w stanie k. Copyright c 2015 P. F. Góra 2 15

Prawdopodobieństwo czasu oczekiwania na przeskok, podobnie jak w procesie Poissona, dane jest rozkładem wykładniczym. Jeżeli prawdopodobieństwa narodzin (zwiększenia się wartości, czyli ruchu do wyższego stanu) i śmierci (zmiejszenia się wartości, czyli ruchu do niższego stanu) nie zależa od wartości stanu, proces taki nazywamy jednorodnym. Proces narodzin i śmierci jest procesem Markowa. Przykład realizacji procesu narodzin i śmierci Copyright c 2015 P. F. Góra 2 16

Niech P 1 (k, t) oznacza prawdopodobieństwo, że w chwili t proces jest w stanie k. Jeżeli granica lim t P 1(k, t) istnieje dla każdego k, mówimy, że proces osiaga stan równowagi. Dla procesu jednorodnego osiagnięcie stanu równowgi jest możliwe tylko gdy λ < µ (prędkość narodzin jest mniejsza od prędkości śmierci). Procesy narodzin i śmierci, podobnie jak proces Poissona, sa wykorzystywane w teorii kolejek. Copyright c 2015 P. F. Góra 2 17

Realizacje jednorodnego procesu narodzin i śmierci. Górny panel: λ < µ, środkowy panel: λ = µ (bładzenie przypadkowe), dolny panel: λ > µ (eksplozja) Copyright c 2015 P. F. Góra 2 18

Łańcuchy Markowa Proces Poissona i jednorodne procesy narodzin i śmierci sa przykładami łańcuchów Markowa, czyli procesów Markowa, w których zmienna losowa może przyjmować tylko dyskretny (skończony lub co najwyżej przeliczalny) zbiór wartości, zwanych stanami, prawdopodobieństwo przejścia zależy wyłacznie od różnicy czasów. Jeśli dodatkowo przyjmiemy, że zmienna czasowa jest dyskretna i może przyjmować tylko wartości całkowite..., 2, 1, 0, 1, 2,... proces taki nazywamy dyskretnym łańcuchem Markowa. Ten przypadek jest najczęstszy; często domyślnie zakłada się, że jeśli mówimy o łańcuchu Markowa, mamy na myśli dyskretny łańcuch Markowa. Jeśli dostępna przestrzeń stanów jest skończona, łańcuch nazywamy skończonym. Copyright c 2015 P. F. Góra 2 19

Macierz przejścia Dla dyskretnego łańcucha Markowa prawdopodobieństwa przejścia zapisujemy jako P 1 1 (k, 2 l, 1) = W kl. (9) W kl jest prawdopodobieństwem przejścia w jednym kroku ze stanu l do stanu k. Dla skończonego, N-stanowego, dyskretnego łańcucha Markowa, liczby W kl tworza macierz W R N N, zwana macierza przejścia. Copyright c 2015 P. F. Góra 2 20

Własności macierzy przejścia W kl 0: prawdopodobieństwa nie moga być ujemne. l : N k=1 W kl = 1: Suma elementów w każdej kolumnie równa się jeden, gdyż jest to prawdopodobieństwo całkowite na to, że układ ze stanu l pójdzie gdziekolwiek. Niech p(n) R N oznacza wektor prawdopodobieństw, że w chwili n układ znajduje się w poszczególnych stanach: p 1 (n) jest prawdopdobieństwem tego, że w chwili n układ jest w stanie 1, p 2 (n) jest prawdopdobieństwem tego, że w chwili n układ jest w stanie 2 itd. Musi zachodzić p i (n) 0, N i=1 p i (n) = 1. Równanie (5) przybiera postać p(2) = Wp(1). (10) Copyright c 2015 P. F. Góra 2 21

Przykład Czastka może znajdować się w jednym z trzech stanów: A, B, C. Jeśli w chwili n czastka jest w stanie A, w chwili n+1 znajdzie się z prawdopodobieństwem 2/3 w stanie B lub z prawdopodobieństwem 1/3 w stanie C. Jeśli w chwili n czastka jest w stanie B, w chwili n+1 z równym prawdopodobieństwem znajdzie się w którymś z pozostałych stanów lub pozostanie w stanie bieżacym. Jeśli w chwili n czastka jest w stanie C, w chwili n+1 z prawdopodobieństwm 2/3 znajdzie się w stanie A lub z prawdopodobieństwm 1/3 znajdzie się w stanie B. W chwili n=1 czastka znajduje się w stanie A. Copyright c 2015 P. F. Góra 2 22

Dla tego przykładu p(1) = p(3) = Wp(2) = 1 0 0 W = 0 1 3 2 1 3 3 1 3 2 3 1 3 2 3 0, p(2) = Wp(1) = 4 9 3 9 2 9, p(4) = Wp(3) = 0 2 3 1 3, 7 27 13 27 7 27 (11a),... (11b) Copyright c 2015 P. F. Góra 2 23

Równowagowy rozkład prawdopodobieństwa Przypuśćmy, że istnieje taki wektor p, że zadany przez niego rozkład prawdopodobieństwa nie zmienia się po przekształceniu przez macierz przejścia W: Wp = p. (12) Mówimy, że p zadaje równowagowy rozkład prawdopodobieństwa. Widać, że rozkład równowagowy jest wektorem własnym macierzy przejścia do wartości własnej 1, o ile wektor taki istnieje. W takim wypadku lim n Wn p(1) = p. Dla przykładu ze strony 22, p = 5 16 7 16 4 16. (13) Copyright c 2015 P. F. Góra 2 24

Równanie master Weźmy jednorodny proces Markowa, to znaczy taki, w którym prawdopodobieństwa przejścia zależa wyłacznie od różnicy czasów. Zapisujemy P 1 1 (y 2, t 2 y 1, t 1 ) = T τ (y 2 y 1 ), τ = t 2 t 1. (14) W tych oznaczeniach równanie Chapmana-Kołmogorowa (4) ma postać T τ+τ (y 3 y 1 ) = T τ (y 3 y 2 )T τ (y 2 y 1 )dy 2. (15) Jak zachowuje się T τ (y 2 y 1 ) dla bardzo małych czasów τ? Copyright c 2015 P. F. Góra 2 25

Postulujemy, że w bardzo małym czasie τ przejście nie nastapi, lub, jeśli przejście nastapi, prawdopodobieństwo przejścia jest proporcjonalne do τ : T τ (y 2 y 1 ) = (1 ) τ W (y 2 y 1 )dy 2 δ(y 2 y 1 )+τ W (y 2 y 1 )+o(τ ), (16) gdzie W (y 2 y 1 ) 0 jest prawdopodobieństwem przejścia w jednostce czasu od y 1 do y 2. W (y2 y 1 )dy 2 jest prawdopodobieństwem tego, że w jednostce czasu nastapi przejście z y 1 gdziekolwiek. Copyright c 2015 P. F. Góra 2 26

Podstawiamy (16) do (15): T τ+τ (y 3 y 1 ) = (1 ) τ W (y 2 y 3 )dy 2 T τ (y 3 y 1 ) + τ W (y 3 y 2 )T τ (y 2 y 1 )dy 2, (17) Po uporzadkowaniu wyrazów, podzieleniu przez τ i przejściu do granicy τ 0, dostajemy τ T τ(y 3 y 2 ) = (W (y 3 y 2 )T τ (y 2 y 1 ) W (y 2 y 3 )T τ (y 3 y 1 )) dy 2. (18) Na koniec mnożymy obie strony (18) przez P 1 (y 1 ), całkujemy po y 1 i dostajemy równanie master: P (y, t) t = (W (y y )P (y, t) W (y y)p (y, t) ) dy. (19) Copyright c 2015 P. F. Góra 2 27

Dla łańcuchów Markowa równanie master ma szczególnie wygodna postać: dp n (t) dt = n [W nn p n (t) W n n p n(t)]. (20) Równanie master jest równaniem bilansu: Prawdopodobieństwo znalezienia się w stanie n rośnie, gdy układ przechodzi z innego stanu do stanu n. Prawdopodobieństwo to spada, gdy układ przechodzi ze stanu n do jakiegoś innego stanu. Trzeba to teraz wysumować po wszystkich stanach, z których układ może przejść do stanu n lub do których może z tego stanu uciec. Równanie master wyprowadziliśmy z równania Chapmana-Kołmogorowa dla procesów jednorodnych w czasie; można je uważać za różniczkowa postać tego równania. Copyright c 2015 P. F. Góra 2 28

Warunek równowagi Układ pozostaje w stanie stacjonarnym, gdy prawdopodobieństwa obsadzenia wszystkich stanów w łańcuchu Markowa nie zmieniaja się w czasie. Z równania master (20) widzimy, że oznacza to, iż n: n [W nn p n (t) W n n p n(t)] = 0. (21) Warunek równowagi (21) oznacza, w każdym stanie suma wpływów i wypływów bilansuje się: Sumaryczne przejścia do danego stanu z wszystkich innych stanów sa zrównoważone przez ucieczki z tego stanu do wszystkich innych możliwych stanów. Copyright c 2015 P. F. Góra 2 29

Warunek równowagi szczegółowej Jeżeli w (21) położymy n, n : W nn p n (t) W n n p n(t) = 0 (22) warunek równowagi rzecz jasna będzie spełniony. Warunek (22) nazywa się warunkiem równowagi szczegółowej. Oznacza on, że nie tylko sumaryczne przepływy się równoważa, ale że dla każdej pary stanów wzajemne przepływy w stanie równowagi bilansuja się: Ile przejdzie ze stanu n do stanu n, tyle przejdzie ze stanu n do stanu n. Warunek równowagi szczegółowej jest silniejszy, niż warunek równowagi: z (22) wynika (21), ale nie na odwrót. Copyright c 2015 P. F. Góra 2 30

Konsekwencje warunku równowagi szczegółowej Jedna z konsekwencji warunku równowagi szczegółowej jest to, że nie może być cyklicznych przepływów prawdopodobieństwa: Dla każdej trójki stanów m, n, s W nm W sn W ms = W sm W ns W mn (23) i podobnie dla bardziej rozbudowanych cykli. Łańcuch Markowa, który spełnia warunek równowagi szczegółowej, nazywamy odwracalnym. Można pokazać, że w skończonych, zamkniętych (izolowanych) układach fizycznych warunek równowagi szczegółowej musi być spełniony. Jest to zwiazane z mikroskopowa odwracalnościa równań ruchu. W mechanice kwantowej odpowiednikiem warunku równowagi szczegółowej jest złota reguła Fermiego. Copyright c 2015 P. F. Góra 2 31

Układy otwarte na przykład wymieniajace z otoczeniem energię moga nie spełniać warunu równowagi szczegółowej, choć spełniaja warunek równowagi (21). Przykładem na to sa oscylacyjne reakcje chemiczne, a także (przynajmniej w pewnym przybliżeniu) niektóre zjawiska meteorologiczne. Trywialnym przykładem jest... zegar: uśrednione po czasie (lub po zespole statystycznym) prawdopodobieństwo, że duża wskazówka pokazuje któraś minutę nie zmienia się w czasie, podczas gdy zegar, czerpiac energię z zewnatrz, wykazuje ruch cykliczny. Copyright c 2015 P. F. Góra 2 32

Przykład Dla cyklicznych reakcji chemicznych zachodzacych bez wymianry energii (ani czastek, ani niczego innego) z otoczeniem, warunek równowagi szczegółowej może być spełniony jedynie gdy stałe kinetyczne spełniaja k 1 k 3 k 5 = k 2 k 4 k 6. (24) Copyright c 2015 P. F. Góra 2 33

Jeśli warunek (24) nie byłby spełniony, układ nie osiagałby stanu równowagi. Konieczność spełnienia warunku (24) wynika z mikroskopowej odwracalności reakcji. Copyright c 2015 P. F. Góra 2 34