NOTATKI SPORZADZIŁ: JACEK MUCHA

Podobne dokumenty
21 maja, Mocna własność Markowa procesu Wienera. Procesy Stochastyczne, wykład 13, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126

F t+ := s>t. F s = F t.

28 maja, Problem Dirichleta, proces Wienera. Procesy Stochastyczne, wykład 14, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

8 Całka stochastyczna względem semimartyngałów

Ośrodkowość procesów, proces Wienera. Ośrodkowość procesów, proces Wienera Procesy Stochastyczne, wykład, T. Byczkowski,

Zadania z Procesów Stochastycznych 1

4 Kilka klas procesów

Korzystając z własności metryki łatwo wykazać, że dla dowolnych x, y, z X zachodzi

Teoria miary. WPPT/Matematyka, rok II. Wykład 5

Teoria ze Wstępu do analizy stochastycznej

2 Rodziny zbiorów. 2.1 Algebry i σ - algebry zbiorów. M. Beśka, Wstęp do teorii miary, rozdz. 2 11

Zadania z Analizy Funkcjonalnej I Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi?

7 Twierdzenie Fubiniego

Zadania z Rachunku Prawdopodobieństwa III - 1

Zadania do Rozdziału X

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności

A i. i=1. i=1. i=1. i=1. W dalszej części skryptu będziemy mieli najczęściej do czynienia z miarami określonymi na rodzinach, które są σ - algebrami.

jest ciągiem elementów z przestrzeni B(R, R)

Rozdział 6. Ciągłość. 6.1 Granica funkcji

1 Relacje i odwzorowania

Zadania z Analizy Funkcjonalnej I Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi?

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Dystrybucje, wiadomości wstępne (I)

Notatki z Analizy Matematycznej 2. Jacek M. Jędrzejewski

n=0 Dla zbioru Cantora prawdziwe są wersje lematu 3.6 oraz lematu 3.8 przy założeniu α = :

G. Plebanek, MIARA I CAŁKA Zadania do rozdziału 1 28

Zadania ze Wstępu do Analizy Stochastycznej 1. = 0 p.n.

O pewnych klasach funkcji prawie okresowych (niekoniecznie ograniczonych)

Rodzinę F złożoną z podzbiorów zbioru X będziemy nazywali ciałem zbiorów, gdy spełnione są dwa następujące warunki.

WYKŁAD Z ANALIZY MATEMATYCZNEJ I. dr. Elżbieta Kotlicka. Centrum Nauczania Matematyki i Fizyki

Prawdopodobieństwo i statystyka

Teoria miary i całki

Zdzisław Dzedzej. Politechnika Gdańska. Gdańsk, 2013

zbiorów domkniętych i tak otrzymane zbiory domknięte ustawiamy w ciąg. Oznaczamy

Rodzinę spełniającą trzeci warunek tylko dla sumy skończonej nazywamy ciałem (algebrą) w zbiorze X.

19 marzec, Łańcuchy Markowa z czasem dyskretnym. Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136

Informacja o przestrzeniach Sobolewa

PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω)

Prawdopodobieństwo i statystyka

1. Struktury zbiorów 2. Miara 3. Miara zewnętrzna 4. Miara Lebesgue a 5. Funkcje mierzalne 6. Całka Lebesgue a. Analiza Rzeczywista.

Prawa wielkich liczb, centralne twierdzenia graniczne

Szkice do zajęć z Przedmiotu Wyrównawczego

Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu.

Wykłady... b i a i. i=1. m(d k ) inf

Informacja o przestrzeniach Hilberta

Zagadnienia brzegowe dla równań eliptycznych

Wykład 10. Stwierdzenie 1. X spełnia warunek Borela wtedy i tylko wtedy, gdy każda scentrowana rodzina zbiorów domkniętych ma niepusty przekrój.

Wykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga

RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3.

7. Miara, zbiory mierzalne oraz funkcje mierzalne.

PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA

VI. Równania różniczkowe liniowe wyższych rzędów

Wykład 3 Jednowymiarowe zmienne losowe

Całka podwójna po prostokącie

Zestaw zadań z Równań różniczkowych cząstkowych I 18/19

Matematyka II. Bezpieczeństwo jądrowe i ochrona radiologiczna Semestr letni 2018/2019 wykład 13 (27 maja)

5 Przegląd najważniejszych rozkładów

Analiza Funkcjonalna - Zadania

1 Zbiory. 1.1 Kiedy {a} = {b, c}? (tzn. podać warunki na a, b i c) 1.2 Udowodnić, że A {A} A =.

czastkowych Państwo przyk ladowe zadania z rozwiazaniami: karpinw adres strony www, na której znajda

Dystrybucje. Marcin Orchel. 1 Wstęp Dystrybucje Pochodna dystrybucyjna Przestrzenie... 5

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

Zadania z Rachunku Prawdopodobieństwa II Podaj przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,

1 Działania na zbiorach

Rozdział 4. Ciągi nieskończone. 4.1 Ciągi nieskończone

Całki powierzchniowe w R n

Wykłady ostatnie. Rodzinę P podzbiorów przestrzeni X nazywamy σ - algebrą, jeżeli dla A, B P (2) A B P, (3) A \ B P,

Ciągłość funkcji f : R R

Całki krzywoliniowe. SNM - Elementy analizy wektorowej - 1

Analiza matematyczna. 1. Ciągi

Rozdział 5. Szeregi liczbowe. 5.1 Szeregi liczbowe. Definicja sumy częściowej ciągu. Niech dany będzie ciąg liczbowy (a n ) n=1.

Seria 1. Zbieżność rozkładów

Lista zagadnień omawianych na wykładzie w dn r. :

1 Elementy analizy funkcjonalnej

Wstęp do Analizy Stochastycznej

Całki krzywoliniowe wiadomości wstępne

1 Ciągłe operatory liniowe

}, gdzie a = t (n) )(f(t(n) k. ) f(t(n) k 1 ) 1+δ = 0,

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014

Teoria miary. Matematyka, rok II. Wykład 1

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Ważną rolę odgrywają tzw. funkcje harmoniczne. Przyjmujemy następującą definicję. u = 0, (6.1) jest operatorem Laplace a. (x,y)

ZAGADNIENIA DO EGZAMINU MAGISTERSKIEGO

(b) Suma skończonej ilości oraz przekrój przeliczalnej ilości zbiorów typu G α

Procesy stochastyczne

Wykład 2 Zmienne losowe i ich rozkłady

3. Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,

Jednowymiarowa zmienna losowa

Prawdopodobieństwo i statystyka

Definicja odwzorowania ciągłego i niektóre przykłady

Zadania z Analizy Funkcjonalnej I* - 1

System BCD z κ. Adam Slaski na podstawie wykładów, notatek i uwag Pawła Urzyczyna. Semestr letni 2009/10

Statystyka i eksploracja danych

13 Równanie struny drgającej. Równanie przewodnictwa ciepła.

2. Definicja pochodnej w R n

TwierdzeniePoincaré 1 Bendixsona 2

Zadania z Rachunku Prawdopodobieństwa II Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,

Transkrypt:

WYDZIAŁ PODSTAWOWYCH PROBLEMÓW TECHNIKI POLITECHNIKI WROCŁAWSKIEJ DR HAB. MATEUSZ KWAŚNICKI Teoria potencjału procesów Markowa NOTATKI SPORZADZIŁ: JACEK MUCHA WROCŁAW 2015

Spis treści 1 Elektrostatyka 3 1.1 Istnienie i własności funkcji Greena G D (x,y) i jądra Poissona P D (x,z) 6 2 Ruch Browna 7 2.1 Warunkowa wartość oczekiwana................... 7 2.2 Ruch Browna............................. 7 2.3 Konstrukcja.............................. 8 2.4 Przestrzeń Wienera.......................... 8 3 Własność Markowa 9 4 Czasy Markowa 11 5 Mocna własność Markowa 15 5.1 Procesy Fellera............................ 15 5.2 λ-potencjał.............................. 19 5.3 Funkcje λ-ekscesywne........................ 21 5.4 Operatory przesunięcia........................ 23

Klasyczna Teoria Potencjału Klasyczna teoria potencjału (słowo kluczowe: laplasjan, ) Probabilistyczna teoria potencjału (Brownian Motion, BM) Probabilistyczna ogólna teoria potencjału (Markov Processes, MP) Uwaga notacyjna. Należy zachować ostrożność przy odróżnianiu x i x, w pewnym bowiem momencie przestaniemy pisać strzałkę nad wektorem.

1 Elektrostatyka Oznaczenia: E - pole elektrostatyczne, µ - rozkład ładunku (nie zależy od czasu, B = J = 0). Prawo 1.1 (Coulomba). Załóżmy, że Wtedy zachodzi tzw. Prawo Coulomba Obserwacja 1.2. gdzie µ dy <. (1) R 3 1 + y 2 E( x) = 1 x y µ(dy) (2) 4π R 3 x y 3 1 x y 4π x y 3 = yu( x, y), (3) U( x, y) = U( x y) = 1 1 4π x y. (4) Stąd E( x) = yu( x, y)µ(dy) = R 3 xu( x, y))µ(dy) =! R 3 U( x, y)µ(dy). (5) R3 Definicja 1.1. Potencjałem miary µ (potencjałem Newtona) nazwiemy wielkość daną wzorem U µ ( x) := U( x, y)µ(dy). (6) R3 Ogólniej, dla d 3, dla U(x,y) = U(x y) = 1 1 (d 2) B(0,1) mamy x y d 2 1 x y y U(x,y) = (d 2) B(0,1) x y d. (7) Fakt 1.3. γ E( x)d x = U µ ( x 2 ) U µ ( x 1 ), gdzie krzywa γ łączy x 1 z x 2. Dowód. E( x) U µ ( x), a stąd E( x(t)) x (t)dt = U µ ( x(t)). Fakt 1.4. Pole elektryczne jest bezwirowe, tzn. Dowód. Wynika z faktu, że f = 0. E = 0 (8)

Definicja 1.2. Przypomnienie. 1. Gradientem funkcji f nazywamy wielkość f = ( 1 f,..., d f ). 2. Dywergencją pola E nazywamy wielkość E = 1 E 1 + + d E d. 3. Rotacją pola E (wirowością) nazywamy wielkość E = ( 2 E 3 3 E 2, 3 E 1 1 E 3, 1 E 2 2 E 1 ). Twierdzenie 1.5. E = V E = 0. Twierdzenie 1.6 (Twierdzenie o Dywergencji). Niech D R 3 będzie zwartym obszarem dodatnio zorientowanym o brzegu kawałkami gładkim oraz F będzie polem wektorowym klasy C 1 określonym na otwartym zbiorze zawierającym D. Wtedy F( y)dy = F( z) d n z, (9) D gdzie n z jest wektorem normalnym skierowanym na zewnątrz D. Twierdzenie to mówi o tym, ile pola "powstaje wewnątrz D". Twierdzenie 1.7 (Trzeci Wzór Greena). Przy spełnionych założeniach poprzedniego twierdzenia oraz dla f klasy C 2, zachodzi wzór f ( x) = U( x, y) f ( y)d y + U( x, z) f ( z) f ( z) y U( x, z) d n z. (10) D D Dowód. Skorzystamy z Twierdzenia 1.6 oraz z faktu, że laplasjan =, tzn. f = 2 1 f + + 2 d f. F( y) = U( x, y) f ( y) f ( y) yu( x, y). D F( y) = y U f +Y f f y U f f f U = U f f y U. Ćwiczenie 1.1. Dla x y zachodzi y U( x, y) = 0. Zastosujemy Twierdzenie o Dywergencji dla D \ B(x,ε). RHS = U( x, y) f ( y)dy+ + (U( x, z) f ( z) f ( z) y x, z)) n z = D = B( x,ε) D\B( x,ε) B( x,ε) U( x, y) f ( y)dy + c d ε d+2 B( x,ε). Zauważmy, że n = z x ε = ε2 ε, stąd RHS = (U( x, y) c d ε d+2 ) f ( y)dy + B( x,ε) 1 f ( z) B(0, 1) B( x,ε) ε ε d d z 1 B( x,ε) f ( z)dz.

Pierwsza całka dąży do 0 przy ε 0 +, bo pierwszy składnik nie zależy od ε, podczas gdy całkujemy go po malejącej do zbioru pustego kuli, natomiast drugi składnik rośnie do wolniej niż kurczy się kula. Z kolei całka krzywoliniowa, z ciągłości f, dąży do f ( x), co kończy dowód, bo RHS ε 0+ LHS. E = (Uµ). Ze wzoru Greena: U µ ( x) = U( x, y) (Uµ)( y)d y + ( U( x, z) E( z) Uµ( z) y U( x, z)) d n z. D D Zauważmy, że U( x, z) 1 z, E( z) 1, Uµ( z) 1 z 2 z, zaś yu( x, y) 1. Jeśli przyjmiemy D = B(0,R), R U µ ( x) = Rd U( x, y) (Uµ)( y)dy. W tym przy- z 2 padku, jeśli U µ nie jest klasy C 2, to można spleść µ z gładką funkcją φ, co daje U(µ φ)( x) = U( x, y) (U(µ φ))( y)d y = U( U(µ φ))( x) Rd U(µ φ) = U( U(µ φ)) U jest operatorem różnowartościowym, bo U(ψ) = 0 Uψ = 0 U( ψ) = 0 i z 3. Wzoru Greena ψ = 0. Zatem µ φ = U(µ φ). Można to pokazać inaczej: z gładkości splotu i Trzeciego Wzoru Greena dostajemy, że (µ φ)( x) = Rd U( x, y) (µ φ)( y)d y = U( (µ φ)( x) = U(µ φ)( x). Możemy więc powiedzieć, że możliwe jest odzyskanie gęstości rozkładu ładunku poprzez przyłożenie laplasjanu do potencjału, tzn. µ(d x) = E( x)d x = U µ ( x)d x. Jeśli µ(d) = 0, to także U µ = 0 w D, czyli U µ jest harmoniczna w D. Twierdzenie 1.8. Jeśli µ(dx) = ρ(x)dx i ρ jest klasy C 2 w otoczeniu x, to U µ (x) = ρ(x). Ogólniej µ(dx) = lim ε 0 + (U µ φ ε )(x)dx) ( -słaba granica miar), gdzie φ ε (x) = ε d φ(εx), φ C c (R d ) oraz φ 0 całkuje się do 1. W szczególności U µ jest harmoniczna na D, jeśli µ (D) = 0. Trzeci Wzór Greena dla D = B(0,ε). f (0) = U(0,y) f (y)dy + f (z)c d ε d+2 f (z) dn z + D D D D dz = (U(0,y) c d ε d+2 f (y)dy + 1 f (z)dz. D D Oznacza to, że wartość funkcji we wnętrzu obszaru jest to jej laplasjan plus jej wartość na brzegu tego obszaru. Wynika stąd Twierdzenie 1.9. Jeśli f jest harmoniczna w D = B(x 0,r), to f (x 0 ) = 1 D D f (z)dz. Prawdziwe jest też twierdzenie odwrotne. D

Wniosek 1.10 (Zasada maksimum). Funkcje harmoniczne różne od stałej osiągają maksimum na brzegu. Twierdzenie 1.11. Jeśli f jest harmoniczna w D = B(x 0,r), to f (x 0 ) = 1 D D f (y)dy. Wniosek 1.12 (Własność Liouville a). Funkcje harmoniczne nieujemne lub ograniczone w R d są stałe. Ogólniej: f (x) = D U(x,y) f (y)dy+ D (U(x,z) f (z) f (z) zu(x,z)) dn z. Przypuśćmy, że znamy funkcje r D : r D (x,z) = U(x,z) dla z D. y r D (x,y) = 0 zagadnienie Dirichleta. f (x) = (U(x,y) r D (x,y)) f (y)dy D D f (z) y (U(x,z) r D (x,z)) dn z. (11) Definicja 1.3. G D (x,y) = U(x,y) r D (x,y) nazywamy jądrem Greena. Definicja 1.4. P D (x,z)dz = y (U(x,z) r D (x,z)) n z = y G D (x,y) dn z = y G D (x,z) nazywamy jądrem Poissona. 1.1 Istnienie i własności funkcji Greena G D (x,y) i jadra Poissona P D (x,z) Jeśli D = B(0,r), x D, to r D (x,y) = U( x r y r x x) jest harmoniczne dla y r 2 x. Gdy z = r, to x x 2 r z r x x 2 = x 2 + z 2 2xz = x z 2, czyli r D (x,z) = U(x,z). Funkcja Greena kuli c dr r 2 x 2 x y d. G D (x,y) =U(x y) U( x r y r x x). Jądro Poissona: P d(x,z) = Definicja 1.5 (Transformacja Kelvina). to operator K f (x) = U(x) f ( r2 x 2 x). Fakt 1.13. f = 0 (K f )( r2 x 2 x) = 0.

2 Ruch Browna 2.1 Warunkowa wartość oczekiwana Definicja 2.1. Warunkową wartość oczekiwaną E(Y X) określić jako E(Y X) = φ(x) (12) dla jakiejś mierzalnej funkcji φ. Inne przydatne wyrażenie: A-mierzalnego E(Y ;X A) = E(φ(X);X A). (13) Konwencja, którą będziemy stosować: E(Z;M) = E(Z 1 M ). (14) Ogólniej: niech M będzie σ-algebra. Wtedy E(Y M ) = Z, gdzie Z jest M -mierzalna. E(Y ;M) = E(Z;M) dla M M (15) Rozkład warunkowy: P(X B X) = E(1 B (Y ) X) (16) P(X B M ) = E(1 B (Y ) M ) (17) 2.2 Ruch Browna Definicja 2.2 (Ruch Browna w R d ). Proces stochastyczny X t nazywamy ruchem Browna w R d (inna nazwa: d-wymiarowy proces Wienera), jeśli, dla t [0, ]: P(X 0 = 0) = 1 X t ma stacjonarne przyrosty, tj. X s+t X s d = Xt X 0 X t ma niezależne przyrosty, tj. 0 = t 0 < t 1 < < t n X t1,...,x tn X tn 1 są niezależne X t1 X t0,x t2 X t ma rozkład niezmienniczy na obroty X t ma z prawdopodobieństwem 1 ciągłe i niestałe trajektorie t X t (ω). Twierdzenie 2.1. X t N (0,c t I d ), c > 0.

2.3 Konstrukcja Niech ξ n będzie ciągiem niezależnych zmiennych losowych o rozkładzie N (0,I) w R d. Niech t 0 = 0, (t n : n 1) - ciąg wszystkich liczb bez powtórzeń Q (0, ). Definiujemy X t0 = 0 X tn = X ti + t n t i ξ n, X tn = t j t n t j t i X ti + t n t i t j t i X t j + gdy t i = max{t 0,t 1,...t n 1 } < t n (t j t n )(t n t i ) t j t i ξ n, gdy t n (t i,t j ) oraz t 0,t 1,...,t n 1 / (t i,t j ) (18) Ćwiczenie 2.1. X t : t [0, ) Q) ma niezależne i stacjonarne przyrosty, X t N (0,2tI). Ćwiczenie 2.2. Z prawdopodobieństwem 1 trajektorie t X t (ω) rozszerzają się do funkcji ciągłych na [0, ) (z zasady odbicia). Ćwiczenie 2.3. X t = lim s t s Q X s jest procesem Wienera. 2.4 Przestrzeń Wienera Definicja 2.3. C([0, )) z miarą: rozkład (t X t (ω)) nazywamy przestrzenią Wienera z miarą Wienera. Rozważamy σ-ciała (uwaga na mierzalność) 1. borelowskie 2. σ-ciało zbiorów cylindrycznych (radonifikacja) Zakładamy, że istnieje rodzina prawdopodoieństw P x, x R d taka, że (X t x : t [0, )) z miarą P x jest równy (w sensie rozkładów skończenie wymiarowych) (X t : t [0, )) z miarą P = P 0. Przykład 2.1. P x nie istnieją na {ω C([0, )) : ω(0) = 0} z miarą Wienera i X t (ω) = ω(t). Przykład 2.2. Ω = C([0, )), P 0 - miara Wienera. P x (ω M) = P 0 (ω x M). Definicja 2.4. Procesem kanonicznym nazywamy proces X t (ω) = ω(t). Oczywiście (ω x)(t) = ω(t) x.

3 Własność Markowa Twierdzenie 3.1. Dla d = 1 zachodzi P( sup X t > x) = 2P(X T > x), x > 0. (19) t [0,T ] Dowód. (szkic) Niech τ x = inf{t > 0 : X t = x} [0, ]. P( sup X t > x) = P(τ x T ) =! 2P(τ x T,X T > X τx ) X τx = =x 2P(X t > x). t [0,T ] Definicja 3.1. p t (x,a) = P x (X t A) będziemy nazywać prawdopodobieństwem (funkcją) przejścia. Fakt 3.2. p t (x, ) = N (x,cti). W ogólności p t (x, ) jest rozkładem prawdopodobieństwa, zaś p t (,A) jest funkcją borelowską. Zachodzi wzór p t (x,a) = p t (0,A x). Ćwiczenie 3.1. Dla 0 < t 1 < t 2 zachodzi oraz P x (X t1 A 1,X t2 A 2 ) = A 1 A 2 f Xt1,X t2 (x 1,x 2 )dx 1 dx 2 (20) f Xt1,X t2 (x 1,x 2 )dx 1 dx 2 = p t1 (x,dx 1 )p t2 t 1 (x 1,dx 2 ). (21) Ogólniej, dla 0 < t 1 < < t n, rozkład skończenie wymiarowy wyraża się wzorem P x (X t1 A 1,X t2 A 2,...,X tn A n ) = p t1 (x,dx 1 ) A 1 p t2 t 1 (x 1,dx 2 )... A 2 p tn t n 1 (x n 1,dx n ). (M) A n Fakt 3.3. (M) zachodzi dla procesów o niezależnych i stacjonarnych przyrostach. Definicja 3.2. Niech 0 < s 1 < < s m < s oraz 0 < t 1 < < t n. Mówimy, że X t ma własność Markowa, jeżeli (22) E x (X s+t1 B 1,...X s+tn B n (X s1,...,x sm,x s )) = φ(x s ), (23) gdzie φ(x) = P x (X t1 B 1,...,X tn B n ). Twierdzenie 3.4. (M) własność Markowa.

Dowód. E x = (φ(s x );X s1 A 1,...X sm A m,x s A) = = p s1 (x,dy 1 ) p s2 s 1 (y 1,dy 2 )... p sm s m 1 (y m 1,dy m ) A 1 A 2 A m ( ) p t1 (y,dx 1 )... p tn t n 1 (x n 1,dx n ) = B 1 B n = P x (X s1 A 1,...X sm A m,x s A,X s+t1 B 1,...,X s+tn B n ). A p s sm (y m,dy) Niech F t = σ{x s : s [0,t]}, t [0, ], czyli F t = {X s A,s [0,t],A R d } (naturalna filtracja). Własność Markowa oznacza, że E x (Φ(X s+t1,...,x s+tn ) F t ) = φ(x s ), gdzie φ(x) = E x (Φ(X t1,...,x tn )), Φ - funkcja ograniczona borelowska.

4 Czasy Markowa Definicja 4.1. Filtracja to rosnąca rodzina σ-algebr F t, t [0, ]. Definicja 4.2. F t+ = F s, s (t, ] F t = σ s [0,t) F s. (24) Definicja 4.3. Zmienną losową τ [0, ] nazywamy F t -czasem Markowa (będziemy pisać w skrócie F t cz.m.), jeśli {τ t} F t. Ćwiczenie 4.1. Wtedy {τ < t} i {τ = t} F t. Dowód. (Jacek Mucha) {τ = t} = {τ t} \ n N t 1 n 0 {τ t 1 n }, przy czym {τ 1 n } F t 1 F t. Suma przeliczalnie wielu zbiorów mierzalnych n jest mierzalna. Różnica dwóch zbiorów mierzalnych jest mierzalna, bo A \ B = (A c B) c. Dla t = 0 teza jest oczywista. Z kolei {τ < t} = ({τ t} c {τ = t}) c F t. Definicja 4.4. τ nazywamy czasem Markowa (cz. M.), jeśli τ jest F t+ -czasem Markowa. Ćwiczenie 4.2. F t+ też jest filtracją. Fakt 4.1. Jeśli τ jest F t -czasem Markowa, to τ jest czasem Markowa. Dowód. F t F t+. Fakt 4.2. τ-cz.m. t {τ < t} F t. Dowód. Załóżmy najpierw, że τ jest czasem Markowa. Wtedy {τ < t} = n N t 1 n 0 {τ t 1 n } F t,

bo n N {τ t n 1} F (t 1 n )+ F t. W drugą stronę. {τ t} = {τ < t + 1 n } Zauważmy, że n N k {τ < t + 1 n } = n N czyli {τ t} k N F t+ 1 k = F t+. N n k n N F t+ 1 n. {τ < t + 1 n } F t+ 1, k Fakt 4.3. Niech τ,σ - czasy Markowa. Wtedy min(τ,σ) też jest czasem Markowa. Dowód. {min(τ,σ) < t} = {τ < t} {σ < t} F t+. Fakt 4.4. Niech τ,σ - F t -czasy Markowa. Wtedy min(τ,σ) też jest F t -czasem Markowa. Dowód. {min(τ,σ) < t} = {τ < t} {σ < t} F t. Ćwiczenie 4.3. Niech τ,σ,(τ n } - czasy Markowa. Wtedy czasami Markowa są także max(τ,σ) supτ n infτ n limsupτ n liminfτ n. Przykład 4.1. Niech F t = σ{x s : s [0,t]} oraz τ A = inf{t : X t / A} (czas pierwszego wyjścia ze zbioru A). Jeśli A = A (A jest zbiorem domkniętym), to τ A = inf{t Q : X t / A}. Wtedy {τ A < t} = s Q {X s / A} F t, bo jest to suma przeliczalnie wielu zdarzeń z F t. s<t Zatem τ A jest czasem Markowa (ale nie jest F t -czasem Markowa!). (1) Jeśli A jest zbiorem otwartym, to τ A = lim n τ An, gdzie A n = {x : dist(x,a c ) 1 n }. Równość (1) wynika z ciągłości trajektorii: X / Int(A τa n k), gdy n k, zatem, gdy X τ = lim n X (gdzie τ = lim τa n n τ An ); k A k = A, czyli X τ / A, o ile τ <. Zatem τ An τ A τ, o ile τ <. Gdy τ =, to τ A τ An, zatem τ A =. W szczególności τ A są mierzalne i są czasami Markowa. Tak naprawdę τ A są nawet F t -czasami Markowa.

Fakt 4.5. Jeśli przestrzeń probabilistyczna jest odpowiednio zupełna, to τ A jest czasem Markowa dla dowolnego borelowskiego A. Dowód. Trudny. Definicja 4.5. Jeśli τ-cz.m., definiujemy F τ+ = {M F : M {τ t} F t+ }. Ćwiczenie 4.4. F τ+ = {M F : M {τ < t} F t }. Definicja 4.6. Jeśli τ-cz.m., to definiujemy F τ = {M F : M {τ t} F t }. Definicja 4.7. Jeśli τ-cz.m., to definiujemy F τ = σ{m {τ < t} : M F t }. Ćwiczenie 4.5. τ t F τ(±) = F t(±). Ćwiczenie 4.6. F τ,f τ+,f τ to σ-algebry. Ćwiczenie 4.7. F τ F τ F τ+. Fakt 4.6. Jeśli τ σ - czasy Markowa, to F τ+ F σ+. Dowód. M {σ < t} = M {τ < t} {σ < t}, przy czym {σ < t} {τ < t}. Ale M {τ < t} F t, bo M F τ+. {σ < t} F t, bo σ-cz.m. Przekrój dwóch zdarzeń z F t jest w F t, więc M {σ < τ} F t. Fakt 4.7. Jeśli τ-cz.m., to τ jest F τ+ -mierzalny oraz F τ -mierzalny. Dowód. Będziemy myśleć, że M = {τ < t}. {τ < t} {τ < s} = {τ < min(t,s)} F min(t,s) F s. Czyli {τ < t} F τ+. W istocie τ jest F τ -mierzalny. Fakt 4.8. Jeśli τ,σ-cz.m., to {τ < σ} F τ+ F σ+. Dowód. {τ < σ} {σ < t} = s<t s Q {τ < s} {s < σ} {σ < t} F t, bo {τ < s} F s, {s < σ} F s+, {σ < t} F t. Zatem {τ < σ} F σ+. Z drugiej strony {τ < σ} {τ < t} = {τ < s} {s < σ} {τ < t} ({τ < t} {σ t}) F t, s<t s Q bo τ < s} F s,{s < σ} F s+,{τ < t} F t,{σ t} F t. Zatem {τ < σ} F τ+.

Fakt 4.9. Jeśli cz.m. τ = lim n τ n, gdzie τ n - malejący ciąg czasów Markowa, to Dowód. Pokażemy ( ). F τ+ = F τn +. (25) n N M {τ n < t} = M {τ < t} {τ n < t} F t, bo M {τ < t} F t z założenia oraz {τ n < t} F t. ( ) W drugą stronę. M {τ < t} = (M {τ n < t}) F t. n N Fakt 4.10. Jeśli τ jest czasem Markowa, a σ - F t -czasem Markowa oraz τ < σ, to F τ+ F σ. Dowód. M {σ τ} = M {τ < t} {σ t} F t.

5 Mocna własność Markowa Definicja 5.1. Niech F t = σ{x s : s [0,t]}. Proces stochastyczny X t ma mocną własność Markowa, jeśli E x (Φ(X τ+t1,...,x τ+tn ) F τ+ ) = φ(x τ ), (26) gdzie φ(y) = E y Φ(X t1,...,x tn ) na zbiorze {τ < } dla każdego czasu Markowa τ, funkcji borelowskiej i ograniczonej Φ i t 1 < t 2 < < t n. Definicję powyższą można również sformułować następująco: E x (Φ(X τ+t1,...,x τ+tn );M {τ < }) = E x (φ(x τ );M {τ < }), M F τ+. (27) P x (M) = P x (M M) = E x (1 M ;M) = E x (φ(x 0 );M) = E x (φ(x);m) = φ(x)p x (M) = (P x (M)) 2, bo Φ = 1 M można aproksymować przez Φ n takie jak w mocnej własności Markowa; M F 0+,τ = 0,φ(y) = E y (1 M ) = P y (M). Wniosek 5.1. (Prawo 0-1 Blumenthala). Jeśli proces stochastyczny X t ma mocną własność Markowa, to F 0+ jest trywialne, tzn. P x (M) {0,1} dla M F 0+. Twierdzenie 5.2. Ruch Browna ma mocną własność Markowa. 5.1 Procesy Fellera Twierdzenie 5.3. Procesy Fellera mają mocną własność Markowa. Dowód podamy później. Definicja 5.2. p t (x,dy) nazywamy fellerowskim prawdopodobieństwem przejścia, jeśli 1. p 0 (x,dy) = δ x (dy) 2. f C 0 (X) X f (y)p t(x,dy) C 0 jako funkcja x 3. p t (x, ) jest ciągłą funkcją t w słabej topologii na przestrzeni miarowej. Fakt 5.4. Przy założeniu (1) i (2) z powyższej definicji, (3) można zapisać równoważnie jako: 3. (t,x) f (y)p t (x,dy) jest ciągła względem (t,x).

Przez p t f (x) będziemy rozumieć p t f (x) = f (y)p t (x,dy). (28) Przy powyższym oznaczeniu można napisać, że warunki (1),(2),(3) z Definicji 5.2 odpowiadają 1. p 0 f = f 2. p t : C 0 (X) C 0 (X) 3. p s f p t f, gdy s t, a f C 0 (X). Tutaj X jest lokalnie zwartą ośrodkową przestrzenią metryczną, zaś C 0 (X) to przestrzeń funkcji ciągłych takich, że ε > 0 K-zwarty taki, że f (x) < ε dla x / K. Dowód podamy później. Definicja 5.3. Proces X t nazywamy procesem Fellera, jeśli spełnia (M), ma fellerowskie prawdopodobieństwa przejścia i jego trajektorie są prawostronnie ciągłe z lewostronnymi granicami (càdlàg). Twierdzenie 5.5. Każde fellerowskie prawdopodobieństwo przejścia odpowiada pewnemu procesowi Fellera. Wracamy do dowodu Twierdzenia 5.3, tj., że każdy proces Fellera ma mocną własność Markowa. Dowód. Dowód będzie przebiegał w pięciu krokach. Krok 1. τ jest czasem Markowa. τ = lim n min(τ,n), oczywiście min(τ,n) to czasy Markowa. Jeśli τ jest ograniczony, to τ = lim k τ k, gdzie τ k = 2k τ+1 przyjmuje skończenie wiele wartości. 2 k {τ k t} = { 2 k τ+1 2 k t} = {2 k τ+1 < 2 k t +1} = {τ < 2k t 2 k } F 2 k t 2 k F t. Zatem τ k jest F t -czasem Markowa. Krok 2. Policzymy L = E x (Φ(X τk +t 1,...,X τk +t n );M {τ k = s}). Skorzystamy z Faktu 4.10, co daje M {τ k = s} F τ+ F τk, zaś {τ k = s} F s. Dalej L = E x (Φ(X s+t1,...,x s+tn );M {τ k = s}) 1 = E x (φ(x s );M {τ k = s}) = E x (φ(x τk );M {τ k = s}), gdzie równość 1 wynika z własności Markowa. Następnie sumujemy po wszystkich wartościach s (jest ich skończenie wiele), otrzymując: E x (Φ(X τk +t 1,...,X τk +t n ;M) = E x (φ(x τk );M). (29)

Krok 3. Przejście k. X τk +t j X τ+t j p.w. Jeśli Φ C 0 (X n ), to lewa strona równania 29 dąży do E x (Φ(X τ+t1,...,x τ+tn );M). X τk X τ p.w. φ jest ciągła (ćwiczenie, f C 0 (X) E x f (X t ) C 0, E x Φ(X t1,...,x tn ) = p t1 (x,dx 1 )... Φ(x 1,...,x n )p tn t n 1 (x n 1,dx x )...). Zatem prawa strona dąży do E x (φ(x τ );M). Krok 4. τ - niekoniecznie ograniczony. Niech σ k = min(τ,k). τ = lim k σ k. Dla M F σk + zachodzi E x (Φ(X σk +t 1,...,X σk +t n );M {σ k = τ}) = E x (φ(x σk );M {σ k = τ}). Tutaj M {σ k = τ} F σk + i rośnie do M {τ < }. Z twierdzenia Lebesgue a (dla odpowiednich M) zachodzi więc równość E x (Φ(X τ+t1,...,x τ+tn );M {τ < }) = E x (φ(x τ );M {τ < }). Jeśli M F τ+, to M {τ < } = k N M {τ k} oraz M {τ k} F σk +, bo M {τ k} {σ k < t} = M {τ = σ k } {τ < t} = M {τ < t} {τ < k}. Jeśli t k, to ostatnie wyrażenie M {τ < t} F t, w przeciwnym zaś przypadku M {τ k} F k+ F t. Krok 5. Pokażemy na koniec, że φ(x = tau) jest F τ+ -mierzalny. Jeśli τ jest ograniczony, to X τk są F τk -mierzalne, bo {X τk A} = s{x s A} {τ k = s}, gdzie każdy składnik sumy należy do rodziny F τk (ćwiczenie). Dalej, X τ = lim k X τk jest F τ j -mierzalne j N. X τ jest mierzalne dla j=1 F τ j = F τ+. Jeśli τ-dowolny, to {X τ A,τ < } = {X τ A,τ = σ k } = {X σk A;τ = σ k } F τ+, k N bo i-ty składnik sumy należy do rodziny F σk +. Przez X oznaczamy przestrzeń stanów. Jest to ośrodkowa, lokalnie zwarta przestrzeń metryzowalna (R d ). Przyjmujemy - dodatkowy stan; X = X { } to jednopunktowe uzwarcenie X. k N Definicja 5.4. Rodzinę zbiorów H nazywamy π-układem, jeśli A,B H A B H. Definicja 5.5. Niech X /0. Rodzinę zbiorów H 2 X nazywamy λ-układem, jeśli 1. X H 2. A,B H : B A A \ B H

3. {A 1,A 2,...} H n N : A n A n+1 n N A n H. Lemat 5.1 (o π i λ układach). Niech X /0. Jeśli rodzina zbiorów H 2 X jest jednocześnie π i λ układem podzbiorów zbioru X, to jest ona σ-algebrą podzbiorów zbioru X. Fakt 5.6. G X / G i G-otwarty w X lub G i X \ G zwarty w X. Definicja 5.6. Rozszerzmy prawdopodobieństwo przejścia na X : p t (x,{ }) = 1 p t (x,x) p t (,A) = δ (A) = 1 A ( ). Fakt 5.7. Wyżej określone p t jest prawdopodobieństwem przejścia na X. Definicja 5.7. Miara K(x, A) względem x, borelowska względem y nazywana jest jądrem. Oznaczenie: K f (x) = K(x,dy) f (y) (o ile całka jest zbieżna). Fakt 5.8. p t jest jądrem. Obserwacja 5.9. Dla f borelowskich i ograniczonych zachodzi p t+s f = p t (p s f ). Obserwacja 5.10. p t rozszerza się do fellerowskiego prawdopodobieństwa przejścia na X. Fakt 5.11. (t,x, f ) p t f (x) jest ciągła [0, ) X C 0 R. Dowód. Niech (t n,x n, f n ) (t,x, f ). p t f (x) p tn f n (x n ) p t f (x) = p t f (x n ) + p t f (x n ) p tn f (x n ) + p tn f (x n ) p tn f n (x n ). Zauważmy, że p t f (x) = p t f (x n ) 0, bo p t f jest ciągła. p tn f p t f, więc p t f (x n ) p tn f (x n ) p tn f p t f 0. Z kolei p tn f (x n ) p tn f n (x n ) f f n 0, bo p t g(x) 1 g. Ostatecznie p t f (x) p tn f n (x n ) 0, q.e.d. Wniosek 5.12. (t,x) p t (x,a) jest borelowska. Dowód. Jeśli A-otwarty, to A = n=1 K n dla pewnych K n -zwartych, K n K n+1. Istnieje f n C c taka, że f n (x) = 1 w K n, f n (x) = 0 poza A oraz f n (x) [0,1] w X. p t (x,a) = lim n pt (x,dy) f n (y) = lim n p t f n (x). Granica ciągłych (względem (t, x) funkcji borelowskich jest borelowska. Wystarczy udowodnić, że rodzina A: (t,x) p t (x,a) jest borelowska jest λ-układem. /0 ma tę własność p t (x,x \ A) = p t (x,x) p t (x,a). p t (x,x) jest borelowska, bo X jest otwarty, więc rozważana rodzina jest zamknięta na branie dopełnień. p t (x, n=1 A n ) = n=1 p t(x,a n ), gdy A n są rozłączne. Zatem rodzina ta jest zamknięta na przeliczalne sumy rozłączne. Na mocy lematu o π λ-układach rozważana rodzina zawiera zbiory borelowskie.

5.2 λ-potencjał Definicja 5.8. Jądrem λ-potencjału nazywamy transformatę Laplace a prawdopodobieństwa przejścia: u λ (x,a) = 0 e λt p t (x,a)dt. (30) Fakt 5.13. u λ jest jądrem. Będziemy pisać u λ f (x) = u λ (x,dy) f (y), λ 0. Gdy λ = 0, to otrzymujemy miarę nieskończoną. Gdy λ > 0, to u λ (x,x) 1 λ. W poniższych przykładach będziemy przyjmować X = R d. Przykład 5.1. Niech p t (x,a) = A gdzie u 0 (x) = 1 = 4π d 2 x d 2 0 0 1 (4πt) d 2 u 0 (x,a) = 1 (4πt) d 2 e x y 2 4t dy. Wtedy A e x 2 4t dt = 0 e s s d 2 2 ds = u 0 (x y)dy, (31) 1 (π x 2 s ) d 2 s x 2 e 4s 2 ds =, gdy d = 1 lub d = 2 Γ( d 2 2 ) 4π d 2 x d 2, gdy d 3 Zauważmy, że u 0 jest tu analogonem klasycznego potencjału. u 0 (x,a) można interpretować jako średni czas przebywania przez proces w zbiorze A. Przykład 5.2. O ile poprzedni przykład odnosił się w pewien sposób do procesu Wienera, o tyle teraz rozpatrzmy proces, którego prawdopodobieństwa przejścia związane są z rozkładem Cauchy ego. Niech p t (x,a) = A c Policzmy potencjał. u 0 (x,a) = Podstawmy s = t (t 2 + x y 2 ) d+1 2 A u 0 (x,y)dy, u 0 (x,y) = x y 2, t 2 = x y 2 t 2 + x y 2 s 1 dy, gdzie c = dy. (32) R d (1 + y 2 ) d+1 2 0 c t (t 2 + x y 2 ) d+1 2 dt. x y 2, 2tdt = x y 2 ds. Otrzymujemy s 2 { 1 c u 0 (x,y) = 0 2 s d+1 2 x y d 1 x y 2 c 1 s 2 ds = 2 x y d 1 s d 3, gdy d = 1 2 ds = c 2 0, gdy d 2. x y d 1.

Przykład 5.3. Ogólnie p t (x,a) = p t (A x) (przy czym p t (x,a) = p t (0,A x)). e iξ x p t (dx) = e t(<ξ,[a]ξ> iξ z1 B(z))ν(dz) = e tψ(ξ). (33) ν - intensywność skoków w jedynce. u λ (x,a) = u λ (A x). Transformata Fouriera: e iξ x u λ (dx) = 0 e λt e tψ(ξ) dt = 1 λ+ψ(ξ). Przypomnijmy teraz garść faktów. p t f f, u λ f 1 λ f (bo: u λ f u λ f u λ f +, a stąd u λ f max( u λ f +, u λ f ) 1 λ max( f +, f ) = 1 λ f ). u nazywamy potencjałem lub rezolwentą. Fakt 5.14. Dla f C 0 p t f f, gdy t 0. Fakt 5.15. Dla f C 0 mamy λu λ f f, gdy λ. Dowód. λu λ f (x) f (x) = 0 λe λt (p t f (x) f (x))dt. λu λ f f 0 λe λt p t f f dt = 0 e s p s λ f f ds. p s f f jest ograniczone przez 2 f, więc z twierdzenia Lebesgue a o zbieżności λ ograniczonej całka dąży do 0 przy λ. Fakt 5.16. p t : C 0 C 0, u λ : C 0 C 0. Dowód. u λ f (x) = e λt p t f (x)dt = lim 0 n k=0e λ kn p kn f (x) 1 n i z twierdzenia Weierstrassa otrzymana granica jest funkcją ciągłą. Fakt 5.17. [Równanie rezolwenty]. Dla prawdopodobieństwa przejścia zachodzi p t+s f = p t p s f. Dla rezolwenty z kolei zachodzi równanie u λ u µ f = 1 ( λuλ f µu µ f ). (34) λ µ Fakt 5.18. f 0, f C 0 e λt p f (u λ f ) u λ f, gdy t 0 +. Dowód. = e λt p t (u λ f )(x) = 0 ( ) e λt p t (x,dy) e λs Funelli p s f (y)ds = ( ) e λ(t+s) p t (x,dy)p s f (y) ds = = t 0 0 e λ(t+s) p t+s f (x)ds = { e λr uλ f (x) p r f (x)dr u λ f (x), gdy t 0 +. Otrzymaliśmy zbieżność punktową monotoniczną w C 0. Zbieżność jednostajna wynika z twierdzenia Diniego.

5.3 Funkcje λ-ekscesywne Definicja 5.9. Funkcję g 0 nazywamy λ-ekscesywną, jeżeli e λt p t g g. Wniosek 5.19. Jeżeli f 0 i f C 0, to u λ f jest λ-ekscesywna. Na przestrzeni kanonicznej własność (M) zadaje system (rodzinę) miar na σ{x t1,x t2,...,x tn }. Te miary są zgodne: rozkład (X t1,x t2,...,x tn,x s1,x s2,...,x sm ) ma rozkład brzegowy równy rozkładowi (X t1,x t2,...,x tn ) (t 1,...,t n,s 1,...,s m nie są uporządkowane). Stąd (por. ćwiczenia) wynika istnienie miary na przestrzeni funkcji ([0, ) Q) X takiej, że zachodzi (M). Udowodnimy, że trajektorie wyżej zdefiniowanego procesu z prawdopodobieństwem 1 mają jednostronne granice. Definicja 5.10. Rodzina (X t,f t ) t T, t T E X t <, jest martyngałem, jeśli dla s t, s,t T, E(X t F s ) = X s, nadmartyngałem, jeśli dla s t, s,t T, E(X t F s ) X s, podmartyngałem, jeśli ( X t,f t ) t T jest nadmartyngałem. Fakt 5.20. g jest λ-ekscesywna e λt g(x t ) (t Q [0, )) jest nadmartyngałem. Dowód. E x ( e λ(s+t) g(x t+s ) F s ) = φ(x s ), gdzie φ(y) = E y e λ(t+s) g(x t ) (własność Markowa). φ(y) = e λ(t+s) p t g(y) e λs g(x s ) (nierówność wynika z ekscesywności), zatem E x ( e λ(t+s) g(x t+s ) F s ) e λs g(x s ). Z Lematu Dooba wynika, że g(x t ) ma jednostronne granice z prawdopodobieństwem 1 w każdym t [0, ). Rozważmy ciąg φ l 0, φ l C 0, który rozdziela punkty X, tzn. x,y X x y l φ l (x) φ l (y). (35) Taki ciąg istnieje, niech na przykład {y n } będzie ośrodkiem w X, wtedy punkty rozdziela φ n (x) = (1 d(x,y n )) +, φ n ( ) = 0. Niech teraz g k,l (x) = ku k φ l (x). Wówczas g k,l jest k-ekscesywna oraz {g k,l : k,l 1} rozdziela punkty (bo φ l (x) φ l (y) g k,l (x) g k,l (y) dla dostatecznie dużych k). Widzimy więc, że z prawdopodobieństwem 1 wszystkie procesy g k,l (X t ) (t Q [0, )) mają jednostronne granice w każdym t [0, ). Przypuśćmy, że pewna granica jednostronna X t nie istnieje, np. lim n X tn = x, lim n X sn = y, x y, t n,s n t 0, x,y X. Niech g k,l (x) g k,l (y); wtedy g k,l (X t ) nie ma granicy jednostronnej w t 0 (tutaj potrzebne jest dodatkowe założenie o zupełności miary P x ). Zatem X t ma z prawdopodobieństwem 1 granice jednostronne (g k,l (X tn ) g k,l (x), g k,l (X sn ) g k,l (y) z ciągłości g). Określmy (na zbiorze miary pełnej) X t = lim s t +,s Q [0, ) X s. Wówczas

X t ma trajektorie prawostronnie ciągłe z lewostronnymi granicami (dowód później). Pokażemy, że X t jest procesem Fellera o prawdopodobieństwie przejścia p t (x,a), jeśli wykażemy, że zachodzi (M). Niech 0 t 1 < t 2 < < t n. Niech s j,k k t j, s j,k Q, 0 s 1,k < s 2,k < < s n,k. Zapisujemy (M) dla X t oraz s 1,k,s 2,k,...,s n,k i przechodzimy z k. E(Φ(X s1,k,...,x sn,k )) = p s1,k (x,dx 1 ) p s2,k (x 1,dx 2 )... p sn,k (x n 1,dx n Φ(x 1,...,x n ) E (Φ( x X t1,..., X tn ) Tym samym udowodniliśmy p t1 (x,dx 1 )... ) p tn t n 1 (x n 1,dx n )Φ(x 1,...,x n ). Twierdzenie 5.21. Dla każdego fellerowskiego prawdopodobieństwa przejścia istnieje proces Fellera. Lemat 5.2. Jeśli Y n Y p.w. (Y n Y w L 1 ), n Y n Z, EZ < oraz G n - rosnąca rodzina σ-ciał, G = σ( n=1 ), to E(Y n G n ) E(Y G) p.w. i w L 1. Dowód. E(Y G n ) jest jednostajnie całkowalnym martyngałem. Zatem E(Y G n ) E(Y G) p.w. i w L 1. E E(Y n G n ) E(Y G n ) E((E( Y n Y G n ) = E Y n Y 0. Stąd zbieżność w L 1 z lematu (zbieżności p.w. nie dowodzimy). Lemat 5.3. Jeśli E( f (Y ) G) = f (Z) dla wszystkich f C 0, Z jest mierzalna względem G, to Y = Z p.w. Dowód. Przez aproksymację. E(1 G (Y ) G) = 1 G (Z) dla G - otwartego. E(1 G (Y )1 X \G(Z) G) = 0 i dalej P(Y G,Z / G) = 0. Bierzemy G n - bazę topologii X ; P(Y G n,z / G n dla pewnego n) = 0. Stąd Y = Z p.w. Twierdzenie 5.22. Niech X t - proces Fellera, τ n - niemalejący ciąg czasów Markowa, τ = lim n τ n (czyli τ też jest czasem Markowa). Wówczas X τn X τ p.w ( na {τ < }). Jest to tzw. kwazilewostronna ciągłość. Dowód. Niech f C 0, s > 0. Niech M n = {τ n < τ} F τn + F τ+ oraz M = n=1 M n F τ+. Wykorzystamy Lematy 5.2 oraz 5.3. W Lemacie 5.3 { { Xτ w M Xτ w M Y = w M c, Z = w M c. W Lemacie 5.2 z kolei Y n = f (X τn +s)1 Mn, Y = f (X τn +s )1 Mn, G n = F τn +, zaś G = σ( n=1 F τn +) F τ. Skorzystamy tutaj z dwóch faktów, których nie będziemy teraz dowodzić.

Fakt 5.23. F τ G. Fakt 5.24. X τ 1 M jest F τ -mierzalny Wróćmy do dowodu Twierdzenia 5.22. Z mocnej własności Markowa mamy E x ( f (X τn +s)1 Mn F τn +) = p s f (X τn )1 Mn. p s f (X τn )1 Mn p s f (X τ )1 M p.w., gdy n. E x ( f (X τn +s)1 Mn F τn +) n, L1 E x ( f (X (τ+s) )1 M F τ ). p s f (X τ )1 M s 0 + f (X τ )1 M. E x ( f (X (τ+s) )1 M F τ ) s 0+ E x ( f (X τ ) F τ ). Stąd wynika, że X τ 1 M = X τ 1 M. Ponadto lim n X τ n = { Xτ na M X τ na M c. Wniosek 5.25. X t = X t p.w., tzn. w prawie każdym ustalonym czasie proces nie ma skoku. 5.4 Operatory przesunięcia Definicja 5.11. Operatorem przesunięcia nazywamy mierzalne odwzorowanie θ t : Ω Ω, t 0 takie, że X s θ t = X s ((ω,t)) = X s+t (ω). Na przestrzeni kanonicznej θ t (ω)(s) = ω(t + s) (tutaj θ t θ s = θ t+s ). Zakładamy istnienie operatora theta t. Fakt 5.26. Na przestrzeni kanonicznej θ t istnieje. Fakt 5.27. Jeśli τ jest losowym czasem, to θ τ (ω) = θ τ(ω) (ω), θ τ : Ω Ω. Twierdzenie 5.28. Jeśli X t jest z prawdopodobieństwem 1 prawostronnie ciągły, τ jest czasem Markowa, X τ jest F τ+ mierzalny, to θ 1 τ (F t ) F (τ+t)+ F. Dowód. X t θ τ = X t+τ jest F (t+τ)+ -mierzalne. Zatem F (τ+s)+ zawiera wszystkie zbiory postaci {X t θ τ A} = θτ 1 ({X t A}). Wobec tego θ 1 τ (M) F (τ+s)+ dla M F (τ+s)+. Wniosek 5.29. θ τ jest F -mierzalne.

Alternatywne sformułowanie własności Markowa Fakt 5.30. Jeśli zapiszemy {X t1 A 1,...,X tn A n } = M oraz {X s+t1 A 1,...,X s+tn A n } = θ 1 s (M), to własność Markowa możemy zapisać jako lub alternatywnie P x (θ 1 s (M) F s ) = φ(x s ), φ(x) = P x (M) (36) E x ( Φ θ s F τ+ ) = φ(x τ ), φ(x) = E x ( Φ). (37) Twierdzenie 5.31. Niech τ,σ będą czasami Markowa, a X t będzie procesem Fellera. Wtedy τ + σ θ τ jest czasem Markowa. Dowód. Z Twierdzenia?? {σ θ τ < t} = θ 1 τ ({σ < t}) F (τ+t)+. Dalej {σ θ τ } {τ +t < s} F s. Ostatecznie {σ θ τ + τ < r} = t,s Θ,t,s t,s<r{σ θ τ < t} {τ < s t}, bo każde ze zdarzeń {σ θ τ < t} {τ < s t} F r.