WYDZIAŁ PODSTAWOWYCH PROBLEMÓW TECHNIKI POLITECHNIKI WROCŁAWSKIEJ DR HAB. MATEUSZ KWAŚNICKI Teoria potencjału procesów Markowa NOTATKI SPORZADZIŁ: JACEK MUCHA WROCŁAW 2015
Spis treści 1 Elektrostatyka 3 1.1 Istnienie i własności funkcji Greena G D (x,y) i jądra Poissona P D (x,z) 6 2 Ruch Browna 7 2.1 Warunkowa wartość oczekiwana................... 7 2.2 Ruch Browna............................. 7 2.3 Konstrukcja.............................. 8 2.4 Przestrzeń Wienera.......................... 8 3 Własność Markowa 9 4 Czasy Markowa 11 5 Mocna własność Markowa 15 5.1 Procesy Fellera............................ 15 5.2 λ-potencjał.............................. 19 5.3 Funkcje λ-ekscesywne........................ 21 5.4 Operatory przesunięcia........................ 23
Klasyczna Teoria Potencjału Klasyczna teoria potencjału (słowo kluczowe: laplasjan, ) Probabilistyczna teoria potencjału (Brownian Motion, BM) Probabilistyczna ogólna teoria potencjału (Markov Processes, MP) Uwaga notacyjna. Należy zachować ostrożność przy odróżnianiu x i x, w pewnym bowiem momencie przestaniemy pisać strzałkę nad wektorem.
1 Elektrostatyka Oznaczenia: E - pole elektrostatyczne, µ - rozkład ładunku (nie zależy od czasu, B = J = 0). Prawo 1.1 (Coulomba). Załóżmy, że Wtedy zachodzi tzw. Prawo Coulomba Obserwacja 1.2. gdzie µ dy <. (1) R 3 1 + y 2 E( x) = 1 x y µ(dy) (2) 4π R 3 x y 3 1 x y 4π x y 3 = yu( x, y), (3) U( x, y) = U( x y) = 1 1 4π x y. (4) Stąd E( x) = yu( x, y)µ(dy) = R 3 xu( x, y))µ(dy) =! R 3 U( x, y)µ(dy). (5) R3 Definicja 1.1. Potencjałem miary µ (potencjałem Newtona) nazwiemy wielkość daną wzorem U µ ( x) := U( x, y)µ(dy). (6) R3 Ogólniej, dla d 3, dla U(x,y) = U(x y) = 1 1 (d 2) B(0,1) mamy x y d 2 1 x y y U(x,y) = (d 2) B(0,1) x y d. (7) Fakt 1.3. γ E( x)d x = U µ ( x 2 ) U µ ( x 1 ), gdzie krzywa γ łączy x 1 z x 2. Dowód. E( x) U µ ( x), a stąd E( x(t)) x (t)dt = U µ ( x(t)). Fakt 1.4. Pole elektryczne jest bezwirowe, tzn. Dowód. Wynika z faktu, że f = 0. E = 0 (8)
Definicja 1.2. Przypomnienie. 1. Gradientem funkcji f nazywamy wielkość f = ( 1 f,..., d f ). 2. Dywergencją pola E nazywamy wielkość E = 1 E 1 + + d E d. 3. Rotacją pola E (wirowością) nazywamy wielkość E = ( 2 E 3 3 E 2, 3 E 1 1 E 3, 1 E 2 2 E 1 ). Twierdzenie 1.5. E = V E = 0. Twierdzenie 1.6 (Twierdzenie o Dywergencji). Niech D R 3 będzie zwartym obszarem dodatnio zorientowanym o brzegu kawałkami gładkim oraz F będzie polem wektorowym klasy C 1 określonym na otwartym zbiorze zawierającym D. Wtedy F( y)dy = F( z) d n z, (9) D gdzie n z jest wektorem normalnym skierowanym na zewnątrz D. Twierdzenie to mówi o tym, ile pola "powstaje wewnątrz D". Twierdzenie 1.7 (Trzeci Wzór Greena). Przy spełnionych założeniach poprzedniego twierdzenia oraz dla f klasy C 2, zachodzi wzór f ( x) = U( x, y) f ( y)d y + U( x, z) f ( z) f ( z) y U( x, z) d n z. (10) D D Dowód. Skorzystamy z Twierdzenia 1.6 oraz z faktu, że laplasjan =, tzn. f = 2 1 f + + 2 d f. F( y) = U( x, y) f ( y) f ( y) yu( x, y). D F( y) = y U f +Y f f y U f f f U = U f f y U. Ćwiczenie 1.1. Dla x y zachodzi y U( x, y) = 0. Zastosujemy Twierdzenie o Dywergencji dla D \ B(x,ε). RHS = U( x, y) f ( y)dy+ + (U( x, z) f ( z) f ( z) y x, z)) n z = D = B( x,ε) D\B( x,ε) B( x,ε) U( x, y) f ( y)dy + c d ε d+2 B( x,ε). Zauważmy, że n = z x ε = ε2 ε, stąd RHS = (U( x, y) c d ε d+2 ) f ( y)dy + B( x,ε) 1 f ( z) B(0, 1) B( x,ε) ε ε d d z 1 B( x,ε) f ( z)dz.
Pierwsza całka dąży do 0 przy ε 0 +, bo pierwszy składnik nie zależy od ε, podczas gdy całkujemy go po malejącej do zbioru pustego kuli, natomiast drugi składnik rośnie do wolniej niż kurczy się kula. Z kolei całka krzywoliniowa, z ciągłości f, dąży do f ( x), co kończy dowód, bo RHS ε 0+ LHS. E = (Uµ). Ze wzoru Greena: U µ ( x) = U( x, y) (Uµ)( y)d y + ( U( x, z) E( z) Uµ( z) y U( x, z)) d n z. D D Zauważmy, że U( x, z) 1 z, E( z) 1, Uµ( z) 1 z 2 z, zaś yu( x, y) 1. Jeśli przyjmiemy D = B(0,R), R U µ ( x) = Rd U( x, y) (Uµ)( y)dy. W tym przy- z 2 padku, jeśli U µ nie jest klasy C 2, to można spleść µ z gładką funkcją φ, co daje U(µ φ)( x) = U( x, y) (U(µ φ))( y)d y = U( U(µ φ))( x) Rd U(µ φ) = U( U(µ φ)) U jest operatorem różnowartościowym, bo U(ψ) = 0 Uψ = 0 U( ψ) = 0 i z 3. Wzoru Greena ψ = 0. Zatem µ φ = U(µ φ). Można to pokazać inaczej: z gładkości splotu i Trzeciego Wzoru Greena dostajemy, że (µ φ)( x) = Rd U( x, y) (µ φ)( y)d y = U( (µ φ)( x) = U(µ φ)( x). Możemy więc powiedzieć, że możliwe jest odzyskanie gęstości rozkładu ładunku poprzez przyłożenie laplasjanu do potencjału, tzn. µ(d x) = E( x)d x = U µ ( x)d x. Jeśli µ(d) = 0, to także U µ = 0 w D, czyli U µ jest harmoniczna w D. Twierdzenie 1.8. Jeśli µ(dx) = ρ(x)dx i ρ jest klasy C 2 w otoczeniu x, to U µ (x) = ρ(x). Ogólniej µ(dx) = lim ε 0 + (U µ φ ε )(x)dx) ( -słaba granica miar), gdzie φ ε (x) = ε d φ(εx), φ C c (R d ) oraz φ 0 całkuje się do 1. W szczególności U µ jest harmoniczna na D, jeśli µ (D) = 0. Trzeci Wzór Greena dla D = B(0,ε). f (0) = U(0,y) f (y)dy + f (z)c d ε d+2 f (z) dn z + D D D D dz = (U(0,y) c d ε d+2 f (y)dy + 1 f (z)dz. D D Oznacza to, że wartość funkcji we wnętrzu obszaru jest to jej laplasjan plus jej wartość na brzegu tego obszaru. Wynika stąd Twierdzenie 1.9. Jeśli f jest harmoniczna w D = B(x 0,r), to f (x 0 ) = 1 D D f (z)dz. Prawdziwe jest też twierdzenie odwrotne. D
Wniosek 1.10 (Zasada maksimum). Funkcje harmoniczne różne od stałej osiągają maksimum na brzegu. Twierdzenie 1.11. Jeśli f jest harmoniczna w D = B(x 0,r), to f (x 0 ) = 1 D D f (y)dy. Wniosek 1.12 (Własność Liouville a). Funkcje harmoniczne nieujemne lub ograniczone w R d są stałe. Ogólniej: f (x) = D U(x,y) f (y)dy+ D (U(x,z) f (z) f (z) zu(x,z)) dn z. Przypuśćmy, że znamy funkcje r D : r D (x,z) = U(x,z) dla z D. y r D (x,y) = 0 zagadnienie Dirichleta. f (x) = (U(x,y) r D (x,y)) f (y)dy D D f (z) y (U(x,z) r D (x,z)) dn z. (11) Definicja 1.3. G D (x,y) = U(x,y) r D (x,y) nazywamy jądrem Greena. Definicja 1.4. P D (x,z)dz = y (U(x,z) r D (x,z)) n z = y G D (x,y) dn z = y G D (x,z) nazywamy jądrem Poissona. 1.1 Istnienie i własności funkcji Greena G D (x,y) i jadra Poissona P D (x,z) Jeśli D = B(0,r), x D, to r D (x,y) = U( x r y r x x) jest harmoniczne dla y r 2 x. Gdy z = r, to x x 2 r z r x x 2 = x 2 + z 2 2xz = x z 2, czyli r D (x,z) = U(x,z). Funkcja Greena kuli c dr r 2 x 2 x y d. G D (x,y) =U(x y) U( x r y r x x). Jądro Poissona: P d(x,z) = Definicja 1.5 (Transformacja Kelvina). to operator K f (x) = U(x) f ( r2 x 2 x). Fakt 1.13. f = 0 (K f )( r2 x 2 x) = 0.
2 Ruch Browna 2.1 Warunkowa wartość oczekiwana Definicja 2.1. Warunkową wartość oczekiwaną E(Y X) określić jako E(Y X) = φ(x) (12) dla jakiejś mierzalnej funkcji φ. Inne przydatne wyrażenie: A-mierzalnego E(Y ;X A) = E(φ(X);X A). (13) Konwencja, którą będziemy stosować: E(Z;M) = E(Z 1 M ). (14) Ogólniej: niech M będzie σ-algebra. Wtedy E(Y M ) = Z, gdzie Z jest M -mierzalna. E(Y ;M) = E(Z;M) dla M M (15) Rozkład warunkowy: P(X B X) = E(1 B (Y ) X) (16) P(X B M ) = E(1 B (Y ) M ) (17) 2.2 Ruch Browna Definicja 2.2 (Ruch Browna w R d ). Proces stochastyczny X t nazywamy ruchem Browna w R d (inna nazwa: d-wymiarowy proces Wienera), jeśli, dla t [0, ]: P(X 0 = 0) = 1 X t ma stacjonarne przyrosty, tj. X s+t X s d = Xt X 0 X t ma niezależne przyrosty, tj. 0 = t 0 < t 1 < < t n X t1,...,x tn X tn 1 są niezależne X t1 X t0,x t2 X t ma rozkład niezmienniczy na obroty X t ma z prawdopodobieństwem 1 ciągłe i niestałe trajektorie t X t (ω). Twierdzenie 2.1. X t N (0,c t I d ), c > 0.
2.3 Konstrukcja Niech ξ n będzie ciągiem niezależnych zmiennych losowych o rozkładzie N (0,I) w R d. Niech t 0 = 0, (t n : n 1) - ciąg wszystkich liczb bez powtórzeń Q (0, ). Definiujemy X t0 = 0 X tn = X ti + t n t i ξ n, X tn = t j t n t j t i X ti + t n t i t j t i X t j + gdy t i = max{t 0,t 1,...t n 1 } < t n (t j t n )(t n t i ) t j t i ξ n, gdy t n (t i,t j ) oraz t 0,t 1,...,t n 1 / (t i,t j ) (18) Ćwiczenie 2.1. X t : t [0, ) Q) ma niezależne i stacjonarne przyrosty, X t N (0,2tI). Ćwiczenie 2.2. Z prawdopodobieństwem 1 trajektorie t X t (ω) rozszerzają się do funkcji ciągłych na [0, ) (z zasady odbicia). Ćwiczenie 2.3. X t = lim s t s Q X s jest procesem Wienera. 2.4 Przestrzeń Wienera Definicja 2.3. C([0, )) z miarą: rozkład (t X t (ω)) nazywamy przestrzenią Wienera z miarą Wienera. Rozważamy σ-ciała (uwaga na mierzalność) 1. borelowskie 2. σ-ciało zbiorów cylindrycznych (radonifikacja) Zakładamy, że istnieje rodzina prawdopodoieństw P x, x R d taka, że (X t x : t [0, )) z miarą P x jest równy (w sensie rozkładów skończenie wymiarowych) (X t : t [0, )) z miarą P = P 0. Przykład 2.1. P x nie istnieją na {ω C([0, )) : ω(0) = 0} z miarą Wienera i X t (ω) = ω(t). Przykład 2.2. Ω = C([0, )), P 0 - miara Wienera. P x (ω M) = P 0 (ω x M). Definicja 2.4. Procesem kanonicznym nazywamy proces X t (ω) = ω(t). Oczywiście (ω x)(t) = ω(t) x.
3 Własność Markowa Twierdzenie 3.1. Dla d = 1 zachodzi P( sup X t > x) = 2P(X T > x), x > 0. (19) t [0,T ] Dowód. (szkic) Niech τ x = inf{t > 0 : X t = x} [0, ]. P( sup X t > x) = P(τ x T ) =! 2P(τ x T,X T > X τx ) X τx = =x 2P(X t > x). t [0,T ] Definicja 3.1. p t (x,a) = P x (X t A) będziemy nazywać prawdopodobieństwem (funkcją) przejścia. Fakt 3.2. p t (x, ) = N (x,cti). W ogólności p t (x, ) jest rozkładem prawdopodobieństwa, zaś p t (,A) jest funkcją borelowską. Zachodzi wzór p t (x,a) = p t (0,A x). Ćwiczenie 3.1. Dla 0 < t 1 < t 2 zachodzi oraz P x (X t1 A 1,X t2 A 2 ) = A 1 A 2 f Xt1,X t2 (x 1,x 2 )dx 1 dx 2 (20) f Xt1,X t2 (x 1,x 2 )dx 1 dx 2 = p t1 (x,dx 1 )p t2 t 1 (x 1,dx 2 ). (21) Ogólniej, dla 0 < t 1 < < t n, rozkład skończenie wymiarowy wyraża się wzorem P x (X t1 A 1,X t2 A 2,...,X tn A n ) = p t1 (x,dx 1 ) A 1 p t2 t 1 (x 1,dx 2 )... A 2 p tn t n 1 (x n 1,dx n ). (M) A n Fakt 3.3. (M) zachodzi dla procesów o niezależnych i stacjonarnych przyrostach. Definicja 3.2. Niech 0 < s 1 < < s m < s oraz 0 < t 1 < < t n. Mówimy, że X t ma własność Markowa, jeżeli (22) E x (X s+t1 B 1,...X s+tn B n (X s1,...,x sm,x s )) = φ(x s ), (23) gdzie φ(x) = P x (X t1 B 1,...,X tn B n ). Twierdzenie 3.4. (M) własność Markowa.
Dowód. E x = (φ(s x );X s1 A 1,...X sm A m,x s A) = = p s1 (x,dy 1 ) p s2 s 1 (y 1,dy 2 )... p sm s m 1 (y m 1,dy m ) A 1 A 2 A m ( ) p t1 (y,dx 1 )... p tn t n 1 (x n 1,dx n ) = B 1 B n = P x (X s1 A 1,...X sm A m,x s A,X s+t1 B 1,...,X s+tn B n ). A p s sm (y m,dy) Niech F t = σ{x s : s [0,t]}, t [0, ], czyli F t = {X s A,s [0,t],A R d } (naturalna filtracja). Własność Markowa oznacza, że E x (Φ(X s+t1,...,x s+tn ) F t ) = φ(x s ), gdzie φ(x) = E x (Φ(X t1,...,x tn )), Φ - funkcja ograniczona borelowska.
4 Czasy Markowa Definicja 4.1. Filtracja to rosnąca rodzina σ-algebr F t, t [0, ]. Definicja 4.2. F t+ = F s, s (t, ] F t = σ s [0,t) F s. (24) Definicja 4.3. Zmienną losową τ [0, ] nazywamy F t -czasem Markowa (będziemy pisać w skrócie F t cz.m.), jeśli {τ t} F t. Ćwiczenie 4.1. Wtedy {τ < t} i {τ = t} F t. Dowód. (Jacek Mucha) {τ = t} = {τ t} \ n N t 1 n 0 {τ t 1 n }, przy czym {τ 1 n } F t 1 F t. Suma przeliczalnie wielu zbiorów mierzalnych n jest mierzalna. Różnica dwóch zbiorów mierzalnych jest mierzalna, bo A \ B = (A c B) c. Dla t = 0 teza jest oczywista. Z kolei {τ < t} = ({τ t} c {τ = t}) c F t. Definicja 4.4. τ nazywamy czasem Markowa (cz. M.), jeśli τ jest F t+ -czasem Markowa. Ćwiczenie 4.2. F t+ też jest filtracją. Fakt 4.1. Jeśli τ jest F t -czasem Markowa, to τ jest czasem Markowa. Dowód. F t F t+. Fakt 4.2. τ-cz.m. t {τ < t} F t. Dowód. Załóżmy najpierw, że τ jest czasem Markowa. Wtedy {τ < t} = n N t 1 n 0 {τ t 1 n } F t,
bo n N {τ t n 1} F (t 1 n )+ F t. W drugą stronę. {τ t} = {τ < t + 1 n } Zauważmy, że n N k {τ < t + 1 n } = n N czyli {τ t} k N F t+ 1 k = F t+. N n k n N F t+ 1 n. {τ < t + 1 n } F t+ 1, k Fakt 4.3. Niech τ,σ - czasy Markowa. Wtedy min(τ,σ) też jest czasem Markowa. Dowód. {min(τ,σ) < t} = {τ < t} {σ < t} F t+. Fakt 4.4. Niech τ,σ - F t -czasy Markowa. Wtedy min(τ,σ) też jest F t -czasem Markowa. Dowód. {min(τ,σ) < t} = {τ < t} {σ < t} F t. Ćwiczenie 4.3. Niech τ,σ,(τ n } - czasy Markowa. Wtedy czasami Markowa są także max(τ,σ) supτ n infτ n limsupτ n liminfτ n. Przykład 4.1. Niech F t = σ{x s : s [0,t]} oraz τ A = inf{t : X t / A} (czas pierwszego wyjścia ze zbioru A). Jeśli A = A (A jest zbiorem domkniętym), to τ A = inf{t Q : X t / A}. Wtedy {τ A < t} = s Q {X s / A} F t, bo jest to suma przeliczalnie wielu zdarzeń z F t. s<t Zatem τ A jest czasem Markowa (ale nie jest F t -czasem Markowa!). (1) Jeśli A jest zbiorem otwartym, to τ A = lim n τ An, gdzie A n = {x : dist(x,a c ) 1 n }. Równość (1) wynika z ciągłości trajektorii: X / Int(A τa n k), gdy n k, zatem, gdy X τ = lim n X (gdzie τ = lim τa n n τ An ); k A k = A, czyli X τ / A, o ile τ <. Zatem τ An τ A τ, o ile τ <. Gdy τ =, to τ A τ An, zatem τ A =. W szczególności τ A są mierzalne i są czasami Markowa. Tak naprawdę τ A są nawet F t -czasami Markowa.
Fakt 4.5. Jeśli przestrzeń probabilistyczna jest odpowiednio zupełna, to τ A jest czasem Markowa dla dowolnego borelowskiego A. Dowód. Trudny. Definicja 4.5. Jeśli τ-cz.m., definiujemy F τ+ = {M F : M {τ t} F t+ }. Ćwiczenie 4.4. F τ+ = {M F : M {τ < t} F t }. Definicja 4.6. Jeśli τ-cz.m., to definiujemy F τ = {M F : M {τ t} F t }. Definicja 4.7. Jeśli τ-cz.m., to definiujemy F τ = σ{m {τ < t} : M F t }. Ćwiczenie 4.5. τ t F τ(±) = F t(±). Ćwiczenie 4.6. F τ,f τ+,f τ to σ-algebry. Ćwiczenie 4.7. F τ F τ F τ+. Fakt 4.6. Jeśli τ σ - czasy Markowa, to F τ+ F σ+. Dowód. M {σ < t} = M {τ < t} {σ < t}, przy czym {σ < t} {τ < t}. Ale M {τ < t} F t, bo M F τ+. {σ < t} F t, bo σ-cz.m. Przekrój dwóch zdarzeń z F t jest w F t, więc M {σ < τ} F t. Fakt 4.7. Jeśli τ-cz.m., to τ jest F τ+ -mierzalny oraz F τ -mierzalny. Dowód. Będziemy myśleć, że M = {τ < t}. {τ < t} {τ < s} = {τ < min(t,s)} F min(t,s) F s. Czyli {τ < t} F τ+. W istocie τ jest F τ -mierzalny. Fakt 4.8. Jeśli τ,σ-cz.m., to {τ < σ} F τ+ F σ+. Dowód. {τ < σ} {σ < t} = s<t s Q {τ < s} {s < σ} {σ < t} F t, bo {τ < s} F s, {s < σ} F s+, {σ < t} F t. Zatem {τ < σ} F σ+. Z drugiej strony {τ < σ} {τ < t} = {τ < s} {s < σ} {τ < t} ({τ < t} {σ t}) F t, s<t s Q bo τ < s} F s,{s < σ} F s+,{τ < t} F t,{σ t} F t. Zatem {τ < σ} F τ+.
Fakt 4.9. Jeśli cz.m. τ = lim n τ n, gdzie τ n - malejący ciąg czasów Markowa, to Dowód. Pokażemy ( ). F τ+ = F τn +. (25) n N M {τ n < t} = M {τ < t} {τ n < t} F t, bo M {τ < t} F t z założenia oraz {τ n < t} F t. ( ) W drugą stronę. M {τ < t} = (M {τ n < t}) F t. n N Fakt 4.10. Jeśli τ jest czasem Markowa, a σ - F t -czasem Markowa oraz τ < σ, to F τ+ F σ. Dowód. M {σ τ} = M {τ < t} {σ t} F t.
5 Mocna własność Markowa Definicja 5.1. Niech F t = σ{x s : s [0,t]}. Proces stochastyczny X t ma mocną własność Markowa, jeśli E x (Φ(X τ+t1,...,x τ+tn ) F τ+ ) = φ(x τ ), (26) gdzie φ(y) = E y Φ(X t1,...,x tn ) na zbiorze {τ < } dla każdego czasu Markowa τ, funkcji borelowskiej i ograniczonej Φ i t 1 < t 2 < < t n. Definicję powyższą można również sformułować następująco: E x (Φ(X τ+t1,...,x τ+tn );M {τ < }) = E x (φ(x τ );M {τ < }), M F τ+. (27) P x (M) = P x (M M) = E x (1 M ;M) = E x (φ(x 0 );M) = E x (φ(x);m) = φ(x)p x (M) = (P x (M)) 2, bo Φ = 1 M można aproksymować przez Φ n takie jak w mocnej własności Markowa; M F 0+,τ = 0,φ(y) = E y (1 M ) = P y (M). Wniosek 5.1. (Prawo 0-1 Blumenthala). Jeśli proces stochastyczny X t ma mocną własność Markowa, to F 0+ jest trywialne, tzn. P x (M) {0,1} dla M F 0+. Twierdzenie 5.2. Ruch Browna ma mocną własność Markowa. 5.1 Procesy Fellera Twierdzenie 5.3. Procesy Fellera mają mocną własność Markowa. Dowód podamy później. Definicja 5.2. p t (x,dy) nazywamy fellerowskim prawdopodobieństwem przejścia, jeśli 1. p 0 (x,dy) = δ x (dy) 2. f C 0 (X) X f (y)p t(x,dy) C 0 jako funkcja x 3. p t (x, ) jest ciągłą funkcją t w słabej topologii na przestrzeni miarowej. Fakt 5.4. Przy założeniu (1) i (2) z powyższej definicji, (3) można zapisać równoważnie jako: 3. (t,x) f (y)p t (x,dy) jest ciągła względem (t,x).
Przez p t f (x) będziemy rozumieć p t f (x) = f (y)p t (x,dy). (28) Przy powyższym oznaczeniu można napisać, że warunki (1),(2),(3) z Definicji 5.2 odpowiadają 1. p 0 f = f 2. p t : C 0 (X) C 0 (X) 3. p s f p t f, gdy s t, a f C 0 (X). Tutaj X jest lokalnie zwartą ośrodkową przestrzenią metryczną, zaś C 0 (X) to przestrzeń funkcji ciągłych takich, że ε > 0 K-zwarty taki, że f (x) < ε dla x / K. Dowód podamy później. Definicja 5.3. Proces X t nazywamy procesem Fellera, jeśli spełnia (M), ma fellerowskie prawdopodobieństwa przejścia i jego trajektorie są prawostronnie ciągłe z lewostronnymi granicami (càdlàg). Twierdzenie 5.5. Każde fellerowskie prawdopodobieństwo przejścia odpowiada pewnemu procesowi Fellera. Wracamy do dowodu Twierdzenia 5.3, tj., że każdy proces Fellera ma mocną własność Markowa. Dowód. Dowód będzie przebiegał w pięciu krokach. Krok 1. τ jest czasem Markowa. τ = lim n min(τ,n), oczywiście min(τ,n) to czasy Markowa. Jeśli τ jest ograniczony, to τ = lim k τ k, gdzie τ k = 2k τ+1 przyjmuje skończenie wiele wartości. 2 k {τ k t} = { 2 k τ+1 2 k t} = {2 k τ+1 < 2 k t +1} = {τ < 2k t 2 k } F 2 k t 2 k F t. Zatem τ k jest F t -czasem Markowa. Krok 2. Policzymy L = E x (Φ(X τk +t 1,...,X τk +t n );M {τ k = s}). Skorzystamy z Faktu 4.10, co daje M {τ k = s} F τ+ F τk, zaś {τ k = s} F s. Dalej L = E x (Φ(X s+t1,...,x s+tn );M {τ k = s}) 1 = E x (φ(x s );M {τ k = s}) = E x (φ(x τk );M {τ k = s}), gdzie równość 1 wynika z własności Markowa. Następnie sumujemy po wszystkich wartościach s (jest ich skończenie wiele), otrzymując: E x (Φ(X τk +t 1,...,X τk +t n ;M) = E x (φ(x τk );M). (29)
Krok 3. Przejście k. X τk +t j X τ+t j p.w. Jeśli Φ C 0 (X n ), to lewa strona równania 29 dąży do E x (Φ(X τ+t1,...,x τ+tn );M). X τk X τ p.w. φ jest ciągła (ćwiczenie, f C 0 (X) E x f (X t ) C 0, E x Φ(X t1,...,x tn ) = p t1 (x,dx 1 )... Φ(x 1,...,x n )p tn t n 1 (x n 1,dx x )...). Zatem prawa strona dąży do E x (φ(x τ );M). Krok 4. τ - niekoniecznie ograniczony. Niech σ k = min(τ,k). τ = lim k σ k. Dla M F σk + zachodzi E x (Φ(X σk +t 1,...,X σk +t n );M {σ k = τ}) = E x (φ(x σk );M {σ k = τ}). Tutaj M {σ k = τ} F σk + i rośnie do M {τ < }. Z twierdzenia Lebesgue a (dla odpowiednich M) zachodzi więc równość E x (Φ(X τ+t1,...,x τ+tn );M {τ < }) = E x (φ(x τ );M {τ < }). Jeśli M F τ+, to M {τ < } = k N M {τ k} oraz M {τ k} F σk +, bo M {τ k} {σ k < t} = M {τ = σ k } {τ < t} = M {τ < t} {τ < k}. Jeśli t k, to ostatnie wyrażenie M {τ < t} F t, w przeciwnym zaś przypadku M {τ k} F k+ F t. Krok 5. Pokażemy na koniec, że φ(x = tau) jest F τ+ -mierzalny. Jeśli τ jest ograniczony, to X τk są F τk -mierzalne, bo {X τk A} = s{x s A} {τ k = s}, gdzie każdy składnik sumy należy do rodziny F τk (ćwiczenie). Dalej, X τ = lim k X τk jest F τ j -mierzalne j N. X τ jest mierzalne dla j=1 F τ j = F τ+. Jeśli τ-dowolny, to {X τ A,τ < } = {X τ A,τ = σ k } = {X σk A;τ = σ k } F τ+, k N bo i-ty składnik sumy należy do rodziny F σk +. Przez X oznaczamy przestrzeń stanów. Jest to ośrodkowa, lokalnie zwarta przestrzeń metryzowalna (R d ). Przyjmujemy - dodatkowy stan; X = X { } to jednopunktowe uzwarcenie X. k N Definicja 5.4. Rodzinę zbiorów H nazywamy π-układem, jeśli A,B H A B H. Definicja 5.5. Niech X /0. Rodzinę zbiorów H 2 X nazywamy λ-układem, jeśli 1. X H 2. A,B H : B A A \ B H
3. {A 1,A 2,...} H n N : A n A n+1 n N A n H. Lemat 5.1 (o π i λ układach). Niech X /0. Jeśli rodzina zbiorów H 2 X jest jednocześnie π i λ układem podzbiorów zbioru X, to jest ona σ-algebrą podzbiorów zbioru X. Fakt 5.6. G X / G i G-otwarty w X lub G i X \ G zwarty w X. Definicja 5.6. Rozszerzmy prawdopodobieństwo przejścia na X : p t (x,{ }) = 1 p t (x,x) p t (,A) = δ (A) = 1 A ( ). Fakt 5.7. Wyżej określone p t jest prawdopodobieństwem przejścia na X. Definicja 5.7. Miara K(x, A) względem x, borelowska względem y nazywana jest jądrem. Oznaczenie: K f (x) = K(x,dy) f (y) (o ile całka jest zbieżna). Fakt 5.8. p t jest jądrem. Obserwacja 5.9. Dla f borelowskich i ograniczonych zachodzi p t+s f = p t (p s f ). Obserwacja 5.10. p t rozszerza się do fellerowskiego prawdopodobieństwa przejścia na X. Fakt 5.11. (t,x, f ) p t f (x) jest ciągła [0, ) X C 0 R. Dowód. Niech (t n,x n, f n ) (t,x, f ). p t f (x) p tn f n (x n ) p t f (x) = p t f (x n ) + p t f (x n ) p tn f (x n ) + p tn f (x n ) p tn f n (x n ). Zauważmy, że p t f (x) = p t f (x n ) 0, bo p t f jest ciągła. p tn f p t f, więc p t f (x n ) p tn f (x n ) p tn f p t f 0. Z kolei p tn f (x n ) p tn f n (x n ) f f n 0, bo p t g(x) 1 g. Ostatecznie p t f (x) p tn f n (x n ) 0, q.e.d. Wniosek 5.12. (t,x) p t (x,a) jest borelowska. Dowód. Jeśli A-otwarty, to A = n=1 K n dla pewnych K n -zwartych, K n K n+1. Istnieje f n C c taka, że f n (x) = 1 w K n, f n (x) = 0 poza A oraz f n (x) [0,1] w X. p t (x,a) = lim n pt (x,dy) f n (y) = lim n p t f n (x). Granica ciągłych (względem (t, x) funkcji borelowskich jest borelowska. Wystarczy udowodnić, że rodzina A: (t,x) p t (x,a) jest borelowska jest λ-układem. /0 ma tę własność p t (x,x \ A) = p t (x,x) p t (x,a). p t (x,x) jest borelowska, bo X jest otwarty, więc rozważana rodzina jest zamknięta na branie dopełnień. p t (x, n=1 A n ) = n=1 p t(x,a n ), gdy A n są rozłączne. Zatem rodzina ta jest zamknięta na przeliczalne sumy rozłączne. Na mocy lematu o π λ-układach rozważana rodzina zawiera zbiory borelowskie.
5.2 λ-potencjał Definicja 5.8. Jądrem λ-potencjału nazywamy transformatę Laplace a prawdopodobieństwa przejścia: u λ (x,a) = 0 e λt p t (x,a)dt. (30) Fakt 5.13. u λ jest jądrem. Będziemy pisać u λ f (x) = u λ (x,dy) f (y), λ 0. Gdy λ = 0, to otrzymujemy miarę nieskończoną. Gdy λ > 0, to u λ (x,x) 1 λ. W poniższych przykładach będziemy przyjmować X = R d. Przykład 5.1. Niech p t (x,a) = A gdzie u 0 (x) = 1 = 4π d 2 x d 2 0 0 1 (4πt) d 2 u 0 (x,a) = 1 (4πt) d 2 e x y 2 4t dy. Wtedy A e x 2 4t dt = 0 e s s d 2 2 ds = u 0 (x y)dy, (31) 1 (π x 2 s ) d 2 s x 2 e 4s 2 ds =, gdy d = 1 lub d = 2 Γ( d 2 2 ) 4π d 2 x d 2, gdy d 3 Zauważmy, że u 0 jest tu analogonem klasycznego potencjału. u 0 (x,a) można interpretować jako średni czas przebywania przez proces w zbiorze A. Przykład 5.2. O ile poprzedni przykład odnosił się w pewien sposób do procesu Wienera, o tyle teraz rozpatrzmy proces, którego prawdopodobieństwa przejścia związane są z rozkładem Cauchy ego. Niech p t (x,a) = A c Policzmy potencjał. u 0 (x,a) = Podstawmy s = t (t 2 + x y 2 ) d+1 2 A u 0 (x,y)dy, u 0 (x,y) = x y 2, t 2 = x y 2 t 2 + x y 2 s 1 dy, gdzie c = dy. (32) R d (1 + y 2 ) d+1 2 0 c t (t 2 + x y 2 ) d+1 2 dt. x y 2, 2tdt = x y 2 ds. Otrzymujemy s 2 { 1 c u 0 (x,y) = 0 2 s d+1 2 x y d 1 x y 2 c 1 s 2 ds = 2 x y d 1 s d 3, gdy d = 1 2 ds = c 2 0, gdy d 2. x y d 1.
Przykład 5.3. Ogólnie p t (x,a) = p t (A x) (przy czym p t (x,a) = p t (0,A x)). e iξ x p t (dx) = e t(<ξ,[a]ξ> iξ z1 B(z))ν(dz) = e tψ(ξ). (33) ν - intensywność skoków w jedynce. u λ (x,a) = u λ (A x). Transformata Fouriera: e iξ x u λ (dx) = 0 e λt e tψ(ξ) dt = 1 λ+ψ(ξ). Przypomnijmy teraz garść faktów. p t f f, u λ f 1 λ f (bo: u λ f u λ f u λ f +, a stąd u λ f max( u λ f +, u λ f ) 1 λ max( f +, f ) = 1 λ f ). u nazywamy potencjałem lub rezolwentą. Fakt 5.14. Dla f C 0 p t f f, gdy t 0. Fakt 5.15. Dla f C 0 mamy λu λ f f, gdy λ. Dowód. λu λ f (x) f (x) = 0 λe λt (p t f (x) f (x))dt. λu λ f f 0 λe λt p t f f dt = 0 e s p s λ f f ds. p s f f jest ograniczone przez 2 f, więc z twierdzenia Lebesgue a o zbieżności λ ograniczonej całka dąży do 0 przy λ. Fakt 5.16. p t : C 0 C 0, u λ : C 0 C 0. Dowód. u λ f (x) = e λt p t f (x)dt = lim 0 n k=0e λ kn p kn f (x) 1 n i z twierdzenia Weierstrassa otrzymana granica jest funkcją ciągłą. Fakt 5.17. [Równanie rezolwenty]. Dla prawdopodobieństwa przejścia zachodzi p t+s f = p t p s f. Dla rezolwenty z kolei zachodzi równanie u λ u µ f = 1 ( λuλ f µu µ f ). (34) λ µ Fakt 5.18. f 0, f C 0 e λt p f (u λ f ) u λ f, gdy t 0 +. Dowód. = e λt p t (u λ f )(x) = 0 ( ) e λt p t (x,dy) e λs Funelli p s f (y)ds = ( ) e λ(t+s) p t (x,dy)p s f (y) ds = = t 0 0 e λ(t+s) p t+s f (x)ds = { e λr uλ f (x) p r f (x)dr u λ f (x), gdy t 0 +. Otrzymaliśmy zbieżność punktową monotoniczną w C 0. Zbieżność jednostajna wynika z twierdzenia Diniego.
5.3 Funkcje λ-ekscesywne Definicja 5.9. Funkcję g 0 nazywamy λ-ekscesywną, jeżeli e λt p t g g. Wniosek 5.19. Jeżeli f 0 i f C 0, to u λ f jest λ-ekscesywna. Na przestrzeni kanonicznej własność (M) zadaje system (rodzinę) miar na σ{x t1,x t2,...,x tn }. Te miary są zgodne: rozkład (X t1,x t2,...,x tn,x s1,x s2,...,x sm ) ma rozkład brzegowy równy rozkładowi (X t1,x t2,...,x tn ) (t 1,...,t n,s 1,...,s m nie są uporządkowane). Stąd (por. ćwiczenia) wynika istnienie miary na przestrzeni funkcji ([0, ) Q) X takiej, że zachodzi (M). Udowodnimy, że trajektorie wyżej zdefiniowanego procesu z prawdopodobieństwem 1 mają jednostronne granice. Definicja 5.10. Rodzina (X t,f t ) t T, t T E X t <, jest martyngałem, jeśli dla s t, s,t T, E(X t F s ) = X s, nadmartyngałem, jeśli dla s t, s,t T, E(X t F s ) X s, podmartyngałem, jeśli ( X t,f t ) t T jest nadmartyngałem. Fakt 5.20. g jest λ-ekscesywna e λt g(x t ) (t Q [0, )) jest nadmartyngałem. Dowód. E x ( e λ(s+t) g(x t+s ) F s ) = φ(x s ), gdzie φ(y) = E y e λ(t+s) g(x t ) (własność Markowa). φ(y) = e λ(t+s) p t g(y) e λs g(x s ) (nierówność wynika z ekscesywności), zatem E x ( e λ(t+s) g(x t+s ) F s ) e λs g(x s ). Z Lematu Dooba wynika, że g(x t ) ma jednostronne granice z prawdopodobieństwem 1 w każdym t [0, ). Rozważmy ciąg φ l 0, φ l C 0, który rozdziela punkty X, tzn. x,y X x y l φ l (x) φ l (y). (35) Taki ciąg istnieje, niech na przykład {y n } będzie ośrodkiem w X, wtedy punkty rozdziela φ n (x) = (1 d(x,y n )) +, φ n ( ) = 0. Niech teraz g k,l (x) = ku k φ l (x). Wówczas g k,l jest k-ekscesywna oraz {g k,l : k,l 1} rozdziela punkty (bo φ l (x) φ l (y) g k,l (x) g k,l (y) dla dostatecznie dużych k). Widzimy więc, że z prawdopodobieństwem 1 wszystkie procesy g k,l (X t ) (t Q [0, )) mają jednostronne granice w każdym t [0, ). Przypuśćmy, że pewna granica jednostronna X t nie istnieje, np. lim n X tn = x, lim n X sn = y, x y, t n,s n t 0, x,y X. Niech g k,l (x) g k,l (y); wtedy g k,l (X t ) nie ma granicy jednostronnej w t 0 (tutaj potrzebne jest dodatkowe założenie o zupełności miary P x ). Zatem X t ma z prawdopodobieństwem 1 granice jednostronne (g k,l (X tn ) g k,l (x), g k,l (X sn ) g k,l (y) z ciągłości g). Określmy (na zbiorze miary pełnej) X t = lim s t +,s Q [0, ) X s. Wówczas
X t ma trajektorie prawostronnie ciągłe z lewostronnymi granicami (dowód później). Pokażemy, że X t jest procesem Fellera o prawdopodobieństwie przejścia p t (x,a), jeśli wykażemy, że zachodzi (M). Niech 0 t 1 < t 2 < < t n. Niech s j,k k t j, s j,k Q, 0 s 1,k < s 2,k < < s n,k. Zapisujemy (M) dla X t oraz s 1,k,s 2,k,...,s n,k i przechodzimy z k. E(Φ(X s1,k,...,x sn,k )) = p s1,k (x,dx 1 ) p s2,k (x 1,dx 2 )... p sn,k (x n 1,dx n Φ(x 1,...,x n ) E (Φ( x X t1,..., X tn ) Tym samym udowodniliśmy p t1 (x,dx 1 )... ) p tn t n 1 (x n 1,dx n )Φ(x 1,...,x n ). Twierdzenie 5.21. Dla każdego fellerowskiego prawdopodobieństwa przejścia istnieje proces Fellera. Lemat 5.2. Jeśli Y n Y p.w. (Y n Y w L 1 ), n Y n Z, EZ < oraz G n - rosnąca rodzina σ-ciał, G = σ( n=1 ), to E(Y n G n ) E(Y G) p.w. i w L 1. Dowód. E(Y G n ) jest jednostajnie całkowalnym martyngałem. Zatem E(Y G n ) E(Y G) p.w. i w L 1. E E(Y n G n ) E(Y G n ) E((E( Y n Y G n ) = E Y n Y 0. Stąd zbieżność w L 1 z lematu (zbieżności p.w. nie dowodzimy). Lemat 5.3. Jeśli E( f (Y ) G) = f (Z) dla wszystkich f C 0, Z jest mierzalna względem G, to Y = Z p.w. Dowód. Przez aproksymację. E(1 G (Y ) G) = 1 G (Z) dla G - otwartego. E(1 G (Y )1 X \G(Z) G) = 0 i dalej P(Y G,Z / G) = 0. Bierzemy G n - bazę topologii X ; P(Y G n,z / G n dla pewnego n) = 0. Stąd Y = Z p.w. Twierdzenie 5.22. Niech X t - proces Fellera, τ n - niemalejący ciąg czasów Markowa, τ = lim n τ n (czyli τ też jest czasem Markowa). Wówczas X τn X τ p.w ( na {τ < }). Jest to tzw. kwazilewostronna ciągłość. Dowód. Niech f C 0, s > 0. Niech M n = {τ n < τ} F τn + F τ+ oraz M = n=1 M n F τ+. Wykorzystamy Lematy 5.2 oraz 5.3. W Lemacie 5.3 { { Xτ w M Xτ w M Y = w M c, Z = w M c. W Lemacie 5.2 z kolei Y n = f (X τn +s)1 Mn, Y = f (X τn +s )1 Mn, G n = F τn +, zaś G = σ( n=1 F τn +) F τ. Skorzystamy tutaj z dwóch faktów, których nie będziemy teraz dowodzić.
Fakt 5.23. F τ G. Fakt 5.24. X τ 1 M jest F τ -mierzalny Wróćmy do dowodu Twierdzenia 5.22. Z mocnej własności Markowa mamy E x ( f (X τn +s)1 Mn F τn +) = p s f (X τn )1 Mn. p s f (X τn )1 Mn p s f (X τ )1 M p.w., gdy n. E x ( f (X τn +s)1 Mn F τn +) n, L1 E x ( f (X (τ+s) )1 M F τ ). p s f (X τ )1 M s 0 + f (X τ )1 M. E x ( f (X (τ+s) )1 M F τ ) s 0+ E x ( f (X τ ) F τ ). Stąd wynika, że X τ 1 M = X τ 1 M. Ponadto lim n X τ n = { Xτ na M X τ na M c. Wniosek 5.25. X t = X t p.w., tzn. w prawie każdym ustalonym czasie proces nie ma skoku. 5.4 Operatory przesunięcia Definicja 5.11. Operatorem przesunięcia nazywamy mierzalne odwzorowanie θ t : Ω Ω, t 0 takie, że X s θ t = X s ((ω,t)) = X s+t (ω). Na przestrzeni kanonicznej θ t (ω)(s) = ω(t + s) (tutaj θ t θ s = θ t+s ). Zakładamy istnienie operatora theta t. Fakt 5.26. Na przestrzeni kanonicznej θ t istnieje. Fakt 5.27. Jeśli τ jest losowym czasem, to θ τ (ω) = θ τ(ω) (ω), θ τ : Ω Ω. Twierdzenie 5.28. Jeśli X t jest z prawdopodobieństwem 1 prawostronnie ciągły, τ jest czasem Markowa, X τ jest F τ+ mierzalny, to θ 1 τ (F t ) F (τ+t)+ F. Dowód. X t θ τ = X t+τ jest F (t+τ)+ -mierzalne. Zatem F (τ+s)+ zawiera wszystkie zbiory postaci {X t θ τ A} = θτ 1 ({X t A}). Wobec tego θ 1 τ (M) F (τ+s)+ dla M F (τ+s)+. Wniosek 5.29. θ τ jest F -mierzalne.
Alternatywne sformułowanie własności Markowa Fakt 5.30. Jeśli zapiszemy {X t1 A 1,...,X tn A n } = M oraz {X s+t1 A 1,...,X s+tn A n } = θ 1 s (M), to własność Markowa możemy zapisać jako lub alternatywnie P x (θ 1 s (M) F s ) = φ(x s ), φ(x) = P x (M) (36) E x ( Φ θ s F τ+ ) = φ(x τ ), φ(x) = E x ( Φ). (37) Twierdzenie 5.31. Niech τ,σ będą czasami Markowa, a X t będzie procesem Fellera. Wtedy τ + σ θ τ jest czasem Markowa. Dowód. Z Twierdzenia?? {σ θ τ < t} = θ 1 τ ({σ < t}) F (τ+t)+. Dalej {σ θ τ } {τ +t < s} F s. Ostatecznie {σ θ τ + τ < r} = t,s Θ,t,s t,s<r{σ θ τ < t} {τ < s t}, bo każde ze zdarzeń {σ θ τ < t} {τ < s t} F r.