Procesy stochastyczne 1 Co to jest proces stochastyczny Będziemy zakładać w tej książce, że dana jest przestrzeń probabilistyczna (Ω, F, P ). Definicja 1.1 Procesem stochastycznym nazywamy zbiór zmiennych losowych {X t } t T, które przyjmują wartości w przestrzeni mierzalnej (Ξ, X ) i są indeksowane przez zbiór T. Definicja mówi nam, dla każdego t T X t : Ω Ξ jest F/X -mierzalna. Oznaczamy ją również przez X(t). Przykład 1.2 Jeśli T = {, 1, 2,..., n} oraz Ξ =, to {X t } t T jest wektorem losowym w n. Przykład 1.3 Jeśli T = {, 1, 2,...} oraz Ξ = k lub Ξ = C k lub Ξ jest zbiorem skończonym, to {X t } t T jest ciągiem losowym np. łańcuch Markowa. Proces X(t, ω) jest funkcją dwóch zmiennych t T zaś ω Ω. Dla ustalonego ω X(, ω) : T Ξ, czyli każdemu ω przyporządkowujemy funkcję element z przestrzeni Ξ T. Interesuje nas wyposażenie tej przestrzeni w σ-ciało tak aby proces był odwzorowaniem mierzalnym. Definicja 1.4 (Zbiory cylindryczne) Załóżmy, że dana jest przestrzeń mierzalna (Ξ, X ). Wówczas zbiorem cylindrycznym w przestrzeni Ξ T nazywamy zbiór postaci {x Ξ T : (x t1,..., x tn ) A}, gdzie A X n = X X. Definicja 1.5 Produktowym σ-ciałem X T w przestrzeni Ξ T nazywamy najmniejsze σ-ciało generowane przez wszystkie zbiory cylindryczne. Definicja 1.6 Funkcją losową nazywamy odwzorowanie X : Ω Ξ T, które jest F/X T mierzalne. ealizacje X(ω) nazywamy ścieżkami i oznaczamy x.
Definicja 1.7 Niech (E, E) oznacza przestrzeń mierzalną. Wówczas odwzorowanie mierzalne f : Ξ T E, które jest X T /E mierzalne nazywamy funkcjonałem określonym na ścieżkach. Przykładem funkcjonału jest operator rzutu π t : Ξ T Ξ ewaluacji funkcji f : T Ξ dany wzorem π t (f) = f(t). Jest on mierzalny, gdyż jednowymiarowe cylindry są dane następującą formuła: {f Ξ T : f(t) A} = πt 1 (A), gdzie zbiór A X. Następujący lemmat wyjaśnia kluczową rolę π t. Lemat 1.8 Odwzorowanie X : Ω Ξ T jest F/X T mierzane, czyli jest funkcja losową wtedy i tylko wtedy gdy dla każdego t T złożenie π t X jest F/X mierzalne Dowód: Implikacja w jedną stronę jest oczywista bo π t X jest złożeniem dwóch funkcji mierzalnych. W drugą stronę wystarczy pokazać, że przeciwobraz dowolnego cylindra jednowymiarowego πt 1 (A) jest F mierzalny, czyli X 1 (πt 1 (A)) = (π t X) 1 (A) F co kończy dowód. Zauważmy, że z lematu wynika iż funkcja losowa X wyznacza proces stochastyczny X t = π t X. Z drugiej strony każdy proces stochastyczny X t wyznacza funkcję losową X. Ponieważ będziemy chcieli skonstruować procesy stochastyczny posiadające pewne własności wygodnie jest wskazać w zbiorze Ξ T pewien podziór U. I tak w dalszym ciągu dla T = [, 1] zbiór U oznaczać będzie zbiór funkcji ciągłych rzeczywistych Ξ =, X = B, gdzie B oznacza σ-ciało zbiorów borelowskich; U = C(T ). Zauważmy, że zbiór U nie należy do X T. Inny dobór zbioru U jest w przykładzie 12. W U σ-ciało, które będziemy oznaczać przez U X T definiujemy w standardowy sposób: U X T = {C U : C X T }. Deninicja 1.9 Funkcję losową w U nazywamy funkcję X : Ω U Ξ T, która jest F/U X T mierzalna. 2
Lemat 1.1 X jest funkcją losową w U wtedy i tylko wtedy gdy {X t } t T jest procesem stochastycznym o trajektoriach w zbiorze U. Dowód: Ponieważ X(ω) U zatem X jest F/U X T mierzalna wtedy i tylko wtedy gdy jest F/X T mierzalna. Dalej dowód wynika z Lematu 8. Przykład 1.11 (Miary losowe) Niech zbiór T będzie oznaczać zbiory borelowskie w d zaś Ξ = + = [, ]. Wówczas funkcja losowa X : Ω U Ξ T oznacza miarę losową, jeśli za U weźmiemy miary przeliczanie addytywne. Przykład 1.12 Jeśli X jest miarą losową i dla każdego zbioru borelowskiego B, X(B) jest zmienną losową przyjmującą wartości w zbiorze liczb naturalnych, to X jest procesem punktowym. Jeśli X jest miarą losową i dla każdego r, X({r}) 1, to X jest procesem prostym. Proces Poissona jest procesem punktowym prostym. Zadanie 1.13 Dla dowolnego zbioru przeliczalnego S = {t 1, t 2,...} zawartego w T definiujemy σ-ciało w Ξ T (ozn. X S (Ξ T )), które jest generowane przez jednowymiarowe cylindry postaci πt 1 (A), gdzie A Ξ i t S. Udowodnić, że X T = X S (Ξ T ). S T Dowód. Oznaczmy D = S T X S (Ξ T ). Oczywiście D X T. W drugą stronę wystarczy pokazać, że D jest σ-ciałem. W dalszym ciągu potrzebować będziemy następujące twierdzenie z teorii miary []: Twierdzenie 1.14 (O zgodności dwóch miar) Załóżmy, że dane są dwie miary określone na (Ξ, X ). Niech dana będzie rodzina G zbiorów zamknięta ze względu na skończone przekroje i taka, że µ(e) = ν(e) dla E G. Zakładamy ponadto, że istnieją zbiory E i G takie, że µ(e i ) = ν(e i ) < i Ξ = i=1 E i (czyli zakładamy, że miary są σ-skończone). Wówczas miary µ i ν są zgodne na σ-ciele generowanym przez G. Definicja 1.15 ozkładem funkcji losowej X : Ω Ξ T probabilistyczną określoną na (Ξ T, X T ) wzorem nazywamy miarę µ(e) = P (ω : X(ω) E), 3
gdzie E X T. Na zbiorach cylindrycznych postaci gdzie A j X C = n j=1 π 1 t j (A j ), µ(c) = P {ω : X tj (ω) A j, j = 1,..., n}. Chcemy teraz zawęzić funkcję losową do zbioru Ξ K, gdzie K T. W tym celu wprowadźmy oznaczenie, przez x(t) t K lub π T K(x) = x K będziemy oznaczać obcięcie funkcji x : T Ξ do zbioru K. Zauważmy, że operator obcięcia π T K : Ξ T Ξ K jest odwzorowaniem X K /X T mierzalnym. Wówczas jeśli X jest funkcją losową, to możemy wprowadzić funkcję losową X K w następujący sposób. Niech X(ω) będzie realizacją funkcji losowej oznaczoną przez x(t). Wówczas realizację funcji losowej X K możemy zdefiniować jako π T K(x), czyli X K = π T K(X). Pozostaje sprawdzić, że definicja jest poprawna, czyli X K : Ω Ξ K jest X K /F mierzalna co wynika ze złożenia funkcji mierzalnych. Zatem możemy wprowadzić również rozkłady µ K na (Ξ K, X K ). Analogicznie możemy zdefiniować operatory π J K o ile K J T. Ponieważ rodzinę miar zdefiniowaliśmy używając operatora obcięcia, zatem jeśli S = {t 1,..., t n }, to aby obliczyć µ S (A 1 A n ) porządkujemy zbiór S, t i1 < < t in (tutaj stosujemy identyfikację) i wówczas A 1 A n = {x Ξ S : x(t ij ) A j, j = 1,..., n} µ S (A 1 A n ) = P {ω : X S (t ij, ω) A j, j = 1,..., n} = P {ω : X(t ij, ω) A j, j = 1,..., n} = µ({x Ξ T : x(t i1 ) A 1,..., x(t in ) A n }), co wyjaśnia (1.1) dla rodzin skończonych. Twierdzenie 1.16 Powyżej zdefiniowana rodzina spełnia warunek (1.1) µ K = µ (π T K) 1 4
i ogólnie (1.2) µ K = µ J (π J K) 1 Dowód. Aby udowodnić (1.1) zauważmy, że obie miary są zgodne na zbiorach cylindrycznych, która to rodzina jest zamknięta ze względu na skończone przekroje. eszta wynika z twierdzenia 14. Do dowodu (1.2) zauważmy, że µ K = µ (π T K) 1 = µ (π J K π T J ) 1 = µ (π T J ) 1 (π J K) 1 = µ J (π J K) 1. Definicja 1.17 odzina miar µ K na X K indeksowana zbiorami skończonymi spełniająca warunek (1.2) dla dowolnych zbiorów skończonych nazywa się rodziną zgodną Z twierdzenia 16 wynika, że zgodność miar jest warunkiem koniecznym istnienia miary na Ξ T. Twierdzenie Kołmogorowa pokaże, że jest też warunkiem wystarczającym. Twierdzenie 1.18Niech X i Y będą funkcjami losowymi w Ξ T o ścieżkach w U. Wówczas rozkłady funkcji losowych X, Y oznaczone przez µ, ν są identyczne na U Ξ T wtedy i tylko wtedy gdy dla dowolnego zbioru skończonego J T µ J = ν J. Dowód Dowód w jedną stronę = jest teraz oczywisty. Dowód w drugą stronę jest oparty o twierdznie 14. Trzeba zauważyć tylko,że rodzina zbiorów cylindrycznych jest domknięta ze względu na skończone przekroje. ozważmy teraz T = [, 1], Ξ =, X = B, U = C(T ). Niech µ będzie zadaną miarą probabilistyczną na (Ξ T, X T ). Miarę tę możemy rozszerzyć do miary zewnętrznej µ (B) = inf B E X T (µ(e)), [Lojasiewicz str.99]. Lemat 1.19 Zbiór U ma miarę zewnętrzną jeden µ (U) = 1 wtedy i tylko wtedy gdy dla każdego zbioru przeliczalnego τ T : µ ({f T : f τ jest jednostajnie ciągła w τ}) = 1. Zauważmy, że do naszych rozważań wystarczy założyć, że miara µ jest zupełna, czyli X T rozszerzamy o wszystkie zbiory miary zero. 5
Dowód. = Niech µ (U) = 1. Dla danego τ przeliczalnego definiujemy zbiór A τ = {ψ T : ψ τ jest jednostajnie ciągła w τ}. Wówczas ponieważ U A τ, to 1 = µ (U) µ (A τ ) 1 co kończy dowód implikacji. = Niech teraz E X T dowolny zbiór taki, że U = C(T ) E. Wystarczy pokazać, że µ(e) = 1. Z zadania 13 istnieje S = {t 1, t 2,...} T taki, że E X S (Ξ T ), czyli istnieje A X N = (B ) N E = {f T : (f(t 1 ), f(t 2 ),...) A}. Można pokazać, że dla dowolnej funkcji ψ T takiej, że ψ S jest jednostajnie ciągły istnieje funkcja ciągła f : T taka, że f S = ψ S. Ponieważ C(T ) E stąd wynika, że ψ E, czyli A S := {ψ T : ψ S jednostajnie ciągły} E. Stąd 1 = µ (A S ) µ (E) = µ(e) 1 co kończy dowód. W następnych rozdziałach pokażemy, że istnieje miara Wienera skoncentrowana na U = C(T ) w sensie lematu 19. Stąd będzie wynikać, że można wprowadzić miarę na U, gdyż zachodzi następujący lemat Lemat 1.2 Niech (E, E, P ) będzie przestrzenią probabilistyczną. Niech E E taki, że P (E ) = 1, to istnieje dokładnie jedna miara probabilistyczna P na (E, E E) spełniająca równanie (1.3) P (E A) = P (A), A E. Dowód. Sprawdzimy, że (1.3) może służyć jako definicja miary. Wystarczy sprawdzić, że definicja jest poprawna, czyli dla dowolnych A 1, A 2 E jeśli (1.4) E A 1 = E A 2, to P (A 1 ) = P (A 2 ). Zauważmy, że z (1.4) wynika, że A 1 A 2 = (A 1 \ A 2 ) (A 2 \ A 1 ) E \ E. Stąd P (A 1 A 2 ) P (E \ E ) = zatem P (A 1 ) = P (A 2 ). Pozostałe własności wynikają z definicji. 6
Oczywiście przestrzeń U = C(T ), T = [, 1] jest przestrzenią ośrodkową Banacha z normą supremum x = sup t [,1] x(t). Istnieje zatem w U naturalne σ-ciało zbiorów borelowskich B U, czyli σ-ciało generowane przez kule otwarte K r (x) = {y : x y < r}. Zadanie 1.21 Pokazać, że B U = U (B ) T. Sens tego zadania jest jasny. Do definicji funkcji ciągłej ψ potrzeba i wystarcza podzbiór przeliczalny gęsty w T taki, że ciąg ψ S jest jednostajnie ciągły. Zadanie 1.22 W dowodzie lematu 1.19 użyto następującej identyfikacji. Jeśli S = {t 1, t 2,...} T, to Uzupełnić dowód. X S (Ξ T ) = {{f T : (f(t 1 ), f(t 2 ),...) A} : A X N } Zadanie 1.23 Pokazać, że dla dowolnej funkcji ψ T takiej, że ψ S jest jednostajnie ciągły istnieje funkcja ciągła f : T taka, że f S = ψ S. 7
2 Twierdzenia o rozszerzaniu W rozdziale tym podamy podstawowe konstrukcje rozszerzające rodziny miar zgodnych do miary na Ξ T. W tym celu przypomnimy definicje ciała skończenie addytywnym E zbiorów z przestrzeni E [Lojasiewicz str 73]. Definicja 2.1 Jeśli A, B E, to A B E i A \ B E, to E nazywamy ciałem skończenie addytywnym Następnie niech F będzie funkcją skończoną, nieujemna i skończenie addytywną w ciele E. Twierdzenie Carathéodory 2.2 Warunkiem koniecznym i dostatecznym na to, aby funkcja F dała się rozszerzyć do miary na σ-ciele generowanym przez ciało skończenie addytywne E jest jej przeliczalna addytywność w E. [Dowód Lojasiewicz str 99.] Definicja 2.3 Przestrzenie mierzalne (E 1, E 1 ) i (E 2, E 2 ) są izomorficzne w sensie Borela, jeśli istnieją funkcje f i f 1 odpowiednio mierzalne. f : E 1 E 2, f 1 : E 2 E 1 Definicja 2.4 (E, E) jest przestrzenią Borela jeśli istnieje zbiór borelowski A w [, 1], taki, że (E, E) oraz (A, A B [,1] ) są izomorficzne w sensie Borela. Sformułujemy lemat, którego dowód jest oparty o istnienie warunkowych prawdopodobieństw.[kallenberg] Lemat 2.5 Niech dane będą zmienne losowe X, X : (Ω, F) (Ξ, X ) o jednakowych rozkładach L(X) = L(X ) oraz zmienna losowa Y : (Ω, F) (A, A), gdzie (A, A) jest przestrzenią Borela. Niech zmienna Z ma rozkład jednostajny na [, 1] i jest niezależna od X. Wówczas istnieje funkcja mierzalna f : Ξ [, 1] A taka, że L(X, f(x, Z)) = L(X, Y ), L( ) oznacza rozkład zmiennej losowej. Twierdzenia Daniella podamy nieco w ogólniejszej formie niż tego wymaga dalszy wykład. Do tej pory mówiliśmy o rodzinach miar zgodnych. W 8
tym twierdzeniu zakładamy, że rodzina miar jest kolejno zgodna. Niech dla każdego n, A n będzie przestrzenią Borela z zaś µ n oznacza miarę probabilistyczną na przestrzeni produktowej n j=1 A j. odzina miar jest kolejno zgodna jeśli dla µ n+1 (D A n+1 ) = µ n (D). Zauważmy, że taka rodzina wyznacza rodzinę miar zgodnych. Wystarczy uzupełnić, tę rodzinę o wszystkie miary brzegowe. Twierdzenie Daniella 2.6 Niech dla każdego n, A n będzie przestrzenią Borela, zaś µ n oznacza miarę probabilistyczną na przestrzeni n j=1 A j. Jeśli rodzina miar µ n tworzy rodzinę kolejno zgodną, to istnieją zmienne losowa X n : Ω A n takie, że L(X 1,..., X n ) = µ n dla każdego n oraz istnieje miara probabilistyczna µ na j=1 A j taka, że jeśli π n oznacza (projekcję) operator obcięcia n π n : A j A j, to µ n = µ π 1 n. j=1 Dowód. Można zauważyć [Kallenberg] (dowód uzupełnimy póżniej), że istnieje Ω, dla której można wybrać ciąg niezależnych zmiennych losowych X, Z 2, Z 3, Z 4,... taki, że Z j ma rozkład jednostajny na [, 1] zaś L(X) = µ 1 oraz dla każdego n istnieje ciąg (zależny od n) ξ n 1,..., ξ n n taki, że j=1 (2.1) L(ξ n 1,..., ξ n n) = µ n. Ciąg zmiennych X 1, X 2,... konstruujemy indukcyjnie. Załóżmy, że potafimy skonstruować ciąg X 1, X 2,..., X n taki, że L(X 1, X 2,..., X n ) = µ n. Jak skonstruować X n+1. Korzystając z warunku (2.1) wybieramy ξ1 n+1,..., ξn+1 tak aby L(ξ1 n+1,..., ξn+1) = µ n+1. Ponieważ rodzina jest kolejno zgodna L(ξ n+1 1,..., ξ n+1 n ) = L(X 1,..., X n ) = µ n. Korzystając z Lematu 2.5 zastosowanego dla X = ξ n+1 1,..., ξ n+1 n, X = X 1,..., X n 9
otrzymujemy, że istnieje X n+1 = f(x, Z n+1 ) taki, że L(ξ n+1 1,..., ξ n+1 n+1) = L(X 1,..., X n, X n+1 ), co kończy dowód. Następne twierdzenie uogólnia wynik Daniella na (Ξ T, X T ). Oczywiście trudność pojawia się tylko gdy T jest zbiorem nieprzeliczalnym. Twierdzenie Kołmogorowa 2.7 Niech (Ξ, X ) będzie przestrzenią Borela. Załóżmy, że dana jest rodzina miar zgodna µ J, J skończony, J T na (Ξ J, X J ). Wówczas istnieje funkcja losowa X. o rozkładzie µ na (Ξ T, X T ) takim, że µ J = µ (π T J ) 1. Dowód. Zauważmy, że korzystając z definicji σ ciała X S (Ξ T ) (zadanie 1.13) i twierdzenia 2.6 dla dowolnego zbioru przeliczalnego S T możemy zdefiniować miarę µ S na X S (Ξ T ) taką, że miary µ J dla J S są miarami brzegowymi µ J = µ S (π S J ) 1. Z twierdzenia 1.14 wynika, że rodzina miar µ S, gdzie S jest skończony lub przeliczalny spełnia warunek zgodności (1.2). Pamiętając, że (zad. 1.13) X T = S T X S (Ξ T ) możemy zdefiniować funkcję na A X T wzorem µ(a) = µ S (A), gdzie A X S (Ξ T ). Ponieważ rodzina spełnia warunek zgodności (1.2) definicja nie zależy od wyboru S. Oczywiście µ jest miarą gdyż w definicji miary wszystkie operacje są przeliczalne. Poszukiwany w twierdzeniu proces X t możemy zdefiniować X t = π t, gdzie (Ξ T, X t, µ) jest przestrzenią probabilistyczną. Inny dowód ( A.D. Wenzel). Istnienie miary µ wynika, również bezpośrednio z twierdzenia Carathéodory ego 2.2 w którym za ciało zbiorów bierzemy zbiory cylindryczne w następujący sposób. Niech A będzie zbiorem cylindrycznym, wówczas istnieje zbiór skończony K taki, że A X K (Ξ T ). Addytywną funkcję zbiorów definiujemy przez F (A) = µ K (A). Definicja nie zależy od wybory zbioru K, bo te miary tworzą rodzinę zgodną. W dowodzie, że F jest przeliczalnie addytywny w ciele wykorzystuje się założenie, że zbiory są przestrzeniami Borela. 1
Zadanie 2.8 Pokazać, że zdefiniowana w dowodzie twierdzenia Kołmogorowa funkcja zbiorów jest miarą. Wystarczy sprawdzić, że zdefiniowana miara w dowodzie twierdzenia jest przeliczalnie addytywna. Niech A j X T są rozłaczne. Z zadania 1.13 istnieją zbiory przeliczalne S j T takie, że A j X S j (Ξ T ). Ponieważ S = j S j jest zbiorem przeliczalnym zatem A j, j A j X S (Ξ T ). Stąd µ( j A j ) = µ S ( j A j ) = j µ S (A j ) = j µ(a). 11
3 Miary skoncentrowane na C(T) w tym rozdziale skonstruujemy miarę Wienera. ozpoczniemy od nierówności Garsia, ademich i umsey [197]. Theorem 3.1 Niech p i Ψ będą funkcjami ciągłymi, ściśle rosnącymi określonymi na [, ) i takimi, że p() = Ψ() = oraz lim t Ψ(t) =. Niech φ C(T ). Wówczas jeśli (3.1) to 1 1 t s (3.2) φ(t) φ(s) 8 Ψ ( ) φ(t) φ(s) dsdt B, p( t s ) ( ) 4B Ψ 1 p(du). u 2 Dowód. Definiujemy funkcję: I(t) = 1 W dalszej części pokażemy, że z założenia Ψ 1 wynika istnienie t (, 1) takiego, że ( ) φ(t) φ(s) ds. p( t s ) I(t)dt B I(t ) 2B I(1 t ) 2B. Wybierzemy ciąg nierosnący {t n } n 1 [, t ]. Mając t n 1, n 1 definiujemy d n 1 (d 1 = 1) tak aby p(d n 1 ) = 1 2 p(t n 1). Wówczas wybieramy t n (, d n 1 ) tak aby (3.3) I(t n ) 2B/d n 1 oraz (3.4) Ψ ( ) φ(tn ) φ(t n 1 ) 2I(t n 1 )/d n 1. p( t n t n 1 ) 12
Aby uzasadnić ten wybór zauważmy, że jeśli to A := {t (, d n 1 ) : I(t) > 2B/d n 1 }, B dn 1 I(t) A I(t)dt > 2B d n 1 A. Stąd miara A < d n 1 /2. Z drugiej strony dla zbioru mamy D := {t (, d n 1 ) : Ψ D ( ) φ(t) φ(tn 1 ) > 2I(t n 1 )/d n 1 }, p( t t n 1 ) ( ) 1 φ(tn 1 ) φ(s) I(t n 1 ) = Ψ ds p( t n 1 s ) ( ) φ(tn 1 ) φ(s) Ψ ds > 2 D I(t n 1 )/d n 1. p( t n 1 s ) Zatem również D < d n 1 /2 co dowodzi istnienia punktu t n spełniającego (3.3) i (3.4). Zdefiniowaliśmy ciąg Co więcej Zatem t n < d n 1 < t n 1. 2p(d n+1 = p(t n+1 ) < p(d n ) = p(t n )/2. p(t n+k ) < p(t n )/2 k. Stąd dla n, p(t n ) zatem t n. Ponadto p(t n t n+1 ) p(t n ) = 2p(d n ) = 4(p(d n ) 1 2 p(d n)) Stąd oraz z (3.3) i (3.4) wynika, że 4(p(d n ) p(d n+1 )). φ(t n ) φ(t n+1 ) Ψ 1 (2I(t n )/d n )p(t n t n+1 ) ( ) ( ) 4B 4B Ψ 1 4(p(d n ) p(d n+1 )) 4Ψ 1 (p(d d n 1 d n d 2 n ) p(d n+1 )) n dn ( ) 4B 4 Ψ 1 p(du). d n+1 u 2 13
Sumując po n otrzymamy 1 (3.5) φ(t ) φ() 4 ( ) 4B Ψ 1 p(du). u 2 Biorąc za funkcję φ funkcję φ(1 t) i powtarzając rozumowanie 1 (3.6) φ(1) φ(1 t ) 4 Jeszcze wypada zobaczyć, że dla zbioru otrzymamy B ( ) 4B Ψ 1 p(du). u 2 C := {t (, 1) : I(t) > 2B} 1 I(t)dt C I(t)dt > 2B C, czyli C < 1/2. Zatem można wybrać punkt t taki, że jednocześnie Stąd z (3.5) i (3.6) wynika, że I(t ) 2B I(1 t ) 2B. 1 (3.7) φ(1) φ() 8 ( ) 4B Ψ 1 p(du). u 2 W szzczególności jeśli s < t 1 definiujemy nowe funkcje oraz φ(u) = φ(s + (t s)u), u [, 1] p(u) = p((t s)u), u [, 1]. Jak łatwo sprawdzić dla nowych funkcji zachodzi warunek (3.1) z nową stała B/(t s) 2. Stosując wzór (3.7) do nowych funkcji i nowej stałej a następnie stosując zamianę zmienych otrzymuje tezę twierdzenia. Zauważmy, że twierdzenie jest prawdziwe dla dowolnego odcinka [, a], a >. Wniosek 3.2 Niech (E, E, P ) będzie przestrzenią probabilistyczną. I niech proces X : [, ) E jest o ciągłych trajektoriach. Jeśli dla dowolnego a > istnieją parametry α = α a >, r = r a > oraz C = C a < takie,że (3.8) E X t X s r C t s 1+α, t, s a, 14
wówczas dla dowolnego γ = γ a (2, 2 + α) oraz λ > ( X t X s (3.9) P 8γ ) t s β γ 2 (4λ)1/r sup s<t a gdzie β = β a = (γ 2)/r zaś A = A a = a a t s 1+α γ dsdt. CA/λ, Dowód. Z ciągłości trajektorii wynika, że proces jest progresywnie mierzalny (zob. twierdzenie 6.4), czyli dla każdego a > obcięcie procesu do [, a) jest B [,a) E/B mierzalne. Z warunku (3.8) oraz definicji stałej A wynika, że [ a ( ) a r Xt X s E dsdt] a a E ( Xt X s t s (1+α)/r t s γ/r ) r 1 dsdt AC. t s (γ 1 α) Z nierówności Czebyszewa ( a ( ) a r Xt X s P dsdt λ) CA/λ. t s γ/r Wówczas na dopełnieniu powyższego zbioru i z twierdzenia 3.1 t s X t X s 8 ( ) 1/r 4λ t s du γ/r = 8(4λ) 1/r u 2/r (γ/r)u γ/r 1 du u 2 = 8(4λ) 1/r t s (γ 2)/r (γ/r)(1r/(γ 2)). co kończy dowód. Powrócimy teraz do zagadnienia, które rozpatrywaliśmy w rozdziale 1. Mianowicie sformułowaliśmy warunek przy którym miarę probabilistyczna µ na T można zawęzić do C(T ), lemat 1.18 i 1.19. Okazuje się, że taką sytuację mamy dla miar, które pochodzą od procesów spełniających warunek (3.8). Sformułujemy to twierdzenie na odcinku T = [, 1] choć jest ono prawdziwe również na półprostej [, ). Twierdzenie 3.3 Niech dana będzie miara µ na T, (B ) T taka, że istnieją stałe α >, r > 1 + α i C >, że dla (3.1) E π t π s r = ψ(t) ψ(s) r µ(dψ) C t s 1+α, s < t 1. 15
Wówczas µ (C(T )) = 1. Dowód. Z lematu 1.19 wynika, że wystarczy pokazać, że dla każdego zbioru przeliczalnego S µ ({ψ T : ψ S jest jednostajnie ciągły}) = 1. W tym celu zobaczmy, że jeśli zbiór τ jest skończony, to zbiór (stałe dobieramy jak we wniosku 3.2) ψ(t) ψ(s) A τ,λ := {ψ : sup 8γ t,s τ t s β γ 2 (4λ)1/r } jest (B ) T mierzalny co wynika z mierzalności funkcji π t, t τ. W odpowiedni sposób dobieramy teraz zbiory τ = τ N = { = t,n < < t N,N = 1}. tak aby S N=1 τ N i τ N τ N+1. Zauważmy, że Stąd λ=1 N=1 A τn,λ {ψ T : ψ S jest jednostajnie ciągły}. (3.11) µ ({ψ T : ψ S jest jednostajnie ciągły}) lim λ lim µ(a τ N N,λ). Zdefiniujmy łamaną interpolującą ψ N w punktach zbioru τ N o wartości dowolnej funkcji ψ, czyli ψ N (t) = (t i+1,n t)ψ(t i,n ) (t t i,n )ψ(t i+1,n ) t i+1,n t i,n, t i,n t t i+1,n. Niech s < t dowolne. Wówczas t i,n t t i+1,n oraz t j,n s t j+1,n. Wtedy korzystając z założenia (3.1) możemy wykonać następujące szacowanie ψ N (t) ψ N (s) r µ(dψ) 3 r 1 C t s 1+α. zeczywiście korzystając w z nierówności Jensena; dla a, b, c > mamy (a + b + c) r 3 r 1 (a r + b r + c r ), 16
gdyż r > 1 oraz z nierówności a r + b r + c r (a + b + c) r rozważamy trzy przypadki. Pierwszy t i,n s < t t i+1,n. Proste rachunki w tym przypadku pokazują, że ψ N (t) ψ N (s) r µ(dψ) C t s 1+α. Drugi t i,n s t i+1,n t t i+2,n sprowadzamy do poprzedniego gdyż ψ N (t) ψ N (s) r µ(dψ) 2 r 1 ( ψ N (t i+1,n ) ψ N (s) r + ψ N (t) ψ N (t i+1,n ) r )µ(dψ) C2 r 1 ( t i+1,n s r + t t i+1,n r ) C2 r 1 t s r Trzeci sprowadzamy również do pierwszego. Korzystając z wniosku 3.2 dla ψ N otrzymujemy ψ(t) ψ(s) µ({ψ : sup 8γ t,s τ t s β γ 2 (4λ)1/r }) 3 r 1 CA/λ. Wykorzystując teraz (3.11) wnioskujemy, że µ (C(T )) = 1. Twierdzenie Kołmogorowa 3.4 Załóżmy, że dana jest rodzina zgodna µ K, K T = [, 1]. Jeśli istnieją α >, r 1+α, C > takie, że dla dowolnego S = {s, t}, s < t y x r µ S (dx dy) C t s 1+α, to istnieje dokładnie jedna miara probabilistyczna na (C(T ), B C(T ) ). Dowód. Wystarczy zauważyć, że dla s < t i S = {s, t} mamy C(T ) π t (ψ) π s (ψ) r µ(dψ) = y x r µ S (dx dy). Następnie trzeba wykorzystać zadanie 1.21, Lemat 1.19 i 1.2 twierdzenie o istnieniu miary oraz wszystkie twierdzenia z tego rozdziału. 17
4 Nierówności Dooba dla podmartyngałów Zanim przejdziemy do definicji i własności martyngałów potrzebować będziemy następujących twierdzeń. Twierdzenie 4.1 Niech (E, E, ν) przestrzeń mierzalna. Wówczas dla p > i każdej funkcji nieujemnej f L p (ν) (4.1) E f p (x)ν(dx) = p λ p 1 ν(x : f(x) λ)dλ. Dowód. Wzór otrzymujemy stosując twierdzenie Fubiniego: E f p (x)ν(dx) = = p λ p 1 I {λ f(x)} dλ ν(dx) = p E co kończy dowód. E f(x) (p λ p 1 dλ)ν(dx) λ p 1 ν(x : f(x) λ)dλ Twierdzenie 4.2 Niech X, Y nieujemne zmienne losowe określone na przestrzeni probabilistycznej (Ω, F, P ) i takie, że EY < oraz dla każdego λ > (4.2) P (X λ) 1 λ X λ Y dp. Jeśli ponadto dla pewnego r > 1 Y L r (P ), to X L r (P ) oraz (4.3) (EX r ) 1/r r r 1 (EY r ) 1/r. Dowód. Z wzoru (4.1) oraz (4.2) EX r = r λ r 1 P (X λ)dλ r λ r 1 1 Y dp dλ. λ X λ Oznaczmy przez P nową miarę dp = Y dp (niekoniecznie probabilistyczną). Wówczas ostatni wzór możemy zapisać w postaci EX r r λ r 2 P (X λ)dλ. 18
Korzystając znowu z (4.1) otrzymujemy EX r r λ r 2 P (X λ)dλ = r X r 1 dp r 1 Ω = r X r 1 Y dp. r 1 Ω Korzystając z nierówności Höldera dla p = r/(r 1) i p = r otrzymujemy EX r r r 1 (EY r ) 1/r (EX r ) (r 1)/r. Dzieląc stronami (EX r ) 1/r r r 1 (EY r ) 1/r. Definicja 4.3 Niech T = [, 1] lub T = [, ). Niech (Ω, F, P ) będzie przestrzenią probabilistyczną. Filtracją nazywamy rodzinę σ-ciał F t, t T takich, że dla każdego t T F t F. Ponadto dla s < t, F s F t. Będziemy również zakąldać, że F zawiera wszystkie zbiory miary zero tzn. miara P jest zupełna. Proces stochastyczny X t jest adaptowany jeśli dla każdego t T, X t F t. Definicja 4.4 Proces stochastyczny X t, t T adaptowany do filtracji F t nazywamy martyngałem (podmartyngałem) {nadmartyngałem} jeśli dla każdego t T, E X t < oraz dla każdego s < t P prawie wszędzie. E[X t F s ] = ( ){ }X s Przypominamy, że istnienie warunkowej wartości oczekiwanej E[X t F s ] wynika z twierdzenia adona-nikodyma i oznacza że jeśli istnieje f F s i dla każdego zbioru A F s X t dp = fdp, A to E[X t F s ] = f P prawie wszędzie. ozpoczniemy od pokazania nierówności Dooba dla podmartyngałów. Twierdzenie 4.5 Jeśli proces X t jest podmartyngałem o prawostronnie ciągłych trajektoriach, to dla dowolych λ > i s > (4.4) P ({ sup X t λ}) 1 X s dp. t s λ {sup t s X t λ} 19 A
W szczególności jeśli X t jest nieujemny, to (4.5) P ({ sup X t λ}) 1 t s λ EX s. oraz dla r > 1 (4.6) ( ) 1/r E( sup X t ) r t s r r 1 (EXr s ) 1/r. Nierówność oznacza, że jesłi prawa strona jest nieskończona to również nieskończona jest lewa strona Dowód (4.5) wynika natychmiast z (4.4) zaś (4.6) wynika bezpośrednio z (4.4) i twierdzenia 4.2 przyjmując X = sup t s X t zaś Y = X s. Ponieważ trajektorie są prawostronnie ciągłe, to aby udowodnić (4.4) wystarczy pokazać, że dla dowolnego n oraz S n = { = t < < t n = s}: (4.7) P ({ sup X tk λ}) 1 X s dp. k n λ {sup k n X tk λ} Najpierw pokażemy, że z (4.7) wynika (4.4). W tym celu zauważmy, że jeśli s S, gdzie S jest przeliczalny i gęsty w [, s], to ponieważ trajektorie są prawostronnie ciągłe, to {sup X t λ} = { sup X t λ}. t S t s Teraz wystarczy zauważyć, że przy odpowiednim wyborze S n oraz n {sup X t λ} {sup X t λ} t S n co pamiętając o ciągłości miary prowadzi do pełnego uzasadnienia implikacji z (4.7) do (4.4). Wrócimy teraz do dowodu (4.7). Definiujemy ciąg zbiorów: A = {X t λ} oraz dla 1 k n A k = {X tk λ Oczywiście A i A j =, dla i j; oraz A k F tk t S { sup X tk λ} = k n max X t i < λ}. i k 1 n A k k=1 dla k =,..., n. Wówczas z nierówności Czebyszewa P ({ sup X tk λ}) = k n n k= P (A k ) 1 λ 2 n k= A k X tk dp.
Ponieważ X t jest podmartyngałem z definicji wynika, że X tk E[X s F tk ] zatem X tk dp E[X s F tk ]dp = X s dp. A k A k A k Stąd 1 λ n k= Co kończy dowód. A k X tk dp 1 λ n k= A k X s dp 1 λ {sup k n X tk λ} X s dp. 21
5 Procesy Markowa i miara Wienera Kilka uwag jest na miejscu. W poprzednich rozdziałach przyjmowaliśmy najczęściej, że T = [, 1]. Okazuje się, że możemy udowodnić analogiczne twierdzenia przyjmując za T = [, ). Zatem będziemy powoływać się na poprzednie twierdzenia przyjmując, że T = [, 1] albo T = [, ). W poniższej definicji funkcji prawdopodobieństw przejść s, t interpretujemy jako czas. Zatem zbiór T może oznaczać również zbiór liczb całkowitych lub naturalnych. Funkcje prawdopodobieństw przejść to rodziny miar µ s,t (x, Γ). Interpretacja tej funkcji jest następująca znając pozycje punktu x S w chwili s, µ s,t (x, Γ) jest prawdopodobieństwem, że w chwili t znajdzie się punkt x w zbiorze Γ S. S oznacza zbiór stanów. Ponieważ głównie interesują nas ewolucje na prostej od razu przyjeliśmy S =. Definicja 5.1 Funkcja prawdopodobieństwa przejść oznaczona przez µ s,t (x, Γ) lub P (s, x, t, Γ) jest określona dla s, t T s < t, x zaś zbiór Γ B i spełnia następujące warunki 1. dla ustalonych s, t, x funkcja zbiorów µ s,t (x, ) jest miarą probabilistyczną określoną na B. 2. dla ustalonych s, t, Γ funkcja µ s,t (, Γ) jest B /B mierzalna 3. (równania Chapmana-Kołmogorowa-Smoluchowskiego) jeśli s < t < u i Γ B, to (5.1) µ s,u (x, Γ) = µ t,u (y, Γ)µ s,t (x, dy). Dla s = t przyjmuje się, że µ s,s (x, ) = δ x ( ). Zauważmy, że założenie 2 jest potrzebne przy definicji (5.1) gdyż wówczas całka jest poprawnie określona. Zauważmy, że rodzina miar µ s,t (x, ) generuje nam równoważną rodzinę operatorów: P s,t (f)(x) = f(y)µ s,t (x, dy). Oczywiście operatory są liniowe i dobrze określone dla funkcji ograniczonych B. Jeśli w tej przestrzeni wprowadzimy normę supremum to operatory te są kontrakcjami, czyli f = sup f(x), x P s,t (f) f. 22
Ponadto P s,t (1) = 1, P s,s = I oraz z warunku (5.1) otrzymujemy warunek składania operatorów P s,u = P s,t P t,u. Pokażemy teraz sens probabilistyczny rodziny µ s,t (x, ). W przestrzeni mierzalnej ( T, (B ) T wprowadzamy filtrację. Przez B t oznaczać będziemy σ- ciało w T generowane przez jednowymiarowe zbiory cylindryczne πs 1 (A) dla s t co można zapisać jako B t = σ[π u : u t]. Zauważmy, że jeśli s < t, to B s B t oraz B t (B ) T zatem tworzą filtrację. Zauważmy, że ta filtracja generuje filtrację dla U = C(T ), gdzie B U,t = B t U. Niech (Ω, F, P ). Prawdopodobieństwo warunkowe definiujemy wzorem P [A G] = E[I A G], gdzie G F to ustalone σ-ciało. Funkcja I A jest funkcją charakterystyczną zbioru A. W dalszym ciągu będziemy używać oznaczeć z rozdziału 1 (por. wzór (1.1)). I tak miary brzegowe odpowiadające mierze µ będziemy oznaczać przez µ J lub µ t1,...,t n, gdzie J = {t 1 <..., t n }. Definicja 5.2 Niech µ s,t (x, Γ) = P (s, x, t, Γ) będzie funkcją prawdopodobieństwa przejść i ν niech będzie miarą probabilistyczną na (, B ). Miara probabilistyczna µ na ( T, (B ) T ) jest nazywana procesem Markowa z funkcją przejść µ s,t (x, Γ) i rozkładem początkowym ν jeśli (5.2) µ({ψ T : ψ() Γ}) = µ (Γ) = ν(γ) oraz dla wszystkich s < t i Γ B (5.3) µ[{ψ T : ψ(t) Γ} B s ](φ) = µ s,t (φ(s), Γ), gdzie φ T i równość zachodzi w T µ prawie wszędzie. W świetle definicji 5.2 rodzina miar µ s,t określa prawdopodobieństwa warunkowe (wzór 5.3). Aby uzyskać wiedzę o samym rozkładzie µ zauważmy, że ponieważ EP [A G] = P (A), to dla s < t (µ s oznacza miarę brzegową (1.1) zaś ( T, (B ) T, µ) przestrzeń probabilistyczną) (5.4) µ({ψ(t) Γ}) = P (s, ψ(s), t, Γ)dµ(ψ) T (5.5) = P (s, π s (ψ), t, Γ)dµ(ψ) = T 23 P (s, x, t, Γ)µ s (dx).
Ponieważ s jest dowolne niech s =. Wówczas µ({ψ(t) Γ}) = P (, x, t, Γ)µ (dx) = P (, x, t, Γ)dν(x). Pełny związek określa twierdzenie 5.3. Twierdzenie 5.3 Niech P (s, x, t, Γ) będzie funkcją prawdopodobieństwa przejść i ν niech będzie miarą probabilistyczną na (, B ). Definiujemy rodzinę miar na ( n, B n ) (5.6) P (Γ) = ν(γ), Γ B (5.7) P t (Γ) = i dla J = { t 1 < < t n+1 } (5.8) P t1,...,t n+1 ( ) = P (, x, t, Γ)P (dx) P (t n, y n, t n+1, dy n+1 )P t1,...,t n (dy 1... dy n ), gdzie (B ) n+1. Wówczas rodzina miar probabilistycznych P J = P t1,...,t n+1 jest zgodna. Ponadto miara µ określona na ( T, (B ) T ) przez tą rodzinę jest procesem Markowa z funkcją prawdopodobieństwa przejść P (s, x, t, Γ) oraz rozkładem początkowym ν wtedy i tylko wtedy gdy rozkłady skończenie wymiarowe µ J, J T miary µ określonej na ( T, (B ) T ) są równe P J. Uwagi. Wzór (5.8) najlepiej rozpisać dla zbiorów produktowych tzn. = n Γ, n (B ) n zaś Γ B. Wówczas (5.9) P t1,...,t n+1 ( ) = P (t n, y n, t n+1, Γ)P t1,...,t n (dy 1... dy n ). n Zauważmy, że jeśli Γ =, to ponieważ P (t n, y n, t n+1, ) = 1 zatem (5.1) P t1,...,t n+1 ( ) = P t1,...,t n ( n ). Z powyższych rozważań oraz własności funkcji prawdopodobieństwa przejść (5.1) wynika, że dla s < t (5.11) P t (Γ) = P (s, x, t, Γ)P s (dx). Dowód.Dowód zgodności ograniczymy do rodziny dwuelementowej S = {t 1 < t 2 }. Z (5.1) widzimy, jeśli = Γ 1, to P t1,t 2 (Γ 1 ) = P t1 (Γ 1 ). 24
Pozostało wykazanie, że P t1,t 2 ( Γ 2 ) = P t2 (Γ 2 ). Zobaczmy, że z (5.7) i (5.9) wynika, że P t1,t 2 (Γ 1 Γ 2 ) = P (t 1, y 1, t 2, Γ 2 )P t1 (dy 1 ) Γ 1 = P (t 1, y 1, t 2, Γ 2 ) P (, x, t 1, dy 1 )ν(dx) Γ 1 = ( P (t 1, y 1, t 2, Γ 2 )P (, x, t 1, dy 1 ))ν(dx). Γ 1 Jeśli teraz Γ 1 =, to P t1,t 2 ( Γ 2 ) = ( P (t 1, y 1, t 2, Γ 2 )P (, x, t 1, dy 1 ))ν(dx), Zatem z (5.1) otrzymujemy P t1,t 2 ( Γ 2 ) = P (, x, t 2, Γ 2 ))ν(dx) = P t2 (Γ 2 ). Analogicznie postępujemy dla dowolnego skończonego ciągu S. Przejdziemy teraz do dowodu równoważności. = Zakładamy, że Z definicji miary µ J = P J. µ({ψ T : π (ψ) Γ}) = µ (Γ) = P (Γ) = ν(γ), zatem zachodzi (5.2). By udowodnić (5.3) rozważymy dwa przypadki. Pierwszy s =. Z definicji miar brzegowych dla miary µ µ({ψ T : π (ψ), π t (ψ) Γ}) = µ,t ( Γ) = P,t ( Γ). Dalej z definicji (5.8) [(5.9)] (5.12) = P,t ( Γ) = = {π (ψ) } P (, y, t, Γ)P (dy). P (, y, t, Γ)µ (dy) P (, π (ψ), t, Γ)µ(dψ). 25
Z drugiej strony z definicji warunkowej wartości oczekiwanej µ({ψ T : ψ(t) Γ} B ) = E µ [I {ψ(t) Γ} B ] dla każdego B = {ψ T : π (ψ) } B, czyli dla dowolnego B I {ψ(t) Γ} µ(dψ) = E µ [I {ψ(t) Γ} B ]µ(dψ). B Lewa strona tej równości jest równa I ψ(t) Γ µ(dψ) = µ({ψ T : π (ψ), π t (ψ) Γ}). B B Wystarczy to równanie porównać z (5.12) oraz zauważyć, że funkcja P (, π ( ), t, Γ) jest B /B mierzalna. Stąd otrzymujemy, że dla φ T µ prawie wszędzie E µ [I {ψ(t) Γ} B ](φ) = P (, π (φ), t, Γ). Niech teraz s < t i Γ B. Załóżmy że dany jest ciąg u 1 < < u n = s oraz zbiory Γ 1,..., Γ n B. Wówczas podobnie jak wyżej korzystając z miar brzegowych dla miary µ następnie z definicji (5.8)[(5.9)] i traktując (π u1 (ψ),..., π un (ψ)) jak wektor losowy na przestrzeni probabilistycznej ( T, (B ) T, µ) otrzymujemy (s = u n ) µ({ψ T : ψ(u 1 ) Γ 1,..., ψ(u n ) Γ n, ψ(t) Γ}) = P u1,...,u n,t(γ 1 Γ n Γ) = P (s, y n, t, Γ)P u1,...,u n (dy 1 dy n ) Γ 1 Γ n = P (s, π s (ψ), t, Γ)µ(dψ). {π u1 (ψ),...,π un (ψ) Γ n} Stosując twierdzenie 1.14 dla rodziny zbiorów G postaci {ψ T : ψ(u 1 ) Γ 1,..., ψ(u n ) Γ n } otrzymujemy (5.3) (wzór pierwszy i ostatni definiuje nam miarę). = Teraz zakładamy, że dany jest proces Markowa zgodnie z definicją 5.2. Oznaczmy rozkłady brzegowe przez µ t1,...,t n. Oczywiście (5.2) implikuje, że µ = P. Z powyższych rachunków wynika również, że µ t (Γ) = µ(ψ(t) Γ) = P (, ψ(), t, Γ)µ(dψ) T = P (, ψ(), t, Γ)µ (dy) = P (, ψ(), t, Γ)P (dy) = P t (Γ). 26
Dalej podobnie przez indukcję pokazujemy, że µ t1,...,t n,t n+1 (Γ 1 Γ n+1 ) = P t1,...,t n,t n+1 (Γ 1 Γ n+1 ). Korzystając z twierdzenia 1.14 otrzymujemy równość rozkładów brzegowych. Z tego twierdzenia wynika, że na przestrzeni probabilistycznej (Ω, F, P ), gdzie Ω = T, F = (B ) T, P = µ istnieje proces tzw. kanoniczny proces Markowa ξ t = π t 1. adaptowany do filtracji F t = B t, czyli ξ t F t (ξ t jest F t mierzalny) 2. istnieje rozkład początkowy ν taki, że P (ξ Γ) = ν(γ), Γ B 3. dla wszystkich s < t oraz Γ B rozkład warunkowy ξ t Γ względem filtracji F s zależy tylko od ostatniego pobytu procesu ξ w chwili s, czyli P (ξ t Γ F s )(ω) = P (s, ξ s (ω), t, Γ) P prawie wszędzie. Dzieki temu możemy wprowadzić ogólną definicję. Definicja 5.4 Niech (Ω, F, P ) przestrzeń probabilistyczna z filtracją F t. Niech P (s, x, t, Γ) będzie funkcją prawdopodobieństwa przejść i ν niech będzie miarą probabilistyczną na (, B ). Proces stochastyczny ξ t jest procesem Markowa jeśli są spełnione warunki 1,2,3. Poniższe twierdzenie sformułujemy dla prostoty dla T = [, 1]. Twierdzenie 5.5 Niech P (s, x, t, Γ) będzie funkcją prawdopodobieństwa przejść i ν niech będzie miarą probabilistyczną na (, B ). Ponadto załóżmy, że istnieją α >, r 1 + α oraz C > takie, że dla dowolnych t 1 < t 2 1 (5.13) sup y y 1 r P (t 1, y 1, t 2, dy) C t 1 t 2 1+α. y 1 Wówczas istnieje dokładnie jedna miara probabilistyczna µ na (U = C(T ), B U ). Mówimy, wówczas że (π t, B U,t, µ) jest ciągłym procesem Markowa z funkcją prawdopodobieństwa przejść P (s, x, t, Γ) i i rozkładem początkowym ν. Ponadto dla każdego x i s T istnieje dokładnie jedna miara probabilistyczna P s,x na (U = C(T ), B U ) taka, że (5.14) P s,x ({ψ U : π t (ψ) = x dla wszystkich t s}) = 1 27
oraz P s,x prawie wszędzie (5.15) P s,x (ψ U : π t2 (ψ) Γ B U,t1 )(φ. ) = P (t 1, φ(t 1 ), t 2, Γ) dla dowolnych s t 1 t 2 i Γ B. Dowód. Z twierdzenia 5.3 istnieje miara µ taka, że jest ona procesem Markowa wg definicji 5.2. Zauważmy, że dla rozkładu P J, gdzie J = {t 1 < t 2 } określonego wzorem (5.8), czyli P t1,t 2 (Γ 1 Γ 2 ) = P (t 1, y 1, t 2, Γ 2 )P t1 (dy 1 ) Γ 1 i stosując założenie (5.13) otrzymamy, że µ J = P J spełnia załóżenia twierdzenia 3.4 gdyż y 1 y 2 r µ J (dy 1 dy 2 ) y 1 ( sup y 1 y 2 r P (t 1, y 1, t 2, dy 2 )P t1 (dy 1 ) ) y 1 y 2 r P (t 1, y 1, t 2, dy 2 ) P t1 (dy 1 ) C t 2 t 1 1+α P t1 (dy 1 ) = C t 2 t 1 1+α. Zatem µ zawężona do C(T ) jest ciągłym procesem Markowa. Aby skonsruować rodzinę miar indeksowaną s, x definiujemy nowe rodziny prawdopodobieństw przejść δ y (Γ) t 1 < t 2 s, P (t 1, y, t 2, Γ) = P (s, y, t 2, Γ) t 1 s < t 2, P (t 1, y, t 2, Γ) s < t 1 < t 2. Wówczas całe rozumowanie można powtórzyć dla P (t 1, y, t 2, Γ) z tym, że rozkładem początkowym jest ν = δ x. Miarę odpowiadającą P oraz δ x oznaczamy przez P s,x. Definicja 5.6 Jeśli P (s, x, t, Γ) = P (s + h, x, t + h, Γ) to proces Markowa nazywamy jednorodny względem czasu. Jeśli µ s,t (x, Γ) = µ s,t (, Γ x), to proces Markowa nazywamy jednorodny względem przestrzeni. Będziemy potrzebować następującego twierdzenia, którego dowód odłożymy na później. 28
Twierdzenie 5.7 Niech (Ω, F, P ) przestrzeń probabilistyczna. Niech G F pod-σ ciało. Niech ξ, η dwie zmienne losowe, takie, że η G (η jest G mierzalna). Załóżmy, że istnieje warunkowa wartość oczekiwana E[f(ξ, η) G]. Wówczas dla ustalonego u funkcja jest dobrze określona i ponadto, F (u) = E[f(ξ, u) G] E[f(ξ, η) G] = F (η(ω)). Twierdzenie 5.8 odzina prawdopodobieństw przejść jednorodna względem przestrzeni generuje proces Markowa o przyrostach niezależnych, tzn. X t X s jest niezależne od F s dla s < t. Zachodzi również twierdzenie odwrotne. Dowód. Niech X t będzie procesem Markowa odpowiadającym rodzinie prawdopodobieńst przejść, przy dowolnej ustalonej mierze początkowej ν. Zobaczmy, że dla dowolnego zbioru B B F (u) = P [{X t u B} F s ] = E[I {Xt u B} F s ] = µ s,t (X s, B + u). Korzystając teraz z twierdzenia 5.7 otrzymamy Z założenia P [{X t X s B} F s ] = µ s,t (X s, B + X s ). P [{X t X s B} F s ] = µ s,t (, B), czyli jest funkcją stałą. Zatem dla dowolnego B zbiór {X t X s B} jest niezależny od F s. Szczególną rodziną prawdopodobieństw przejść jest rodzina P (s, x, t, Γ) = g(t s, y x)dy, gdzie g(a, x) = Γ 1 (2πa) 1/2 e x2 /(2a). Zauważmy, że g(a, ) jest gęstością rozkładu normalnego N(, a). Generuje ona proces Markowa jednorodny względem czasu i przestrzeni. 29
Zadanie 5.8 Pokazać, że powyższa rodzina spełnia warunek (5.13) z α = 1, r = 4, C = 3 = EU 4, gdzie U N(, 1). W ten sposób otrzymujemy miarę i rodzinę miar Wienera W s,x. Odpowiadający jej proces jest procesem Wienera. Dlaczego mówimy zazwyczaj o jednej mierze W = W,? Wyjaśnia to następne zadanie Zadanie 5.9 Definiujemy operator T s,x : C(T ) C(T ) dany wzorem T s,x (ψ)(t) = ψ((t s) + ) + x. Wówczas W s,x = W T 1 s,x. Zadanie 5.1 Pokazać, że dla µ = W, ϑ, t E µ [e iϑπt( ) ] = e tϑ2 /2. Proces π t na przestrzeni probabilistycznej (U = C(T ), U (B ) T, µ = W) nazywamy kanonicznym procesem Wienera. Zauważmy, że funkcja losowa π. : U U T jest odwzorowaniem identycznościowym. Zatem rozkład π. jest równy µ. Zdefiniujmy proces ξ t = π t + vw, gdzie w(t) = t dla t T. ozkład funkcji losowej ξ. oznaczmy przez µ ξ. Podamy teraz uproszczoną wersję twierdzenie Camerona-Martina. Twierdzenie Camerona-Martina 5.11 Przy powyższych oznaczeniach miary µ i µ ξ są równoważne. Pochodna adona-nikodyma jest równa dµ ξ dµ = e v2 T/2+vπ T. Dowód. Zdefiniujemy miarę na U wzorem ν(a) = e v2 T/2+vπ T (ψ) µ(dψ). A Korzystając z twierdzenia 1.14 wystarczy udowodnić, że dla każdego zbioru cylindrycznego ν(a) = µ ξ (A). 3
Dla prostoty pokażemy równość dla jednowymiarowych zbiorów cylindrycznych postaci A = {ψ : ψ(t) (, a)}. Wówczas (5.16) µ ξ (A) = µ({ψ : ψ(t) (, a vt)}) = a vt g(t, x)dx. Z drugiej strony Z definicji = ν(a) = a A e v2 T/2+vπ T (ψ) µ(dψ) e v2 T/2+vx 2 P t,t (dx 1 dx 2 ). P t,t (dx 1 dx 2 ) = P (t, x 1, T, dx 2 )P t (dx 1 ) = P (t, x 1, T, dx 2 )P (,, t, dx 1 ) Zatem ν(a) = dx 2 a = g(t t, x 2 x 1 )dx 2 g(t, x 1 )dx 1. dx 1 e v2 (T t)/2+v(x 2 x 1 ) e v2 t/2+vx 1 g(t t, x 2 x 1 )g(t, x 1 ). a e v2 (T t)/2+vu g(t t, u)du e v2 t/2+vx 1 g(t, x 1 )dx 1. Dla standardowej zmiennej gausowskiej N, wiemy, że Ee λn jeśli X N(, T t), to Zatem Ee λx = Ee λ T t T t = e λ 2 (T t)/2. ν(a) = X 1 a (2πt) 1/2 e (x vt)2 2t dx. Porównując z (5.16) otrzymujemy tezę. Zazwyczaj podaje się następującą definicję procesu Wienera = e λ2 /2. Stąd Definicja 5.12 Proces Wienera startujący z zera nazywamy proces Markowa taki, że W t, t < mający następujące własności: 1. W = 2. Dla dowolnych s < t zmienna losowe W s W t jest niezależne od filtracji F s 3. dla każdego s < t zmienna losowa W t W s ma rozkład normalny o średniej zero i wariancji t s, czyli N(, t s) 31
Z twierdzenie Camerona-Martina otrzymamy następującą wersję twierdzenia Girsanowa Wniosek 5.13 Niech W t jest procesem Wienera określonym na (Ω, F, P ) dla t T. Wówczas proces W t = W t vt jest procesem Wienera startującym z zera dla miary probabilistycznej Q równoważnej mierze P takiej, że dq = dp e v2 T/2+vW T. Ponadto z poprzednich twierdzeń wynika, że trajektorie są ciągłe prawie wszędzie. Z wniosku 3.2 możemy wywnioskować, jaka jest klasa gładkości trajektorii (trajektorie są Hölderowskie z odpowiedniem współczynnikiem). 32
6 Czasy stopu i procesy prawostronnie ciągłe W dalszym ciągu przez T będzie oznaczać zbiór [, ) choć twierdzenia są prawdziwe też dla T = [, 1] i niektóre dla T = N. Dana jest przestrzeń probabilistyczna (Ω, F, P ) i filtracja {F t } t T. Ponieważ przeliczalny przekrój σ-ciał jest σ-ciałem wprowadzamy oznaczenie F t+ = u>t F u. Formalnie przekrój nie jest przeliczalny ale jak łatwo pokazać, jeśli {u j } jest dowolnym ciągiem malejącym do t, czyli u j t, to F t+ = j F uj. Zauważmy, że F t+ tworzy filtrację prawostronnie ciągłą, którą to będziemy oznaczać przez F +. Dlatego będziemy również stosować oznaczenie F + t = F t+. Definicja 6.1 Filtracja jest prawostronnie ciągła jeśli dla każdego t T F t+ = F t. Proste konsekwencje takiej definicji wyjaśnia twierdzenie 6.3 Definicja 6.2 Zmienna losowa τ : Ω [, ] jest F-czasem stopu jeśli dla każdego t T {ω : τ(ω) t} = {τ t} F t. Jeśli zbiór indeksów T jest zbiorem liczb naturalnych, to czasem stopu nazywamy odwzorowanie mierzalne τ : Ω N { }. W ogólności τ : Ω T {sup T }. Jeśli wiemy o jaką filtrację nam chodzi będziemy mówić o czasach stopu. Ponadto, czas stopu jest ograniczony jeśli P ({τ = }) =. Twierdzenie 6.3 Załóżmy, że filtracja F t jest prawostronnie ciągła. Wówczas τ jest czasem stopu wtedy i tylko wtedy gdy dla każdego t T {τ < t} F t. 33
Dowód. = Niech u j ciąg liczb malejących do t, u j t. Wówczas {τ t} = j {τ < u j }, {τ < u j } F uj. Stąd {τ t} F t+ = F t. = Zauważmy, że {τ < t} = j {τ t ɛ j } F t ɛj F t. W dalszym ciągu dla prostoty będziemy rozpatrywać procesy określone w Ξ =. To co jest istotne, to określenie takiej struktury aby można było mówić o ciągłości trajektorii, tzn. aby odwzorowanie(funkcja) X ( ω) : T Ξ była ciągła lub prawostronnie (lewostronnie) ciągła. Twierdzenie 6.4 Jeśli proces X t adaptowany do filtracji F t ma prawostronnie (lewostronnie) ciągłe trajektorie, to proces zawężony X : [, t] Ω dla każdego t jest B [,t] F t mierzalny, czyli jest progresywnie mierzalny Dowód. Zauważmy, ze dla funkcji prawostronnie ciągłej f możemy skonstruować ciąg funkcji {f n } prostych lewostronnie ciągłych ( ) [nu] + 1 f n (u) := f, n który jest zbieżny punktowo dla każdego u T, gdzie [u] = k 1 o ile k 1 < u k. Ustalmy x oraz ɛ >. Poniewż f jest prawostronnie ciągła w x istnieje δ > taka, że dla dowolnego x < y < x + δ, f(x) f(y) < ɛ. Niech n, k będzie takie, że (k 1)/n < x k/n oraz 1/n < δ. Wówczas f(x) f n (x) f(x) f(k/n) + f n (x) f n (k/n) + f(k/n) f n (k/n) Zauważmy, że f n (x) = f n (k/n), f(k/n) = f n (k/n) zatem z prawostronnej ciąglości f(x) f n (x) < ɛ. Dla ustalonego t definiujemy teraz ciąg procesów ( ) [nu] + 1 X n (u, ω) = X t, ω. n 34
Z tego co powiedzieliśmy wynika, że X n punktowo zbiega do X w zbiorze [, t] Ω. Ponadto X n B [,t] F t, gdyż na każdym z odcinków (k 1)/n < u k/n X n zależny tylko od ω, X n (u, ω) = X ( ) k n t, ω F k. n Dla ustalonego czasu stopu τ zdefiniujmy rodzinę zbiorów. F τ = {A F : A {τ t} F t, t }. Zadanie 6.5 Sprawdzić, że F τ τ F τ. jest σ-ciałem. Jeśli τ jest czasem stopu, to Odczytajmy tylko z definicji co oznacza, że Y F τ. Z definicji wynika, że jest to równoważne iż obcięcia Y {τ t} są F t mierzalne dla każdego t. Twierdzenie 6.6 Jeśli proces X t jest progresywnie mierzalny, to zmienna losowa X τ F τ na zbiorze τ <. Uwagi Zmienną losową X τ(ω) (ω) interpretuje się jako zatrzymanie procesu w chwili τ. Dowód. Ustalmy t. Zdefiniujmy funkcję wzorem f t : ({τ t}, {τ t} F t ) ([, t] Ω, B [,t] F t ) f t (ω) = (τ(ω) t, ω) = (τ(ω), ω). Funkcja f t jest mierzalna. Zatem ponieważ X jest progresywnie mierzalna, rozważając X obcięte do [, t] Ω otrzymujemy mierzalność X f t = X(τ(ω) t, ω), czyli mierzalność X na zbiorze τ t co kończy dowód. Twierdzenie 6.7 Jeśli σ, τ są czasami stopu, to σ τ, σ τ są czasami stopu. Przy założeniu, że filtracja jest prawostronnie ciągła σ + τ jest czasem stopu. Ponadto (6.1) F σ {σ τ} F σ τ = F τ F σ 35
dla dowolnego t T (6.2) F τ = F t, na {τ = t}. Dowód. Niech A F σ i t T. Zauważmy, że A {σ τ} {τ t} = (A {σ t}) {τ t} {σ t τ t}. Stąd dla t T A {σ τ} {τ t} F t, bo funkcje σ t oraz τ t są F t mierzalne (np. t s, to {τ t s} = Ω. Jeśli przeciwnie t s, to {τ t s} = {τ s} F s.) Zatem A {σ τ} F τ Pierwsze zawieranie (6.1) otrzymamy wstawiając w powyższe wzory za parę (σ; τ) parę (σ; σ τ), gdyż {σ σ τ} = {σ τ}. Wstawiając w powyższe wzory za parę (σ; τ) pary (σ τ; σ) i (σ τ; τ) otrzymujemy, że F σ τ F σ F τ. W drugą stronę. Jeśli A F σ F τ i t T, to A {σ τ t} = (A {σ t}) (A {τ t}) F t, czyli A F σ τ. Przejdziemy teraz do dowodu (6.2). Niech τ t. Pokażemy, że F τ = F t. Zauważmy, że F τ = F τ {τ t} F t. W drugą stronę. Jeśli A F t, to dla s < t Zaś jeśli s t, to A {τ = t s} = F s. A {τ = t s} = A F t F s, czyli A F τ. W ogólnym przypadku z (6.1) wynika, że zmieniając znaczeniami analogicznie F σ {τ = σ} F τ F σ {τ = σ}. F τ {τ = σ} F τ F σ {τ = σ}. 36
Stąd F τ = F σ na {τ = σ}. Korzystając z dowodu (6.2) dla σ t otrzymujemy tezę. Definicja 6.8 Zmienna losowa τ : Ω [, ] jest słabym F- czasem stopu jeśli dla każdego t T {τ < t} F t. Twierdzenie 6.9 Zmienna losowa τ jest słabym F-czasem stopu wtedy i tylko wtedy gdy jest F + -czasem stopu. Ponadto (6.3) F + τ = {A F : A {τ < t} F t, t T }. Dowód. Zauważmy, że dla dowolnego t. (6.4) {τ t} = {τ < r} {τ < t} = {τ r}. r>t,r Q r<t,r Q Jeśli dla każdego t T A {τ t} F + t, to z (6.4) dla t > A {τ < t} = r<t,r Q A {τ r} F r+ F t. Jeśli A = Ω, to powyższa zależność dowodzi implikacji równoważności =. Jeśli dla każdego t T A {τ < t} F t, to z (6.4) dla t > oraz h > A {τ t} = r (t,t+h),r Q A {τ < r} F t+h. Zatem A {τ t} F t+, co dowodzi implikacji w drugą stronę, gdy A = Ω. Ponadto z obu wnioskowań otrzymujemy F + τ = {A F : A {τ < t} F t, t T }. 37
Zauważmy, że jeśli τ jest słabym czasem stopu, to dla każdego h > τ +h jest czasem stopu. Sprawdzenie, t T {τ + h t} = {τ t h} F (t h)+ F t. Zatem możemy zadefiniować σ ciało (ze wzoru (6.1) F τ+h1 h 1 < h 2.) F τ+ = F τ+h. h> F τ+h2, gdy Prawdziwe jest wówczas równość którą zostawimy bez dowodu. F τ+ = F + τ, Lemat 6.1 Dany jest ciąg F-czasów stopu {τ n } n 1. Wówczas σ = sup n τ n jest F-czasem stopu. Jeśli dany jest ciąg słabych F-czasów stopu {τ n } n 1, to τ = inf n τ n jest słabym F czasem stopu. Dowód. Teza wynika z równości {σ t} = n {τ n t} oraz {τ < t} = n {τ n < t}. Lemat 6.11 Dla dowolnego słabego F czasu stopu τ istnieje ciąg malejących F czasów stopu zbieżny do τ o wartościach w zbiorze przeliczalnym. Dowód. Definiujemy rządany ciąg wzorem τ n = 2 n [2 n τ + 1], gdzie [x] = k 1 o ile k 1 x < k. Zauważmy, że τ n przyjmuje wartości w zbiorze 2 n Z. Zatem wystarczy sprawdzić, że co wynika z następujących równości {τ k/2 n } F k/2 n, {τ k/2 n } = {[2 n τ + 1] k} 38
= {2 n τ + 1 < k + 1} = {τ < k/2 n } F k/2 n. W zastosowaniach ważną klasę czasów stopu stanowi klasa pierwszego wejścia do zbioru B przez proces X t w chwili t > (hitting time) τ B = inf{t > : X t B}. Poniższy lemat jest prawdziwy również dla procesów przyjmujących wartości w przestrzeni metrycznej. Lemat 6.12 Jeśli proces X t adoptowany do {F t } ma ciągłe trajektorie, zbiór B jest domknięty, to τ B jest F czasem stopu. Jeśli proces X t adoptowany do {F t } ma prawostronnie ciągłe trajektorie, zbiór B jest otwarty, to τ B jest słabym F czasem stopu. Dowód. Dowód piewszej części wynika z równania {τ B t} = h>,h Q n r Q [h,t] {d(x r, B) < 1/n} F t, gdzie d(x, B) jest odległością punktu x od zbioru B, czyli d(x, B) = inf x y. y B Zauważmy, że odległość punktu od zbioru jest funkcją ciągłą. Uzasadnimy powyższe równanie. Ustalmy ω i t takie, że τ(ω) = r t. Ponieważ trajektoria X s = X s (ω) (będziemy pomijać ustalone ω) jest ciągła zatem z definicji τ B oraz ponieważ B jest domknięty wynika, że X r B. Stąd dla każdego n istnieje u Q, gdzie u < r, że d(x u, B) X r X u < 1/n. W drugą stronę. Ustalmy ω takie,że istnieje h tak, że dla każdego n istnieje r n Q [h, t] tak, że d(x rn, B) < 1/n. Zauważmy, że z ciągu r n możemy wybrać podciąg zbieżny nazwijmy go tak samo, zatem r n r. Z ciągłości X rn X r. Z wyboru również wynika,że d(x r, B) =, czyli ponieważ zbiór B jest domknięty X r (ω) B, co pokazuje, że τ B r t. Dowód drugiej części wynika z równania {τ B < t} = r Q (,t) 39 {X r B} F t.
Potrzebować będziemy jeszcze twierdzenia o lokalizacji warunkowej wartości oczekiwanej Lemat 6.13 Niech w przestrzeni probabilistyczej (Ω, F, P ) będą dwa pod σ- ciała F, G 1 i G 2 oraz dwie zmienne losowe ξ, η L 1 (P ) i takie, że istnieje zbiór A G 1 G 2 taki, że oraz ξ = η dla ω A. Wówczas G 1 A = G 2 A E[ξ G 1 ](ω) = E[η G 2 ](ω), ω A. Dowód. Zauważmy, że I A E[ξ G 1 ] = E[I A ξ G 1 ] E[I A η G 2 ] = I A E[η G 2 ] i z założenia obie funkcje są G 1 G 2 mierzalne. Definiujemy zbiór Wówczas B = A {E[ξ G 1 ] > E[η G 2 ]} G 1 G 2. B E[ξ G 1 ] = B ξ = B η = B E[η G 2 ] co wobec definicji B zachodzi tylko wówczas gdy P (B) =. W drugą stronę analogicznie Poniższe twierdzenie Dooba udowodnimy najpierw w sytuacji gdy zbiór T jest przeliczalny. Będziemy korzystać z twierdzenia 6.7 wzór (6.2) który jest prawdziwy też w tej sytuacji. Ponadto martyngał M t, t [, ) nazywamy regularnym jeśli istnieje rozszerzenie indeksów do zbioru T = [, ], czyli istnieje M, taki, że M t = E[M F t ]. Twierdzenie Dooba 6.14 Niech proces M t, t T będzie martyngałem, T zbiorem przeliczalnym zaś σ, τ F-czasami stopu, gdzie τ przyjmuje wartości w skończonym zbiorze albo τ jest ograniczony zaś martyngał jest regularny. Wowczas M τ jest całkowalny oraz prawie wszędzie M σ τ = E[M τ F σ ]. 4
Dowód. Załóżmy, że τ przyjmuje wartości w zbiorze skończonym. Wówczas M τ jest całkowalne. Z twierdzenia 6.7 (6.2) oraz lematu 6.13 wynika, że w zbiorze ω {τ = t} i dla t u Ponieważ T jest przeliczalny zatem E[M u F τ ] = E[M u F t ] = M t = M τ. E[M u F τ ] = M τ P prawie wszędzie na zbiorze τ u. Jeśli σ τ u, to z twierdenia 6.7 (6.1) F σ F τ oraz powyższego równania E[M τ F σ ] = E[E[M u F τ ] F σ ] = E[M u F σ ] = M σ = M σ τ. Ponieważ u jest dowolne i τ jest ograniczone powyższa równość zachodzi dla σ τ. Z drugiej strony na zbiorze σ > τ, z (6.1) F τ F σ. Analogiczne twierdzenie do twierdzenia 6.6 dla T przeliczalnego i procesu adaptowanego M t głosi, że M τ F τ, czyli M τ F σ. Zatem E[M τ F σ ] = M τ = M σ τ, co kończy dowód dla τ skończonego. Jeśli zachodzi druga możliwość, to postępujemy identycznie z tym, że za u = i wnioskujemy, że M τ jest całkowalny. Dokładniej ponieważ z nieówności Jensena E[ M F τ ] E[M F τ ] = M τ, zatem E M τ E M. Definicja 6.15 odzina zmiennych losowych X α nazywa się jednakowo całkowalna, jeżeli lim sup X α dp = x α X α >x Będziemy potrzebować następującego twierdzenia Twierdzenie Dooba 6.16 Niech X L 1. odzina zmiennych losowych E[X G] dla wszystkich σ ciał G F jest jednakowo całkowalna. 41