Uniwersytet Warszawski Wydział Matematyki, Informatyki i Mechaniki Witold Bednorz Notatki do wykładu: Procesy Stochastyczne 21 stycznia 213
Spis treści 1 Twierdzenie Girsanowa i SDE 3 1.1 Zamiana miary................................ 3 1.2 Wnioski z twierdzenia Girsanowa...................... 5 2 Mocne i słabe rozwiązania 9 2.1 Definicje.................................... 9 2.2 Przykłady................................... 1 2.3 Zastosowanie twierdzenia Girsanowa do szukania słabych rozwiązań... 12 3 Twierdzenie Yamady-Watanabe 14 3.1 Regularne rozkłady warunkowe....................... 14 3.2 Wnioski dla słabych rozwiązań........................ 16 4 Problem martyngałowy 2 4.1 Definicja problemu martyngałowego..................... 2 4.2 Problem martyngałowy a istnienie słabych rozwiązań........... 21 4.3 Problem martyngałowy a istnienie słabych rozwiązań........... 24 5 Twierdzenie Stroocka-Varadhana 26 5.1 Preliminaria z teorii miary.......................... 26 5.2 Twierdzenie o istnieniu słabych rozwiązań................. 28 6 Czas lokalny 32 7 Równania o współczynnikach Holderowskich 37 7.1 Czas lokalny a jednoznaczność w sensie trajektorii............. 37 7.2 Warunki dostateczne na jednoznaczność w sensie trajektorii....... 39 8 Procesy Markowa 43 8.1 Ogólny proces Markowa........................... 43 8.2 Proces Markowa na przestrzeni kanonicznej................. 45 9 Półgrupy fellerowskie 47 9.1 Definicja półgrupa fellerowska........................ 47 9.2 Procesy fellerowskie na przestrzeni kanonicznej............... 49 1
9.3 Wnioski.................................... 51 1 Mocna własność Markowa 53 1.1 Mocna własność Markowa.......................... 53 1.2 Zasada odbicia................................ 56 11 Generatory 58 11.1 Własności generatora............................. 58 11.2 Postać generatora............................... 62 12 Dyfuzje 65 12.1 Pojęcie dyfuzji................................. 65 12.2 Dyfuzje a równania stochastyczne...................... 67 12.3 Dyfuzja a rozwiązanie problemu martyngałowego............. 68 13 Procesy Levy ego 7 13.1 Złożone procesy Poissona........................... 7 13.2 Wykładnik charakterystyczny........................ 74 14 Dekompozycja procesu Levy ego 77 2
Rozdział 1 Twierdzenie Girsanowa i SDE 1.1 Zamiana miary Lemat 1 Niech M M c loc, M =. Definiujemy proces wykładniczy E(M) t = exp(m t 1 2 M t) Proces E(M) t, t [, T ] T < jest martyngałem lokalnym. Proces E(M) t jest martyngałem wtedy i tylko wtedy, gdy EZ t = 1. Dowód. Korzystając ze wzoru Ito dostajemy, że E(M) t jest martyngałem lokalnym. Jest jasne, że jeśli E(M) jest martyngałem, to EE(M) t = 1 (bo E(M) = 1). Pozostaje zatem udowodnić fakt przeciwny. Ponieważ E(M) jest martyngałem lokalnym oraz E(M), więc E(M) jest nadmartyngałem (udowodniliśmy taki fakt na ćwiczeniach). Z założenia EE(M) t = 1. Stąd 1 = EE(M) EE(M) t EE(M) t = 1, t T. Otrzymujemy EE(M) t = 1. Korzystając z faktu, że E(M) jest nadmartyngałem, dostajemy E(M) t E(E(M) t F t ). Z drugiej strony E(E(M) t E(E(M) t F t )) = EE(M) t EE(M) t =. To oznacza, że E(M) t = E(E(M) t F t ) p.n., co kończy dowód. Zauważmy, że w szczególności biorąc Y Λ 2 T otrzymujemy, że E( Y dw ) t = exp( Y s dw s 1 Ys 2 ds), t [, T ] (1.1.1) 2 jest martyngałem lokalnym. 3
Twierdzenie 1 (Girsanowa) Niech Y Λ 2 T. Jeśli EE( Y dw ) T = 1, to proces V t = W t Y s ds, t [, T ], jest procesem Wienera w przestrzeni probabilistycznej (Ω, F T, Q T ), gdzie Q T (A) = E(1 A E( Y dw ) T ), A F T. Dowód. Niech L t = Y sdw s, t. Zauważmy, że Q T jest miarą probabilistyczną (bo EE(L) T = 1). Ponadto proces V jest ciągłym, adaptowalnym procesem takim, że V =. Na mocy charakteryzacji wykładniczej procesu Wienera wystarczy pokazać, że U t = exp(λv t 1 2 λ2 t), λ R, t jest martyngałem lokalnym (względem miary Q T ). Zauważmy, że wystarczy udowodnić, że U t E(L) t jest martyngałem lokalnym względem miary P. Istotnie, niech τ n będzie ciągiem lokalizującym τ n T dla U t E(L) t. Skoro U t E(L) t jest martyngałem lokalnym, to dla dowolnego ograniczonego momentu zatrzymania τ zachodzi równość 1 = E(U τn τe(l) τn τ). Z Lematu 1 wiemy, że Zatem E(M) τn τ = E(E(L) T F τ τn ). 1 = E(U τn τe(e(l) T F τ τn )) = E(U τn τe(l) T ). (1.1.2) Stąd 1 = E QT U τn τ, czyli U jest martyngałem lokalnym względem miary Q T. Pokażemy, że U E(L) jest martyngałem lokalnym względem P. Z definicji U t E(L) t = exp(λv t 1 2 λ2 t) exp( = exp(λw t + = exp( Y dw 1 2 (λ + Y s )dw s 1 2 Y s dw s 1 2 (2λY s + λ 2 + Y 2 s )ds) = (λ + Y s ) 2 ds). Y 2 s ds) = Powyższy proces jest rzecz jasna, martyngałem lokalnym (patrz równanie (1.1.1)). Uwaga 1 Powyższy dowód można zastosować do dowodu dużo ogólniejszego faktu. Niech M, L M c loc, M = L = (na wspólnej przestrzeni probabilistycznej (Ω, F, P) z filtracją F t, t ) oraz E(L) t, t jest martyngałem wówczas proces M t = M t M, L t, t 4
jest Q ciągłym martyngałem lokalnym, gdzie miara Q określona na F = σ(f T, T ) zadana jest na każdym F T, T, przez dq = E(L) T dp. Nadto M względem miary Q jest taki sam jak M względem P. Uwaga 2 Warto zwrócić uwagę, że zachodzi równoważność jeśli miara P określona jest na F (bierzemy obcięcie P do F ) oraz Q jest miarą w ogólnym twierdzeniu Girsanowa, to proces L t = L t L t, t jest Q martyngałem lokalnym oraz dla każdego na F T, T zachodzi dp = E( L) T dq, Pokazuje to, że na przestrzeni miar probabilistycznych na (Ω, F ) przekształcenie Girsanowa (jeśli istnieje) jest bijekcją. Warto przypomnieć główne kryterium rozstrzygające kiedy martyngał lokalny może mieć proces wykładniczy który jest martyngałem. Twierdzenie 2 (Novikov) Niech L będzie ciągłym martyngałem lokalnym, L =. Wówczas E(L) t, t jest martyngałem, jeśli Wniosek 1 Jeśli Y Λ 2 T. Jeżeli E exp( 1 2 E exp( 1 2 L t) <, dla t. T E exp( Y s dw s 1 2 czyli E( Y dw ) t, t T jest martyngałem. T Y 2 s ds) <, to Y 2 s ds) = 1, Dowód. Bierzemy L t = 1 [,T ]Y s ds, t w twierdzeniu Novikova. 1.2 Wnioski z twierdzenia Girsanowa Twierdzenie 3 Niech Y = (Y 1,..., Y d ), Y j Λ 2, W proces Wienera w R d. Definiujemy = 1, to zachodzi teza twierdzenia Girsa- gdzie Y dw = d nowa. Z t = exp( j=1 Y dw 1 2 Y j s dw j s. Jeśli EZ T Y s 2 ds), t T Uwaga 3 Przypuśćmy Z t jest martyngałem, to znaczy EZ t = 1, dla t (Y, W jak w twierdzeniu Girsanowa). Wówczas dla każdego T > miara Q T jest prawdopodobieństwem na F T. 5
Można się zastanawiać czy prawdopodobieństwa Q T można wybrać tak, aby pokrywały się na F. Okazuje się, że na ogół jest to niemożliwe. Natomiast jeśli F t = F W t, to istotnie takie przedłużenie da się skonstruować. Stwierdzenie 1 Niech Z t, t R + będzie martyngałem. Wówczas istnieje dokładnie jedno prawdopodobieństwo Q na F takie, że dla każdego T > i A FT W zachodzi Q(A) = Q T (A) = E(1 A Z t ). Dowód. Niech t 1,..., t n R +, t 1,..., t n T, B B(R n ). Definiujemy µ t1,...,t n (B) = Q T ((W (t 1 ),..., W (t n )) B). Ta definicja nie zależy od T t 1,..., t n. Istotnie jeśli T 1 > T 2 t 1,..., t n, to F T2 F T1. Ponieważ Z jest martyngałem, więc dla A = (W (t 1 ),..., W (t n )) B dostajemy Q T1 (A) = E(1 A Z T1 ) = E(1 A E(Z T1 F T2 )) = E(1 A Z T2 ) = Q T2 (A). Zauważmy, że µ t1,...,t n spełnia warunki zgodności Kołmogorowa. Na mocy Twierdzenia Kołmogorowa istnieje miara probabilistyczna µ na (R R +, B(R R + )) taka, że µ({x : (x(t 1 ),..., x(t n ))} B}) = µ t1,...,t n (B). Niech A F W, wówczas z definicji procesu W istnieje zbiór Γ B(R R + ) taki, że A = {ω : W (, ω) Γ}. Definiujemy Q(A) = µ(γ). Niech C oznacza podzbiór R R + złożony z wszystkich funkcji ciągłych. Ponieważ µ (C) = 1 (miara zewnętrzna), więc miara Q jest dobrze zdefiniowana (nie zależy od wyboru zbioru Γ). Jest jasne, że spełnia żądane warunki. Wniosek 2 Przyjmijmy założenia ze Stwierdzenia 1. Wówczas V t = W t Y s ds jest procesem Wienera względem miary Q (w przestrzeni (Ω, F W, P) ). Miara Q (zdefiniowana w Stwierdzeniu 1) spełnia Q((V (t 1 ),..., V (t n )) B) = Q T ((V (t 1 ),,..., V (T n )) B), na [, T ] gdzie {V (t 1 ),..., V (t n )) B} F W T. Uwaga 4 Miara Q na ogół nie jest ciągła względem miary P. 6
Istotnie rozważmy przykład. Niech Y t = 1, V t = W t t, wiemy ponadto, że Z = e Wt 1 2 t jest martyngałem. Zauważmy, że skoro V jest procesem Wienera względem Q, to V Q(lim t t t = ) = 1. Z drugiej strony Jest jasne, że V t Q( lim t t W t = ) = Q( lim t t W t P( lim = 1) =. t t Mamy zatem zbiór A taki, że P(A) =, Q(A) = 1. = 1). Uwaga 5 Miara Q jest absolutnie ciągła na F względem P jeśli martyngał Z t, t > jest domykalny. Ma to miejsce np. jeśli E exp( 1 Y 2 2 s ds) <, czyli kryterium Novikova jest spełnione w nieskończoności. Pokażemy teraz pożyteczne zastosowanie twierdzenia Girsanowa. Rozważmy proces Wienera z dryfem, to znaczy dla λ R definiujemy V t = W t λt. Wiemy, że E(λW ) t = exp(λw t 1 2 λ2 t), t jest martyngałem zatem z twierdzenia Girsanowa V jest procesem Wienera względem Q na Ft W. To oznacza, że W t = V t + λt, względem Q. ) t, τ <. Korzystając z twier- Rozważmy moment zatrzymania względem filtracji (Ft W dzenia Dooba, otrzymujemy Udowodniliśmy, że Wniosek 3 Równość Walda Q(τ t) = E(1 τt E(λW ) t ) = E(1 τt E(E(λW ) t F τ t )) = = E(1 τt E(λW ) τ t ) = E(1 τt E(λW ) τ ). Q(τ t) = E(1 τt E(λW ) τ ). E(e λwτ 1 2 λ2τ ) = EE(λW ) τ = 1 Q(τ < ) = 1. Rozpatrzmy τ = τ a = inf{t : W t = a} = inf{t : V t + λt = a}, gdzie a R. Wiemy, że τ a ma gęstość zadaną wzorem Zatem g a (r) = a a2 e 2r 1r>. 2πr 3 Q(τ a t) = E(1 τate λw (τa) 1 2 λ2 τ a ) = = e λa 1 2 λ2r a g a (r)dr = 1 2πr 3 eλa 2 λ2 r a2 2r dr = = a 2πr 3 e 1 2r ( 2λar λ2 r 2 a 2) dr = 7 a 2πr 3 e 1 2r (a λr)2 dr.
Korzystając z gęstości rozkładu momentu zatrzymania τ a, obliczyliśmy rozkład τ a względem Q, czyli rozkład momentu dojścia do a dla procesu z dryfem. To pozwoli nam znaleźć rozkład max st (W s + λs). Istotnie mamy Można pokazać, że P(max st (W s + λs) < a) = Q(max st (V s + λs) < a) = Q(τ a > t). Ee 1 2 λ2 τ a = e a λ. Istotnie wystarczy skorzystać z faktu, że e λwt 1 2 λ2t jest martyngałem. Stąd wtedy i tylko wtedy, gdy λa. Q(τ a < ) = 1 e λa Ee 1 2 λ2 τ a = e λa aλ = 1, 8
Rozdział 2 Mocne i słabe rozwiązania 2.1 Definicje Stochastycznym równaniem różniczkowym nazywamy następujące dx t = b(t, X t )dt + σ(t, X t )dw t, X = x, (2.1.1) gdzie W t, t jest procesem Wienera w R m, x R d, b : R R d R d, σ : R R d M m d (M m d jest przestrzenią macierzy m d wymiarowych). Należy pamiętać, że równanie to należy rozumieć jako równość X t = x + b(s, X s )ds + σ(s, X s )dw s, dla każdego t. Będziemy stosować oznaczenie takiego równania e x (σ, b). Jeśli nie będzie nas interesować punkt startowy (to znaczy rozważamy rodzinę równań (2.1.1) z dowolnym X = x) będziemy stosować oznaczenie e(σ, b). W tym rozdziale zajmiemy się pomysłem wprowadzenia słabych rozwiązań jako metody rozwiązywania (2.1.1) Definicja 1 Niech (Ω, F, P) przestrzeń probabilistyczna, W - m wymiarowy proces Wienera na tej przestrzeni. Mówimy, że równanie e x (σ, b) ma mocne rozwiązanie jeśli istnieje proces X = (X t ) t R+ adaptowalny do (Ft W ) taki, że (2.1.1) zachodzi. Proces X nazywamy mocnym rozwiązaniem. Definicja 2 Mówimy, że równanie e x (σ, b) ma słabe rozwiązanie, jeśli na przestrzeni (Ω, F, P) z filtracją F t, t istnieje m-wymiarowy proces Wienera (adaptowalny do F t ) oraz proces X adaptowalny do F t spełniający (2.1.1). Parę (X, W ) nazywamy słabym rozwiązaniem. Definicja 3 Słabe rozwiązanie (X, W ) nazywamy mocnym, jeśli X jest adaptowalne do filtracji F W t (uzupełnienia filtracji związanej z procesem W ). Definicja 4 Mówimy, że rozwiązanie równanie e x (σ, b) jest jednoznaczne w sensie trajektorii, jeśli dla każdej pary (X, W ), (X, W ) słabych rozwiązań na tej samej przestrzeni probabilistycznej procesy X, X są nieodróżnialne. 9
Definicja 5 Mówimy, że rozwiązanie równania e x (σ, b) jest jednoznaczne w sensie rozkładów, jeśli dla każdej pary (X, W ), (X, W ) słabych rozwiązań procesy X, X mają te same rozkłady skończenie wymiarowe. Związek słabych rozwiązań z mocnymi oraz rolę jednoznaczności według rozkładu i w sensie trajektorii wyjaśnia następujący wynik. Twierdzenie 4 (Yamada-Watanabe) Jeśli równanie e x (σ, b) ma słabe rozwiązanie jednoznaczne w sensie trajektorii, to rozwiązanie to jest mocne. Dowód tego twierdzenia będzie głównym tematem następnego rozdziału, wymaga on dobrej analizy regularnych rozkładów warunkowych. Przy okazji otrzymamy drugi ważny rezultat. Wniosek 4 Jednoznaczność w sensie trajektorii implikuje jednoznaczność w sensie rozkładów. 2.2 Przykłady (1) Na przykład jeśli b, σ spełniają warunek Lipschitza ze względu na x (ze stałą niezależna od t), to dla każdego (Ω, F, P) i W procesu Wienera istnieje mocne rozwiązanie, jednoznaczne w sensie trajektorii. (2) Przykład Tanaki. Jak się okazuje, jeśli funkcje a, σ są ograniczone, to równanie (2.1.1) ma słabe rozwiązanie. Rozważmy następujący przykład gdzie dx t = sgnx t dw t, X =, (2.2.1) sgnx = { 1 x 1 x < Zauważmy, że równanie (2.2.1) ma oznaczenie e (sgn, ). Niech (Ω, F, P) będzie przestrzenią probabilistyczną, W procesem Wienera. Powinniśmy skonstruować parę X, W adaptowalną do filtracji zadanej przez W spełniającą równanie e (sgn, ). Zauważmy najpierw, że W t := sgnw sdw s jest martyngałem ciągłym, przyjmującym wartość w. Niech W t = (sgnw s) 2 ds = t. Ponadto W L 2 t, co oznacza (charakteryzacja Levy ego), że W jest procesem Wienera. Zauważmy teraz, że sgnw dw = sgnw sgnw dw = dw = W. 1
Czyli proces X t := W t spełnia równanie X t = sgnx s dw s. Udowodniliśmy, że para (W, W ) jest słabym rozwiązaniem równania e (sgn, ) (proces W jest adaptowalny do W, ale niekoniecznie W jest adaptowalny do W ). Jeśli (X, W ) jest słabym rozwiązaniem e (sgn, ), to X jest ciągłym martyngałem w, takim, że X t = t, czyli X jest procesem Wienera. To oznacza, że słabe rozwiązanie jest jednoznaczne w sensie rozkładów. Z drugiej strony jeśli (X, W ) jest rozwiązaniem e (sgn, ), to X jest również rozwiązaniem tego równania, a ponadto X i X nie są nieodróżnialne w sensie trajektorii. Jak się okaże można pokazać, że nie ma mocnego rozwiązania równania (2.2.1). (3) Przykład Girsanowa. Niech α >, d = m = 1. Rozważmy równanie dx t = X t α dw t, X =. (2.2.2) Czyli X t = X s α dw s. Równanie (2.2.2) ma oznaczenie e ( x α, ). Zauważmy, że X jest mocnym rozwiązaniem równania e ( x α, ). Jak się okazuje, jeśli α 1, to zachodzi 2 jednoznaczność w sensie trajektorii, natomiast dla < α < 1 nie ma jednoznaczności w 2 sensie rozkładu. Istotnie rozważmy proces Wienera Z. Następujący proces jest dobrze określony Co więcej jeśli < 2α < 1, to X t = E Z s 2α ds = 1 s α 2π R Z s α dz s. R 1 2πs x 2α e x2 2s dxds y 2α e y 2 2 dyds <, (2.2.3) gdzie skorzystaliśmy z podstawienia x s = y. To oznacza, że Z α L 2,c t, a zatem M t = Z s α dz s jest martyngałem. Definiujemy moment zatrzymania Jest jasne, że τ t = inf{r : lim M t = lim t t Z s 2α ds = t} Z s 2α ds =, p.n. Istotnie, zgodnie z prawem iterowanego logarytmu Z t (1 + δ) 2t ln ln t dla t t (ω). To oznacza, że Z t 2α (1 + δ) 2α (2t ln ln t) α, 11
skąd natychmiast M ( ) = p.n. Z twierdzenia Dubins-Schwarz-Dambis wiemy, że W t = M(τ t ) = τt Z s α dz s jest procesem Wienera. Okazuje się, że para (Z(τ t ), W t ) jest słabym rozwiązaniem równania e ( x α, ). Istotnie = Z(τ s ) α dw s = τt Z s α Z s α dz s = Z(τ s ) α dm(τ s ) = τt dz s = Z(τ t ). (2.2.4) Ściśle rzecz biorąc skorzystaliśmy tu z następującej reguły podstawiania (ścisły dowód na ćwiczeniach). Lemat 2 (Reguła podstawiania) Niech Z będzie procesem Wienera, Y Λ 2 (Z). Załóżmy, że Y 2 s ds p.n., gdy t. Definiujemy τ t = inf{r : r X 2 s = t}. Proces W t = τ t Y sds jest procesem Wienera, a ponadto Z τt = Y 1 τ s dw s. Można pokazać, że dla a < 1 2 rozwiązań. można skonstruować nieskończenie wiele różnych słabych 2.3 Zastosowanie twierdzenia Girsanowa do szukania słabych rozwiązań Rozważmy równanie czyli X t = x + b(s, X s)ds + W t, a jeszcze inaczej X t x = dx t = b(s, X s )ds + dw t, X = x, (2.3.1) b(s, X s x + x)ds + W t, dla t. Zatem zmieniając b(s, y) na b(s, y x) możemy zakładać, że x =. Mamy znaleźć słabe rozwiązanie równania e (1, b), gdzie zakładamy dodatkowo, że b jest ograniczone. Przypuśćmy, że Z jest procesem Wienera. Wówczas proces M t = exp( b(s, Z s )dz s 1 2 12 b 2 (s, Z s )ds), t
jest martyngałem np. dla b ograniczonych. Zatem EM t = 1 dla t czyli spełnione są założenie twierdzenie Girsanowa. Z Twierdzenia 3, a ściślej Wniosku 2 wynika, że W t = Z t b(s, Z s )ds, t jest procesem Wienera, względem miary Q na F Z. Rzecz jasna (Z, W ) jest słabym rozwiązaniem równania e (1, b) (na przestrzeni probabilistycznej (Ω, F, P)) z filtracją F Z t, t. Powyższy wynik można wzmocnić. Twierdzenie Girsanowa służy do redukcji dryfu w równaniu e(σ, b). Dla uproszczenia będziemy rozważać przypadek m = d = 1. Twierdzenie 5 Rozważmy funkcje σ, b, c : R + R R, przy czym niech c będzie funkcją ograniczoną. Słabe rozwiązanie równania e(σ, b) istnieje wtedy i tylko wtedy, gdy istnieje słabe rozwiązanie równania e(σ, b + σc). Nadto jeśli jednoznaczność rozwiązań w sensie rozkładu działa dla e(σ, b) to obowiązuje również dla e(σ, b + σc). Dowód. Jeśli (X, W ) jest rozwiązaniem e(σ, b) na przestrzeni (Ω, F, P) z filtracją F t, t, to na mocy twierdzenia Girsanowa dla każdego t możemy zdefiniować miarę Q na F taką, że F t, t zachodzi dq = E(L) t dp, gdzie L t = h(s, X s)dw s oraz proces V t = W t h(s, X s )ds jest procesem Wienera względem Q. Stąd para (X, V ) (wstawiam do równania (2.1.1) V zamiast W ) jest rozwiązaniem równania e(σ, b + σc) na przestrzeni (Ω, F, Q) z filtracją F t, t. Bijekcja pomiędzy P, Q na F zapewnia bijekcję pomiędzy słabymi rozwiązaniami e(σ, b) i e(σ, b + σc). Wniosek 5 Załóżmy, że σ ε > oraz b, σ są ograniczone. Wówczas jeśli równanie e(σ, ) ma słabe rozwiązaniem, to ma je również e(σ, b) dla dowolnego b ograniczonego. Nadto jeśli jednoznaczność według rozkładu zachodzi dla e(σ, ), to zachodzi dla równania e(σ, b). Pozostaje pytanie czy równanie e(σ, ) można zredukować do e(1, ) w przypadku σ ograniczonego σ ε >. Odpowiedź pozytywna polega na umiejętnej zamianie czasu i pojawi się na ćwiczeniach. 13
Rozdział 3 Twierdzenie Yamady-Watanabe Celem niniejszego rozdziału będzie naświetlenie roli jednoznaczności w sensie trajektorii dla rozwiązywania stochastycznych równań różniczkowych. Wymaga to przypomnienia kluczowej roli warunkowych rozkładów prawdopodobieństwa. 3.1 Regularne rozkłady warunkowe Zaczniemy od definicji regularnego rozkładu warunkowego. Definicja 6 Niech (Ω, F, P) będzie przestrzenią probabilistyczną, G F sigma ciałem. Funkcja Q(ω, A) : Ω F [, 1] jest nazywana regularnym rozkładem warunkowym względem G jeśli 1. Q(ω, ) jest miarą probabilistyczną dla każdego ω Ω; 2. Q(, A) jest funkcją G mierzalną, dla każdego A F; 3. Q(ω, A) = P(A G)(ω) = E(1 A G)(ω), P-prawie na pewno, dla każdego A F. Powiemy, że rozkład warunkowy jest jednoznaczny, jeśli dla dowolnej innej funkcji Q spełniającej powyższe warunki istnieje N F taki, że P(N) = 1 nadto Q(ω, A) = Q (ω, A) dla każdego A F oraz ω Ω\N. Definicja 7 Niech (Ω, F) będzie przestrzenią mierzalną Mówimy, że: 1. F jest przeliczalnie determinowane jeśli istnieje przeliczalna rodzina zbiorów G F taka, że jeśli dowolne miary P, Q zgadzają się na G, to są równe na F; 2. F jest przeliczalnie generowane jeśli istnieje przeliczalna rodzina zbiorów G F taka, że F jest generowane przez G, to znaczy σ(g) = F. Dla nas najważniejszym przykładem jest przestrzeń C = C[, ) (bądź C[, ) m, dla równań wielowymiarowych). Jak wiemy [3] sigma ciało B(C) (σ-ciało borelowskie na C) generowane jest przez przecięcie rodziny zbiorów cylindrycznych z C, to znaczy 14
B(C) = σ(c) C, gdzie C oznacza σ-ciało na przestrzeni dowolnych funkcji z [, ) w R generowane przez projekcje π t, t, gdzie π t (z) = z(t) dla z : [, ) R. Niech B t (C) oznacza sigma ciało generowane przez funkcje z(s), s t, z C to znaczy B t (C) = B(C t ), gdzie C t = C[, t]. Jest jasne, że sigma ciała tej postaci są przeliczalnie generowane przez rodzinę zbiorów C t postaci Ā = {z C : (z(t 1 ),..., z(t n )) A}, gdzie n 1, t i [, t] Q, 1 i n, A B(R n ) są postaci A 1 A 2... A n, gdzie A i = [u i, v i ], u i v i. Z drugiej strony rodzina zbiorów C t jest π-układem, zatem na mocy lematu o π λ układach, sigma ciało B t jest przeliczalnie determinowane. Ogólnie można zajmować się przypadkiem przestrzeni polskich Ω. Wówczas σ-ciało borelowskie F jest przeliczalnie generowane i determinowane przez przeliczalną bazę zbiorów otwartych. Zachodzi główne twierdzenie dla rozkładów regularnych. Twierdzenie 6 Niech Ω będzie przestrzenią polską (metryczną, ośrodkową i zupełną) oznaczmy F = B(Ω). Załóżmy, że P jest miarą probabilistyczną na (Ω, F) nadto niech G F będzie σ-ciałem. Wówczas rozkład warunkowy Q na Ω F istnieje i jest jednoznaczny. Co więcej jeśli H G jest σ-ciałem przeliczalnie determinowanym, wtedy istnieje zbiór N G takim, że P(N) = oraz Q(ω, A) = 1 A (ω), A H, ω Ω\N. W szczególności jeśli X jest G mierzalną zmienną losową o wartościach w przestrzeni polskiej wtedy H = σ(x) jest przeliczalnie determinowane i zachodzi Q(ω, {ω Ω, X(ω ) = X(ω)}) = 1, P p.n. Podsumujmy wyniki Twierdzenia 6 w następującym wyniku Twierdzenie 7 Niech (Ω, F, P) będzie przestrzenią polską, X zmienną losową o wartościach w przestrzeni mierzalnej (X, B) indukując na niej rozkład µ(b) = P(X B), B B. Wówczas istnieje funkcja ν : X F [, 1] nazywana regularnym rozkładem warunkowym względem X o własnościach 1. ν(x, ) jest miarą probabilistyczną na (Ω, F); 2. ν(, A) jest funkcją B mierzalną; 3. ν(x, A) = P(A X = x), µ-p.n., x X. Jeśli istnieje inna funkcja ν o powyższych własnościach, to istnieje N B taki, że µ(n) = oraz ν(x, A) = ν (x, A) dla A F oraz x X \N. Jeśli nadto X jest przestrzenią polską oraz B = B(X ) wtedy istnieje N B taki, że µ(n) = oraz ν(x, {X B}) = 1 B (x), B B, x X \N. W szczególności ν(x, {X = x}) = 1, µ p.n.. 15
3.2 Wnioski dla słabych rozwiązań Rozważmy dwa słabe rozwiązania równania dx t = b(t, X t )dt + σ(t, X t )dw t, X = x. (3.2.1) Oznacza to że mamy procesy (X 1, W 1 ) na przestrzeni probabilistycznej (Ω 1, F 1, P 1 ) adaptowalny do filtracji Ft 1, t oraz (X 2, W 2 ) na przestrzeni (Ω, F 2, P 2 ). adaptowalny do filtracji Ft 2, t. Połóżmy Y j t = X j t X j i niech słabe rozwiązanie składa się z trzech elementów (X, j W j, Y j ), gdzie j {1, 2}. Ponieważ zarówno Y j jak i W j są ciągłe dostajemy rozkłady µ j, j {1, 2} na przestrzeni (X, B(X )) = (R C C, B(R) B(C) B(C)). Niech µ j (A) = P((X j, W j, Y j ) A) A B(X ). Będziemy oznaczać punkty (x, w, y) X. Z założeń wynika, że rozkładem brzegowym µ j względem współrzędnej x jest δ x, rozkładem brzegowym względem współrzędnej w jest miara Wienera (rozkład zadany przez proces Wienera na przestrzeni C), którą oznaczamy µ. Jest też jasne, że rozkładem brzegowym µ j na współrzędne (x, w) jest δ x µ. Nadto µ j ({(x, w, y) : y = }) = 1. Pierwszym krokiem będzie sprowadzenie (X 1, W 1 ), (X 2, W 2 ) na wspólną przestrzeń probabilistyczną. Pierwszym krokiem jest aby zauważyć, że istnieje regularny rozkład warunkowy dla B(X ) względem σ-ciała generowanego przez współrzędne (x, w). Ponieważ będą nas interesować wyłącznie zbiory postaci R C F, gdzie F B(C), więc niech ν j (x, w; F ) : R C B(C) [, 1] będzie regularnym rozkładem warunkowym dla B(C) względem współrzędnych (x, w). Z Twierdzenia 7 wynika że 1. ν j (x, w; ) jest miarą probabilistyczną na C[, ), B(C), dla każdego x R, w C;. 2. ν j ( ; F ) jest funkcją B(R) B(C) mierzalną dla każdego F B(C); 3. µ j (G F ) = G ν j(x, w; F )δ x (dx)µ (dw), dla F B(C) oraz G B(R) B(C). Ostatni krok to zdefiniowanie przestrzeni X = X C oraz B jako σ-ciała B B(C) uzupełnionego o N - wszystkie zbiory miary zero względem miary gdzie x = (x, w, y 1, y 2 ) nadto µ(d x) = ν(x, w, dy 1, dy 2 )δ x (dx)µ (dw), (3.2.2) ν(x, w, dy 1 dy 2 ) = ν 1 (x, w, dy 1 )ν 2 (x, w, dy 2 ) 16
jest miarą na C C z σ-ciałem B(C) B(C). Tradycyjnie wprowadzamy filtracje zgodną procesami G t = σ((x, w(s), y 1 (s), y 2 (s)), s t) oraz F t = σ(g t N ). Jest jasne, że dla j {1, 2} oraz A B µ( x X : (x, w, y j ) A) = P j ((X j, W j, Y j ) A). (3.2.3) To oznacza, że rozkłady (x + y j, w) względem µ są takie same jak (X j, W j ) względem P j. Co więcej w t, t jest procesem Wienera względem F t. Jesteśmy wstanie wykazać pierwszy istotny wynik dla teorii. Twierdzenie 8 Jednoznaczność w sensie trajektorii implikuje jednoznaczność w sensie rozkładów. Dowód. Jak wykazaliśmy słabe rozwiązania (X j, W j ), j {1, 2} równania 3.2.1 mogą być przeniesione w senesie rozkładu na przestrzeń ( X, B, µ) z filtracją F t, t. Jednoznaczność w sensie trajektorii daje Z (3.2.3) i (3.2.4) otrzymujemy µ(x + y 1 (t) = x + y 2 (t), t ) = 1. (3.2.4) P 1 ((X 1, W 1, Y 1 ) A) = µ( x X : (x, w, y 1 ) A) = = µ( x X : (x, w, y 2 ) A) = P 2 ((X 2, W 2, Y 2 ) A), dla każdego A X co oznacza równość w sensie rozkładów. Przejdziemy do dowodu kluczowego wniosku z Twierdzenia 8, że jednoznaczność w sensie trajektorii pociąga istnienie mocnego rozwiązania. Lemat 3 Dla dowolnego t oraz F B t (C) funkcja (x, w) ν j (x, w; F ) jest Bt mierzalna, gdzie B t jest rozszerzaniem filtracji B(R) B t (C) o zbiory miary zero względem miary δ x (dx)µ (dw). Dowód. Należy zauważyć, że istnieje analogiczny do ν j rozkład warunkowy taki, że ν t j(x, w; F ) : R C B t (C) [, 1] 1. ν t j(x, w; ) jest miarą probabilistyczną na C, B t (C), dla każdego x R, w C. 2. ν t j( ; F ) jest funkcją B(R) B(C) mierzalną, dla każdego F B t (C) 3. µ j (G F ) = G νt j(x, w; F )δ x (dx)µ (dw), dla F B t (C) oraz G B(R) B t (C). Pokażemy, że ostatnia równość zachodzi dla dowolnych zbiorów G B(R) B t (C). Istotnie niech G = G 1 ϕ 1 t (G 2 ) ψt 1 (G 3 ), gdzie ϕ t (w) = w( t), ψ t (w) = w( +t) w T, 17
nadto G 1 B(R), G 2, G 3 B(C). Z niezależności zdarzenia ψt 1 (G 3 ) od σ-ciała B t (C) wynika, że G ν t j(x, w; F )δ x (dx)µ (dw) = µ (G 3 ) G 1 ϕ 1 t (G 2 ) = µ j (R ψt 1 (G 3 ) C)µ j (G 1 ϕ 1 t (G 2 ) F ) = µ j (G F ). ν t j(x, w; F )δ x (dx)µ (ds) = Teraz wystarczy zauważyć, że rodzina takich zbiorów G stanowi π-układ zatem równość νj(x, t w; F )δ x (dx)µ (dw) = µ j (G F ) G obowiązuje dla wszystkich zbiorów G B(R) B t (C[, )). Stąd νj(x, t w; F )δ x (dx)µ (dw) = ν j (x, w; F )δ x (dx)µ (dw), G a to oznacza, że ν j (x, w; F ) = ν t j(x, w; F ), δ x µ p.n. Ponieważ ν t j(x, w; F ) jest B(R) B t (C) mierzalne, więc teza lematu zachodzi. Lemat 4 Istnieje funkcja u : R C C taka, że δ x µ p.n. zachodzi G ν 1 (x, w; {u(x, w)}) = ν 2 (x, w; {u(x, w)}) = 1. (3.2.5) Funkcja u jest B(R) B(C)/B(C) mierzalna (to znaczy zachodzi {(x, w) R B(C) : u(x, w) A} B(R) B(C) dla każdego A B(C)), co więcej u jest B t /B t (C) mierzalna oraz zachodzi µ( x X : y 1 = y 2 = u(x, w)) = 1. Dowód. Pokażemy, że miara probabilistyczna ν j (x, w; ) przypisuje pełną miarę pojedynczemu punktowi. Korzystając z (3.2.2) mamy µ(g B) = ν(x, w; B)δ x (dx)µ (dw), gdzie B B(C) B(C) oraz G B(R) B(C). Niech G B = {(y 1, y 2 ) C C : y 1 = y 2 } oraz G = R C. Na mocy jednoznaczności w sensie rozkładu mamy µ(b G) = 1 Zatem korzystając z faktu, że ν(, B) 1 oraz faktu, że δ x µ jest miarą probabilistyczną dostajemy, że istnieje zbiór N B(R) B(C) taki, że (δ x µ )(N) = oraz dla (x, w) N, zachodzi ν(x, w, B) = 1. Z twierdzenia Fubiniego 1 = ν(x, w, B) = ν 1 (x, w, {y})ν 2 (x, w, dy), (x, w) N. C 18
To może się zdarzyć tylko wtedy jeśli dla pewnego y, które oznaczamy u(x, w) zachodzi ν j (x, w; {u(x, w)}) = 1 dla j = 1, 2. Teraz należy zauważyć, że dla (x, w) N oraz B B(C[, )) zachodzi równoważność u(x, w) B wtedy i tylko wtedy, gdy ν j (x, w; B) = 1. Stąd wynika B(R) B(C)/B(C) mierzalność funkcji u. Podobnie dowodzi się mierzalności funkcji u, względem B t /B t (C) (korzystając z Lematu 3). Z własności rozkładu µ wynika także natychmiast µ( x X : y 1 = y 2 = u(x, w)) = 1. Możemy wyprowadzić twierdzenie Yamady-Watanabe. Wniosek 6 (Yamada-Watanabe) Załóżmy, że para (X, W ) na przestrzeni (Ω, F, P) z filtracją F t, t jest słabym rozwiązaniem równania (3.2.1). Załóżmy, że zachodzi jednoznaczność w sensie trajektorii. Wówczas istnieje funkcja v : R C C mierzalna względem B(R) B(C)/B(C), nawet B t /B t (C) mierzalna taka, że X = v(x, W ), P-p.n. Dowód. Oczywiście na mocy Lematu 4 kładziemy v(x, w) = x + u(x, w). Ponieważ u jest mierzalne względem B(R) B(C)/B(C), więc v(x, W ) jest dobrze zdefiniowaną zmienną losową na (Ω, F, P) o wartościach w C. Następnie zauważamy, że z mierzalności u względem B t /B t (C) wynika adaptowalność v(x, w(t)), t do filtracji Bt a stąd już adaptowalność v(x, W t ), t do odpowiednio uzupełnionej filtracji F t (opiszę później jak się takie uzupełnienie definiuje). 19
Rozdział 4 Problem martyngałowy 4.1 Definicja problemu martyngałowego Przypomnijmy, że zajmujemy się następującym równaniem stochastycznym dx t = b(t, X t )dt + σ(t, X t )dw t, X = x, (4.1.1) gdzie b(t, x) R d, σ(t, x) jest macierzą m d wymiarową, W jest m wymiarowym procesem Wienera. Załóżmy, że m = d = 1, b, σ są ograniczone. Równanie takie oznaczamy e x (σ, b) lub e(σ, b) jeśli rozumiemy rodzinę równań dla dowolnych punktów startowych. Przypomnijmy, że operator tworzący ma postać L t f = b(t, x)f + 1 2 a(t, x)f (x), gdzie a = σ 2. Jeśli (X, W ) jest słabym rozwiązaniem równania (4.1.1), to dla każdego f C(R) 2 (funkcje dwukrotnie różniczkowalne w sposób ciągły o zwartych nośnikach). f(x t ) = f(x) + + 1 2 a(s, X s )f (X s )ds. b(s, X s )f (X t )ds + σ(s, X s )f (X s )dw s + Czyli f(x t ) f(x) L sf(x s )ds, t jest martyngałem. Definicja 8 Przestrzeń kanoniczną funkcji ciągłych x : R + R oznaczamy przez C = C[, ). Określamy σ-ciało B(C) = B(C[, )) = σ(x(t) : t ) oraz B t (C) = B(C[, t]) = σ(x(s), ; s t). Proces kanoniczny na przestrzeni (C, B(C)) jest zadany wzorem Z t (w) = w(t), dla w C. Definicja 9 Mówimy, że problem martyngałowy π(x, a, b) ma rozwiązanie, jeśli istnieje miara probabilistyczna µ na przestrzeni kanonicznej (C, B(C)) taka, że µ(z = x) = 1 oraz dla każdego f C(R) 2 proces jest martyngałem. f(z t ) f(x) 2 L s f(z s )ds, t
Uwaga 6 Miara probabilistyczna µ na przestrzeni kanonicznej jest rozwiązaniem problemu martyngałowego π(x, a, b) wtedy i tylko wtedy, gdy dla każdego f C 2 (R) M f t jest martyngałem lokalnym. = f(z t ) f(x) L s f(z(s))ds, t Dowód. Jeśli f C 2 (R), to M f jest ograniczonym martyngałem lokalnym, a co za tym idzie martyngałem. Niech f C 2 (R). Definiujemy moment zatrzymania τ n = inf{t : Z t n} Niech teraz g n C 2 (R) będzie takie, że g n (x) = f(x) dla x < n. Proces M gn jest martyngałem. Zatem (M gn ) τn jest martyngałem. Jest jasne, że (M gn ) τn = (M f ) τn p.n. Ponieważ τ n jest ciągiem lokalizującym, oznacza to, że M f jest martyngałem lokalnym. Stwierdzenie 2 Jeśli µ jest rozwiązaniem problemu martyngałowego π(x, a, b), to jest martyngałem takim, że N t = Z t x N t = b(s, Z s )ds a(s, Z s )ds. Dowód tego faktu pojawi się na ćwiczeniach. Korzystając z wzoru Ito można wykazać wynik odwrotny. 4.2 Problem martyngałowy a istnienie słabych rozwiązań Głównym celem tego paragrafu będzie dowód następującego faktu. Twierdzenie 9 Równanie e x (σ, b), gdzie m = d = 1 ma słabe rozwiązanie wtedy i tylko wtedy, gdy problem martyngałowy π(x, a, b) ma rozwiązanie. Ponadto rozwiązanie e x (σ, b) jest jednoznaczne w sensie rozkładów, wtedy i tylko wtedy, gdy π(x, a, b) ma dokładnie jedno rozwiązanie. Dowód. Niech (Ω, F, P) będzie przestrzenią probabilistyczną z filtracją F t, para (X, W ) słabym rozwiązaniem e x (σ, b). Wiemy, że dla każdego f C(R 2 + ) f(x) f(x) L s f(x(s))ds 21
jest martyngałem względem F t. Pozostaje przenieść tę konstrukcję na proces kanoniczny Z. Definiujemy rozkład µ na C jako rozkład procesu X. Proces M f t = f(z t ) f(x) L s f(z s )ds, t jest martyngałem na (C, B(C), µ) z filtracją B t (C), t. Ogólnie wynika to z następującego faktu (na ćwiczenia). Uwaga 7 Niech X będzie procesem ciągłym adaptowalnym do F t, niech F : R + C R będzie mierzalne w tym sensie, że F (t, ) jest B t (C)-mierzalne. Załóżmy, że F (t, X t ) jest martyngałem względem filtracji F t. Wówczas F (t, Z t ) jest martyngałem (przy zadanym rozkładzie µ na C) względem filtracji B t (C). Załóżmy, że problem martyngałowy π(x, a, b) ma rozwiązanie µ. Przypuśćmy dodatkowo, że σ >. Wiemy (Stwierdzenie 2), że N t = Z x b(s, Z(s))ds, t jest martyngałem takim, że N = a(s, Z s)ds. Rozważmy martyngał lokalny W t := σ(s, Z s ) 1 dn s. Mamy równość 1 t W t = σ d N 1 2 s = ads = t. a To oznacza, że W jest procesem Wienera. Mamy równość σ(s, Z s )dw s = σ(s, Z s )σ(s, Z s ) 1 dn s = = N t = Z t x b(s, Z s )ds. Oznacza to, że para (Z, W ) jest słabym rozwiązaniem e x (σ, b). Aby pozbyć się założenia σ potrzebujemy konstrukcji, którą nazywa się adjointem procesu. Lemat 5 Niech (Ω, F, P) będzie przestrzenią z filtracją F t. Niech M M 2,c, M = oraz M (t) = A s ds, t, gdzie A jest ograniczone, prognozowalne A. Niech B będzie prognozowalne takie, że A = B 2. Rozważmy teraz drugą przestrzeń probabilistyczną (Ω, F, P ) z filtracją F t, na której określony jest proces Wienera W. Definiujemy Ω = Ω Ω, P = P P, Ft = F t F t. 22
Kładziemy M(ω, ω ) = M(ω), B(ω, ω ) = B(ω), W (s, ω, ω ) = W (s, ω ). Wówczas istnieje na ( Ω, F, P) proces Wienera W względem filtracji Ft taki, że Dowód. Definiujemy Niech teraz Jeśli oznaczymy to z definicji N 1 t = V t = M t = D s = B s dw s, t. { 1 As A s > A s = D s d M s + D s d M s, N 2 t = 1 {As=}d W s. 1 {As=}d W s, V = N 1 + N 2, N 1 + N 2 = N 1 + 2 N 1, N 2 + N 2. Ponieważ N 1 = XdM 1, N 2 = Y dm 2, (gdzie X s = D s, Y s = 1 {As=}, Ms 1 = M s, Ms 2 = W s ) więc N 1, N 2 = XY d M 1, M 2, co oznacza, że N 1, N 2 =, gdyż XY =. Zatem V = N 1 + N 2 = 1 A s A s 1 As>ds + 1 As=ds = t. To oznacza, że V jest procesem Wienera. Zauważmy, że W t = sgn B s dv s, t jest także procesem Wienera. Pokażemy, że ten proces spełnia warunek zadany w Lemacie. Ściślej zachodzi równość BdW = Bsgn BdV = AdV = A 1 = 1 A> d M A1A= + d W = A = 1 A> d M = M 1 A= d M. Zauważmy teraz, że E( = E 1 As=d M s ) 2 = E 1 As=A s ds =. 23 1 As=d M s =
Zatem 1 A s=d M s jest nieodróżnialny od zera. Stąd M = BdW. To kończy dowód lematu. Wracamy do dowodu Twierdzenia 9. Przypomnijmy, że N t = Z t x b(s, Z s )ds jest martyngałem takim, że N t = a(s, Z s)ds. Korzystamy z Lematu 5 kładąc M = N oraz A s = a(s, Z s ), B s = σ(s, Z s ). Dostajemy, że przestrzeń (C, B(C), µ) z filtracją B t (C) rozszerza się do ( C, B, µ) z filtracją B t, a ponadto gdzie Z(ω, ω ) = Z(ω) ma postać N t = Z x + N t = b(s, Z s )ds, t σ(s, Z s )dw s, t dla pewnego procesu Wienera na przestrzeni rozszerzonej ( C, B, µ) z filtracją B t. Z definicji oznacza to, że Z jest rozwiązaniem równania e x (σ, b). Oczywiście rozkład Z na C jest równy µ, gdyż µ = µ µ. Powyższe twierdzenia przenoszą się na przypadek ogólny (dowolne d, m). Oczywiście dowody mają znacznie bardziej skomplikowany zapis. 4.3 Problem martyngałowy a istnienie słabych rozwiązań Będziemy teraz zmierzać do wykazania istnienie rozwiązania problemu martyngałowego przy pewnych założeniach. W następnym rozdziale wykażemy Twierdzenie Stroocka Varadhana o istnieniu rozwiązań dla b, a = σ 2 : R + R R ciągłych. Teraz dokończymy dowód istnienia słabych rozwiązań przypadku gdy b, σ : R R są ograniczone oraz σ ε >. Stwierdzenie 3 Niech b, σ : R + R R. Niech funkcja γ : R R + będzie ograniczona i niech spełnia warunek γ ε >. Wtedy jeśli problem martyngałowy π(x, a, b) ma rozwiązanie, to również π(x, γa, γb) ma słabe rozwiązanie. Nadto jeśli to rozwiązanie π(x, σ, b) jest jedyne to również π(x, γa, γb) ma jednoznaczne rozwiązanie. Dowód. Stosujemy oznaczenie A t = 24 γ(x s )ds,
niech też τ t = inf{s ) : A s > t}. Definiujemy przekształcenie miary Wienera µ, w ten sposób, że zadajemy przekształcenie φ na przestrzeni (C, B) wzorem X(φ(ω)) t = X τt (ω). Niech P będzie rozwiązaniem problemu martyngałowego π(x, a, b), wówczas dla dowolnego s t oraz A B s oraz f CK zachodzi (f(x t ) f(x s ) γ(x u )Lf(X u )du)dφ(p) = A s = (f(x τt ) f(x τs ) γ(x τu )Lf(X τu )du)dp = φ 1 (A) s = (f(x τt ) f(x τs ) τ tτs Lf(X u )du)dp, φ 1 (A) gdzie ostatnia linijka wynika z zastosowania zamiany czasu. Ponieważ A B τs, więc z definicji problemu martyngałowego ostatnia całka jest równa zeru. Zatem φ(p) jest rozwiązaniem problemu martyngałowego π(x, γa, γb). Korzystając z γ 1 zamiast γ otrzymujemy istnienie przekształcenia ψ takiego, że ψ(φ(p)) = P co kończy dowód. Dowód polega na zamianie czasu na przestrzeni kanonicznej (ćwiczenia). Wniosek 7 Jeśli b, σ : R R są ograniczone oraz σ ε >, to równanie e(σ, b) ma rozwiązanie jednoznaczne w sensie trajektorii. Dowód. Najpierw zgodnie z Wnioskiem 5 redukujemy problem do przypadku równania e(σ, ), następnie stosujemy Stwierdzenie 3 dla γ = σ 1. Dowód kończy zastosowanie Twierdzenia 9. 25
Rozdział 5 Twierdzenie Stroocka-Varadhana 5.1 Preliminaria z teorii miary Przypomnijmy klasyczne twierdzenia Prohorowa. Twierdzenie 1 Niech E będzie przestrzenią polską (zupełna, metryczna i ośrodkowa). Niech (µ i ) i I będzie rodziną miar probabilistycznych na B(E), taką, że dla każdego ε > istnieje zbiór zwarty K E taki, że µ i (K) > 1 ε, dla i I wówczas z każdego ciągu (i n ) n=1 I można wybrać podciąg (i nk ) k=1 taki, że µ i nk zbieżne, gdy k. są słabo Lemat 6 Niech M M 2,c będzie takie, że M t M s K t s, wówczas dla każdego δ >, dla każdego u, dla każdego u t u + δ zachodzi nierówność P( sup M t M u > α) 2e α2 2Kδ. utu+δ Dowód. Wiemy (np. kryterium Novikova), że dla każdego λ R proces E(λ(M M )) t = exp(λ(m t M ) 1 2 λ2 M t ), t jest martyngałem. Ustalmy u, dla t u, λ > definiujemy E(λ(M M u )) t u := exp(λ(m t M u ) 1 2 ( M t M u )). 26
Proces E(λ(M M u )) t u dla t u jest martyngałem. Zatem P( sup (M t M u ) > α) = P( t [u,u+δ] (M t M u ) > α) = utu+δ = P( t [u,u+δ] exp(λ(m t M u ) λ2 2 ( M t M u )) > exp(λα λ2 2 ( M t M u ))) P( t [u,u+δ] E(λ(M M u )) t u > exp(λα λ2 K(t u))) 2 P( sup t [u,u+δ] E(λ(M M u )) t u > exp(λα λ2 Kδ)) 2 exp( λα + λ2 2 Kδ)EE(λ(M M u)) t u = exp( λα + λ2 2 Kδ), gdzie w ostatniej linii skorzystaliśmy z EE(λ(M M u ) t u ) = 1. Pozostaje zatem zminimalizować po λ wyrażenie exp( λα + λ2 2 Kδ). Łatwo sprawdzić, że λ min = α Kδ. Stąd P( sup (M t M u ) > α) exp( α2 utu+δ Kδ + α2 2Kδ ) = e α 2 2Kδ. Jeśli zauważymy, że M = M, zastosujemy powyższe rozumowanie do M i dodamy uzyskane nierówności stronami, to P( sup (M t M u ) > α) 2e α2 2Kδ. utu+δ Lemat 7 Istnieje ciąg (v N ) N=1, v N 1, że jeśli M jest jak w Lemacie 6. P( mn p N km sup M t M s α p ) v N, ks,tk+2 p gdzie α p = 2 2(ln 2)mpK2 p Dowód. Zauważmy, że zachodzą nierówności P( mn p N km m=n p=1 Podobnie korzystając z Lematu 6 P( km m2 p j=1 j=1 P( km sup M t M s > α p ) ks,tk+2 p sup M s M t > α p ). (5.1.1) ks,tk+2 p sup M s M t > α p ) ks,tk+2 p (P( (j 1)2 p xj2 p M x M (j 1)2 p > 1 2 α p) m2 p 2 e α 2 p 8K 2p = 2m2 p 2 mp. (5.1.2) 27
Wstawiając to oszacowanie do (5.1.1) otrzymujemy P( mn p N km sup M t M s > α p ) ks,tk+2 p 8 m2 m =: 1 v N, (5.1.3) m=n gdzie w ostatniej linii definiujemy ciąg (v N ) N=1 taki, że v N 1, gdy N. 5.2 Twierdzenie o istnieniu słabych rozwiązań Przypomnijmy, że C = C[, ), B(C) = B(C[, )) tworzą przestrzeń kanoniczną. Udowodnimy teraz twierdzenie o relatywnej zwartości podzbioru miar na (C, B(C)). Relatywna zwartość zbioru oznacza, że z dowolnego ciągu można wybrać podciąg zbieżny do granicy, która nie musi być elementem zbioru. Twierdzenie 11 Niech S będzie zbiorem miar probabilistycznych na przestrzeni kanonicznej (C, B(C)) z filtracja B t (C). Załóżmy, że Z jest procesem adaptowalnym względem B t (C) nadto: 1. istnieje B R zwarty taki, że dla każdej miary µ S mamy µ(z B) = 1; 2. dla każdego µ S istnieje V ciągły adaptowalny proces V o wahaniu ograniczonym taki, że V = oraz M := Z V jest µ martyngałem; 3. procesy M, V są lipschitzowskie w następującym sensie M t M s K t s, V t V s K t s, s, t, gdzie K nie zależy od µ S, wówczas S jest relatywnie zwarty. Dowód. Zauważmy, że C jest przestrzenią polską (metryczną, ośrodkową i zupełną). Wystarczy pokazać, że zbiór S jest ciasny. Definiujemy Γ N := { mn p N km sup M t M s α p }. ks,tk+2 p Z Lematu 7 wynika, że µ(γ N ) v N. Zatem istnieje N takie, że µ(γ N ) > 1 ε dla każdego µ S. Zauważmy teraz, że Stąd i z założenia 3 Z t Z s M t M s + V t V s, s, t. sup Z t Z s sup M t M s + ks,tk+2 p ks,tk+2 p + sup V t V s sup M t M s + K2 p. ks,tk+2 p ks,tk+2 p 28
Niech teraz Γ N := { mn p N km sup Z t Z s K2 p + α p }. ks,tk+2 p Oczywiście Γ N Γ N. Zauważmy teraz, że µ({z B} Γ N ) 1 ε. Zbiór {Z B} Γ N jest domknięty w C. Funkcje, które należą do tego zbioru są wspólnie ograniczone i jednakowo ciągłe na każdym przedziale zwartym [, n]. Przypomnijmy, że jednakowa ciągłość funkcji ze zbioru F (postaci f : T S, gdzie (T, d) (S, ρ) są przestrzeniami metrycznymi) oznacza, że ε δ f F d(s, t) < δ ρ(f(s), f(t)) < ε. W naszym przypadku oznacza to po prostu, że sup x y <δ f(x) f(y) < ε. Na mocy twierdzenia Ascoli-Arzeli oraz definicji topologii w C oznacza to, że zbiór {Z B} Γ N jest zwarty. Korzystając z Twierdzenia 1 dostajemy tezę Twierdzenia. Twierdzenie 12 (Stroocka-Varadhana) Załóżmy, że b, σ są ograniczone mierzalne, b, a- ciągłe (a = σ 2 ). Równanie e(σ, b) ma słabe rozwiązanie. Dowód. Pokażemy, że rozwiązanie problemu martyngałowego ma rozwiązanie. Załóżmy, że b K, a K. Istnieją ciągi funkcji b n, σ n spełniające warunek Lipschitza i takie, że b n b, σ 2 n a w sensie zbieżności jednostajnej na zbiorach ograniczonych. Wiemy, że równanie dx = b n (s, X s )ds + σ n (s, X s )dw s, X = x ma dla każdego n N dokładnie jedno mocne rozwiązanie (jednoznaczne w sensie trajektorii). Zatem problem martyngałowy π(x, a n, b n ) ma również dokładnie jedno rozwiązanie, które oznaczmy µ n. Pokażemy, że zbiór {µ n : n N} jest relatywnie zwarty. Jest jasne, że dla każdego n N µ n (Z = x) = 1. Zatem jako zbiór zwarty B w Twierdzeniu 11 weźmiemy B = {x} (założenie 1) Definiujemy V n = b n (s, Z s )ds. Ze Stwierdzenia 2 wiemy, że M n := Z b n (s, Z s )ds = Z V n jest µ n martyngałem, którego nawias skośny jest równy a n (s, Z s )ds (założenie 2). Na mocy ograniczoności b, a (a więc również b n, a n ) dostajemy, że także założenie 3 w Twierdzeniu 11 jest spełnione. To oznacza, że z ciągu miar µ n możemy wybrać podciąg zbieżny 29
do pewnego µ. Pokażmy, ze µ jest rozwiązaniem problemu martyngałowego π(x, a, b). Ustalmy dowolne f C(R). 2 Chcemy pokazać, że f(z) L u f(z u )du jest µ martyngałem, gdzie L u f(y) = b(u, y)f (y) = 1 2 a(u, y)f (y). Niech s < t. Wystarczy pokazać, że dla każdego Γ B s (B s filtracja na B(R + )) co jest równoważne E(1 Γ (f(z t ) L u f(z u )du) = E(1 Γ (f(z s ) s E(1 Γ (f(z t ) f(z s ))) = E(1 Γ L u f(z u )du). s L u f(z u )du), Wartość oczekiwana E oznacza tu całkowanie względem µ. Równoważnie wystarczy udowodnić, że dla dowolnej funkcji ciągłej B s mierzalnej ograniczonej ϕ : C R mamy E(ϕ(Z)(f(Z t ) f(z s ))) = E(ϕ(Z) s L u f(z u )du). Wiemy, że dla każdego n N f(z) L n uf(z u )du jest µ n martyngałem. Zatem E n (ϕ(z)(f(z t ) f(z s ))) = E n (ϕ(z) s L n uf(z u )du), gdzie E n oznacza całkę względem µ n. Ponieważ µ n µ, więc dla każdej funkcji F : C R ciągłej ograniczonej zachodzi E n (F (Z)) E(F (Z)). Funkcja F 1 (g) = ϕ(g)(g t g s ) dla g C jest taką funkcją, zatem Z drugiej strony E n (ϕ(z)(f(z t ) f(z s ))) E(ϕ(Z)(f(Z t ) f(z s ))), gdy n. E n (ϕ(z) E n (ϕ(z) + E n (ϕ(z) s s L n uf(z u )du) E(ϕ(Z) s L u f(z u )du) E(ϕ(Z) s L n uf(z u ) L u f(z u )du). L u f(z u )du) s L u f(z u )du) + Funkcja F 2 (g) = ϕ(g) L s uf(g u )du jest ciągła i ograniczona. Zatem E n (ϕ(z) s L u f(z u )du) E(ϕ(Z) 3 s L u f(z u )du) gdy n.
Pozostaje zauważyć, że E n (ϕ(z) sup Z s L n uf(z u ) L u f(z u )du) ϕ(z) (t s) sup sup u [s,t] y suppf L n f(y(u)) Lf(y(u)). Ponieważ suppf jest zwarty, a b n b, a n a jednostajnie na zbiorach zwartych nadto ϕ jest ograniczona, więc sup y suppf L n f(y) Lf(y), gdy n, sup ϕ(z) <. Z To kończy dowód twierdzenia. Powyższe twierdzenie daje istnienie mocnych rozwiązań przy znacznie słabszych założeniach na współczynnik dyfuzji. W następnym rozdziale pokażemy warunki gwarantujące nieodróżnialność w sensie trajektorii, a tym samym rozszerzające istnienie mocnych rozwiązań dla równań stochastycznych. Niech δ : R + R + takie, że ε δ 1 (x)dx = dla < ε 1. Twierdzenie 13 (R-Y) Każdy z następujących warunków gwarantuje nieodróżnialność w sensie trajektorii dla rozwiązań równania e(σ, b) 1. σ(x) σ(y) 2 δ( x y ), σ ε > oraz b, σ ograniczone; 2. σ(s, x) σ(s, y) 2 δ( x y ) oraz dla każdego t istnieje K t < takie, że dla s t b(s, x) b(s, y) K t x y. 3. σ(x) σ(y) 2 f(x) f(y), gdzie f jest rosnąca i ograniczona, σ ε > oraz b jest ograniczone. 31
Rozdział 6 Czas lokalny Niech f będzie funkcją wypukłą. Twierdzenie 14 Niech X będzie ciągłym semimartyngałem, wtedy istnieje ciągły rosnący proces A f taki, że f(x t ) = f(x ) + gdzie f jest pochodną lewostronną f. f (X s )dx s + 1 2 Af t, Dowód. Niech f C 2 wtedy działa wzór Ito i mamy A f t = f (X s )d X s. Niech h będzie funkcją klasy C o nośniku zwartym będącym podzbioru (, ] taką, że h(y)dy = 1. Niech f n (x) = n f(x + y)h(ny)dy. Funkcja f jest wypukła, stąd lokalnie ograniczona. Zatem f n jest dobrze zdefiniowana dla każdego n, nadto f n f punktowo, gdy n oraz f n jest ciągiem rosnącym zbieżnym punktowo do f. Dla każdego n f n (X t ) = f n (X ) + f n(x s )dx s + 1 2 Afn t oraz f n (X t ) zbiega do f(x t ). Dzięki stopowaniu możemy zakładać, że proces X jest ograniczony, a przez to proces f (X t ), t również jest ograniczony. Twierdzenie o zbieżności zmajoryzowanej wraz z twierdzeniem Dooba implikuje, że f n(x s )dx s f (X s )dx s według P jednostajnie na każdym odcinku skończonym, to znaczy dla każdego ε > lim P( sup n t [,n] f n(x s )dx s 32 f (X s )dx s > ε) =
Zatem proces A fn także zbiega do procesu A f, który jest rosnący jako granica procesów rosnących. Co więcej f(x t ) = f(x ) + f (X s )dx s + 1 2 Af t. Proces A f t, t ma więc modyfikację ciągłą, co kończy dowód. Definiujemy sgn(x) = 1 dla x > oraz sgn(x) = 1 dla x. Jeśli f(x) = x, to f (x) = sgn(x). Twierdzenie 15 Wzór Tanaki. Dla każdego a R istnieje ciągły proces rosnący L a (czas lokalny procesu X) taki, że X t a = X a + (X t a) + = (X a) + + (X t a) = (X a) sgn(x s a)dx s + L a t, 1 Xs>adX s + 1 2 La t ; 1 XsadX s + 1 2 La t. W szczególności procesy X a, (X a) +, (X a) są semimartyngałami. Dowód. Wiemy, że dla f(x) = (x a) + zachodzi f = 1 (a, ). Zatem z Twierdzenia 14 Analogicznie (X t a) + = (X a) + + (X t a) = (X a) + Biorąc stronami różnice powyższych równości dostajemy X t = X + 1 Xs>adX s + 1 2 A+ t (6..1) 1 Xs>adX s + 1 2 A+ t (6..2) dx s + 1 2 (A+ t A t ) Zatem A + t = A t p.n. Oznaczamy L a t = A + t. Sumując równości dostajemy X t a = X a + sgn(x s a)dx s + L a t. Proces L a t jest rosnący a więc wyznacza miarę losową na R + (dla poszczególnych ω Ω). Miarę tą oznaczamy przez dl a t. Stwierdzenie 4 Miara dl a t ma nośnik w zbiorze {t : X t = a}. 33
Dowód. Stosujemy wzór Ito do semimartyngału X a dostajemy (X t a) 2 = (X a) 2 + 2 zatem korzystając z twierdzenia 14 dostajemy (X t a) 2 = (X a) 2 + 2 X s a d( X a ) s + X a, X s a sgn(x s a)dx s + 2 Jeśli porównamy ten wzór z konsekwencją wzoru Ito, czyli X s a dl a s + X t. otrzymujemy, że (X t a) 2 = (X a) 2 + 2 X s a dl a s =, p.n. (X s a)dx s + X t To oznacza, że miara dl a t skupiona jest na zbiorze {t : X t = a}. Uwaga 8 Można pytać kiedy zbiór {t : X t = a} jest dokładnie nośnikiem czasu lokalnego. Tak się dzieje na przykład dla procesu Wienera. Aby wyprowadzić główny wynik tego rozdziału potrzebujemy regularnej wersji czasów lokalnych. Lemat 8 Istnieje funkcja L : R (R Ω), która jest B(R) P mierzalna (P oznacza σ-ciało zbiorów prognozowalnych na R Ω), taka, że dla każdego a R proces L(a,, ) jest nieodróżnialny od L a. Dowód. Wynika to z faktu, że L a t = 2[(X t a) + (X a) + 1 Xs>adX s ] w sensie nieodróżnialności procesów. Wystarczy zauważyć, że z własności całki stochastycznej (a, t) 1 X s>adx s jest B(R) P mierzalne (szczegóły na ćwiczenia). Zauważmy teraz, że jeśli f jest wypukła to f jest funkcją rosnącą, co z kolei oznacza, że istnieje jednoznacznie wyznaczona miara borelowska, którą będziemy oznaczać f (da) taka, że dla t > s f (t) f (s) = s f (da). Oczywiście notację f (da) możemy rozszerzyć na różnicę dwóch funkcji wypukłych f = f 1 f 2 biorąc f (da) = f 1 (da) f 2 (da). 34
Twierdzenie 16 Wzór Tanaki. Niech f będzie różnicą funkcji wypukłych. Dla każdego ciągłego semimartyngału zachodzi wzór f(x t ) = f(x ) + f (X s )dx s + 1 L a t f (da). 2 W szczególności oznacza to, że f(x) jest semimartyngałem. Dowód. Oczywiście wystarczy udowodnić wzór dla f funkcji wypukłej. Zauważmy, że dla każdego odcinka [ n, n], n N istnieje wypukła funkcja f n taka, że f = f n na [ n, n] oraz miara f n(da) ma nośnik zwarty. To oznacza po prostu, że funkcja f n jest liniowa poza zbiorem zwartym (może być ten sam odcinek [ n, n]) Stopując X na wyjściu ze zbioru [ n, n] możemy zakładać, że miara f (da) ma nośnik zwarty. Warto zauważyć, że w tym przypadku dla pewnych stałych α i β (na ćwiczenia) f(x) = αx + β + 1 x a f (da) 2 R Zatem z definicji L a t f(x t ) = αx t + β + 1 X t a f (da) = 2 R = α(x t X ) + f(x ) + 1 ( sgn(x s a)dx s + L a t )f (da). 2 Pozostaje zauważyć, że sgn(x s a)dx s f (da) = co kończy dowód. R R f (X s )dx s α(x t X ) Wniosek 8 Wzór czasu przebywania. Istnieje P zbiór miary zero taki, że ϕ(x s )d X s = ϕ(a)l a t da dla każdej dodatniej funkcji borelowskiej ϕ. Dowód. Niech ϕ = f for f C 2 (R). Ze wzoru Tanaki f(x t ) = f(x ) + f (X s )dx s + 1 2 podczas gdy z klasycznego wzoru Ito f(x t ) = f(x ) + f (X s )dx s + 1 2 35 R L a t f (a)da, f (X s )d X s.
Z porównania wzorów dostajemy, że teza zachodzi p.n. czyli poza pewnym zbiorem A ϕ miary zero. Zbiór C 2 (R) jest gęsty w zbiorze funkcji ciągłych o zwartym nośniku C (R). Nadto C 2 (R) jest ośrodkowy, a co za tym idzie możemy wybrać przeliczalną rodzinę ϕ n, n funkcji z C 2 (R) gęstą C (R). Teza będzie zachodziła dla wszystkich funkcji ϕ n, n poza zbiorem A = A ϕn, który jest miary zero. Z gęstości ϕ n, n w C (R) w topologii zadanej przez normę supremum dostajemy, że teza zachodzi dla wszystkich ϕ C (R). To już kończy dowód bo natychmiast dostajemy równość dla funkcji ϕ będących postaci 1 [,t], t, a stąd z lematu o π λ układach dla dowolnego indykatora 1 A, gdzie A B(R + ). Z definicji całki Lebesgue a wynika równość dla dowolnej funkcji borelowskiej dodatniej. Okazuje się, że czas lokalny ma modyfikację o regularnych trajektoriach. Twierdzenie 17 Dla każdego ciągłego semimartyngału X istnieje modyfikacja procesu {L a t, a R, t R} taka, że przekształcenie (a, t) L a t jest p.n. ciągłe względem t i cadlag względem a. Co więcej jeśli X = X + M + V (dekompozycja semimartyngału), gdzie M M c loc, M =, V V c, V =, to L a t L a t = 2 1 Xs=adV s = 2 1 Xs=adX s. Dowód wymaga nierówności BDG (Burkholder-Davis-Gundy) oraz kryterium ciągłości Kołmogorowa. Można go znaleźć w książkach np. [5]. Uwaga 9 Podobnie jak w przypadku trajektorii procesu Wienera można wykazać, że trajektorie t L a t są nie tylko ciągłe ale i holderowsko ciągłe z współczynnikiem α < 1 na 2 każdym odcinku skończonym. Dla nas istotnym wnioskiem z regularności czasu lokalnego jest następująca interpretacja czasu lokalnego. Wniosek 9 Jeśli X jest ciągłym semimartyngałem wówczas L a 1 t (X) = lim ε ε ε 1 [a,a+ε) (X s )d X s. Nadto jeśli M jest ciągłym martyngałem lokalnym, to L a 1 t (M) = lim ε 2ε ε ε 1 (a ε,a+ε) (M s )d M s. Dowód. Wystarczy zastosować wzór na czas przebywania wraz z prawostronną ciągłością a L a t (X). Warto zwrócić uwagę, że dla procesu Wienera L 1 t = lim ε 2ε 1 Ws <εds, co pokazuje, że w istocie czas lokalny jest adaptowalny do uzupełnionej filtracji σ( W s, s t). 36