Procesy stochastyczne (214/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 215.1.24 Notatki do wykładu
2
Spis treści I Mocne i słabe rozwiązania stochastycznych równań różniczkowych, jednoznaczność 5 1 Definicje i przykłady 7 1.1 Mocne i słabe rozwiązania.............................. 7 1.2 Przykład Tanaki................................... 8 1.3 Twierdzenie Girsanowa a słabe rozwiązania.................... 9 1.4 Przykład Girsanowa................................. 11 2 Twierdzenie Yamady-Watanabe o jednoznaczności 13 2.1 Regularny rozkład warunkowy............................ 13 2.2 Dowód Twierdzenia Yamady-Watanabe...................... 16 3 Słabe rozwiązania a problem martyngałowy 21 3.1 Definicja problemu martyngałowego......................... 21 3.2 Słabe rozwiązania a problem martyngałowy.................... 23 3.3 Twierdzenie Stroocka-Varadhana o istnieniu słabych rozwiązań......... 24 II Procesy Markowa 29 4 Proces Poissona 31 4.1 Proces Poissona definicja i konstrukcja...................... 31 4.2 Uogólniony proces Poissona............................. 34 4.3 Złożony proces Poissona............................... 34 5 Procesy Markowa - definicja i proste własności 35 5.1 Definicja procesu Markowa i warunki równoważne................. 35 5.2 Funkcja przejścia................................... 38 5.3 Przykłady procesów Markowa............................ 4 5.4 Rozkłady skończenie wymiarowe procesu Markowa................ 41 6 Jednorodne rodziny Markowa 43 6.1 Definicja jednorodnej rodziny Markowa....................... 43 6.2 Operator przesunięcia................................ 45 3
4 SPIS TREŚCI 7 Mocna własność Markowa 49 7.1 Mocna własność Markowa.............................. 49 7.2 Półgrupy operatorów związane z procesami Markowa............... 5 7.3 Półgrupy fellerowskie................................. 51 7.4 Mocna własność Markowa a operator przesunięcia................. 53 7.5 Prawo 1 Blumenthala............................... 54 7.6 Zasada odbicia dla procesu Wienera........................ 54 8 Regularność trajektorii procesów Markowa 55 9 Półgrupy i ich generatory 57 1 Łańcuchy Markowa z czasem ciągłym 67 11 Procesy dyfuzji 73 11.1 Definicja procesu dyfuzji............................... 73 11.2 Interpretacja współczynników dryfu i dyfuzji.................... 73 11.3 Procesy dyfuzji a rozwiązania równań stochastycznych.............. 75 12 Wzór Feynmana-Kaca 77 13 Procesy dyfuzji i zagadnienie Dirichleta 83
Część I Mocne i słabe rozwiązania stochastycznych równań różniczkowych, jednoznaczność 5
Rozdział 1 Definicje i przykłady 1.1 Mocne i słabe rozwiązania Będziemy rozważać stochastyczne równania różniczkowe postaci dx t =b(t,x t )dt+σ(t,x t )dw t, (1.1) X =x, gdziew jest procesem Wienera o wartościach wr m, b : R + R d R d iσ : R + R d M(d m) są funkcjami borelowskimi, przy czym M(d m) oznacza zbiór macierzy o współczynnikach rzeczywistych o d wierszach i m kolumnach, x R d. Dla uproszczenia będziemy zwykle będziemy rozważać przypadek jednowymiarowy d = m = 1, jednak definicje poniżej formułuje się tak samo w przypadku ogólnym. Oznaczenia. Niech Y = (Y t ) t będzie procesem stochastycznym zdefiniowanym na pewnej przestrzeni probabilistycznej (Ω, F, P). Zwykle zakładamy, że σ-ciało F jest zupełne, to znaczy zawiera wszystkie podzbiory zbiorów miary zero z F. Przez (F Y t ) t oznaczamy filtrację generowaną przez proces Y, tj. F Y t = σ(y s : s t). Przez F Y t oznaczamy najmniejsze σ-ciało zawierające F Y t i wszystkie zdarzenia o prawdopodobieństwie zero. Definicja 1.1. Niech W będzie procesem Wienera w R m zdefiniowanym na pewnej przestrzeni probabilistycznej (Ω,F,P). Mówimy, że równanie (1.1) ma mocne rozwiązanie na (Ω,F,P) względem procesu Wienera W jeżeli istnieje ciągły proces X = (X t ) t o wartościach w R d, zdefiniowany na (Ω,F,P), adaptowany do (Ft W ) t spełniający X t = x+ b(s,x s )ds+ σ(s,x s )dw s, t. (1.2) Jeżeli warunek początkowy równania jest losowy X = ξ, gdzie ξ jest zmienną losową określoną na (Ω, F, P) niezależną od W, wtedy proces X nazywa się mocnym rozwiązaniem jeżeli spełnia X t = ξ + b(s,x s )ds+ σ(s,x s )dw s, t. oraz X jest adaptowany do filtracji (G t ) t, gdzie G t = σ(f W t,ξ). 7
8 ROZDZIAŁ 1. DEFINICJE I PRZYKŁADY Uwaga 1.2. Na wykładzie z Wstępu do Analizy Stochastycznej widzieliśmy, że jeśli funkcje x b(t,x) i x σ(t,x) spełniają warunek Lipschitza ze stałą niezależną od t i b(t,),σ(t,) są ograniczone, to na dowolnej przestrzeni probabilistycznej (Ω, F, P), na której istnieje proces Wienera W, równanie (1.1) ma mocne rozwiązanie. Definicja 1.3. Mówimy, że równanie (1.1) ma słabe rozwiązanie jeśli istnieje przestrzeń probabilistyczna (Ω,F,P) z filtracją (F t ) t oraz na (Ω,F,P) istnieje proces Wienera W względem (F t ) t i istnieje ciągły proces X adaptowany do (F t ) t spełniający (1.2). {(Ω,F,P),(F t ) t,(w,x)} nazywa się słabym rozwiązaniem równania (1.1). Czasem, dla skrótu, będziemy tylko pisać, że (W,X) jest słabym rozwiązaniem. Uwaga: Zasadnicza różnica w definicji słabego i mocnego rozwiązania polega na tym, że w przypadku słabego rozwiązania proces X może nie być adaptowane do filtracji generowanej przez proces Wienera. F t może być na ogół większe niż F W t. Jeśli If {(Ω,F,P),(F t ) t,(w,x)} jest słabym rozwiązaniem (1.1) i X jest adaptowane do F W t to X jest mocnym rozwiązaniem (1.1) względem (Ω,F,P) i W. Definicja 1.4. Mówimy, że rozwiązanie równania (1.1) jest jednoznaczne w sensie trajektorii, jeżeli dla każdej pary słabych rozwiązań {(Ω,F,P),(F t ) t,(w,x)} i {(Ω,F,P),(F t ) t,(w,x )} na tej samej przestrzeni probabilistycznej i z tym samym procesem Wienera W procesy X i X są nieodróżnialne, tj. P(X t = X t t ) = 1. Definicja 1.5. Mówimy, że rozwiązanie równania (1.1) jest jednoznaczne w sensie rozkładu, jeżeli dla każdej pary słabych rozwiązań {(Ω,F,P),(F t ) t,(w,x)} i {(Ω,F,P ),(F t) t,(w,x )}, procesy X i X mają te same rozkłady. Przykład 1.6. Jeżeli istnieje C takie, że oraz σ(t,x) σ(t,y) + b(t,x) b(t,y) C x y σ(t,) + b(t,) C dla dowolnych x,y R d, t R +, to dla równanie (1.1) ma mocne rozwiązanie, na dowolnej przestrzeni probabilistycznej z procesem Wienera. Ponadto rozwiązanie (1.1) jest jednoznaczne w sensie trajektorii. 1. W pozostałych przykładach będziemy rozważać tylko przypadek jednowymiarowy m = d = 1.2 Przykład Tanaki Przykład 1.7. Wprowadźmy oznaczenie { 1 dla x σ(x) = 1 dla x <. Rozważmy równanie dx t = σ(x t )dw t, X =. (1.3)
1.3. TWIERDZENIE GIRSANOWA A SŁABE ROZWIĄZANIA 9 Pokażemy, że to równanie ma słabe rozwiązanie, ale nie ma żadnego mocnego rozwiązania. Jednakże najpierw zajmiemy się problemem jednoznaczności. Przypuśćmy, że istniej słabe rozwiązanie (W,X). Wtedy X t = σ(x s)dw s. X jest więc ciągłym martyngałem o wariacji kwadratowej X t = σ2 (X s )ds = t. Z twierdzenia Lévy ego o charakteryzacji procesu Wienera wynika, że X jest procesem Wienera, zatem zachodzi jednoznaczność w sensie rozkładu dla równania (1.3). Zauważmy, że jeżeli (W,X) jest słabym rozwiązaniem (1.3), to X t = nieodróżnialne σ(x s )dw s = σ( X s )dw s, gdyż E 1 {} (X s )ds =. Zatem (W, X) również jest słabym rozwiązaniem. Nie ma jednoznaczności w sensie trajektorii. Teraz skonstruujemy słabe rozwiązanie. Niech X będzie standardowym procesem Wienera na przestrzeni probabilistycznej (Ω,F,P) i niech F t = F X t. Oznaczmy W t = σ(x s )dx s W jest ciągłym martyngałem względem filtracji (F t ) t oraz W t = t, zatem W jest procesem Wienera względem F X. Ponadto σ(x s )dw s = σ(x s )σ(x s )dx s = dx s = X t. Zatem (W,X) jest słabym rozwiązaniem. To nie jest mocne rozwiązanie. Na ćwiczeniach pokażemy, że σ(x s)dx s jest adaptowane do (F X t ) t. Ta filtracja jest ściśle mniejsza niż (F X t ) t. Np. jeśli A = {ω Ω : X t (1,2)} to A F X t ale A / F X t. Podobnie, żadne inne słabe rozwiązanie nie może być mocnym rozwiązaniem. Dla mocnego rozwiązania musiałoby być F X s F W s dla wszystkich s, ale wiemy także, że σ(x s)dx s = σ2 (X s )dw s = W t, X jest procesem Wienera, więc jak poprzenio σ(x s)dx s jest adaptowane do (F X t ) t. Zatem W jest adaptowane do (F X t ) t. W konsekwencji F X s F W s F X t, co prowadzi do sprzeczności, gdyż F X t jest ściśle mniejsze od F X s. 1.3 Zastosowanie twierdzenia Girsanowa do konstrukcji słabych rozwiązań Rozważmy stochastyczne równanie różniczkowe dx t = b(t,x t )dt+dw t, X = x, (1.4)
1 ROZDZIAŁ 1. DEFINICJE I PRZYKŁADY gdzie b jest funkcją borelowską i ograniczoną. Możemy założyć, że x =. Rzeczywiście, dla dowolnego x równanie jest równoważne X t = x+ X t x = b(s,x s )ds+w t b(s,x+x s x)+dw t. Jeśli oznaczymy X t = X t x, to powyższy rachunek pokazuje, że (W,X) jest słabym rozwiązaniem (1.4) wtedy i tylko wtedy, gdy (W, X) jest słabym rozwiązaniem podobnego równania z b(t,y) = b(t,x+y) i zerowym warunkiem początkowym. Od tej pory będziemy zakładać, że x =. Niech V będzie procesem Wienera określonym na pewnej przestrzeni probabilistycznej (Ω, F, P). Ponieważ założyliśmy, że b jest ograniczone, to dla każdego T zachodzi Eexp{ 1 2 Z kryterium Nowikowa wynika więc, że jeśli { Z t = exp b(s,v s )dv s 1 2 b 2 (s,v s )ds} <. (1.5) } b 2 (s,v s )ds, to EZ T = 1 dla każdego T > (zatem (Z t ) t [,T] jest martyngałem). To pozwala zdefiniować nową miarę probabilistyczną Q T na (Ω,F) kładąc dq T = Z T dp. Z twierdzenia Girsanowa wynika, że proces W t = V t b(s,v s )ds, t [,T] jest standardowym procesem Wienera na (Ω,F,Q T ). Innymi słowy {(Ω,F,Q T ),(F V t ) t [,T],(W t,v t ) t [,T] } jest słabym rozwiązaniem (1.4) z x = na przedziale [, T]. Aby skonstruować rozwiązanie dla t definiujemy miarę probabilistyczną Q na F V tak, że Q F V = Q T F V dla wszystkich T. Z jest martyngałem, więc z twierdzenia Girsanowa T T wiadomo, że Q jest dobrze określone i jest to miara probabilistyczna. Ponadto, W t = V t b(s,v s )ds, t jest standardowym procesem Wienera na (Ω,(F V ),Q). Stąd {(Ω,F,Q),(F V t ) t,(w,v)} jest słabym rozwiązaniem równania (1.4) z x =. Pokazaliśmy Twierdzenie 1.8. Jeżeli b : R + R R jest funkcją borelowską i ograniczoną, to stochastyczne równanie różniczkowe (1.4) ma słabe rozwiązanie. Założenie ograniczoności b można osłabić. Wystarczy założyć np., że jeżeli V jest procesem Wienera, to Eexp{ 1 2 b 2 (s,x+v s )ds} <.
1.4. PRZYKŁAD GIRSANOWA 11 1.4 Przykład Girsanowa Rozważmy równanie dx t = X t α dw t, X =, (1.6) gdzie α > jest ustalone. Oczywiście proces X jest zawsze mocnym rozwiązaniem. Można pokazać, że gdy α 1 2, to zachodzi jednoznaczność w sensie rozkładów. Załóżmy teraz, że < α < 1 2. Pokażemy, że w tym przypadku równanie (1.6) ma słabe rozwiązanie, które nie jest tożsamościowo równe, zatem nie zachodzi jednoznaczność w sensie rozkładu. Niech V będzie standardowym procesem Wienera na pewnej przestrzeni probabilistycznej (Ω,F,P). Połóżmy R M t = V s α dv s. M jest dobrze zdefiniowane i jest to martyngał całkowalny z kwadratem, gdyż E V s 2α 1 1 t ds = x 2α e x2 2sdxds = s α 1 y 2 2πs y 2αe 2 dyds <. Na końcu użyliśmy założenia α < 1 2. Pokażemy, że można tak zmienić czas, aby z M zrobić proces Wienera. Zauważmy, że M t = V s 2α ds. M jest procesem ciągłym i ściśle rosnącym. Ponadto łatwo pokazać (używając np. prawa iterowanego logarytmu), że M =. Oznaczmy przez τ funkcję odwrotną do M, tj. τ t = inf{r : r V s 2α ds = t}, t. Dla każdego t, τ t jest momentem zatrzymania względem (F V t ) t. Zdefiniujmy także W t = M τt X t = V τt, t. Wtedy zachodzą następujące fakty. Stwierdzenie 1.9. W jest standardowym procesem Wienera. Stwierdzenie 1.1. (W, X) jest słabym rozwiązaniem (1.6). Stwierdzenia 1.9 jest prawie natychmiastowe. Potrzebujemy tylko pokazać, że W jest ciągłym martyngałem (ciągłość jest jasna, gdyż M i τ są ciągłe, własność martyngałowości wynika łatwo z twierdzenia Dooba o zatrzymywaniu) oraz M τ t = M τt = t. Z twierdzenia Lévy ego o charakteryzacji procesu Wienera wynika, że W jest standardowym procesem Wienera. Szczegóły na ćwiczeniach. Stwierdzenie 1.1 wynika z ciągu równości X s α dw s = V τs α dm τs ( ) = τt V r α dm r = τt R V s α V s α dv s = V τt = X t. Zauważmy jednak, że ( ) wymaga formalnego uzasadnienia. Można to zrobić odpowiednio aproksymując przez procesy elementarne. Dowód można znaleźć w książce [MK].
12 ROZDZIAŁ 1. DEFINICJE I PRZYKŁADY
Rozdział 2 Twierdzenie Yamady-Watanabe o jednoznaczności W tym rozdziale, podobnie jak w poprzednim będziemy rozważać równanie (1.1), z tym że dopuszczamy także losowe warunki początkowe. dx t =b(t,x t )dt+σ(t,x t )dw t, (2.1) X µ, gdzie µ jest pewną miarą probabilistyczną na R d, a oznacza równość rozkładów. W tym przypadku słabe rozwiązanie to {(Ω,F,P),(F t ) t,w,x}, gdzie X jest adaptowane do (F t ), W jest procesem Wienera względem (F t ), zachodzi X t = X + b(s,x s)ds+ σ(s,x s)dw s oraz X ma rozkład µ. Wykażemy następujące twierdzenie. Twierdzenie 2.1. (Yamada-Watanabe) (a) Jednoznaczność w sensie trajektorii rozwiązania równania (2.1) implikuje jednoznaczność w sensie rozkładu (b) Załóżmy, że równanie (2.1) ma słabe rozwiązanie, jednoznaczne w sensie trajektorii. Wówczas każde słabe rozwiązanie jest mocne (na odpowiedniej przestrzeni probabilistycznej). W dowodzie wykorzystamy tzw. regularny rozkład warunkowy. Kwestię jego istnienia omówimy w następnym podrozdziale. 2.1 Regularny rozkład warunkowy Niech (Ω, F, P) będzie przestrzenią probabilistyczną, a G σ-ciałem, G F. Definicja 2.2. (Regularny rozkład warukowy) Niech X będzie zmienną losową określoną na (Ω,F,P) o wartościach w przestrzeni mierzalnej (E,B). Funkcję P X G : Ω B [,1] nazywamy regularnym rozkładem warunkowym X pod warunkiem σ-ciała G jeżeli spełnia: (i) dla każdego ω Ω P X G (ω, ) jest rozkładem probabilistycznym na (E,B), (ii) dla każdego B B ω P X G (ω,b) jest G mierzalne oraz P X G (,B) = P(X B G) p.n. 13
14 ROZDZIAŁ 2. TWIERDZENIE YAMADY-WATANABE O JEDNOZNACZNOŚCI Zachodzi następujące stwierdzenie: Stwierdzenie 2.3. Jeżeli X jest zmienną losową o wartościach w (E, B) i istnieje regularny rozkład warunkowy, to dla dowolnej funkcji ϕ : E R mierzalnej względem σ-ciał B i B(R) oraz takiej, że E ϕ(x) < zachodzi E(ϕ(X) G) = ϕ(x)p X G (,dx) p.n. Dowód. Jeżeli ϕ = 1 B, B B, to korzystając z warunku (ii) Definicji 2.2 mamy E(1 B (X) G) = P(X B G) = P X G (,B) = 1 B (x)p X G (,dx) p.n. E Dalej dowód przebiega standardowo: sprawdzamy warunek dla ϕ prostych, ϕ = n i=1 a i1 Bi, następnie dla ϕ i w końcu dla dowolnych ϕ, ϕ = ϕ + ϕ. Jeżeli przestrzeń (E, ρ) jest przestrzenią polską wyposażoną w σ-ciało zbiorów borelowskich B, to regularny rozkład warunkowy zawsze istnieje: Twierdzenie 2.4. Niech X będzie zmienną losową o wartościach w przestrzeni polskiej (E, B), określoną na (Ω,F,P) i niech G będzie σ-ciałem zawartym w F. Wtedy istnieje regularny rozkład warunkowy X pod warunkiem G. Dowód. Każda przestrzeń polska jest izomorficzna z borelowskim podzbiorem R, dlatego wystarczy udowodnić twierdzenie w przypadku, gdy (E, B) = (R, B(R)). Załóżmy zatem, że (E,B) = (R,B(R)). Dla q Q kładziemy F(q,ω) := P(X q G)(ω) gdzie P(X q G) jest jakąś wersją prawdopodobieństwa warunkowego (które, jak wiemy jest zdefiniowane tylko z dokładnością do równości p.n.). Zauważmy, że P(X q G) 1 p.n. Jeśli q 1 q 2, q 1,q 2 Q, to {X q 1 } {X q 2 }, a więc P(X q 1 G) P(X q 2 G) p.n. Ponadto lim n P(X n G) = 1 p.n. oraz lim n P(X n) =, więc Odrzucając z Ω przeliczalną sumę zbiorów o prawdopodobieństwie widzimy, że istnieje Ω, P( Ω) = 1 takie, że F(q 1,ω) F(q 2,ω) Ω q 1 q 2,q 1,q 2 Q, ω Ω lim F( n,ω) =, lim F(n,ω) = 1 n n ω Ω. Ustalmy dowolne t R i ω Ω. Weźmy dowolny ciąg liczb wymiernych q n ց t. Wtedy ciąg F(q n,ω) jest nierosnący i ograniczony, ma więc granicę, którą oznaczamy przez F(t,ω). Z monotoniczności F(,ω) na Q jest jasne, że ta granica nie zależy od wyboru ciągu przybliżającego t. Zauważmy, że dla każdego ω Ω tak zdefiniowana funkcja t F(t,ω) jest niemalejąca i prawostronnie ciągła. Ponadto, lim t F(t,ω) =, lim t F(t,ω) = 1. Zatem F(,ω) jest dystrybuantą pewnej miary probabilistycznej µ ω na (R,B(R)). Niech { µ ω (B) jeśli ω P X G (ω,b) = Ω δ (B) ω / Ω
2.1. REGULARNY ROZKŁAD WARUNKOWY 15 (zamiast delty Diraca w zerze moglibyśmy wziąć dowolną ustaloną miarę probabilistyczną.) Tak zdefiniowane P X G jest regularnym rozkładem warunkowym X pod warunkiem G. Warunek (i) Definicji 2.2 zachodzi w sposób oczywisty. Warunek (ii) też, bo jeżeli q n ց t, q n Q, to dla ω Ω F(q n,ω) F(t,ω) = µ ω(dx) = P X G (ω,(,t]). (tj. F(q n, ) p.n. P X G (,(,t])). Z drugiej strony F(q n, ) = P(X q n G) P(X t G). Zatem dla każdego t R p.n. P X G (,(,t]) = P(X t G) p.n. Zbiory postaci (,t] tworzą π-układ, zaś zbiory B B(R) spełniające równość P X G (,B) = P(B G) p.n. tworzą λ-układ, zatem z lematu o π i λ-układach otrzymujemy, że warunek (ii) Definicji 2.2 jest spełniony. Stwierdzenie 2.5. Przy założeniach Twierdzenia 2.4 regularny rozkład warunkowy X pod warunkiem G jest jednoznaczny w następującym sensie: Jeżeli K,K : Ω B [,1] spełniają warunki (i) i (ii) Defnicji 2.2, to istnieje zbiór N G, taki że P(N) = oraz dla wszystkich ω Ω\N oraz B B(R) zachodzi K(ω,B) = K (ω,b). Dowód. Niech N = {ω : q Q takie, że K(ω,(,q]) K (ω,(,q])}. Z lematu o π i λ układach wynika, że dla ω Ω\N miary probabilistyczne K(ω, ) i K (ω, ) są równe. Trzeba tylko pokazać, że N G i N ma prawdopodobieństwo równe. Dla każdego q Q z warunku (ii) wynika, że ω K(ω,(,q]) jest G -mierzalne i to samo zachodzi dla K, zatem {ω : K(ω,(,q]) K (ω,(,q])} G. Ponadto, również z (ii) mamy K(ω,B) = P(X B G)(ω) = K (ω,b),dla P prawie wszystkich ω. To oznacza, że P({ω : K(ω,(,q]) K (ω,(,q])}) =. Zbiór N jest przeliczalną sumą zbiorów tej postaci, więc teza zachodzi. Jeżeli dodatkowo wiadomo, że σ-ciało G jest generowane przez pewną inną zmienną losową Y, to można mówić o regularnym rozkładzie warunkowym X pod warunkiem Y w sensie takim, jak w następnym Twierdzeniu. Twierdzenie 2.6. Jeżeli spełnione są założenia Twierdzenia 2.4 i dodatkowo G = σ(y) dla pewnej zmiennej losowej Y : Ω S, gdzie (S,S) jest pewną przestrzenią mierzalną, to istnieje Q : S B [,1] takie, że (i) dla każdego y S Q(y, ) jest rozkładem probabilistycznym na (E, B), (ii) dla każdego B B funkcja y Q(y,B) jest S mierzalna oraz Q(Y,B) = P(X B Y) p.n. Ponadto, Q jest wyznaczone jednoznacznie z dokładnością do zbioru µ Y -miary zero, gdzie µ Y oznacza rozkład zmiennej losowej Y. Dokładniej, jeżeli Q i Q mają własności (i) oraz (ii) to istnieje zbiór N S taki, że P(Y N) = taki, że dla wszystkich y S\N i wszystkich B B zachodzi Q(y,B) = Q (y,b).
16 ROZDZIAŁ 2. TWIERDZENIE YAMADY-WATANABE O JEDNOZNACZNOŚCI Q jw. nazywa się regularnym rozkładem warunkowym X pod warunkiem Y, albo też jądrem przejścia z Y do X. Twierdzenie 2.6 dowodzi się niemal identycznie jak Twierdzenie 2.4, zauważając, że ponieważ P(X q Y) jest Y mierzalne, to istnieje funkcja mierzalna f q : S R taka, że P(X q Y) = f q (Y) p.n. i pracując dalej z funkcjami (y,q) f q (y). Alternatywnie, można przejść najpierw do przestrzeni kanonicznej i wykorzystać poprzednie twierdzenie. 2.2 Dowód Twierdzenia Yamady-Watanabe Przypuśćmy, że mamy dwa słabe rozwiązania równania (2.1): {(Ω (1),F (1),P (1) ),(F (1) t ) t,(w (1),X (1) )} oraz {(Ω (2),F (2),P (2) ),(F (2) t ) t,(w (2),X (2) )}. Główny pomysł polega na przeniesieniu tych słabych rozwiązań na wspólną przestrzeń probabilistyczną, gdyż wtedy będziemy mogli skorzystać z jednoznaczności w sensie trajektorii. Słabe rozwiązanie (W (i),x (i) ), i = 1,2 wygodnie będzie reprezentować równoważnie w postaci trójki (X (i),w(i),y (i) ), gdzie Y i = X (i) X (i). Wprowadźmy oznaczenia: C d = C([, ),R d ) przestrzeń funkcji ciągłych określonych na R +, o wartościach w R d. Niech B(C d ) oznacza σ-ciało podzbiorów C d generowane przez cylindry. Zauważmy, że B(C d ) jest jednocześnie σ-ciałem zbiorów borelowskich, gdy C d rozważyć z topologią zbieżności niemal jednostajnej, C d jest wtedy przestrzenią polską. Niech µ będzie rozkładem początkowym, µ X (1) X (2). Niech ponadto P oznacza miarę Wienera na B(C m ), tzn. rozkład m-wymiarowego procesu Wienera na przestrzeni funkcji ciągłych C m. Przyjmijmy Ω :=R d C m C d C d F :=B(R d ) B(C m ) B(C d ) B(C d ) Elementy Ω będziemy zwykle oznaczać (x,w,y 1,y 2 ). Niech Q (i) (Q (i) (x,w,dy i )) będzie regularnym rozkładem warunkowym Y (i) pod warunkiem (X (i),w(i) ). Jako prawdopodobieństwo na (Ω, F) kładziemy P(dxdwdy 1 dy 2 ) = Q (1) (x,w,dy 1 )Q (2) (x,w,dy 2 )P (dw)µ(dx). Rozważmy proces kanoniczny Z t (x,w,y 1,y 2 ) = (x,w(t),y 1 (t),y 2 (t)). Zauważmy, że bezpośrednio z konstrukcji otrzymujemy, iż (x,w,y 1 ) na przestrzeni (Ω,F,P) ma ten sam rozkład co(x (1),W(1),Y (1) ) oraz(x,w,y 2 ) ma ten sam rozkład co(x (2),W(2),Y (2) ). Oznaczmy dodatkowo przez (F t ) t filtrację generowaną przez proces kanoniczny Z, uzupełnioną o zbiory miary P-zero tj. F t = σ(x,w(s),y 1 (s),y 2 (s) : s t) = B(R d ) B w t B y 1 t B y 2 t, (2.2) gdzie B w t B(C m ), B y i t B(C d ), B w t = σ{w(s) : s t}, B y i t = σ{y i (s) : s t}. Druga równość w (2.2) wynika z faktu, że odpowiednie przestrzenie są ośrodkowe. Zachodzą następujące fakty:
2.2. DOWÓD TWIERDZENIA YAMADY-WATANABE 17 Lemat 2.7. Jeżeli A B y 1 t, to (x,ω) Q (1) (x,ω,a) jest mierzalne względem B(R d ) B w t. Dowód. Dla uproszczenia oznaczeń niech Q := Q (1). Dla każdego ustalonego t > istnieje regularny rozkład warunkowy y 1 pod warunkiem (x,(w(s)) s [,t] ). Oznaczmy go przez Q t. Z definicji regularnego rozkładu warunkowego wynika, że (x,w) Q t (x,w,a) jest B(R d ) B w t mierzalne. Należy więc tylko wykazać, że dla A B y 1 t zachodzi Q t (,A) = Q(,A) µ P p.n. (2.3) (Uwaga. Wykażemy równość prawie na pewno, dlatego musimy uzupełnić σ-ciało.) Niech C B(R d ) Bt w. Wtedy, bezpośrednio z definicji regularnego rozkładu warunkowego mamy P(C A C d ) = Q t (x,w,a)µ(dx)p (dw). (2.4) C Z drugiej strony, z definicji prawdopodobieństwa P dla każdego C B(R d ) B w P(C A C d ) = Q(x,w,A)µ(dx)P (dw). (2.5) Zatem C Q t (x,w,a)µ(dx)p (dw) = C C Q(x,w,A)µ(dx)P (dw) (2.6) dla C B(R d ) Bt w. Trzeba jeszcze pokazać, że to samo zachodzi dla dowolnego C B(R) B w. Ponieważ zbiory C spełniające (2.6) tworzą λ-układ, wystarczy pokazać, że (2.6) zachodzi dla π-układu złożonego ze zbiorów postaci C = B (Γ 1 Γ 2 ), gdzie Γ 1 B w t, Γ 2 B w >t := σ((w(t+u) w(t)) u ) B w. Dla takich C mamy C Q t (x,w,a)µ(dx)p (dw) = Q t (x,w,a)1 B (x)1 Γ1 (w) 1 }{{} Γ2 (w)µ(dx)p (dw). B(R d ) Bt w mierzalne P jest miarą Wienera, więc korzystając z niezależności Bt w i Γ 2 przy P = Q t (x,w,a)1 B 1 Γ1 (w)µ(dx)p (dw) P (Γ 2 ) używając (2.6) dla zbioru C = B Γ 1 = Q(x,w,A)1 B 1 Γ1 (w)µ(dx)p (dw) P (Γ 2 ) = P(B Γ 1 A C d )P(Γ 2 ) = P (1) (X B,W (1) Γ 1,X (1) X (1) A)P (1) (W (1) Γ 2 )
18 ROZDZIAŁ 2. TWIERDZENIE YAMADY-WATANABE O JEDNOZNACZNOŚCI (W,X) jest słabym rozwiązaniem, więc w szczególności (W (1) t+s W(1) t ) s jest procesem niezależnym od (W s,x s ) s t, gdyż (W,X) jest adaptowane do filtracji (F (1) ) i (W (1) t+s W(1) t ) s nie zależy od F (1) t, bo W (1) jest procesem Wienera względem tej filtracji = P (1) (X B,W (1) Γ 1,X (1) X (1) A,W (1) Γ 2 ) = P (1) ((X (1),W(1),Y (1) ) C A) = P(C A C d ) = Q(x,w,A)µ(dx)P (dw). C Zatem równość (2.6) zachodzi dla wszystkich C B(R d ) B w. Stąd wynika (2.3). Lemat 2.8. {(Ω,F,P),(F t ),(w,x +y 1 )} oraz {(Ω,F,P),(F t ),(w,x + y 2 )} są słabymi rozwiązaniami równania (2.1). Dowód. Jest jasne, że w jest procesem Wienera na (Ω,F,P). Należy pokazać, że w jest procesem Wienera względem filtracji (F t ), tzn. dla r > t w(r) w(t) jest niezależne od F t. Niech A 1 B y 1 t,a 2 B y 2 t, B B(R d ) Bt w. Wtedy dla r > t i dowolnego x R d mamy Ee i x,w(r) w(t) 1 A1 (y 1 )1 A2 (y 2 )1 B (x,w) = e} i x,w(r) w(t) {{} Q (1) (x,w,a 1 )Q (2) (x,w,a 2 )1 B (x,w) µ(dx)p }{{} (dw) Ω nzal. od B(R d ) Bt w B(R d ) B w t mierzalne (Lemat 2.7) = e x2 (r t) 2 2 P(B A 1 A 2 ) = Ee i x,w(r) w(t) P(B A 1 A 2 ). Stąd wynika, że w(r) w(t) jest niezależne od F t. Sprawdzenie, że (w,x+y 1 ) spełnia równanie jest nietrudne, gdyż ( x,w,y 1, b(y 1 (s))ds+ ) σ(y 1 (s))dw(s) ma ten sam rozkład co (X (1),W(1),Y (1),Y (1) ), bo X (1) +Y (1) spełnia równanie. Wszystkie procesy są ciągłe, zatem y 1 jest nieodróżnialne od b(y 1(s))ds+ σ(y 1(s))dw(s). Tak samo sprawdza się, że (w,x+y 2 ) także jest słabym rozwiązaniem. Ciąg dalszy dowodu Twierdzenia 2.1: (a) Jeżeli (W (1),X (1) ) i (W (2),X (2) ) są słabymi rozwiązaniami, to zgodnie z opisaną wyżej konstrukcją na przestrzeni (Ω, F, P) z filtracją (F t ) t (x,w,y 1 ) oraz (x,w,y 2 ) są słabymi rozwiązaniami. Z jednoznaczności w sensie trajektorii otrzymujemy P((x,w,y 1,y 2 ) Ω) : y 1 y 2 ) = 1. (2.7) Oznacza to w szczególności, że (x,w,y 1 ) ma ten sam rozkład co (x,w,y 2 ), tj. X (1) x + y 1 x + y 2 X (2), gdzie oznacza równość rozkładów. Kończy to dowód pierwszej części twierdzenia jednoznaczności w sensie rozkładu.
2.2. DOWÓD TWIERDZENIA YAMADY-WATANABE 19 (b) Jak poprzednio, przypuśćmy, że (W (1),X (1) ) i (W (2),X (2) ) są dowolnymi słabymi rozwiązaniami (mogą również być te same). Z (2.7) mamy Zawsze 1 =P((x,w,y 1,y 2 ) Ω) : y 1 y 2 ) = Q (1) (x,w,dy 1 )Q (2) (x,w,dy 2 )µ(dx)p (dy) R d C m {(y 1,y 2 ):y 1 y 2 } {(y 1,y 2 ):y 1 y 2 } Q (1) (x,w,dy 1 )Q (2) (x,w,dy 2 ) 1 i µ P jest miarą probabilistyczną, więc aby (2.7) zachodziło musimy mieć Q (1) (x,w,dy 1 )Q (2) (x,w,dy 2 ) = 1 dla µ P p.w. (x,w). (2.8) {(y 1,y 2 ):y 1 y 2 } Lewa strona równania (2.8) jest równa C d Q (1) (x,w,{y})q (2) (x,w,dy) Q (1) (x,w,{y}) 1, a Q (2) (x,w,dy) jest miarą probabilistyczną, więc równość (2.8) zachodzi wtedy i tylko wtedy, gdy Q (1) (x,w,{y}) = 1 dla y należących do nośnika miary Q (2) (x,w, ). Zatem dla µ P -p.w. (x,w) zarówno Q (1) (x,w, ) jak i Q (2) (x,w, ) są miarami punktowymi skupionymi w tym samym punkcie. Oznaczmy go przez h(x,w). Mamy Q (1) (x,w, ) = Q (2) (x,w, ) = δ h(x,w). Funkcja h jest mierzalna, bo Q (i) były mierzalne względem (x,w). Wykazaliśmy zatem, że y 1 = y 2 = h(x,w). Z Lematu 2.7 wynika również, że (x,w) h(x,w) jest też mierzalne w sensie B(R d ) B w t dla każdego t. Zatem, dla każdego słabego rozwiązania (X,W,X X ) mamy X = X +h(x,w), więc jest to mocne rozwiązanie.
2 ROZDZIAŁ 2. TWIERDZENIE YAMADY-WATANABE O JEDNOZNACZNOŚCI
Rozdział 3 Słabe rozwiązania a problem martyngałowy 3.1 Definicja problemu martyngałowego Jak poprzednio rozważamy równanie dx t = b(t,x t )dt+σ(t,x t )dw t, X = x. (3.1) Dla uproszczenia zapisu ograniczymy się do przypadku jednowymiarowego, ale wszystko jest prawdziwe także w wielu wymiarach. Oznaczmy a(t,x) = σ 2 (t,x). (W większym wymiarze powinniśmy brać a = σσ T ). Zakładamy, że b i σ są borelowskie i ograniczone. Ponadto, niech L t f(x) = b(t,x)f (x)+ 1 2 a(t,x)f (x), f C 2 C 2 Zauważmy, że jeżeli { Ω, F, P},( Ft ),(W,X) jest słabym rozwiązaniem równania (3.1) i f (tj. funkcja ciągła o nośniku zwartym), to ze wzoru Itô otrzymujemy f(x t ) =f(x )+ =f(x)+ f (X s )b(s,x s )ds+ L s f(x s )ds+ Zatem dla każdego f C 2 proces f(x t ) f(x) f (X s )σ(s,x s )dw s + 1 2 σ(x s )f (X s )dw s L s f(x s )ds σ 2 (s,x s )ds jest martyngałem. Proces X jest ciągły, więc można go traktować jako zmienną losową o wartościach w przestrzeni funkcji ciągłych C = C([, )). Zauważmy, że gdy C rozważamy z topologią zbieżności niemal jednostajnej, to odpowiednie σ-ciało zbiorów borelowskich jest 21
22 ROZDZIAŁ 3. SŁABE ROZWIĄZANIA A PROBLEM MARTYNGAŁOWY tożsame z σ-ciałem generowanym przez cylindry. Oznaczmy to σ-ciało przez B. Przestrzeń C z metryką d(x,y) = n=1 1 ( 2 n sup2 n 1 t<2 n x(t) y(t) 1) jest przestrzenią polską i jej topologia jest równoważna topologii zbieżności niemal jednostajnej. Przez Z oznaczmy proces kanoniczny zdefiniowany na (C, B), tzn. Z t (ω) = ω(t). Niech µ X oznacza rozkład X na przestrzeni (C,B). Wtedy proces kanoniczny Z na przestrzeni probabilistycznej (C,B,µ X ) ma taki sam rozkład jak proces X określony na ( Ω, F, P). Stąd wynika, że dla każdej funkcji f C 2 proces f(z t ) f(x) L s f(z s )ds (3.2) określony na przestrzeni probabilistycznej (C,B,µ X ) jest martyngałem. Ponadto, jest to martyngał względem filtracji B t := σ((ω(s) : s t). Niech F : R + C C będzie zdefiniowana jako F(t,ω) = f(ω(t)) f(x) L s f(ω(s))ds ω F(t,ω) jest oczywiście B t mierzalne, więc proces (F(t, )) t jest adaptowany do filtracji (B t ) t. Wystarczy jeszcze tylko sprawdzić, że dla dowolnych s < t i dowolnego zbioru A B s zachodzi E µx F(t,Z)1 A = E µx F(s,Z)1 A. Obie strony tego równania zależą tylko od rozkładu Z, który jest taki sam jak rozkład X, zatem żądana równość zachodzi, bo (F(t,X)) t jest martyngałem. Powyższe rozumowanie jest motywacją do wprowadzenia następującej definicji: Definicja 3.1. (Problem martyngałowy) Mówimy, że problem martyngałowy (x, a, b) ma rozwiązanie jeżeli istnieje miara probabilistyczna P na przestrzeni kanonicznej C taka, że dla dowolnej funkcji f C 2 proces zdefiniowany w (3.2) jest martyngałem względem filtracji (B t) oraz P(Z = x) = 1. Tę miarę probabilistyczną P nazywamy rozwiązaniem problemu martyngałowego (x, a, b). Uwaga 3.2. (a) Już pokazaliśmy, że jeżeli (W, X) jest słabym rozwiązaniem (3.1), to rozkład X jest rozwiązaniem problemu martyngałowego (x, a, b). (b) Jeżeli P jest rozwiązaniem problemu martyngałowego, to dla każdej funkcji f : R R klasy C 2 proces (3.2) jest martyngałem lokalnym. Dowód jest standardowy, przez stopowanie. Stwierdzenie 3.3. Jeżeli P jest rozwiązaniem problemu martyngałowego (x,a,b), to M t = Z t x b(s,z s )ds jest ciągłym martyngałem lokalnym względem filtracji (B t ) t, startującym z zera, o wariacji kwadratowej M t = a(s,z s )ds. (3.3) Dowód na ćwiczeniach. Wskazówka: zastosować Uwagę 3.2 (b) dla f(x) = x i f(x) = x 2.
3.2. SŁABE ROZWIĄZANIA A PROBLEM MARTYNGAŁOWY 23 3.2 Słabe rozwiązania a problem martyngałowy Twierdzenie 3.4. Równanie (3.1) ma słabe rozwiązanie wtedy i tylko wtedy, gdy problem martyngałowy (x, a, b) ma rozwiązanie. Dokładniej, {P : P = µ X, gdzie X spełnia (3.1)} = {P : P jest rozw. probl. martyngałowego (x,a,b)}. Dowód. Już pokazaliśmy, że jeżeli (W, X) jest słabym rozwiązaniem, to rozkład X jest rozwiązaniem problemu martyngałowego. Pozostaje pokazać, że jeżeli P jest rozwiązaniem problemu martyngałowego, to istnieje rozwiązanie równania (3.1), które ma rozkład P. Niech P będzie rozwiązaniem problemu martyngałowego (x, a, b) i niech M będzie martyngałem lokalnym ze Stwierdzenia 3.3. Rozważmy najpierw prostszy przypadek gdy σ(t, y) dla wszystkich t, y. Zdefiniujmy W t = 1 σ(s,z s ) dm s. W jest dobrze zdefiniowane, bo proces podcałkowy jest prognozowalny oraz W t = 1 σ 2 (s,z s ) a(s,z s)ds = t. Zatem W jest procesem Wienera względem (B t ) t. Ponadto zachodzi σ(s,z s )dw s = dm s = M t = Z t x b(s,z s )ds. To oznacza, że {(C,B,P),(B t ) t,(w,z)} jest słabym rozwiązaniem równania (3.1). Rozważmy teraz ogólny przypadek, bez założenia, że σ. Aby skonstruować słabe rozwiązanie musimy rozszerzyć przestrzeń probabilistyczną. Niech (Ω,F,P ) będzie dowolną przestrzenią probabilistyczną, na której określony jest proces Wienera V. Kładziemy oraz ˆΩ = C Ω, F ˆ = B F ˆP = P P, Ft ˆ = B t F t ˆM(ω,ω ) = M(ω), ˆV(ω,ω ) = V(ω ) Ẑ t (ω,ω ) = ω(t). Zauważmy, że tak zdefiniowane procesy ˆM i ˆV są niezależne oraz adaptowane do filtracji( F ˆ t ) t. Ponadto, ˆM jest martyngałem lokalnym względem filtracji ( Ft ˆ) t, a ˆV jest procesem Wienera względem tej filtracji. Niech 1 t W t = σ(s,ẑs) 1 {σ(s, Ẑ d ˆM s) } s + 1 {σ(s, Ẑ dˆv s)=} s. Całki są dobrze zdefiniowane oraz W t = +2 1 ˆM σ 2 (s,ẑs) 1 {σ(s, Ẑ a(s,ẑs)d s) } + s 1 σ(s,ẑs) 1 {σ(s,ẑs) } 1 {σ(s,ẑs)=} d ˆM, ˆV 1 {σ(s, Ẑ d s)=} ˆV s s
24 ROZDZIAŁ 3. SŁABE ROZWIĄZANIA A PROBLEM MARTYNGAŁOWY Zauważmy, że ostatnia całka znika, a z pozostałych dwóch otrzymujemy W t = ( ) 1 {σ(s, Ẑ + 1 s) } {σ(s, Ẑ s)=} = t. Zatem, z twierdzenia Lévy ego wynika, że W jest procesem Wienera względem ( F ˆ t ) t. Sprawdzimy, że (Ŵ,Ẑ) jest słabym rozwiązaniem równania (3.1). W tym celu obliczamy Zachodzi σ(s,ẑs)dw s = = ˆM t 1 {σ(s, Ẑ s)=} d ˆM s 1 σ(s,ẑs) σ(s,ẑs) 1 {σ(s, Ẑ d ˆM s) } s + t = 1 {σ(s, Ẑ s)=} d ˆM s. σ(s,ẑs)1 {σ(s, Ẑ s)=} dˆv s 1 {σ(s, Ẑ d s)=} ˆM = 1 s {σ(s, Ẑ a(s,ẑs)ds s)=} =. Zatem proces 1 {σ(s,ẑs)=} d ˆM s jest nieodróżnialny od procesu stale równego i otrzymujemy σ(s,ẑs)dw s = ˆM t = Ẑt x a więc (Ŵ,Ẑ) jest słabym rozwiązaniem równania (3.1). b(s,ẑs)ds, 3.3 Twierdzenie Stroocka-Varadhana o istnieniu słabych rozwiązań Celem tego podrozdziału jest wykazanie następującego twierdzenia. Twierdzenie 3.5. Załóżmy, że b i σ są ograniczone, borelowskie, b i a = σ 2 są ciągłe ze względu na zmienną przestrzenną x. Wtedy istnieje słabe rozwiązanie równania (3.1). Uwaga 3.6. (a) W twierdzeniu nie zakładamy, że σ(t, x) jest ciągłe ze względu na x. Wystarczy tylko, że a jest ciągłe. (b) Twierdzenie Stroocka-Varadhana wraz z twierdzeniem Yamady-Watanabe z poprzedniego rozdziału sugerują możliwość przyjęcia następującej strategii dowodzenia istnienia mocnych rozwiązań: Korzystając z Twierdzenia Stroocka-Varadhana wykazujemy istnienie słabego rozwiązania, a następnie, pokazujemy jednoznaczność w sensie trajektorii. Twierdzenie Yamady-Watanabe mówi, że wtedy każde słabe rozwiązanie jest mocne. Dowód. Korzystając z Twierdzenia 3.4 wystarczy wykazać, że problem martyngałowy (x,a,b) ma rozwiązanie. Niech a (n) i b (n) będą funkcjami takimi, że b (n) i σ (n) = a (n) są lipschitzowskie ze względu na drugą współrzędną, ograniczone oraz dla każdego t a (n) (t, ) a(t, ), b (n) (t, ) b(t, ) niemal jednostajnie (jednostajnie na zbiorach ograniczonych) i wszystkie te funkcje są
3.3. TWIERDZENIE STROOCKA-VARADHANA O ISTNIENIU SŁABYCH ROZWIĄZAŃ25 wspólnie ograniczone. Takie funkcje można łatwo skonstruować splatając b i a z funkcjami gładkimi f n, f n δ, np. f n (x) = nf(nx), gdzie f gładka o nośniku zwartym, f = 1. Wiemy, że równanie z lipschitzowskimi współczynnikami ma słabe rozwiązanie (ma nawet mocne rozwiązanie). Z Twierdzenia 3.4 wynika, że problem martyngałowy (x,a (n),b (n) ) ma rozwiązanie. Oznaczmy to rozwiązanie przez P (n). P (n) jest jednoznaczne, bo równanie z lipschitzowskimi współczynnikami ma rozwiązanie jednoznaczne w sensie trajektorii, a więc i w sensie rozkładów. Główny schemat dowodu polega na 1. wykazaniu, że zbiór miar probabilistycznych {P (n) } n N jest ciasny; 2. skorzystaniu z twierdzenia Prochorowa, aby pokazać, że z ciągu P (n) można wybrać podciąg P (n k) zbieżny do pewnego rozkładu probabilistycznego Q na C ; 3. sprawdzeniu, że otrzymana miara graniczna Q jest rozwiązaniem problemu martyngałowego (x,a,b). Krok 1. Ciasność P (n) : Potrzebne będą następujące lematy pomocnicze. Dowód lematów 3.7 i 3.8 ćwiczenia: Lemat 3.7. Załóżmy, że M jest ciągłym martyngałem, takim że istnieje stała K > niezależna od t,s, że M t M s K t s. Wówczas dla dowolnych δ >, α >, u zachodzi ( ) P sup M t M u > α u t u+δ 2e α2 2Kδ. Wskazówki do dowodu: skorzystać z faktu, że e λ(mt Mu) λ2 2 ( M t Mu ) jest martyngałem kryt. Nowikowa; napisać nierówność maksymalną dla tego martyngału i zminimalizować po λ. Por. dowód prawa iterowanego logarytmu). Dla δ > i T > oraz funkcji ω C niech m T (ω,δ) = oznacza moduł ciągłości na przedziale [,T]. sup ω(t) ω(s) s,t T, s t δ Lemat 3.8. Przy założeniach Lematu 3.7 dla dowolnego T > i α > zachodzi P (m T (M,δ) > α) 2( [ T δ +1)e α2 16Kδ Lemat 3.9. Niech P (n), n = 1,2,... będzie ciągiem miar probabilistycznych na (C,B). Załóżmy, że lim P (n) ({ω : ω() > λ}) =, (3.4) oraz lim sup δց n sup λ n Wtedy ciąg (P (n) ) n jest ciasny w C. P (n) ({ω : m T (ω,δ) > ε}) = T >,ε >. (3.5)
26 ROZDZIAŁ 3. SŁABE ROZWIĄZANIA A PROBLEM MARTYNGAŁOWY Dowód. Dla ustalonego T N i η > korzystając z (3.4) dobierzmy λ >, takie że supp (n) ({ω : ω() > λ}) η n 2 T+1. Ponadto, niech δ k,t,η >, k = 1,2,... będą takie, że Definiujemy zbiory domknięte A T = ( supp (n) {ω : m T (ω,δ k,t,η ) > 1 ) n k } η 2 T+k+1. {ω : ω() λ,m T (ω,δ k,t,η ) 1k,k = 1,2,... }, A = Wówczas P (n) (A T ) 1 η k= = η oraz 2 T+k+1 2 T P (n) (A) 1 T=1 A T. T=1 η = 1 η. (3.6) 2T Z twierdzenia Arzelà-Ascoli wynika, że funkcje z A T obcięte do funkcji na C([,T]) tworzą zbiór zwarty, bo jest to zbiór domknięty, składający się z funkcji jednakowo ciągłych na [,T] i startujących ze zbioru zwartego. W szczególności z każdego ciągu funkcji ω j A, j = 1,2,... można wybrać podciąg zbieżny jednostajnie na [, 1], z tego ciągu można wybrać podciąg zbieżny jednostajnie na [, 2], itd. Używając metody przekątniowej dostajemy, że z każdego ciągu funkcji ω j A można wybrać podciąg zbieżny niemal jednostajnie. A jest domknięty więc funkcja graniczna jest w A. Zatem A jest zbiorem zwartym w C. Stąd i z (3.6) otrzymujemy ciasność (P (n) ) n. Krok 2. Lemat 3.1. Niech P będzie zbiorem miar probabilistycznych na przestrzeni kanonicznej (C, B). Jak zwykle Z oznacza proces kanoniczny. Załóżmy, że (i) Istnieje B R zwarty, taki, że dla każdego P P zachodzi P(Z B) = 1. (ii) Dla każdego P P istnieje ciągły i adaptowany do (B t ) proces V o wahaniu skończonym, taki że V() = oraz M = Z V jest martyngałem przy prawdopodobieństwie P (na ogół V i M zależą od P). (iii) Istnieje stała K niezależna od P taka, że P-p.n. P P t,s M t M s K t s, V t V s K t s. Wówczas P jest warunkowo zwarty. Dowód. Z założenia o V mamy m T (V,δ) Kδ.
3.3. TWIERDZENIE STROOCKA-VARADHANA O ISTNIENIU SŁABYCH ROZWIĄZAŃ27 Ponadto, m T (Z,δ) m T (M,δ) + m T (V,δ). Niech P (n) P, n = 1,2,... Ustalmy dowolne T > i α >, wówczas dla δ < α 2K mamy P (n) (m T (Z,δ) > α) P (n) (m T (M,δ) > α Kδ) P (n) (m T (M,δ) > α 2 ). Z Lematu 3.8 wynika, że spełnione są założenia Lematu 3.9, zatem rodzina (P (n) ) n jest ciasna. Przestrzeń C jest przestrzenią polską. Z twierdzenia Prochorowa wynika, że ciąg P (n) ma podciąg słabo zbieżny do pewnej miary probabilistycznej Q. Krok 3. Wykażemy, że zbiór miar probabilistycznych P = {P (n) : n N}, gdzie P (n) jest rozwiązaniem problemu martyngałowego (x,a (n),b (n) ) jest ciasny. Niech V (n) t = b (n) (s,z s )ds, M (n) t = Z t b (n) (s,z s )ds = Z t V (n) t. Przy prawdopodobieństwie P (n) proces M (n) jest ciągłym martyngałem lokalnym o nawiasie skośnym M (n) t = a(n) (s,z s )ds, bo P (n) jest rozwiązaniem odpowiedniego problemu martyngałowego. Z założenia o a, b i ciągu przybliżeń a (n) i b (n) funkcje te są wspólnie ograniczone. Wynika stąd, że istnieje stała K > niezależna od n taka, że E P (n) M (n) t M (n) s = E P (n) s a (n) (u,z u )du K t s, s,t >. W szczególności otrzymujemy także, że M (n) jest martyngałem przy P (n), nie tylko martyngałem lokalnym. Podobnie, E P (n) V (n) t Vs n K t s. Zatem rodzina P spełnia założenia Lematu 3.1, istnieje więc podciąg n k, taki, że P (n k) Q. Pokażemy, że Q jest rozwiązaniem problemu martyngałowego (x, a, b), tzn. dla każdej funkcji f : R R klasy C 2 o nośniku zwartym proces f(z t ) L u f(z u )du na przestrzeni probabilistycznej (C,B,Q) jest martyngałem względem filtracji (B t ) t. Proces ten jest oczywiście adaptowany do (B t ), wystarczy zatem sprawdzić, że dla dowolnych s < t i A B s zachodzi E Q (f(z t ) ) L u f(z u )du 1 A = E Q (f(z s ) ) L u f(z s )du 1 A. Aby to pokazać wystarczy sprawdzić, że dla każdej funkcji ciągłej i ograniczonej F : C R, która jest B s mierzalna zachodzi E Q (f(z t ) ( L u f(z u )du )F(Z t ) = E Q f(z s ) s ) L u f(z u )du F(Z s ). (3.7)
28 ROZDZIAŁ 3. SŁABE ROZWIĄZANIA A PROBLEM MARTYNGAŁOWY Wiemy, że ( E P (n) f(z t ) ) ( L u (n) f(z u)du F(Z) = E P (n) f(z s ) s ) L (n) u f(z s)du F(Z), (3.8) gdzie L (n) u f(x) = b (n) (u,x)f (x) + 1 2 a(n) (u,x)f (x), bo P (n) jest rozwiązaniem odpowiedniego problemu martyngałowego. Ponadto, L (n) u f zbiega jednostajnie do L u f, gdyż a (n) i b (n) zbiegają niemal jednostajnie do a i b odpowiednio ( oraz f ma zwarty nośnik. Zauważmy także, że dla każdego t funkcja ω F(ω) f(ω(t)) ) t L uf(ω(u))du jest ciągłą i ograniczoną funkcją z C w R, więc skoro P (nk) Q, to ( ( ) lim E k P (n k ) f(z t ) L u f(z u )du )F(Z) = E Q f(z t ) L u f(z u )du F(Z). (3.9) Zauważmy, że E P (n) L u f(z u ) L (n) u (Z u ) du sup L u f(x) L (n) u (x) du Funkcje pod całką po prawej stronie zbiegają do dla prawie wszystkich u i są wspólnie ograniczone przez pewną stałą, co wynika z naszych założeń o a (n),b (n),a i b (zbieżność jednostajna dla każdego u i ograniczoność). Zatem całe wyrażenie zbiega do przy n. Używamy równania (3.8) dla podciągu n k. Standardowy argument polegający na dodaniu i t odjęciue P (n k ) L s uf(z u )du po lewej stronie równania (3.8) i odpowiedniej całkie P (n k )...du po prawej stronie, obserwacji powyżej oraz (3.9) prowadzi do (3.7). x R
Część II Procesy Markowa 29
Rozdział 4 Proces Poissona 4.1 Proces Poissona definicja i konstrukcja Definicja 4.1. Proces (N t ) t nazywa się procesem Poissona z parametrem λ, (λ > ), jeżeli 1. N = ; 2. N ma przyrosty niezależne, tj. dla dowolnych t 1... t n zmienne losowe N t1,n t2 N t1,...,n tn N tn 1 są niezależne; 3. Dla dowolnych s < t zmienna losowa N t N s ma rozkład Poissona z parametrem λt, tj. P(N t N s = k) = (λ(t s))k k! e λ(t s) ; 4. N ma prawostronnie ciągłe trajektorie. Parametr λ nazywa się parametrem intensywności skoków procesu Poissona. Z uwagi na przybliżenie rozkładu dwumianowego rozkładem Poissona, proces Poissona jest dobrym modelem np. dla procesu liczby wezwań centrali telefonicznej, albo liczby szkód zgłoszonych przez klientów towarzystwa ubezpieczeniowego, gdy rozważa się takie rodzaje szkód, o których można założyć, że występują niezależnie u każdego z klientów. Twierdzenie 4.2. Niech ρ 1,ρ 2,... będą niezależnymi zmiennymi losowymi o tym samym rozkładzie wykładniczym z parametrem λ, tj. o gęstości g(x) = λe λx 1 (, ) (x). Ponadto oznaczmy τ =, τ k = ρ 1 +ρ 2 +...+ρ k dla k = 1,2,... Wówczas proces jest procesem Poissona z parametrem λ. N t = sup{k : τ k t}, t R (4.1) Uwaga: Na ćwiczeniach zobaczymy, że każdy proces spełniający warunki 1-4 w Definicji 4.1 ma taką postać. Dowód. Z mocnego prawa wielkich liczb wynika, że τn n Eρ 1 = 1 λ p.n., gdyn, więc τ n. Zatem proces N ma p.n. wartości skończone, całkowite nieujemne. Ponadto P(ρ j >,j = 1,2,...) = 1. Stąd w szczególności N = p.n. Te zbiory miary zero odrzucamy (tj. wykażemy, że proces N jest nieodróżnialny od procesu Poissona, ale procesy nieodróżnialne utożsamiamy). Jest jasne, że proces N zdefiniowany przez (4.1) ma prawostronnie ciągłe trajektorie. 31
32 ROZDZIAŁ 4. PROCES POISSONA Pozostaje wykazać własności 2. i 3. z Definicji 4.1. Najpierw znajdziemy rozkład N t. Wiadomo, że τ k ma rozkład Γ(k,λ), a więc P(τ k t) = 1 e λt k 1 (λt) j j= j!. Stąd P(N t = k) = P(τ k t < τ k+1 ) = P(τ k t) P(τ k+1 t) = (λt)k e λt. k! Zatem N t ma rozkład Poissona z parametrem λt. Można to było również policzyć bezpośrednio: P(N t = k) =P(ρ 1 +...+ρ k t,ρ 1 +...+ρ k+1 > t) = λ k λe λ k+1 i=1 x i dx 1...dx k+1. <x 1 <x 1 +x 2 <...<x 1 +...+x k t<x 1 +...+x k+1 Następnie używamy podstawienia y j = j i=1 x i, j = 1,2,...,k+1 i jak poprzenio, otrzymujemy P(N t = k) = λ k λe λy k+1 dy k dy 1...dy k <y 1 <y 2 <...<y k t<y k+1 = dy 1...dy k λ k e λt <y 1 <y 2 <...<y k t = tk k! λk e λt Pozostaje wykazać, że N ma niezależne przyrosty oraz dla dowolnych s,t > zmienna losowa N t+s N t ma taki sam rozkład jak N s. Ustalmy dowolne t > i oznaczmy ρ (t) 1 = τ Nt+1 t, ρ (t) k = ρ Nt+k, k = 2,3,... -jeśli τ k oznaczają momenty zajścia pewnych zdarzeń, to ρ (t) 1 jest czasem oczekiwania na pierwsze zdarzenie po chwili t, ρ (t) 2 odstęp pomiędzy pierwszym a drugim zdarzeniem po chwili t itd. Wykażemy, że dla dowolnego n N k Z +, r 1,...,r n > zachodzi P(N t = k,ρ (t) 1 > r 1,ρ (t) 2 > r 2,...,ρ (t) n > r n) = P(N t = k)e λr 1...e λrn (4.2) Rozpisując lewą stronę (4.2), korzystając z definicji ρ (t) k, a następnie faktu, że ρ k+2,...,ρ k+n są i.i.d. o rozkładzie wykładniczym i są niezależne od ρ 1,...,ρ k+1 mamy P(N t = k,ρ (t) 1 > r 1,ρ (t) 2 > r 2,...,ρ (t) n > r n) =P(τ k t < τ k +ρ k+1,τ k +ρ k+1 t > r 1,ρ k+2 > r 2,...,ρ k+n > r n ) =P(τ k t < τ k +ρ k+1,τ k +ρ k+1 t > r 1 )e λr 2...e λrn (4.3) Zajmijmy się teraz pierwszym czynnikiem w (4.3). Oznaczmy przez f gęstość rozkładu τ k.
4.1. PROCES POISSONA DEFINICJA I KONSTRUKCJA 33 Wtedy P(τ k t < τ k +ρ k+1,τ k +ρ k+1 t > r 1 ) = = = {x t<x+y,x+y t>r 1 } {x t} =e λr 1 =e λr 1 {t x+r 1 <y} e λ(t x+r 1) f(x)dx e λ(t x) f(x)dx f(x)λe λy dxdy λe λy dyf(x)dx P(ρ k+1 > t x)f(x)dx =e λr 1 P(τ k t < τ k +ρ k+1 ) =e λr 1 P(N t = k). Wstawiając otrzymany wyżej wynik do (4.3) otrzymujemy (4.2). Z (4.2) i lematu o π i λ układach wynika, że N t jest niezależne od (ρ (t) ρ (t) 1,ρ(t) 2 1,ρ(t) 2,...) oraz,... są i.i.d. o rozkładzie wykładniczym z parametrem λ. Stąd łatwo wywnioskować przy pomocy indukcji, że dla każdego n N i dowolnych = s < s 1 < s 2,...,s n, m 1,...m n {,1,2,...} zachodzi P(N sj N sj 1 = m j,j = 1,...,n) = n P(N sj s j 1 = m j ). (4.4) Rzeczywiście, jeżeli n = 1, to równość (4.4) jest oczywista. Przypuśćmy, że mamy (4.4) dla n. Wykażemy, że (4.4) zachodzi też dla n+1. j=1 P(N s1 = m 1,N s2 N s1 = m 2,...,N sn+1 N sn = m n+1 ) = P(N s1 = m 1,N s2 N s1 = m 2,(N s3 N s1 ) (N s2 N s1 ) = m 3,..., (N sn+1 N s1 ) (N sn N s1 ) = m n+1 ). Zauważmy, że proces (N t+s1 N s1 ) t zależy tylko od ρ (s 1) j, j = 1,2,... i to w ten sam sposób w jaki proces (N t ) t zależy od ρ j, j = 1,2,... Stąd i z niezależności N s1 od ρ (s 1) j, j = 1,2,... otrzymujemy P(N s1 = m 1,N s2 N s1 = m 2,N s3 N s2 = m 3...,N sn+1 N sn = m n+1 ) = P(N s1 = m 1 )P(N s2 s 1 = m 2,N s3 s 1 N s2 s 1 = m 3...,N sn+1 s 1 N sn s 1 = m n+1 ). Korzystamy teraz z założenia indukcyjnego i otrzymujemy P(N s1 = m 1,N s2 N s1 = m 2,N s3 N s2 = m 3...,N sn+1 N sn = m n+1 ) = P(N s1 = m 1 )P(N s2 s 1 = m 2 )P(N s3 s 2 = m 3 )P(N sn+1 s n = m n+1 ). Kończy to dowód tożsamości (4.4) i dowód całego twierdzenia, gdyż (4.4) oznacza zarówno to, że przyrosty są niezależne, jak i to, że N t N s ma taki sam rozkład jak N t s dla t > s.
34 ROZDZIAŁ 4. PROCES POISSONA 4.2 Uogólniony proces Poissona Jeżeli N jest procesem Poissona z parametrem λ, to dla każdego t mamy P(N t+h N t = 1) = λh + o(h) oraz P(N t+h N t 2) = o(h) przy czym λ nie zależy od t. Proces jest jednorodny w czasie. W wielu zastosowaniach założenie jednorodności jest zbyt ograniczające, dlatego rozważa się tzw. uogólniony proces Poissona postaci: X t = N f(t), gdzie N jest procesem Poissona z parametrem 1, a f jest niemalejącą funkcją ciągłą f() =. Jeśli f jest klasy C 1, to f (t) jest chwilową intensywnością skoków w chwili t. 4.3 Złożony proces Poissona Definicja 4.3. Złożonym procesem Poissona nazywamy proces X postaci N t X t = ξ k, k=1 gdzie N jest procesem Poissona z parametrem λ, a ξ 1,ξ 2,... są niezależnymi zmiennymi losowymi o rozkładzie µ, niezależnymi też od procesu N. Łatwo sprawdzić (ćwiczenie), że złożony proces Poissona ma przyrosty niezależne i stacjonarne oraz dla s < t przyrost X t X s ma rozkład λ(t s) k e λ(t s) µ k. k! k= Jeżeli ξ mają wartości rzeczywiste, to rozkład ten ma funkcję charakterystyczną Ee iu(xt Xs) = e λ(t s) R (1 eiux )µ(dx).
Rozdział 5 Procesy Markowa - definicja i proste własności W tym rozdziale będziemy rozważać procesy stochastyczne określone na pewnej przestrzeni probabilistycznej (Ω, F, P), przyjmujące wartości w przestrzeni polskiej (E, ρ). Przestrzeń E zawsze rozważamy z σ-ciałem zbiorów borelowskich oznaczanym przez B. Później ograniczymy się do przypadku (E,B) = (R d,b(r d )). T R jest zbiorem indeksów procesu X = (X t ) t T. Oznaczmy też F X t = σ(x s : s t,s T), F X t = σ(x s : s t,s T) 5.1 Definicja procesu Markowa i warunki równoważne Definicja 5.1. Mówimy, że proces (X t ) t T o wartościach w E jest procesem Markowa jeżeli dla dowolnych t T, A F X t i B FX t zachodzi P(A B X t ) = P(A X t )P(B X t ). (5.1) Nieformalnie mówiąc warunek (5.1) oznacza, że pod warunkiem, że znamy stan procesu w chwili obecnej t, przyszłość jest niezależna od przeszłości. Uwaga 5.2. Warunek (5.1) jest symetryczny ze względu na rolę przyszłości i przeszłości. Dlatego, jeżeli X jest procesem Markowa, to proces otrzymany z X przez odwrócenie czasu również jest procesem Markowa. Definicję procesu Markowa można przeformułować na kilka sposobów: Twierdzenie 5.3. Następujące warunki są równoważne: (1) X jest procesem Markowa; (2) t T, ξ F X t mierzalnej, η FX t mierzalnej i takich, że ξ,η,ξη L 1 (Ω,F,P) zachodzi E(ξη X t ) = E(ξ X t )E(η X t ); 35
36 ROZDZIAŁ 5. PROCESY MARKOWA - DEFINICJA I PROSTE WŁASNOŚCI (3) t T, ξ F X t mierzalnej, ξ L1 (Ω,F,P) zachodzi E(ξ F X t ) = E(ξ X t ); (4) t T, A F X t, zachodzi P(A F X t ) = P(A X t ); (5) t T, h > takiego, że t+h T, Γ B zachodzi P(X t+h Γ F X t ) = P(X t+h Γ X t ); (6) t T, h >, t+h T, f : E R borelowskiej i takiej, że f(x t+h ) L 1 (Ω,F,P) zachodzi E(f(X t+h ) F X t ) = E(f(X t+h ) X t ); (7) t T, h >, t+h T, Γ B, s 1 < s 2 <... < s n = t, s j T zachodzi P(X t+h Γ X s1,...,x sn ) = P(X t+h Γ X t ); Uwaga. Odpowiedniki warunków (3)-(7) można sformułować także dla przyszłości. Przypomnienie: wszystkie równości, w których występuje warunkowa wartość oczekiwana są równościami p.n., gdyż warunkowa wartość oczekiwana jest zdefiniowana z dokładnością do równości p.n. Dowód. (1) (2) standardowo: najpierw sprawdzamy (2) dla ξ = 1 A η = 1 B, gdzie A F t X, B FX t, następnie dla funkcji prostych, później dla nieujemnych, korzystając z twierdzenia o zbieżności monotonicznej. W końcu dla dowolnych ξ = ξ + ξ, η = η + η. Implikacja (2) (1) jest oczywista, gdy w (2) przyjmiemy ξ = 1 A η = 1 B, A F t X, B Ft X. Tak samo pokazuje się równoważność (5) (6). (2) (3) : Z definicji warunkowej wartości oczekiwanej, E(ξ X t ) jest Ft X mierzalna. Aby wykazać, że E(ξ Ft X ) = E(ξ X t ) trzeba więc tylko sprawdzić, że dla każdego B Ft X zachodzi E(ξ X t )dp = ξdp. Mamy E(ξ X t )dp = E(1 B E(ξ X t )) = EE ( 1 B E(ξ X t ) ) Xt B B E(ξ X t) jest X t mierzalne = E[E(ξ X t )E(1 B X t )] (2) = EE(ξ1 B X t ) = E(ξ1 B ) = (3) (4) otrzymujemy natychmiast przyjmując ξ = 1 A. (4) (1) : Z (4) wiemy, że P(A F X t ) = P(A X t ). Zmienna losowa P(A X t )P(B X t ) jest σ(x t ) mierzalna. Wiemy też, że σ(x t ) = {{X t Γ} : Γ B}, wystarczy więc sprawdzić, że dla każdego Γ B zachodzi E ( 1 {Xt Γ}P(A X t )P(B X t ) ) = E ( 1 {Xt Γ}1 A 1 B ). B B ξdp.
5.1. DEFINICJA PROCESU MARKOWA I WARUNKI RÓWNOWAŻNE 37 Mamy E 1 {Xt Γ}E(1 A X t ) E(1 B X t ) =EE ( ) 1 {Xt Γ}E(1 A X t )1 B X t }{{} X t mierzalne EE( X t)=e( ) = E ( ) 1 {Xt Γ}E(1 A X t )1 B (4) =E 1 {Xt Γ}1 B E(1 A F X t ) }{{} Ft X mierzalne =EE ( 1 {Xt Γ}1 B 1 A Ft X ) =E(1 {Xt Γ}1 B 1 A ). Wykazaliśmy równoważność pierwszych czterech warunków. (4) (5) jest oczywiste, kładziemy A = {X t+h Γ} F X t. (5) (6) już zauważyliśmy, że pokazuje się tak samo jak (1) (2). (6) (4) : Pokażemy najpierw, że dla dowolnych n N, t = t 1 < t 2 <... < t n, t j T i dowolnych funkcji mierzalnych i ograniczonych f 1,...,f n : E R zachodzi E ( f(x t1 )...f(x tn ) F X t ) = E(f(Xt1 )...f(x tn ) X t ). (5.2) Dowód przez indukcję. (5.2) jest oczywiście prawdziwe dla n = 1. Jeśli n = 2, to E ( f(x t1 )f(x t2 ) F X t ) = f(xt1 )E ( f(x t2 ) F X t ) (6) = f(x t1 )E(f(X t2 ) X t ) = E(f(X t1 )f(x t2 ) X t ). Przypuśćmy, że (5.2) zachodzi dla n, wykażemy, że zachodzi też dla n+1. E ( f(x t1 )...f(x tn )f(x tn+1 ) Ft X ) ( ( =E E f(xt1 )...f(x tn ) f(x }{{} ) F ) ) X tn+1 t n F X t Ftn X mierzalne =E ( f(x t1 )...f(x tn )E ( f(x tn+1 ) Ft X ) ) n F X t (6) =E ( f(x t1 )...f(x tn )E ( ) f(x tn+1 ) X tn F X ) t }{{} =g(x tn ) zal. ind. = E ( f(x t1 )...f(x tn )E ( ) ) f(x tn+1 ) X tn Xt (6) =E ( ( f(x t1 )...f(x tn ) E f(xtn+1 ) F X ) ) t }{{} n Xt Ftn X mierzalne =E ( E ( f(x t1 )...f(x tn )f(x tn+1 ) Ft X ) ) n Xt Wykazaliśmy (5.2) dla n + 1. (5) (7) jest jasne. =E ( f(x t1 )...f(x tn )f(x tn+1 ) X t ).