Marek Beśka, Całka Stochastyczna, wykład 4 48 4 Kilka klas procesów 4.1 Procesy rosnące i przestrzenie V,, loc Jak poprzednio niech (Ω, F, F, P ) będzie zupełną bazą stochastyczną. Definicja 4.1 Proces o wartościach w [, + ] nazywamy rosnącym procesem jeśli dla ω Ω trajektorie ( ) (ω) są niemalejące, cad oraz =. Dla rosnącego procesu istnieje granica = lim t t i oczywiście nie musi ona być skończona. Niech V + (F, P ) = V + oznacza rodzinę rosnących, adaptowanych procesów takich, że t < + dla t oraz V(F, P ) = V oznacza przestrzeń wszystkich procesów, które są różnicą dwóch elementów z V tzn. V = V + V +. Lemat 4.2 Wszystkie procesy należące do klasy V + i klasy V są opcjonalne Dowód. Jeśli proces V + to trajektorie posiadają lewostronne granice. Zatem jest cadlag i z założenia jest adaptowany, a więc jest opcjonalny. Stąd każdy element V jako różnica dwóch elementów procesów opcjonalnych jest opcjonalny. Określimy teraz wahanie (wariację) procesu X. Definicja 4.3 Niech t i niech δ t = { = t, t 1,..., t n = t, gdzie t i 1 < t i dla i = 1,..., n, n 1 będzie podziałem odcinka [, t]. Dla danego podziału δ t określmy S δt (X) = n X ti X ti 1 i=1 Wahaniem (wariacją) procesu na przedziale [, t] nazywamy kres górny sum S δt (X) po wszystkich możliwych podziałach δ t przedziału [, t] tj. V t (X) = sup S δt (X). δ t Uwaga. Zauważmy, że gdy X jest cad lub cag to dla t > mamy V t (X) = lim n n i=1 X t i n X t i 1. n Stąd, jeśli X jest adaptowany to V (X) też. Gdy powyższy kres górny jest nieskończony dla pewnego t to mówimy, że proces X ma wahanie nieskończone. Proces X ma skończone wahanie jeśli V t (X) jest skończone dla każdego t. Bezpośrednio z definicji wahania otrzymujemy następujace własności procesów o skończonym wahaniu:
Marek Beśka, Całka Stochastyczna, wykład 4 49 (i) Dla s t mamy V s (X) V t (X); (ii) Wahanie jest funkcją addytywną przedziału tzn. dla s t mamy V t (X) = V s (X) + Vs t (X) gdzie Vs t (X) jest whaniem X na przedziale [s, t]; (iii) Dla s t zachodzi: (4.1) V t (X)(ω) V s (X)(ω) X t (ω) X s (ω) ; (iv) Kombinacja liniowa i iloczyn procesów o wahaniu skończonym jest procesem o wahaniu skończonym. Lemat 4.4 Zachodzą następujące fakty: (a) Jeśli proces X ma skończone wahanie i jest cad to proces V (X) = {V t (X) t jest rosnący i cad; (b) Niech X będzie cad i niech X = Wtedy X jest adaptowany o skończonym wahaniu wtedy i tylko wtedy, gdy X V. Dowód. (a) Monotoniczność wynika z własności (i) powyżej. Wykażemy, że V t (X) jest cad. Ustalmy t. Z własności (ii) powyżej wystarczy wykazać (4.2) lim V t t + t t (X) =. Niech ε >. Poniewż X jest cad, więc istnieje δ > takie, że dla u spełniającego warunek t < u < t + δ mamy X u X t < ε/2. Istnieje podział t < t 1 <... < t n = t taki, że V t t (X) < Niech t < s < min(t + δ, t 1 ). Wtedy n X ti X ti 1 + ε 2. i=1 V t t (X) X s X t + X t1 X s +... + X tn X tn 1 + ε 2 ε + V t s (X). Skąd V s t (X) < ε. Zatem (4.2) zachodzi. Zauważmy, że mamy również odwrotną własność tzn. jeśli V (X) jest cad to X też, co wynika z (4.1). Dla dowodu (b) załóżmy, że X (X = ) jest adaptowany o skończonym wahaniu. Mamy X = φ(x) ψ(x).
Marek Beśka, Całka Stochastyczna, wykład 4 5 gdzie φ(x) = X + V (X) 2, ψ(x) = V (X) X. 2 Z (4.1) procesy φ(x) i ψ(x) są rosnące. Zatem X V. Załóżmy teraz, że X V, to X = 1 2 dla i V +, i = 1, 2. Oba procesy 1 i 2 są procesami rosnącymi, mają skończone wahanie, więc X ma skończone wahanie. Ponadto X = i X jest adaptowany jako różnica dwóch procesów adaptowanych. Niech V + i niech X będzie takim procesem, że dla ω Ω trajektorie t X t (ω) są borelowskie. Dla ω Ω odwzorowanie [, t] s s (ω) określa dodatnią skończona miarę na [, t]. Możemy rozważyc całkę X s (ω)d s (ω) [,t] jeśli dla ω trajektoria X ( ) (ω) jest całkowalna względem ( ) (ω). Taka całka jest faktycznie całką Lebesgue a-stieltjesa t X s (ω)d s (ω) = X s (ω)d s (ω). Możemy również określić dla V jeśli Wtedy [,t] [,t] [,t] X s d s := [,t] X s (ω)d s (ω) X s d(v () s ) < +. [,t] X s dφ() s X s dψ() s [,t] Lemat 4.5 Niech V i niech X będzie dowolnym procesem dla którego trajektorie X ( ) (ω), ω Ω są całkowalne (skończenie) na przedziale [, t] dla t względem s (ω) to całka Lebesgue a-stieltjesa (proces) jest cad i ma skończone wahanie. Y t (ω) = t X s (ω)d s (ω) Dowód. Własność cad procesu Y wynika z własności cad procesu oraz z własności całki Lebesgue a-stieltjesa. Oznaczmy X + = X, X = ( X), wtedy X = X + X.
Marek Beśka, Całka Stochastyczna, wykład 4 51 oraz U t = W t = t t X + s dφ() s + X + s dψ() s + t t X s dψ() s X s dφ() s są procesami rosnącymi i skończonymi na przedziale [, t] dla t. Zatem mają skończone wahanie, a stąd proces Y = U W ma także skończone wahanie. Zauważmy, że proces Y otrzymaliśmy biorąc całkę Lebesgue a-stieltjesa dla każdej trajektorii oddzielnie i dlatego nie ma powodów aby Y był adaptowany, opcjonalny czy prognozowalny. Żeby otrzymać powyższe własności musimy założyć coś więcej. Lemat 4.6 Zachodzą następujące fakty: 1. Niech V. Jeśli X jest opcjonalny i całka Lebesgue a-stieltjesa Y t = t X s d s, t istnieje (i jest skończona), to Y jest opcjonalny. 2. Niech V. Jeśli X i są prognozowalne i całka Lebesgue a-stieltjesa Y t = t X s d s, t istnieje (i jest skończona), to Y jest prognozowalny. Dowód. Przystąpmy do dowodu 1. Zauważmy najpierw, że V jest opcjonalny oraz V () jest też opcjonalny (bo V () jest cadlag i adaptowany), a więc φ() i ψ() są też opcjonalne. Stąd jeśli zastąpimy przez φ() i ψ() to wystarczy wykazać nasz lemat dla elementów z V +. W dowodzie zastosujemy twierdzenie o klasach monotonicznych. Niech H := { X : t X s d s jest opcjonalny. Zauważmy, że H spełnia założenia twierdzenia o klasach monotonicznych, bo Y t = t 1d s = t = t opcjonalny 1 H i H jest zamknięta na monotoniczne granice. Jako klasę multiplikatywną wystarczy przyjąć zbiór indykatorów przedziałów stachastycznych [[S, [[, gdzie S jest czasem zatrzymania.
Marek Beśka, Całka Stochastyczna, wykład 4 52 Niech więc X = I [[S, [[. t I [[S, [[ (s, ω)d s (ω) = = I [[S, [[ [[,t]] (s, ω)d s (ω) I {S t (ω)i [[S,t]] (s, ω)d s (ω) = I {S t (ω)( t (ω) S (ω)) = I {S t (ω) t (ω) I {S t S (ω), gdzie (X ) t = X t = lim s t X s, (X ) = (jest on oczywiście procesem cag). Obie funkcje I {S t t oraz I {S t S są F t -mierzalne, S = ( ) S jest F S -mierzalny tak więc rozważana całka Lebesgue a- Stieltjesa jest adaptowanym procesem. Ponadto jest ona cadlag. Dowód drugiej części jest podobny do dowodu pierwszej. Zauważmy najpierw, że jeśli jest prognozowalny to V () jest prognozowalny, bo V t () = V t () + t t, t > i procesy V () i są cag i adaptowane, a więc prognozowalne. Z tego, że V () jest prognozowalny wynika, że φ() i ψ() są też prognozowalne. Stąd jeśli zastąpimy przez φ() i ψ() to wystarczy wykazać nasz lemat dla elementów z V +. Określmy H := { X : t X s d s jest prognozowalny. Zauważmy, że H spełnia założenia twierdzenia o klasach monotonicznych. Jako klasę multiplikatywną bierzemy procesy X postaci X = I ]]S, [[ lub X = I { F, gdzie F F. Jeśli X = I { F wtedy t X s d s =. Jeśli X = I ]]S, [[ to mamy t I ]]S, [[ (s, ω)d s (ω) = = I ]]S, [[ ]],t]] (s, ω)d s (ω) I {S<t (ω)i ]]S,t]] (s, ω)d s (ω) = I {S<t (ω) t (ω) I {S<t S (ω),
Marek Beśka, Całka Stochastyczna, wykład 4 53 Proces I {S< jest cag i adaptowany, jest prognozowalny, więc I {S< ( ) jest prognozowalny. Proces I {S< S jest adaptowany (z definicji F S ) i cag, tak więc jest prognozowalny. Rozważmy X V. Ponieważ X jest cadlag, stąd dla t, n 1 i dla ω Ω zbiór { s t : X s (ω) > 1 n zbiór jest skończony. Zatem zbiór {s t : X s jest przeliczalny. Możemy więc rozważać sumy X s I { Xs. s t Zauważmy, że ( ) X s I { Xs = sup X s I { Xs > 1 s t n N n V t (X) < + s t Stąd możemy określić dla X V proces X d wzorem X d t = s t X s I { Xs nazywany nieciągłą częścią procesu X. Stąd V t (X d ) = s t X s I { Xs Część ciągłą procesu określamy jako X c = X X d. Zauważmy, że ( Xt c = lim X t ) X s I n { Xs > 1 n s t jest ciągłym procesem oraz V t (X) = V t (X c ) + V t (X d ). Rozważmy proces X taki, że X + i X mają skończenie całkowalne trajektorie. = c to całka t X s (ω) d s (ω) jest ciągła, jeśli proces posiada skoki s to całka Lebesgue a-stieltjesa też ma skoki postaci ( ) X s (ω) d s (ω) = X t (ω) t (ω). t Na koniec tego wykładu określmy klasę + jako zbiór tych procesów V + dla których jest całkowalny. Oczywiście określamy również = + +. Przez loc oznaczamy zbiór procesów dla których istnieje ciąg lokalizacyjny {T n n N, że dla każdego n IN zachodzi Tn. Jeśli
Marek Beśka, Całka Stochastyczna, wykład 4 54 4.2 Martyngały, submartyngały i supermartyngały z czasem ciągłym Definicja 4.7 Niech dana będzie baza zupełna (Ω, F, P ) z filtracją {F t t I, gdzie I = [a, b] [, + ]. daptowany proces X : I Ω IR nazywamy martyngałem jeśli 1. E X t < + dla każdego t I; 2. E[X t F s ] = X s dla wszystkich s t, s, t I. daptowany proces X : I Ω IR nazywamy submartyngałem jeśli 1. E X t < + dla każdego t I; 2. E[X t F s ] X s dla wszystkich s t, s, t I. daptowany proces X : I Ω IR nazywamy supermartyngałem jeśli 1. E X t < + dla każdego t I; 2. E[X t F s ] X s dla wszystkich s t, s, t I. Przykłady: 1. Niech Y będzie całkowalną (E Y < ) zmienną losową na (Ω, F, P ), to proces X t = E[Y F t ], t [, + ] jest martyngałem. 2. Jeśli X jest supermartyngałem to X jest submartyngałem i odwrotnie. 3. Niech X będzie submartyngałem. Jeśli f jest niemalejącą wypukłą funkcją taką, że E[ f(x t ) ] < + dla każdego t I wówczas proces Z t = f(x t ) jest submartyngałem. Jeśli X jest martyngałem to własność niemalenia f może zostać opuszczona. Stąd mamy Jeśli X jest submartyngałem, to X a (a IR) jest także submartyngałem (w szczególności X + jest wtedy submartyngałem) Jeśli X jest supermartyngałem, to X jest submartyngałem. Jeśli X jest martyngałem i E X p < dla p 1 to Y = X p jest submartyngałem. 4. Każdy martyngał (X n, F n ) n N { z dyskretnym czasem może być rozsze rzony do martyngału z czasem ciągłym. Określmy F t = F n dla t [n, n + 1[, n, X t = X n dla t [n, n + 1[ n. Tak otrzymany proces {X t t jest cadlag martyngałem.
Marek Beśka, Całka Stochastyczna, wykład 4 55 5. Niech P i Q będą miarami probabilistycznymi na (Ω, F), takimi, że Q << P (Q jest absolutnie ciągła względem P ). Niech {F t R + będzie filtracją względem miary P (o własnościach podanych na pierwszym wykładzie). Przez P t i Q t oznaczmy obcięcia P i Q do (Ω, F t ). Rozważmy pochodną Radona-Nikodyma Y = dq dp, Y t = dq t dp t, t IR +. Proces {Y t t [, ] jest P -martyngałem, ponieważ dla każdego F t mamy E[Y F t ] dp = Y dp = Q() = Q t () = Y t dp t = Y t dp. Zatem Y t = E[Y F t ], dla t [, ]. Jeśli założymy dodatkowo, że P << Q to 1/Y jest Q-martyngałem i dla każdego t i F t mamy dq t dq t dp t Q t () = dp t = dq t. dp t dp t dq t Stąd dla każdego t dq t dp t dp t dq t = 1, P p.w.. 6. Proces X nazywamy procesem z niezależnymi przyrostami, jeśli jest adaptowany i przyrosty X t X s dla każdego s i t (s < t) są niezależne od F s. Od razu zauważmy, że jeśli E X t <, t IR + i EX s = EX t dla s, t IR + to X jest martyngałem, bo dla s < t mamy E[X t F s ] = X s + E[X t X s F s ] = X s + E[X t X s ] = X s Jeśli X (X = ) jest cadlag procesem o niezależnych przyrostach nie mającym stałych punktów nieciągłości (tj. dla każdego t mamy P { X t = ) wtedy dla u IR funkcja g(t) = E exp(iux t ) jest ciągła i nigdzie się nie zeruje. Proces Z u t = exp(iux t) E exp(iux t ), t jest martyngałem. W celu udowodnienia tych własności ustalmy u IR i t. Określmy g t = E[exp iux t ], h s,t = E[exp iu(x t X s )]. Z założenia mamy, że X t =, P -p.w. to jest X jest ciągły według prawdopodobieństwa. Stąd g t i h s,t są ciągłe wględem t i s, t odpowiednio. Ponieważ X ma niezależne przyrosty, więc dla s < t mamy g t = g s h s,t.
Marek Beśka, Całka Stochastyczna, wykład 4 56 Niech T będzie określone wzorem T = inf{t : g t =. Jeśli T < + wtedy g s dla s < T i z ciągłości g t mamy g T h s,t = dla s < T i h T T =. le =. Tak więc h T T = E[exp iu(x T X T )] = 1, co daje sprzeczność. Zatem T = + i g t nigdzie się nie zeruje. Wykażemy teraz że Zt u jest martyngałem. Mamy dla s < t Zt u = exp(iux t) E exp(iux t ) = exp(iux s) E exp(iux s ) = Zs u exp[iu(x t X s )] E exp[iu(x t X s )] exp[iu(x t X s )] E exp[iu(x t X s )] Stąd E[Z u t F s ] = Z u s E exp[iu(x t X s )] E exp[iu(x t X s )] = Zu s. 7. Proces X o niezależnych przyrostach nazywamy procesem Poissona jeśli X = oraz istnieje rosnąca ciągła funkcja F taka, że dla dowolnych s < t zmienna losowa X t X s ma rozkład Poissona z parametrem F (t) F (s). Podamy teraz kilka własności procesu Poissona. Istnieje modyfikacja procesu Poissona X, której trajektorie sa cadlag i o wartościach w IN. P -p.w trajektorie sa niemalejące i punkty wzrostu są skokami o całkowitych wielkościach. Jeśli lim t F (t) = + to trajektorie nie są ciągłe Proces Poissona nie ma stałych punktów nieciągłości. Gdy F (t) = λt, λ > (standardowy proces Poissona) to prawdopodobieństwo, że skok w danym skończonym przedziale jest większy od jedynki jest równe zero. Z procesem Poissona związane są dwa martyngały. Y t = X t F (t) oraz Z t = ( X t F (t) ) 2 F (t).
Marek Beśka, Całka Stochastyczna, wykład 4 57 Rzeczywiście, niech s t wtedy E[Y t Y s F s ] = E[X t F (t) ( X s F (s) ) F s ] = E[X t X s F s ] F (t) F (s) = E[X t X s ] F (t) + F (s) =. by sprawdzić, żę Z t jest martyngałem zauważmy E[ ( X t F (t) ) 2 ( F (t) Xs F (s) ) 2 + F (s) Fs ] = E[ ( X t F (t) ) 2 ( Xs F (s) ) 2 Fs ] F (t) + F (s) = E[ ( (X t F (t)) (X s F (s)) ) 2 Fs ] F (t) + F (s) = 8. Proces B nazywamy ruchem Browna (względem filtracji {F t ) jeśli. B = B jest procesem o niezależnych przyrostem i stcjonarnym to jest rozkład B t B s zależy tylko od różnicy t s (t > s.) Przyrosty B t B s mają rozkład normalny N(, σ 2 (t s)) (t > s). Trajektorie są ciągłe. Gdy σ = 1 proces B nazywamy standardowym ruchem Browna. Jak łatwo zauważyć ruch Browna jest martyngałem E[B t B s F s ] = E[B t B s ] = dla s t. Związny z nim jest jescze jeden martyngał Rzeczywiście dla s t mamy Y t = B 2 t σ 2 t, t IR +. E[Y t Y s F s ] = E[B 2 t B 2 s σ 2 (t s) F s ] = E[(B t B s ) 2 σ 2 (t s) F s ] = σ 2 (t s) σ 2 (t s) =. Fakt. Niech (X n, F)n) n będzie submartyngalem (dyskretnym) oraz T i : Ω IN { dla i = 1, 2,..., m będą czasami czasami zatrzymania takimi, że T 1 T 2,... T m N IN. Wtedy (X Ti, F Ti ) m i=1 jest submartyngałem. Dowód. Mamy E X Ti = N k= {T i =k X k dp N E X k <. k=
Marek Beśka, Całka Stochastyczna, wykład 4 58 Dla a IR mamy {X Ti a {T i = k = {X k a {T i = k F k, zatem X Ti jest F Ti mierzalna zmienna losową. Dla zakończenia dowodu trzeba jeszcze udowodnić dla i = 1, 2,..., m 1 nierówność E(X Ti+1 F Ti ) X Ti lub równoważną X Ti+1 dp F F X Ti dp dla F F Ti. Ponieważ F = N k= {T i = k F, więc wystarczy wykazać X Ti+1 dp X Ti dp dla k =, 1,..., N. F {T i =k F {T i =k Ostatnią nierówność możemy zapisać w postaci X Ti+1 N dp X Ti+1 k dp dla k =, 1,..., N 1. F {T i =k F {T i =k Dla dowodu której wystarczy dla k s N 1 wykazać X Ti+1 s dp X Ti+1 (s+1) dp dla k =, 1,..., N 1. F {T i =k F {T i =k Mamy X Ti+1 s dp = F {T i =k F {T i =k {T i+1 >s F {T i =k {T i+1 >s F {T i =k {T i+1 >s F {T i =k {T i+1 s+1 X Ti+1 s dp = X s dp X s+1 dp = F {T i =k {T i+1 s X s+1 dp = F {T i =k {T i+1 <s+1 F {T i =k {T i+1 <s+1 F {T i =k {T i+1 <s+1 F {T i =k Dowód Faktu został zakończony. Uwaga. Przy założeniach jak w powyższym Fakcie mamy X Ti+1 s dp + X Ti+1 dp + X Ti+1 dp + X Ti+1 dp + X Ti+1 (s+1) dp. (4.3) E(X Ti ) E(X Ti+1 ), i = 1, 2,..., m 1.
Marek Beśka, Całka Stochastyczna, wykład 4 59 Twierdzenie 4.8 Niech I = [a, b] [, ]. 1. Jeśli X jest cad submartyngałem na I to dla każdego λ > zachodzą nierówności: (i) (ii) P {sup t I X t > λ 1 λ E[ ] 1 X b I {sup t I X t>λ λ E[X+ b ]. P { inf t I X t < λ 1 ( E[X a ] + E [ X b I λ { inf t I X t λ] ). 2. Jeśli Y jest cad supermartyngałem na I, to dla λ > mamy nierówność P { sup t I Y t > λ 1 ( E[Y a ] E [ Y b I λ { sup t I Y t λ] ). 3. Jeśli proces X jest cad martyngałem (lub dodatnim cad submartyngałem) na I oraz E[ X t p ] <, t dla pewnego 1 < p < to E [ sup t I X t p] ( ) p p ( ) p p sup E[ X t p ] = E[ X b p ]. p 1 t I p 1 Dowód. 1(i). Ustalmy λ >. Niech F = {t 1,..., t n I = [a, b]. Określmy { inf{t F : Xt > λ, gdy istnieje t F takie, że X T 1 = t > λ, b gdy nie istnieje t F takie, że X t > λ oraz T 2 b. Wtedy T 1 T 2. Stąd i z (4.3) mamy Stąd Zatem E(X b ) = E(X T2 ) E(X T1 ) = E(X T1 I {supt F X t>λ)+ E(X T1 I {supt F X t λ) = E(X T1 I {supt F X t>λ) + E(X b I {supt F X t λ). {sup t F X t>λ { P sup t F { X b dp E(X T1 I {supt F X t>λ) λp sup t F X t > λ 1 λ E[ ] 1 X b I {sup t F X t>λ λ E[X+ b ]. X t > λ. Niech teraz {F n n 1 będzie ciągiem skończonych zbiorów F n I, F n F n+1, n 1 takich, że n=1 F n = K = Q I {b. Zachodzi wzór { { sup X t > λ = t F n n=1 Mając na uwadze powyższy wzór dostajemy { { (4.4) P sup X t > λ = lim P sup X t > λ t K n t F n sup t K X t > λ. 1 lim n λ E[ ] X b I {sup t Fn X t>λ.
Marek Beśka, Całka Stochastyczna, wykład 4 6 Stosując teraz do prawej strony (4.4) twierdzenie Lebesgue a o zbieżności majoryzowanej otrzymujemy ostatecznie { P sup t K X t > λ 1 λ E[ ] 1 X b I {sup t K X t>λ λ E(X+ b ). Ponieważ X jest cad, więc { sup t K { X t > λ = sup X t > λ, t I co kończy dowód 1(i). Przejdziemy teraz do dowodu 1(ii). Ustalmy λ >. Niech F = {t 1,..., t n I = [a, b]. Określmy T 1 = a oraz { inf{t F : Xt < λ, gdy istnieje t F takie, że X T 2 = t < λ, b gdy nie istnieje t F takie, że X t < λ. Mamy T 2 T 1, stąd i z (4.3) dostajemy E(X T2 ) E(X T1 ) = EX a. Zatem EX a E(X T2 I {inft F X t< λ) + E(X T2 I {inft F X t λ) Powyższa nierówność jest równoważna E(X T2 I {inft F X t< λ) EX a + E(X T2 I {inft F X t λ), z której otrzymujemy { λp inf X t < λ E(X T2 I {inft F X t F t< λ) EX a + E(X b I {inft F X t λ). Niech teraz {F n n 1 będzie ciągiem skończonych zbiorów F n I, F n F n+1, n 1 takich, że n=1 F n = K = Q I {b. Zachodzi wzór { { inf X t < λ = inf X t < λ. t F n t K n=1 Mając na uwadze powyższy wzór dostajemy { { P inf X t < λ = lim P inf X t < λ t K n t F n (4.5) 1 [ lim EXa + E(X b I n λ {inft Fn Xt λ ) ]. Stosując teraz do prawej strony (4.5) twierdzenie Lebesgue a o zbieżności majoryzowanej otrzymujemy ostatecznie { P inf X t < λ 1 EXa + E(X b I t K λ[ ] {inft K X t λ).
Marek Beśka, Całka Stochastyczna, wykład 4 61 Ponieważ X jest cad, więc { inf X t < λ = t K { inf X t < λ, t I co kończy dowód 1(ii). by udowodnić część 2 twierdzenia zauważmy, że Y jest cad submartyngałem. Stosując teraz do niego wzór 1(ii) dostajemy tezę. Pozostała nam do udowodnienia część 3 twierdzenia. Niech więc X będzie cad martyngałem lub nieujemnym cad submartyngałem. Wtedy { X t t jest submartyngałem. Stosując do niego wzór z części 1(i) otrzymujemy (4.6) λp {Y > λ E( X b I {Y >λ ), gdzie Y = sup t I X t. Ustalmy L >. Mamy E(Y L) p = pt p 1 P {Y L > t dt = L pt p 1 P {Y L > t dt = L pt p 1 P {Y > t dt Stosując do powyższej równości nierówność (4.6), całkując po t i stosując nierówność Höldera dostajemy gdzie q = Stąd E(Y L) p p p 1 Ω L pt p 1 1 t {Y >t X b dp dt = Ω X b Y L pt p 2 dt dp = X b (Y L) p 1 dp p ( ) 1 ( ) 1 X b p p dp (Y L) (p 1)q q dp, p 1 Ω Ω p p 1. Po uproszczeniu otrzymujemy Ω (Y L) p dp p ( ) 1 ( ) 1 X b p p dp (Y L) p q dp. p 1 Ω Ω E[(Y L) p ] Przechodząc z L dostajemy ( p ) pe Xb E(Y p ) p = p 1 ( p ) pe Xb p. p 1 ( p p 1 ) p sup E( X t p ). t I Definicja 4.9 Rodzinę zmiennych losowych {X t t T nazywamy jednostajnie całkowalną jeśli lim sup X t dp = λ + t T { X t >λ
Marek Beśka, Całka Stochastyczna, wykład 4 62 Wniosek 4.1 Jeśli proces X jest cad martyngałem (lub dodatnim cad submartyngałem) na I = [a, b] [, ] to rodzina {X t t I jest jednostajnie całkowalna. Dowód. Zachodzi nierówność X t dp { X t >λ Z twierdzenia 4.8 część 1(i) mamy { X t >λ X b dp {sup t I X t >λ P {sup t I X t > λ 1 λ E[ X b ], λ. X b dp. Teraz tezę otrzymujemy z twierdzenia o absolutnej ciągłości całki. Twierdzenie 4.11 Każdy cad submartyngał X = {X t t jest cadlag submartyngałem. Twierdzenie 4.12 Submartyngał X = {X t t ma cad modyfikację wtedy i tylko wtedy, gdy funkcja F (t) = E[X t ] jest prawostronnie ciągła. Z tych dwóch twierdzeń wynika następujący wniosek: Każdy martyngał X = {X t t posiada cadlag modyfikację, dlatego od tego momentu będziemy zawsze zakładać, że rozważane martyngały są cadlag. Twierdzenie 4.13 Zachodzą następujące fakty: (a) Niech {X t t będzie cad submartyngałem takim, że sup E[X t + ] < +. t Wtedy istnieje (skończenie całkowalna) granica lim t X t, P -p.w. (b) Jeśli {X t jest cad submartyngałem i {X t + jest jednostajnie całkowalny to X jest zbieżny P -p.w. do skończenie całkowalnej zmiennej losowej X oraz E[X F t ] X t. (c) Jeśli {X t t jest jednostajnie całkowalnym martyngałem wtedy X jest zbieżny P -p.w. do skończenie całkowalnej zmiennej losowej X oraz E[X F t ] = X t.
Marek Beśka, Całka Stochastyczna, wykład 4 63 Dowód. Dowód (a) wynika z odpowiedniego twierdzenia dla martyngałów dyskretnych. Dla dowodu (b) zauważmy, że z jednostajnej całkowalności {X t + wynika, że sup E[X t + ] < +. t R + Z pierwszej części wynika, że X t X P -p.w. co z kolei pociąga zbieżność X t + P -p.w. a to razem z jednostajną całkowalnością {X t + daje zbieżność X + t Dla F t i dla każdego s mamy X t dp X t+s dp = t X+ w L 1. X + t+s dp X t+s dp. X + Stąd ( ) X t dp lim sup X t+s + dp Xt+s dp = X + dp lim inf X s s t+s dp. Stosując lemat Fatou do prawej strony otrzymujemy X t dp X + dp X dp = X dp. Co kończy dowód (b). Dla dowodu (c) trzeba zastosować (b) do X i do X. Podobne twierdzenie można otrzymać zastępując [, ) przedziałem [a, b). Twierdzenie 4.14 Niech {X t t I, gdzie I = [a, b), a, b [, ] będzie martyngałem. Następujące warunki są równoważne: (i) Istnieje granica lim t b X t w sensie zbieżności L 1. (ii) Istnieje całkowalna (skończenie) zmienna losowa X taka, że E[X F t ] = X t, dla t I. (iii) Rodzina {X t t I jest jednostajnie całkowalna. Każdy z tych warunków implikuje zbieżność {X t t I w L 1 gdy t b oraz [ ] X s = E lim X t Fs t b dla każdego s I. Ponadto, jeśli sup E [ X t p] < + t I dla pewnego p > 1 to warunki (i) (iii) zachodzą oraz lim t b X t istnieje w sensie zbieżności w L p.
Marek Beśka, Całka Stochastyczna, wykład 4 64 Dowód. (i) (ii) Niech s, t I,s < t, F s. Ponieważ X t X b w L 1 (X b := lim t b X t w L 1 ), stąd I X t I X b w L 1 i (ii) (iii) Wynika z wniosku 4.1. E[I X b ] = lim t b E[I X t ] = E[I X s ] (iii) (i) Jeśli {X t t I jest jednostajnie całkowalna to sup E [ X t ] < +. t I Stąd i z twierdzenia 4.13 wynika zbieżność P -p.w co z jednostajną całkowalnością daje zbieżność w L 1. Jeśli to z twierdzenia 4.8 część 3 dostajemy E[sup X t p ] t I [ sup E X t p] < +. t I ( p p 1 ) p sup E[ X t p ] < +. t I Stąd { X t p t I jest jednostajnie całkowalna, a zatem martyngał X jest zbieżny w L p. Twierdzenie 4.15 (GST) (i) Niech X = {X t t będzie cad supermartyngałem o własności: Istnieje skończenie całkowalna zmienna losowa Y taka, że X t E[Y F t ], t. Jeśli S i T są czasami zatrzymania i S T, to zmienne losowe X S i X T całkowalne oraz zachodzi nierówność są skończenie X S E[X T F S ]. (ii) Niech X = {X t t będzie cad submartyngałem o własności: Istnieje skończenie całkowalna zmienna losowa Y taka, że X t E[Y F t ], t. Jeśli S i T są czasami zatrzymania i S T, to zmienne losowe X S i X T całkowalne oraz zachodzi nierówność są skończenie X S E[X T F S ]. (iii) Niech X = {X t t będzie (cadlag) martyngałem z własnością:
Marek Beśka, Całka Stochastyczna, wykład 4 65 Istnieją skończenie całkowalne zmienne losowe Y 1, Y 2 takie, że E[Y 1 F t ] X t E[Y 2 F t ], t. oraz niech S i T będą czasami zatrzymania i S T. Wtedy zmienne losowe X S i X T są skończenie całkowalne oraz zachodzi równość X S = E[X T F S ]. Podobne twierdzenie można otrzymać zastępując [, ) przedziałem [a, b). Uwaga. Z lematu 1.15 wynika, że tezę GST możemy zapisać w postaci np. dla martyngału: Dla dowolnych czasów zatrzymania S i T zmienne losowe X S i X T są skończenie całkowalne oraz E(X T F S ) = E ( E(X T F T ) F S ) = E(XT F T S ) = X T S. Wniosek 4.16 Niech X = {X t t będzie cad submartyngałem i T 1, T 2 będą czasami zatrzymania oraz T 1 T 2. Każdy z poniższych warunków: (i) Istnieje t > takie, że T 2 t ; (ii) Rodzina {X + t t jest jednostajnie całkowalna implikuje skończoną całkowalność X T1 i X T2 oraz nierówność X T1 E[X T2 F T1 ]. Dowód. Załóżmy, że zachodzi (i). Wtedy dla przedziału [, t ) dostajemy X s E(X t F t ), s [, t ). Stąd z i twierdzenia 4.15 dostajemy tezę. Załóżmy, że (ii) zachodzi. Wtedy z twierdzenia 4.13 (b) mamy X t E(X F t ), t. Stosując teraz twierdzenie 4.15 dostajemy tezę. Wniosek 4.17 Niech X będzie cad submartyngałem, a T czasem zatrzymania. Proces X T jest submartngałem względem filtracji {F t T t. Dowód. Dla każdego s t mamy T s T t t. Zatem założenie (i) wniosku 4.16 jest spełnione dla czasów zatrzymania T s i T t.
Marek Beśka, Całka Stochastyczna, wykład 4 66 Wniosek 4.18 Niech X będzie cad submartyngałem, a T czasem zatrzymania. Proces X T jest submartngałem względem filtracji {F t t. Dowód. Niech s t. Z wniosku 4.17 i z równości (lemat 1.15) E[E[X F T ] F S ] = E[X F S T ] zastosowanej dla X := X T t, T := T t, S := s mamy E[X T t F s ] = E[E[X T t F T t ] F s ] = E[X T t F T s ] X T s Definicja 4.19 Rodzinę wszystkich jednostajnie całkowalnych cadlag martyngałów będziemy oznaczać przez M. Wniosek 4.2 Niech T będzie czasem zatrzymania. Jeśli X M to X T M. Dowód. Ponieważ X jest jednostajnie całkowalny to istnieje skończenie całkowalna zmienna losowa X taka, że X = {X t t jest martyngałem tzn. X t = E(X F t ), t. Stosując teraz ogólne twierdzenie o stopowaniu (twierdzenie 4.15) dla T i dla T t mamy E[X T F t ] = E[E[X T F T ] F t ] = E[X T F T t ] = X T t Stąd rodzina {X T t t jest jednostajnie całkowalna. Wniosek 4.21 Niech X będzie adaptowanym cadlag procesem na [, ] Ω takim, że E[ X T ] < + oraz E[X T ] = dla każdego czasu zatrzymania T, to X M. Dowód. Niech t i F t i T = t. Zachodzi równość (4.7) X t dp + X dp = E[X T ] =. Dla T = + mamy (4.8) Z (4.7) i z (4.8) mamy dla wszystkich F t, czyli I dowód jest zakończony. X dp + X dp = E[X T ] =. X dp = X t dp X t = E[X F t ].
Marek Beśka, Całka Stochastyczna, wykład 4 67 4.3 Twierdzenia o rozkładzie Definicja 4.22 Mówimy, że cad proces X należy do klasy D jeśli rodzina {X T T Λ gdzie Λ jest zbiorem wszystkich skończonych czasów zatrzymania jest jednostajnie całkowalna. Można udowodnić, że M D oraz + D. Przy konstrukcji całki stochastycznej ważną rolę odgrywa następujące twierdzenie o rozkładzie Twierdzenie 4.23 (Doob-Meyer) Niech X będzie cad supermartyngałem należącym do klasy D. Istnieje jedyny prognozowalny rosnący proces należący do klasy + taki, że X+ jest jednostajnie całkowalnym martyngałem tj. X = M, gdzie X D, M M, +. Jeśli X jest ciągły to M i też są ciągłe. Korzystając z tego twierdzenia można udowodnić Twierdzenie 4.24 (Dellacherie) Niech. Istnieje jedyny prognozowalny à taki, że à M. Jeśli B jest standardowym ruchem Browna to jak już nam wiadomo proces {B 2 t t t R + jest martyngałem. Tak więc B 2 można przedstawić w postaci sumy prognozowalnego procesu {t i martyngału {B 2 t. le wartość oczekiwana E[B 2 t ] = t gdy t. Tak więc {B 2 t nie jest jednostajnie całkowalny. Zachodzi więc potrzeba rozszerzenia twierdznie o rozkładzie dla szerszej klasy. Definicja 4.25 Proces X nazywamy lokalnym martyngałem, jeśli jest cadlag oraz istnieje lokalizacyjny ciąg czasów zatrzymania {T n taki, że dla każdego n IN mamy X Tn M. Zbiór lokalnych martyngałów będziemy oznaczać przez M loc. Lemat 4.26 Każdy martyngał jest lokalnym martyngałem. Dowód. Rozważmy ciąg czasów zatrzymania T n = n dla n IN. Z wniosku 4.18 dla każdego n proces X Tn jest martyngałem. Udowodnimy, że jest on jednostajnie całkowalny. Mamy (X Tn ) = X n, a stąd X Tn s = X s n = E[X n F s ] = E[X Tn F s ]. Zatem X Tn M. Podobnie określamy lokalne submartyngały i lokalne supermartyngały.
Marek Beśka, Całka Stochastyczna, wykład 4 68 Twierdzenie 4.27 Niech X będzie cad lokalnym supermartyngałem lub lokalnym submartyngałem to X D loc. Dowód. Załóżmy, że X = {X t t jest cad lokalnym supermartyngałem. Na mocy założenia istnieje ciąg lokalizacyjny {T n taki, że X Tn jest supermartyngałem dla każdego n IN. Określmy S n = inf{t : X t > n, oraz R n = T n S n n. Zauważmy, że R n +. Zatrzymany proces X Rn = ( X Tn) S n n jest supermartyngałem, bo dla każdego s takiego, że s t mamy (z wniosku 4.18) Stąd dla t > n dostajemy E[X Rn t F s ] X Rn s (4.9) E[X Rn F s ] X Rn s n + X + R n, a stąd X Rn s n + X + R n + E[ X Rn F s ] Zmienna losowa n + X + R n jest skończenie całkowalna i rodzina {E[ X Rn F t ] t jest jednostajnie całkowalna, więc z (4.9) rodzina {X Rn t t jest jednostajnie całkowalna. Tak więc możemy stosować ogólne twierdzenie o stopowaniu dla T 1 = + i dla dowolnego skończonego czasu zatrzymania T. Mamy E[X Rn F T ] X Rn T n + X + R n. Stąd rozumując podobnie jak poprzednio dostajemy jednostajną całkowalność rodziny {X Rn T T Λ. Co kończy dowód twierdzenia dla lokalnych supermartyngałów. Gdy X jest lokalnym submartyngałem, to X jest lokalnym supermartyngałem i wystarczy zastosować już udowodnioną część twierdzenia. Twierdzenie 4.28 Niech X będzie cad lokalnym supermartyngałem. Wtedy istnieje jedyny prognozowalny rosnący proces + loc taki, że X + M loc. Dowód. Ponieważ X jest lokalnym supermartyngałem, więc istnieje ciąg lokalizacyjny {T n n 1 taki, że dla każdego n 1 X Tn jest supermartyngałem, a z twierdzenia 4.27 wynika, że X Tn D loc tzn. istnieje ciag lokalizacyjny {S n n 1 taki, że (X Tn ) Sn = X Tn Sn D. Z wniosku 4.18 (X Tn ) Sn jest supermartyngałem. Zatem z twierdzenia Dooba-Meyera (przyjmujemy R n = T n S n, n 1) otrzymujemy dla każdego n 1 X Rn = M (n) (n), gdzie M (n) M, (n) +, prognozowalny. Stąd m n mamy M (m) (m) = X Rm = (X Rn ) Rm = (M (n) ) Rm ( (n) ) Rm.
Marek Beśka, Całka Stochastyczna, wykład 4 69 Zatem dla m n z jednoznaczności rozkładu w twierdzeniu Dooba-Meyera dostajemy (4.1) M (m) = (M (n) ) Rm, (m) = ( (n) ) Rm. Możemy określić teraz procesy M i, mianowicie dla ustalonego t istnieje m takie, że t R m. Zatem przyjmujemy M t = M (m) t, t = (m) t. Z (4.1) wynika, że są one dobrze określone, bo dla t R m R n mamy M t = M (m) t = (M (n) ) Rm t = M (n) R m t = M (n) t. Podobnie t = (m) t = ( (n) ) Rm t = (n) R m t = (n) t. Z definicji M i oraz jeszcze raz z jednoznaczności rozkładu Dooba-Meyera mamy M Rn t = M (n) t, M (n) M, zatem M M loc oraz Rn t = (n) t, (n) +, zatem + loc, gdzie jest prognozowalny, bo takie były (n) dla n 1. Mamy więc rozkład Jednoznaczność rozkładu. Niech X = M, gdzie M M loc, + loc. oraz X = M (1) (1), gdzie M (1) M loc, (1) + loc X = M (2) (2), gdzie M (2) M loc, (2) + loc Ponadto niech {T n n 1, {S n n 1, {R n n 1, {V n n 1, {W n n 1 będą ciągami lokalizacyjnymi dla X, M (1), M (2), (1), (2) odpowiednio. Określmy Z n = T n S n R n V n W n, n 1. Wtedy (M (1) ) Zn,(M (2) ) Zn M, ( (1) ) Zn,( (2) ) Zn + dla n 1 oraz (M (1) ) Zn ( (1) ) Zn = (M (2) ) Zn ( (2) ) Zn, n 1. Z jednoznaczności rozkład Dooba-Meyera mamy dla n 1 (M (1) ) Zn = (M (2) ) Zn, ( (1) ) Zn = ( (2) ) Zn. ponieważ Z n, gdy n, zatem dla t mamy M (1) t = M (2) t, (1) t = (2) t. Twierdzenie to posiada następujące uogólnienie (rozkład Meyera-Dellacherie)
Marek Beśka, Całka Stochastyczna, wykład 4 7 Twierdzenie 4.29 Niech loc, wtedy istnieje jedyny prognozowalny à loc (kompensator) taki, że à M loc. Przykład. Proces Poissona X należy do loc oraz X t F (t) M loc (bo jest martyngałem). Tak więc F jest prognozowalnym kompensatorem procesu X Definicja 4.3 Proces X nazywamy semimartyngałem jeśli jest cadlag i istnieje reprezentacja X = X + M +, gdzie X jest zmienną losową F - mierzalną, M M loc, M = i V. Jeśli loc to X nazywamy semimartyngałem specjalnym. Zauważmy, że (lokalny) supermartyngał i submartyngał są specjalnymi semimartyngałami. Twierdzenie 4.31 Niech = { t t będzie prognozowalnym procesem należącym do V +. Wtedy + loc oraz istnieje ciąg lokalizacyjny {T n n 1 taki, że dla każdego n 1 mamy Tn n. Dowód. Wystarczy znaleźć ciąg lokalizacyjny {T n n 1 taki, że Tn n, bo wtedy Tn jako, że E ( Tn ) = E ( Tn ) n. Rozważmy rodzinę zbiorów B n = {(t, ω) : t (ω) n, n 1. Każdy B n jest prognozowalny i zawiera wykres [[D Bn ]] (bo jest cad z definicji V + ), gdzie D Bn (ω) = inf{t : (t, ω) B n = inf{t : t (ω) n jest debiutem zbioru B n. Przyjmijmy S n = D Bn dla n 1. Z twierdzenia 3.19 S n dla n 1 są prognozowalnymi czasami zatrzymania. Dla każdego S n istnieje jego ciąg zapowiadający {S n,m m 1. Ponieważ S n > (bo jest cad) więc S n,m < S n. Określmy T n (ω) = sup S k,m (ω), ω Ω. k n m n Zauważmy, że {T n n 1 jest niemalejący, T n, gdy n, bo S n. Ponadto mamy T n (ω) < S n (ω), bo T n (ω) = S k,n (ω) < S k (ω) S n (ω) dla pewnego 1 k n, gdzie ω Ω. stąd t (ω) n dla t [, T n (ω)]. Zatem ciąg {T n n 1 spełnia żądania twierdzenia. Wniosek 4.32 Niech V będzie prognozowalnym procesem. Wtedy loc oraz istnieje istnieje ciąg lokalizacyjny {T n n 1 taki, że dla każdego n 1 mamy Tn n.
Marek Beśka, Całka Stochastyczna, wykład 4 71 Dowód. Rozkładamy = φ() ψ(), gdzie φ() = + V () 2 V +, ψ() = V () 2 V + i oba procesy są prognozowalne (patrz dowód lematu 4.6). Stosujemy twierdzenie 4.31 do 2φ() i 2ψ(). Niech {S n n 1 i {R n n 1 będą ciagami lokalizacyjnymi spełniającymi tezę twierdzenia 4.31 dla 2φ() i 2ψ() (odpowiednio). Zatem T n = S n R n, n 1 spełnia on warunki tezy wniosku. Twierdzenie 4.33 Mamy następujące własności: (i) M loc V = M loc loc. (ii) Jeśli X M loc V i jest prognozowalny, to X =. Dowód. (i) Ponieważ loc V, więc musimy wykazać, że M loc V M loc loc. Niech X M loc V. Istnieje ciag lokalizacyjny {T n n 1 taki, że X Tn M dla n 1. Określmy S n = inf{t : V t (X) > n, n 1. Ponieważ X V, więc V t (X) < dla t. Stąd R n = S n T n, gdy n. Ponadto V Rn (X) = V Rn (X) + X Rn n + X Rn n + X Rn + X Rn 2n + X Rn. Z założenia X Rn = X Tn S n jest skończenie całkowalne dla każdego n 1. Stąd V Rn (X) jest skończenie całkowalne dla każdego n 1 tzn. X loc. (ii) Niech X M loc V. Z (i) mamy X M loc loc. Rozważmy rozkład X = φ(x) ψ(x), gdzie φ(x) = X + V (X) 2 + loc, V (X) X ψ(x) = 2 + loc. Ponieważ X jest prognozowalny, to φ(x) i ψ(x) są też prognozowalne. Ponadto X = φ(x) ψ(x) M loc. Stąd ψ(x) jest prognozowalny kompensatorem φ(x). Z drugiej strony φ(x) jest również swoim prognozowalnym kompensatorem, bo φ(x) φ(x) = M loc. Z jednoznaczności kompensatora dostajemy φ(x) = ψ(x). Stąd X =. Z twierdzenia tego dostajemy natychmiast Wniosek 4.34 Jeśli X M c loc V, to X =. Lemat 4.35 (P. Lévy) Niech X będzie skończenie całkowalną zmienną losową na przestrzeni probabilistycznej (Ω, F, P ), a {F n n 1 dyskretną filtracją na niej. Wtedy E(X F n ) n E(X F ) P - p.w. i w L 1 (Ω, F, P ), gdzie F = n 1 F n.
Marek Beśka, Całka Stochastyczna, wykład 4 72 Dowód. Oznaczmy Y n = E(X F n ). Wtedy {Y n n 1 jest jednostajnie całkowalnym martyngałem (względem filtracji {F n n 1 ). Jak wiadomo wtedy martyngał ten jest zbieżny P - p.w. i w L 1 (Ω, F, P ) do pewnej F - mierzalnej zmiennej losowej Y. Wykażemy, że E(X F ) = Y, P - p.w. Niech F n 1 F n. Wtedy istnieje m 1 takie, że F F n, n m oraz Y n dp = E(X F n ) dp = X dp. n m Stąd i ze zbieżności {Y n n 1 w L 1 (Ω, F, P ) dostajemy (4.11) Y dp = X dp. F F F Jak wiadomo rodzina n 1 F n jest algebrą, a więc w szczególności π - układem. Natomiast (jak łatwo sprawdzić) rodzina tych F F, które spełniają (4.11) jest λ - układem. Z twierdzenia o π i λ - układach dostajemy tezę. Twierdzenie 4.36 Niech X M i niech T będzie prognozowalnym czasem zatrzymania. Wtedy (i) X T jest skończenie całkowalna. (ii) E ( X T F T ) = na {T >. Dowód. Niech {T n n 1 będzie ciągiem zapowiadającym prognozowalny czas zatrzymania T. Z wniosku 2.19 mamy F T = n 1 F Tn. F F Ponieważ X M, więc z ogólnego twierdzenia o stopowaniu (twierdzenie 4.15) mamy E ( X T X Tn F Tn ) =, n 1. Stąd {X Tn n 1 jest martyngałem (jednostajnie całkowalnym) względem {F Tn n 1. Zatem (X T X Tn )I {T > zmierza P - p.w. i w L 1 do X T I {T >. Stąd i z lemtu Lévy ego (lemat 4.35) otrzymujemy E ( I {T > X T F T ) = I{T > lim n E( X T F Tn ) = I {T > lim E( X T lim X ) ( ) T n m m F Tn = I{T > lim XTn X Tn =. n Lemat 4.37 Niech X + loc, a X niech będzie jego kompensatorem. Wtedy dla każdego prognozowalnego czasu zatrzymania T mamy X T = E( X T F T ) na {T <.
Marek Beśka, Całka Stochastyczna, wykład 4 73 Dowód. Niech {T n n 1 będzie ciągiem lokalizacyjnym dla X + loc (możemy go wybrać tak aby T n były dla n 1 skończone np. T n n). Wtedy M = X Tn Tn X M oraz z twierdzenia 4.36 i z tego, że M = mamy = E [ (X X) Tn T F T ] = E [ X T n T Tn X T F T ] = E [ X T n T F ] T XT n T, bo X Tn T Tn = X T Tn X T jest F T - mierzalne. Zatem mamy E [ X Tn T F T Stąd ({T T n F T ) dla n 1 dostajemy E [ X Tn T Powyższe równanie możemy zapisać w postaci ] = XT n T. I ] {T T n F T = XT n T I {T T n. E [ X T I {T Tn F T ] = XT I {T Tn, n 1. Stosując teraz twierdzenie Beppo-Levi dla warunkowych wartości oczekiwanych oraz korzystając z tego, że lim n I {T Tn = I {T < dostajemy E [ X T F T ] = XT na {T <. Twierdzenie 4.38 Niech X loc będzie procesem dopuszczającym skoki tylko w totalnie nieosiągalnych czasach stopu. Wtedy prognozowalny kompenstaor X procesu X ma ciągłe trajektorie. Odwrotnie, jeśli X + loc i X ma ciągłe trajektorie, to X dopuszcza skoki tylko w totalnie nieosiągalnych czasach zatrzymania. Dowód. Z twierdzenia 3.23 mamy = {X X = n 1[[T n ]], gdzie T n, n 1 są totalnie nieosiągalne. Stąd dla każdego prognozowalnego czasu zatrzymania T mamy [[T ]] =, czyli X T =. Ponieważ X = φ(x) ψ(x), gdzie φ(x), ψ(x) + loc oraz = X T = V T (X) = V T (X) + X T 2 + V T (X) X T 2 więc φ(x) T = ψ(x) T =. Stąd i z lematu 4.37 dostajemy na {T < = φ(x) T + ψ(x) T, φ(x) T = E [ φ(x) T F T ] =, ψ(x)t = E [ ψ(x) T F T ] =,
Marek Beśka, Całka Stochastyczna, wykład 4 74 co implikuje X T = φ(x) T ψ(x) T = na {T <. W szczególności X t = dla t. Załóżmy teraz, że X + loc oraz kompensator X ma ciągłe trajektorie i niech T będzie prognozowalnym czasem zatrzymania. Z lematu 4.37 mamy = X T = E [ ] X T F T na {T <. Stąd = E( X T I {T < ) = E( X T I {T < ), ale X T, P - p.w. na {T <. Zatem X T =, P - p.w. na {T <, więc skoki X nie obciążają żadnego prognozowalnego czasu zatrzymania. Tezę dostajemy teraz z wniosku 3.25. Uwaga. Zauważmy, że przy założeniu X loc i X + loc ostatnia teza nie musi być prawdziwa. Rozważmy przykład: Niech X = M +, gdzie c loc oraz M M loc loc jest taki, że {, gdy t < 1, M t = Y, gdy t 1, gdzie Y jest F 1 - mierzalna zmienną losową taką, że E Y < i E(Y ) =. Zuważmy, że z rozkładu Mayera-Dellacherie mamy X =. Kompensator ma zatem ciągłe trajektorie ale proces X dopuszcza skoki w prognozowalnym czasie zatrzymania T 1.