Wstęp do Analizy Stochastycznej

Podobne dokumenty
Wstęp do Analizy Stochastycznej

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

Zadania z Procesów Stochastycznych 1

F t+ := s>t. F s = F t.

Teoria ze Wstępu do analizy stochastycznej

Zadania ze Wstępu do Analizy Stochastycznej 1. = 0 p.n.

Ośrodkowość procesów, proces Wienera. Ośrodkowość procesów, proces Wienera Procesy Stochastyczne, wykład, T. Byczkowski,

4 Kilka klas procesów

Zadania z Rachunku Prawdopodobieństwa III - 1

21 maja, Mocna własność Markowa procesu Wienera. Procesy Stochastyczne, wykład 13, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126

n=0 Dla zbioru Cantora prawdziwe są wersje lematu 3.6 oraz lematu 3.8 przy założeniu α = :

8 Całka stochastyczna względem semimartyngałów

A i. i=1. i=1. i=1. i=1. W dalszej części skryptu będziemy mieli najczęściej do czynienia z miarami określonymi na rodzinach, które są σ - algebrami.

Wykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga

2 Rodziny zbiorów. 2.1 Algebry i σ - algebry zbiorów. M. Beśka, Wstęp do teorii miary, rozdz. 2 11

Zadania z Rachunku Prawdopodobieństwa II Podaj przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności

Zadania z Rachunku Prawdopodobieństwa II Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,

3. Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,

Prawa wielkich liczb, centralne twierdzenia graniczne

Rodzinę F złożoną z podzbiorów zbioru X będziemy nazywali ciałem zbiorów, gdy spełnione są dwa następujące warunki.

Rozdział 6. Ciągłość. 6.1 Granica funkcji

jest ciągiem elementów z przestrzeni B(R, R)

1 Relacje i odwzorowania

PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω)

Prawdopodobieństwo i statystyka

7 Twierdzenie Fubiniego

Zadania do Rozdziału X

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

Robert Kowalczyk. Zbiór zadań z teorii miary i całki

Rozdział 4. Ciągi nieskończone. 4.1 Ciągi nieskończone

Notatki z Analizy Matematycznej 2. Jacek M. Jędrzejewski

7. Miara, zbiory mierzalne oraz funkcje mierzalne.

Teoria miary i całki

Seria 1. Zbieżność rozkładów

Wykład 21 Funkcje mierzalne. Kostrukcja i własności całki wzglȩdem miary przeliczalnie addytywnej

G. Plebanek, MIARA I CAŁKA Zadania do rozdziału 1 28

O pewnych klasach funkcji prawie okresowych (niekoniecznie ograniczonych)

Zadania z RP 2. seria Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n

Korzystając z własności metryki łatwo wykazać, że dla dowolnych x, y, z X zachodzi

}, gdzie a = t (n) )(f(t(n) k. ) f(t(n) k 1 ) 1+δ = 0,

(b) Suma skończonej ilości oraz przekrój przeliczalnej ilości zbiorów typu G α

Wykład 10. Stwierdzenie 1. X spełnia warunek Borela wtedy i tylko wtedy, gdy każda scentrowana rodzina zbiorów domkniętych ma niepusty przekrój.

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Zadania z Analizy Funkcjonalnej I Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi?

Wykłady ostatnie. Rodzinę P podzbiorów przestrzeni X nazywamy σ - algebrą, jeżeli dla A, B P (2) A B P, (3) A \ B P,

Dystrybucje, wiadomości wstępne (I)

1. Struktury zbiorów 2. Miara 3. Miara zewnętrzna 4. Miara Lebesgue a 5. Funkcje mierzalne 6. Całka Lebesgue a. Analiza Rzeczywista.

Teoria miary. WPPT/Matematyka, rok II. Wykład 5

Wykłady... b i a i. i=1. m(d k ) inf

Zdzisław Dzedzej. Politechnika Gdańska. Gdańsk, 2013

zbiorów domkniętych i tak otrzymane zbiory domknięte ustawiamy w ciąg. Oznaczamy

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka

PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA

Rodzinę spełniającą trzeci warunek tylko dla sumy skończonej nazywamy ciałem (algebrą) w zbiorze X.

19 marzec, Łańcuchy Markowa z czasem dyskretnym. Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe

Prawdopodobieństwo i statystyka

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014

Procesy stochastyczne

Wokół nierówności Dooba

Rozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej

Szkice do zajęć z Przedmiotu Wyrównawczego

1 Zbiory. 1.1 Kiedy {a} = {b, c}? (tzn. podać warunki na a, b i c) 1.2 Udowodnić, że A {A} A =.

28 maja, Problem Dirichleta, proces Wienera. Procesy Stochastyczne, wykład 14, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126

Definicja odwzorowania ciągłego i niektóre przykłady

Statystyka i eksploracja danych

WYKŁAD Z ANALIZY MATEMATYCZNEJ I. dr. Elżbieta Kotlicka. Centrum Nauczania Matematyki i Fizyki

Zadania z Rachunku Prawdopodobieństwa III - 1

Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu.

Procesy stochastyczne

domykanie relacji, relacja równoważności, rozkłady zbiorów

Statystyka i eksploracja danych

RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3.

Teoria miary. Matematyka, rok II. Wykład 1

Zadania z Analizy Funkcjonalnej I Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi?

Metody probabilistyczne

1 Elementy analizy funkcjonalnej

Analiza matematyczna. 1. Ciągi

Temperatura w atmosferze (czy innym ośrodku) jako funkcja dł. i szer. geogr. oraz wysokości.

Analiza portfelowa w czasie ciagłym dla ogólnych cen zakupu i sp. ze stałymi kosztami za transakcje

1 Nierówność Minkowskiego i Hoeldera

2. P (E) = 1. β B. TSIM W3: Sygnały stochastyczne 1/27

Rachunek prawdopodobieństwa Rozdział 2. Aksjomatyczne ujęcie prawdopodobieństwa

P(U 1 > max{u 2,..., U 1000 } U 1 = s)dp U1 (s).

Grzegorz Bobiński. Wykład monograficzny Programowanie Liniowe i Całkowitoliczbowe

Zasada indukcji matematycznej

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe

Ciągłość funkcji f : R R

MNRP r. 1 Aksjomatyczna definicja prawdopodobieństwa (wykład) Grzegorz Kowalczyk

1. Funkcje monotoniczne, wahanie funkcji.

5 Przegląd najważniejszych rozkładów

Analiza matematyczna 1 - test egzaminacyjny wersja do ćwiczeń

Procesy stochastyczne

Jak rzucać losowe spojrzenia na ruch Browna by w nim wszystko dojrzeć

Całki niewłaściwe. Całki w granicach nieskończonych

Konstrukcja liczb rzeczywistych przy pomocy ciągów Cauchy ego liczb wymiernych

Transkrypt:

Wstęp do Analizy Stochastycznej Rafał Latała 6 września 21 Poniższy tekst zawiera notatki do wykładów ze Wstępu do Analizy Stochastycznej, prowadzonego w semestrze wiosennym 21 roku. Gwiazdkami oznaczono paragrafy dla których zabrakło czasu w trakcie wykładów (być może niektóre z nich były omówione podczas ćwiczeń) i których znajomość nie będzie wymagana podczas egzaminu, choć mile widziana. U Czytelnika zakłada się znajomość podstawowych faktów z zakresu kursowego wykładu z rachunku prawdopodobieństwa. Wszystkie potrzebne wiadomości można znaleźć w podręcznikach [1] i [3]. Autor przeprasza za wszystkie nieścisłości i omyłki mogące się pojawić w tekście i jednocześnie zwraca się z prośbą do Czytelników, którzy zauważyli błędy lub mają jakieś inne uwagi na temat notatek o ich zakomunikowanie osobiste lub wysłanie na adres emailowy rlatala@mimuw.edu.pl z podaniem wersji notatek (daty), której dotyczą. Dziękuje panom Krzesimirowi Arodziowi, Tomaszowi Badowskiemu, Marianowi Kędzierskiemu i Radomirowi Mastelorzowi za zauważenie literówek w notatkach. 1

1 Podstawowe Definicje. Proces Wienera. Zaczniemy od podania ważnych definicji używanych podczas całego wykładu. Definicja 1. Niech (Ω, F, P) będzie przestrzenią probabilistyczną, (E, E) przestrzenią mierzalną, zaś T dowolnym zbiorem. Procesem stochastycznym o wartościach w E, określonym na zbiorze T, nazywamy rodzinę zmiennych losowych X = (X t ) t T, przyjmujących wartości w zbiorze E. Uwaga 2. W zasadzie w czasie całego wykładu T będzie podzbiorem R (najczęściej przedziałem, niekoniecznie ograniczonym), zaś E = R lub R d. Parametr t można wówczas interpretować jako czas. Definicja 3. Trajektorią procesu X nazywamy funkcję (losową!) t X t (ω), określoną na zbiorze T o wartościach w E. Definicja 4. Powiemy, że proces X = (X t ) t T, T R ma przyrosty niezależne jeśli dla dowolnych indeksów t t 1... t n ze zbioru T, zmienne losowe X t, X t1 X t, X t2 X t1,..., X tn X tn 1 są niezależne. Definicja 5. Mówimy, że proces stochastyczny (X t ) t ma przyrosty stacjonarne, jeśli rozkład X t X s zależy tylko od t s, czyli t>s X t X s X t s X. 1.1 Proces Wienera (Ruch Browna) Definicja 6. Procesem Wienera (Ruchem Browna) nazywamy proces stochastyczny W = (W t ) t taki, że W = p.n.; W ma przyrosty niezależne; Dla s < t zmienna W t W s ma rozkład normalny N (, t s); Trajektorie W są ciągłe z prawdopodobieństwem 1. (W) (W1) (W2) (W3) Uwaga 7. Warunek (W3) oznacza, że istnieje zbiór A taki, że P(A) = 1 oraz dla wszystkich ω A, t W t (ω) jest funkcją ciągłą na [, ). Czasami w definicji procesu Wienera zakłada się, że wszystkie trajektorie są ciągłe oraz W. 2

1.2 *Konstrukcja Procesu Wienera* Podczas następnych wykładów podamy dość abstrakcyjną konstrukcję procesu Wienera opartą o ogólniejsze twierdzenia dotyczące istnienia i ciągłości trajektorii procesów stochastycznych. W tym paragrafie jedynie naszkicujemy alternatywną, bardziej bezpośrednią konstrukcję. Najpierw zdefiniujemy pewne dwa ważne układy funkcji. Definicja 8. Niech I() = {1}, I(n) = {1,..., 2 n 1 }, n = 1, 2,.... Układem Haara nazywamy rodzinę funkcji (h n,k ) k I(n),n=,1,... określonych na [, 1] wzorami h,1 (t) 1 oraz dla k I(n), n 1, h n,k (t) = 2 n 1 2 dla (2k 2)2 n t < (2k 1)2 n 2 n 1 2 dla (2k 1)2 n t < 2k 2 n w pozostałych przypadkach. Definicja 9. Przy oznaczeniach poprzedniej definicji układem Schaudera nazywamy rodzinę funkcji (S n,k ) n=,1,...,k I(n) określonych na [, 1] wzorem S n,k (t) = h n,k(s)ds. Fakt 1. a) Układ Haara jest bazą ortonormalną przestrzeni L 2 [, 1]. b) Dla ustalonego n 1, funkcje (S n,k ) k I(n) mają nośniki o rozłącznych wnętrzach oraz S n,k = 2 (n+1)/2. Uwaga 11. Układ Haara jest bazą Schaudera w przestrzeniach L p [, 1], 1 p <. Po dodaniu funkcji stale równej 1, układ Schaudera staje się bazą Schaudera przestrzeni C[, 1]. Fakt 12. Dla dowolnych t, s [, 1] mamy n= k I(n) S n,k (t)s n,k (s) = min{t, s}. Niech (g n,k ) k I(n),n=,1,... będzie rodziną niezależnych zmiennych losowych o rozkładzie N (, 1) i W (n) t (ω) = n m= k I(m) g m,k (ω)s m,k (t). Twierdzenie 13. Dla prawie wszystkich ω Ω ciąg funkcji (W (n) t (ω)) zbiega jednostajnie na [, 1] do pewnej funkcji ciągłej W t (ω). Jeśli określimy np. W t (ω) = dla pozostałych ω, to tak zdefiniowany proces stochastyczny jest procesem Wienera na [, 1]. 3

Uwaga 14. Mając dany proces Wienera (W t ) t [,1] nietrudno skonstruować proces Wienera na całej prostej. Można np. sprawdzić, że ((1 + t)w 1 1+t W 1 ) t jest takim procesem. 1.3 Charakteryzacje procesu Wienera Najpierw podamy twierdzenie, które znacznie ułatwia sprawdzanie, że dany proces jest procesem Wienera. Musimy wpierw podać ważną definicję. Definicja 15. Proces X = (X t ) t T nazywamy gaussowskim, jeśli wszystkie skończenie wymiarowe rozkłady X są gaussowskie, tzn. wektor (X t1,..., X tn ) ma rozkład gaussowski dla dowolnych t 1,..., t n T. Przykłady 1. X t = f(t)g, gdzie f : T R dowolne oraz g N (, 1). 2. Proces Wienera (W t ) t. 3. Most Browna X t = W t tw 1, t 1. Twierdzenie 16. Proces (X t ) t jest procesem Wienera wtedy i tylko wtedy, gdy jest procesem gaussowskim, o ciągłych trajektoriach p.n. takim, że EX t = oraz Cov(X t, X s ) = min{t, s}. Dowód. : Mamy EX t = E(X t X ) = oraz Var(X t ) = Var(X t X ) = t na mocy (W) i (W2). Ponadto z niezależności przyrostów, dla t > s, Cov(X t, X s ) = Cov(X t X s, X s ) + Var(X s ) = + s = min{t, s}. : Zauważmy, że Var(X ) = = EX, więc spełniony jest warunek (W). Dla t > s, zmienna W t W s ma rozkład normalny ze średnią i wariancją Var(X t X s ) = Var(X t ) + Var(X s ) 2Cov(X t, X s ) = t s, więc zachodzi (W2). By sprawdzić niezależność przyrostów ustalmy t t 1... t n. Zauważmy, że wektor (X t, X t1 X t, X t2 X t1,..., X tn X tn 1 ) ma rozkład gaussowski, więc jego współrzędne są niezależne wtedy i tylko wtedy, gdy są nieskorelowane. Mamy jednak dla s 1 s 2 s 3 s 4, oraz Cov(X s1, X s3 X s2 ) = Cov(X s1, X s3 ) Cov(X s1, X s2 ) = s 1 s 1 = Cov(X s2 X s1, X s4 X s3 ) = Cov(X s2, X s4 X s3 ) Cov(X s1, X s4 X s3 ) =. 4

Kolejne twierdzenie pokazuje, że (z dokładnością do drobnych technicznych założeń oraz normalizacji) proces Wienera jest jedynym procesem o ciągłych trajektoriach oraz niezależnych i stacjonarnych przyrostach. Twierdzenie 17. Załóżmy, że proces (X t ) t spełnia warunki (W), (W1), (W3) (z W zastąpionym przez X) oraz X ma przyrosty stacjonarne; EX 1 =, Var(X 1 ) = 1; EX 4 t < dla wszystkich t >. (W2a) (W2b) (W2c) Wówczas X t jest procesem Wienera. Dowód. Określmy dla t, a(t) = EX t oraz b(t) = Var(X t ). Zauważmy, że na mocy niezależności i stacjonarności przyrostów, b(t + s) = Var(X t+s X t + X t ) = Var(X t+s X t ) + Var(X t ) = Var(X s ) + Var(X t ) = b(t) + b(s). Ponadto oczywiście b(t), zatem funkcja b(t) jest addytywna i niemalejąca na [, ), więc b(t) = ct dla pewnego c, co wobec (W2b) daje Var(X t ) = b(t) = t. Analogicznie sprawdzamy, że a(t + s) = a(t) + a(s), wiemy też, że a() =, stąd dowodzimy, że EX t = a(t) = dla t wymiernych. Weźmy t > i wybierzmy dążący do t ciąg liczb wymiernych (t n ). Na mocy (W2c), EX 2 t <, wiemy też, że EX 2 t n = Var(X tn ) = t n, zatem (E X tn X t 2 ) 1/2 M dla pewnej stałej M. Z ciągłości trajektorii X tn X t prawie na pewno, czyli również według prawdopodobieństwa. Zatem dla ε >, EX t = EX t EX tn E X t X tn ε + E X t X tn 1 { Xt X tn ε} ε + (E X t X tn 2 ) 1/2 P( X t X tn ε) 1/2 ε + MP( X t X tn ε) 1/2 2ε dla dostatecznie dużych n. Stąd EX t =. Wykazaliśmy zatem, że X t ma średnią zero i wariancję t. Ustalmy t > s, chcemy pokazać, że X t X s ma rozkład normalny N (, t s). Zauważmy, że X t X s = n Y n,k, gdzie Y n,k = X s+k(t s)/n X s+(k 1)(t s)/n. k=1 5

Zmienne (Y n,k ) 1 k n tworzą układ trójkątny, możemy więc skorzystać z Centralnego Twierdzenia Granicznego i wykazać, że n k=1 Y n,k zbiega do N (, t s) według rozkładu. Mamy n EY n,k =, k=1 n Var(Y n,k ) = t s, k=1 wystarczy więc sprawdzić warunek Lindeberga. Dla ε >, n [( L n (ε) = E Y n,k 2 n 1 { Yn,k ε} E Y n,k 2) ] 1 {maxk n Y n,k ε} k=1 k=1 ( ( n E Y n,k 2) 2) 1/2P ( ) 1/2. max Y n,k ε k n k=1 Zauważmy, że zmienne (Y n,k ) dla ustalonego n są niezależne i mają średnią zero, zatem ( E(X t X s ) 4 n ) 4 = E Y n,k = = k=1 n k=1 n k=1 EY 4 n,k + 6 EY 4 n,k + 2 1 k 1,k 2,k 3,k 4 n EYn,kEY 2 n,l 2 1 k<l n 1 k<l n EY n,k1 Y n,k2 Y n,k3 Y n,k4 ( EYn,kEY 2 n,l 2 n = E Y n,k 2) 2. Z ciągłości trajektorii X wynika, że P(max k n Y n,k ε) przy n, zatem lim n L n (ε) =. Uwaga 18. Warunek (W2c) nie jest konieczny - zob. Twierdzenie 5 z paragrafu 13.1 książki [3]. Okazuje się, że również nie trzeba zakładać skończoności wariancji ani nawet istnienia wartości średniej W 1 - warunek (W2b) ma charakter czysto normalizacyjny. Dokładniej zachodzi następujące twierdzenie. Twierdzenie 19. Załóżmy, że proces stochastyczny X = (X t ) t spełnia warunki (W),(W1),(W2a) i (W3). Wówczas istnieją stałe a, b R i proces Wienera W takie, że X t = aw t + bt dla wszystkich t. k=1 6

1.4 Nieróżniczkowalność trajektorii Trajektorie procesu Wienera mają wiele ciekawych własności, część z nich poznamy później. W tym paragrafie pokażemy, że mimo iż są ciągłe, to z prawdopodobieństwem 1 nie są różniczkowalne w żadnym punkcie. Twierdzenie 2. Prawie wszystkie trajektorie procesu Wienera (W t ) t są funkcjami nieróżniczkowalnymi w żadnym punkcie, tzn. ) P ( t t W t (ω) jest różniczkowalne w t =. Dowód. Najpierw pokażemy nieróżniczkowalność trajektorii na [, 1), tzn. ) P ( t [,1) t W t (ω) jest różniczkowalne w t =. Zauważmy, że jeśli funkcja f : [, 1] R jest różniczkowalna w t [, 1) oraz f (t ) < M, to f(t) f(t ) M t t dla t dostatecznie bliskich t. Zatem, jeśli j/n t < (j + 1)/n, to dla dostatecznie dużych n, f f ( j + 1 ) f n ( j + 2 oraz f n ) f ( j + 3 ) f n ( j ( f j + 1 ) n) n ( j + 1 n ( j + 2 n ) ( f j + 2 ) n ) ( f j + 3 ) n ( j f(t ) + f(t ) f n f(t ) + f(t ) f f(t ) + f(t ) f ) M ( 1 n + 1 n), ( j + 1 ) ( 2 M n n n) + 1 ( j + 2 ) ( 3 M n n n) + 2. Stąd, jeśli funkcja f jest różniczkowalna w jakimś punkcie przedziału [, 1), to ( f j + k + 1 ) ( j + k ) 5M M< m< n m j n 3 k=,1,2 f n n n. Czyli ) P ( t [,1) t W t (ω) jest różniczkowalne w t ( n 3 2 P M=1 m=1 n=m j= k= ( n 3 2 M=1 m=1 P n=m j= k= { W j+k+1 n { W j+k+1 n W j+k 5M n n W j+k 5M n n } ) } ). 7

Z niezależności przyrostów dostajemy ( 2 P k= Zatem czyli i P { W j+k+1 n ( n 3 2 j= k= W j+k 5M } ) 2 = n n k= ( = P( W 1 n ( 1 5M/ = 2π { W j+k+1 n ( n 3 P n=m j= W j+k 5M n n 2 k= { W j+k+1 n 5M n n 5M/ n P( W j+k+1 n W j+k 5M n n )) 3 ( ( 1 = P n W 1 5M )) 3 n ) 3 ( 1 e x2 /2 1M ) 3. dx n 2π } ) n 3 j= W j+k 5M n n ) 1M 3 n 3/2 1M 3 n, } ) = ) P ( t [,1) t W t (ω) jest różniczkowalne w t =. Nieznacznie modyfikując poprzedni dowód (albo używając faktu, że W t = T 1/2 W tt też jest procesem Wienera oraz w oczywisty sposób nieróżniczkowalność W na [, 1) jest równoważna nieróżniczkowalności W na [, T )) dostajemy, że dla T <, ) P ( t [,T ) t W t (ω) jest różniczkowalne w t =. By zakończyć dowód wystarczy zauważyć, że ) P ( t > t W t (ω) jest różniczkowalne w t ( ) = lim P t [,N) t W t (ω) jest różniczkowalne w t =. N Uwaga 21. Dokładna analiza przedstawionego dowodu pokazuje, że nie wykazaliśmy mierzalności zdarzenia { t t W t (ω) jest różniczkowalne w t }, a jedynie to, że jest ono podzbiorem pewnego zdarzenia miary zero. By uniknąć kłopotów technicznych podobnego rodzaju, wygodnie jest przyjąć, że przestrzeń probabilistyczna (Ω, F, P) jest zupełna, tzn. dowolny podzbiór zbioru miary zero jest mierzalny (każdą przestrzeń probabilistyczną można rozszerzyć do przestrzeni zupełnej). 8

2 Rozkłady Procesów Stochastycznych Podczas tego wykładu zdefiniujemy rozkład procesu stochastycznego, w szczególności powiemy jakie zdarzenia określone przez proces są mierzalne. Udowodnimy, że rozkład procesu jest wyznaczony przez rozkłady skończenie wymiarowe. Sformułujemy też warunki, które muszą być spełnione, by istniał proces stochastyczny o zadanych rozkładach skończenie wymiarowych. Przypomnijmy, że jeśli X jest zmienną losową o wartościach w przestrzeni (E, E), to rozkładem X jest miara probabilistyczna na (E, E) zadana wzorem µ X (A) = P(X A), A E. 2.1 σ-ciało zbiorów cylindrycznych Proces X = (X t ) t T możemy traktować jako zmienną losową o wartościach w R T. Jakie podzbiory R T są wówczas na pewno mierzalne? Definicja 1. Zbiory postaci { x R T : (x t1,..., x tn ) A }, t 1,..., t n T, A B(R n ) nazywamy zbiorami cylindrycznymi. Przez B(R T ) będziemy oznaczać najmniejsze σ-ciało zawierające zbiory cylindryczne i będziemy je nazywać σ- ciałem zbiorów cylindrycznych. Uwaga 2. Zauważmy, że Przykłady B(R T ) = σ({x R T : x t A}, t T, A B(R)). 1. Zbiory {x: x t > x s }, {x: x t1 >, x t2 x t1 >,..., x tn x tn 1 > } oraz {x: t<s,t,s Q+ x t > x s } należą do B(R [, ) ). 2. Zbiór {x: sup t T x t 1} nie należy do B(R T ), gdy T jest nieprzeliczalny, podobnie {x: t x t ciągłe} nie należy do B(R T ), gdy T jest niezdegenerowanym przedziałem. Definicja 3. Rozkładem procesu X = (X t ) t T nazywamy miarę probabilistyczną µ X na B(R T ) daną wzorem µ X (C) = P((X t ) t T C), C B(R T ). 9

Uwaga 4. Załóżmy, że T jest przedziałem (skończonym lub nie). Na przestrzeni funkcji ciagłych C(T ) rozważmy topologię zbieżności niemal jednostajnej. Wówczas B(R T ) C(T ) = B(C(T )), co oznacza, że jeśli proces X = (X t ) t T ma ciągłe trajektorie, to X wyznacza rozkład probabilistyczny na przestrzeni funkcji ciągłych (C(T ), B(C(T ))). W szczególności proces Wienera wyznacza pewien rozkład probabilistyczny na C[, ). 2.2 Warunki zgodności. Twierdzenie Kołmogorowa o istnieniu procesu Najprostsze zbiory z B(R T ), to zbiory cylindryczne. Miary takich zbiorów to rozkłady skończenie wymiarowe procesu. Definicja 5. Dla procesu (X t ) t T o wartościach w R i t 1,..., t n T określamy miarę µ t1,...,t n na R n wzorem µ t1,...,t n (A) = P((X t1,..., X tn ) A), A B(R n ). Rodzinę miar {µ t1,...,t n : t 1,..., t n T parami różne} nazywamy rodziną skończenie wymiarowych rozkładów procesu X. Fakt 6. Załóżmy, że X = (X t ) t T i Y = (Y t ) t T są procesami o tych samych skończenie wymiarowych rozkładach, czyli P((X t1,..., X tn ) A) = P((Y t1,..., Y tn ) A) dla wszystkich t 1,..., t n T, A B(R n ). Wówczas X i Y mają ten sam rozkład, tzn. P(X C) = P(Y C) dla wszystkich C B(R T ). Dowód. Rodzina zbiorów cylindrycznych A tworzy π-układ, a rodzina C zbiorów C takich, że P(X C) = P(Y C), jest λ-układem zawierającym A. Zatem z twierdzenia o π- i λ- układach, C zawiera również σ-ciało generowane przez A, czyli B(R T ). Definicja 7. Powiemy, że rodzina skończenie wymiarowych rozkładów {µ t1,...,t n : t 1,..., t n T parami różne} spełnia warunki zgodności, jeśli zachodzą następujące warunki: 1

i) Dla dowolnych t 1, t 2,..., t n T, dowolnej permutacji (i 1,..., i n ) liczb (1,..., n) oraz zbiorów A 1, A 2,..., A n B(R), µ ti1,...,t in (A i1 A i2... A in ) = µ t1,...,t n (A 1 A 2... A n ). ii) Dla dowolnych t 1, t 2,..., t n+1 T oraz A 1, A 2,..., A n B(R), µ t1,...,t n,t n+1 (A 1 A 2... A n R) = µ t1,...,t n (A 1 A 2... A n ). Oczywiście rodzina rozkładów skończenie wymiarowych dowolnego procesu stochastycznego spełnia warunki zgodności. Okazuje się, że są to jedyne warunki jakie należy nałożyć na taką rodzinę. Twierdzenie 8. Załóżmy, że dana jest rodzina skończenie wymiarowych rozkładów (µ t1,...,t n ) spełniająca warunki zgodności. Wówczas istnieje proces (X t ) t T mający skończenie wymiarowe rozkłady równe (µ t1,...,t n ). Nie będziemy przedstawiać technicznego dowodu powyższego twierdzenia - wszystkich zainteresowanych odsyłamy do Dodatku B. W zamian sformułujemy użyteczny wniosek. Wniosek 9. Załóżmy, że T R oraz dana jest rodzina rozkładów skończenie wymiarowych {µ t1,...,t n : t 1 < t 2 <... < t n, t 1,..., t n T } spełniająca warunek µ t1,...,t n (A 1... A k 1 R A k+1... A n ) = µ t1,...t k 1,t k+1,...,t n (A 1... A k 1 A k+1... A n ). dla wszystkich t 1 < t 2 <... < t n, n 2, 1 k n oraz zbiorów borelowskich A 1,..., A n. Wówczas istnieje proces (X t ) t T taki, że (X t1,..., X tn ) ma rozkład µ t1,...,t n dla t 1 < t 2 <... < t n. Dowód. Dla t 1,..., t n T parami różnych istnieje permutacja (i 1,..., i n ) liczb (1,..., n) taka, że t i1 < t i2 <... < t in. Możemy więc określić µ t1,...,t n jako rozkład wektora (Y 1,..., Y n ) takiego, że (Y i1,..., Y in ) ma rozkład µ ti1,...,t in. Można sprawdzić, że tak określona rodzina miar (µ t1,...,t n ) spełnia warunki zgodności. Przykłady 1. Jeśli (µ t ) t T jest dowolną rodziną rozkładów na R, to istnieje rodzina niezależnych zmiennych losowych (X t ) t T taka, że X t ma rozkład µ t. Używamy tu twierdzenia o istnieniu dla µ t1,...,t n = µ t1... µ tn. 11

2. Istnieje proces spełniający warunki (W)-(W2) definicji procesu Wienera. Istotnie dla = t t 1 < t 2 <... < t n kładziemy µ t1,...,t n ( X 1, X 1 + X 2,..., n X k ), gdzie X 1,..., X n są niezależnymi zmiennymi losowymi X k N (, t k t k 1 ). Warunki zgodności wynikają wówczas stąd, iż jeśli Y 1, Y 2 są niezależne i Y i N (, σ 2 i ) dla i = 1, 2, to Y 1 + Y 2 N (, σ 2 1 + σ2 2 ). Uwaga 1. Dla uproszczenia zakładaliśmy podczas tego wykładu, że proces X t ma wartości rzeczywiste. Nic się zmieni (poza oczywistymi drobnymi zmianami definicji) dla procesów o wartościach w R d. Czasem jednak zachodzi potrzeba rozpatrywania procesów o wartościach w ogólniejszej przestrzeni E. warto więc zauważyć, że w Fakcie 6 nie wykorzystywaliśmy żadnych własności przestrzeni E, w dowodzie Twierdzenia 8 wykorzystuje się regularność miar na E n -tu wystarczy założyć, że E jest σ-zwartą przestrzenią metryczną, tzn. E jest przeliczalną sumą zbiorów zwartych lub dodać warunek regularności rozpatrywanych miar. k=1 3 Ciągłość trajektorii Wiemy już kiedy istnieje proces o zadanych skończenie wymiarowych rozkładach. Nasuwa się pytanie kiedy taki proces ma ciągłe trajektorie? Zanim jednak zastanowimy się nad odpowiedzią wprowadzimy dwa ważne sposoby porównywania procesów. 3.1 Procesy stochastycznie równoważne i nierozróżnialne Definicja 11. Niech X = (X t ) t T oraz Y = (Y t ) t T będą dwoma procesami stochastycznymi, określonymi na tej samej przestrzeni probabilistycznej. Powiemy, że: a) X jest modyfikacją Y (lub X jest stochastycznie równoważny Y ), jeśli b) X i Y są nierozróżnialne, jeśli t T P(X t = Y t ) = 1. P( t T X t = Y t ) = 1. 12

Zauważmy, że procesy nierozróżnialne są oczywiście stochastycznie równoważne. Ponadto dwa procesy stochastycznie równoważne mają ten sam rozkład. Poniższy przykład pokazuje, że z rozkładu procesu nie można wnioskować o własnościach trajektorii. Przykład Niech Z będzie dowolną zmienną losową o rozkładzie bezatomowym tzn. P(Z = z) = dla wszystkich z R. Zdefiniujmy dwa procesy na T = [, ): X t oraz Y t (ω) = { dla t Z(ω) 1 dla t = Z(ω). Wówczas Y jest modyfikacją X, bo P(X t Y t ) = P(Z = t) =. Zauważmy jednak, że wszystkie trajektorie Y są nieciągłe, czyli w szczególności P( t X t = Y t ) =, a zatem procesy X i Y nie są nierozróżnialne. Fakt 12. Załóżmy, że T jest przedziałem oraz procesy X = (X t ) t T i Y = (Y t ) t T mają prawostronnie ciągłe trajektorie. Wówczas, jeśli X jest modyfikacją Y, to Xi Y są nierozróżnialne. Dowód. Wybierzmy przeliczalny podzbiór T T, gęsty w T, zawierający dodatkowo sup T, jeśli T jest przedziałem prawostronnie domkniętym. Niech A = { t T X t = Y t }, wówczas P(A) = 1, jako przeliczalne przecięcie zbiorów pełnej miary. Ponadto, jeśli ω A, to dla dowolnego t T, X t (ω) = lim X s (ω) = lim Y s (ω) = Y t (ω), s t+,s T s t+,s T czyli P( t T X t = Y t ) P(A) = 1. 3.2 Twierdzenie o ciągłej modyfikacji Najważniejsze twierdzenie tego wykładu podaje kryterium istnienia modyfikacji procesu, która ma ciągłe trajektorie. Zanim sformułujemy dokładny wynik przypomnijmy definicję hölderowskości. 13

Definicja 13. Funkcja f : [a, b] R jest hölderowsko ciągła z wykładnikiem γ, jeśli dla pewnej stałej C <, f(s) f(t) C t s γ dla wszystkich s, t [a, b]. Twierdzenie 14. Załóżmy, że X = (X t ) t [a,b] jest procesem takim, że t,s [a,b] E X t X s α C t s 1+β (1) dla pewnych stałych dodatnich α, β, C. Wówczas istnieje proces X = ( X t ) t [a,b], będący modyfikacją procesu X, którego wszystkie trajektorie są ciągłe. Co więcej trajektorie każdej modyfikacji X o ciągłych trajektoriach są, z prawdopodobieństwem 1, hölderowsko ciągłe z dowolnym wykładnikiem γ < β α. Zainteresownych dowodem odsyłamy do Dodatku B. Wniosek 15. Twierdzenie 14 jest prawdziwe, gdy przedział [a, b] zastąpimy nieskończonym przedziałem, o ile hölderowskość trajektorii zastąpimy lokalną hölderowskością (tzn. hölderowskością na każdym przedziale skończonym). Co więcej, wystarczy, by warunek (1) zachodził dla s t δ, gdzie δ jest ustaloną liczbą dodatnią. Dowód. Przedział nieskończony T można zapisać jako przeliczalną sumę przedziałów [a n, a n+1 ], długości nie większej od δ. Z Twierdzenia 14 wynika (n) istnienie modyfikacji X t procesu X na przedziale [a n, a n+1 ], o ciągłych trajektoriach. Niech A n = { X a n+1 X a n+1 }, wówczas A = n A n ma miarę (n) (n+1) zero. Możemy więc położyć: { X X (n) t (ω) = t (ω) dla t [a n, a n+1 ], ω / A dla ω A. Wniosek 16. Istnieje proces Wienera, tzn. proces spełniający warunki (W)- (W3). Dowód. Mamy E W s W t 4 = E t sw 1 4 = (s t) 2 EW1 4 możemy zastosować Wniosek 15 z β = 1, α = 4 i C = 3. = 3(s t)2 i Wniosek 17. Prawie wszystkie trajektorie procesu Wienera są lokalnie Hölderowsko ciągłe z dowolnym parametrem γ < 1/2. 14

Dowód. Mamy E W s W t p = (s t) p/2 EW p 1 = C p(s t) p/2 dla dowolnego p <. Stosując twierdzenie 14 z β = p/2 1, α = p dostajemy Hölderowską ciągłość trajektorii z dowolnym γ < 1 2 1 p. Biorąc p dostajemy tezę. Uwaga 18. Prawie wszystkie trajektorie procesu Wienera nie są jednostajnie ciągłe na [, ), nie mogą więc być globalnie Hölderowskie z żadnym wykładnikiem. Uwaga 19. Założenia β > nie można opuścić wystarczy rozważyć proces Poissona (tzn. proces (N t ) t o prawostronnie ciaglych trajektoriach, startujący z zera, o przyrostach niezależnych taki, że N t N s ma rozkład Poissona z parametrem λ(t s) zob. np. Rozdział 23 w [1]) dla którego E N t N s = λ t s, a oczywiście proces Poissona przyjmuje wartości całkowite, więc nie ma modyfikacji o ciągłych trajektoriach. 3.3 Inne rodzaje ciągłości procesów W tym wykładzie koncentrowaliśmy uwagę nad procesami o trajektoriach ciągłych. Warto jednak wspomnieć o innych formach ciągłości procesów stochastycznych. Definicja 2. Niech X = (X t ) t T będzie procesem stochastycznym. Mówimy, że a) proces X jest stochastycznie ciągły, jeśli t n t X tn P Xt. b) proces X jest ciągły wg p-tego momentu (ciągły w L p ), jeśli t n t E X tn X t p. Uwaga 21. Nietrudno wykazać, że zarówno ciągłość trajektorii jaki i ciągłość wg p-tego momentu implikują ciągłość stochastyczną procesu. Z pozostałych czterech implikacji między powyższymi pojęciami ciągłości procesu żadna nie jest prawdziwa bez dodatkowych założeń. 4 Filtracje, Momenty Zatrzymania Celem tego wykładu jest pokazanie jak zmodyfikować definicje omawiane podczas kursowego wykładu z rachunku prawdopodobieństwa z przypadku czasu dyskretnego na czas ciągły. Będziemy zakładać, że T jest lewostronnie domkniętym przedziałem (typowo T = [, )), choć większość definicji i wyników można uogólnić na szerszą klasę zbiorów. 15

4.1 Filtracje Definicja 1. Filtracją (F t ) t T przestrzeni probabilistycznej (Ω, F, P) nazywamy rosnący rodzinę σ-ciał zawartych w F, tzn. F t F s dla t s, t, s T. Zdarzenia z σ-ciała F t możemy interpretować jako zdarzenia obserwowalne do chwili t. Definicja 2. Niech X = (X t ) t T będzie procesem stochastycznym. Filtracją generowaną przez X nazywamy rodzinę (Ft X ) t T daną wzorem Ft X = σ(x s : s t). Fakt 3. Proces X t ma przyrosty niezależne wtedy i tylko wtedy, gdy dla dowolnych t < s, t, s T przyrost X s X t jest niezależny od σ-ciała F X t. Dowód. : Rodzina zdarzeń A niezależnych od X s X t tworzy λ-układ, ponadto, z niezależności przyrostów X, zawiera π-układ zdarzeń postaci {X t1 A 1,..., X tn A n } dla t 1 <... < t n t. : Ustalmy t 1 <... < t n oraz zbiory borelowskie A 1,..., A n. Zdarzenie {X t1 A 1, X t2 X t1 A 2,..., X tn 1 X tn 2 A n 1 } należy do σ-ciała F X t n 1, więc jest niezależne od zmiennej X tn X tn 1. Stąd P(X t1 A 1, X t2 X t1 A 2,..., X tn X tn 1 A n ) = P(X t1 A 1,..., X tn 1 X tn 2 A n 1 )P(X tn X tn 1 A n ). Iterując to rozumowanie pokazujemy, że P(X t1 A 1, X t2 X t1 A 2,..., X tn X tn 1 A n ) = P(X t1 A 1 )P(X t2 X t1 A 2, ) P(X tn X tn 1 A n ). Definicja 4. Proces X = (X t ) nazywamy zgodnym z filtracją (F t ) t T lub F t -adaptowalnym, jeśli dla wszystkich t T, X t jest F t mierzalne. Uwaga 5. Oczywiście proces X jest zgodny z filtracją (F t ) t T wtedy i tylko wtedy, gdy Ft X F t dla t T. W szczególności każdy proces X jest zgodny z filtracją przez siebie generowaną. 16

4.2 Momenty Zatrzymania Definicja 6. Momentem zatrzymania (momentem Markowa, czasem zatrzymania) względem filtracji (F t ) t T nazywamy zmienną losową o wartościach w T { } taką, że {τ t} F t dla wszystkich t T. Moment zatrzymania to strategia przerwania eksperymentu losowego (np. zakończenia udziału w pewnej grze losowej) taka, że decyzję o przerwaniu do chwili t podejmujemy tylko na podstawie obserwacji dostępnych w tym czasie. Przykład. Dla zbioru A R i procesu stochastycznego (X t ) t T określmy τ A = inf{t T : X t A}. Jeśli (X t ) t T jest F t -adaptowalnym procesem o ciągłych trajektoriach, zaś A zbiorem domkniętym, to τ A jest momentem zatrzymania względem filtracji (F t ). Dowód. Niech T T będzie gęstym podzbiorem T zawierającym lewy koniec. Z domkniętości zbioru A i ciągłości X dostajemy dla t T gdzie {τ A t} = { s t X s A} = n=1 A ε := {x R n : d(x, A) < ε} s t,s T {X s A 1/n } F t, (ε-otoczka zbioru A). Uwaga 7. Jeśli w powyższym przykładzie A będzie zbiorem otwartym, to τ A nie musi być momentem zatrzymania względem filtracji (F t ) t T, ale musi być momentem zatrzymania względem filtracji (F t+ ) t T, gdzie dla t < sup T F t+ := s>t F s, a jeśli t jest największym elementem T, to kładziemy F t+ = F t. Powyższa uwaga motywuje poniższą definicję, która ma nieco techniczny charakter, ale jest powszechnie używana w teorii procesów. Definicja 8. Filtrację (F t ) t T nazywamy prawostronnie ciągłą, jeśli F t+ = F t dla wszystkich t T. Mówimy, że filtracja (F t ) t T spełnia zwykłe warunki, jeśli a) jest prawostronnie ciągła, b) dla wszystkich t, F t zawiera wszystkie zbiory miary zero, tzn. jeśli A F, P(A) =, to A F t. 17

Definicja 9. Niech τ będzie momentem zatrzymania względem filtracji (F t ) t T. Definiujemy σ-ciało zdarzeń obserwowalnych do chwili τ wzorem { ( ) F τ := A F := σ F t : t T A {τ t} F t }. t T Fakt 1. a) Zbiór F τ jest σ-ciałem. b) Jeśli τ σ, to F τ F σ. c) Zmienna losowa τ jest F τ mierzalna. Dowód. a) Zbiór Ω F τ, bo Ω {τ t} = {τ t} F t. Jeśli A F τ, to A {τ t} = {τ t} \ (A {τ t}) F t, czyli A F τ. Jeśli A n F τ, to ( n A n) {τ t} = n (A n {τ t}) F t, czyli n A n F τ. b) Weźmy A F τ, wówczas dla t T, A {σ t} = A {τ t} {σ t} F t, czyli A F σ. c) Wystarczy pokazać, że {τ s} F τ, ale {τ s} {τ t} = {τ s t} F s t F t. Fakt 11. Załóżmy, że τ i σ są momentami zatrzymania. Wówczas F τ σ = F τ F σ oraz zdarzenia {τ < σ}, {σ < τ}, {τ σ}, {σ τ}, {τ = σ} należą do F τ σ. Dowód. Zauważmy, że τ σ jest momentem zatrzymania oraz τ σ τ i τ σ σ, zatem na mocy Faktu 1 dostajemy F τ σ F τ F σ. Na odwrót, jeśli A F τ F σ, to A {τ σ t} = A ({τ t} {σ t}) = (A {τ t}) (A {σ t}) F t, czyli A F τ σ. Dalszą część faktu pozostawiamy do udowodnienia na ćwiczeniach. Okazuje się, że adaptowalność procesu nie gwarantuje np. mierzalności zmiennych X τ dla wszystkich momentów zatrzymania τ. Dlatego wprowadzimy jeszcze jedną techniczną definicję. Definicja 12. Proces X = (X t ) t T nazywamy progresywnie mierzalnym względem filtracji (F t ) t T, jeśli dla każdego t T, funkcja (s, ω) X s (ω) traktowana jako funkcja ze zbioru T (, t] Ω w R jest mierzalna względem σ-algebry B(T (, t]) F t. Równoważnie t T A B(R) {(s, ω) T Ω: s t, X s (ω) A} B(T (, t]) F t. Fakt 13. Załóżmy, że T jest przedziałem oraz dany jest proces X = (X t ) t T oraz filtracja (F t ) t T. a) Jeśli proces X jest progresywnie mierzalny względem (F t ), to jest F t - adaptowalny. b) Jeśli proces X jest F t -adaptowalny oraz ma prawostronnie ciągłe trajektorie, to jest progresywnie mierzalny względem (F t ). 18

Dowód. a) Zbiór {ω : X t (ω) A} jest przekrojem zbioru {(s, ω) T Ω: s t, X s (ω) A}, a zatem należy do F t. b) Ustalmy t T i połóżmy dla s T, s t, X s (n) := X t 2 n k, gdzie k jest liczbą całkowitą taką, że t 2 n (k + 1) < s t 2 n k. Wówczas {(s, ω) T Ω: s t, X s (n) (ω) A} ( = T k= (t k + 1 2 n, t k 2 n ]) B(T (, t]) F t. {ω : X t k (ω) A} 2n Zatem funkcja X s (n) (ω), s T (, t], ω Ω jest B(T (, t]) F t mierzalna. Wobec prawostronnej ciągłości X mamy X s (ω) = lim n X s (n) (ω), zatem funkcja X s (ω), s T (, t], ω Ω jest B(T (, t]) F t mierzalna jako granica funkcji mierzalnych. Jeśli τ jest momentem zatrzymania, a X = (X t ) t T procesem, to zmienna X τ jest dobrze zdefiniowana tylko na zbiorze {τ < }. Musimy zatem określić co mamy na myśli mówiąc, że zmienna X τ jest mierzalna. Definicja 14. Mówimy, że zmienna losowa X określona na zbiorze A jest mierzalna względem σ-ciała G zawierającego A, jeśli {ω A: X(w) B} G dla dowolnego zbioru borelowskiego B. Fakt 15. Załóżmy, że X = (X t ) t T jest procesem progresywnie mierzalnym względem filtracji (F t ) t T, a τ jest momentem zatrzymania. Wówczas zmienna losowa X τ określona na zbiorze {τ < } F τ jest F τ mierzalna. Ponadto proces zatrzymany w chwili τ, X τ := (X t τ ) t T jest progresywnie mierzalny. Dowód. Odwzorowanie (s, ω) (τ(ω) s, ω): T (, t] Ω T (, t] Ω jest mierzalne względem σ-ciała B(T (, t]) F t ). Jeśli złożymy je z odwzorowaniem (s, ω) X s (ω) mierzalnym z (T (, t] Ω, B(T (, t]) F t ) w R, to otrzymamy odwzorowanie (s, ω) X τ(ω) s (ω) mierzalne z (T (, t] Ω, B(T (, t]) F t ) w R. 19

Stąd wynika progresywna mierzalność procesu X τ. By zakończyć dowód zauważmy, że {X τ A} {τ t} = {X τ t A} {τ t} F t na mocy progresywnej mierzalności (a właściwie adaptowalności) X τ. 5 Martyngały z czasem ciągłym Jak podczas poprzedniego wykładu, jeśli nie powiemy inaczej, zakładamy, że T jest lewostronnie domkniętym przedziałem. 5.1 Definicje i przykłady Definicja 1. Mówimy, że (X t ) t T jest martyngałem (odp. podmartyngałem, nadmartyngałem) względem filtracji (F t ) t T lub, że (X t, F t ) t T jest martyngałem (odp. podmartyngałem, nadmartyngałem), jeśli a) dla wszystkich t T, X t jest F t adaptowalny i E X t <, b) dla dowolnych s, t T, s < t, E(X t F s ) = X s p.n. (odp. dla podmartyngału i dla nadmartyngału). Przykład 1. Jeśli X jest całkowalną zmienną losową, a F t dowolną filtracją to X t := E(X F t ) jest martyngałem. Sprawdzamy dla t > s E(X t F s ) = E(E(X F t ) F s ) = E(X F s ) = X p.n.. Przykład 2. (W t ) t jest martyngałem względem naturalnej filtracji F W t = σ(w s : s t). Istotnie dla t > s mamy z niezależności przyrostów E(W t F s ) = E(W s F s ) + E(W t W s F s ) = W s + E(W t W s ) = W s p.n.. Przykład 3. (Wt 2 ) t jest podmartyngałem, a (Wt 2 t) t martyngałem względem naturalnej filtracji Ft W = σ(w s : s t). Liczymy dla t > s E(W 2 t F s ) = E(W 2 s F s ) + E(2W s (W t W s ) F s ) + E((W t W s ) 2 F s ) = W 2 s + 2W s E(W t W s ) + E(W t W s ) 2 = W 2 s + t s p.n.. Uwaga 2. W ostatnich dwu przykładach filtrację (F W t ) można zastąpić filtracją (F W t+). 2

Fakt 3. Załóżmy, że (X t, F t ) jest martyngałem (odp. podmartyngałem), zaś f : R R funkcją wypukłą (odp. wypukłą i niemalejącą) taką, że E f(x t ) < dla wszystkich t. Wówczas (f(x t ), F t ) jest podmartyngałem. Dowód. Z nierówności Jensena mamy E(f(X t ) F s ) f(e(x t F s )) p.n., a ostatnia zmienna jest równa f(x s ) w przypadku martyngału i nie mniejsza niż f(x s ) dla podmartyngału. Przypomnijmy definicję funkcji harmonicznych. Definicja 4. Funkcję f : R n R nazywamy podharmoniczną (odp. harmoniczną, nadharmoniczną) jeśli x R n r f(x) 1 S n 1 f(x + ry)dσ(y) (odp. =, ), S n 1 gdzie σ(y) jest miarą powierzchniową na sferze, a S n 1 = S n 1 dσ(y) = 2π n/2 (Γ(n/2)) 1. Uwaga 5. Funkcja gładka jest harmoniczna (odp. pod-,nad-) wtedy i tylko wtedy, gdy f = (odp., ). Dla n = 1 warunek podharmoniczności jest równoważny wypukłości. Funkcja f(x) = ln x x jest nadharmoniczna na R 2, a funkcja f(x) = x x 2 d nadharmoniczna na R d dla d > 2. Fakt 6. Niech W t = (W (1) t,..., W (d) t ) będzie d-wymiarowym procesem Wienera, Ft W = σ(w s : s t), zaś f : R d R funkcją harmoniczną (odp. nad-, pod-) taką, że E f(w t ) < dla t. Wówczas (f(w t ), Ft W ) jest martyngałem (odp. nad-, pod-). Dowód. Liczymy dla t > s, E(f(W t ) F s ) = E(f(W s + (W t W s )) F s ) = (2π(t s)) d/2 f(w s + x)e x 2 2(t s) dx R d = (2π(t s)) d/2 r d 1 e ( ) r2 2(t s) f(w s + y)dσ(y) dr S d 1 = (2π(t s)) d/2 S d 1 f(w s ) = (2π) d/2 S d 1 r d 1 e r2 2(t s) dr r d 1 e r2 2 drf(ws ) = c d f(w s ) p.n.. By zauważyć, że c d = 1 przeprowadzamy albo bezpośredni rachunek, albo podstawiamy powyżej f 1. 21

5.2 Nierówności maksymalne Zacznijmy od przypomnienia podstawowego lematu dla martyngałów z czasem dyskretnym, pochodzącego od Dooba. Lemat 7. Załóżmy, że (X n, F n ) 1 N jest martyngałem (odp. nad-, pod-), zaś τ σ N dwoma momentami zatrzymania. Wówczas E(X σ F τ ) = X τ p.n. (odp., ). Dowód. Musimy pokazać, że dla A F τ, EX τ 1 A = EX σ 1 A. Połóżmy A k := A {τ = k} dla k =, 1,..., N. Mamy σ 1 N (X σ X τ )1 Ak = (X σ X k )1 Ak = (X i+1 X i )1 Ak = (X i+1 X i )1 Ak {σ>i}, zatem E[(X σ X τ )1 Ak ] = gdyż A k {σ > i} F i. Stąd i=k i=k N E[(X i+1 X i )1 Ak {σ>i}] =, i=k E[(X σ X τ )1 A ] = N E[(X σ X τ )1 Ak ] =. k= Uwaga 8. Lemat 7 nie jest prawdziwy, jeśli nie założymy ograniczoności momentów zatrzymania, np. biorąc X n = n k=1 ε n, gdzie ε n niezależne zmienne losowe takie, że P(ε n = ±1) = 1/2, F n = σ(ε 1,..., ε n ), τ =, σ = inf{n: X n = 1} widzimy, że EX τ = 1 = EX σ. Lemat 9. Niech (X n, F n ) n N będzie podmartyngałem, wówczas dla wszystkich λ mamy ( ) a) λp max X n λ n N ( ) b) λp min X n λ n N EX N 1 {max n N X n λ} EX + N, EX N 1 {min n N X n> λ} EX EX + N EX. 22

Dowód. a) Niech τ := inf{n: X n λ}, z lematu 7 dostajemy (wobec τ N N) EX N EX τ N = EX τ 1 {max n N X n λ} + EX N 1 {max n N X n<λ} λp( max n N X n λ) + EX N 1 {max n N X n<λ} i po przeniesieniu wartości oczekiwanych na jedną stronę dostajemy postulowaną nierówność. b) Definiujemy τ := inf{n: X n λ}, z lematu 7 dostajemy (wobec τ N ) EX EX τ N = EX τ 1 {min n N X n λ} + EX N 1 {min n N X n> λ} λp( min n N X n λ) + EX N 1 {min n N X n> λ} i znów wystarczy pogrupować wartości oczekiwane. Wniosek 1. Jeśli (X n, F n ) n N jest martyngałem, bądź nieujemnym podmartyngałem, to ( ) a) p 1 λ λ p P max X n λ E X N p, n N b) p>1 E X N p E max X n p ( p ) pe XN p. n N p 1 Dowód. a) Funkcja f(t) = t p jest wypukła, niemalejąca na R +, stąd na mocy Faktu 3 X n p jest nieujemnym podmartyngałem, zatem z Lematu 9 mamy ( ) λ p P max X n λ E X N p 1 {max n N X n N n p λ p } E X N p. b) Niech X := max n N X n, z rachunku przeprowadzonego powyżej λp(x λ) E X N 1 {X λ}. Stosując kolejno wzór na całkowanie przez części, twierdzenie Fubiniego i nierówność Höldera dostajemy E max n N X n p = p λ p 1 P(X λ)dλ p X λ p 2 E X N 1 {X λ}dλ = pe X N λ p 2 dλ p p 1 E X N (X ) p 1 p p 1 (E X N p ) 1/p (E(X ) p ) (p 1)/p. 23

Jeśli E X N p <, to E X n p E X N p < dla n N oraz E(X ) p E N n= X n p <. Dzieląc więc otrzymaną poprzednio nierówność stronami przez (E(X ) p ) (p 1)/p dostajemy (E(X ) p ) 1/p p p 1 (E X N p ) 1/p. nierówność maksymalną Dooba w przypadku cią- Udowodnimy teraz głym. Twierdzenie 11. Załóżmy, że (X t, F t ) t T martyngałem lub nieujemnym podmartyngałem, o prawostronnie ciągłych trajektoriach. Wówczas ( a) p 1 λ λ p P b) p>1 sup t T ) sup X t λ t T sup E X t p, t T E X t p E sup X t p ( p t T p 1 ) p sup E X t p. t T Uwaga 12. Oczywiście jeśli T zawiera element maksymalny t max, to przy założeniach twierdzenia sup t T E X t p = E X tmax p. Dowód. Jeśli D jest skończonym podzbiorem T, to na podstawie Wniosku 1 dostajemy ( λ p P sup t D ) X t λ sup t D E X t p sup E X t p. t T Niech T będzie gęstym podzbiorem T zawierającym prawy koniec T (o ile taki istnieje), zaś D n wstępującym ciągiem skończonych podzbiorów T takim, że n D n = T. Wówczas dla dowolnego λ > dostajemy na mocy prawostronnej ciągłości ( λ p P sup X t > λ ) = λ ( p P sup X t > λ ) t T t T ( = lim λ p P sup X t > λ ) n t D n sup E X t p. t T Biorąc ciąg λ n λ dostajemy postulowaną w a) nierówność. Nierówność z punktu b) wynika z Wniosku 1 w podobny sposób. 24

Uwaga 13. Punkt b) twierdzenia 11 nie zachodzi dla p = 1 można skonstruować martyngał dla którego sup t E X t <, ale E sup t X t =. Zachodzi jednak (przy założeniach Twierdzenia 11) nierówność E sup X t e ( t T e 1 1 + sup t T Wniosek 14. Dla dowolnych u, s > zachodzi ( P sup t s ) W t u e u2 2s. ) E X t ln + X t. Dowód. Ustalmy λ >, wówczas M t := exp(λw t λ2 t 2 ) jest martyngałem względem filtracji Ft W generowanej przez proces Wienera. Stąd na mocy Twierdzenia 11 a) i nieujemności M t dostajemy ( P sup t s ) ( W t u P sup t s ) M t e λu λ2 s 2 e λu+ λ2 s 2 sup E M t = e λu+ λ2 s 2 EM = e λu+ λ2 s 2. t s Zatem ( P sup t s ) W t u inf λ> e λu+ λ 2 s 2 = e u2 2s. 6 Twierdzenia o zbieżności martyngałów 6.1 Przejścia w dół przez przedział Definicja 1. Załóżmy, że I R, f : I R oraz α < β. Jeśli I jest skończone, to określamy τ 1 := inf{t I : f(t) β} oraz σ 1 := inf{t I : t > τ 1, f(t) α} i dalej indukcyjnie dla i = 1, 2,... τ i+1 := inf{t I : t > σ i, f(t) β} oraz σ i+1 := inf{t I : t > τ i+1, f(t) α}. oraz definiujemy D I (f, [α, β]) := sup{j : σ j < } 25

W przypadku, gdy I jest nieskończone kładziemy D I (f, [α, β]) := sup{d F (f, [α, β]): F T skończone}. liczbą przejść w dół funkcji f przez prze- Wielkość D I (f, [α, β]) nazywamy dział [α, β]. Przypomnijmy fakt z rachunku prawdopodobieństwa wiążący skończoność liczby przejść ciągu przez przedział z istnieniem granicy Lemat 2. Ciąg liczbowy x n jest zbieżny do pewnej, niekoniecznie skończonej granicy wtedy i tylko wtedy, gdy D N ((x n ), [α, β]) < dla dowolnych liczb wymiernych α < β. Następny lemat jest niewielką modyfikacją poprzedniego. Lemat 3. Jeśli f : [a, b) R, b jest prawostronnie ciągłą funkcją taką, że D [a,b) Q (f, [α, β]) < dla dowolnych liczb wymiernych α < β, to istnieje (niekoniecznie skończona) granica lim t b f(t). Dowód. Załóżmy, że postulowana granica nie istnieje, wtedy można znaleźć liczby wymierne α, β takie, że lim inf t b f(t) < α < β < lim inf t b f(t). Stąd wynika, że istnieje rosnący ciąg liczb wymiernych t n z przedziału [a, b) taki, że f(t 2k 1 ) β oraz f(t 2k ) α. Przyjmując I = {t 1, t 2,...} widzimy, że D [a,b) Q (f, [α, β]) D I (f, [α, β]) =. Lemat 4. Załóżmy, że X = (X t ) t T jest podmartyngałem względem pewnej filtracji, a F jest przeliczalnym podzbiorem T, wówczas ED F (X, [α, β]) sup t F E(X t β) +. β α Dowód. Stosując twierdzenie Lebesgue a o zbieżności monotonicznej widzimy, że wystarczy udowodnić lemat dla skończonych zbiorów F, dla uproszczenia notacji możemy oczywiście przyjąć, że F = {1, 2,..., N}. Zauważmy, że (przy oznaczeniach jak w Definicji 1) X τi X σi β α gdy σ i <, X τi N X σi N = X τi X N β X N (X N β) + gdy τ i < σ i =, X N X N = gdy τ i =. 26

Zatem N (X τi N X σi N) (β α)d F (X, [α, β]) (X N β) +. i=1 Na mocy Lematu 7, EX τi N EX σi N, więc N E (X τi N X σi N) E(β α)d F (X, [α, β]) E(X N β) +. i=1 6.2 Zbieżność prawie na pewno Przypomnijmy twierdzenie dotyczące zbieżności podmartyngałów z czasem dyskretnym: Twierdzenie 5. Załóżmy, że (X n ) n N jest podmartyngałem względem pewnej filtracji takim, że sup n N EX n + < (lub nadmartyngałem takim, że sup n N EXn < ), wówczas X = lim n X n istnieje i jest skończona p.n., ponadto E X <. Sformułujemy teraz odpowiednik powyższego twierdzenia dla czasu ciągłego. Twierdzenie 6. Załóżmy, że (X t ) t [a,b), b jest podmartyngałem o prawostronnie ciągłych trajektoriach takim, że sup t [a,b) EX t + <. Wówczas X = lim t b X t istnieje i jest skończony p.n., ponadto E X <. Dowód. Dla ustalonego α < β na podstawie Lematu 4 mamy ED [a,b) Q (X t, [α, β]) 1 β α sup E(X t β) + <, t [a,b) zatem P(D [a,b) Q (X t, [α, β]) = ) =. Niech A := α,β Q,α<β {D [a,b) Q (X t, [α, β]) < }, wówczas P(A) = 1, bo A jest przecięciem przeliczalnej liczby zbiorów pełnej miary. Jeśli ω A, to D [a,b) Q (X t (ω), [α, β]) < dla dowolnych liczb wymiernych α < β, czyli na podstawie Lematu 3 granica X(ω) := lim t b X t (ω) 27

istnieje (choć apriori może być nieskończona). Zauważmy, że E X t = 2EX t + EX t 2EX t + EX, zatem sup t [a,b) E X t <. Z Lematu Fatou E X = E lim X t lim inf t b t E X t sup E X t <, t czyli zmienna X jest całkowalna, a więc w szczególności skończona p.n.. Wniosek 7. Załóżmy, że (X t ) t jest niedodatnim podmartyngałem (lub nieujemnym nadmartyngałem) o prawostronnie ciągłych trajektoriach, wówczas X = lim t X t istnieje i jest skończony p.n., ponadto E X <. 6.3 Jednostajna całkowalność Definicja 8. Rodzinę zmiennych losowych (X i ) i I nazywamy jednostajnie całkowalną, jeśli lim E X i 1 { Xi >C} =. sup C i I Fakt 9. Rodzina zmiennych losowych (X i ) i I jest jednostajnie całkowalna wtedy i tylko wtedy, gdy spełnione są następujące dwa warunki a) sup i I E X i <, b) ε> δ> P(A) δ sup i I E X i 1 A ε. Dowód. : Ustalmy ε > i dobierzmy C takie, że sup i I E X i 1 { Xi >C} ε/2. Wówczas i I E X i C + E X i 1 { Xi >C} C + ε/2 < oraz, jeśli P(A) < δ := ε 2C, to E X i 1 A CP(A) + E X i 1 { Xi >C} Cδ + ε 2 = ε. : Niech α := sup i I E X i oraz δ > będzie takie, że sup i I E X i 1 A ε dla P(A) δ. Wówczas, jeśli C = α/δ, to P( X i > C) < α/c = δ dla dowolnego i I, czyli sup i I E X i 1 { Xi >C} ε. Przykłady rodzin jednostajnie całkowalnych 1. Rodzina jednoelementowa {Y } taka, że E Y <. Istotnie lim C E Y 1 { Y >C} =. 2. Rodzina wspólnie ograniczona przez zmienną całkowalną tzn. rodzina (X i ) i I taka, że i I X i Y oraz EY <. 28

Wynika to z Faktu 9, poprzedniego przykładu i oczywistej obserwację E X i 1 A E Y 1 A. 3. Rodzina uśrednień ustalonej całkowalnej zmiennej losowej, tzn. rodzina postaci (E(X F i )) i I, gdzie E X <, zaś (F i ) i I dowolna rodzina σ- podciał F. Na podstawie nierówności Jensena E X i = E E(X F i ) E X, a zatem P( X i C) E X i C E X C Zbiór { X i > C} F i, więc z nierówności Jensena δ dla C E X. δ E X i 1 { Xi >C} = E E(X1 { Xi >C} F i ) EE( X 1 { Xi >C} F i ) E( X 1 { Xi >C}) ε, jeśli tylko dobierzemy odpowiednio małe δ korzystając z jednostajnej całkowalności { X }. Fakt 1. Załóżmy, że 1 p <, a X n są zmiennymi losowymi takimi, że rodzina ( X n p ) n=1 jest jednostajnie całkowalna. Wówczas X n zbiega do zmiennej X w L p wtedy i tylko wtedy, gdy X n zbiega do X według prawdopodobieństwa. Dowód. Wystarczy udowodnić, że zbieżność X n według prawdopodobieństwa implikuje zbieżność w L p, bo przeciwna implikacja jest zawsze prawdziwa. Załóżmy więc, że X n X, wówczas dla pewnego podciągu nk, X nk P zbiega do X p.n., stąd na mocy Lematu Fatou E X p = E lim X nk p lim inf E X nk p sup E X n p <. n Zatem rodzina { X n p : n = 1, 2,...} { X p } jest jednostajnie całkowalna. Ustalmy ε > i dobierzmy δ > tak by dla P(A) < δ zachodziło E X n p 1 A ε oraz E X p 1 A ε. Mamy E X n X p ε p + E X n X p 1 { Xn X >ε} ε p + 2 p E X n p 1 { Xn X >ε} + 2 p E X p 1 { Xn X >ε}, a ponieważ X n P X, więc P( Xn X > ε) < δ dla dużych n, czyli E X n X p ε p + 2 p+1 ε dla dostatecznie dużych n. 29

Wniosek 11. Jeśli rodzina (X n ) n=1 jest jednostajnie całkowalna oraz X n zbiega prawie na pewno do zmiennej X, to lim n EX n 1 A = EX1 A dla wszystkich zdarzeń A. Dowód. Stosujemy Fakt 1 i oczywiste szacowanie EX n 1 A EX1 A E X n X. Jesteśmy teraz gotowi do dowodu ciągłej wersji Lematu 7. Twierdzenie 12. a) Załóżmy, że T jest przedziałem, a (X t ) t T martyngałem prawostronnie ciągłym, zaś σ i τ czasami zatrzymania takimi, że σ τ t max oraz t max T. Wówczas E(X τ F σ ) = X σ p.n.. b) Jeśli (X t ) t jest prawostronnie ciągłym martyngałem z ostatnim elementem X to dla dowolnych dwu czasów zatrzymania σ τ, E(X τ F σ ) = X σ p.n. Dowód. Udowodnimy część a) (część b) można za pomocą zmiany czasu sprowadzić do a)). Zdefiniujmy { tmax k τ n (ω) := n dla τ(ω) (t max k+1 n, t max k n ], k =, 1,..., n2 t max n dla τ(ω) t max n oraz σ n (ω) := { tmax k n dla σ(ω) (t max k+1 t max n dla σ(ω) t max n n, t max k n ], k =, 1,..., n2. Wówczas σ n τ n t max są ograniczonymi czasami zatrzymania przyjmującymi jedynie skończenie wiele wartości. Zatem na mocy Lematu 7 mamy E(X τn F σn ) = X σn p.n., E(X tmax F σn ) = X σn p.n. oraz E(X tmax F τn ) = X τn p.n., w szczególności więc rodziny (X τn ) n=1 oraz (X σ n ) n=1 są jednostajnie całkowalne. Ponieważ τ n τ+ oraz σ n σ+, więc z prawostronnej ciągłości X oraz Faktu 1 X τn X τ, X σn X σ p.n. i w L 1. Weźmy A F σ F σn, wówczas EX τ 1 A = lim n EX τ n 1 A = lim n EX σ n 1 A = EX σ 1 A, co oznacza, że E(X τ F σ ) = X σ p.n.. Wniosek 13. Załóżmy, że T jest przedziałem, a (M t ) t T jest prawostronnie ciągłym martyngałem względem (F t ) t T. Wówczas dla dowolnego momentu zatrzymania τ proces M τ = (M τ t ) t T jest martyngałem zarówno względem (F τ t ) t T, jak i (F t ) t T. 3

Dowód. Niech s < t oraz s, t T, wówczas τ s τ t t, więc z Twierdzenia 12 mamy E(M τ t F τ s ) = M τ s p.n., czyli (M τ t, F τ t ) t T jest martyngałem. By udowodnić drugą część ustalmy s < t oraz A F s. Nietrudno sprawdzić, że A {τ > s} F τ s, zatem z poprzednio udowodnionej części wniosku mamy EM τ t 1 A {τ>s} = EM τ s 1 A {τ>s}. Ponadto EM τ t 1 A {τ s} = EM τ 1 A {τ s} = EM τ s 1 A {τ s}. Dodając powyższe tożsamości stronami otrzymujemy EM τ t 1 A = EM τ s 1 A dla A F s, zatem (M τ t, F t ) t T jest martyngałem. 6.4 Zbieżność martyngałów w L p Zacznijmy od warunków zbieżności martyngałów z czasem ciągłym w L 1. Twierdzenie 14. Załóżmy, że (X t ) t [a,b), b jest prawostronnie ciągłym martyngałem. Wówczas następujące warunki są równoważne: a) Rodzina (X t ) t [a,b) jest jednostajnie całkowalna. b) Istnieje całkowalna zmienna losowa X b taka, że X t zbiega do X b w L 1 tzn. lim t b E X t X b =. c) Istnieje całkowalna zmienna losowa X b mierzalna względem σ-ciała F b := σ( t [a,b) F t) taka, że X t = E(X b F t ) dla t [a, b). W przypadku, gdy zachodzą warunki (a)-(c), to X b = lim t b X t p.n.. Dowód. a) b): X t jest jednostajnie całkowalny, więc sup t E X t <, czyli wobec Twierdzenia 6 istnieje zmienna całkowalna X b taka, że X t X b p.n. przy t b. Z jednostajnej całkowalności i Lematu 1 wynika zbieżność w L 1. b) c): Dla pewnego podciągu t k b, X tk X b p.n., stąd możemy zakładać, że zmienna X b jest F b mierzalna. Ustalmy t i A F t, wówczas dla s t EX t 1 A = EX s 1 A EX b 1 A, s. Zatem X t = E(X b F t ) p.n.. c) a) wiemy, że rodzina uśrednień ustalonej zmiennej jest jednostajnie całkowalna. Ostatnia część twiedzenia wynika z dowodu implikacji a) b). 31

Twierdzenie 15. Załóżmy, że (X t ) t [a,b) jest prawostronnie ciągłym martyngałem. Wówczas następujące warunki są równoważne: a) sup t [a,b) E X t p <. b) Rodzina ( X t p ) t [a,b) jest jednostajnie całkowalna. c) Istnieje zmienna losowa X b L p taka, że X t zbiega do X b w L p tzn. lim t b E X t X b p =. d) Istnieje losowa X b L p mierzalna względem F b := σ( t [a,b) F t) taka, że X t = E(X b F t ) dla t [a, b). W przypadku, gdy zachodzą warunki (a)-(d), to X b = lim t b X t p.n.. Dowód. a) b): Na podstawie Twierdzenia 11 wiemy, że E sup t [a,b) X t p ( p p 1 )p sup t [a,b) E X t p <. Pozostałe implikacje dowodzimy jak w dowodzie Twierdzenia 14. 6.5 *Regularność trajektorii W wielu twierdzeniach zakłada się, iż (X t ) jest prawostronnie ciągłym podmartyngałem. Oczywiście modyfikacja podmartyngału jest podmartyngałem problem jest tylko z mierzalnością, ale znika on, gdy filtracja spełnia zwykłe warunki. Naturalnie jest więc zapytać kiedy dany podmartyngał możemy zmodyfikować tak, by stał się prawostronnie ciągły. Następny lemat jest prostą modyfikacją Lematu 2, więc przytoczymy go bez dowodu. Lemat 16. Jeśli f : [a, b] Q R jest funkcją ograniczoną taką, że dla dowolnych liczb wymiernych α < β, D [a,b] Q (f, [α, β]) <, to granice t [a,b) f(t+) := istnieją i są skończone. lim f(s) i t (a,b] f(t ) := lim f(s) s t+,s Q s t,s Q Będziemy też wykorzystywać prosty fakt. Fakt 17. Załóżmy, że (X n ) n jest podmartyngałem z czasem odwróconym o wartościach średnich ograniczonych z dołu, tzn. a := lim n EX n >. Wówczas rodzina (X n ) n jest jednostajnie całkowalna. Dowód. Ustalmy ε > i dobierzmy k takie, że EX k a + ε/2, wówczas EX k ε/2 EX n EX k dla n k. Zatem dla takich n, z własności 32

podmartyngału E X n 1 { Xn >C} = EX n 1 {Xn>C} EX n 1 {Xn< C} = EX n 1 {Xn>C} + EX n 1 {Xn C} EX n EX k 1 {Xn>C} + EX k 1 {Xn C} EX k + ε 2 = EX k 1 {Xn>C} EX k 1 {Xn< C} + ε 2 E X k 1 { Xn >C} + ε 2. Mamy E X n = 2EX + n EX n 2EX + a, więc α := sup n E X n <. Zatem P( X n > C) E X n C α C dla C := α δ, czyli, wobec jednostajnej całkowalności rodziny jednoelementowej, dla odpowiednio małego δ >, E X k 1 { Xn >C} ε/2, a więc E X n 1 { Xn >C} ε dla n k i odpowiednio dużego C. Ponieważ rodzina {X k+1, X k+2,..., X } jest skończona, a zatem i jednostajnie całkowalna, więc dla dużych C i wszystkich n, E X n 1 { Xn >C} ε. Twierdzenie 18. Załóżmy, że T jest przedziałem, a (X t ) t T podmartyngałem (lub nadmartyngałem). Wówczas istnieje zbiór A taki, że P(A) = 1 oraz dla wszystkich ω A i t T poza odpowiednio lewym i prawym końcami T granice X t+ (ω) = istnieją i są skończone. lim X s(ω) oraz X t (ω) = lim X s(ω) s t+,s Q s t,s Q Dowód. Bez straty ogólności możemy zakładać, że X t jest podmartyngałem. Ponieważ możemy znaleźć niemalejący ciąg przedziałów [a n, b n ] taki, że T = n [a n, b n ], więc dowód wystarczy przeprowadzić w przypadku T = [a, b]. Zauważmy, że zatem z Lematu 4 dostajemy sup ]Ex(X t β) + = E(X b β) + <, t [a,b] α<β P(D [a,b] Q (X t, [α, β]) = ) =. Ponadto, na mocy Lematu 9, dla dowolnego λ > λp( sup t [a,b] Q X t λ) sup EX t + = EX b + < t [a,b] Q 33

oraz Stąd Niech λp( inf X t λ) sup EX t + EX a = EX b + EX a <. t [a,b] Q t [a,b] Q A := P( < α,beta Q,α<β inf X t sup X t < ) = 1. t [a,b] Q t [a,b] Q {D [a,b] Q (X n, [α, β]) < } { sup t [a,b] Q X t < }, wtedy P(A) = 1. By wykazać, że zbiór A ma postulowane własności wystarczy skorzystać z Lematu 16. Definicja 19. Funkcję f : T R określoną na przedziale T nazywamy PCLG (często również używa się pochodzącej z francuskiego nazwy cadlag) jeśli jest prawostronnie ciągła i w każdym punkcie T (poza ewentualnie lewym końcem) ma skończone lewostronne granice. Twierdzenie 2. Załóżmy, że T jest przedziałem, a X = (X t ) t T jest podmartyngałem (odp. nadmartyngałem) względem filtracji (F t ) t T spełniającej zwykłe warunki. Wówczas X ma prawostronnie ciągłą modyfikację wtedy i tylko wtedy gdy funkcja t EX t jest prawostronnie ciągła. Co więcej, jeśli taka modyfikacja istnieje, to istnieje również modyfikacja PCLG i F t -adaptowalna będąca podmartyngałem (odp. nadmartyngałem) względem (F t ) t T. Dowód. Wystarczy rozpatrzeć przypadek podmartyngału oraz T = [a, b]. Na mocy Twierdzenia 18 istnieje A takie, że P(A) = 1 oraz dla wszystkich ω A granice lim s t+,s Q X s, t [a, b) oraz lim s t,s Q X s, t (a, b] istnieją i są skończone. Połóżmy { lims t+,s Q X X t+ (ω) := s (ω) ω A ω / A Niech t n t+, ponieważ EX tn EX a, więc (X tn ) n jest jednostajnie całkowalny jako podmartyngał z czasem odwróconym (Fakt 17). Weźmy A F t, wówczas EX t 1 A EX tn 1 A EX t+ 1 A przy n, stąd X t+ = E(X t+ F t ) X t p.n.. Co więcej E(X t+ X t ) = lim n EX t n EX t = 34