Wstęp do Analizy Stochastycznej

Podobne dokumenty
2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

Zadania z Procesów Stochastycznych 1

Wstęp do Analizy Stochastycznej

Teoria ze Wstępu do analizy stochastycznej

Zadania ze Wstępu do Analizy Stochastycznej 1. = 0 p.n.

F t+ := s>t. F s = F t.

Zadania z Rachunku Prawdopodobieństwa III - 1

Ośrodkowość procesów, proces Wienera. Ośrodkowość procesów, proces Wienera Procesy Stochastyczne, wykład, T. Byczkowski,

4 Kilka klas procesów

8 Całka stochastyczna względem semimartyngałów

21 maja, Mocna własność Markowa procesu Wienera. Procesy Stochastyczne, wykład 13, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126

Zadania z Rachunku Prawdopodobieństwa II Podaj przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,

Wykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga

Zadania z Rachunku Prawdopodobieństwa II Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,

1 Relacje i odwzorowania

3. Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,

Prawa wielkich liczb, centralne twierdzenia graniczne

PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω)

n=0 Dla zbioru Cantora prawdziwe są wersje lematu 3.6 oraz lematu 3.8 przy założeniu α = :

Prawdopodobieństwo i statystyka

}, gdzie a = t (n) )(f(t(n) k. ) f(t(n) k 1 ) 1+δ = 0,

A i. i=1. i=1. i=1. i=1. W dalszej części skryptu będziemy mieli najczęściej do czynienia z miarami określonymi na rodzinach, które są σ - algebrami.

Zadania do Rozdziału X

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

Seria 1. Zbieżność rozkładów

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności

Zadania z RP 2. seria Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n

7 Twierdzenie Fubiniego

2 Rodziny zbiorów. 2.1 Algebry i σ - algebry zbiorów. M. Beśka, Wstęp do teorii miary, rozdz. 2 11

Notatki z Analizy Matematycznej 2. Jacek M. Jędrzejewski

Robert Kowalczyk. Zbiór zadań z teorii miary i całki

Dystrybucje, wiadomości wstępne (I)

Prawdopodobieństwo i statystyka

Wykład 21 Funkcje mierzalne. Kostrukcja i własności całki wzglȩdem miary przeliczalnie addytywnej

jest ciągiem elementów z przestrzeni B(R, R)

Wykłady... b i a i. i=1. m(d k ) inf

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Zadania z Analizy Funkcjonalnej I Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi?

O pewnych klasach funkcji prawie okresowych (niekoniecznie ograniczonych)

7. Miara, zbiory mierzalne oraz funkcje mierzalne.

Rozdział 6. Ciągłość. 6.1 Granica funkcji

Wykład 10. Stwierdzenie 1. X spełnia warunek Borela wtedy i tylko wtedy, gdy każda scentrowana rodzina zbiorów domkniętych ma niepusty przekrój.

Rodzinę F złożoną z podzbiorów zbioru X będziemy nazywali ciałem zbiorów, gdy spełnione są dwa następujące warunki.

Procesy stochastyczne

Wykłady ostatnie. Rodzinę P podzbiorów przestrzeni X nazywamy σ - algebrą, jeżeli dla A, B P (2) A B P, (3) A \ B P,

Rozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej

Zdzisław Dzedzej. Politechnika Gdańska. Gdańsk, 2013

Teoria miary i całki

Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu.

Teoria miary. WPPT/Matematyka, rok II. Wykład 5

Zadania z Rachunku Prawdopodobieństwa III - 1

28 maja, Problem Dirichleta, proces Wienera. Procesy Stochastyczne, wykład 14, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126

19 marzec, Łańcuchy Markowa z czasem dyskretnym. Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136

G. Plebanek, MIARA I CAŁKA Zadania do rozdziału 1 28

Rozdział 4. Ciągi nieskończone. 4.1 Ciągi nieskończone

Metody probabilistyczne

Procesy stochastyczne

Korzystając z własności metryki łatwo wykazać, że dla dowolnych x, y, z X zachodzi

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014

WYKŁAD Z ANALIZY MATEMATYCZNEJ I. dr. Elżbieta Kotlicka. Centrum Nauczania Matematyki i Fizyki

Statystyka i eksploracja danych

Statystyka i eksploracja danych

Wokół nierówności Dooba

Prognozowalne kryterium całkowalności według A. N. Shiryaeva i A. S. Cherny ego Joanna Karłowska-Pik. Historia

1 Zbiory. 1.1 Kiedy {a} = {b, c}? (tzn. podać warunki na a, b i c) 1.2 Udowodnić, że A {A} A =.

1. Struktury zbiorów 2. Miara 3. Miara zewnętrzna 4. Miara Lebesgue a 5. Funkcje mierzalne 6. Całka Lebesgue a. Analiza Rzeczywista.

1 Elementy analizy funkcjonalnej

Szkice do zajęć z Przedmiotu Wyrównawczego

Całki niewłaściwe. Całki w granicach nieskończonych

5 Przegląd najważniejszych rozkładów

Zasada indukcji matematycznej

PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA

Równanie przewodnictwa cieplnego (I)

Zadania o numerze 4 z zestawów licencjat 2014.

Analiza Funkcjonalna - Zadania

(b) Suma skończonej ilości oraz przekrój przeliczalnej ilości zbiorów typu G α

1 Nierówność Minkowskiego i Hoeldera

zbiorów domkniętych i tak otrzymane zbiory domknięte ustawiamy w ciąg. Oznaczamy

f(t) f(x), D f(x) = lim sup t x oraz D f(x) = lim inf

Zadania z Analizy Funkcjonalnej I Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi?

RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3.

Optymalne stałe w nierówności typu LlogL dla ciągłych martyngałów

Informacja o przestrzeniach Sobolewa

1. Funkcje monotoniczne, wahanie funkcji.

Analiza matematyczna 1 - test egzaminacyjny wersja do ćwiczeń

2. P (E) = 1. β B. TSIM W3: Sygnały stochastyczne 1/27

PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA. Piotr Wiącek

Rodzinę spełniającą trzeci warunek tylko dla sumy skończonej nazywamy ciałem (algebrą) w zbiorze X.

Jak rzucać losowe spojrzenia na ruch Browna by w nim wszystko dojrzeć

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe

Matematyka z el. statystyki, # 3 /Geodezja i kartografia II/

W2 Podstawy rachunku prawdopodobieństwa (przypomnienie)

Procesy stochastyczne

O procesie Wienera. O procesie Wienera. Procesy stochastyczne Wykład XV, 15 czerwca 2015 r. Proces Wienera. Ruch Browna. Ułamkowe ruchy Browna

Pochodne wyższych rzędów definicja i przykłady

Ciągłość funkcji f : R R

Transkrypt:

Matematyka stosowana Wstęp do Analizy Stochastycznej Rafał Latała R.Latala@mimuw.edu.pl http://www.mimuw.edu.pl/~rlatala Uniwersytet Warszawski, 211

Streszczenie. Ogólna teoria procesów, proces Wienera. Wprowadzenie do teorii martyngałów z czasem ciągłym. Definicja i podstawowe własności całki stochastycznej. Wzór Itô. Stochastyczne równania różniczkowe. Twierdzenie Girsanowa. Wersja internetowa wykładu: http://mst.mimuw.edu.pl/lecture.php?lecture=was (może zawierać dodatkowe materiały) Niniejsze materiały są dostępne na licencji Creative Commons 3. Polska: Uznanie autorstwa Użycie niekomercyjne Bez utworów zależnych. Copyright c R.Latala, Uniwersytet Warszawski, Wydział Matematyki, Informatyki i Mechaniki, 211. Niniejszy plik PDF został utworzony 13 kwietnia 211. Projekt współfinansowany przez Unię Europejską w ramach Europejskiego Funduszu Społecznego. Skład w systemie L A TEX, z wykorzystaniem m.in. pakietów beamer oraz listings. Szablony podręcznika i prezentacji: Piotr Krzyżanowski; koncept: Robert Dąbrowski.

Spis treści 1. Procesy stochastyczne. Proces Wienera............................ 5 1.1. Podstawowe definicje...................................... 5 1.2. Proces Wienera (ruch Browna)................................. 5 1.3. Charakteryzacje procesu Wienera............................... 6 1.4. Uwagi i uzupełnienia...................................... 8 1.4.1. Konstrukcja Procesu Wienera............................. 8 1.4.2. Nieróżniczkowalność trajektorii............................ 8 1.5. Zadania.............................................. 8 2. Rozkłady procesów stochastycznych.............................. 1 2.1. σ-ciało zbiorów cylindrycznych................................. 1 2.2. Warunki zgodności. Twierdzenie Kołmogorowa o istnieniu procesu............. 11 2.3. Uwagi i uzupełnienia...................................... 12 2.4. Zadania.............................................. 12 3. Ciągłość trajektorii......................................... 14 3.1. Procesy stochastycznie równoważne i nierozróżnialne..................... 14 3.2. Twierdzenie o ciągłej modyfikacji................................ 15 3.3. Uwagi i uzupełnienia...................................... 16 3.4. Zadania.............................................. 16 4. Filtracje, momenty zatrzymania................................. 17 4.1. Filtracje z czasem ciągłym................................... 17 4.2. Momenty zatrzymania...................................... 17 4.3. Progresywna mierzalność.................................... 19 4.4. Zadania.............................................. 2 5. Martyngały z czasem ciągłym.................................. 22 5.1. Definicje i przykłady....................................... 22 5.2. Nierówności maksymalne.................................... 23 5.3. Zadania.............................................. 26 6. Twierdzenia o zbieżności martyngałów............................. 27 6.1. Przejścia w dół przez przedział................................. 27 6.2. Zbieżność prawie na pewno................................... 28 6.3. Jednostajna całkowalność.................................... 29 6.4. Ciągła wersja twierdzenia Dooba................................ 3 6.5. Zbieżność martyngałów w L p.................................. 31 6.6. Uwagi i uzupełnienia...................................... 32 6.7. Zadania.............................................. 32 7. Całka Stieltjesa............................................ 34 7.1. Całka Riemanna-Stieltjesa................................... 34 7.2. Całka Lebesgue a-stieltjesa................................... 35 7.3. Nieskończone wahanie ciągłych martyngałów......................... 36 7.4. Zadania.............................................. 37 8. Całka izometryczna względem procesu Wienera....................... 38 8.1. Całka Paleya-Wienera...................................... 38 8.2. Procesy elementarne....................................... 39 Wstęp do Analizy Stochastycznej c R.Latala, Uniwersytet Warszawski, 211.

4 Spis treści 8.3. Martyngały ciągłe, całkowalne z kwadratem.......................... 4 8.4. Całka izometryczna Itô. Procesy prognozowalne....................... 41 8.5. Zadania.............................................. 43 9. Własności całki izometrycznej. Uogólnienie definicji całki stochastycznej....... 45 9.1. Twierdzenie o zatrzymaniu całki stochastycznej....................... 45 9.2. Uogólnienie definicji całki stochastycznej........................... 48 9.3. Martyngały lokalne....................................... 49 9.4. Zadania.............................................. 51 1.Całka względem ciągłych martyngałów............................ 52 1.1. Rozkład Dooba-Meyera..................................... 52 1.2. Całka izometryczna....................................... 52 1.3. Uogólnienie definicji całki.................................... 54 1.4. Zadania.............................................. 55 11.Własności nawiasu skośnego................................... 56 11.1. Nawias skośny jako wariacja kwadratowa........................... 56 11.2. Uogólnienie definicji nawiasu skośnego............................. 58 11.3. Zadania.............................................. 59 12.Dalsze własności całki stochastycznej.............................. 61 12.1. Zbieżność zmajoryzowana dla całek stochastycznych..................... 61 12.2. Całkowanie przez podstawienie................................. 61 12.3. Całkowanie przez części..................................... 63 12.4. Ciągłe semimartyngały..................................... 65 12.5. Zadania.............................................. 66 13.Wzór Itô................................................ 67 13.1. Podstawowe twierdzenie analizy stochastycznej........................ 67 13.2. Twierdzenie Levy ego...................................... 69 13.3. Charakteryzacja procesu Wienera za pomocą martyngałów wykładniczych......... 71 13.4. Zadania.............................................. 71 14.Stochastyczne Równania Różniczkowe............................. 74 14.1. Jednorodne równania stochastyczne.............................. 74 14.2. Równania niejednorodne.................................... 78 14.3. Przypadek wielowymiarowy................................... 79 14.4. Generator procesu dyfuzji.................................... 8 14.5. Zadania.............................................. 81 15.Twierdzenie Girsanowa....................................... 83 15.1. Przypadek dyskretny...................................... 83 15.2. Twierdzenie Girsanowa dla procesu Wienera......................... 83 15.3. Zadania.............................................. 86 Literatura................................................. 87

1. Procesy stochastyczne. Proces Wienera Podczas pierwszego wykładu określimy czym jest proces stochastyczny oraz zdefiniujemy proces Wienera najważniejszy przykład procesu o ciągłych trajektoriach. 1.1. Podstawowe definicje Zaczniemy od podania ważnych definicji używanych podczas całego wykładu. Definicja 1.1. Niech (Ω, F, P) będzie przestrzenią probabilistyczną, (E, E) przestrzenią mierzalną, zaś T dowolnym zbiorem. Procesem stochastycznym o wartościach w E, określonym na zbiorze T, nazywamy rodzinę zmiennych losowych X = (X t ) t T, przyjmujących wartości w zbiorze E. Uwaga 1.1. W czasie wszystkich dalszych wykładów T będzie podzbiorem R (najczęściej przedziałem, niekoniecznie ograniczonym), zaś E = R lub R d. Parametr t można wówczas interpretować jako czas. Definicja 1.2. Trajektorią procesu X nazywamy funkcję (losową!) t X t (ω), określoną na zbiorze T o wartościach w E. Definicja 1.3. Powiemy, że proces X = (X t ) t T, T R ma przyrosty niezależne jeśli dla dowolnych indeksów t t 1... t n ze zbioru T, zmienne losowe X t, X t1 X t, X t2 X t1,..., X tn X tn 1 są niezależne. ma przyrosty stacjonarne, jeśli roz- Definicja 1.4. Mówimy, że proces stochastyczny (X t ) t kład X t X s zależy tylko od t s, czyli t>s X t X s X t s X. 1.2. Proces Wienera (ruch Browna) Definicja 1.5. Procesem Wienera (ruchem Browna) nazywamy proces stochastyczny W = (W t ) t taki, że W = p.n.; W ma przyrosty niezależne; Dla s < t zmienna W t W s ma rozkład normalny N (, t s); Trajektorie W są ciągłe z prawdopodobieństwem 1. (W) (W1) (W2) (W3) Uwaga 1.2. Warunek (W3) oznacza, że istnieje zbiór A taki, że P(A) = 1 oraz dla wszystkich ω A, t W t (ω) jest funkcją ciągłą na [, ). Czasami w definicji procesu Wienera zakłada się, że wszystkie trajektorie są ciągłe oraz W. Wstęp do Analizy Stochastycznej c R.Latala, Uniwersytet Warszawski, 211.

6 1. Procesy stochastyczne. Proces Wienera 1.3. Charakteryzacje procesu Wienera Najpierw podamy twierdzenie, które znacznie ułatwia sprawdzanie, że dany proces jest procesem Wienera. Musimy wpierw podać ważną definicję. Definicja 1.6. Proces X = (X t ) t T nazywamy gaussowskim, jeśli wszystkie skończenie wymiarowe rozkłady X są gaussowskie, tzn. wektor (X t1,..., X tn ) ma rozkład gaussowski dla dowolnych t 1,..., t n T. Przykład 1.1. Następujące procesy są procesami gaussowskimi: X t = f(t)g, gdzie f : T R dowolne oraz g N (, 1), proces Wienera (W t ) t, most Browna X t = W t tw 1, t 1. Przykład 1.2. Procesy (W 2 t ) t, (exp(w t )) t nie są gaussowskie. Twierdzenie 1.1. Proces (X t ) t jest procesem Wienera wtedy i tylko wtedy, gdy jest procesem gaussowskim, o ciągłych trajektoriach p.n. takim, że EX t = oraz Cov(X t, X s ) = min{t, s}. Dowód. : Mamy EX t = E(X t X ) = oraz Var(X t ) = Var(X t X ) = t na mocy (W) i (W2). Ponadto z niezależności przyrostów, dla t s, Cov(X t, X s ) = Cov(X t X s, X s ) + Var(X s ) = + s = min{t, s}. : Zauważmy, że Var(X ) = = EX, więc spełniony jest warunek (W). Dla t > s, zmienna W t W s ma rozkład normalny ze średnią i wariancją Var(X t X s ) = Var(X t ) + Var(X s ) 2Cov(X t, X s ) = t s, więc zachodzi (W2). By sprawdzić niezależność przyrostów ustalmy t t 1... t n. Zauważmy, że wektor (X t, X t1 X t, X t2 X t1,..., X tn X tn 1 ) ma rozkład gaussowski, więc jego współrzędne są niezależne wtedy i tylko wtedy, gdy są nieskorelowane. Mamy jednak dla s 1 s 2 s 3 s 4, oraz Cov(X s1, X s3 X s2 ) = Cov(X s1, X s3 ) Cov(X s1, X s2 ) = s 1 s 1 = Cov(X s2 X s1, X s4 X s3 ) = Cov(X s2, X s4 X s3 ) Cov(X s1, X s4 X s3 ) =. Kolejne twierdzenie pokazuje, że (z dokładnością do drobnych technicznych założeń oraz normalizacji) proces Wienera jest jedynym procesem o ciągłych trajektoriach oraz niezależnych i stacjonarnych przyrostach. Twierdzenie 1.2. Załóżmy, że proces (X t ) t spełnia warunki (W), (W1), (W3) (z W zastąpionym przez X) oraz X ma przyrosty stacjonarne; EX 1 =, Var(X 1 ) = 1; EX 4 t < dla wszystkich t >. (W2a) (W2b) (W2c) Wówczas X t jest procesem Wienera.

1.3. Charakteryzacje procesu Wienera 7 Dowód. Określmy dla t, a(t) = EX t oraz b(t) = Var(X t ). Zauważmy, że na mocy niezależności i stacjonarności przyrostów, b(t + s) = Var(X t+s X t + X t ) = Var(X t+s X t ) + Var(X t ) = Var(X s ) + Var(X t ) = b(t) + b(s). Ponadto oczywiście b(t), zatem funkcja b(t) jest addytywna i niemalejąca na [, ), więc b(t) = ct dla pewnego c, co wobec (W2b) daje Var(X t ) = b(t) = t. Analogicznie sprawdzamy, że a(t + s) = a(t) + a(s), wiemy też, że a() = 1, stąd wnioskujemy, że EX t = a(t) = dla t wymiernych. Weźmy t > i wybierzmy dążący do t ciąg liczb wymiernych (t n ). Na mocy (W2c), EXt 2 <, wiemy też, że EXt 2 n = Var(X tn ) = t n, zatem (E X tn X t 2 ) 1/2 M dla pewnej stałej M. Z ciągłości trajektorii X tn X t prawie na pewno, czyli również według prawdopodobieństwa. Zatem dla ε >, EX t = EX t EX tn E X t X tn ε + E X t X tn I { Xt X tn ε} ε + (E X t X tn 2 ) 1/2 P( X t X tn ε) 1/2 ε + MP( X t X tn ε) 1/2 2ε dla dostatecznie dużych n. Stąd EX t =. Wykazaliśmy więc, że X t ma średnią zero i wariancję t. Ustalmy t > s, chcemy pokazać, że X t X s ma rozkład normalny N (, t s). Zauważmy, że n X t X s = Y n,k, gdzie Y n,k = X s+k(t s)/n X s+(k 1)(t s)/n. k=1 Zmienne (Y n,k ) 1 k n tworzą układ trójkątny, możemy więc skorzystać z Centralnego Twierdzenia Granicznego i wykazać, że n k=1 Y n,k zbiega do N (, t s) według rozkładu. Mamy n EY n,k =, k=1 n Var(Y n,k ) = t s, k=1 wystarczy więc sprawdzić warunek Lindeberga. Dla ε >, n [( L n (ε) = E Y n,k 2 n I { Yn,k ε} E Y n,k 2) ] I {maxk n Y n,k ε} k=1 k=1 ( ( n E Y n,k 2) 2) 1/2P ( ) 1/2. max Y n,k ε k n k=1 Zauważmy, że zmienne (Y n,k ) dla ustalonego n są niezależne i mają średnią zero, zatem ( E(X t X s ) 4 n ) 4 = E Y n,k = = k=1 n k=1 n k=1 EY 4 n,k + 6 EY 4 n,k + 2 1 k 1,k 2,k 3,k 4 n EYn,kEY 2 n,l 2 1 k<l n 1 k<l n EY n,k1 Y n,k2 Y n,k3 Y n,k4 ( EYn,kEY 2 n,l 2 n = E Y n,k 2) 2. Z ciągłości trajektorii X wynika, że P(max k n Y n,k ε) przy n, zatem spełniony jest warunek Lindeberga lim n L n (ε) =. k=1

8 1. Procesy stochastyczne. Proces Wienera Uwaga 1.3. Warunek (W2c) nie jest konieczny - zob. Twierdzenie 5 z paragrafu 13.1 książki [3]. Okazuje się, że również nie trzeba zakładać skończoności wariancji ani nawet istnienia wartości średniej W 1 - warunek (W2b) ma charakter czysto normalizacyjny. Dokładniej zachodzi następujące twierdzenie. Twierdzenie 1.3. Załóżmy, że proces stochastyczny X = (X t ) t spełnia warunki (W),(W1), (W2a) i (W3). Wówczas istnieją stałe a, b R i proces Wienera W takie, że X t = aw t + bt dla wszystkich t. 1.4. Uwagi i uzupełnienia 1.4.1. Konstrukcja Procesu Wienera Podczas następnych wykładów podamy dość abstrakcyjną konstrukcję procesu Wienera opartą o ogólniejsze twierdzenia dotyczące istnienia i ciągłości trajektorii procesów stochastycznych. Alternatywna, bardziej bezpośrednia konstrukcja (wymagająca pewnej znajomości analizy funkcjonalnej) procesu Wienera jest zawarta w Ćwiczeniach 1.1-1.12. 1.4.2. Nieróżniczkowalność trajektorii Trajektorie procesu Wienera mają wiele ciekawych własności, jedną z nich jest to, że prawdopodobieństwem 1 są funkcjami ciągłymi, nieróżniczkowalnymi w żadnym punkcie. Twierdzenie 1.4. Prawie wszystkie trajektorie procesu Wienera (W t ) t są funkcjami nieróżniczkowalnymi w żadnym punkcie, tzn. ) P ( t t W t (ω) jest różniczkowalne w t =. 1.5. Zadania Ćwiczenie 1.1. Znajdź rozkład zmiennej 5W 1 W 3 + W 7. Ćwiczenie 1.2. Dla jakich parametrów a i b, zmienne aw 1 W 2 oraz W 3 + bw 5 są niezależne? Ćwiczenie 1.3. Udowodnij, że lim t W t t = p.n. Ćwiczenie 1.4. Znajdź rozkład wektora losowego (W t1, W t2,..., W tn ) dla < t 1 < t 2 <... < t n. Ćwiczenie 1.5. Udowodnij, że z prawdopodobieństwem 1 trajektorie procesu Wienera są nieograniczone. Ćwiczenie 1.6. Udowodnij, że z prawdopodobieństwem 1 trajektorie procesu Wienera nie są jednostajnie ciągłe na R +.

1.5. Zadania 9 Ćwiczenie 1.7. Udowodnij, że następujące procesy też są procesami Wienera: i) X t = W t (odbicie); ii) Y t = c 1/2 W ct, c > (przeskalowanie czasu); iii) Z t = tw 1/t dla t > oraz Z = (inwersja czasu); iv) U t = W T +t W T, T ; v) V t = W t dla t T, V t = 2W T W t dla t > T, gdzie T. Ćwiczenie 1.8. Niech π n = {t (n), t(n) 1,..., t(n) k n }, gdzie a = t (n) < t (n) 1 <... < t (n) k n = b będzie ciągiem podziałów odcinka [a, b] oraz π n = max k t (n) k t (n) k 1 oznacza średnicę π n. Udowodnij, że S n = k n k=1 W t (n) k W (n) t 2 b a w L 2 (Ω) przy n, k 1 jeśli π n oraz S n b a p.n., jeśli n π n <. Ćwiczenie 1.9. Udowodnij, że prawie wszystkie trajektorie procesu Wienera mają nieskończone wahanie na każdym przedziale. Ćwiczenie 1.1. Niech f i (t) będzie dowolną bazą L 2 [, 1], h i (t) = f i(s)ds oraz niech g i będzie ciągiem niezależnych zmiennych N (, 1). Wykaż, że szereg X t = i g ih i (t) jest zbieżny w L 2 dla dowolnego t [, 1] oraz X t ma te same rozkłady skończenie wymiarowe co proces Wienera. Ćwiczenie 1.11. Niech I() = {1}, I(n) = {1,..., 2 n 1 }, n = 1, 2,.... Układem Haara nazywamy rodzinę funkcji (h n,k ) n=,1,...,k I(n) określonych na [, 1] wzorami h,1 (t) 1 oraz dla n = 1, 2,..., k I(n), 2 n 1 2 (2k 2)2 n t < (2k 1)2 n, h n,k (t) = 2 n 1 2 (2k 1)2 n t < 2k2 n, w pozostałych przypadkach. Układem Schaudera nazywamy rodzinę funkcji (S n,k ) n=,1,...,k I(n) określonych na [, 1] wzorem S n,k (t) = h n,k(s)ds. Niech (g n,k ) n=,1,...,k I(n) będzie rodziną niezależnych zmiennych losowych o rozkładzie N (, 1), połóżmy W (n) t (ω) = n m= k I(m) g m,k (ω)s m,k (t). Wykaż, że dla prawie wszystkich ω Ω ciąg funkcji (W (n) t (ω)) zbiega jednostajnie na [, 1] do pewnej funkcji ciągłej W t (ω). Jeśli określimy np. W t (ω) = dla pozostałych ω to tak zdefiniowany proces stochastyczny jest procesem Wienera na [, 1]. Ćwiczenie 1.12. Niech (W t ) t [,1] będzie procesem Wienera na [, 1]. Wykaż, że ((1+t)W 1 1+t W 1 ) t jest procesem Wienera na całej półprostej. Ćwiczenie 1.13. Udowodnij Twierdzenie 1.4. Wskazówka. Wykaż wpierw, że jeśli funkcja f jest różniczkowalna w jakimś punkcie przedziału [, 1), to ( f j + k + 1 ) ( j + k ) 5M M< m< n m j n 3 k=,1,2 f n n n.

2. Rozkłady procesów stochastycznych Podczas tego wykładu zdefiniujemy rozkład procesu stochastycznego, w szczególności powiemy jakie zdarzenia określone przez proces są mierzalne. Udowodnimy, że rozkład procesu jest wyznaczony przez rozkłady skończenie wymiarowe. Sformułujemy też warunki, które muszą być spełnione, by istniał proces stochastyczny o zadanych rozkładach skończenie wymiarowych. Przypomnijmy, że jeśli X jest zmienną losową o wartościach w przestrzeni mierzalnej (E, E), to rozkładem X jest miara probabilistyczna na (E, E) zadana wzorem µ X (A) = P(X A), A E. Dla uproszczenia będziemy przyjmować, że proces X przyjmuje wartości rzeczywiste. 2.1. σ-ciało zbiorów cylindrycznych Proces X = (X t ) t T możemy traktować jako zmienną losową o wartościach w R T. Jakie podzbiory R T są wówczas na pewno mierzalne? Definicja 2.1. Zbiory postaci { x R T : (x t1,..., x tn ) A }, t 1,..., t n T, A B(R n ) nazywamy zbiorami cylindrycznymi. Przez B(R T ) będziemy oznaczać najmniejsze σ-ciało zawierające zbiory cylindryczne i będziemy je nazywać σ-ciałem zbiorów cylindrycznych. Uwaga 2.1. Zauważmy, że B(R T ) = σ({x R T : x t A}, t T, A B(R)). Przykład 2.1. Zbiory {x: x t > x s }, {x: x t1 >, x t2 x t1 >,..., x tn x tn 1 > } oraz {x: t<s,t,s Q+ x t > x s } należą do B(R [, ) ). Przykład 2.2. Zbiór {x: sup t T x t 1} nie należy do B(R T ), gdy T jest nieprzeliczalny, podobnie {x: t x t ciągłe} nie należy do B(R T ), gdy T jest niezdegenerowanym przedziałem. Definicja 2.2. Rozkładem procesu X = (X t ) t T nazywamy miarę probabilistyczną µ X na B(R T ) daną wzorem µ X (C) = P((X t ) t T C), C B(R T ). Uwaga 2.2. Załóżmy, że T jest przedziałem (skończonym lub nie). Na przestrzeni funkcji ciagłych C(T ) rozważmy topologię zbieżności niemal jednostajnej. Wówczas B(R T ) C(T ) = B(C(T )), co oznacza, że jeśli proces X = (X t ) t T ma ciągłe trajektorie, to X wyznacza rozkład probabilistyczny na przestrzeni funkcji ciągłych (C(T ), B(C(T ))). W szczególności proces Wienera wyznacza pewien rozkład probabilistyczny na C[, ). Wstęp do Analizy Stochastycznej c R.Latala, Uniwersytet Warszawski, 211.

2.2. Warunki zgodności. Twierdzenie Kołmogorowa o istnieniu procesu 11 2.2. Warunki zgodności. Twierdzenie Kołmogorowa o istnieniu procesu Najprostsze zbiory z B(R T ) to zbiory cylindryczne. Miary takich zbiorów to rozkłady skończenie wymiarowe procesu. Definicja 2.3. Dla procesu (X t ) t T o wartościach w R i t 1,..., t n T określamy miarę µ t1,...,t n na R n wzorem µ t1,...,t n (A) = P((X t1,..., X tn ) A), A B(R n ). Rodzinę miar {µ t1,...,t n : t 1,..., t n T parami różne} nazywamy rodziną skończenie wymiarowych rozkładów procesu X. Stwierdzenie 2.1. Załóżmy, że X = (X t ) t T i Y = (Y t ) t T są procesami o tych samych skończenie wymiarowych rozkładach, czyli P((X t1,..., X tn ) A) = P((Y t1,..., Y tn ) A) dla wszystkich t 1,..., t n T, A B(R n ). Wówczas X i Y mają ten sam rozkład, tzn. P(X C) = P(Y C) dla wszystkich C B(R T ). Dowód. Rodzina zbiorów cylindrycznych A tworzy π-układ, a rodzina C zbiorów C takich, że P(X C) = P(Y C), jest λ-układem zawierającym A. Zatem z twierdzenia o π- i λ- układach, C zawiera również σ-ciało generowane przez A, czyli B(R T ). Definicja 2.4. Powiemy, że rodzina skończenie wymiarowych rozkładów {µ t1,...,t n : t 1,..., t n T parami różne} spełnia warunki zgodności, jeśli zachodzą następujące warunki: i) Dla dowolnych t 1, t 2,..., t n T, dowolnej permutacji (i 1,..., i n ) liczb (1,..., n) oraz zbiorów A 1, A 2,..., A n B(R), µ ti1,...,t in (A i1 A i2... A in ) = µ t1,...,t n (A 1 A 2... A n ). ii) Dla dowolnych t 1, t 2,..., t n+1 T oraz A 1, A 2,..., A n B(R), µ t1,...,t n,t n+1 (A 1 A 2... A n R) = µ t1,...,t n (A 1 A 2... A n ). Oczywiście rodzina rozkładów skończenie wymiarowych dowolnego procesu stochastycznego spełnia warunki zgodności. Okazuje się, że są to jedyne warunki jakie należy nałożyć na taką rodzinę. Twierdzenie 2.1. Załóżmy, że dana jest rodzina skończenie wymiarowych rozkładów (µ t1,...,t n ) spełniająca warunki zgodności. Wówczas istnieje proces (X t ) t T mający skończenie wymiarowe rozkłady równe (µ t1,...,t n ). Nie będziemy przedstawiać technicznego dowodu powyższego twierdzenia - wszystkich zainteresowanych odsyłamy do [9] lub [4]. W zamian sformułujemy użyteczny wniosek.

12 2. Rozkłady procesów stochastycznych Wniosek 2.1. Załóżmy, że T R oraz dana jest rodzina rozkładów skończenie wymiarowych {µ t1,...,t n : t 1 < t 2 <... < t n, t 1,..., t n T } spełniająca warunek µ t1,...,t n (A 1... A k 1 R A k+1... A n ) = µ t1,...t k 1,t k+1,...,t n (A 1... A k 1 A k+1... A n ). dla wszystkich t 1 < t 2 <... < t n, n 2, 1 k n oraz zbiorów borelowskich A 1,..., A n. Wówczas istnieje proces (X t ) t T taki, że (X t1,..., X tn ) ma rozkład µ t1,...,t n dla t 1 < t 2 <... < t n. Dowód. Dla t 1,..., t n T parami różnych istnieje permutacja (i 1,..., i n ) liczb (1,..., n) taka, że t i1 < t i2 <... < t in. Możemy więc określić µ t1,...,t n jako rozkład wektora (Y 1,..., Y n ) takiego, że (Y i1,..., Y in ) ma rozkład µ ti1,...,t in. Nietrudno sprawdzić, że tak określona rodzina miar (µ t1,...,t n ) spełnia warunki zgodności. Przykład 2.3. Jeśli (µ t ) t T jest dowolną rodziną rozkładów na R, to istnieje rodzina niezależnych zmiennych losowych (X t ) t T taka, że X t ma rozkład µ t. Używamy tu twierdzenia o istnieniu dla µ t1,...,t n = µ t1... µ tn. Przykład 2.4. Istnieje proces spełniający warunki (W)-(W2) definicji procesu Wienera. Istotnie dla = t t 1 < t 2 <... < t n kładziemy µ t1,...,t n ( X 1, X 1 + X 2,..., n X k ), gdzie X 1,..., X n są niezależnymi zmiennymi losowymi X k N (, t k t k 1 ). Warunki zgodności wynikają wówczas stąd, iż jeśli Y 1, Y 2 są niezależne i Y i N (, σ 2 i ) dla i = 1, 2, to Y 1 + Y 2 N (, σ 2 1 + σ2 2 ). k=1 2.3. Uwagi i uzupełnienia Podczas wykładu zakładaliśmy, że proces X ma wartości rzeczywiste. Nic się zmieni (poza oczywistymi drobnymi zmianami definicji) dla procesów o wartościach w R d. Czasem jednak zachodzi potrzeba rozpatrywania procesów o wartościach w ogólniejszej przestrzeni E. Warto więc zauważyć, że w Stwierdzeniu 2.1 nie wykorzystywaliśmy żadnych własności przestrzeni E, w dowodzie Twierdzenia 2.1 wykorzystuje się regularność miar na E n tu wystarczy założyć, że E jest σ-zwartą przestrzenią metryczną, tzn. E jest przeliczalną sumą zbiorów zwartych lub dodać warunek regularności rozpatrywanych miar (definicje i podstawowe własności miar regularnych można znaleźć w rozdziale 2 [7]). 2.4. Zadania Ćwiczenie 2.1. Udowodnij, że jeśli zbiór A B(R T ), to istnieje zbiór przeliczalny T T taki, że jeśli x, y R T oraz x(t) = y(t) dla t T, to x A y A. Ćwiczenie 2.2. Niech T = [a, b], a < t < b, wykaż, że następujące zbiory nie należą do B(R T ): i) A 1 = {x R T : sup t [a,b] x t 1}; ii) A 2 = {x R T : t x t ciągłe na [a, b]}; iii) A 3 = {x R T : lim t t x t = }; iv) A 4 = {x R T : t x t ciągłe w t }.

2.4. Zadania 13 Wykaż mierzalność tych zbiorów przy założeniu ciągłości (prawostronnej ciągłości) trajektorii, tzn. wykaż, że wszystkie te zbiory po przecięciu z C(T ) (odp. RC(T ) przestrzeni funkcji prawostronnie ciągłych) należą do B(R T ) C(T ) (B(R T ) RC(T ) odp.). Ćwiczenie 2.3. Niech T = [a, b]. Wykaż, że F = {A C(T ): A B(R T )} jest σ-ciałem zbiorów borelowskich (w metryce supremum) na C(T ). Ćwiczenie 2.4. Wykaż, że istnieje proces (X t ) t o przyrostach niezależnych, startujący z taki, że X t X s ma rozkład Cauchy ego z parametrem t s (proces taki nazywamy procesem Cauchy ego, bądź procesem 1-stabilnym).

3. Ciągłość trajektorii Wiemy już kiedy istnieje proces o zadanych skończenie wymiarowych rozkładach. Nasuwa się pytanie kiedy taki proces ma ciągłe trajektorie? Zanim jednak zastanowimy się nad odpowiedzią wprowadzimy dwa ważne sposoby porównywania procesów. 3.1. Procesy stochastycznie równoważne i nierozróżnialne Definicja 3.1. Niech X = (X t ) t T oraz Y = (Y t ) t T będą dwoma procesami stochastycznymi, określonymi na tej samej przestrzeni probabilistycznej. Powiemy, że: a) X jest modyfikacją Y (lub X jest stochastycznie równoważny Y ), jeśli b) X i Y są nierozróżnialne, jeśli t T P(X t = Y t ) = 1; P( t T X t = Y t ) = 1. Zauważmy, że procesy nierozróżnialne są oczywiście stochastycznie równoważne. Ponadto dwa procesy stochastycznie równoważne mają ten sam rozkład. Poniższy przykład pokazuje, że z rozkładu procesu nie można wnioskować o własnościach trajektorii. Przykład 3.1. Niech Z będzie dowolną zmienną losową o rozkładzie bezatomowym tzn. P(Z = z) = dla wszystkich z R. Zdefiniujmy dwa procesy na T = [, ): { dla t Z(ω), X t oraz Y t (ω) = 1 dla t = Z(ω). Wówczas Y jest modyfikacją X, bo P(X t Y t ) = P(Z = t) =. Zauważmy jednak, że wszystkie trajektorie Y są nieciągłe. W szczególności P( t X t = Y t ) =, a zatem procesy X i Y nie są nierozróżnialne. Stwierdzenie 3.1. Załóżmy, że T jest przedziałem oraz procesy X = (X t ) t T i Y = (Y t ) t T mają prawostronnie ciągłe trajektorie. Wówczas, jeśli X jest modyfikacją Y, to X i Y są nierozróżnialne. Dowód. Wybierzmy przeliczalny podzbiór T T, gęsty w T, zawierający dodatkowo sup T, jeśli T jest przedziałem prawostronnie domkniętym. Niech A = { t T X t = Y t }, wówczas P(A) = 1, jako przeliczalne przecięcie zbiorów pełnej miary. Ponadto, jeśli ω A, to dla dowolnego t T, czyli X t (ω) = lim X s (ω) = lim Y s (ω) = Y t (ω), s t+,s T s t+,s T P( t T X t = Y t ) P(A) = 1. Wstęp do Analizy Stochastycznej c R.Latala, Uniwersytet Warszawski, 211.

3.2. Twierdzenie o ciągłej modyfikacji 15 3.2. Twierdzenie o ciągłej modyfikacji Najważniejsze twierdzenie tego wykładu podaje kryterium istnienia modyfikacji procesu, która ma ciągłe trajektorie. Zanim sformułujemy dokładny wynik przypomnijmy definicję funkcji hölderowskiej. Definicja 3.2. Funkcja f : [a, b] R jest hölderowsko ciągła z wykładnikiem γ, jeśli dla pewnej stałej C <, f(s) f(t) C t s γ dla wszystkich s, t [a, b]. Twierdzenie 3.1. Załóżmy, że X = (X t ) t [a,b] jest procesem takim, że t,s [a,b] E X t X s α C t s 1+β (3.1) dla pewnych stałych dodatnich α, β, C. Wówczas istnieje proces X = ( X t ) t [a,b], będący modyfikacją procesu X, którego wszystkie trajektorie są ciągłe. Co więcej trajektorie każdej modyfikacji X o ciągłych trajektoriach są, z prawdopodobieństwem 1, hölderowsko ciągłe z dowolnym wykładnikiem γ < β α. Zainteresownych dowodem odsyłamy np. do [4] lub [9]. Wniosek 3.1. Twierdzenie 3.1 jest prawdziwe, gdy przedział [a, b] zastąpimy nieskończonym przedziałem, o ile hölderowskość trajektorii zastąpimy lokalną hölderowskością (tzn. hölderowskością na każdym przedziale skończonym). Co więcej, wystarczy, by warunek (3.1) zachodził dla s t δ, gdzie δ jest ustaloną liczbą dodatnią. Dowód. Przedział nieskończony T można zapisać jako przeliczalną sumę przedziałów [a n, a n+1 ], (n) długości nie większej od δ. Z Twierdzenia 3.1 wynika istnienie modyfikacji X t procesu X (n) (n+1) na przedziale [a n, a n+1 ], o ciągłych trajektoriach. Niech A n = { X a n+1 X a n+1 }, wówczas A = n A n ma miarę zero. Możemy więc położyć: X t (ω) = { X (n) t (ω) dla t [a n, a n+1 ], ω / A, dla ω A. Wniosek 3.2. Istnieje proces Wienera, tzn. proces spełniający warunki (W)-(W3). Dowód. Mamy E W s W t 4 = E t sw 1 4 = (s t) 2 EW 4 1 = 3(s t)2 i możemy zastosować Wniosek 3.1 z β = 1, α = 4 i C = 3. Wniosek 3.3. Prawie wszystkie trajektorie procesu Wienera są lokalnie hölderowsko ciągłe z dowolnym parametrem γ < 1/2. Dowód. Mamy E W s W t p = (s t) p/2 E W 1 p = C p (s t) p/2 dla dowolnego p <. Stosując Twierdzenie 3.1 z β = p/2 1, α = p dostajemy hölderowską ciągłość trajektorii z dowolnym γ < 1 2 1 p. Biorąc p dostajemy tezę. Uwaga 3.1. Prawie wszystkie trajektorie procesu Wienera nie są jednostajnie ciągłe na [, ), nie mogą więc być globalnie hölderowskie z żadnym wykładnikiem.

16 3. Ciągłość trajektorii Uwaga 3.2. Założenia β > nie można opuścić wystarczy rozważyć proces Poissona (N t ) t (tzn. proces o prawostronnie ciaglych trajektoriach, startujący z zera, o przyrostach niezależnych taki, że N t N s ma rozkład Poissona z parametrem λ(t s) zob. np. rozdział 23 w [1]). Wówczas E N t N s = λ t s, a oczywiście proces Poissona przyjmuje wartości całkowite, więc nie ma modyfikacji o ciągłych trajektoriach. 3.3. Uwagi i uzupełnienia W tym wykładzie koncentrowaliśmy uwagę nad procesami o trajektoriach ciągłych. Warto jednak wspomnieć o innych formach ciągłości procesów stochastycznych. Definicja 3.3. Niech X = (X t ) t T będzie procesem stochastycznym. Mówimy, że a) proces X jest stochastycznie ciągły, jeśli t n t X tn P Xt. b) proces X jest ciągły wg p-tego momentu (ciągły w L p ), jeśli t n t E X tn X t p. Uwaga 3.3. Ciągłość trajektorii oraz ciągłość wg p-tego momentu implikują ciągłość stochastyczną procesu. Z pozostałych czterech implikacji między powyższymi pojęciami ciągłości procesu żadna nie jest prawdziwa bez dodatkowych założeń. 3.4. Zadania Ćwiczenie 3.1. Proces X jest modyfikacją procesu Wienera. Które z następujących własności są spełnione dla procesu X: a) niezależność przyrostów, b) stacjonarność przyrostów, c) ciągłość trajektorii, X d) lim t t t = p.n., X e) lim t t t = według prawdopodobieństwa? Ćwiczenie 3.2. Wykaż, że trajektorie procesu Wienera nie są lokalnie 1/2-hölderowskie. Ćwiczenie 3.3. Scentrowany proces gaussowski nazywamy ułamkowym ruchem Browna, jeśli E X t X s 2 = t s 2α (można wykazać, że taki proces istnieje dla < α < 1). Udowodnij, że ułamkowy ruch Browna ma ciągłą modyfikację. Co można powiedzieć o hölderowskości jej trajektorii? Ćwiczenie 3.4. Udowodnij tezę Uwagi 3.3.

4. Filtracje, momenty zatrzymania Pokażemy jak zmodyfikować definicje omawiane podczas kursowego wykładu z rachunku prawdopodobieństwa z przypadku czasu dyskretnego na czas ciągły. Będziemy zakładać, że T jest lewostronnie domkniętym przedziałem (typowo T = [, )), choć większość definicji i wyników można uogólnić na szerszą klasę zbiorów. 4.1. Filtracje z czasem ciągłym Definicja 4.1. Filtracją (F t ) t T przestrzeni probabilistycznej (Ω, F, P) nazywamy rosnącą rodzinę σ-ciał zawartych w F, tzn. F t F s F dla t s, t, s T. Zdarzenia z σ-ciała F t możemy interpretować jako zdarzenia obserwowalne do chwili t. Definicja 4.2. Niech X = (X t ) t T będzie procesem stochastycznym. Filtracją generowaną przez X nazywamy rodzinę (F X t ) t T daną wzorem F X t = σ(x s : s t). Stwierdzenie 4.1. Proces X t ma przyrosty niezależne wtedy i tylko wtedy, gdy dla dowolnych t < s, t, s T przyrost X s X t jest niezależny od σ-ciała F X t. Dowód. : Rodzina A zdarzeń niezależnych od X s X t tworzy λ-układ, ponadto, z niezależności przyrostów X, zawiera π-układ zdarzeń postaci {X t1 A 1,..., X tn A n } dla t 1 <... < t n t, który generuje σ-ciało F X t. Zatem, na mocy twierdzenia o π- i λ-układach, A F X t. : Ustalmy t 1 <... < t n oraz zbiory borelowskie A 1,..., A n. Zdarzenie {X t1 A 1, X t2 X t1 A 2,..., X tn 1 X tn 2 A n 1 } należy do σ-ciała F X t n 1, więc jest niezależne od zmiennej X tn X tn 1. Stąd P(X t1 A 1, X t2 X t1 A 2,..., X tn X tn 1 A n ) = P(X t1 A 1,..., X tn 1 X tn 2 A n 1 )P(X tn X tn 1 A n ). Iterując to rozumowanie pokazujemy, że P(X t1 A 1, X t2 X t1 A 2,..., X tn X tn 1 A n ) = P(X t1 A 1 )P(X t2 X t1 A 2, ) P(X tn X tn 1 A n ). Definicja 4.3. Proces X = (X t ) nazywamy zgodnym z filtracją (F t ) t T, F t -adaptowalnym lub adaptowanym do filtracji (F t ) t T, jeśli dla wszystkich t T, X t jest F t mierzalne. Uwaga 4.1. Oczywiście proces X jest zgodny z filtracją (F t ) t T wtedy i tylko wtedy, gdy Ft X F t dla t T. W szczególności każdy proces X jest zgodny z filtracją przez siebie generowaną. 4.2. Momenty zatrzymania Definicja 4.4. Momentem zatrzymania (momentem Markowa, czasem zatrzymania) względem filtracji (F t ) t T nazywamy zmienną losową o wartościach w T { } taką, że {τ t} F t dla wszystkich t T. Wstęp do Analizy Stochastycznej c R.Latala, Uniwersytet Warszawski, 211.

18 4. Filtracje, momenty zatrzymania Moment zatrzymania to strategia przerwania eksperymentu losowego (np. zakończenia udziału w pewnej grze losowej) taka, że decyzję o przerwaniu do chwili t podejmujemy tylko na podstawie obserwacji dostępnych w tym czasie. Dla zbioru A R i procesu stochastycznego (X t ) t T określmy τ A = inf{t T : X t A}. Stwierdzenie 4.2. Jeśli (X t ) t T jest F t -adaptowalnym procesem o ciągłych trajektoriach, zaś A zbiorem domkniętym, to τ A jest momentem zatrzymania względem filtracji (F t ). Dowód. Niech T T będzie gęstym podzbiorem T zawierającym lewy koniec. Z domkniętości zbioru A i ciągłości X dostajemy dla t T, {τ A t} = { s t X s A} = n=1 s t,s T {X s A 1/n } F t, gdzie A ε := {x R n : d(x, A) < ε} (ε-otoczka zbioru A). Uwaga 4.2. Jeśli w powyższym przykładzie A będzie zbiorem otwartym, to τ A nie musi być momentem zatrzymania względem filtracji (F t ) t T, ale musi być momentem zatrzymania względem filtracji (F t+ ) t T, gdzie dla t < sup T F t+ := s>t F s, a jeśli t jest największym elementem T, to kładziemy F t+ = F t. Powyższa uwaga motywuje poniższą definicję, która ma nieco techniczny charakter, ale jest powszechnie używana w teorii procesów. Definicja 4.5. Filtrację (F t ) t T nazywamy prawostronnie ciągłą, jeśli F t+ = F t dla wszystkich t T. Mówimy, że filtracja (F t ) t T spełnia zwykłe warunki, jeśli a) jest prawostronnie ciągła, b) dla wszystkich t, F t zawiera wszystkie zbiory miary zero, tzn. jeśli A F, P(A) =, to A F t. Definicja 4.6. Niech τ będzie momentem zatrzymania względem filtracji (F t ) t T. Definiujemy σ-ciało zdarzeń obserwowalnych do chwili τ wzorem F τ := { ( A F := σ t T Stwierdzenie 4.3. a) Zbiór F τ jest σ-ciałem. b) Jeśli τ σ, to F τ F σ. c) Zmienna losowa τ jest F τ mierzalna. F t ) : t T A {τ t} F t }. Dowód. a) Zbiór Ω F τ, bo Ω {τ t} = {τ t} F t. Jeśli A F τ, to A {τ t} = {τ t}\ (A {τ t}) F t, czyli A F τ. Jeśli A n F τ, to ( n A n) {τ t} = n (A n {τ t}) F t, zatem n A n F τ. b) Weźmy A F τ, wówczas dla t T, A {σ t} = A {τ t} {σ t} F t, czyli A F σ. c) Wystarczy pokazać, że {τ s} F τ, ale {τ s} {τ t} = {τ s t} F s t F t.

4.3. Progresywna mierzalność 19 Stwierdzenie 4.4. Załóżmy, że τ i σ są momentami zatrzymania. Wówczas F τ σ = F τ F σ oraz zdarzenia {τ < σ}, {σ < τ}, {τ σ}, {σ τ}, {τ = σ} należą do F τ σ. Dowód. Zauważmy, że τ σ jest momentem zatrzymania oraz τ σ τ i τ σ σ, zatem na mocy Stwierdzenia 4.3 dostajemy F τ σ F τ F σ. Na odwrót, jeśli A F τ F σ, to A {τ σ t} = A ({τ t} {σ t}) = (A {τ t}) (A {σ t}) F t, czyli A F τ σ. Dalszą część stwierdzenia pozostawiamy do samodzielnego udowodnienia w ramach prostego ćwiczenia. 4.3. Progresywna mierzalność Okazuje się, że adaptowalność procesu nie gwarantuje np. mierzalności zmiennych X τ dla wszystkich momentów zatrzymania τ. Dlatego wprowadzimy jeszcze jedną techniczną definicję. Definicja 4.7. Proces X = (X t ) t T nazywamy progresywnie mierzalnym względem filtracji (F t ) t T, jeśli dla każdego t T, funkcja (s, ω) X s (ω) traktowana jako funkcja ze zbioru T (, t] Ω w R jest mierzalna względem σ-algebry B(T (, t]) F t. Równoważnie t T A B(R) {(s, ω) T Ω: s t, X s (ω) A} B(T (, t]) F t. Stwierdzenie 4.5. Załóżmy, że T jest przedziałem oraz dany jest proces X = (X t ) t T oraz filtracja (F t ) t T. a) Jeśli proces X jest progresywnie mierzalny względem (F t ), to jest F t -adaptowalny. b) Jeśli proces X jest F t -adaptowalny oraz ma prawostronnie ciągłe trajektorie, to jest progresywnie mierzalny względem (F t ). Dowód. a) Zbiór {ω : X t (ω) A} jest przekrojem zbioru {(s, ω) T Ω: s t, X s (ω) A}, a zatem należy do F t. b) Ustalmy t T i połóżmy dla s T, s t, X s (n) := X t 2 n k, gdzie k jest liczbą całkowitą taką, że t 2 n (k + 1) < s t 2 n k. Wówczas {(s, ω) T Ω: s t, X s (n) (ω) A} ( = T k= (t k + 1 2 n, t k 2 n ]) B(T (, t]) F t. {ω : X t k (ω) A} 2n Zatem funkcja X s (n) (ω), s T (, t], ω Ω jest B(T (, t]) F t mierzalna. Wobec prawostronnej ciągłości X mamy X s (ω) = lim n X s (n) (ω), więc funkcja X s (ω), s T (, t], ω Ω jest B(T (, t]) F t mierzalna jako granica funkcji mierzalnych. Jeśli τ jest momentem zatrzymania, a X = (X t ) t T procesem, to zmienna X τ jest dobrze zdefiniowana tylko na zbiorze {τ < }. Musimy zatem określić co mamy na myśli mówiąc, że zmienna X τ jest mierzalna. Definicja 4.8. Mówimy, że zmienna losowa X określona na zbiorze A jest mierzalna względem σ-ciała G zawierającego A, jeśli {ω A: X(w) B} G dla dowolnego zbioru borelowskiego B. Przed sformułowaniem kolejnego stwierdzenia wprowadzimy jeszcze jedną użyteczną definicję. Definicja 4.9. Jeśli X = (X t ) t T jest procesem stochastycznym, a τ zmienną o wartościach w T { }, to definujemy X τ = (X τ t ) t T proces X zatrzymany w czasie τ wzorem X τ t = X τ t.

2 4. Filtracje, momenty zatrzymania Stwierdzenie 4.6. Załóżmy, że X = (X t ) t T jest procesem progresywnie mierzalnym względem filtracji (F t ) t T, a τ jest momentem zatrzymania. Wówczas zmienna losowa X τ określona na zbiorze {τ < } F τ jest F τ mierzalna. Ponadto X τ proces X zatrzymany w chwili τ jest progresywnie mierzalny. Dowód. Odwzorowanie (s, ω) (τ(ω) s, ω): T (, t] Ω T (, t] Ω jest mierzalne względem σ-ciała B(T (, t]) F t ). Jeśli złożymy je z odwzorowaniem (s, ω) X s (ω) mierzalnym z (T (, t] Ω, B(T (, t]) F t ) w R, to otrzymamy odwzorowanie (s, ω) X τ(ω) s (ω) mierzalne z (T (, t] Ω, B(T (, t]) F t ) w R. Stąd wynika progresywna mierzalność procesu X τ. By zakończyć dowód zauważmy, że {X τ A} {τ t} = {X τ t A} {τ t} F t na mocy progresywnej mierzalności (a właściwie adaptowalności) X τ. 4.4. Zadania Ćwiczenie 4.1. Załóżmy, że T jest przedziałem i określmy: F t+ := ( F s, F t := σ F s ). s>t a) Wykaż, że filtracja F t+ jest prawostronnie ciągła, tzn. F t++ = F t+. b) Udowodnij, że jeśli F t = Ft X jest filtracją generowaną przez proces X o lewostronnie ciągłych trajektoriach, to F t = F t. c) Niech T = [, ), A F oraz X t = (t 1) + I A. Znajdź Ft X. d) Dla X jak w punkcie c) określmy τ := inf{t: X t > }. Wykaż, że τ nie jest momentem zatrzymania względem Ft X ale jest momentem zatrzymania względem Ft+. X Ćwiczenie 4.2. Załóżmy, że T jest przedziałem, wykaż, że: a) jeśli τ jest momentem zatrzymania, to {τ < t} F t dla wszystkich t; b) jeśli {τ < t} F t dla wszystkich t, to τ jest momentem zatrzymania względem F t+. Ćwiczenie 4.3. Niech T = [, ), a τ będzie momentem zatrzymania, które ze zmiennych τ + 1, τ 2, τ 1 muszą być momentami zatrzymania? Ćwiczenie 4.4. Niech T = [, ), a X t procesem F t -adaptowalnym o ciągłych trajektoriach. Wykaż, że dla A otwartego τ A := inf{t: X t A} jest momentem zatrzymania względem F t+. Ćwiczenie 4.5. Wykaż, że jeśli τ i σ są momentami zatrzymania, to zdarzenia {τ < σ}, {τ = σ} i {τ σ} należą do F τ, F σ i F τ σ. Ćwiczenie 4.6. Wykaż, że jeśli τ jest momentem zatrzymania, to proces X t := I [,τ) (t) jest progresywnie mierzalny. Ćwiczenie 4.7. Niech τ będzie momentem zatrzymania względem (F t ) t T, a (X t ) będzie procesem F t -adaptowalnym. Wykaż, że a) τ jest F τ -mierzalne; b) jeśli τ przyjmuje przeliczalnie wiele wartości, to X τ jest F τ mierzalny na zbiorze τ <. s<t

4.4. Zadania 21 Ćwiczenie 4.8. Wykaż, że jeśli σ jest momentem zatrzymania, τ σ oraz τ jest F σ mierzalny, to τ jest momentem zatrzymania. Ćwiczenie 4.9. Wykaż, że jeśli proces X t ma niezależne przyrosty i prawostronnie ciągłe trajektorie, to dla s t zmienna X s X t jest niezależna od F X t+.

5. Martyngały z czasem ciągłym Tak jak podczas poprzedniego wykładu, jeśli nie zaznaczymy inaczej, będziemy zakładać, że T jest lewostronnie domkniętym przedziałem. 5.1. Definicje i przykłady Definicja 5.1. Mówimy, że (X t ) t T jest martyngałem (odp. podmartyngałem, nadmartyngałem) względem filtracji (F t ) t T lub, że (X t, F t ) t T jest martyngałem (odp. podmartyngałem, nadmartyngałem), jeśli a) dla wszystkich t T, X t jest F t -mierzalny i E X t <, b) dla dowolnych s, t T, s < t, E(X t F s ) = X s p.n. (odp. dla podmartyngału i dla nadmartyngału). Przykład 5.1. Jeśli X jest całkowalną zmienną losową, a F t dowolną filtracją to X t := E(X F t ) jest martyngałem. Sprawdzamy dla t > s, E(X t F s ) = E(E(X F t ) F s ) = E(X F s ) = X s Przykład 5.2. (W t ) t jest martyngałem względem naturalnej filtracji F t = σ(w s : s t). Istotnie dla t > s mamy z niezależności przyrostów p.n.. E(W t F s ) = E(W s F s ) + E(W t W s F s ) = W s + E(W t W s ) = W s Przykład 5.3. (W 2 t ) t jest podmartyngałem, a (W 2 t t) t martyngałem względem naturalnej filtracji F t = σ(w s : s t). Liczymy dla t > s, E(W 2 t F s ) = E(W 2 s F s ) + E(2W s (W t W s ) F s ) + E((W t W s ) 2 F s ) p.n.. = W 2 s + 2W s E(W t W s ) + E(W t W s ) 2 = W 2 s + t s p.n.. Uwaga 5.1. W ostatnich dwu przykładach filtrację (F W t ) można zastąpić filtracją (F W t+). Stwierdzenie 5.1. Załóżmy, że (X t, F t ) jest martyngałem (odp. podmartyngałem), zaś f : R R funkcją wypukłą (odp. wypukłą i niemalejącą) taką, że E f(x t ) < dla wszystkich t. Wówczas (f(x t ), F t ) jest podmartyngałem. Dowód. Z nierówności Jensena mamy E(f(X t ) F s ) f(e(x t F s )) p.n., a ostatnia zmienna jest równa f(x s ) w przypadku martyngału i nie mniejsza niż f(x s ) dla podmartyngału. Przypomnijmy definicję funkcji harmonicznych. Definicja 5.2. Funkcję f : R n R nazywamy podharmoniczną (odp. harmoniczną, nadharmoniczną) jeśli jest ograniczona na zbiorach zwartych oraz x R n r f(x) 1 S n 1 f(x + ry)dσ(y) (odp. =, ), S n 1 gdzie σ(y) jest miarą powierzchniową na sferze, a S n 1 = S n 1 dσ(y) = 2π n/2 (Γ(n/2)) 1. Wstęp do Analizy Stochastycznej c R.Latala, Uniwersytet Warszawski, 211.

5.2. Nierówności maksymalne 23 Uwaga 5.2. Funkcja gładka jest harmoniczna (odp. pod-,nad-) wtedy i tylko wtedy, gdy f = (odp., ). Dla n = 1 warunek podharmoniczności jest równoważny wypukłości. Funkcja f(x) = ln x x jest nadharmoniczna na R 2, a funkcja f(x) = x x 2 d nadharmoniczna na R d dla d > 2. Stwierdzenie 5.2. Niech W t = (W (1) t,..., W (d) t ) będzie d-wymiarowym procesem Wienera, Ft W = σ(w s : s t), zaś f : R d R funkcją harmoniczną (odp. nad-, pod-) taką, że E f(w t ) < dla t. Wówczas (f(w t ), Ft W ) jest martyngałem (odp. nad-, pod-). Dowód. Liczymy dla t > s korzystając z niezależności przyrostów procesu Wienera oraz wprowadzając współrzędne sferyczne, E(f(W t ) Fs W ) = E(f(W s + (W t W s )) Fs W ) = (2π(t s)) d/2 f(w s + x)e R d = (2π(t s)) d/2 r d 1 e = (2π(t s)) d/2 S d 1 f(w s ) = (2π) d/2 S d 1 r2 2(t s) x 2 2(t s) dx ( ) f(w s + y)dσ(y) dr S d 1 r d 1 e r2 2(t s) dr r d 1 e r2 2 drf(ws ) = c d f(w s ) By zauważyć, że c d = 1 przeprowadzamy albo bezpośredni rachunek, albo podstawiamy powyżej f 1. p.n.. 5.2. Nierówności maksymalne Zacznijmy od przypomnienia podstawowego lematu dla martyngałów z czasem dyskretnym, pochodzącego od Dooba. Lemat 5.1. Załóżmy, że (X n, F n ) n N jest martyngałem (odp. nad-, pod-), zaś τ σ N dwoma momentami zatrzymania. Wówczas E(X σ F τ ) = X τ p.n. (odp., ). Dowód. Musimy pokazać, że dla A F τ, EX τ I A = EX σ I A. Połóżmy A k := A {τ = k} dla k =, 1,..., N. Mamy zatem σ 1 N (X σ X τ )I Ak = (X σ X k )I Ak = (X i+1 X i )I Ak = (X i+1 X i )I Ak {σ>i}, gdyż A k {σ > i} F i. Stąd E[(X σ X τ )I Ak ] = i=k i=k N E[(X i+1 X i )I Ak {σ>i}] =, i=k E[(X σ X τ )I A ] = N E[(X σ X τ )I Ak ] =. k=

24 5. Martyngały z czasem ciągłym Uwaga 5.3. Lemat 5.1 nie jest prawdziwy, jeśli nie założymy ograniczoności momentów zatrzymania, np. biorąc X n = n k=1 ε n, gdzie ε n niezależne zmienne losowe takie, że P(ε n = ±1) = 1/2, F n = σ(ε 1,..., ε n ), τ =, σ = inf{n: X n = 1} widzimy, że EX τ = 1 = EX σ. Przed sformułowaniem kolejnego lematu przypomnijmy, że przez X + i X oznaczamy odpowiednio część dodatnią i ujemną zmiennej X, tzn. X + := max X, oraz X := max X,. Lemat 5.2. Niech (X n, F n ) n N będzie podmartyngałem, wówczas dla wszystkich λ mamy ( ) a) λp max X n λ n N ( ) b) λp min X n λ n N EX N I {max n N X n λ} EX + N, EX N I {min n N X n> λ} EX EX + N EX. Dowód. a) Niech τ := inf{n: X n λ}, z Lematu 5.1 dostajemy (wobec τ N N) EX N EX τ N = EX τ I {max n N X n λ} + EX N I {max n N X n<λ} λp( max n N X n λ) + EX N I {max n N X n<λ} i po przeniesieniu wartości oczekiwanych na jedną stronę dostajemy postulowaną nierówność. b) Definiujemy τ := inf{n: X n λ}, z Lematu 5.1 dostajemy (wobec τ N ) EX EX τ N = EX τ I {min n N X n λ} + EX N I {min n N X n> λ} λp( min n N X n λ) + EX N I {min n N X n> λ} i znów wystarczy pogrupować wartości oczekiwane. Wniosek 5.1. Jeśli (X n, F n ) n N jest martyngałem, bądź nieujemnym podmartyngałem, to ( ) a) p 1 λ λ p P max X n λ n N E X N p, ( p ) pe XN b) p>1 E X N p E max X n p p. n N p 1 Dowód. a) Funkcja f(t) = t p jest wypukła, niemalejąca na R +, stąd na mocy Stwierdzenia 5.1 X n p jest nieujemnym podmartyngałem, zatem z Lematu 5.2 mamy ( ) λ p P max X n λ n N ( = λ p P max X n p λ p) n N E X N p I {max n N X n p λ p } E X N p. b) Niech X := max n N X n, z rachunku przeprowadzonego powyżej dla p = 1, λp(x λ) E X N I {X λ}. Stosując kolejno wzór na całkowanie przez części, twierdzenie Fubiniego i nierówność Höldera dostajemy E max X n p = p λ p 1 P(X λ)dλ p λ p 2 E X N I {X n N λ}dλ X = pe X N λ p 2 dλ p p 1 E X N (X ) p 1 p p 1 (E X N p ) 1/p (E(X ) p ) (p 1)/p.

5.2. Nierówności maksymalne 25 Jeśli E X N p <, to na mocy nierówności Jensena, E X n p E X N p < dla n N oraz E(X ) p E N n= X n p <. Dzieląc więc otrzymaną poprzednio nierówność stronami przez (E(X ) p ) (p 1)/p dostajemy (E(X ) p ) 1/p p p 1 (E X N p ) 1/p. Udowodnimy teraz nierówność maksymalną Dooba w przypadku ciągłym. Twierdzenie 5.1. Załóżmy, że (X t, F t ) t T martyngałem lub nieujemnym podmartyngałem, o prawostronnie ciągłych trajektoriach. Wówczas ( a) p 1 λ λ p P b) p>1 sup t T ) sup X t λ t T sup E X t p, t T ( p E X t p E sup X t p t T p 1 ) p sup E X t p. t T Uwaga 5.4. Oczywiście, jeśli T zawiera element maksymalny t max, to przy założeniach twierdzenia sup t T E X t p = E X tmax p. Dowód. Jeśli D jest skończonym podzbiorem T, to na podstawie Wniosku 5.1 dostajemy ( λ p P sup t D ) X t λ sup t D E X t p sup E X t p. t T Niech T będzie gęstym podzbiorem T zawierającym prawy koniec T (o ile taki istnieje), zaś D n wstępującym ciągiem skończonych podzbiorów T takim, że n D n = T. Wówczas dla dowolnego λ > dostajemy na mocy prawostronnej ciągłości ( λ p P sup X t > λ ) = λ ( p P sup X t > λ ) t T t T ( = lim λ p P sup X t > λ ) n t D n sup E X t p. t T Biorąc ciąg λ n λ dostajemy postulowaną w a) nierówność. Nierówność z punktu b) wynika z Wniosku 5.1 w podobny sposób. Uwaga 5.5. Punkt b) Twierdzenia 5.1 nie zachodzi dla p = 1 można skonstruować martyngał dla którego sup t E X t <, ale E sup t X t =. Zachodzi jednak (przy założeniach Twierdzenia 5.1) nierówność E sup X t e ( t T e 1 Wniosek 5.2. Dla dowolnych u, s > zachodzi ( P sup t s 1 + sup t T ) W t u e u2 2s. ) E X t ln + X t.

26 5. Martyngały z czasem ciągłym Dowód. Ustalmy λ >, wówczas M t := exp(λw t λ2 t 2 ) jest martyngałem względem filtracji Ft W generowanej przez proces Wienera (Ćwiczenie 5.2). Stąd na mocy Twierdzenia 5.1 a) z p = 1 i nieujemności M t dostajemy ( P sup t s ) ( W t u P sup t s ) M t e λu λ2 s 2 e λu+ λ2 s 2 sup E M t = e λu+ λ2 s 2 EM = e λu+ λ2 s 2. t s Zatem ( P sup t s ) W t u inf λ> e λu+ λ 2 s 2 = e u2 2s. 5.3. Zadania Ćwiczenie 5.1. Załóżmy, że (N t ) t jest procesem Poissona, tzn. procesem o prawostronnie ciągłych trajektoriach takim, że N =, N ma przyrosty niezależne, oraz N t N s Poiss(t s) dla t > s. Wykaż, że (N t λt) t oraz ((N t λt) 2 λt) t są martyngałami względem (F N t ) t. Ćwiczenie 5.2. Wykaż, że (exp(λw t λ2 t 2 ), F W t ) t jest martyngałem dla dowolnego λ R. Ćwiczenie 5.3 (Prawo iterowanego logarytmu dla procesu Wienera). Wykaż, że a) lim sup t W t 2t ln ln t = 1 p.n., W b) lim inf t t 2t ln ln t = 1 p.n.. Wskazówka. i) Niech C > 1 oraz u > C 1/2. Wykaż, że i wywnioskuj stąd, że lim sup t ii) Wykaż, że lim sup t iii) Udowodnij, że dla g N (, 1) i t >, iv) Wykaż, że dla C > 1 i u < 1 i wywnioskuj stąd i z ii), że lim sup t Ćwiczenie 5.4. Udowodnij, że a) lim sup t + W t 2t ln ln(1/t) = 1 p.n., W b) lim inf t t + = 1 p.n.. 2t ln ln(1/t) n ( P sup W t u ) 2C n ln ln C n C n t C n+1 W t 2t ln ln t u p.n.. W t 2t ln ln t 1 p.n. oraz lim inf t < W t 2t ln ln t 1 p.n.. 1 ( 1 2π t 1 ) t 3 e t2 /2 P(g t) 1 e t2 /2. 2πt P(WC n W C n 1 u 1 1/C 2C n ln ln C n ) = W t 2t ln ln t u(1 1/C) 1/2 C 1/2 p.n..

6. Twierdzenia o zbieżności martyngałów Udowodnimy twierdzenia o zbieżności martyngałów z czasem ciągłym prawie na pewno i w L p. Wykażemy też ciągłą wersję twierdzenia Dooba optional sampling. 6.1. Przejścia w dół przez przedział Definicja 6.1. Załóżmy, że I R, f : I R oraz α < β. Jeśli I jest skończone, to określamy τ 1 := inf{t I : f(t) β} oraz σ 1 := inf{t I : t > τ 1, f(t) α} i dalej indukcyjnie dla i = 1, 2,... Definiujemy τ i+1 := inf{t I : t > σ i, f(t) β} oraz σ i+1 := inf{t I : t > τ i+1, f(t) α}. D I (f, [α, β]) := sup{j : σ j < }. W przypadku, gdy I jest nieskończone kładziemy D I (f, [α, β]) := sup{d F (f, [α, β]): F T skończone}. Wielkość D I (f, [α, β]) nazywamy liczbą przejść w dół funkcji f przez przedział [α, β]. Przypomnijmy fakt z rachunku prawdopodobieństwa wiążący skończoność liczby przejść ciągu przez przedział z istnieniem granicy. Lemat 6.1. Ciąg liczbowy x n jest zbieżny do pewnej, niekoniecznie skończonej granicy wtedy i tylko wtedy, gdy D N ((x n ), [α, β]) < dla dowolnych liczb wymiernych α < β. Następny lemat jest niewielką modyfikacją poprzedniego. Lemat 6.2. Jeśli f : [a, b) R, b jest prawostronnie ciągłą funkcją taką, że dla dowolnych liczb wymiernych α < β, D [a,b) Q (f, [α, β]) <, to istnieje (niekoniecznie skończona) granica lim t b f(t). Dowód. Załóżmy, że postulowana granica nie istnieje, wtedy można znaleźć liczby wymierne α, β takie, że lim inf f(t) < α < β < lim sup f(t). t b t b Stąd wynika, że istnieje rosnący ciąg liczb wymiernych t n z przedziału [a, b) taki, że f(t 2k 1 ) β oraz f(t 2k ) α. Przyjmując I = {t 1, t 2,...} widzimy, że D [a,b) Q (f, [α, β]) D I (f, [α, β]) =. Lemat 6.3. Załóżmy, że X = (X t ) t T jest podmartyngałem względem pewnej filtracji, a F jest przeliczalnym podzbiorem T, wówczas ED F (X, [α, β]) sup t F E(X t β) +. β α Wstęp do Analizy Stochastycznej c R.Latala, Uniwersytet Warszawski, 211.