Uniwersytet Warszawski Wydział Matematyki, Informatyki i Mechaniki Joanna Dys Nr albumu: 233996 Ważne rodziny nad- i podmartyngałów dla symetrycznego błądzenia losowego Praca licencjacka na kierunku MATEMATYKA w zakresie JEDNOCZESNYCH STUDIÓW EKONOMICZNO MATEMATYCZNYCH Praca wykonana pod kierunkiem dra Adama Osękowskiego Zakład Rachunku Prawdopodobieństwa Wrzesień 2008
Oświadczenie kierującego pracą Potwierdzam, że niniejsza praca została przygotowana pod moim kierunkiem i kwalifikuje się do przedstawienia jej w postępowaniu o nadanie tytułu zawodowego. Data Podpis kierującego pracą Oświadczenie autora (autorów) pracy Świadom odpowiedzialności prawnej oświadczam, że niniejsza praca dyplomowa została napisana przeze mnie samodzielnie i nie zawiera treści uzyskanych w sposób niezgodny z obowiązującymi przepisami. Oświadczam również, że przedstawiona praca nie była wcześniej przedmiotem procedur związanych z uzyskaniem tytułu zawodowego w wyższej uczelni. Oświadczam ponadto, że niniejsza wersja pracy jest identyczna z załączoną wersją elektroniczną. Data Podpis autora (autorów) pracy
Streszczenie W pracy przedstawię nowe dowody dwóch znanych nierówności stochastycznych w przestrzeni L p. Pierwsza z nich to nierówność maksymalna Dooba dla martyngałów, sformułowana w [Doo53]. Druga z nich to nierówność typu Burkholda-Davisa-Gundy ego, wiążąca p-ty moment zmiennej z momentem stopu. Nierówności wyznaczę w oparciu o symetryczne błądzenie losowe i własności związanej z nim funkcji maksymalnej. Słowa kluczowe martyngały, funkcja maksymalna, nierówność Dooba, nierówność Burkholda-Davisa-Gundy ego 11.1 Matematyka Dziedzina pracy (kody wg programu Socrates-Erasmus) Klasyfikacja tematyczna 60 Probability theory and stochastic processes 60G Stochastic processes 60G42 Martingales with discrete parameter Tytuł pracy w języku angielskim On important classes of super- and submartingales for symmetric random walk
Spis treści Wprowadzenie....................................... 5 1. Przypomnienie podstawowych pojęć....................... 7 1.1. Warunkowa wartość oczekiwana.......................... 7 1.2. Martyngały..................................... 9 1.3. Proces maksymalny................................ 11 2. Nierówność pierwsza................................. 13 2.1. Obliczenia...................................... 13 2.2. Nierówność Maksymalna Dooba.......................... 18 3. Nierówność druga................................... 21 3.1. Obliczenia...................................... 21 3.2. Nierówność Burkholdera-Davisa-Gundy ego................... 25 Bibliografia......................................... 27 3
Wprowadzenie Szacowanie p-tych momentów sum zmiennych losowych nie jest w teorii procesów stochastycznych zajęciem nowym. Nierówność maksymalna Dooba dla martyngałów, która jest jednym z wyników tej pracy, znana jest probabilistom od przeszło 50 lat. Celem tej pracy jest zaprezentowanie nowego sposobu dowodzenia tego typu oszacowań, przy wykorzystaniu ciągów postaci: n (Sn) p c(s n EX k ) r (Sn) p r, k=1 gdzie (S n) n oznaczać będzie funkcję maksymalną opartą na (S n ) n. Zaprezentowane i zbadane zostaną dwie rodziny o podanej formie, dla r = 1 oraz r = 2. Obliczenia będę przeprowadzać dla jednego z najprostszych, ale i najważniejszych z punktu widzenia teorii, procesów - symetrycznego błądzenia przypadkowego. Zwieńczeniem obu przypadków będzie wyprowadzenie jednej z klasycznych nierówności martyngałowych. Podział na dwa rozłączne przypadki determinuje układ logiczny pracy. W pierwszym rozdziale zbieram podstawowe definicje i twierdzenia dotyczące warunkowej wartości oczekiwanej i martyngałów, z których będę korzystać w badaniach. Rodział drugi poświęcony jest badaniu określonego powyżej procesu stochastycznego dla r = 1, a jego zwieńczeniem jest wyprowadzenie wspomnianej martyngałowej nierówności maksymalnej Dooba. W rozdziale trzecim przeprowadzając podobne rozumowanie, wyprowadzimy nierówność typu Burkholdera- Davisa-Gundy ego, szacująca p-tą normę zmiennej losowej za pomocą momentu stopu. Ponieważ praca jest z założenia badawcza, literatura ograniczona jest do zbioru podstawowych pojęć i definicji - tu opieram się głównie na podręczniku Jacka Jakubowskiego i Rafała Sztencla ([Jak04]) - oraz do prac twórców badanych nierówności. 5
Rozdział 1 Przypomnienie podstawowych pojęć Zawarty w tej pracy problem opiera się w dużej części na płynnym operowaniu podstawowymi narzędziami i twierdzeniami dotyczącymi martyngałów. Zanim więc przejdę do szczegółowych wyliczeń, przedstawię i omówię wraz z dowodami, podstawowe twierdzenia i definicje dotyczące martyngałów. 1.1. Warunkowa wartość oczekiwana Definicja 1. (Warunkowa wartość oczekiwana) Niech X : (Ω, F, P) (R, B(R)) będzie zmienną losową całkowalną, a G F będzie σ-ciałem. Warunkową wartością oczekiwaną X pod warunkiem G nazywamy zmienną losową E(X G), spełniającą warunki: 1. E(X G) jest G-mierzalna, 2. A G A XdP = A E(X G)dP. Poniżej przytoczę kilka podstawowych twierdzeń dotyczących warunkowej wartości oczekiwanej (Twierdzenie 1, Lematy 1-3). Są to własności na tyle znane, że podam je bez dowodu - zainteresowanych odsyłam do literatury (np. [Jak04]). Dla uproszczenia zapisu stosuję następującą notację: o ile nie jest powiedziane inaczej, Ω oznacza przestrzeń probabilistyczną (Ω, F, P), a G jest σ-ciałem zawartym w F. Twierdzenie 1. (Istnienie) Niech X : Ω R będzie zmienną losową całkowalną. Wówczas dla dowolnego σ-ciała G F istnieje warunkowa wartość oczekiwana istnieje i jest wyznaczona jednoznacznie z dokładnością do zdarzeń o prawdopodobieństwie zero. Dowód. [Jak04], s. 129. Warunkową wartość oczekiwaną możemy interpretować jako rzut zmiennej losowej (należącej do przestrzeni Hilberta zmiennych całkowalnych) na podprzestrzeń zmiennych G- mierzalnych. Tak zdefiniowana zmienna odziedziczyła wiele własności po klasycznej wartości oczekiwanej - m.in. liniowość. Dzięki całkowemu charakterowi warunkowej wartości oczekiwanej możemy sformułować także odpowiednik twierdzenia Lebesgue a o zbieżności monotoniczej. Te i podobne własności podsumowuje poniższy lemat. Lemat 1. (Własności całkowe warunkowej wartości oczekiwanej) Niech X, Y, X n dla n=1,2,... będą rzeczywistymi zmiennymi losowymi całkowalnymi, a G danym σ-ciałem zawartym w F. Wówczas: 7
1. E(aX + by G) = a E(X G) + b E(Y G) p.n. dla a, b R, 2. Jeśli X Y, to E(X G) E(Y G) p.n., 3. E(X G) E( X G) p.n., 4. Jeśli X n X, to E(X n G) E(X G) p.n. Ponadto, dla zastosowań martyngałowych, ogromne znaczenie mają własności związane z mierzalnością: Lemat 2. (Mierzalność i niezależność) Niech X, Y : Ω R będą rzeczywistymi zmiennymi losowymi całkowalnymi. Wówczas: 1. Jeśli X jest G-mierzalna, to E(X G) = X p.n., 2. Jeśli X i G są niezależne, to E(X G) = EX p.n., 3. Jeśli Z jest ograniczoną zmienną G-mierzalną, to: E(ZX G) = ZE(X G) p.n. Lemat 3. (Kolejność warunkowania) Niech X : Ω R będzie zmienną losową całkowalną, a H, G - danymi σ-ciałami, takimi, że H G F. Wówczas zachodzi: E(E(X G) H) = E(E(X H) G) = E(X H). Dowód. Dowody wszystkich trzech lematów można znaleźć w [Jak04], s.131. Na potrzeby tej pracy sformułuję jeszcze jeden lemat - tym razem z dowodem - który będzie miał ogromne znaczenie w przeprowadzanych dalej obliczeniach. Lemat 4. (Funkcje charakterystyczne) Niech X : Ω R zmienna losowa całkowalna i niech G F będzie σ-ciałem. Wówczas: 1. Jeśli A, B F - rozłączne zbiory, to: E(I A B X G) = E(I A X G) + E(I B X G) p.n., 2. Jeśli F 1, F 2,... F - parami rozłączne zbiory o sumie F = n=1 F n, to: E(I F X G) = E(I Fn X G) p.n. n=1 Dowód. Jeśli X jest zmienną całkowalną, to również zmienne I A X, I B X są całkowalne dla dowolnych A, B F. Zatem część pierwsza Lematu wynika z faktu, iż I A B X = I A X + I B X i z liniowości warunkowej wartości oczekiwanej (Lemat 1.1). Oczywiście, indukcyjnie można to twierdzenie przenieść na dowolnie długą skończoną sumę zbiorów. Dla dowolnych parami rozłącznych F 1, F 2,... F N F zachodzi więc: N E(I N n=1 F n X G) = E(I Fn X G) p.n. n=1 Chcielibyśmy skorzystać z wraunkowej wersji twierdzenia Lebesgue a o zbieżności monotonicznej. Aby było to możliwe, rozbijmy X na sumę dwóch zmiennych nieujemnych całkowalnych: X = X + X 8
Stosując więc wynik z części pierwszej dla X +, X, mamy: N N E(I N n=1 F n X + G) E(I N n=1 F n X G) = E(I Fn X + G) E(I Fn X G). n=1 n=1 Zdefiniujmy zmienne Y ± N := I N n=1 FnX± oraz Y ± = I F X ±. Zauważmy, że Y + N Y + oraz YN Y przy N. Zatem z twierdzenia Lebesgue a (Lemat 1.4) lewa strona równości dąży z N do E(I F X + G) E(I F X + G), zaś prawa jest ciągiem sum częściowych, dążącym do sumy nieskończonej. Po przejściu do granicy otrzymujemy: E(I F X + G) E(I F X G) = E(I Fn X + G) E(I Fn X G). n=1 n=1 Z liniowości warunkowej wartości oczekiwanej (Lemat 1.1) otrzymujemy punkt drugi lematu. 1.2. Martyngały Głównym obiektem badań tej pracy są nierówności martyngałowe. Mając już dobrze określoną warunkową wartość oczekiwaną, mogę zatem przypomnieć najważniejsze definicje związane z martyngałami. Definicja 2. (Filtracja) Niech (Ω, F, P) będzie przestrzenią probabilistyczną. Filtracją w tej przestrzeni nazwiemy taki ciąg σ-ciał (F n ) n, że F 1 F 2 F 3... oraz dla każdego n F n F. Ponadto, powiemy, że ciąg (X n ) n zmiennych losowych określonych na (Ω, F, P) jest adaptowany do (F n ) n jeśli dla każdego n zmienna X n jest F n -mierzalna. Definicja 3. (Filtracja minimalna) Dla ciągu zmiennych losowych (X n ) n filtracją minimalną nazwiemy filtrację postaci F n = σ(x 1,..., X n ). Ciąg (X n ) n jest zawsze adaptowany do swojej filtracji minimalnej i jest to najmniejsza filtracja, do której jest on adaptowany. Definicja 4. (Martyngały) Niech X 1, X 2, X 3,... : (Ω, F, P) (R, B(R)) będzie ciągiem zmiennych losowych, oraz (F n ) n będzie filtracją na (Ω, F, P), taką, że ciąg (X n ) n jest adaptowany do (F n ) n. Ponadto zakładamy, że dla każdego n E X n <. Wówczas ciąg (X n, F n ) n nazwiemy: podmartyngałem, jeśli n m>n E(X m F n ) X n, martyngałem, jeśli n m>n E(X m F n ) = X n, nadmartyngałem, jeśli n m>n E(X m F n ) X n. Sprawdzanie czy dany ciąg jest martyngałem wyłącznie w oparciu o powyższą definicję może być pracochłonne. Odwoływać się będę raczej zatem do prostszego w zastosowaniach warunku: Lemat 5. (Warunek równoważny) Jeśli ciąg zmiennych losowych (X n ) n jest adaptowany do (F n ) n oraz dla każdego n E X n <, to (X n, F n ) n jest: podmartyngałem, jeśli n E(X n+1 F n ) X n, martyngałem, jeśli n E(X n+1 F n ) = X n, 9
nadmartyngałem, jeśli n E(X n+1 F n ) X n. Dowód. Rozumowanie przeprowadzę dla przypadku podmartyngałowego, po odnotowaniu, że dla pod- i nadmartyngałów przebiega ono analogicznie. Implikacja z lewa w prawo jest natychmiastowym wynikiem zastosowania definicji martyngału dla m = n+1. Zajmijmy się więc implikacją z prawa w lewo. Zakładamy, że n E(X n+1 F n ) X n. Chcemy wykazać, że dla m > n E(X m F n ) X n. Zauważmy, że m > n implikuje m 1 n. Wykorzystując monotoniczność ciągu σ-ciał, w szczególności mamy F n F m 1. Z twierdzenia 3 możemy zatem zapisać: E(X m F n ) = E(E(X m F m 1 )F n ) zał. E(X m 1 F n ). Przez indukcję, powtarzając rozumowanie m n razy, dojdziemy do szeregu nierówności: E(X m F n ) E(X m 1 F n )... E(X n F n ) adapt. = X n. Lemat 6. (Nierówność Jensena) Jeśli funkcja φ : R R jest wypukła oraz zmienne losowe X, φ(x) są całkowalne, to Dowód. [Jak04], s. 133. φ(e(x G)) E(φ(X) G) p.n. Wniosek. Jeśli φ jest funkcją wypukłą, a (X n, F n ) n jest martyngałem, to Dowód. Z nierówności Jensena mamy: (φ(x n ), F n ) n jest podmartyngałem. E(φ(X n+1 ) F n ) φ(e(x n+1 F n )) = φ(x n ) p.n. Jako, iż w pracy będę badać nierówności dla zastopowanych sum zmiennych losowych, przypomnę jeszcze pojęcie momentu zatrzymania i jego najważniejsze własności. Definicja 5. (Moment stopu) Momentem zatrzymania względem filtracji (F n ) nazwiemy zmienną losową τ : Ω {1, 2,... ; } spełniającą warunek: {τ n} F n ( n) Lemat 7. (Procesy zatrzymane) Niech (X n, F n ) będzie martyngałem (podmartyngałem), a τ momentem stopu względem filtracji F n. Wówczas ciąg zatrzymany: też jest martyngałem (podmartyngałem) Dowód. [Jak04], s. 227. X τ = (X τ n, F n ) Twierdzenie 2. (Twierdzenie Dooba o optional sampling ) Niech (X n, F n ) będzie martyngałem (podmartyngałem), a τ 1, τ 2 - skończonymi p.n. momentami stopu względem filtracji F n, takimi, że: 10
1. E X τi <, i = 1, 2 2. lim inf n E( X n I {τi >n}) = 0 i = 1, 2 Wtedy na zbiorze {τ 2 τ 1 } zachodzi: E(X τ2 F τ1 ) = X τ1 (E(X τ2 F τ1 ) X τ1 ) p.n. Dowód. [Jak04], s. 230. 1.3. Proces maksymalny W ostatnim etapie przygotowań wstępnych, zdefiniujmy funkcję, która odgrywa główną rolę w naszych rozważaniach. Definicja 6. (Proces maksymalny) Niech (X n ) n - ciąg zmiennych losowych. Procesem maksymalnym opartym na ciągu X n nazwiemy funkcję: X n = max 1 k n X k. Proces maksymalny jest ciągiem niemalejącym, i o ile P(X 1 = 0) = 0, ściśle dodatnim (w przeciwnym wypadku nieujemnym). Co więcej, jeśli zmienne są niezależne i całkowalne z kwadratem, wiemy, że proces jest nieograniczony, a nawet możemy opisać jego zachowanie w nieskończoności. Mówi o tym następujące twierdzenie, sformułowane po raz pierwszy przez Aleksandra Chinczyna w 1924 roku, zwane Prawem Iterowanego Logarytmu: Twierdzenie 3. (Prawo Iterowanego Logarytmu) Jeśli X 1, X 2,... niezależne zmienne losowe o skończonej wartości oczekiwanej µ i skończonej wariancji σ 2. Wówczas zachodzi: { 1 n } lim sup (X i µ) = σ p.n., n 2n log log n lim inf n i=1 { 1 n } (X i µ) = σ p.n. 2n log log n i=1 Wniosek. Niech X 1, X 2,... niezależne zmienne losowe o średniej zero i skończonej wariancji σ. Niech: S n = max 1 k n X 1 +... X n. Wówczas: lim n S n 2n log log n = σ p.n. W szczególności ciąg (S n) n dąży z n do nieskończoności p.n. Dowód. Natychmiastowy wniosek z części pierwszej Prawa Iterowanego Logarytmu. 11
Rozdział 2 Nierówność pierwsza Rozpatrzmy proces symetrycznego błądzenia przypadkowego na prostej. Mamy zatem ciąg zmiennych losowych (X n ) n, taki, że P (X i = ±1) = 1 2 i jednocześnie X 1, X 2,... są od siebie niezależne. Proces ów możemy interpretować rozmaicie: jako ruch pchły skaczącej po liczbach całkowitych, w każdym kroku niezależnie i z jednakowym prawdopodobieństwem decydującej się na ruch w lewo i w prawo, bądź jako ciąg gier w orła i reszkę symetryczną monetą, w której za każdym razem można wygrać lub stracić złotówkę. Wówczas proces S n = X 1 + X 2 +... + X n będzie odpowiednio pozycją pchły po n skokach, bądź kapitałem (być może ujemnym) gracza po n grach. Niech (F n ) będzie naturalną filtracją procesu (S n ). Jak wiemy, proces (S n, F n ) jest martyngałem, gdyż: E(S n+1 F n ) = E(S n + X n+1 F n ) L.1 = E(S n F n ) + E(X n+1 F n ) L.2 = L.2 = S n + EX n+1 = S n. W tej pracy zajmę się nierównościami wiążącymi tak zdefiniowane błądzenie przypadkowe z określonym na jego podstawie procesem maksymalnym. Zbadam zatem dwie funkcje zmiennej S n i określę, przy jakich warunkach mają one strukturę pod- lub nadmartyngału. Celem tego rozdziału jest odpowiedź na następujące pytanie: Problem 1. Niech p > 1 będzie dane. Wyznaczyć wszystkie takie liczby c, że jest podmartyngałem. Y n = (S n) p 1 S n c(s n) p 2.1. Obliczenia Szukany ciąg jest podmartyngałem, jeśli - z Lematu 5: E(Y n+1 F n ) Y n E[(Sn+1) p 1 S n+1 c(sn+1) p F n ] (Sn) p 1 S n c(sn) p. Odejmując Y n od obu stron nierówności otrzymujemy: E(Y n+1 F n ) Y n 0. (2.1) 13
Zauważmy, że mamy zależność: S n+1 S n. Dzięki temu lewą stronę wyrażenia możemy rozpisać jako sumę dwóch zmiennych, z których każda będzie określona na innym pozdbiorze Ω: E(Y n+1 F n ) Y n = (E(Y n+1 F n ) Y n )I { Sn <S n } + (E(Y n+1 F n ) Y n )I { Sn =S n }. (2.2) Oznaczmy U n := { S n < S n} oraz V n := { S n = S n}. Mamy U n V n = Ω oraz U n V n =. Dodatkowo, zbiory U n, V n F n, zatem funkcje I Un oraz I Vn są F n -mierzalne. Na mocy Lematu 2 możemy przenieść je pod znak wartości oczekiwanej. Nasza nierówność sprowadza się zatem do: E(Y n+1 F n ) Y n = E((Y n+1 Y n ) I Un F n ) + E((Y n+1 Y n ) I Vn F n ) 0. (2.3) Każdy ze składników powyższej sumy będziemy szacować osobno. Zauważmy, że na zbiorze U n mamy: { S ω U n n > Sn Sn S n + 1 S n + 1, Sn+1 = max(s n, S n+1 ) = Sn. (2.4) Zauważmy także, że funkcja S n n, a więc S n jest ograniczona (n jest ustalone). Zatem na mocy Lematu 2 możemy przenieść ją przed znak wartości oczekiwanej. Pierwszy składnik nierówności (2.3) możemy wówczas oszacować następująco: E((Y n+1 Y n ) I Un F n ) = def. = E[((S n+1) p 1 S n+1 c(s n+1) p ((S n) p 1 S n c(s n) p )) I Un F n ] = (2.4) = E[((S n) p 1 S n+1 c(s n) p (S n) p 1 S n + c(s n) p ) I Un F n ] = L.2 = [(S n) p 1 E( S n+1 F n ) (S n) p 1 S n ] I Un L.6 [(S n) p 1 S n (S n) p 1 S n ] I Un = 0. (2.5) Ostatnia nierówność wynika z faktu, iż (S n ) n jest martyngałem, a więc na mocy wniosku z nierówności Jensena (Lemat 6) (φ(s n )) n = ( S n ) n jest podmartyngałem. Na zbiorze U n żądana nierówność wynika zatem bezpośrednio z F n -mierzalności odpowiednich funkcji. Możemy zatem ograniczyć się do badania nierówności na zbiorze V n : E((Y n+1 Y n ) I Vn F n ) 0. (2.6) Niestety, poza zbiorem U n nie mamy już bezpośredniego przejścia z funkcji F n+1 -mierzalnych do F n -mierzalnych. Na V n należy zatem skorzystać z bardziej subtelnych narzędzi - w tym wypadku z Lematu 4, mówiącego o własności funkcji charakterystycznej sumy rozłącznych zbiorów. Zauważmy, że możemy rozbić V n na dwa podzbiory: V n = {S n = S n } = {S n+1 = S n = S n } {S n+1 > S n = S n }. Oznaczmy przez A n = {S n+1 = S n = S n } oraz B n = {S n+1 > S n = S n }. Z Lematu 4 możemy zapisać: E((Y n+1 Y n ) I Vn F n ) = E((Y n+1 Y n ) I An F n ) + E((Y n+1 Y n ) I Bn F n ). (2.7) Zbadajmy po kolei każdy z elementów sumy (2.7). Na zbiorze A n mamy S n+1 = S n = S n. Ponieważ S n+1 = max(s n, S n+1 ), oznacza to w szczególności, że S n+1 S n = S n. Ale z 14
definicji procesu S n+1 = S n + X n+1 = S n ± 1. Prawa strona jest dobrze określona, gdyż na V n mamy S n = S n S 1 = 1. Zatem, łącząc obydwa wnioski mamy: ω A n S n+1 (ω) = S n (ω) 1. (2.8) Ponownie zatem udało nam się przejść ze zmiennych F n+1 -mierzalnych - tzn. tych z przyszłości do zmiennych z teraźniejszości, F n -mierzalnych. Dzięki temu można wyliczyć explicite wartość szukanego wyrażenia na zbiorze A n. E((Y n+1 Y n ) I An F n ) = = E([(Sn+1) p 1 S n+1 c (Sn+1) p (Sn) p 1 S n + c (Sn) p ] I An F n ) = = E([ S n p 1 ( S n 1) c S n p S n p + c S n p ] I An F n ) = = E([ (S n ) S n p 1 ] I An F n ). (2.9) Mamy teraz pod znakiem wartości oczekiwanej iloczyn funkcji F n -mierzalnej zależnej od S n oraz funkcji charakterystycznej zbioru A n, która F n -mierzalna, nie jest. Ponieważ funkcja pod znakiem wartości oczekiwanej jest ograniczona: S n p 1 n p 1 <, możemy skorzystać z Lematu 2 i przekształcić wynik otrzymany w (2.9): E( S n p 1 I An F n ) = S n p 1 E(I An F n ). (2.10) Pozostaje zatem wyliczyć wartość P(A n F n ) := E(I An F n ). Ponownie, odwołamy się do rozbicia zbioru A n na mniejsze podzbiory: A n = {S n+1 = S n = S n } = { S n+1 = S n 1, S n = S n } = = {S n+1 = S n 1, S n > 0, S n = S n } {S n+1 = S n + 1, S n < 0, S n = S n } = = {X n+1 = 1, S n > 0, S n = S n } {X n+1 = 1, S n < 0, S n = S n }. Zauważmy, że S n, S n są F n -mierzalne, ponadto X n+1 jest niezależne od obu tych funkcji. Możemy zatem zapisać: E(I An F n ) = E(I {Xn+1 = 1, S n>0, S n = Sn } {X n+1=1, S n<0, S n = Sn } F n ) = L.2 = I {Sn>0, S n= S n } P(X n+1 = 1 F n ) + I {Sn<0, S n= S n } P(X n+1 = 1 F n ) = L.2 = 1 2 I {S n>0, S n = Sn } + 1 2 I {S n<0, S n = Sn } = 1 2 I {S n>0, S n = Sn } {Sn<0, S n = Sn } = = 1 2 I {S n = Sn }. Otrzymujemy więc ostatecznie zredukowaną postać funkcji na zbiorze A n : E((Y n+1 Y n ) I An F n ) = 1 2 S n p 1 I Vn. (2.11) Zajmijmy się teraz zbiorem B n = {S n+1 > S n = S n }. Na tym zbiorze S n+1 = S n+1, a więc S n+1 > S n. Zatem musi zachodzić: Postępując podobnie jak poprzednio, możemy wyliczyć: ω B n S n+1 = S n + 1. (2.12) E((Y n+1 Y n ) I Bn F n ) = = E([(Sn+1) p 1 S n+1 c (Sn+1) p (Sn) p 1 S n + c (Sn) p ] I Bn F n ) = = E([( S n + 1) p c( S n + 1) p S n p + c S n p ] I Bn F n ) = = E([( S n + 1) p S n p ](1 c) I Bn F n ). (2.13) 15
Funkcja ( S n +1) p S n p )(1 c) jest ograniczona przez wielkość (n+1) p (1+ c ). Możemy zatem ponownie zastosować Lemat 2 i przekształcić wyrażenie (2.13) do uproszczonej postaci, analogicznej jak w (2.10): E([( S n + 1) p S n p ](1 c) I Bn F n ) = [( S n + 1) p S n p ](1 c) E(I Bn F n ). (2.14) Wartość P(B n F n ) wyliczamy podobnie jak dla zbioru A n. Zbiór możemy rozbić na dwa składniki: B n = {S n+1 = S n + 1, S n > 0, S n = S n } {S n+1 = S n 1, S n < 0, S n = S n }. Dzięki czemu otrzymujemy: E(I Bn F n ) = E(I {Xn+1 =1, S n>0, S n= S n } {X n+1 = 1, S n<0, S n= S n } F n ) = L.2 = I {Sn>0, S n= S n } P(X n+1 = 1 F n ) + I {Sn<0, S n= S n } P(X n+1 = 1 F n ) = L.2 = 1 2 I {S n>0, S n= S n } + 1 2 I {S n<0, S n= S n } = 1 2 I {S n>0, S n= S n } {S n<0, S n= S n } = (2.15) = 1 2 I {S n = Sn }. Ostatecznie na zbiorze B n jest:: E((Y n+1 Y n ) I Bn F n ) = 1 2 [( S n + 1) p S n p ](1 c) I Vn. (2.16) Możemy zatem ponownie zsumować zbiory A n i B n i wrócić do wyjściowej nierówności (2.6): E((Y n+1 Y n ) I Vn F n ) = = 1 2 ( S n p 1 + [( S n + 1) p S n p ](1 c)) I Vn 0. (2.17) Po przekształceniu otrzymujemy nierówność określającą c: c I Vn ( S n + 1) p S n p S n p 1 ( S n p 1 ) ( S n + 1) p S n p I Vn = 1 ( S n + 1) p S n p I Vn. Dla ω / V n obie strony są równe 0. Możemy zatem założyć, że rozpatrujemy wyłącznie punkty ω V n = {Sn = S n }. Ponadto, aby efektywnie oszacować c i uzyskać nierówność działającą dla każdego n, należy szukać infimum prawej strony: c inf n N inf ω V n Wykażemy, że potrzeba i wystarczy, aby c p 1 p. Obserwacja 1. Funkcja f : (0, ) R dana wzorem: jest niemalejąca ( S 1 n(ω) p 1 ) (Sn(ω) + 1) p Sn(ω) p. (2.18) f(x) = x p 1 (x + 1) p x p 16
Dowód. Rozważmy funkcję g : (0, ) R, będącą odwrotnością f: Pochodna funkcji odwrotnej wynosi: g (x) = g(x) = 1 (1 f(x) = x + 1 ) p 1 (( x = x 1 + 1 p ) 1. x x) (( 1 + x) 1 p ) ( 1 + xp 1 + x) 1 p 1 Zatem pochodna funkcji f wynosi: f (x) = ( ) ( 1 x 2 = 1 + x) 1 p 1 ( ( ) 1 = g (x) g(x) g(x) 2. 1 p 1 x ) 1. Chcemy, aby funkcja była niemalejąca, tzn. f (x) 0. Mianownik jest dodatni, zatem wystarczy sprawdzić, czy: ( 1 1 + x) 1 p 1 ( 1 p 1 ) 0. x Do oszacowania tej wielkości skorzystamy z nierówności ekspotencjalnej (1 + a) e a. Dowód tej nierówności jest natychmiastowy: rozważmy funkcję ψ(a) = e a. Jest ona wypukła, a funkcja φ(a) = a + 1 opisuje styczną do wykresu ψ w punkcie 0. Stosując powyższe oszacowanie dla naszej funkcji f mamy: ( 1 1 + x) 1 p 1 ( 1 p 1 ) 1 e (p 1)/x e (p 1)/x = 1 e 0 = 0. x Skoro funkcja f jest rosnąca, to 1 f jest malejąca. Zatem w poszukiwaniu infimum musimy szukać granicy wyrażenia 1 f(s n) w nieskończoności. Tu wykorzystamy kolejną obserwację: Obserwacja 2. lim n S n(ω) p 1 (S n(ω) + 1) p S n(ω) p = 1 p p.n. Dowód. Przypomnijmy, że proces S n z prawdopodobieństwem 1 dąży wraz z n do nieskończoności. Ponieważ S n jest dodatnie, możemy licznik i mianownik ułamka podzielić przez wartość (S n) p : Sn(ω) p 1 1 (Sn(ω) + 1) p Sn(ω) p = Sn ( (ω) ) p. 1 + 1 S 1 n(ω) Aby oszacować funkcję z obu stron, wykorzystamy nierówność Bernoulliego. Dla a > 1 oraz r (, 0] [1, ) zachodzi oszacowanie: (1 + a) r 1 + ar. 17
Zatem: 1 S n (ω) e p/s n 1 1 Sn (ω) ( 1 + 1 S n(ω) ) p 1 1 S n (ω) 1 + p Sn (ω) 1. Obie strony przy Sn dążą do 1 p, zatem z twierdzenia o trzech ciągach również wyrażenie w środku dąży do 1 p. Zbieżność zachodzi wszędzie tam, gdzie zbieżny jest ciąg S n, a więc na całej przestrzeni Ω z dokładnością do zbiorów miary zerowej. Po naszych obserwacjach otrzymujemy oszacowanie: c Ob.1 S 1 lim n(ω) p 1 Ob.2 n (Sn(ω) + 1) p Sn(ω) p = 1 1 p = p 1 p. Można wykazać, że stała (p 1)/p jest optymalna - wynika to m.in. z podanego w dowodzie powyższej obserwacji obustronnego oszacowania i z wniosku z Prawa Iterowanego Logarytmu, które gwarantuje nam, że zbiór, dla którego S n = S n dla nieskończenie wielu n jest dodatniej miary 1. 2.2. Nierówność Maksymalna Dooba W poprzedniej części zbadaliśmy, że ciąg: Y n = (S n) p 1 S n p 1 p (S n) p jest podmartyngałem. Niech τ będzie dowolnym momentem zatrzymania względem filtracji (F n ), generowanej przez błądzenie (S n ). Niech n będzie ustaloną liczbą całkowitą dodatnią. Na mocy nierówności Dooba ( optional sampling, twierdzenie 2) zastosowanej dla momentów stopu τ n i 1 mamy: E(Y τ n F 1 ) Y 1 = 1 p 0, a zatem po wzięciu wartości oczekiwanej obu stron: Zatem: [ E (Sτ n) p 1 S τ n p 1 ] p (S τ n) p Z nierówności Höldera mamy: E(S τ n) p EY τ n 0. = E S τ n (S τ n) p 1 p 1 p E(S τ n) p 0. p p 1 E S τ n (Sτ n) p 1 Hölder (E S τ n p ) 1 p (E(Sτ n) (p 1)q ) 1 q. Ponieważ (p 1)q = p, dzieląc obustronnie przez (E (S τ n) p ) 1 q (E(S τ n) p ) 1 1 q p p 1 (E S τ n p ) 1 p. otrzymujemy: 1 A dokładniej miary 1, a więc ciąg jest dowolnie blisko (p 1)/p prawie na pewno 18
czyli: S τ n p p p 1 S τ n p. Zauważmy, że S τ n są nieujemne i S τ n S τ. Zatem lewa strona z twierdzenia Lebesgue a o zbieżności monotonicznej zbiega do S τ. Dla oszacowania prawej strony skorzystamy z obserwacji, że S n τ S τ, więc jeśli S τ jest całkowalna, to S n τ tym bardziej. Korzystając zatem z twierdzenia Lebesgue a o zbieżności zmajoryzowanej mamy: S τ p p p 1 S τ p. Rezultat ten, znany jako nierówność maksymalna Dooba, jest prawdziwa nie tylko dla błądzenia przypadkowego, ale dla każdego martyngału i p > 1. 19
Rozdział 3 Nierówność druga W poprzednim rozdziale zbadaliśmy funkcję skonstruowaną na podstawie martyngału (S n ) n. Nie jest to jednak jedyny ciekawy proces, związany z zagadnieniem błądzenia przypadkowego. Drugim znanym przypadkiem jest ciąg postaci (W n ) = (S 2 n n). Wiemy, że (W n ) również jest martyngałem: E(W n+1 F n ) = = E(S 2 n+1 (n + 1) F n ) = E(S 2 n + 2S n X n+1 + X 2 n+1 (n + 1) F n ) L.(2) = S 2 n + 2S n EX n+1 + EX 2 n+1 n 1 = S 2 n n = = W n. W tym rozdziale zbadamy szerzej ten martyngał, konstruując funkcję o podobnej budowie, jak ta przedstawiona w rozdziale drugim. Zmierzymy się zatem z następującym zagadnieniem: Problem 2.. Niech p > 0 będzie dane. Wyznaczyć wszystkie takie liczby c, że: jest nadmartyngałem/podmartyngałem. Z n = (S n) p 2 (S 2 n n) c(s n) p 3.1. Obliczenia Obliczenia będziemy przeprowadzać dla pod- i nadmartyngałów jednocześnie. Szukamy zatem wartości: E(Z n+1 F n ) Z n. (3.1) I chcemy zdeterminować, dla jakich c (3.1) jest nieujemne bądź niedodatnie. Postępując podobnie, jak przy poprzednim problemie, możemy podzielić Ω na dwa zbiory, oba należące do σ-ciała F n : E(Z n+1 F n ) Z n = (E(Z n+1 F n ) Z n )I { Sn <S n} + (E(Z n+1 F n ) Z n )I { Sn =S n}. (3.2) Oznaczmy podobnie jak poprzednio zbiory U n = { S n < S n} oraz V n = { S n = S n}. Z F n -mierzalności funkcji I Un oraz I Vn i Lematu 2 mamy: (E(Z n+1 F n ) Z n ) I Un = E(Z n+1 I Un F n ) Z n I Un. (3.3) 21
A następnie, wykorzystując fakt, że na zbiorze U n mamy ω { S n < S n} S n+1(ω) = S n(ω) Możemy policzyć, analogicznie jak w poprzednim rozdziale: E[((S n+1) p 2 (S 2 n+1 (n + 1)) c(s n+1) p ) I Un F n ] Z n )I Un = = E[((S n) p 2 (S 2 n+1 (n + 1)) c(s n) p )I Un F n ] Z n I Un = L.2 = [(S n) p 2 E((S 2 n+1 (n + 1)) F n ) c(s n) p Z n ] I Un = (3) = [(S n) p 1 (S 2 n n) Z n ] I Un = 0. (3.4) Na zbiorze U n wyrażenie jest stale równe zero. Wystarczy zatem zbadać, kiedy zmienna Z n jest nieujemna/niedodatnia na zbiorze V n. Ale i tu możemy postąpić podobnie jak w rozdziale 2. Korzystając z Lematu 4 możemy przepisać równanie (2.7): E((Z n+1 Z n ) I Vn F n ) = E((Z n+1 Z n ) I An F n ) + E((Z n+1 Z n ) I Bn F n ). (3.5) Gdzie, jak poprzednio A n = {S n+1 = S n = S n } oraz B n = {S n+1 > S n = S n }. Z warunku (2.8) pierwszą część wyrażenia można przekształcić następująco: E((Z n+1 Z n ) I An F n ) = = E([ S n p 2 (( S n 1) 2 (n + 1)) S n p 2 (S 2 n n)] I An F n ) = L.2 = 2 S n p 1 P(A n F n ) (2.1) = S n p 1 I Vn. (3.6) Podobnie na zbiorze B n, korzystając z (2.12): E((Z n+1 Z n ) I Bn F n ) = = E([( S n + 1) p 2 [( S n + 1) 2 sgn(s n ) 2 (n + 1)] c( S n + 1) p S n p 2 (S 2 n n) + c S n p ] I Bn F n ) = L.2 = ( S n 2 n)[( S n + 1) p 2 S n p 2 ] + 2 S n ( S n + 1) p 2 c [( S n + 1) p S n p ]) P(B n F n ) = (2.15) = 1 2 (( S n 2 n)[( S n + 1) p 2 S n p 2 ] + 2 S n ( S n + 1) p 2 (3.7) c [( S n + 1) p S n p ]) I Vn. Łącząc (3.6) oraz (3.7) otrzymujemy: (E(Z n+1 F n ) Z n ) I Vn = = 1 ( ) ( S n 2 + 2 S n n)[( S n + 1) p 2 S n p 2 ] c[( S n + 1) p S n p ] I Vn. (3.8) 2 Zastanówmy się, kiedy (Z n, F n ) n jest podmartyngałem, to jest: (E(Z n+1 F n ) Z n ) I Vn 0. (3.9) Przekształcając (3.8) względem c otrzymujemy nierówność: c [( S n + 1) 2 (n + 1)][( S n + 1) p 2 S n p 2 ] [( S n + 1) p S n p ] 22 I Vn. (3.10)
Czyli: Czyli: c inf inf [(S n N ω V n n(ω) + 1) 2 (n + 1)] (S n(ω) + 1) p 2 Sn(ω) p 2 (Sn(ω) + 1) p Sn(ω) p. (3.11) Podobnie (Z n, F n ) n jest nadmartyngałem, jeśli Oznaczmy: c (E(Z n+1 F n ) Z n ) I Vn 0. (3.12) sup [(Sn(ω) + 1) 2 (n + 1)] (S n(ω) + 1) p 2 Sn(ω) p 2 {n N,ω V n} (Sn(ω) + 1) p Sn(ω) p. (3.13) Q(x) := [(S n(ω) + 1) 2 (n + 1)] (S n(ω) + 1) p 2 S n(ω) p 2 (S n(ω) + 1) p S n(ω) p. Wyrażenie ułamkowe może być szacowane, używając podobnych metod jak poprzednio. Problemy może nastręczać element (S n(ω) + 1) 2 (n + 1). Jego znak i wielkość zależą od prędkości, z jaką ciąg (S n) zbiega do nieskończoności - zatem kluczowym jest, aby oszacować asymptotykę S n. Do szacowania wykorzystamy trywialną nierówność: Z której wynika następujące oszacowanie: S n + 1 n + 1. (S n + 1) 2 (n + 1) (S n + 1) 2 (S n + 1) = S n (S n + 1). (3.14) Aby przeprowadzić następne kroki, poczyńmy następującą - oczywistą - obserwację: Obserwacja 3. Wyrażenie jest: (S n(ω) + 1) p 2 S n(ω) p 2 1. dodatnie, o ile p > 2, 2. ujemne, o ile p < 2, 3. stałe (równe 0) dla p = 2. Przyjmijmy, że mamy p < 2. Z obserwacji 3 i (3.14) możemy oszacować Q(S n) następująco: Q(S n) S n(ω)(s n(ω) + 1) [ (S n(ω) + 1) p 2 S n(ω) p 2] (S n(ω) + 1) p S n(ω) p. Po podzieleniu licznika i mianownika prawej strony przez (Sn) p mamy: [ ( ) ] p 2 (1 + 1 Q(Sn) Sn (ω)) 1 + 1 S 1 n ( ) (ω) p. 1 + 1 S 1 n (ω) Podstawmy x = ( ) 1 + 1 S. n(ω) 23
Obserwacja 4. Dla funkcji f : (1, ) R określona wzorem: prawdziwe jest oszacowanie: f(x) = x(xp 2 1) x p 1 f(x) p 2 p. Dowód. Zauważmy, że p, x p 1 > 0. Zatem mamy: f(x) p 2 p px p 1 px (p 2)x p (p 2). Wystarczy wykazać, że funkcja zdefiniowana następująco: g(x) := px p 1 px (p 2)x p (p 2), jest nieujemna na (1, ). Pokażemy, że g jest wypukła. Ponieważ jest dwukrotnie różniczkowalna, warunkiem dostatecznym jest nieujemność drugiej pochodnej: g (x) = p(p 1)(p 2)x p 3 (1 x) 0. Co więcej, mamy g(1) = 0 = g +(1). Zatem g jest rosnąca i, w szczególności, nieujemna. Z obserwacji wynika zatem następujące oszacowanie: Ale jednocześnie mamy: inf Q(S n N, ω V n n) p 2 p. (3.15) [ ( ) ( ) ] 2 p 2 Q(Sn) = 1 + 1 1 + 1 n+1 Sn ( (ω) S 1 + 1 n(ω) 2 S 1 n ) p ( (ω) ) p. (3.16) 1 + 1 S 1 n (ω) 1 + 1 S 1 n (ω) Z pomocą reguły de l Hospitala 1, nietrudno sprawdzić, że: lim x ( 1 ( 1 + 1 x ) 2 1 + 1 x ) p = 2 1 p oraz lim n ( p 2 1 + x) 1 1 ( 1 + 1 x ) p 1 = p 2 p. Jednocześnie, korzystając z Prawa Iterowanego Logarytmu (Tw.3) możemy stwierdzić, iż: lim n n + 1 Sn(ω) = lim inf 2 n Stąd wnioskujemy, że zachodzi także: n + 1 Sn(ω) = lim sup 2 n n + 1 S n(ω) 2 = 0. inf Q(S n N, ω V n n) lim n Q(S n) = 1 + 2 p 0 = p 2 p. (3.17) 1 Można też użyć bardziej subtelnych narzędzi np. nierówności Bernoulliego i wykładniczej 24
Łącząc (3.17) i (3.15) mamy dla p < 2: inf Q(S n N, ω V n n) = p 2 p. Zatem, dla 0 < p < 2 (Z n ) n jest podmartyngałem, o ile tylko: c p 2 p. Zbadajmy teraz p > 2. Wówczas z obserwacji 3 i (3.14) mamy: Q(S n) S n(ω)(s n(ω) + 1) [ (S n(ω) + 1) p 2 S n(ω) p 2] (S n(ω) + 1) p S n(ω) p. Rozumowanie podobne do powyższego (odpowiednie nierówności zmieniają znak), daje, iż: sup Q(Sn) = p 2 n N, ω V n p. Zatem (Z n ) n jest nadmartyngałem, o ile tylko: c p 2 p dla p > 2. 3.2. Nierówność Burkholdera-Davisa-Gundy ego Wykorzystamy otrzymane wyniki, by udowodnić nierówność wiążącą p-ty moment procesu maksymalnego z momentem stopu. Pierwsze nierówności tego typu udowodnił w 1966 roku Burkholder dla p > 1 i martyngałów w czasie dyskretnym ([Bur66]). Następne lata i prace Millara oraz Burkholdera i Gundy ego wprowadziły uogólnienia dla martyngałów z czasem ciągłym i p > 0. Ogólne zagadnienie przekracza jednak cel tej pracy, przeprowadzę więc dowód dla zmiennych indeksowanych liczbami naturalnymi i 1 < p < 2. Jak udowodniliśmy powyżej, dla takich wielkości p, ciąg: Z n = (S n) p 2 (S 2 n n) c(s n) p jest podmartyngałem. Ustalmy n. Dla dowolnego momentu zatrzymania τ mamy na mocy twierdzenia Dooba: E(Z τ n F 1 ) Z 1 = 2 p p 0. Biorąc wartość oczekiwaną obu stron mamy: Czyli: EZ τ n 0. E[(S τ n) p 2 (S 2 τ n τ n)+ 2 p p (S τ n) p ] = E(S τ n) p 2 (S 2 τ n) E(τ n)+ p 2 p E(S τ n) p 0. 25
Wykorzystując oszacowanie S n S n otrzymujemy: E(Sτ n) p 2 (τ n) 2 p p E(S τ n) p + E(Sτ n) p 2 (Sτ n 2 2 p p E(S τ n) p + E(Sτ n) p 2 (Sτ n) 2 (3.18) = 2 p E(S τ n) p. Zatem, z nierówności Höldera zastosowanej dla p = 2 p mamy: E(τ n) p/2 = E[(τ n)(s τ n) p 2 ] p/2 [(S τ n) (2 p)p/2 ] H. E[(τ n)(sτ n) p 2 ] p/2 E[(Sτ n) p ] (2 p)/2 ( ) (3.18) 2 p/2 E(S p τ n) p. (3.19) Podnosząc obie strony do potęgi 1/p otrzymujemy oszacowanie dolne na p-ty moment funkcji maksymalnej sumy zmiennych niezależnych: (τ n) 1/2 ( ) 2 p/2 p S p τ n p. (3.20) Oczywiście, mamy τ n τ oraz S τ n S τ, zatem korzystając z twierdzenia Lebesgue a o zbieżności monotonicznej otrzymujemy nierówność typu BDG: τ 1/2 ( ) 2 p/2 p Sτ p p. (3.21) 26
Bibliografia [Bur66] BURKHOLDER J., Martingale transformations, Ann. Math. Stat. 37 (1966), s. 1494-1505. [Doo53] DOOB J., Stochastic Processes, New York (1953). [Jak04] JAKUBOWSKI J., SZTENCEL R., Wstęp do teorii prawdopodobieństwa, Warszawa (2004). 27