Wstęp do Analizy Stochastycznej

Wielkość: px
Rozpocząć pokaz od strony:

Download "Wstęp do Analizy Stochastycznej"

Transkrypt

1 Wstęp do Analizy Stochastycznej Rafał Latała 6 września 21 Poniższy tekst zawiera notatki do wykładów ze Wstępu do Analizy Stochastycznej, prowadzonego w semestrze wiosennym 21 roku. Gwiazdkami oznaczono paragrafy dla których zabrakło czasu w trakcie wykładów (być może niektóre z nich były omówione podczas ćwiczeń) i których znajomość nie będzie wymagana podczas egzaminu, choć mile widziana. U Czytelnika zakłada się znajomość podstawowych faktów z zakresu kursowego wykładu z rachunku prawdopodobieństwa. Wszystkie potrzebne wiadomości można znaleźć w podręcznikach [1] i [3]. Autor przeprasza za wszystkie nieścisłości i omyłki mogące się pojawić w tekście i jednocześnie zwraca się z prośbą do Czytelników, którzy zauważyli błędy lub mają jakieś inne uwagi na temat notatek o ich zakomunikowanie osobiste lub wysłanie na adres owy z podaniem wersji notatek (daty), której dotyczą. Dziękuje panom Krzesimirowi Arodziowi, Tomaszowi Badowskiemu, Marianowi Kędzierskiemu i Radomirowi Mastelorzowi za zauważenie literówek w notatkach. 1

2 1 Podstawowe Definicje. Proces Wienera. Zaczniemy od podania ważnych definicji używanych podczas całego wykładu. Definicja 1. Niech (Ω, F, P) będzie przestrzenią probabilistyczną, (E, E) przestrzenią mierzalną, zaś T dowolnym zbiorem. Procesem stochastycznym o wartościach w E, określonym na zbiorze T, nazywamy rodzinę zmiennych losowych X = (X t ) t T, przyjmujących wartości w zbiorze E. Uwaga 2. W zasadzie w czasie całego wykładu T będzie podzbiorem R (najczęściej przedziałem, niekoniecznie ograniczonym), zaś E = R lub R d. Parametr t można wówczas interpretować jako czas. Definicja 3. Trajektorią procesu X nazywamy funkcję (losową!) t X t (ω), określoną na zbiorze T o wartościach w E. Definicja 4. Powiemy, że proces X = (X t ) t T, T R ma przyrosty niezależne jeśli dla dowolnych indeksów t t 1... t n ze zbioru T, zmienne losowe X t, X t1 X t, X t2 X t1,..., X tn X tn 1 są niezależne. Definicja 5. Mówimy, że proces stochastyczny (X t ) t ma przyrosty stacjonarne, jeśli rozkład X t X s zależy tylko od t s, czyli t>s X t X s X t s X. 1.1 Proces Wienera (Ruch Browna) Definicja 6. Procesem Wienera (Ruchem Browna) nazywamy proces stochastyczny W = (W t ) t taki, że W = p.n.; W ma przyrosty niezależne; Dla s < t zmienna W t W s ma rozkład normalny N (, t s); Trajektorie W są ciągłe z prawdopodobieństwem 1. (W) (W1) (W2) (W3) Uwaga 7. Warunek (W3) oznacza, że istnieje zbiór A taki, że P(A) = 1 oraz dla wszystkich ω A, t W t (ω) jest funkcją ciągłą na [, ). Czasami w definicji procesu Wienera zakłada się, że wszystkie trajektorie są ciągłe oraz W. 2

3 1.2 *Konstrukcja Procesu Wienera* Podczas następnych wykładów podamy dość abstrakcyjną konstrukcję procesu Wienera opartą o ogólniejsze twierdzenia dotyczące istnienia i ciągłości trajektorii procesów stochastycznych. W tym paragrafie jedynie naszkicujemy alternatywną, bardziej bezpośrednią konstrukcję. Najpierw zdefiniujemy pewne dwa ważne układy funkcji. Definicja 8. Niech I() = {1}, I(n) = {1,..., 2 n 1 }, n = 1, 2,.... Układem Haara nazywamy rodzinę funkcji (h n,k ) k I(n),n=,1,... określonych na [, 1] wzorami h,1 (t) 1 oraz dla k I(n), n 1, h n,k (t) = 2 n 1 2 dla (2k 2)2 n t < (2k 1)2 n 2 n 1 2 dla (2k 1)2 n t < 2k 2 n w pozostałych przypadkach. Definicja 9. Przy oznaczeniach poprzedniej definicji układem Schaudera nazywamy rodzinę funkcji (S n,k ) n=,1,...,k I(n) określonych na [, 1] wzorem S n,k (t) = h n,k(s)ds. Fakt 1. a) Układ Haara jest bazą ortonormalną przestrzeni L 2 [, 1]. b) Dla ustalonego n 1, funkcje (S n,k ) k I(n) mają nośniki o rozłącznych wnętrzach oraz S n,k = 2 (n+1)/2. Uwaga 11. Układ Haara jest bazą Schaudera w przestrzeniach L p [, 1], 1 p <. Po dodaniu funkcji stale równej 1, układ Schaudera staje się bazą Schaudera przestrzeni C[, 1]. Fakt 12. Dla dowolnych t, s [, 1] mamy n= k I(n) S n,k (t)s n,k (s) = min{t, s}. Niech (g n,k ) k I(n),n=,1,... będzie rodziną niezależnych zmiennych losowych o rozkładzie N (, 1) i W (n) t (ω) = n m= k I(m) g m,k (ω)s m,k (t). Twierdzenie 13. Dla prawie wszystkich ω Ω ciąg funkcji (W (n) t (ω)) zbiega jednostajnie na [, 1] do pewnej funkcji ciągłej W t (ω). Jeśli określimy np. W t (ω) = dla pozostałych ω, to tak zdefiniowany proces stochastyczny jest procesem Wienera na [, 1]. 3

4 Uwaga 14. Mając dany proces Wienera (W t ) t [,1] nietrudno skonstruować proces Wienera na całej prostej. Można np. sprawdzić, że ((1 + t)w 1 1+t W 1 ) t jest takim procesem. 1.3 Charakteryzacje procesu Wienera Najpierw podamy twierdzenie, które znacznie ułatwia sprawdzanie, że dany proces jest procesem Wienera. Musimy wpierw podać ważną definicję. Definicja 15. Proces X = (X t ) t T nazywamy gaussowskim, jeśli wszystkie skończenie wymiarowe rozkłady X są gaussowskie, tzn. wektor (X t1,..., X tn ) ma rozkład gaussowski dla dowolnych t 1,..., t n T. Przykłady 1. X t = f(t)g, gdzie f : T R dowolne oraz g N (, 1). 2. Proces Wienera (W t ) t. 3. Most Browna X t = W t tw 1, t 1. Twierdzenie 16. Proces (X t ) t jest procesem Wienera wtedy i tylko wtedy, gdy jest procesem gaussowskim, o ciągłych trajektoriach p.n. takim, że EX t = oraz Cov(X t, X s ) = min{t, s}. Dowód. : Mamy EX t = E(X t X ) = oraz Var(X t ) = Var(X t X ) = t na mocy (W) i (W2). Ponadto z niezależności przyrostów, dla t > s, Cov(X t, X s ) = Cov(X t X s, X s ) + Var(X s ) = + s = min{t, s}. : Zauważmy, że Var(X ) = = EX, więc spełniony jest warunek (W). Dla t > s, zmienna W t W s ma rozkład normalny ze średnią i wariancją Var(X t X s ) = Var(X t ) + Var(X s ) 2Cov(X t, X s ) = t s, więc zachodzi (W2). By sprawdzić niezależność przyrostów ustalmy t t 1... t n. Zauważmy, że wektor (X t, X t1 X t, X t2 X t1,..., X tn X tn 1 ) ma rozkład gaussowski, więc jego współrzędne są niezależne wtedy i tylko wtedy, gdy są nieskorelowane. Mamy jednak dla s 1 s 2 s 3 s 4, oraz Cov(X s1, X s3 X s2 ) = Cov(X s1, X s3 ) Cov(X s1, X s2 ) = s 1 s 1 = Cov(X s2 X s1, X s4 X s3 ) = Cov(X s2, X s4 X s3 ) Cov(X s1, X s4 X s3 ) =. 4

5 Kolejne twierdzenie pokazuje, że (z dokładnością do drobnych technicznych założeń oraz normalizacji) proces Wienera jest jedynym procesem o ciągłych trajektoriach oraz niezależnych i stacjonarnych przyrostach. Twierdzenie 17. Załóżmy, że proces (X t ) t spełnia warunki (W), (W1), (W3) (z W zastąpionym przez X) oraz X ma przyrosty stacjonarne; EX 1 =, Var(X 1 ) = 1; EX 4 t < dla wszystkich t >. (W2a) (W2b) (W2c) Wówczas X t jest procesem Wienera. Dowód. Określmy dla t, a(t) = EX t oraz b(t) = Var(X t ). Zauważmy, że na mocy niezależności i stacjonarności przyrostów, b(t + s) = Var(X t+s X t + X t ) = Var(X t+s X t ) + Var(X t ) = Var(X s ) + Var(X t ) = b(t) + b(s). Ponadto oczywiście b(t), zatem funkcja b(t) jest addytywna i niemalejąca na [, ), więc b(t) = ct dla pewnego c, co wobec (W2b) daje Var(X t ) = b(t) = t. Analogicznie sprawdzamy, że a(t + s) = a(t) + a(s), wiemy też, że a() =, stąd dowodzimy, że EX t = a(t) = dla t wymiernych. Weźmy t > i wybierzmy dążący do t ciąg liczb wymiernych (t n ). Na mocy (W2c), EX 2 t <, wiemy też, że EX 2 t n = Var(X tn ) = t n, zatem (E X tn X t 2 ) 1/2 M dla pewnej stałej M. Z ciągłości trajektorii X tn X t prawie na pewno, czyli również według prawdopodobieństwa. Zatem dla ε >, EX t = EX t EX tn E X t X tn ε + E X t X tn 1 { Xt X tn ε} ε + (E X t X tn 2 ) 1/2 P( X t X tn ε) 1/2 ε + MP( X t X tn ε) 1/2 2ε dla dostatecznie dużych n. Stąd EX t =. Wykazaliśmy zatem, że X t ma średnią zero i wariancję t. Ustalmy t > s, chcemy pokazać, że X t X s ma rozkład normalny N (, t s). Zauważmy, że X t X s = n Y n,k, gdzie Y n,k = X s+k(t s)/n X s+(k 1)(t s)/n. k=1 5

6 Zmienne (Y n,k ) 1 k n tworzą układ trójkątny, możemy więc skorzystać z Centralnego Twierdzenia Granicznego i wykazać, że n k=1 Y n,k zbiega do N (, t s) według rozkładu. Mamy n EY n,k =, k=1 n Var(Y n,k ) = t s, k=1 wystarczy więc sprawdzić warunek Lindeberga. Dla ε >, n [( L n (ε) = E Y n,k 2 n 1 { Yn,k ε} E Y n,k 2) ] 1 {maxk n Y n,k ε} k=1 k=1 ( ( n E Y n,k 2) 2) 1/2P ( ) 1/2. max Y n,k ε k n k=1 Zauważmy, że zmienne (Y n,k ) dla ustalonego n są niezależne i mają średnią zero, zatem ( E(X t X s ) 4 n ) 4 = E Y n,k = = k=1 n k=1 n k=1 EY 4 n,k + 6 EY 4 n,k k 1,k 2,k 3,k 4 n EYn,kEY 2 n,l 2 1 k<l n 1 k<l n EY n,k1 Y n,k2 Y n,k3 Y n,k4 ( EYn,kEY 2 n,l 2 n = E Y n,k 2) 2. Z ciągłości trajektorii X wynika, że P(max k n Y n,k ε) przy n, zatem lim n L n (ε) =. Uwaga 18. Warunek (W2c) nie jest konieczny - zob. Twierdzenie 5 z paragrafu 13.1 książki [3]. Okazuje się, że również nie trzeba zakładać skończoności wariancji ani nawet istnienia wartości średniej W 1 - warunek (W2b) ma charakter czysto normalizacyjny. Dokładniej zachodzi następujące twierdzenie. Twierdzenie 19. Załóżmy, że proces stochastyczny X = (X t ) t spełnia warunki (W),(W1),(W2a) i (W3). Wówczas istnieją stałe a, b R i proces Wienera W takie, że X t = aw t + bt dla wszystkich t. k=1 6

7 1.4 Nieróżniczkowalność trajektorii Trajektorie procesu Wienera mają wiele ciekawych własności, część z nich poznamy później. W tym paragrafie pokażemy, że mimo iż są ciągłe, to z prawdopodobieństwem 1 nie są różniczkowalne w żadnym punkcie. Twierdzenie 2. Prawie wszystkie trajektorie procesu Wienera (W t ) t są funkcjami nieróżniczkowalnymi w żadnym punkcie, tzn. ) P ( t t W t (ω) jest różniczkowalne w t =. Dowód. Najpierw pokażemy nieróżniczkowalność trajektorii na [, 1), tzn. ) P ( t [,1) t W t (ω) jest różniczkowalne w t =. Zauważmy, że jeśli funkcja f : [, 1] R jest różniczkowalna w t [, 1) oraz f (t ) < M, to f(t) f(t ) M t t dla t dostatecznie bliskich t. Zatem, jeśli j/n t < (j + 1)/n, to dla dostatecznie dużych n, f f ( j + 1 ) f n ( j + 2 oraz f n ) f ( j + 3 ) f n ( j ( f j + 1 ) n) n ( j + 1 n ( j + 2 n ) ( f j + 2 ) n ) ( f j + 3 ) n ( j f(t ) + f(t ) f n f(t ) + f(t ) f f(t ) + f(t ) f ) M ( 1 n + 1 n), ( j + 1 ) ( 2 M n n n) + 1 ( j + 2 ) ( 3 M n n n) + 2. Stąd, jeśli funkcja f jest różniczkowalna w jakimś punkcie przedziału [, 1), to ( f j + k + 1 ) ( j + k ) 5M M< m< n m j n 3 k=,1,2 f n n n. Czyli ) P ( t [,1) t W t (ω) jest różniczkowalne w t ( n 3 2 P M=1 m=1 n=m j= k= ( n 3 2 M=1 m=1 P n=m j= k= { W j+k+1 n { W j+k+1 n W j+k 5M n n W j+k 5M n n } ) } ). 7

8 Z niezależności przyrostów dostajemy ( 2 P k= Zatem czyli i P { W j+k+1 n ( n 3 2 j= k= W j+k 5M } ) 2 = n n k= ( = P( W 1 n ( 1 5M/ = 2π { W j+k+1 n ( n 3 P n=m j= W j+k 5M n n 2 k= { W j+k+1 n 5M n n 5M/ n P( W j+k+1 n W j+k 5M n n )) 3 ( ( 1 = P n W 1 5M )) 3 n ) 3 ( 1 e x2 /2 1M ) 3. dx n 2π } ) n 3 j= W j+k 5M n n ) 1M 3 n 3/2 1M 3 n, } ) = ) P ( t [,1) t W t (ω) jest różniczkowalne w t =. Nieznacznie modyfikując poprzedni dowód (albo używając faktu, że W t = T 1/2 W tt też jest procesem Wienera oraz w oczywisty sposób nieróżniczkowalność W na [, 1) jest równoważna nieróżniczkowalności W na [, T )) dostajemy, że dla T <, ) P ( t [,T ) t W t (ω) jest różniczkowalne w t =. By zakończyć dowód wystarczy zauważyć, że ) P ( t > t W t (ω) jest różniczkowalne w t ( ) = lim P t [,N) t W t (ω) jest różniczkowalne w t =. N Uwaga 21. Dokładna analiza przedstawionego dowodu pokazuje, że nie wykazaliśmy mierzalności zdarzenia { t t W t (ω) jest różniczkowalne w t }, a jedynie to, że jest ono podzbiorem pewnego zdarzenia miary zero. By uniknąć kłopotów technicznych podobnego rodzaju, wygodnie jest przyjąć, że przestrzeń probabilistyczna (Ω, F, P) jest zupełna, tzn. dowolny podzbiór zbioru miary zero jest mierzalny (każdą przestrzeń probabilistyczną można rozszerzyć do przestrzeni zupełnej). 8

9 2 Rozkłady Procesów Stochastycznych Podczas tego wykładu zdefiniujemy rozkład procesu stochastycznego, w szczególności powiemy jakie zdarzenia określone przez proces są mierzalne. Udowodnimy, że rozkład procesu jest wyznaczony przez rozkłady skończenie wymiarowe. Sformułujemy też warunki, które muszą być spełnione, by istniał proces stochastyczny o zadanych rozkładach skończenie wymiarowych. Przypomnijmy, że jeśli X jest zmienną losową o wartościach w przestrzeni (E, E), to rozkładem X jest miara probabilistyczna na (E, E) zadana wzorem µ X (A) = P(X A), A E. 2.1 σ-ciało zbiorów cylindrycznych Proces X = (X t ) t T możemy traktować jako zmienną losową o wartościach w R T. Jakie podzbiory R T są wówczas na pewno mierzalne? Definicja 1. Zbiory postaci { x R T : (x t1,..., x tn ) A }, t 1,..., t n T, A B(R n ) nazywamy zbiorami cylindrycznymi. Przez B(R T ) będziemy oznaczać najmniejsze σ-ciało zawierające zbiory cylindryczne i będziemy je nazywać σ- ciałem zbiorów cylindrycznych. Uwaga 2. Zauważmy, że Przykłady B(R T ) = σ({x R T : x t A}, t T, A B(R)). 1. Zbiory {x: x t > x s }, {x: x t1 >, x t2 x t1 >,..., x tn x tn 1 > } oraz {x: t<s,t,s Q+ x t > x s } należą do B(R [, ) ). 2. Zbiór {x: sup t T x t 1} nie należy do B(R T ), gdy T jest nieprzeliczalny, podobnie {x: t x t ciągłe} nie należy do B(R T ), gdy T jest niezdegenerowanym przedziałem. Definicja 3. Rozkładem procesu X = (X t ) t T nazywamy miarę probabilistyczną µ X na B(R T ) daną wzorem µ X (C) = P((X t ) t T C), C B(R T ). 9

10 Uwaga 4. Załóżmy, że T jest przedziałem (skończonym lub nie). Na przestrzeni funkcji ciagłych C(T ) rozważmy topologię zbieżności niemal jednostajnej. Wówczas B(R T ) C(T ) = B(C(T )), co oznacza, że jeśli proces X = (X t ) t T ma ciągłe trajektorie, to X wyznacza rozkład probabilistyczny na przestrzeni funkcji ciągłych (C(T ), B(C(T ))). W szczególności proces Wienera wyznacza pewien rozkład probabilistyczny na C[, ). 2.2 Warunki zgodności. Twierdzenie Kołmogorowa o istnieniu procesu Najprostsze zbiory z B(R T ), to zbiory cylindryczne. Miary takich zbiorów to rozkłady skończenie wymiarowe procesu. Definicja 5. Dla procesu (X t ) t T o wartościach w R i t 1,..., t n T określamy miarę µ t1,...,t n na R n wzorem µ t1,...,t n (A) = P((X t1,..., X tn ) A), A B(R n ). Rodzinę miar {µ t1,...,t n : t 1,..., t n T parami różne} nazywamy rodziną skończenie wymiarowych rozkładów procesu X. Fakt 6. Załóżmy, że X = (X t ) t T i Y = (Y t ) t T są procesami o tych samych skończenie wymiarowych rozkładach, czyli P((X t1,..., X tn ) A) = P((Y t1,..., Y tn ) A) dla wszystkich t 1,..., t n T, A B(R n ). Wówczas X i Y mają ten sam rozkład, tzn. P(X C) = P(Y C) dla wszystkich C B(R T ). Dowód. Rodzina zbiorów cylindrycznych A tworzy π-układ, a rodzina C zbiorów C takich, że P(X C) = P(Y C), jest λ-układem zawierającym A. Zatem z twierdzenia o π- i λ- układach, C zawiera również σ-ciało generowane przez A, czyli B(R T ). Definicja 7. Powiemy, że rodzina skończenie wymiarowych rozkładów {µ t1,...,t n : t 1,..., t n T parami różne} spełnia warunki zgodności, jeśli zachodzą następujące warunki: 1

11 i) Dla dowolnych t 1, t 2,..., t n T, dowolnej permutacji (i 1,..., i n ) liczb (1,..., n) oraz zbiorów A 1, A 2,..., A n B(R), µ ti1,...,t in (A i1 A i2... A in ) = µ t1,...,t n (A 1 A 2... A n ). ii) Dla dowolnych t 1, t 2,..., t n+1 T oraz A 1, A 2,..., A n B(R), µ t1,...,t n,t n+1 (A 1 A 2... A n R) = µ t1,...,t n (A 1 A 2... A n ). Oczywiście rodzina rozkładów skończenie wymiarowych dowolnego procesu stochastycznego spełnia warunki zgodności. Okazuje się, że są to jedyne warunki jakie należy nałożyć na taką rodzinę. Twierdzenie 8. Załóżmy, że dana jest rodzina skończenie wymiarowych rozkładów (µ t1,...,t n ) spełniająca warunki zgodności. Wówczas istnieje proces (X t ) t T mający skończenie wymiarowe rozkłady równe (µ t1,...,t n ). Nie będziemy przedstawiać technicznego dowodu powyższego twierdzenia - wszystkich zainteresowanych odsyłamy do Dodatku B. W zamian sformułujemy użyteczny wniosek. Wniosek 9. Załóżmy, że T R oraz dana jest rodzina rozkładów skończenie wymiarowych {µ t1,...,t n : t 1 < t 2 <... < t n, t 1,..., t n T } spełniająca warunek µ t1,...,t n (A 1... A k 1 R A k+1... A n ) = µ t1,...t k 1,t k+1,...,t n (A 1... A k 1 A k+1... A n ). dla wszystkich t 1 < t 2 <... < t n, n 2, 1 k n oraz zbiorów borelowskich A 1,..., A n. Wówczas istnieje proces (X t ) t T taki, że (X t1,..., X tn ) ma rozkład µ t1,...,t n dla t 1 < t 2 <... < t n. Dowód. Dla t 1,..., t n T parami różnych istnieje permutacja (i 1,..., i n ) liczb (1,..., n) taka, że t i1 < t i2 <... < t in. Możemy więc określić µ t1,...,t n jako rozkład wektora (Y 1,..., Y n ) takiego, że (Y i1,..., Y in ) ma rozkład µ ti1,...,t in. Można sprawdzić, że tak określona rodzina miar (µ t1,...,t n ) spełnia warunki zgodności. Przykłady 1. Jeśli (µ t ) t T jest dowolną rodziną rozkładów na R, to istnieje rodzina niezależnych zmiennych losowych (X t ) t T taka, że X t ma rozkład µ t. Używamy tu twierdzenia o istnieniu dla µ t1,...,t n = µ t1... µ tn. 11

12 2. Istnieje proces spełniający warunki (W)-(W2) definicji procesu Wienera. Istotnie dla = t t 1 < t 2 <... < t n kładziemy µ t1,...,t n ( X 1, X 1 + X 2,..., n X k ), gdzie X 1,..., X n są niezależnymi zmiennymi losowymi X k N (, t k t k 1 ). Warunki zgodności wynikają wówczas stąd, iż jeśli Y 1, Y 2 są niezależne i Y i N (, σ 2 i ) dla i = 1, 2, to Y 1 + Y 2 N (, σ σ2 2 ). Uwaga 1. Dla uproszczenia zakładaliśmy podczas tego wykładu, że proces X t ma wartości rzeczywiste. Nic się zmieni (poza oczywistymi drobnymi zmianami definicji) dla procesów o wartościach w R d. Czasem jednak zachodzi potrzeba rozpatrywania procesów o wartościach w ogólniejszej przestrzeni E. warto więc zauważyć, że w Fakcie 6 nie wykorzystywaliśmy żadnych własności przestrzeni E, w dowodzie Twierdzenia 8 wykorzystuje się regularność miar na E n -tu wystarczy założyć, że E jest σ-zwartą przestrzenią metryczną, tzn. E jest przeliczalną sumą zbiorów zwartych lub dodać warunek regularności rozpatrywanych miar. k=1 3 Ciągłość trajektorii Wiemy już kiedy istnieje proces o zadanych skończenie wymiarowych rozkładach. Nasuwa się pytanie kiedy taki proces ma ciągłe trajektorie? Zanim jednak zastanowimy się nad odpowiedzią wprowadzimy dwa ważne sposoby porównywania procesów. 3.1 Procesy stochastycznie równoważne i nierozróżnialne Definicja 11. Niech X = (X t ) t T oraz Y = (Y t ) t T będą dwoma procesami stochastycznymi, określonymi na tej samej przestrzeni probabilistycznej. Powiemy, że: a) X jest modyfikacją Y (lub X jest stochastycznie równoważny Y ), jeśli b) X i Y są nierozróżnialne, jeśli t T P(X t = Y t ) = 1. P( t T X t = Y t ) = 1. 12

13 Zauważmy, że procesy nierozróżnialne są oczywiście stochastycznie równoważne. Ponadto dwa procesy stochastycznie równoważne mają ten sam rozkład. Poniższy przykład pokazuje, że z rozkładu procesu nie można wnioskować o własnościach trajektorii. Przykład Niech Z będzie dowolną zmienną losową o rozkładzie bezatomowym tzn. P(Z = z) = dla wszystkich z R. Zdefiniujmy dwa procesy na T = [, ): X t oraz Y t (ω) = { dla t Z(ω) 1 dla t = Z(ω). Wówczas Y jest modyfikacją X, bo P(X t Y t ) = P(Z = t) =. Zauważmy jednak, że wszystkie trajektorie Y są nieciągłe, czyli w szczególności P( t X t = Y t ) =, a zatem procesy X i Y nie są nierozróżnialne. Fakt 12. Załóżmy, że T jest przedziałem oraz procesy X = (X t ) t T i Y = (Y t ) t T mają prawostronnie ciągłe trajektorie. Wówczas, jeśli X jest modyfikacją Y, to Xi Y są nierozróżnialne. Dowód. Wybierzmy przeliczalny podzbiór T T, gęsty w T, zawierający dodatkowo sup T, jeśli T jest przedziałem prawostronnie domkniętym. Niech A = { t T X t = Y t }, wówczas P(A) = 1, jako przeliczalne przecięcie zbiorów pełnej miary. Ponadto, jeśli ω A, to dla dowolnego t T, X t (ω) = lim X s (ω) = lim Y s (ω) = Y t (ω), s t+,s T s t+,s T czyli P( t T X t = Y t ) P(A) = Twierdzenie o ciągłej modyfikacji Najważniejsze twierdzenie tego wykładu podaje kryterium istnienia modyfikacji procesu, która ma ciągłe trajektorie. Zanim sformułujemy dokładny wynik przypomnijmy definicję hölderowskości. 13

14 Definicja 13. Funkcja f : [a, b] R jest hölderowsko ciągła z wykładnikiem γ, jeśli dla pewnej stałej C <, f(s) f(t) C t s γ dla wszystkich s, t [a, b]. Twierdzenie 14. Załóżmy, że X = (X t ) t [a,b] jest procesem takim, że t,s [a,b] E X t X s α C t s 1+β (1) dla pewnych stałych dodatnich α, β, C. Wówczas istnieje proces X = ( X t ) t [a,b], będący modyfikacją procesu X, którego wszystkie trajektorie są ciągłe. Co więcej trajektorie każdej modyfikacji X o ciągłych trajektoriach są, z prawdopodobieństwem 1, hölderowsko ciągłe z dowolnym wykładnikiem γ < β α. Zainteresownych dowodem odsyłamy do Dodatku B. Wniosek 15. Twierdzenie 14 jest prawdziwe, gdy przedział [a, b] zastąpimy nieskończonym przedziałem, o ile hölderowskość trajektorii zastąpimy lokalną hölderowskością (tzn. hölderowskością na każdym przedziale skończonym). Co więcej, wystarczy, by warunek (1) zachodził dla s t δ, gdzie δ jest ustaloną liczbą dodatnią. Dowód. Przedział nieskończony T można zapisać jako przeliczalną sumę przedziałów [a n, a n+1 ], długości nie większej od δ. Z Twierdzenia 14 wynika (n) istnienie modyfikacji X t procesu X na przedziale [a n, a n+1 ], o ciągłych trajektoriach. Niech A n = { X a n+1 X a n+1 }, wówczas A = n A n ma miarę (n) (n+1) zero. Możemy więc położyć: { X X (n) t (ω) = t (ω) dla t [a n, a n+1 ], ω / A dla ω A. Wniosek 16. Istnieje proces Wienera, tzn. proces spełniający warunki (W)- (W3). Dowód. Mamy E W s W t 4 = E t sw 1 4 = (s t) 2 EW1 4 możemy zastosować Wniosek 15 z β = 1, α = 4 i C = 3. = 3(s t)2 i Wniosek 17. Prawie wszystkie trajektorie procesu Wienera są lokalnie Hölderowsko ciągłe z dowolnym parametrem γ < 1/2. 14

15 Dowód. Mamy E W s W t p = (s t) p/2 EW p 1 = C p(s t) p/2 dla dowolnego p <. Stosując twierdzenie 14 z β = p/2 1, α = p dostajemy Hölderowską ciągłość trajektorii z dowolnym γ < p. Biorąc p dostajemy tezę. Uwaga 18. Prawie wszystkie trajektorie procesu Wienera nie są jednostajnie ciągłe na [, ), nie mogą więc być globalnie Hölderowskie z żadnym wykładnikiem. Uwaga 19. Założenia β > nie można opuścić wystarczy rozważyć proces Poissona (tzn. proces (N t ) t o prawostronnie ciaglych trajektoriach, startujący z zera, o przyrostach niezależnych taki, że N t N s ma rozkład Poissona z parametrem λ(t s) zob. np. Rozdział 23 w [1]) dla którego E N t N s = λ t s, a oczywiście proces Poissona przyjmuje wartości całkowite, więc nie ma modyfikacji o ciągłych trajektoriach. 3.3 Inne rodzaje ciągłości procesów W tym wykładzie koncentrowaliśmy uwagę nad procesami o trajektoriach ciągłych. Warto jednak wspomnieć o innych formach ciągłości procesów stochastycznych. Definicja 2. Niech X = (X t ) t T będzie procesem stochastycznym. Mówimy, że a) proces X jest stochastycznie ciągły, jeśli t n t X tn P Xt. b) proces X jest ciągły wg p-tego momentu (ciągły w L p ), jeśli t n t E X tn X t p. Uwaga 21. Nietrudno wykazać, że zarówno ciągłość trajektorii jaki i ciągłość wg p-tego momentu implikują ciągłość stochastyczną procesu. Z pozostałych czterech implikacji między powyższymi pojęciami ciągłości procesu żadna nie jest prawdziwa bez dodatkowych założeń. 4 Filtracje, Momenty Zatrzymania Celem tego wykładu jest pokazanie jak zmodyfikować definicje omawiane podczas kursowego wykładu z rachunku prawdopodobieństwa z przypadku czasu dyskretnego na czas ciągły. Będziemy zakładać, że T jest lewostronnie domkniętym przedziałem (typowo T = [, )), choć większość definicji i wyników można uogólnić na szerszą klasę zbiorów. 15

16 4.1 Filtracje Definicja 1. Filtracją (F t ) t T przestrzeni probabilistycznej (Ω, F, P) nazywamy rosnący rodzinę σ-ciał zawartych w F, tzn. F t F s dla t s, t, s T. Zdarzenia z σ-ciała F t możemy interpretować jako zdarzenia obserwowalne do chwili t. Definicja 2. Niech X = (X t ) t T będzie procesem stochastycznym. Filtracją generowaną przez X nazywamy rodzinę (Ft X ) t T daną wzorem Ft X = σ(x s : s t). Fakt 3. Proces X t ma przyrosty niezależne wtedy i tylko wtedy, gdy dla dowolnych t < s, t, s T przyrost X s X t jest niezależny od σ-ciała F X t. Dowód. : Rodzina zdarzeń A niezależnych od X s X t tworzy λ-układ, ponadto, z niezależności przyrostów X, zawiera π-układ zdarzeń postaci {X t1 A 1,..., X tn A n } dla t 1 <... < t n t. : Ustalmy t 1 <... < t n oraz zbiory borelowskie A 1,..., A n. Zdarzenie {X t1 A 1, X t2 X t1 A 2,..., X tn 1 X tn 2 A n 1 } należy do σ-ciała F X t n 1, więc jest niezależne od zmiennej X tn X tn 1. Stąd P(X t1 A 1, X t2 X t1 A 2,..., X tn X tn 1 A n ) = P(X t1 A 1,..., X tn 1 X tn 2 A n 1 )P(X tn X tn 1 A n ). Iterując to rozumowanie pokazujemy, że P(X t1 A 1, X t2 X t1 A 2,..., X tn X tn 1 A n ) = P(X t1 A 1 )P(X t2 X t1 A 2, ) P(X tn X tn 1 A n ). Definicja 4. Proces X = (X t ) nazywamy zgodnym z filtracją (F t ) t T lub F t -adaptowalnym, jeśli dla wszystkich t T, X t jest F t mierzalne. Uwaga 5. Oczywiście proces X jest zgodny z filtracją (F t ) t T wtedy i tylko wtedy, gdy Ft X F t dla t T. W szczególności każdy proces X jest zgodny z filtracją przez siebie generowaną. 16

17 4.2 Momenty Zatrzymania Definicja 6. Momentem zatrzymania (momentem Markowa, czasem zatrzymania) względem filtracji (F t ) t T nazywamy zmienną losową o wartościach w T { } taką, że {τ t} F t dla wszystkich t T. Moment zatrzymania to strategia przerwania eksperymentu losowego (np. zakończenia udziału w pewnej grze losowej) taka, że decyzję o przerwaniu do chwili t podejmujemy tylko na podstawie obserwacji dostępnych w tym czasie. Przykład. Dla zbioru A R i procesu stochastycznego (X t ) t T określmy τ A = inf{t T : X t A}. Jeśli (X t ) t T jest F t -adaptowalnym procesem o ciągłych trajektoriach, zaś A zbiorem domkniętym, to τ A jest momentem zatrzymania względem filtracji (F t ). Dowód. Niech T T będzie gęstym podzbiorem T zawierającym lewy koniec. Z domkniętości zbioru A i ciągłości X dostajemy dla t T gdzie {τ A t} = { s t X s A} = n=1 A ε := {x R n : d(x, A) < ε} s t,s T {X s A 1/n } F t, (ε-otoczka zbioru A). Uwaga 7. Jeśli w powyższym przykładzie A będzie zbiorem otwartym, to τ A nie musi być momentem zatrzymania względem filtracji (F t ) t T, ale musi być momentem zatrzymania względem filtracji (F t+ ) t T, gdzie dla t < sup T F t+ := s>t F s, a jeśli t jest największym elementem T, to kładziemy F t+ = F t. Powyższa uwaga motywuje poniższą definicję, która ma nieco techniczny charakter, ale jest powszechnie używana w teorii procesów. Definicja 8. Filtrację (F t ) t T nazywamy prawostronnie ciągłą, jeśli F t+ = F t dla wszystkich t T. Mówimy, że filtracja (F t ) t T spełnia zwykłe warunki, jeśli a) jest prawostronnie ciągła, b) dla wszystkich t, F t zawiera wszystkie zbiory miary zero, tzn. jeśli A F, P(A) =, to A F t. 17

18 Definicja 9. Niech τ będzie momentem zatrzymania względem filtracji (F t ) t T. Definiujemy σ-ciało zdarzeń obserwowalnych do chwili τ wzorem { ( ) F τ := A F := σ F t : t T A {τ t} F t }. t T Fakt 1. a) Zbiór F τ jest σ-ciałem. b) Jeśli τ σ, to F τ F σ. c) Zmienna losowa τ jest F τ mierzalna. Dowód. a) Zbiór Ω F τ, bo Ω {τ t} = {τ t} F t. Jeśli A F τ, to A {τ t} = {τ t} \ (A {τ t}) F t, czyli A F τ. Jeśli A n F τ, to ( n A n) {τ t} = n (A n {τ t}) F t, czyli n A n F τ. b) Weźmy A F τ, wówczas dla t T, A {σ t} = A {τ t} {σ t} F t, czyli A F σ. c) Wystarczy pokazać, że {τ s} F τ, ale {τ s} {τ t} = {τ s t} F s t F t. Fakt 11. Załóżmy, że τ i σ są momentami zatrzymania. Wówczas F τ σ = F τ F σ oraz zdarzenia {τ < σ}, {σ < τ}, {τ σ}, {σ τ}, {τ = σ} należą do F τ σ. Dowód. Zauważmy, że τ σ jest momentem zatrzymania oraz τ σ τ i τ σ σ, zatem na mocy Faktu 1 dostajemy F τ σ F τ F σ. Na odwrót, jeśli A F τ F σ, to A {τ σ t} = A ({τ t} {σ t}) = (A {τ t}) (A {σ t}) F t, czyli A F τ σ. Dalszą część faktu pozostawiamy do udowodnienia na ćwiczeniach. Okazuje się, że adaptowalność procesu nie gwarantuje np. mierzalności zmiennych X τ dla wszystkich momentów zatrzymania τ. Dlatego wprowadzimy jeszcze jedną techniczną definicję. Definicja 12. Proces X = (X t ) t T nazywamy progresywnie mierzalnym względem filtracji (F t ) t T, jeśli dla każdego t T, funkcja (s, ω) X s (ω) traktowana jako funkcja ze zbioru T (, t] Ω w R jest mierzalna względem σ-algebry B(T (, t]) F t. Równoważnie t T A B(R) {(s, ω) T Ω: s t, X s (ω) A} B(T (, t]) F t. Fakt 13. Załóżmy, że T jest przedziałem oraz dany jest proces X = (X t ) t T oraz filtracja (F t ) t T. a) Jeśli proces X jest progresywnie mierzalny względem (F t ), to jest F t - adaptowalny. b) Jeśli proces X jest F t -adaptowalny oraz ma prawostronnie ciągłe trajektorie, to jest progresywnie mierzalny względem (F t ). 18

19 Dowód. a) Zbiór {ω : X t (ω) A} jest przekrojem zbioru {(s, ω) T Ω: s t, X s (ω) A}, a zatem należy do F t. b) Ustalmy t T i połóżmy dla s T, s t, X s (n) := X t 2 n k, gdzie k jest liczbą całkowitą taką, że t 2 n (k + 1) < s t 2 n k. Wówczas {(s, ω) T Ω: s t, X s (n) (ω) A} ( = T k= (t k n, t k 2 n ]) B(T (, t]) F t. {ω : X t k (ω) A} 2n Zatem funkcja X s (n) (ω), s T (, t], ω Ω jest B(T (, t]) F t mierzalna. Wobec prawostronnej ciągłości X mamy X s (ω) = lim n X s (n) (ω), zatem funkcja X s (ω), s T (, t], ω Ω jest B(T (, t]) F t mierzalna jako granica funkcji mierzalnych. Jeśli τ jest momentem zatrzymania, a X = (X t ) t T procesem, to zmienna X τ jest dobrze zdefiniowana tylko na zbiorze {τ < }. Musimy zatem określić co mamy na myśli mówiąc, że zmienna X τ jest mierzalna. Definicja 14. Mówimy, że zmienna losowa X określona na zbiorze A jest mierzalna względem σ-ciała G zawierającego A, jeśli {ω A: X(w) B} G dla dowolnego zbioru borelowskiego B. Fakt 15. Załóżmy, że X = (X t ) t T jest procesem progresywnie mierzalnym względem filtracji (F t ) t T, a τ jest momentem zatrzymania. Wówczas zmienna losowa X τ określona na zbiorze {τ < } F τ jest F τ mierzalna. Ponadto proces zatrzymany w chwili τ, X τ := (X t τ ) t T jest progresywnie mierzalny. Dowód. Odwzorowanie (s, ω) (τ(ω) s, ω): T (, t] Ω T (, t] Ω jest mierzalne względem σ-ciała B(T (, t]) F t ). Jeśli złożymy je z odwzorowaniem (s, ω) X s (ω) mierzalnym z (T (, t] Ω, B(T (, t]) F t ) w R, to otrzymamy odwzorowanie (s, ω) X τ(ω) s (ω) mierzalne z (T (, t] Ω, B(T (, t]) F t ) w R. 19

20 Stąd wynika progresywna mierzalność procesu X τ. By zakończyć dowód zauważmy, że {X τ A} {τ t} = {X τ t A} {τ t} F t na mocy progresywnej mierzalności (a właściwie adaptowalności) X τ. 5 Martyngały z czasem ciągłym Jak podczas poprzedniego wykładu, jeśli nie powiemy inaczej, zakładamy, że T jest lewostronnie domkniętym przedziałem. 5.1 Definicje i przykłady Definicja 1. Mówimy, że (X t ) t T jest martyngałem (odp. podmartyngałem, nadmartyngałem) względem filtracji (F t ) t T lub, że (X t, F t ) t T jest martyngałem (odp. podmartyngałem, nadmartyngałem), jeśli a) dla wszystkich t T, X t jest F t adaptowalny i E X t <, b) dla dowolnych s, t T, s < t, E(X t F s ) = X s p.n. (odp. dla podmartyngału i dla nadmartyngału). Przykład 1. Jeśli X jest całkowalną zmienną losową, a F t dowolną filtracją to X t := E(X F t ) jest martyngałem. Sprawdzamy dla t > s E(X t F s ) = E(E(X F t ) F s ) = E(X F s ) = X p.n.. Przykład 2. (W t ) t jest martyngałem względem naturalnej filtracji F W t = σ(w s : s t). Istotnie dla t > s mamy z niezależności przyrostów E(W t F s ) = E(W s F s ) + E(W t W s F s ) = W s + E(W t W s ) = W s p.n.. Przykład 3. (Wt 2 ) t jest podmartyngałem, a (Wt 2 t) t martyngałem względem naturalnej filtracji Ft W = σ(w s : s t). Liczymy dla t > s E(W 2 t F s ) = E(W 2 s F s ) + E(2W s (W t W s ) F s ) + E((W t W s ) 2 F s ) = W 2 s + 2W s E(W t W s ) + E(W t W s ) 2 = W 2 s + t s p.n.. Uwaga 2. W ostatnich dwu przykładach filtrację (F W t ) można zastąpić filtracją (F W t+). 2

21 Fakt 3. Załóżmy, że (X t, F t ) jest martyngałem (odp. podmartyngałem), zaś f : R R funkcją wypukłą (odp. wypukłą i niemalejącą) taką, że E f(x t ) < dla wszystkich t. Wówczas (f(x t ), F t ) jest podmartyngałem. Dowód. Z nierówności Jensena mamy E(f(X t ) F s ) f(e(x t F s )) p.n., a ostatnia zmienna jest równa f(x s ) w przypadku martyngału i nie mniejsza niż f(x s ) dla podmartyngału. Przypomnijmy definicję funkcji harmonicznych. Definicja 4. Funkcję f : R n R nazywamy podharmoniczną (odp. harmoniczną, nadharmoniczną) jeśli x R n r f(x) 1 S n 1 f(x + ry)dσ(y) (odp. =, ), S n 1 gdzie σ(y) jest miarą powierzchniową na sferze, a S n 1 = S n 1 dσ(y) = 2π n/2 (Γ(n/2)) 1. Uwaga 5. Funkcja gładka jest harmoniczna (odp. pod-,nad-) wtedy i tylko wtedy, gdy f = (odp., ). Dla n = 1 warunek podharmoniczności jest równoważny wypukłości. Funkcja f(x) = ln x x jest nadharmoniczna na R 2, a funkcja f(x) = x x 2 d nadharmoniczna na R d dla d > 2. Fakt 6. Niech W t = (W (1) t,..., W (d) t ) będzie d-wymiarowym procesem Wienera, Ft W = σ(w s : s t), zaś f : R d R funkcją harmoniczną (odp. nad-, pod-) taką, że E f(w t ) < dla t. Wówczas (f(w t ), Ft W ) jest martyngałem (odp. nad-, pod-). Dowód. Liczymy dla t > s, E(f(W t ) F s ) = E(f(W s + (W t W s )) F s ) = (2π(t s)) d/2 f(w s + x)e x 2 2(t s) dx R d = (2π(t s)) d/2 r d 1 e ( ) r2 2(t s) f(w s + y)dσ(y) dr S d 1 = (2π(t s)) d/2 S d 1 f(w s ) = (2π) d/2 S d 1 r d 1 e r2 2(t s) dr r d 1 e r2 2 drf(ws ) = c d f(w s ) p.n.. By zauważyć, że c d = 1 przeprowadzamy albo bezpośredni rachunek, albo podstawiamy powyżej f 1. 21

22 5.2 Nierówności maksymalne Zacznijmy od przypomnienia podstawowego lematu dla martyngałów z czasem dyskretnym, pochodzącego od Dooba. Lemat 7. Załóżmy, że (X n, F n ) 1 N jest martyngałem (odp. nad-, pod-), zaś τ σ N dwoma momentami zatrzymania. Wówczas E(X σ F τ ) = X τ p.n. (odp., ). Dowód. Musimy pokazać, że dla A F τ, EX τ 1 A = EX σ 1 A. Połóżmy A k := A {τ = k} dla k =, 1,..., N. Mamy σ 1 N (X σ X τ )1 Ak = (X σ X k )1 Ak = (X i+1 X i )1 Ak = (X i+1 X i )1 Ak {σ>i}, zatem E[(X σ X τ )1 Ak ] = gdyż A k {σ > i} F i. Stąd i=k i=k N E[(X i+1 X i )1 Ak {σ>i}] =, i=k E[(X σ X τ )1 A ] = N E[(X σ X τ )1 Ak ] =. k= Uwaga 8. Lemat 7 nie jest prawdziwy, jeśli nie założymy ograniczoności momentów zatrzymania, np. biorąc X n = n k=1 ε n, gdzie ε n niezależne zmienne losowe takie, że P(ε n = ±1) = 1/2, F n = σ(ε 1,..., ε n ), τ =, σ = inf{n: X n = 1} widzimy, że EX τ = 1 = EX σ. Lemat 9. Niech (X n, F n ) n N będzie podmartyngałem, wówczas dla wszystkich λ mamy ( ) a) λp max X n λ n N ( ) b) λp min X n λ n N EX N 1 {max n N X n λ} EX + N, EX N 1 {min n N X n> λ} EX EX + N EX. 22

23 Dowód. a) Niech τ := inf{n: X n λ}, z lematu 7 dostajemy (wobec τ N N) EX N EX τ N = EX τ 1 {max n N X n λ} + EX N 1 {max n N X n<λ} λp( max n N X n λ) + EX N 1 {max n N X n<λ} i po przeniesieniu wartości oczekiwanych na jedną stronę dostajemy postulowaną nierówność. b) Definiujemy τ := inf{n: X n λ}, z lematu 7 dostajemy (wobec τ N ) EX EX τ N = EX τ 1 {min n N X n λ} + EX N 1 {min n N X n> λ} λp( min n N X n λ) + EX N 1 {min n N X n> λ} i znów wystarczy pogrupować wartości oczekiwane. Wniosek 1. Jeśli (X n, F n ) n N jest martyngałem, bądź nieujemnym podmartyngałem, to ( ) a) p 1 λ λ p P max X n λ E X N p, n N b) p>1 E X N p E max X n p ( p ) pe XN p. n N p 1 Dowód. a) Funkcja f(t) = t p jest wypukła, niemalejąca na R +, stąd na mocy Faktu 3 X n p jest nieujemnym podmartyngałem, zatem z Lematu 9 mamy ( ) λ p P max X n λ E X N p 1 {max n N X n N n p λ p } E X N p. b) Niech X := max n N X n, z rachunku przeprowadzonego powyżej λp(x λ) E X N 1 {X λ}. Stosując kolejno wzór na całkowanie przez części, twierdzenie Fubiniego i nierówność Höldera dostajemy E max n N X n p = p λ p 1 P(X λ)dλ p X λ p 2 E X N 1 {X λ}dλ = pe X N λ p 2 dλ p p 1 E X N (X ) p 1 p p 1 (E X N p ) 1/p (E(X ) p ) (p 1)/p. 23

24 Jeśli E X N p <, to E X n p E X N p < dla n N oraz E(X ) p E N n= X n p <. Dzieląc więc otrzymaną poprzednio nierówność stronami przez (E(X ) p ) (p 1)/p dostajemy (E(X ) p ) 1/p p p 1 (E X N p ) 1/p. nierówność maksymalną Dooba w przypadku cią- Udowodnimy teraz głym. Twierdzenie 11. Załóżmy, że (X t, F t ) t T martyngałem lub nieujemnym podmartyngałem, o prawostronnie ciągłych trajektoriach. Wówczas ( a) p 1 λ λ p P b) p>1 sup t T ) sup X t λ t T sup E X t p, t T E X t p E sup X t p ( p t T p 1 ) p sup E X t p. t T Uwaga 12. Oczywiście jeśli T zawiera element maksymalny t max, to przy założeniach twierdzenia sup t T E X t p = E X tmax p. Dowód. Jeśli D jest skończonym podzbiorem T, to na podstawie Wniosku 1 dostajemy ( λ p P sup t D ) X t λ sup t D E X t p sup E X t p. t T Niech T będzie gęstym podzbiorem T zawierającym prawy koniec T (o ile taki istnieje), zaś D n wstępującym ciągiem skończonych podzbiorów T takim, że n D n = T. Wówczas dla dowolnego λ > dostajemy na mocy prawostronnej ciągłości ( λ p P sup X t > λ ) = λ ( p P sup X t > λ ) t T t T ( = lim λ p P sup X t > λ ) n t D n sup E X t p. t T Biorąc ciąg λ n λ dostajemy postulowaną w a) nierówność. Nierówność z punktu b) wynika z Wniosku 1 w podobny sposób. 24

25 Uwaga 13. Punkt b) twierdzenia 11 nie zachodzi dla p = 1 można skonstruować martyngał dla którego sup t E X t <, ale E sup t X t =. Zachodzi jednak (przy założeniach Twierdzenia 11) nierówność E sup X t e ( t T e sup t T Wniosek 14. Dla dowolnych u, s > zachodzi ( P sup t s ) W t u e u2 2s. ) E X t ln + X t. Dowód. Ustalmy λ >, wówczas M t := exp(λw t λ2 t 2 ) jest martyngałem względem filtracji Ft W generowanej przez proces Wienera. Stąd na mocy Twierdzenia 11 a) i nieujemności M t dostajemy ( P sup t s ) ( W t u P sup t s ) M t e λu λ2 s 2 e λu+ λ2 s 2 sup E M t = e λu+ λ2 s 2 EM = e λu+ λ2 s 2. t s Zatem ( P sup t s ) W t u inf λ> e λu+ λ 2 s 2 = e u2 2s. 6 Twierdzenia o zbieżności martyngałów 6.1 Przejścia w dół przez przedział Definicja 1. Załóżmy, że I R, f : I R oraz α < β. Jeśli I jest skończone, to określamy τ 1 := inf{t I : f(t) β} oraz σ 1 := inf{t I : t > τ 1, f(t) α} i dalej indukcyjnie dla i = 1, 2,... τ i+1 := inf{t I : t > σ i, f(t) β} oraz σ i+1 := inf{t I : t > τ i+1, f(t) α}. oraz definiujemy D I (f, [α, β]) := sup{j : σ j < } 25

26 W przypadku, gdy I jest nieskończone kładziemy D I (f, [α, β]) := sup{d F (f, [α, β]): F T skończone}. liczbą przejść w dół funkcji f przez prze- Wielkość D I (f, [α, β]) nazywamy dział [α, β]. Przypomnijmy fakt z rachunku prawdopodobieństwa wiążący skończoność liczby przejść ciągu przez przedział z istnieniem granicy Lemat 2. Ciąg liczbowy x n jest zbieżny do pewnej, niekoniecznie skończonej granicy wtedy i tylko wtedy, gdy D N ((x n ), [α, β]) < dla dowolnych liczb wymiernych α < β. Następny lemat jest niewielką modyfikacją poprzedniego. Lemat 3. Jeśli f : [a, b) R, b jest prawostronnie ciągłą funkcją taką, że D [a,b) Q (f, [α, β]) < dla dowolnych liczb wymiernych α < β, to istnieje (niekoniecznie skończona) granica lim t b f(t). Dowód. Załóżmy, że postulowana granica nie istnieje, wtedy można znaleźć liczby wymierne α, β takie, że lim inf t b f(t) < α < β < lim inf t b f(t). Stąd wynika, że istnieje rosnący ciąg liczb wymiernych t n z przedziału [a, b) taki, że f(t 2k 1 ) β oraz f(t 2k ) α. Przyjmując I = {t 1, t 2,...} widzimy, że D [a,b) Q (f, [α, β]) D I (f, [α, β]) =. Lemat 4. Załóżmy, że X = (X t ) t T jest podmartyngałem względem pewnej filtracji, a F jest przeliczalnym podzbiorem T, wówczas ED F (X, [α, β]) sup t F E(X t β) +. β α Dowód. Stosując twierdzenie Lebesgue a o zbieżności monotonicznej widzimy, że wystarczy udowodnić lemat dla skończonych zbiorów F, dla uproszczenia notacji możemy oczywiście przyjąć, że F = {1, 2,..., N}. Zauważmy, że (przy oznaczeniach jak w Definicji 1) X τi X σi β α gdy σ i <, X τi N X σi N = X τi X N β X N (X N β) + gdy τ i < σ i =, X N X N = gdy τ i =. 26

27 Zatem N (X τi N X σi N) (β α)d F (X, [α, β]) (X N β) +. i=1 Na mocy Lematu 7, EX τi N EX σi N, więc N E (X τi N X σi N) E(β α)d F (X, [α, β]) E(X N β) +. i=1 6.2 Zbieżność prawie na pewno Przypomnijmy twierdzenie dotyczące zbieżności podmartyngałów z czasem dyskretnym: Twierdzenie 5. Załóżmy, że (X n ) n N jest podmartyngałem względem pewnej filtracji takim, że sup n N EX n + < (lub nadmartyngałem takim, że sup n N EXn < ), wówczas X = lim n X n istnieje i jest skończona p.n., ponadto E X <. Sformułujemy teraz odpowiednik powyższego twierdzenia dla czasu ciągłego. Twierdzenie 6. Załóżmy, że (X t ) t [a,b), b jest podmartyngałem o prawostronnie ciągłych trajektoriach takim, że sup t [a,b) EX t + <. Wówczas X = lim t b X t istnieje i jest skończony p.n., ponadto E X <. Dowód. Dla ustalonego α < β na podstawie Lematu 4 mamy ED [a,b) Q (X t, [α, β]) 1 β α sup E(X t β) + <, t [a,b) zatem P(D [a,b) Q (X t, [α, β]) = ) =. Niech A := α,β Q,α<β {D [a,b) Q (X t, [α, β]) < }, wówczas P(A) = 1, bo A jest przecięciem przeliczalnej liczby zbiorów pełnej miary. Jeśli ω A, to D [a,b) Q (X t (ω), [α, β]) < dla dowolnych liczb wymiernych α < β, czyli na podstawie Lematu 3 granica X(ω) := lim t b X t (ω) 27

28 istnieje (choć apriori może być nieskończona). Zauważmy, że E X t = 2EX t + EX t 2EX t + EX, zatem sup t [a,b) E X t <. Z Lematu Fatou E X = E lim X t lim inf t b t E X t sup E X t <, t czyli zmienna X jest całkowalna, a więc w szczególności skończona p.n.. Wniosek 7. Załóżmy, że (X t ) t jest niedodatnim podmartyngałem (lub nieujemnym nadmartyngałem) o prawostronnie ciągłych trajektoriach, wówczas X = lim t X t istnieje i jest skończony p.n., ponadto E X <. 6.3 Jednostajna całkowalność Definicja 8. Rodzinę zmiennych losowych (X i ) i I nazywamy jednostajnie całkowalną, jeśli lim E X i 1 { Xi >C} =. sup C i I Fakt 9. Rodzina zmiennych losowych (X i ) i I jest jednostajnie całkowalna wtedy i tylko wtedy, gdy spełnione są następujące dwa warunki a) sup i I E X i <, b) ε> δ> P(A) δ sup i I E X i 1 A ε. Dowód. : Ustalmy ε > i dobierzmy C takie, że sup i I E X i 1 { Xi >C} ε/2. Wówczas i I E X i C + E X i 1 { Xi >C} C + ε/2 < oraz, jeśli P(A) < δ := ε 2C, to E X i 1 A CP(A) + E X i 1 { Xi >C} Cδ + ε 2 = ε. : Niech α := sup i I E X i oraz δ > będzie takie, że sup i I E X i 1 A ε dla P(A) δ. Wówczas, jeśli C = α/δ, to P( X i > C) < α/c = δ dla dowolnego i I, czyli sup i I E X i 1 { Xi >C} ε. Przykłady rodzin jednostajnie całkowalnych 1. Rodzina jednoelementowa {Y } taka, że E Y <. Istotnie lim C E Y 1 { Y >C} =. 2. Rodzina wspólnie ograniczona przez zmienną całkowalną tzn. rodzina (X i ) i I taka, że i I X i Y oraz EY <. 28

29 Wynika to z Faktu 9, poprzedniego przykładu i oczywistej obserwację E X i 1 A E Y 1 A. 3. Rodzina uśrednień ustalonej całkowalnej zmiennej losowej, tzn. rodzina postaci (E(X F i )) i I, gdzie E X <, zaś (F i ) i I dowolna rodzina σ- podciał F. Na podstawie nierówności Jensena E X i = E E(X F i ) E X, a zatem P( X i C) E X i C E X C Zbiór { X i > C} F i, więc z nierówności Jensena δ dla C E X. δ E X i 1 { Xi >C} = E E(X1 { Xi >C} F i ) EE( X 1 { Xi >C} F i ) E( X 1 { Xi >C}) ε, jeśli tylko dobierzemy odpowiednio małe δ korzystając z jednostajnej całkowalności { X }. Fakt 1. Załóżmy, że 1 p <, a X n są zmiennymi losowymi takimi, że rodzina ( X n p ) n=1 jest jednostajnie całkowalna. Wówczas X n zbiega do zmiennej X w L p wtedy i tylko wtedy, gdy X n zbiega do X według prawdopodobieństwa. Dowód. Wystarczy udowodnić, że zbieżność X n według prawdopodobieństwa implikuje zbieżność w L p, bo przeciwna implikacja jest zawsze prawdziwa. Załóżmy więc, że X n X, wówczas dla pewnego podciągu nk, X nk P zbiega do X p.n., stąd na mocy Lematu Fatou E X p = E lim X nk p lim inf E X nk p sup E X n p <. n Zatem rodzina { X n p : n = 1, 2,...} { X p } jest jednostajnie całkowalna. Ustalmy ε > i dobierzmy δ > tak by dla P(A) < δ zachodziło E X n p 1 A ε oraz E X p 1 A ε. Mamy E X n X p ε p + E X n X p 1 { Xn X >ε} ε p + 2 p E X n p 1 { Xn X >ε} + 2 p E X p 1 { Xn X >ε}, a ponieważ X n P X, więc P( Xn X > ε) < δ dla dużych n, czyli E X n X p ε p + 2 p+1 ε dla dostatecznie dużych n. 29

30 Wniosek 11. Jeśli rodzina (X n ) n=1 jest jednostajnie całkowalna oraz X n zbiega prawie na pewno do zmiennej X, to lim n EX n 1 A = EX1 A dla wszystkich zdarzeń A. Dowód. Stosujemy Fakt 1 i oczywiste szacowanie EX n 1 A EX1 A E X n X. Jesteśmy teraz gotowi do dowodu ciągłej wersji Lematu 7. Twierdzenie 12. a) Załóżmy, że T jest przedziałem, a (X t ) t T martyngałem prawostronnie ciągłym, zaś σ i τ czasami zatrzymania takimi, że σ τ t max oraz t max T. Wówczas E(X τ F σ ) = X σ p.n.. b) Jeśli (X t ) t jest prawostronnie ciągłym martyngałem z ostatnim elementem X to dla dowolnych dwu czasów zatrzymania σ τ, E(X τ F σ ) = X σ p.n. Dowód. Udowodnimy część a) (część b) można za pomocą zmiany czasu sprowadzić do a)). Zdefiniujmy { tmax k τ n (ω) := n dla τ(ω) (t max k+1 n, t max k n ], k =, 1,..., n2 t max n dla τ(ω) t max n oraz σ n (ω) := { tmax k n dla σ(ω) (t max k+1 t max n dla σ(ω) t max n n, t max k n ], k =, 1,..., n2. Wówczas σ n τ n t max są ograniczonymi czasami zatrzymania przyjmującymi jedynie skończenie wiele wartości. Zatem na mocy Lematu 7 mamy E(X τn F σn ) = X σn p.n., E(X tmax F σn ) = X σn p.n. oraz E(X tmax F τn ) = X τn p.n., w szczególności więc rodziny (X τn ) n=1 oraz (X σ n ) n=1 są jednostajnie całkowalne. Ponieważ τ n τ+ oraz σ n σ+, więc z prawostronnej ciągłości X oraz Faktu 1 X τn X τ, X σn X σ p.n. i w L 1. Weźmy A F σ F σn, wówczas EX τ 1 A = lim n EX τ n 1 A = lim n EX σ n 1 A = EX σ 1 A, co oznacza, że E(X τ F σ ) = X σ p.n.. Wniosek 13. Załóżmy, że T jest przedziałem, a (M t ) t T jest prawostronnie ciągłym martyngałem względem (F t ) t T. Wówczas dla dowolnego momentu zatrzymania τ proces M τ = (M τ t ) t T jest martyngałem zarówno względem (F τ t ) t T, jak i (F t ) t T. 3

31 Dowód. Niech s < t oraz s, t T, wówczas τ s τ t t, więc z Twierdzenia 12 mamy E(M τ t F τ s ) = M τ s p.n., czyli (M τ t, F τ t ) t T jest martyngałem. By udowodnić drugą część ustalmy s < t oraz A F s. Nietrudno sprawdzić, że A {τ > s} F τ s, zatem z poprzednio udowodnionej części wniosku mamy EM τ t 1 A {τ>s} = EM τ s 1 A {τ>s}. Ponadto EM τ t 1 A {τ s} = EM τ 1 A {τ s} = EM τ s 1 A {τ s}. Dodając powyższe tożsamości stronami otrzymujemy EM τ t 1 A = EM τ s 1 A dla A F s, zatem (M τ t, F t ) t T jest martyngałem. 6.4 Zbieżność martyngałów w L p Zacznijmy od warunków zbieżności martyngałów z czasem ciągłym w L 1. Twierdzenie 14. Załóżmy, że (X t ) t [a,b), b jest prawostronnie ciągłym martyngałem. Wówczas następujące warunki są równoważne: a) Rodzina (X t ) t [a,b) jest jednostajnie całkowalna. b) Istnieje całkowalna zmienna losowa X b taka, że X t zbiega do X b w L 1 tzn. lim t b E X t X b =. c) Istnieje całkowalna zmienna losowa X b mierzalna względem σ-ciała F b := σ( t [a,b) F t) taka, że X t = E(X b F t ) dla t [a, b). W przypadku, gdy zachodzą warunki (a)-(c), to X b = lim t b X t p.n.. Dowód. a) b): X t jest jednostajnie całkowalny, więc sup t E X t <, czyli wobec Twierdzenia 6 istnieje zmienna całkowalna X b taka, że X t X b p.n. przy t b. Z jednostajnej całkowalności i Lematu 1 wynika zbieżność w L 1. b) c): Dla pewnego podciągu t k b, X tk X b p.n., stąd możemy zakładać, że zmienna X b jest F b mierzalna. Ustalmy t i A F t, wówczas dla s t EX t 1 A = EX s 1 A EX b 1 A, s. Zatem X t = E(X b F t ) p.n.. c) a) wiemy, że rodzina uśrednień ustalonej zmiennej jest jednostajnie całkowalna. Ostatnia część twiedzenia wynika z dowodu implikacji a) b). 31

32 Twierdzenie 15. Załóżmy, że (X t ) t [a,b) jest prawostronnie ciągłym martyngałem. Wówczas następujące warunki są równoważne: a) sup t [a,b) E X t p <. b) Rodzina ( X t p ) t [a,b) jest jednostajnie całkowalna. c) Istnieje zmienna losowa X b L p taka, że X t zbiega do X b w L p tzn. lim t b E X t X b p =. d) Istnieje losowa X b L p mierzalna względem F b := σ( t [a,b) F t) taka, że X t = E(X b F t ) dla t [a, b). W przypadku, gdy zachodzą warunki (a)-(d), to X b = lim t b X t p.n.. Dowód. a) b): Na podstawie Twierdzenia 11 wiemy, że E sup t [a,b) X t p ( p p 1 )p sup t [a,b) E X t p <. Pozostałe implikacje dowodzimy jak w dowodzie Twierdzenia *Regularność trajektorii W wielu twierdzeniach zakłada się, iż (X t ) jest prawostronnie ciągłym podmartyngałem. Oczywiście modyfikacja podmartyngału jest podmartyngałem problem jest tylko z mierzalnością, ale znika on, gdy filtracja spełnia zwykłe warunki. Naturalnie jest więc zapytać kiedy dany podmartyngał możemy zmodyfikować tak, by stał się prawostronnie ciągły. Następny lemat jest prostą modyfikacją Lematu 2, więc przytoczymy go bez dowodu. Lemat 16. Jeśli f : [a, b] Q R jest funkcją ograniczoną taką, że dla dowolnych liczb wymiernych α < β, D [a,b] Q (f, [α, β]) <, to granice t [a,b) f(t+) := istnieją i są skończone. lim f(s) i t (a,b] f(t ) := lim f(s) s t+,s Q s t,s Q Będziemy też wykorzystywać prosty fakt. Fakt 17. Załóżmy, że (X n ) n jest podmartyngałem z czasem odwróconym o wartościach średnich ograniczonych z dołu, tzn. a := lim n EX n >. Wówczas rodzina (X n ) n jest jednostajnie całkowalna. Dowód. Ustalmy ε > i dobierzmy k takie, że EX k a + ε/2, wówczas EX k ε/2 EX n EX k dla n k. Zatem dla takich n, z własności 32

33 podmartyngału E X n 1 { Xn >C} = EX n 1 {Xn>C} EX n 1 {Xn< C} = EX n 1 {Xn>C} + EX n 1 {Xn C} EX n EX k 1 {Xn>C} + EX k 1 {Xn C} EX k + ε 2 = EX k 1 {Xn>C} EX k 1 {Xn< C} + ε 2 E X k 1 { Xn >C} + ε 2. Mamy E X n = 2EX + n EX n 2EX + a, więc α := sup n E X n <. Zatem P( X n > C) E X n C α C dla C := α δ, czyli, wobec jednostajnej całkowalności rodziny jednoelementowej, dla odpowiednio małego δ >, E X k 1 { Xn >C} ε/2, a więc E X n 1 { Xn >C} ε dla n k i odpowiednio dużego C. Ponieważ rodzina {X k+1, X k+2,..., X } jest skończona, a zatem i jednostajnie całkowalna, więc dla dużych C i wszystkich n, E X n 1 { Xn >C} ε. Twierdzenie 18. Załóżmy, że T jest przedziałem, a (X t ) t T podmartyngałem (lub nadmartyngałem). Wówczas istnieje zbiór A taki, że P(A) = 1 oraz dla wszystkich ω A i t T poza odpowiednio lewym i prawym końcami T granice X t+ (ω) = istnieją i są skończone. lim X s(ω) oraz X t (ω) = lim X s(ω) s t+,s Q s t,s Q Dowód. Bez straty ogólności możemy zakładać, że X t jest podmartyngałem. Ponieważ możemy znaleźć niemalejący ciąg przedziałów [a n, b n ] taki, że T = n [a n, b n ], więc dowód wystarczy przeprowadzić w przypadku T = [a, b]. Zauważmy, że zatem z Lematu 4 dostajemy sup ]Ex(X t β) + = E(X b β) + <, t [a,b] α<β P(D [a,b] Q (X t, [α, β]) = ) =. Ponadto, na mocy Lematu 9, dla dowolnego λ > λp( sup t [a,b] Q X t λ) sup EX t + = EX b + < t [a,b] Q 33

34 oraz Stąd Niech λp( inf X t λ) sup EX t + EX a = EX b + EX a <. t [a,b] Q t [a,b] Q A := P( < α,beta Q,α<β inf X t sup X t < ) = 1. t [a,b] Q t [a,b] Q {D [a,b] Q (X n, [α, β]) < } { sup t [a,b] Q X t < }, wtedy P(A) = 1. By wykazać, że zbiór A ma postulowane własności wystarczy skorzystać z Lematu 16. Definicja 19. Funkcję f : T R określoną na przedziale T nazywamy PCLG (często również używa się pochodzącej z francuskiego nazwy cadlag) jeśli jest prawostronnie ciągła i w każdym punkcie T (poza ewentualnie lewym końcem) ma skończone lewostronne granice. Twierdzenie 2. Załóżmy, że T jest przedziałem, a X = (X t ) t T jest podmartyngałem (odp. nadmartyngałem) względem filtracji (F t ) t T spełniającej zwykłe warunki. Wówczas X ma prawostronnie ciągłą modyfikację wtedy i tylko wtedy gdy funkcja t EX t jest prawostronnie ciągła. Co więcej, jeśli taka modyfikacja istnieje, to istnieje również modyfikacja PCLG i F t -adaptowalna będąca podmartyngałem (odp. nadmartyngałem) względem (F t ) t T. Dowód. Wystarczy rozpatrzeć przypadek podmartyngału oraz T = [a, b]. Na mocy Twierdzenia 18 istnieje A takie, że P(A) = 1 oraz dla wszystkich ω A granice lim s t+,s Q X s, t [a, b) oraz lim s t,s Q X s, t (a, b] istnieją i są skończone. Połóżmy { lims t+,s Q X X t+ (ω) := s (ω) ω A ω / A Niech t n t+, ponieważ EX tn EX a, więc (X tn ) n jest jednostajnie całkowalny jako podmartyngał z czasem odwróconym (Fakt 17). Weźmy A F t, wówczas EX t 1 A EX tn 1 A EX t+ 1 A przy n, stąd X t+ = E(X t+ F t ) X t p.n.. Co więcej E(X t+ X t ) = lim n EX t n EX t = 34

Wstęp do Analizy Stochastycznej

Wstęp do Analizy Stochastycznej Matematyka stosowana Wstęp do Analizy Stochastycznej Rafał Latała R.Latala@mimuw.edu.pl http://www.mimuw.edu.pl/~rlatala Uniwersytet Warszawski, 211 Streszczenie. Ogólna teoria procesów, proces Wienera.

Bardziej szczegółowo

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ. Zadania z Procesów Stochastycznych 1 1. Udowodnij, że z prawdopodobieństwem 1 trajektorie procesu Poissona są niemalejące, przyjmują wartości z Z +, mają wszystkie skoki równe 1 oraz dążą do nieskończoności.

Bardziej szczegółowo

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ. Zadania z Procesów Stochastycznych 1 1. Udowodnij, że z prawdopodobieństwem 1 trajektorie procesu Poissona są niemalejące, przyjmują wartości z Z +, mają wszystkie skoki równe 1 oraz dążą do nieskończoności.

Bardziej szczegółowo

Zadania z Procesów Stochastycznych 1

Zadania z Procesów Stochastycznych 1 Zadania z Procesów Stochastycznych 1 Definicja Procesem Poissona z parametrem (intensywnością) λ > 0 nazywamy proces stochastyczny N = (N t ) t 0 taki, że N 0 = 0; (P0) N ma przyrosty niezależne; (P1)

Bardziej szczegółowo

F t+ := s>t. F s = F t.

F t+ := s>t. F s = F t. M. Beśka, Całka Stochastyczna, wykład 1 1 1 Wiadomości wstępne 1.1 Przestrzeń probabilistyczna z filtracją Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną i niech F = {F t } t 0 będzie rodziną

Bardziej szczegółowo

Teoria ze Wstępu do analizy stochastycznej

Teoria ze Wstępu do analizy stochastycznej eoria ze Wstępu do analizy stochastycznej Marcin Szumski 22 czerwca 21 1 Definicje 1. proces stochastyczny - rodzina zmiennych losowych X = (X t ) t 2. trajektoria - funkcja (losowa) t X t (ω) f : E 3.

Bardziej szczegółowo

Zadania ze Wstępu do Analizy Stochastycznej 1. = 0 p.n.

Zadania ze Wstępu do Analizy Stochastycznej 1. = 0 p.n. Zadania ze Wstępu do Analizy Stochastycznej 1 1. Znajdź rozkład zmiennej 5W 1 W 3 + W 7. 2. Dla jakich parametrów a i b, zmienne aw 1 W 2 oraz W 3 + bw 5 są niezależne? 3. Znajdź rozkład wektora losowego

Bardziej szczegółowo

Ośrodkowość procesów, proces Wienera. Ośrodkowość procesów, proces Wienera Procesy Stochastyczne, wykład, T. Byczkowski,

Ośrodkowość procesów, proces Wienera. Ośrodkowość procesów, proces Wienera Procesy Stochastyczne, wykład, T. Byczkowski, Procesy Stochastyczne, wykład, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 27 luty, 2012 Ośrodkowość procesów Dalej zakładamy, że (Ω, Σ, P) jest zupełną przestrzenią miarową. Definicja.

Bardziej szczegółowo

4 Kilka klas procesów

4 Kilka klas procesów Marek Beśka, Całka Stochastyczna, wykład 4 48 4 Kilka klas procesów 4.1 Procesy rosnące i przestrzenie V,, loc Jak poprzednio niech (Ω, F, F, P ) będzie zupełną bazą stochastyczną. Definicja 4.1 Proces

Bardziej szczegółowo

Zadania z Rachunku Prawdopodobieństwa III - 1

Zadania z Rachunku Prawdopodobieństwa III - 1 Zadania z Rachunku Prawdopodobieństwa III - 1 Funkcją tworzącą momenty (transformatą Laplace a) zmiennej losowej X nazywamy funkcję M X (t) := Ee tx, t R. 1. Oblicz funkcję tworzącą momenty zmiennych o

Bardziej szczegółowo

21 maja, Mocna własność Markowa procesu Wienera. Procesy Stochastyczne, wykład 13, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126

21 maja, Mocna własność Markowa procesu Wienera. Procesy Stochastyczne, wykład 13, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126 Mocna własność Markowa procesu Wienera Procesy Stochastyczne, wykład 13, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126 21 maja, 2012 Mocna własność Markowa W = (W 1,..., W d ) oznaczać

Bardziej szczegółowo

n=0 Dla zbioru Cantora prawdziwe są wersje lematu 3.6 oraz lematu 3.8 przy założeniu α = :

n=0 Dla zbioru Cantora prawdziwe są wersje lematu 3.6 oraz lematu 3.8 przy założeniu α = : 4. Zbiory borelowskie. Zbiór wszystkich podzbiorów liczb naturalnych będziemy oznaczali przez ω. Najmniejszą topologię na zbiorze ω, w której zbiory {A ω : x A ω \ y}, gdzie x oraz y są zbiorami skończonymi,

Bardziej szczegółowo

8 Całka stochastyczna względem semimartyngałów

8 Całka stochastyczna względem semimartyngałów M. Beśka, Całka Stochastyczna, wykład 8 148 8 Całka stochastyczna względem semimartyngałów 8.1 Całka stochastyczna w M 2 Oznaczmy przez Ξ zbiór procesów postaci X t (ω) = ξ (ω)i {} (t) + n ξ i (ω)i (ti,

Bardziej szczegółowo

A i. i=1. i=1. i=1. i=1. W dalszej części skryptu będziemy mieli najczęściej do czynienia z miarami określonymi na rodzinach, które są σ - algebrami.

A i. i=1. i=1. i=1. i=1. W dalszej części skryptu będziemy mieli najczęściej do czynienia z miarami określonymi na rodzinach, które są σ - algebrami. M. Beśka, Wstęp do teorii miary, rozdz. 3 25 3 Miara 3.1 Definicja miary i jej podstawowe własności Niech X będzie niepustym zbiorem, a A 2 X niepustą rodziną podzbiorów. Wtedy dowolne odwzorowanie : A

Bardziej szczegółowo

Wykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga

Wykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga RAP 412 21.01.2009 Wykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga Wykładowca: Andrzej Ruciński Pisarz: Łukasz Waszak 1 Wstęp Na ostatnim wykładzie przedstawiliśmy twierdzenie o zbieżności

Bardziej szczegółowo

2 Rodziny zbiorów. 2.1 Algebry i σ - algebry zbiorów. M. Beśka, Wstęp do teorii miary, rozdz. 2 11

2 Rodziny zbiorów. 2.1 Algebry i σ - algebry zbiorów. M. Beśka, Wstęp do teorii miary, rozdz. 2 11 M. Beśka, Wstęp do teorii miary, rozdz. 2 11 2 Rodziny zbiorów 2.1 Algebry i σ - algebry zbiorów Niech X będzie niepustym zbiorem. Rodzinę indeksowaną zbiorów {A i } i I 2 X nazywamy rozbiciem zbioru X

Bardziej szczegółowo

Zadania z Rachunku Prawdopodobieństwa II Podaj przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,

Zadania z Rachunku Prawdopodobieństwa II Podaj przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ, Zadania z Rachunku Prawdopodobieństwa II -. Udowodnij, że dla dowolnych liczb x n, x, δ xn δ x wtedy i tylko wtedy, gdy x n x.. Wykaż, że n n k= δ k/n λ, gdzie λ jest miarą Lebesgue a na [, ].. Podaj przykład

Bardziej szczegółowo

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności RAP 412 14.01.2009 Wykład 11: Martyngały: definicja, twierdzenia o zbieżności Wykładowca: Andrzej Ruciński Pisarz:Mirosława Jańczak 1 Wstęp Do tej pory zajmowaliśmy się ciągami zmiennych losowych (X n

Bardziej szczegółowo

Zadania z Rachunku Prawdopodobieństwa II Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,

Zadania z Rachunku Prawdopodobieństwa II Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ, Zadania z Rachunku Prawdopodobieństwa II -. Udowodnij, że dla dowolnych liczb x n, x, δ xn δ x wtedy i tylko wtedy, gdy x n x.. Wykaż, że n n k= δ k/n λ, gdzie λ jest miarą Lebesgue a na [, ].. Podać przykład

Bardziej szczegółowo

3. Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,

3. Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ, Zadania z Rachunku Prawdopodobieństwa II - Mówimy, że i) ciąg miar probabilistycznych µ n zbiega słabo do miary probabilistycznej µ (ozn. µ n µ), jeśli fdµ n fdµ dla dowolnej funkcji ciągłej ograniczonej

Bardziej szczegółowo

Prawa wielkich liczb, centralne twierdzenia graniczne

Prawa wielkich liczb, centralne twierdzenia graniczne , centralne twierdzenia graniczne Katedra matematyki i ekonomii matematycznej 17 maja 2012, centralne twierdzenia graniczne Rodzaje zbieżności ciągów zmiennych losowych, centralne twierdzenia graniczne

Bardziej szczegółowo

Rodzinę F złożoną z podzbiorów zbioru X będziemy nazywali ciałem zbiorów, gdy spełnione są dwa następujące warunki.

Rodzinę F złożoną z podzbiorów zbioru X będziemy nazywali ciałem zbiorów, gdy spełnione są dwa następujące warunki. 3. Funkcje borelowskie. Rodzinę F złożoną z podzbiorów zbioru X będziemy nazywali ciałem zbiorów, gdy spełnione są dwa następujące warunki. (1): Jeśli zbiór Y należy do rodziny F, to jego dopełnienie X

Bardziej szczegółowo

Rozdział 6. Ciągłość. 6.1 Granica funkcji

Rozdział 6. Ciągłość. 6.1 Granica funkcji Rozdział 6 Ciągłość 6.1 Granica funkcji Podamy najpierw dwie definicje granicy funkcji w punkcie i pokażemy ich równoważność. Definicja Cauchy ego granicy funkcji w punkcie. Niech f : X R, gdzie X R oraz

Bardziej szczegółowo

jest ciągiem elementów z przestrzeni B(R, R)

jest ciągiem elementów z przestrzeni B(R, R) Wykład 2 1 Ciągi Definicja 1.1 (ciąg) Ciągiem w zbiorze X nazywamy odwzorowanie x: N X. Dla uproszczenia piszemy x n zamiast x(n). Przykład 1. x n = n jest ciągiem elementów z przestrzeni R 2. f n (x)

Bardziej szczegółowo

1 Relacje i odwzorowania

1 Relacje i odwzorowania Relacje i odwzorowania Relacje Jacek Kłopotowski Zadania z analizy matematycznej I Wykazać, że jeśli relacja ρ X X jest przeciwzwrotna i przechodnia, to jest przeciwsymetryczna Zbadać czy relacja ρ X X

Bardziej szczegółowo

PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω)

PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω) PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω) określonych na tej samej przestrzeni probabilistycznej

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład VII: Rozkład i jego charakterystyki 22 listopada 2016 Uprzednio wprowadzone pojęcia i ich własności Definicja zmiennej losowej Zmienna losowa na przestrzeni probabilistycznej (Ω, F, P) to funkcja

Bardziej szczegółowo

7 Twierdzenie Fubiniego

7 Twierdzenie Fubiniego M. Beśka, Wstęp do teorii miary, wykład 7 19 7 Twierdzenie Fubiniego 7.1 Miary produktowe Niech i będą niepustymi zbiorami. Przez oznaczmy produkt kartezjański i tj. zbiór = { (x, y : x y }. Niech E oraz

Bardziej szczegółowo

Zadania do Rozdziału X

Zadania do Rozdziału X Zadania do Rozdziału X 1. 2. Znajdź wszystkie σ-ciała podzbiorów X, gdy X = (i) {1, 2}, (ii){1, 2, 3}. (b) Znajdź wszystkie elementy σ-ciała generowanego przez {{1, 2}, {2, 3}} dla X = {1, 2, 3, 4}. Wykaż,

Bardziej szczegółowo

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Niech Ω będzie przestrzenią zdarzeń elementarnych. Definicja 1 Rodzinę S zdarzeń losowych (zbiór S podzbiorów zbioru

Bardziej szczegółowo

Robert Kowalczyk. Zbiór zadań z teorii miary i całki

Robert Kowalczyk. Zbiór zadań z teorii miary i całki Robert Kowalczyk Zbiór zadań z teorii miary i całki 2 Zadanie 1 Pokazać, że poniższe dwie definicje σ-ciała M są równoważne: (i) Rodzinę M podzbiorów przestrzeni X nazywamy σ-ciałem jeżeli zachodzą następujące

Bardziej szczegółowo

Rozdział 4. Ciągi nieskończone. 4.1 Ciągi nieskończone

Rozdział 4. Ciągi nieskończone. 4.1 Ciągi nieskończone Rozdział 4 Ciągi nieskończone W rozdziale tym wprowadzimy pojęcie granicy ciągu. Dalej rozszerzymy to pojęcie na przypadek dowolnych funkcji. Jak zauważyliśmy we wstępie jest to najważniejsze pojęcie analizy

Bardziej szczegółowo

Notatki z Analizy Matematycznej 2. Jacek M. Jędrzejewski

Notatki z Analizy Matematycznej 2. Jacek M. Jędrzejewski Notatki z Analizy Matematycznej 2 Jacek M. Jędrzejewski Definicja 3.1. Niech (a n ) n=1 będzie ciągiem liczbowym. Dla każdej liczby naturalnej dodatniej n utwórzmy S n nazywamy n-tą sumą częściową. ROZDZIAŁ

Bardziej szczegółowo

7. Miara, zbiory mierzalne oraz funkcje mierzalne.

7. Miara, zbiory mierzalne oraz funkcje mierzalne. 7. Miara, zbiory mierzalne oraz funkcje mierzalne. Funkcję rzeczywistą µ nieujemną określoną na ciele zbiorów S będziemy nazywali miarą, gdy dla dowolnego ciągu A 0, A 1,... zbiorów rozłącznych należących

Bardziej szczegółowo

Teoria miary i całki

Teoria miary i całki Teoria miary i całki Spis treści 1 Wstęp 3 2 lgebra zbiorów 5 3 Pierścienie, ciała, σ ciała zbiorów. 7 3.1 Definicja pierścienia ciała i σ ciała............... 7 3.2 Pierścień, ciało i σ ciało generowane

Bardziej szczegółowo

Seria 1. Zbieżność rozkładów

Seria 1. Zbieżność rozkładów Seria Zbieżność rozkładów We wszystkich poniższych zadaniach (E, ρ) jest przestrzenią metryczną Wykazać, że dla dowolnych x, x n, δ xn δ x wtedy i tylko wtedy, gdy x n x Sprawdzić, że n nk= δ k n λ, gdzie

Bardziej szczegółowo

Wykład 21 Funkcje mierzalne. Kostrukcja i własności całki wzglȩdem miary przeliczalnie addytywnej

Wykład 21 Funkcje mierzalne. Kostrukcja i własności całki wzglȩdem miary przeliczalnie addytywnej Wykład 2 Funkcje mierzalne. Kostrukcja i własności całki wzglȩdem miary przeliczalnie addytywnej czȩść II (opracował: Piotr Nayar) Definicja 2.. Niech (E, E) bȩdzie przestrzenia mierzalna i niech λ : E

Bardziej szczegółowo

G. Plebanek, MIARA I CAŁKA Zadania do rozdziału 1 28

G. Plebanek, MIARA I CAŁKA Zadania do rozdziału 1 28 G. Plebanek, MIARA I CAŁKA Zadania do rozdziału 1 28 1.9 Zadania 1.9.1 Niech R będzie pierścieniem zbiorów. Zauważyć, że jeśli A, B R to A B R i A B R. Sprawdzić, że (R,, ) jest także pierścieniem w sensie

Bardziej szczegółowo

O pewnych klasach funkcji prawie okresowych (niekoniecznie ograniczonych)

O pewnych klasach funkcji prawie okresowych (niekoniecznie ograniczonych) (niekoniecznie ograniczonych) Wydział Matematyki i Informatyki Uniwersytet im. Adama Mickiewicza, Poznań Będlewo, 25-30 maja 2015 Funkcje prawie okresowe w sensie Bohra Definicja Zbiór E R nazywamy względnie

Bardziej szczegółowo

Zadania z RP 2. seria Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n

Zadania z RP 2. seria Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n Zadania z RP 2. seria 1. 1. Dla x R n, niech δ x oznacza miarę Diraca, skupioną w punkcie x. Wykazać, że dla dowolnego ciągu x n R n zachodzi δ xn δ x wtedy i tylko wtedy, gdy x n x. 2. Podać przykład

Bardziej szczegółowo

Korzystając z własności metryki łatwo wykazać, że dla dowolnych x, y, z X zachodzi

Korzystając z własności metryki łatwo wykazać, że dla dowolnych x, y, z X zachodzi M. Beśka, Wstęp do teorii miary, Dodatek 158 10 Dodatek 10.1 Przestrzenie metryczne Niech X będzie niepustym zbiorem. Funkcję d : X X [0, ) spełniającą dla x, y, z X warunki (i) d(x, y) = 0 x = y, (ii)

Bardziej szczegółowo

}, gdzie a = t (n) )(f(t(n) k. ) f(t(n) k 1 ) 1+δ = 0,

}, gdzie a = t (n) )(f(t(n) k. ) f(t(n) k 1 ) 1+δ = 0, Zadania z Procesów Stochastycznych II - 1 1. Niech π n = {t (n), t(n) 1,..., t(n) k n }, gdzie a = t (n) < t (n) 1

Bardziej szczegółowo

(b) Suma skończonej ilości oraz przekrój przeliczalnej ilości zbiorów typu G α

(b) Suma skończonej ilości oraz przekrój przeliczalnej ilości zbiorów typu G α FUNKCJE BORELOWSKIE Rodzinę F podzbiorów zbioru X (tzn. F X) będziemy nazywali ciałem gdy spełnione są warunki: (1) Jeśli zbiór Y F, to dopełnienie X \ Y też należy do rodziny F. (2) Jeśli S F jest skończoną

Bardziej szczegółowo

Wykład 10. Stwierdzenie 1. X spełnia warunek Borela wtedy i tylko wtedy, gdy każda scentrowana rodzina zbiorów domkniętych ma niepusty przekrój.

Wykład 10. Stwierdzenie 1. X spełnia warunek Borela wtedy i tylko wtedy, gdy każda scentrowana rodzina zbiorów domkniętych ma niepusty przekrój. Wykład 10 Twierdzenie 1 (Borel-Lebesgue) Niech X będzie przestrzenią zwartą Z każdego pokrycia X zbiorami otwartymi można wybrać podpokrycie skończone Dowód Lemat 1 Dla każdego pokrycia U przestrzeni ośrodkowej

Bardziej szczegółowo

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład Rozdział 1 Wektory losowe 1.1 Wektor losowy i jego rozkład Definicja 1 Wektor X = (X 1,..., X n ), którego każda współrzędna jest zmienną losową, nazywamy n-wymiarowym wektorem losowym (krótko wektorem

Bardziej szczegółowo

Zadania z Analizy Funkcjonalnej I Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi?

Zadania z Analizy Funkcjonalnej I Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi? Zadania z Analizy Funkcjonalnej I - 1 1. Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi? a) X = R, d(x, y) = arctg x y ; b) X = R n, d(x, y) = x 1 y 1 + x 2 y 2 + max i 3 x i

Bardziej szczegółowo

Wykłady ostatnie. Rodzinę P podzbiorów przestrzeni X nazywamy σ - algebrą, jeżeli dla A, B P (2) A B P, (3) A \ B P,

Wykłady ostatnie. Rodzinę P podzbiorów przestrzeni X nazywamy σ - algebrą, jeżeli dla A, B P (2) A B P, (3) A \ B P, Wykłady ostatnie CAŁKA LBSGU A Zasadnicza różnica koncepcyjna między całką Riemanna i całką Lebesgue a polega na zamianie ról przestrzeni wartości i przestrzeni argumentów przy konstrukcji sum górnych

Bardziej szczegółowo

Dystrybucje, wiadomości wstępne (I)

Dystrybucje, wiadomości wstępne (I) Temat 8 Dystrybucje, wiadomości wstępne (I) Wielkości fizyczne opisujemy najczęściej przyporządkowując im funkcje (np. zależne od czasu). Inną drogą opisu tych wielkości jest przyporządkowanie im funkcjonałów

Bardziej szczegółowo

1. Struktury zbiorów 2. Miara 3. Miara zewnętrzna 4. Miara Lebesgue a 5. Funkcje mierzalne 6. Całka Lebesgue a. Analiza Rzeczywista.

1. Struktury zbiorów 2. Miara 3. Miara zewnętrzna 4. Miara Lebesgue a 5. Funkcje mierzalne 6. Całka Lebesgue a. Analiza Rzeczywista. Literatura P. Billingsley, Miara i prawdopodobieństwo, PWN, Warszawa 1997, P. R. Halmos, Measure theory, Springer-Verlag, 1994, W, Kołodziej, naliza matematyczna, PWN, Warszawa 1978, S. Łojasiewicz, Wstęp

Bardziej szczegółowo

Teoria miary. WPPT/Matematyka, rok II. Wykład 5

Teoria miary. WPPT/Matematyka, rok II. Wykład 5 Teoria miary WPPT/Matematyka, rok II Wykład 5 Funkcje mierzalne Niech (X, F) będzie przestrzenią mierzalną i niech f : X R. Twierdzenie 1. NWSR 1. {x X : f(x) > a} F dla każdego a R 2. {x X : f(x) a} F

Bardziej szczegółowo

Wykłady... b i a i. i=1. m(d k ) inf

Wykłady... b i a i. i=1. m(d k ) inf Wykłady... CŁKOWNIE FUNKCJI WIELU ZMIENNYCH Zaczniemy od konstrukcji całki na przedziale domkniętym. Konstrukcja ta jest, w gruncie rzeczy, powtórzeniem definicji całki na odcinku domkniętym w R 1. Przedziałem

Bardziej szczegółowo

Zdzisław Dzedzej. Politechnika Gdańska. Gdańsk, 2013

Zdzisław Dzedzej. Politechnika Gdańska. Gdańsk, 2013 Zdzisław Dzedzej Politechnika Gdańska Gdańsk, 2013 1 PODSTAWY 2 3 Definicja. Przestrzeń metryczna (X, d) jest zwarta, jeśli z każdego ciągu {x n } w X można wybrać podciąg zbieżny {x nk } w X. Ogólniej

Bardziej szczegółowo

zbiorów domkniętych i tak otrzymane zbiory domknięte ustawiamy w ciąg. Oznaczamy

zbiorów domkniętych i tak otrzymane zbiory domknięte ustawiamy w ciąg. Oznaczamy 5. Funkcje 1 klasy Baire a. Pod koniec XIX i początkiem XX wieku kilku matematyków zajmowało się problemami dotyczącymi klasyfikacji funkcji borelowskich: między innymi R. Baire, E. Borel, H. Lebesgue

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład V: Zmienne losowe i ich wartości oczekiwane 25 października 2017 Definicja zmiennej losowej Definicja Zmienne losowa to charakterystyka liczbowa wyniku eksperymentu losowego. Zmienne losowa na przestrzeni

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład IV: 27 października 2014 Współczynnik korelacji Brak korelacji a niezależność Definicja współczynnika korelacji Współczynnikiem korelacji całkowalnych z kwadratem zmiennych losowych X i Y nazywamy

Bardziej szczegółowo

PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA

PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA 1. Trójkę (Ω, F, P ), gdzie Ω, F jest σ-ciałem podzbiorów Ω, a P jest prawdopodobieństwem określonym na F, nazywamy przestrzenią probabilistyczną. 2. Rodzinę F

Bardziej szczegółowo

Rodzinę spełniającą trzeci warunek tylko dla sumy skończonej nazywamy ciałem (algebrą) w zbiorze X.

Rodzinę spełniającą trzeci warunek tylko dla sumy skończonej nazywamy ciałem (algebrą) w zbiorze X. 1 σ-ciała Definicja 1.1 (σ - ciało) σ - ciałem (σ - algebrą) w danym zbiorze X (zwanym przestrzenią) nazywamy rodzinę M pewnych podzbiorów zbioru X, spełniającą trzy warunki: 1 o M; 2 o jeśli A M, to X

Bardziej szczegółowo

19 marzec, Łańcuchy Markowa z czasem dyskretnym. Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136

19 marzec, Łańcuchy Markowa z czasem dyskretnym. Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 19 marzec, 2012 Przykłady procesów Markowa (i). P = (p ij ) - macierz stochastyczna, tzn. p ij 0, j p ij =

Bardziej szczegółowo

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe 4.0. Rozkłady zmiennych losowych, dystrybuanta. Katarzyna Rybarczyk-Krzywdzińska Wprowadzenie Rozważmy eksperymenty 1 gra Bolka w ruletkę w kasynie;

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład II: Zmienne losowe i charakterystyki ich rozkładów 13 października 2014 Zmienne losowe Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Definicja zmiennej losowej i jej

Bardziej szczegółowo

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014 Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014 Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe

Bardziej szczegółowo

Procesy stochastyczne

Procesy stochastyczne Wykład I: Istnienie procesów stochastycznych 21 lutego 2017 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane

Bardziej szczegółowo

Wokół nierówności Dooba

Wokół nierówności Dooba Uniwersytet Warszawski Wydział Matematyki, Informatyki i Mechaniki Tomasz Tkocz Nr albumu: 24957 Wokół nierówności Dooba Praca licencjacka na kierunku MATEMATYKA w ramach Międzywydziałowych Indywidualnych

Bardziej szczegółowo

Rozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej

Rozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Zbiór możliwych wyników eksperymentu będziemy nazywać przestrzenią zdarzeń elementarnych i oznaczać Ω, natomiast

Bardziej szczegółowo

Szkice do zajęć z Przedmiotu Wyrównawczego

Szkice do zajęć z Przedmiotu Wyrównawczego Szkice do zajęć z Przedmiotu Wyrównawczego Matematyka Finansowa sem. letni 2011/2012 Spis treści Zajęcia 1 3 1.1 Przestrzeń probabilistyczna................................. 3 1.2 Prawdopodobieństwo warunkowe..............................

Bardziej szczegółowo

1 Zbiory. 1.1 Kiedy {a} = {b, c}? (tzn. podać warunki na a, b i c) 1.2 Udowodnić, że A {A} A =.

1 Zbiory. 1.1 Kiedy {a} = {b, c}? (tzn. podać warunki na a, b i c) 1.2 Udowodnić, że A {A} A =. 1 Zbiory 1.1 Kiedy {a} = {b, c}? (tzn. podać warunki na a, b i c) 1.2 Udowodnić, że A {A} A =. 1.3 Pokazać, że jeśli A, B oraz (A B) (B A) = C C, to A = B = C. 1.4 Niech {X t } będzie rodziną niepustych

Bardziej szczegółowo

28 maja, Problem Dirichleta, proces Wienera. Procesy Stochastyczne, wykład 14, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126

28 maja, Problem Dirichleta, proces Wienera. Procesy Stochastyczne, wykład 14, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126 Problem Dirichleta, proces Wienera Procesy Stochastyczne, wykład 14, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126 28 maja, 2012 Funkcje harmoniczne Niech będzie operatorem Laplace a w

Bardziej szczegółowo

Definicja odwzorowania ciągłego i niektóre przykłady

Definicja odwzorowania ciągłego i niektóre przykłady Odwzorowania Pojęcie odwzorowania pomiędzy dwoma zbiorami było już definiowane, ale dawno, więc nie od rzeczy będzie przypomnieć, że odwzorowaniem nazywamy sposób przyporządkowania (niekoniecznie każdemu)

Bardziej szczegółowo

Statystyka i eksploracja danych

Statystyka i eksploracja danych Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu w dziedzinach matematyczno-przyrodniczych realizowany w ramach Poddziałania 4.1.1 Programu Operacyjnego Kapitał Ludzki Statystyka i eksploracja

Bardziej szczegółowo

WYKŁAD Z ANALIZY MATEMATYCZNEJ I. dr. Elżbieta Kotlicka. Centrum Nauczania Matematyki i Fizyki

WYKŁAD Z ANALIZY MATEMATYCZNEJ I. dr. Elżbieta Kotlicka. Centrum Nauczania Matematyki i Fizyki WYKŁAD Z ANALIZY MATEMATYCZNEJ I dr. Elżbieta Kotlicka Centrum Nauczania Matematyki i Fizyki http://im0.p.lodz.pl/~ekot Łódź 2006 Spis treści 1. CIĄGI LICZBOWE 2 1.1. Własności ciągów liczbowych o wyrazach

Bardziej szczegółowo

Zadania z Rachunku Prawdopodobieństwa III - 1

Zadania z Rachunku Prawdopodobieństwa III - 1 Zadania z Rachunku Prawdopodobieństwa III - 1 1. Oblicz funkcję tworzącą momenty zmiennych o następujących rozkładach: a) symetryczny dwupunktowy; b) dwumianowy z parametrami n, p; c) Poissona z parametrem

Bardziej szczegółowo

Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu.

Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu. Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu. A Teoria Definicja A.1. Niech (Ω, F, P) będzie przestrzenią probabilistyczną. Zmienną losową określoną na przestrzeni Ω nazywamy dowolną

Bardziej szczegółowo

Procesy stochastyczne

Procesy stochastyczne Wykład I: Istnienie procesów stochastycznych 2 marca 2015 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane są

Bardziej szczegółowo

domykanie relacji, relacja równoważności, rozkłady zbiorów

domykanie relacji, relacja równoważności, rozkłady zbiorów 1 of 8 2012-03-28 17:45 Logika i teoria mnogości/wykład 5: Para uporządkowana iloczyn kartezjański relacje domykanie relacji relacja równoważności rozkłady zbiorów From Studia Informatyczne < Logika i

Bardziej szczegółowo

Statystyka i eksploracja danych

Statystyka i eksploracja danych Wykład II: i charakterystyki ich rozkładów 24 lutego 2014 Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa,

Bardziej szczegółowo

RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3.

RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3. RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3. ZMIENNA LOSOWA JEDNOWYMIAROWA. Zmienną losową X nazywamy funkcję (praktycznie każdą) przyporządkowującą zdarzeniom elementarnym liczby rzeczywiste. X : Ω R (dokładniej:

Bardziej szczegółowo

Teoria miary. Matematyka, rok II. Wykład 1

Teoria miary. Matematyka, rok II. Wykład 1 Teoria miary Matematyka, rok II Wykład 1 NAJBLIŻSZY CEL: Nauczyć się mierzyć wielkość zbiorów. Pierwsze przymiarki: - liczność (moc) zbioru - słabo działa dla zbiorów nieskończonych: czy [0, 1] powinien

Bardziej szczegółowo

Zadania z Analizy Funkcjonalnej I Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi?

Zadania z Analizy Funkcjonalnej I Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi? Zadania z Analizy Funkcjonalnej I - 1 1. Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi?. a) X = R, x = arctg x ; b) X = R n, d(x, y) = x 1 y 1 + x 2 y 2 + max i 3 x i y i ;

Bardziej szczegółowo

Metody probabilistyczne

Metody probabilistyczne Metody probabilistyczne. Twierdzenia graniczne Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 20.2.208 / 26 Motywacja Rzucamy wielokrotnie uczciwą monetą i zliczamy

Bardziej szczegółowo

1 Elementy analizy funkcjonalnej

1 Elementy analizy funkcjonalnej M. Beśka, Dodatek 1 1 Elementy analizy funkcjonalnej 1.1 Twierdzenia o reprezentacji Zaczniemy od znanego twierdzenia Riesza Twierdzenie 1.1 (Riesz) Niech będzie zwartą przestrzenią metryczną i załóżmy,

Bardziej szczegółowo

Analiza matematyczna. 1. Ciągi

Analiza matematyczna. 1. Ciągi Analiza matematyczna 1. Ciągi Definicja 1.1 Funkcję a: N R odwzorowującą zbiór liczb naturalnych w zbiór liczb rzeczywistych nazywamy ciągiem liczbowym. Wartość tego odwzorowania w punkcie n nazywamy n

Bardziej szczegółowo

Temperatura w atmosferze (czy innym ośrodku) jako funkcja dł. i szer. geogr. oraz wysokości.

Temperatura w atmosferze (czy innym ośrodku) jako funkcja dł. i szer. geogr. oraz wysokości. Własności Odległości i normy w Będziemy się teraz zajmować funkcjami od zmiennych, tzn. określonymi na (iloczyn kartezja/nski egzemplarzy ). Punkt należący do będziemy oznaczać jako Przykł. Wysokość terenu

Bardziej szczegółowo

Analiza portfelowa w czasie ciagłym dla ogólnych cen zakupu i sp. ze stałymi kosztami za transakcje

Analiza portfelowa w czasie ciagłym dla ogólnych cen zakupu i sp. ze stałymi kosztami za transakcje Analiza portfelowa w czasie ciagłym dla ogólnych cen zakupu i sprzedaży ze stałymi kosztami za transakcje Instytut Matematyczny PAN Problem bez stałych kosztów za transakcje (Ω, F, (F t ), P) przestrzeń

Bardziej szczegółowo

1 Nierówność Minkowskiego i Hoeldera

1 Nierówność Minkowskiego i Hoeldera 1 Nierówność Minkowskiego i Hoeldera Na państwa użytek załączam precyzyjne sformułowania i dowody nierówności Hoeldera i Minkowskiego: Twierdzenie 1.1 Nierówność Hoeldera). Niech p, q będą takimi liczbami

Bardziej szczegółowo

2. P (E) = 1. β B. TSIM W3: Sygnały stochastyczne 1/27

2. P (E) = 1. β B. TSIM W3: Sygnały stochastyczne 1/27 SYGNAŁY STOCHASTYCZNE Przestrzeń probabilistyczna i zmienna losowa Definicja Przestrzenią probabilistyczną (doświadczeniem) nazywamy trójkę uporządkowaną (E, B, P ), gdzie: E przestrzeń zdarzeń elementarnych;

Bardziej szczegółowo

Rachunek prawdopodobieństwa Rozdział 2. Aksjomatyczne ujęcie prawdopodobieństwa

Rachunek prawdopodobieństwa Rozdział 2. Aksjomatyczne ujęcie prawdopodobieństwa Rachunek prawdopodobieństwa Rozdział 2. Aksjomatyczne ujęcie prawdopodobieństwa 2.1. σ ciało (algebra) zdarzeń Katarzyna Rybarczyk-Krzywdzińska losowe Zdarzenie losowe to pewien podzbiór przestrzeni zdarzeń

Bardziej szczegółowo

P(U 1 > max{u 2,..., U 1000 } U 1 = s)dp U1 (s).

P(U 1 > max{u 2,..., U 1000 } U 1 = s)dp U1 (s). Kolokwium poszło gorzej, niż miałem nadzieję, a lepiej, niż się obawiałem. Maksymalny wynik to 74 punkty na 20), średnia to 55,6, zaś mediana to 50. Grupy były dość równe w jednej średnia to 54,5, w drugiej

Bardziej szczegółowo

Grzegorz Bobiński. Wykład monograficzny Programowanie Liniowe i Całkowitoliczbowe

Grzegorz Bobiński. Wykład monograficzny Programowanie Liniowe i Całkowitoliczbowe Grzegorz Bobiński Wykład monograficzny Programowanie Liniowe i Całkowitoliczbowe Wydział Matematyki i Informatyki Uniwersytet Mikołaja Kopernika w Toruniu 2012 Spis treści Notacja 1 1 Podstawowe pojęcia

Bardziej szczegółowo

Zasada indukcji matematycznej

Zasada indukcji matematycznej Zasada indukcji matematycznej Twierdzenie 1 (Zasada indukcji matematycznej). Niech ϕ(n) będzie formą zdaniową zmiennej n N 0. Załóżmy, że istnieje n 0 N 0 takie, że 1. ϕ(n 0 ) jest zdaniem prawdziwym,.

Bardziej szczegółowo

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe 4.0. Rozkłady zmiennych losowych, dystrybuanta. Katarzyna Rybarczyk-Krzywdzińska semestr zimowy 2016/2017 Wprowadzenie Przykład 1 Bolek, Lolek i Tola

Bardziej szczegółowo

Ciągłość funkcji f : R R

Ciągłość funkcji f : R R Ciągłość funkcji f : R R Definicja 1. Otoczeniem o promieniu δ > 0 punktu x 0 R nazywamy zbiór O(x 0, δ) := (x 0 δ, x 0 + δ). Otoczeniem prawostronnym o promieniu δ > 0 punktu x 0 R nazywamy zbiór O +

Bardziej szczegółowo

MNRP r. 1 Aksjomatyczna definicja prawdopodobieństwa (wykład) Grzegorz Kowalczyk

MNRP r. 1 Aksjomatyczna definicja prawdopodobieństwa (wykład) Grzegorz Kowalczyk MNRP 18.03.2019r. Grzegorz Kowalczyk 1 Aksjomatyczna definicja prawdopodobieństwa (wykład) Definicja (σ - ciało) Niech Ω - dowolny zbiór. Rodzinę F P (Ω), gdzie P (Ω) jest rodziną wszystkich podzbiorów

Bardziej szczegółowo

1. Funkcje monotoniczne, wahanie funkcji.

1. Funkcje monotoniczne, wahanie funkcji. 1. Funkcje monotoniczne, wahanie funkcji. Zbiór X będziemy nazywali uporządkowanym, jeśli określona jest relacja zawarta w produkcie kartezjańskim X X, która jest spójna, antysymetryczna i przechodnia.

Bardziej szczegółowo

5 Przegląd najważniejszych rozkładów

5 Przegląd najważniejszych rozkładów 5 Przegląd najważniejszych rozkładów 5. Rozkład Bernoulliego W niezmieniających się warunkach wykonujemy n razy pewne doświadczenie. W wyniku każdego doświadczenia może nastąpić zdarzenie A lub A. Zakładamy,

Bardziej szczegółowo

Analiza matematyczna 1 - test egzaminacyjny wersja do ćwiczeń

Analiza matematyczna 1 - test egzaminacyjny wersja do ćwiczeń Analiza matematyczna 1 - test egzaminacyjny wersja do ćwiczeń Leszek Skrzypczak 1. Niech E = {x [0, 1] : x = k 2 n k = 1, 2,... 2 n, n = 1, 2, 3,...} Wówczas: (a) Dla dowolnych liczb wymiernych p, q [0,

Bardziej szczegółowo

Procesy stochastyczne

Procesy stochastyczne Procesy stochastyczne 1 Co to jest proces stochastyczny Będziemy zakładać w tej książce, że dana jest przestrzeń probabilistyczna (Ω, F, P ). Definicja 1.1 Procesem stochastycznym nazywamy zbiór zmiennych

Bardziej szczegółowo

Jak rzucać losowe spojrzenia na ruch Browna by w nim wszystko dojrzeć

Jak rzucać losowe spojrzenia na ruch Browna by w nim wszystko dojrzeć Jak rzucać losowe spojrzenia na ruch Browna by w nim wszystko dojrzeć Jan Ob lój Uniwersytet Warszawski Université Paris 6 Konwersatorium IMPAN, Listopad 2004 p.1/22 Plan referatu 1. Wstępne definicje

Bardziej szczegółowo

Całki niewłaściwe. Całki w granicach nieskończonych

Całki niewłaściwe. Całki w granicach nieskończonych Całki niewłaściwe Całki w granicach nieskończonych Wiemy, co to jest w przypadku skończonego przedziału i funkcji ograniczonej. Okazuje się potrzebne uogólnienie tego pojęcia w różnych kierunkach (przedział

Bardziej szczegółowo

Konstrukcja liczb rzeczywistych przy pomocy ciągów Cauchy ego liczb wymiernych

Konstrukcja liczb rzeczywistych przy pomocy ciągów Cauchy ego liczb wymiernych Konstrukcja liczb rzeczywistych przy pomocy ciągów Cauchy ego liczb wymiernych Marcin Michalski 14.11.014 1 Wprowadzenie Jedną z intuicji na temat liczb rzeczywistych jest myślenie o nich jako liczbach,

Bardziej szczegółowo