Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu w dziedzinach matematyczno-przyrodniczych realizowany w ramach Poddziałania 4.1.1 Programu Operacyjnego Kapitał Ludzki Procesy stochastyczne Treść wykładów Adam Jakubowski UMK Toruń 2012 Projekt współfinansowany przez Unię Europejską w ramach Europejskiego Funduszu Społecznego
Spis treści Wstęp 1 1 Istnienie procesów stochastycznych 3 Nieskończone ciągi zmiennych losowych................. 3 Procesy stochastyczne............................ 3 Rozkłady skończenie wymiarowe...................... 4 Zgodność rozkładów skończenie wymiarowych............ 4 Twierdzenie Kołmogorowa.......................... 5 Istnienie ciągów niezależnych zmiennych losowych.......... 5 Istnienie procesów gaussowskich...................... 6 2 Jednorodne łańcuchy Markowa 7 Definicja łańcucha Markowa........................ 7 Istnienie łańcuchów Markowa....................... 8 Podstawowe wnioski z definicji....................... 9 Własność Markowa.............................. 9 3 Rozkłady stacjonarne dla łańcuchów Markowa 11 Rozkłady brzegowe łańcuchów Markowa................ 11 Rozkłady stacjonarne............................. 12 Istnienie rozkładów stacjonarnych.................... 12 Równanie równowagi szczegółowej.................... 13 4 Twierdzenie ergodyczne dla łańcuchów Markowa 15 Kiedy rozkład stacjonarny jest jedyny?................. 15 Klasyfikacja stanów............................. 15 Nieprzywiedlny łańcuch Markowa..................... 16 Twierdzenie ergodyczne........................... 17 Algorytm Metropolisa............................ 17 5 Twierdzenia o powracaniu dla łańcuchów Markowa 19 Powracalność a prawo wielkich liczb.................. 19 Powroty łańcucha Markowa do ustalonego stanu I......... 19 Stany powracające............................... 20 i
ii Spis treści Symetryczne błądzenie po płaszczyźnie i w przestrzeni....... 21 6 Twierdzenia graniczne dla łańcuchów Markowa 23 Prawo wielkich liczb dla łańcuchów Markowa............ 23 Schemat dowodu prawa wielkich liczb dla łańcuchów Markowa. 23 Centralne twierdzenie graniczne dla łańcuchów Markowa.... 25 7 Procesy stacjonarne 27 Definicja procesu stacjonarnego..................... 27 Przekształcenie zachowujące miarę.................... 28 Zbiory i funkcje T -niezmiennicze...................... 29 Przykłady przekształceń zachowujących miarę............ 30 Ułamki łańcuchowe.............................. 30 8 Indywidualne twierdzenie ergodyczne 31 Indywidualne twierdzenie ergodyczne.................. 31 Maksymalne twierdzenie ergodyczne................... 32 Przekształcenia i procesy ergodyczne.................. 32 9 Kompletna losowość - proces punktowy Poissona 35 Punktowy proces Poissona......................... 35 Proces Poissona................................ 36 Momenty skoku procesu Poissona..................... 38 Alternatywna konstrukcja procesu Poissona............. 38 10 Systemy kolejkowe i inne modele oparte na procesie Poissona 39 System obsługi masowej........................... 39 Systemy kolejkowe............................... 40 O systemie M/G/1............................... 40 Model Cramera- Lundberga......................... 41 11 L 2 procesy 43 L 2 procesy i ich charakterystyki..................... 43 Funkcja kowariancji L 2 procesu...................... 43 Przykłady procesów gaussowskich.................... 44 L 2 procesy stacjonarne w szerokim sensie................ 45 Miara i gęstość spektralna L 2 procesu................. 46 12 Wstęp do teorii martyngałów 47 Pojęcie filtracji................................ 47 Momenty zatrzymania............................. 48 Gra sprawiedliwa................................ 49 Martyngał jako gra sprawiedliwa..................... 49
Spis treści iii 13 Zbieżność martyngałów 51 Nierówność maksymalna dla podmartyngałów............. 51 Nierówność Dooba............................... 52 Wnioski z twierdzenia Dooba........................ 53 14 Proces Wienera 55 Definicja procesu Wienera......................... 55 Własności trajektorii procesu Wienera................. 56 Martyngałowe własności procesu Wienera............... 57 Proces Wienera jako granica błądzeń losowych........... 57 Dodatek 59 Wektory losowe................................ 59 Rozkłady łączne a rozkłady brzegowe.................. 60 Niezależność................................... 60 Kryteria niezależności............................ 60 Niezależność zdarzeń............................. 61 Całka iloczynu niezależnych zmiennych losowych.......... 61 Wielowymiarowe rozkłady normalne................... 62 Przestrzenie funkcji całkowalnych.................... 63 Rodzaje zbieżności funkcji mierzalnych i relacje między nimi... 66 Warunkowa wartość oczekiwana zmiennej losowej.......... 66 Transformata Laplace a........................... 67 Literatura 69
iv Spis treści
Wstęp Przedmiot Procesy stochastyczne jest przedmiotem do wyboru dla wszystkich specjalności studiów II stopnia na kierunku matematyka. Jednak szczególna rola przypada mu na specjalności Zastosowania matematyki w ekonomii i finansach, ze względu na powszechność stosowania metod stochastycznych w tych dziedzinach nauki i gospodarki. Celem wykładu jest zapoznanie słuchaczy z podstawowymi klasami procesów stochastycznych. Podczas omawiana poszczególnych klas dyskutowane są zagadnienia istnienia/konstrukcji procesów oraz podstawowe własności i najważniejsze twierdzenia związane z daną klasą.. Po zaliczeniu wykładu i ćwiczeń słuchacz błędzie posiadał aparat matematyczny umożliwiający modelowanie zjawisk losowych za pomocą procesów stochastycznych. Przedmiot Procesy stochastyczne prowadzony jest w semestrze letnim, w wymiarze 30 godzin wykładu i 30 godzin ćwiczeń rachunkowych. Zaliczenie przedmiotu polega na uzyskaniu zaliczenia ćwiczeń rachunkowych oraz zdaniu egzaminu ustnego z teorii. Ćwiczenia dydaktyczne prowadzone są w oparciu o materiały dydaktyczne Adam Jakubowski Procesy stochastyczne. Materiały do ćwiczeń, Toruń 2012. Niniejsze opracowanie zawiera treści przekazywane w trakcie wykładów. Najważniejsze definicje i twierdzenia przedstawiane są w postaci zrzutu ekranowego odpowiedniej transparencji. Podstawowy materiał uzupełniany jest komentarzami i przykładami. Zagadnienia omawiane na wykładach, wraz z ewentualnymi uzupełnieniami, są dostępne na: https://plas.mat.umk.pl/moodle/ w kategorii Studia stacjonarne/procesy stochastyczne. Całość materiału podzielono na 14 jednostek, z grubsza odpowiadających dwugodzinnemu wykładowi. Literatura podstawowa przedmiotu zawiera książki: J. Jakubowski i R. Sztencel Wstęp do teorii prawdopodobieństwa, Script, Warszawa 2004, S. I. Resnick, Adventures in Stochastic Processes, Birkhäuser, 1994. 1
2 Wstęp Jako literatura uzupełniająca zalecane są książki: A.A. Borowkow, Rachunek prawdopodobieństwa, PWN, Warszawa 1975. O. Häggström, Finite Markov chains and algorithmic applications, Cambridge University Press, Cambridge 2008. Adam Jakubowski
1. Istnienie procesów stochastycznych Nieskończone ciągi zmiennych losowych 1.1 Przykład (Skończony schemat Bernoullego) Ω = {0, 1} N, F = 2 Ω, P(A) = #A #ω, X k ( (ω1, ω 2,..., ω N ) ) = ω k, k = 1, 2,..., N. Zmienne {X k ; k = 1, 2,..., N} tworzą skończony schemat Bernoullego z prawdopodobieństwem sukcesu p = 1/2. Czy istnieje ciąg nieskończony takich zmiennych? 1.2 Przykład (Funkcje Rademachera) Ω = [0, 1], F = B 1, P = l [0,1], f n (x) = sign sin ( 2πx ), n = 1, 2,.... Rozwijając wzór otrzymujemy f n (x) = Rysunek przekonuje o niezależności! { ( 1) i 1 jeśli i 1 2 n x < i 2 n, i = 1, 2,..., 2 n, 1 jeśli x = 1. Procesy stochastyczne 3
4 1. Istnienie procesów stochastycznych Rozkłady skończenie wymiarowe Zgodność rozkładów skończenie wymiarowych Π S 2 S 1 Niech {X t ; t T} będzie procesem stochastycznym i niech S 1 S 2 T. Jeżeli przez oznaczymy naturalny rzut po współrzędnych R S 2 {t s } s S2 {t s } s S1 R S 1, to mamy również P XS1 = P XS2 ( Π S 2 S 1 ) 1. (1.1) 1.5 Definicja Własność (1.1) rozkładów skończenie wymiarowych procesu stochastycznego nazywamy zgodnością. 1.6 Wniosek Zgodność w sensie (1.1) jest warunkiem koniecznym dla istnienia procesu stochastycznego o zadanych własnościach rozkładów skończenie wymiarowych.
Twierdzenie Kołmogorowa o istnieniu procesu stochastycznego 5 Twierdzenie Kołmogorowa Istnienie ciągów niezależnych zmiennych losowych
6 1. Istnienie procesów stochastycznych Istnienie procesów gaussowskich Niech X = ( ) T X 1, X 2,..., X n będzie wektorem losowym. EX jest wektorem wartości oczekiwanych współrzędnych X: EX = ( ) T EX 1, EX 2,..., EX n. Cov ( X ) jest symetryczną i nieujemnie określoną macierzą o współczynnikach 1.10 Twierdzenie Cov ( X i, X j ) = E ( Xi EX i )( Xj EX j ), i, j = 1, 2,..., n. E X istnieje wtedy, i tylko wtedy, gdy E X < +. Cov ( X ) istnieje wtedy, i tylko wtedy, gdy E X 2 < +.
2. Jednorodne łańcuchy Markowa Definicja łańcucha Markowa 7
8 2. Jednorodne łańcuchy Markowa Istnienie łańcuchów Markowa 2.2 Twierdzenie Jeżeli P jest macierzą stochastyczną na E, a π jest rozkładem prawdopodobieństwa na E, to istnieje jednorodny łańcuch Markowa X 0, X 1, X 2,... o rozkładzie początkowym π i macierzy prawdopodobieństw przejścia P. Dowód: Utożsamiamy elementy przestrzeni E z podzbiorem N i sprawdzamy zgodność rozkładów skończenie wymiarowych indeksowanych podzbiorami N i zadanych wzorami µ 0,1,2,...,m ( (i0, i 1, i 2,..., i m 1, i m ) ) = π i0 p i0,i 1 p i1,i 2... p im 1,i m, gdzie µ 0,1,2,...,m jest rozkładem na N m = {(i 0, i 1, i 2,..., i m 1, i m ) ; i 0, i 1,... i m N}.
Podstawowe wnioski z definicji 9 Podstawowe wnioski z definicji Własność Markowa
10 2. Jednorodne łańcuchy Markowa Jak formalnie wyrazić własność Markowa? Definiujemy P ( B X 0, X 1,..., X n ) jako P ( B ) X 0 = i o, X 1 = i 1,..., X n = i n 1I {X0 =i 0,X 1 =i 1,...,X n=i n}, (i 0,i 1,...,i n) E n+1 i podobnie P ( B X n ) = i E n+1 P ( B X n = i ) 1I {Xn=i}. 2.3 Twierdzenie Dla dowolnych n, m N oraz dowolnego zbioru A E m ma miejsce równość: P ( (X n+1, X n+2,..., X n+m ) A X 0, X 1,..., X n ) = = P ( (X n+1, X n+2,..., X n+m ) A X n ).
3. Rozkłady stacjonarne dla łańcuchów Markowa Rozkłady brzegowe łańcuchów Markowa Przypomnijmy podstawowe elementy definicji łańcuchów Markowa. E - przeliczalny zbiór stanów. P = {p ij } i,j E - macierz prawdopodobieństw przejścia, tzn. p ij 0, i, j E oraz p ij = 1, i E. j E π = {π j } j E - rozkład początkowy. Jednorodny łańcuch Markowa - proces stochastyczny X 0, X 1, X 2,... o rozkładach skończenie wymiarowych danych wzorem P π( X 0 = i 0, X 1 = i 1, X 2 = i 2,..., X m 1 = i m 1, X m = i m ) = = π i0 p i0,i 1 p i1,i 2... p im 1,i m. 11
12 3. Rozkłady stacjonarne dla łańcuchów Markowa Rozkłady stacjonarne Istnienie rozkładów stacjonarnych 3.4 Uwaga Znaleźć rozkład stacjonarny dla P, to rozwiązać układ równań liniowych π i p ij = π j, j E, i E przy dodatkowym warunku π i = 1. i E Nie zawsze jest to możliwe. 3.5 Przykład Błądzenie symetryczne po kracie Z. Kładziemy: E = Z, 1 2 gdy j = i + 1, p ij = 1 2 gdy j = i 1, 0 gdy j i 1.
Równanie równowagi szczegółowej 13 Równanie równowagi szczegółowej
14 3. Rozkłady stacjonarne dla łańcuchów Markowa
4. Twierdzenie ergodyczne dla łańcuchów Markowa Kiedy rozkład stacjonarny jest jedyny? 4.1 Przykład Macierz jednostkowa I wymiaru #E jest macierzą stochastyczną. Dla tej macierzy każdy rozkład jest stacjonarny i każdy rozkład spełnia równanie równowagi szczegółowej. 4.2 Problem Kiedy istnieje dokładnie jeden rozkład stacjonarny? Odpowiedź: gdy wszystkie wiersze macierzy Q są identyczne, tzn. δ ij + p ij + p ij (2) +... + p ij (n 1) π j, dla wszystkich i, j E. n W szczególności tak będzie, gdy dla wszystkich i, j E. Klasyfikacja stanów p ij (n) π j, 15
16 4. Twierdzenie ergodyczne dla łańcuchów Markowa Nieprzywiedlny łańcuch Markowa
Twierdzenie ergodyczne 17 Twierdzenie ergodyczne Najważniejsze kroki w dowodzie 4.11 Lemat Niech a 1, a 2,..., a m N będą takie, że NWD {a 1, a 2,..., a m } = 1. Wówczas istnieje liczba N 0 taka, że każdą liczbę n N 0 można przedstawić w postaci gdzie l 1, l 2,..., l m N. n = l 1 a + l 2 a 2 +... + l m a m, 4.12 Wniosek Jeśli łańcuch jest nieprzywiedlny i nieokresowy, to istnieje N 0 takie, że dla n N 0 wszystkie elementy macierzy P n są dodatnie. Algorytm Metropolisa 4.13 Problem Na E (zwykle bardzo licznym) mamy mamy rozkład π. Szukamy P o własnościach: (i) π jest rozkładem stacjonarnym dla P. (ii) P n szybko zmierzają do π (jak w tw. ergod.).
18 4. Twierdzenie ergodyczne dla łańcuchów Markowa 4.14 Uwaga Sposób osiągnięcia powyższych celów wymyślony został przez fizyków blisko 60 lat temu. W najprostszej sytuacji można go opisać w postaci algorytmu Metropolisa. Ten i inne podobne algorytmy stanowią podstawę dynamicznych metod Monte Carlo (ang. Markov Chain Monte Carlo ).
5. Twierdzenia o powracaniu dla łańcuchów Markowa Powracalność a prawo wielkich liczb 5.1 Przykład Rozważmy błądzenie losowe po liczbach całkowitych: p jeśli j = i + 1, p ij = 1 p =: q jeśli j = i 1, 0 jeśli j i 1. Załóżmy, że rozpoczynamy błądzenie z i = 0. Jakie wnioski można wyciągnąć na podstawie prawa wielkich liczb nt. liczby powrotów trajektorii do stanu i = 0? Powroty łańcucha Markowa do ustalonego stanu I 19
20 5. Twierdzenia o powracaniu dla łańcuchów Markowa Stany powracające
Symetryczne błądzenie po płaszczyźnie i w przestrzeni 21 Symetryczne błądzenie po płaszczyźnie i w przestrzeni
22 5. Twierdzenia o powracaniu dla łańcuchów Markowa
6. Twierdzenia graniczne dla łańcuchów Markowa Prawo wielkich liczb dla łańcuchów Markowa 6.1 Problem Łańcuchy Markowa są przykładami ciągów zależnych zmiennych losowych. W badaniu ich własności statystycznych nie można więc stosować zwykłych praw wielkich liczb i centralnego twierdzenia granicznego. Jak wyglądają ich odpowiedniki? 6.2 Umowa Przypomnienie: przez E µ f(x 0, X 1,...) rozumiemy wartość oczekiwaną przy rozkładzie początkowym µ. Schemat dowodu prawa wielkich liczb dla łańcuchów Markowa Krok 1. Ma miejsce zbieżność: E µ f(x n ) E π f(x 0 ). 23
24 6. Twierdzenia graniczne dla łańcuchów Markowa Stąd Krok 2. Oznaczmy E µ f(x 0 ) + E µ f(x 1 ) +... + E µ f(x n 1 ) n E π f(x 0 ). S n ( µ, f) = f(x 0 ) E µ (f(x 0 )) + f(x 1 ) E µ (f(x 1 ))+ +... + f(x n 1 ) E µ (f(x n 1 )). Wystarczy pokazać, że P µ( S n ( µ, f) n ) > ε 0, ε > 0. Krok 3. Pokażemy, że Var µ( ) S n ( µ, f) n 2 0. W tym celu wystarczy pokazać, że Var µ( ) S n ( µ, f) σ 2( π, f ), n gdzie szereg jest zbieżny. Krok 4. Szereg jest bezwzględnie zbieżny. σ 2( π, f ) = Var π( ) f(x 0 ) + 2 σ 2( π, f ) = Var π( ) f(x 0 ) + 2 Cov π( f(x 0 ), f(x k ) ) k=1 Cov π( f(x 0 ), f(x k ) ) k=1 Krok 5. Krok 6. Krok 6. Var µ( ) f(x n ) Var π( ) f(x 0 ). Cov µ( f(x n j ), f(x n ) ) Cov π( f(x 0 ), f(x j ) ). Var µ( ) S n+1 ( µ, f) Var µ( ) S n ( µ, f) = = Var π( ) n 1 f(x n ) + 2 Cov π( f(x k ), f(x n ) ) σ 2( π, f ). k=0
Centralne twierdzenie graniczne dla łańcuchów Markowa 25 Centralne twierdzenie graniczne dla łańcuchów Markowa
26 6. Twierdzenia graniczne dla łańcuchów Markowa
7. Procesy stacjonarne Definicja procesu stacjonarnego 27
28 7. Procesy stacjonarne Przekształcenie zachowujące miarę
Zbiory i funkcje T -niezmiennicze 29 Zbiory i funkcje T -niezmiennicze
30 7. Procesy stacjonarne Przykłady przekształceń zachowujących miarę 7.11 Przykład Obrót o kąt 2πα T α : S 1 S 1, T α (s) = s e 2πiα, zachowuje miarę Lebesgue a na S 1. 7.12 Przykład Przekształcenie piekarza T : [0, 1) [0, 1) [0, 1) [0, 1), { (2x, y/2) dla 0 x < 1 T (x, y) = 2 (2 2x, 1 y/2) dla 1 2 x < 1. T zachowuje miarę Lebesgue a na [0, 1) 2. Ułamki łańcuchowe 7.13 Przykład Część ułamkowa odwrotności i miara Gaussa Niech X = [0, 1]\Q (liczby niewymierne z odcinka [0, 1]). Określamy T : X X jako część ułamkową odwrotności: T (x) = 1 1 { 1 x =. x x} T zachowuje miarę Gaussa o gęstości p T (x) = (ln 2) 1 /(1 + x). Niech f : X N będzie określone wzorem 1 f(x) = = x 1 x T (x). Wtedy 1 x = f(x) + T (x) = 1 =... 1 f(x) + f(t (x)) + T (T (x)) Tak więc wartości trajektorii procesu stacjonarnego f(x), f(t (x)), f(t 2 (x)),... to kolejne redukty rozwinięcia liczby niewymiernej x w ułamek łańcuchowy x = a 1 (x) + a 2 (x) + Często zapisujemy powyższy związek w postaci lub, w notacji Pringsheima, 1 1 a 3 (x) + 1 1 a 4 (x) + x = [0; a 1 (x), a 2 (x), a 3 (x),...], x = 0 + 1 a 1 (x) + 1 a 2 (x) + 1 a 3 (x) +.
8. Indywidualne twierdzenie ergodyczne Indywidualne twierdzenie ergodyczne Komentarze i uzupełnienia do tw. ergodycznego I dla procesu stacjonarnego X 0, X 1, X 2,... składa się ze zbiorów A F, które są równe P-p.w. zbiorowi postaci X 1 (B), gdzie B jest podzbiorem R niezmienniczym dla przesunięcia w lewo. Pokażemy później, że dla ciągu niezależnych zmiennych losowych o jednakowych rozkładach, E ( X 0 I ) = EX 0. Stąd wynika, że prawo wielkich liczb Kołmogorowa wynika z tw. ergodycznego. Przypomnijmy, że dla całkowalnej zmiennej losowej X : (ω, FP) (R 1, B 1 ) i σ- algebry G F, warunkowa wartość oczekiwana E ( X G ) zmiennej X względem G jest jedyną (z dokładnością do równości P-p.w.) zmienną losową Y, która spełnia następujące warunki: Y jest G-mierzalna. EY 1I G = EX1I G dla każdego G G. 31
32 8. Indywidualne twierdzenie ergodyczne Maksymalne twierdzenie ergodyczne Przekształcenia i procesy ergodyczne
Przekształcenia i procesy ergodyczne 33
34 8. Indywidualne twierdzenie ergodyczne
9. Kompletna losowość - proces punktowy Poissona Punktowy proces Poissona 35
36 9. Kompletna losowość - proces punktowy Poissona Proces Poissona 9.3 Przykład Rozważmy następujące obiekty: G = [0, T ] R +. U 1, U 2, U 3,... - zmienne niezależne o rozkładzie jednostajnym na [0, T ]. ν - niezależną od {U j } zmienną losową o rozkładzie Poissona Po(λ T ), gdzie λ > 0. Wtedy wzór R + A N(A) = ν k=1 1I A (U k ) zadaje punktowy proces Poissona na [0, T ]. Określamy N t := N([0, t]), t [0, T ]. Proces stochastyczny {N t } t [0,T ] ma następujące własności: Dla dowolnych 0 s < t T N t N s Po(λ(t s)). Dla dowolnych 0 t 1 < t 2 t 3 < t 4... t 2n 1 < t 2n T zmienne losowe N t2 N t1, N t4 N t3,..., N t2n N t2n 1 są niezależne (czyli {N t } jest procesem o przyrostach niezależnych). Trajektorie [0, T ] t N t (ω) N są niemalejące i prawostronnie ciągłe.
Proces Poissona 37 9.5 Twierdzenie Proces Poissona istnieje. Idea dowodu: Dla każdego k N niech N k będzie procesem punktowym Poissona zbudowanym na zbiorze G k = [k 1, k) R +, i niech procesy N k, k = 1, 2,... będą niezależne. Kładziemy: N t = N k ( ) [0, t]. k=1 Wymagane własności dostajemy wprost z definicji. Stwierdzamy również, że: 9.6 Twierdzenie Prawie wszystkie trajektorie procesu Poissona startują z wartości 0, rosną skokami i ich skoki N t = N t N t są równe zero lub jeden.
38 9. Kompletna losowość - proces punktowy Poissona Momenty skoku procesu Poissona 9.9 Uwaga Można pokazać, że rozkłady skończenie wymiarowe ciągu T 1, T 2, T 3,... są identyczne z rozkładami skończenie wymiarowymi ciągu W 1, W 1 +W 2, W 1 +W 2 +W 3,..., gdzie W 1, W 2, W 3,... są niezależne i mają rozkład wykładniczy Ex(λ). Wynika stąd w szczególności, że w procesie Poissona czasy oczekiwania T 1, T 2 T 1, T 3 T 2,... są niezależne i mają rozkład wykładniczy Ex(λ). Alternatywna konstrukcja procesu Poissona 9.10 Twierdzenie Niech W 1, W 2,..., W r.... Ex(λ) będą niezależne. Definiujemy N t (ω) = 0 na zbiorze {ω ; 0 t < W 1 } oraz N t (ω) = k na zbiorze {ω ; W 1 (ω) +... + W k (ω) t < W 1 (ω) +... + W k (ω) + W k+1 (ω)}. Wtedy proces {N t } t R + jest procesem Poissona.
10. Systemy kolejkowe i inne modele oparte na procesie Poissona System obsługi masowej 10.1 Motywacja Dany jest system obsługi masowej (serwer sieciowy, kasa w supermarkecie itp.), do którego w chwilach T 1, T 1 + T 2, T 1 + T 2 + T 3,... napływają zadania do realizacji (programy do uruchomienia, klienci itp.). Realizacja k-tego zadania wymaga czasu S k. Uzasadnione jest założenie, że zmienne S 1, S 2, S 3 są niezależne o jednakowych rozkładach ν, i że proces {S k } jest niezależny od procesu na wejściu. Badane są m.in. Liczba zadań Q t znajdujących się w systemie (czyli długość kolejki) w chwili t (łącznie z realizowanym zadaniem). Średnia długość kolejki Q t = 1 t t 0 Q s ds, 1 t Q = lim Q s ds. t t 0 Średni czas oczekiwania na realizację zadania (średni czas spędzany przez klienta w kolejce). Średni czas między dwoma okresami, gdy nie ma kolejki. 39
40 10. Systemy kolejkowe i inne modele Systemy kolejkowe O systemie M/G/1 Niech L ν (θ) - transformata Laplace a rozkładu czasu obsługi ν. Dla każdego n 0, niech X n będzie liczbą klientów pozostających w systemie w chwili, gdy zakończono obsługę n-tego klienta. Mamy: X n+1 = X n + Y n+1 1I {Xn>0}, n 0, gdzie Y n jest liczbą klientów, którzy przybyli podczas obsługi n-tego klienta. 10.4 Lemat Zmienne losowe Y 1, Y 2, Y 3,..., są niezależne i mają jednakowe rozkłady o funkcji generującej momenty A(z) = Ez Y j = L ν ( λ(1 z) ), i wartości oczekiwanej EY j = λ 0 x dν(x)=: ρ. Co więcej, dla każdego n 0, zmienne Y n+1, Y n+2, Y n+3,... są niezależne od X 0, X 1,..., X n.
Model Cramera-Lundberga 41 Model Cramera- Lundberga Żądania odszkodowań pojawiają się w momentach T 1, T 1 + T 2, T 1 + T 2 + T 3,..., gdzie T j Ex(λ), j = 1, 2, 3,... i są niezależne. Wysokość odszkodowania w chwili T 1 + T 2 +... + T j wynosi X j, gdzie {X j } jest ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie, o skończonych E(X j ) = µ i D 2 (X j ) = σ 2, który jest niezależny od od {T j }. N(t) = sup{n 1 ; T 1 + T 2 +... + T n t} jest procesem Poissona opisującym liczbę żądań odszkodowań do momentu t, S(t) = { N(t) i=1 X i, jeśli N(t) > 0, 0, jeśli N(t) = 0, oznacza skumulowane kwoty wypłat towarzystwa ubezpieczeniowego do momentu t, U(t) = u + ct S(t) jest procesem ryzyka (niepewności), gdzie u jest kapitałem początkowym towarzystwa ubezpieczeniowego, a c tempem zbierania składek. Prawdopodobieństwo ruiny w czasie T (może być T = ) wyraża się wzorem Ψ(u, T ) = P ( ω ; t (0,T ] U(t, ω) < 0 ).
42 10. Systemy kolejkowe i inne modele Zadanie:Chcemy oszacować Ψ(u, T ) w zależności od c i parametrów modelu oraz zminimalizować Ψ(u, T ) przy rozsądnym c. 10.6 Lemat EU(t) = u + ct µλt = u + (c µλ)t. 10.7 Wniosek Rozsądnym wyborem ubezpieczyciela jest c µλ. Niech teraz T =. Wtedy Ψ(u, ) = P ( ω ; t>0 U(t, ω) < 0 ) = P ( ω ; n N u + c ( T 1 (ω) +... + T n (ω) ) n X i (ω) < 0 ) i=1 = P ( n ( ω ; n N u + cti (ω) X i (ω) ) < 0 ) i=1 Takie prawdopodobieństwa można przybliżać stosując metodę Monte Carlo.
11. L 2 procesy L 2 procesy i ich charakterystyki Przypomnijmy, że proces stochastyczny {X t } t T nazywamy gaussowskim, jeśli każda skończona liniowa kombinacja α 1 X t1 + α 2 X t2 +... + α m X tm ma rozkład normalny na R 1 (może to być rozkład zdegenerowany do punktu). Z własności rozkładów normalnych wynika, że: Każdy proces gaussowski jest L 2 procesem. Funkcje m t i K(s, t) procesu gaussowskiego {X t } w pełni określają jego rozkłady skończenie wymiarowe. Funkcja kowariancji L 2 procesu 11.2 Twierdzenie Funkcja kowariancji L 2 procesu jest nieujemnie określona na T T, tzn. dla każdego wyboru chwil t 1, t 2,..., t m T i dowolnych liczb zespolonych z 1, z 2,..., z m 43
44 11. L 2 procesy C 1 1 j,k m K(t j, t k )z j z k 0. 11.3 Przykład Funkcja R + R + K(s, t) = σ 2 (s t) R jest nieujemnie określona, bo K(s, t) = e s, e t H w pewnej przestrzeni Hilberta H. Przykłady procesów gaussowskich 11.5 Definicja Procesem Wienera (niesłusznie czasami nazywanym ruchem Browna) nazywamy scentrowany (EW t = 0) proces gaussowski o funkcji kowariancji EW s W t = σ 2 (s t). 11.6 Wniosek Proces Wienera ma niezależne przyrosty, tzn. dla dowolnych liczb 0 < t 1 < t 2 < t 3 <... < t m niezależne są zmienne losowe W t1, W t2 W t1, W t3 W t2,..., W tm W tm 1. 11.7 Uwaga Funkcja kowariancji procesu Wienera jest identyczna z funkcją kowariancji scentrowanego procesu Poissona X t = N t t, t R +.
L 2 procesy stacjonarne w szerokim sensie 45 11.8 Definicja Ułamkowym ruchem Browna z parametrem Hursta H (0, 1) nazywamy scentrowany proces gaussowski {Bt H } t R + o funkcji kowariancji ( ) EB H s B H t = 1 2{ t 2H + s 2H t s 2H}. 11.9 Uwaga Nie jest łatwo sprawdzić, że ( ) zadaje funkcję nieujemnie określoną. 11.10 Wniosek Ułamkowy ruch Browna z parametrem H = 1/2 jest procesem Wienera. Dla H > 1/2 przyrosty {B H t } są dodatnio skorelowane. Dla H < 1/2 przyrosty {B H t } są ujemnie skorelowane. L 2 procesy stacjonarne w szerokim sensie
46 11. L 2 procesy Miara i gęstość spektralna L 2 procesu
12. Wstęp do teorii martyngałów Pojęcie filtracji 47
48 12. Wstęp do teorii martyngałów Momenty zatrzymania
Gra sprawiedliwa 49 Gra sprawiedliwa Martyngał jako gra sprawiedliwa
50 12. Wstęp do teorii martyngałów 12.8 Przykład Niech Z 0, Z 1,... będzie ciągiem całkowalnych i niezależnych zmiennych losowych. Kładziemy X j = Z 0 + Z 1 +... + Z j, F j = σ{x i ; i j} ( = σ{z i ; i j} ). 12.9 Przykład Niech X 1 (P) i niech {F j } będzie filtracją. Kładziemy X j = E(X F j ), j N. Martyngał, który można w taki sposób przedstawić, nazywamy regularnym. 12.10 Definicja Niech {X j } będzie procesem stochastycznym, a τ momentem zatrzymania. Procesem zatrzymanym w momencie τ nazywamy proces {X τ j = X τ j}, czyli 12.11 Twierdzenie X τ j (ω) = X τ(ω) j (ω). Jeżeli {X j } jest adaptowany do filtracji {F j }, a τ jest momentem zatrzymania względem tej filtracji, to proces zatrzymany {X τ j } też jest adaptowany do {F j}. Jeżeli {X j } jest {F j }-martyngałem, a τ momentem zatrzymania względem {F j }, to proces zatrzymany {X τ j } też jest {F j}-martyngałem. 12.12 Wniosek Dla martyngału zatrzymanego w dowolnym momencie zatrzymania τ N mamy EX τ = EX τ N = EX τ N = EX τ 0 = EX τ 0 = EX 0. 12.13 Twierdzenie Proces stochastyczny {X j } jest grą sprawiedliwą dokładnie wtedy, gdy jest martyngałem.
13. Zbieżność martyngałów Nierówność maksymalna dla podmartyngałów 13.2 Przykład Jeśli {Y j } jest martyngałem, to {X j = Y j } jest podmartyngałem. 13.3 Przykład Jeśli {Y j } jest martyngałem, to {X j = Yj 2 } jest podmartyngałem. 51
52 13. Zbieżność martyngałów Nierówność Dooba
Wnioski z twierdzenia Dooba 53 Wnioski z twierdzenia Dooba 13.7 Wniosek (Kołmogorow, Chińczyn) Jeżeli Z 1, Z 2,... są niezależnymi zmiennymi losowymi, EZ j = 0, j = 1, 2,..., to warunek EXj 2 < + j=1 pociąga zbieżność P-p.w. i w L 2 (P) szeregu j=1 Z j. 13.8 Lemat (Kronecker) Jeśli szereg liczbowy n=1 a nn jest zbieżny, to a 1 + a 2 +... + a n n 0. 13.9 Twierdzenie (Kołmogorow) Jeżeli Z 1, Z 2,... są niezależnymi zmiennymi losowymi i jeśli D 2 (Z n ) n 2 < +, to P-p.w. n=1 (Z 1 EZ 1 ) + (Z 2 EZ 2 ) +... + (Z n EZ n ) n 0.
54 13. Zbieżność martyngałów
Definicja procesu Wienera 14. Proces Wienera Przypomnijmy, że zdefiniowaliśmy proces Wienera jako scentrowany proces gaussowski {W t } t R + o funkcji kowariancji Z tej definicji wynika, że: W 0 = 0 P-p.w. Przyrosty procesu Wienera są niezależne. Przyrosty są również stacjonarne: EW s W t = σ 2 (s t). W t1, W t2 W t1, W t3 W t2,..., W tm W tm 1, W t W s W t s N (0, σ 2 (t s)). Proces Wienera jest martyngałem względem filtracji naturalnej {F t } 14.1 Twierdzenie Niech {W t } t R + będzie procesem Wienera. Istnieje ciągła modyfikacja {W t} t R + procesu {W t }. Innymi słowy, Dla każdego t R + zmienna losowa W t jest modyfikacją W t, tzn. Prawie wszystkie trajektorie są ciągłe jako funkcje od t R +. P(W t = W t) = 1, Ω ω {W t(ω) ; t R + } (R 1 ) R+ 14.2 Uwagi W t jest mierzalna względem uzupełnionej σ-algebry F t. {W t} zadaje odwzorowanie z Ω do przestrzeni C ( R + : R 1). 55
56 14. Proces Wienera 14.3 Twierdzenie Jeżeli proces stochastyczny {X t }, ma przyrosty niezależne i stacjonarne oraz ciągłe trajektorie, to {X t } jest procesem Wienera dla pewnego σ 2 0. Powyższe twierdzenia pozwalają podać następującą, często bardziej przydatną, definicję procesu Wienera. Własności trajektorii procesu Wienera
Martyngałowe własności procesu Wienera 57 Martyngałowe własności procesu Wienera Proces Wienera jako granica błądzeń losowych Niech Z 1, Z 2,..., będzie ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie, EZ j = 0, EZ 2 j = σ 2. Określamy procesy sum częściowych ciągu {Z j } oraz procesy łamanych losowych S n (t) = 1 [nt] Z j, t R +, n j=1 S n (t) = S n ( k 1 n ) + n( t k 1 ) 1 n n Z k, t [k 1 n, k ), k = 1, 2,.... n 14.7 Twierdzenie Rozkłady skończenie wymiarowe procesów {S n (t)} i { S n (t)} zmierzają do rozkładów skończenie wymiarowych procesu {σ 2 W t }, gdzie {W t } jest standardowym procesem Wienera. W istocie można pokazać znacznie więcej.
58 14. Proces Wienera
Dodatek Wektory losowe 15.1 Definicja Wektorem losowym nazywamy odwzorowanie X = (X 1, X 2,..., X d ) T : (Ω, F, P ) R d, którego składowe X 1, X 2,..., X d są zmiennymi losowymi. 15.2 Definicja Rozkład P X wektora losowego X, to prawdopodobieństwo na R d zadane wzorem P X ((a 1, b 1 ] (a 2, b 2 ]... (a d, b d ]) = = P (a 1 < X 1 b 1, a 2 < X 2 b 2,..., a d < X d b d ). 15.3 Uwaga Podobnie jak w przypadku jednowymiarowym, znajomość rozkładu wektora losowego pozwala obliczać wartości oczekiwane funkcji od wektora losowego Ef( X). 15.4 Definicja 1. Wektor losowy X ma rozkład dyskretny, jeśli istnieją x 1, x 2,... R d i prawdopodobieństwa p 1, p 2,... 0, j=1 p j = 1, takie, że P ( X = x j ) = p j, j = 1, 2,.... 2. Wektor losowy X ma rozkład absolutnie ciągły o gęstości p(x), jeśli dla każdego A postaci (a 1, b 1 ] (a 2, b 2 ]... (a d, b d ] P ( X A) = A p(x) dx. (Wtedy p(x) 0 l d -prawie wszędzie i p(x) dx = 1). 59
60 Dodatek Rozkłady łączne a rozkłady brzegowe 15.5 Definicja Rozkład P X wektora losowego X = (X 1, X 2,..., X d ) T nazywamy rozkładem łącznym zmiennych losowych X 1, X 2,..., X d. Rozkłady (jednowymiarowe) P X1, P X2,..., P Xd składowych wektora losowego nazywamy rozkładami brzegowymi rozkładu P X. 15.6 Uwaga Na ogół rozkłady brzegowe nie determinują rozkładu łącznego, tzn. istnieje wiele rozkładów na R d o tych samych rozkładach brzegowych (przykład!). Niezależność 15.7 Definicja Zmienne losowe X 1, X 2,..., X d są niezależne (lub stochastycznie niezależne), jeśli Ef 1 (X 1 )f 2 (X 2 ) f d (X d ) = Ef 1 (X 1 ) Ef 2 (X 2 ) Ef d (X d ). dla dowolnego układu f 1, f 2,..., f d funkcji ograniczonych na R 1 i takich, że f 1 (X 1 ), f 2 (X 2 ),..., f d (X d ) są zmiennymi losowymi. Rodzina zmiennych losowych {X i } i I jest niezależna, jeśli każda jej skończona podrodzina składa się ze zmiennych losowych niezależnych. 15.8 Twierdzenie Niech X 1, X 2,..., X d będą zmiennymi losowymi określonymi na tej samej przestrzeni probabilistycznej (Ω, F, P ). Następujące warunki są równoważne: (i) Zmienne X 1, X 2,..., X d są niezależne. (ii) Dla dowolnych liczb x 1, x 2,..., x d ma miejsce równość P (X 1 x 1, X 2 x 2,..., X d x d ) = P (X 1 x 1 )P (X 2 x 2 ) P (X d x d ). Kryteria niezależności 15.9 Definicja Dystrybuantą wektora losowego X nazywamy funkcję R d x = (x 1, x 2,..., x d ) T F X (x) = P (X 1 x 1, X 2 x 2,..., X d x d ). 15.10 Uwaga Na mocy warunku (ii) twierdzenia 15.8, zmienne losowe są niezależne dokładnie wtedy, gdy dystrybuanta ich rozkładu łącznego jest iloczynem dystrybuant rozkładów brzegowych. W dalszym ciągu nie będziemy jednak zajmować się dystrybuantami rozkładów na R d, gdyż są one znacznie mniej wygodnym narzędziem niż dystrybuanty na R 1.
Niezależność zdarzeń 61 15.11 Fakt Jeżeli zmienne losowe X 1, X 2,..., X d są niezależne, to dla (prawie) dowolnych funkcji g 1, g 2,..., g d, zmienne losowe też są niezależne. g 1 (X 1 ), g 2 (X 2 ),..., g d (X d ) 15.12 Twierdzenie Niech rozkłady zmiennych X 1, X 2,..., X d będą dyskretne. Zmienne losowe X 1, X 2,..., X d są niezależne dokładnie wtedy, gdy dla dowolnych x 1, x 2,..., x d R 1 ma miejsce związek P (X 1 = x 1, X 2 = x 2,..., X d = x d ) = P (X 1 = x 1 )P (X 2 = x 2 ) P (X d = x d ). 15.13 Twierdzenie Niech rozkłady zmiennych X 1, X 2,..., X d będą absolutnie ciągłe z gęstościami p 1 (x), p 2 (x),..., p d (x). Zmienne losowe X 1, X 2,..., X d są niezależne dokładnie wtedy, gdy rozkład łączny tych zmiennych jest absolutnie ciągły i jego gęstość ma postać p X (x 1, x 2,..., x d ) = p 1 (x 1 )p 2 (x 2 ) p d (x d ). Niezależność zdarzeń 15.14 Definicja Rodzina zdarzeń {A i } i I jest niezależna, jeśli funkcje charakterystyczne {I Ai } i I tych zdarzeń są niezależne. 15.15 Twierdzenie Zdarzenia {A i } i I są niezależne dokładnie wtedy, gdy dla dowolnego skończonego podzbioru I 0 I ( ) P A i = Π i I0 P (A i ). i I 0 15.16 Definicja Zmienne losowe {X i } i I są niezależne parami, jeśli dla każdych i, j I, i j, zmienne X i i X j są niezależne. Podobnie, zdarzenia {A i } i I sa niezależne parami, jeśli każde dwa zdarzenia A i i A j, i j są niezależne. 15.17 Przykład Istnieją zdarzenia niezależne parami, ale zależne zespołowo (mówi o tym np. przykład Bernsteina). Całka iloczynu niezależnych zmiennych losowych 15.18 Twierdzenie (O mnożeniu wartości oczekiwanych) Jeżeli zmienne losowe X i Y są niezależne i całkowalne, to iloczyn XY jest całkowalną zmienną losową i EXY = EX EY.
62 Dodatek 15.19 Uwaga Bez założenia o niezależności warunek dostateczny dla całkowalności iloczynu XY odwołuje się do tzw. nierówności Höldera. 15.20 Wniosek Niech X 1, X 2,..., X d będą niezależne. Jeżeli funkcje f i sa takie, że E f i (X i ) < +, i = 1, 2,..., d, to Ef 1 (X 1 )f 2 (X 2 ) f d (X d ) = Ef 1 (X 1 ) Ef 2 (X 2 ) Ef d (X d ). Wielowymiarowe rozkłady normalne 15.21 Definicja Niech X 1, X 2,..., X d będą zmiennymi losowymi określonymi na wspólnej przestrzeni probabilistycznej (Ω, F, P ). Mówimy, że rozkład łączny zmiennych X 1, X 2,..., X d jest normalny, albo że wektor X = (X 1, X 2,..., X d ) T ma d-wymiarowy rozkład normalny, jeśli dowolna kombinacja liniowa α 1 X 1 + α 2 X 2 + + α d X d zmiennych X 1, X 2,..., X d ma jednowymiarowy rozkład normalny, tzn. gdzie α = (α 1, α 2,..., α d ) T. α 1 X 1 + α 2 X 2 + + α d X d N (m α, σ 2 α ), 15.22 Uwaga Dopuszczamy przypadek σ 2 α = 0. Z definicji N (m, 0) = δ m. 15.23 Definicja Rodzinę zmiennych losowych {X i } i I nazywamy gaussowską, jeśli dla każdego skończonego podzbioru {i 1, i 2,..., i m } I zmienne X i1, X i2,..., X id mają łączny rozkład normalny. 15.24 Uwaga Biorąc α = (0,..., 0, 1, 0,..., 0) T, otrzymujemy, że składowe X k mają rozkład N (m k, σk 2 ). W ogólności, m α = E(α 1 X 1 + α 2 X 2 + + α d X d ) = E α, X = α, E X. Podobnie σ 2 α = Var ( α, X ) = α, Cov ( X) α. 15.25 Twierdzenie Jeżeli m R d i Σ jest odwzorowaniem liniowym na R d, symetrycznym i nieujemnie określonym, to istnieje wektor losowy X o rozkładzie normalnym, który spełnia związki E X = m, Cov ( X) = Σ. 15.26 Uwaga Niech µ będzie rozkładem na R d. Funkcja charakterystyczna µ określona jest wzorem R d y φ µ (y) := e i y,x dµ(x). R d Funkcje charakterystyczne na R d mają własności podobne jak w przypadku jednowymiarowym. W szczególności, identyfikują rozkłady, tj. φ µ = φ ν pociąga µ = ν
Przestrzenie funkcji całkowalnych 63 15.27 Twierdzenie Rozkład wektora losowego X jest normalny wtedy i tylko wtedy, gdy istnieje m R d i odwzorowanie liniowe Σ : R d R d, symetryczne i nieujemnie określone, takie że Ee i y, X = e i y,m (1/2) y,σ y. W takim przypadku, E X = m, Cov ( X) = Σ. 15.28 Uwaga Na mocy powyższego twierdzenia wielowymiarowy rozkład normalny wyznaczony jest przez wartość oczekiwaną i operator kowariancji. Dlatego uprawnione jest oznaczenie X N (m, Σ). 15.29 Twierdzenie Wielowymiarowy rozkład normalny N (m, Σ) jest absolutnie ciągły dokładnie wtedy, gdy det Σ 0 (tj. odwzorowanie Σ jest nieosobliwe). W takim przypadku jego gęstość wyraża się wzorem p m,σ (x) = ( 1 ( 1 exp 1 ) 2π) d det Σ 2 x m, Σ 1 (x m. 15.30 Twierdzenie Niech zmienne losowe X 1, X 2,..., X d maja łączny rozkład normalny. Wówczas X 1, X 2,..., X d są niezależne wtedy i tylko wtedy, gdy są nieskorelowane (czyli macierz Σ jest diagonalna). Przestrzenie funkcji całkowalnych 15.31 Definicja Niech (Ω, F, µ) będzie przestrzenią z miarą. Określamy przestrzeń funkcji całkowalnych. L 1 (Ω, F, µ) = L 1 (µ) = {f : (Ω, F) (R 1, B 1 ) ; f dµ < + }. Niech f g oznacza, że f = g µ-prawie wszędzie. Relacja jest relacją równoważności w L 1 (µ). Określamy przestrzeń L 1 (µ) jako przestrzeń ilorazową L 1 (µ)/. 15.32 Lemat Niech f 1 = f dµ. Nieujemna funkcja 1 jest półnormą na przestrzeni L 1 (µ), tzn. spełnia następujące dwa warunki. 1. f + g 1 f 1 + g 1, f, g L 1 (µ). 2. a f 1 = a f 1, f L 1 (µ), a R 1. Funkcja 1 nie jest na ogół normą, gdyż f 1 = 0 pociąga jedynie f = 0 µ-prawie wszędzie. Stąd jednak wynika, że określając funkcję 1 : L 1 (µ) R + wzorem [f] 1 = f 1, definiujemy normę na L 1 (µ). 15.33 Twierdzenie Przestrzeń (L 1 (µ), 1 ) jest zupełna (tzn. każdy ciąg Cauchy ego w normie 1 jest zbieżny). Przestrzeń ta jest więc tzw. przestrzenią Banacha.
64 Dodatek 15.34 Definicja Niech (Ω, F, µ) będzie przestrzenią z miarą. Określamy przestrzeń funkcji całkowalnych z kwadratem. L 2 (Ω, F, µ) = L 2 (µ) = {f : (Ω, F) (R 1, B 1 ) ; f 2 dµ < + }. Podobnie jak w przypadku przestrzeni L 1, określamy L 2 (µ) jako przestrzeń ilorazową L 2 (µ)/, gdzie f g dokładnie wtedy, gdy f = g µ-prawie wszędzie. 15.35 Lemat Niech f, g = f g dµ i f 2 = f 2 dµ. Funkcja f, g jest formą dwuliniową i symetryczną, a 2 jest półnormą na przestrzeni L 2 (µ). Tak więc określając [f], [g] = f, g otrzymujemy iloczyn skalarny na przestrzeni L 2 (µ). 15.36 Uwaga Dla funkcji całkowalnych z kwadratem o wartościach zespolonych iloczyn skalarny w L 2 (µ) zadajemy wzorem f, g = fg dµ. 15.37 Twierdzenie Przestrzeń (L 2 (µ), 2 ) jest zupełna (jest więc przestrzenią Hilberta). 15.38 Przykład Jeżeli µ jest miarą Lebesgue a na R d, to odpowiednie przestrzenie funkcyjne oznaczamy symbolami L 1 (R d ) i L 2 (R d ). Podobnie, jeśli rozważamy miarę Lebesgue a na podzbiorze A R d, piszemy L 2 (A), np. L 2 (0, 1), L 2 (0, 2π) itp. 15.39 Uwaga L 1 (R 1 ) L 2 (R 1 ) i L 2 (R 1 ) L 1 (R 1 ). 15.40 Przykład Niech Λ będzie miarą liczącą na N. Przestrzeń L 1 (Λ) = {f : N R 1 ; j=1 f(j) < + } oznaczamy przez l 1. Podobnie, przestrzeń L 2 (Λ) = {f : N R 1 ; j=1 f(j) 2 < + } oznaczamy przez l 2. 15.41 Fakt l 1 l 2, ale l 2 l 1. 15.42 Fakt Jeśli µ jest miarą skończoną, to L 2 (µ) L 1 (µ). 15.43 Definicja Przestrzeń L p (µ), 0 < p < +, dla przestrzeni z miarą (Ω, F, µ) określamy jako L p (µ) = {f : (Ω, F) (R 1, B 1 ) ; f p dµ < + }. Podobnie jak w przypadku przestrzeni L 1 i L 2, określamy L p (µ) jako przestrzeń ilorazową L p (µ)/, gdzie f g wtedy, gdy f = g µ-prawie wszędzie. 15.44 Uwagi
Przestrzenie funkcji całkowalnych 65 1. Dla 0 < p < 1, przestrzenie L p (µ) są zupełnymi przestrzeniami metrycznymi z metryką d p (f, g) = f g p dµ. 2. Dla 1 p < +, przestrzenie L p (µ) są zupełnymi przestrzeniami unormowanymi (przestrzeniami Banacha) z normą określoną wzorem ( f p = f p dµ) 1/p. Fakt, że tak określona funkcja spełnia nierówność trójkąta nie jest oczywisty. 15.45 Fakt (Nierówność Minkowskiego) Niech p [1, ). Jeżeli f p, g p < +, to f + g p f p + g p. Nierówność Minkowskiego wynika z kolei z 15.46 Fakt (Nierówność Höldera) Niech p, q > 1 będą takie, że 1 p + 1 q = 1. Dla dowolnych funkcji numerycznych na (Ω, F, µ) ( f g dµ ) 1/p ( f p dµ g q dµ) 1/q. 15.47 Wniosek Jeżeli f L p (µ) i g L q (µ), gdzie 1/p + 1/q = 1, to f g L 1 (µ). 15.48 Uwaga Można pokazać, że nierówność Höldera wynika z nierówności Jensena. 15.49 Fakt (Nierówność Jensena) Niech φ : R 1 R 1 będzie funkcją wypukłą. Niech µ będzie miarą probabilistyczną na (R 1, B 1 ) taką, że x dµ(x) < +. Wówczas φ( x dµ(x)) φ(x) dµ(x). 15.50 Wniosek Jeżeli µ jest miarą probabilistyczną na R 1 i 1 p r < +, to x p dµ(x) x r dµ(x).
66 Dodatek Rodzaje zbieżności funkcji mierzalnych i relacje między nimi Ciągi funkcji mierzalnych rozważane w niniejszym paragrafie są określone na wspólnej przestrzeni z miarą (Ω, F, µ). 15.51 Definicja Mówimy, że f n f 0 µ-prawie wszędzie, jeśli istnieje zbiór Ω 0 F taki, że µ(ω c 0 ) = 0 i dla każdego ω Ω 0, f n (ω) f 0 (ω). 15.52 Definicja Ciąg f n jest zbieżny do f 0 według miary, jeśli dla każdego ε > 0 µ{ω ; f n (ω) f 0 (ω) > ε} 0, gdy n +. Zapisujemy: f n µ f 0. 15.53 Definicja Zbieżność w L p, 0 < p < +, to zbieżność w przestrzeni L p (µ). Tak więc f n L p f 0 wtedy i tylko wtedy, gdy f n f 0 p dµ 0, gdy n +. 15.54 Fakt Jeżeli µ jest miarą skończoną, to zbieżność w L r, r > 0 pociąga zbieżność w L p, 0 < p r. 15.55 Fakt Zbieżność w L p pociąga zbieżność według miary. 15.56 Uwaga Zbieżność według miary nie pociąga zbieżności w L 1 ani zbieżności prawie wszędzie. 15.57 Fakt Jeżeli miara µ jest skończona, to zbieżność µ-prawie wszędzie pociąga zbieżność według miary µ. Jeśli miara µ jest nieskończona, zbieżność prawie wszędzie nie pociąga w ogólności zbieżności według miary. 15.58 Twierdzenie (Riesza-Fischera) Ciąg zbieżny według miary zawiera podciąg zbieżny prawie wszędzie. 15.59 Wniosek Niech µ będzie miarą skończoną. Wówczas ciąg {f n } jest zbieżny według miary do f 0 wtedy i tylko wtedy, gdy w każdym podciągu {f nk } ciągu {f n } można znaleźć podciąg {f nkl } zbieżny do f 0 prawie wszędzie. Warunkowa wartość oczekiwana zmiennej losowej 15.60 Definicja Niech (Ω, F, P) będzie przestrzenią probabilistyczną i niech G F. Jeżeli E X 2 < +, to E ( X G ) jest rzutem zmiennej X na podprzestrzeń L 2 (Ω, G, P) zmiennych losowych G mierzalnych i całkowalnych z kwadratem.
Transformata Laplace a 67 15.61 Uwaga Z definicji wynika, że dla dowolnego Y L 2 (Ω, G, P) X E ( X G ) Y, tzn. X E ( X G ), Y = E ( X E ( X G )) Y = 0. lub równoważnie EXY = EE ( X G )) Y. Dla spełnienia powyższej równości wystarczy, aby była ona prawdziwa tylko dla Y postaci Y = 1I C, gdzie C G. 15.62 Definicja Warunkową wartość oczekiwaną zmiennej losowej Y L 1 (Ω, F, P) względem G F określamy jako jedyną (P -p.w.) G mierzalną zmienną losową Z taką, że dla dowolnego C G EX1I C = EZ1I C. 15.63 Wniosek Niech G H F. Wtedy E ( E ( X H ) G ) = E ( X G ). 15.64 Wniosek Jeżeli Y jest G mierzalna, Y K dla pewnej stałej K > 0 oraz X jest całkowalna, to wtedy E ( Y X G ) = Y E ( X G ). Transformata Laplace a 15.65 Definicja Jeżeli X 0, to transformatą Laplace a zmiennej losowej X (w istocie jej rozkładu) nazywamy funkcję R + θ L X (θ) = Ee θx = + 0 e θx dp X (x) R +. 15.66 Twierdzenie Jeżeli L X = L Y, to P X = P Y (tzn. transformata Laplace a identyfikuje rozkłady). 15.67 Twierdzenie Jeżeli X i Y są niezależnymi zmiennymi losowymi, to L X+Y (θ) = L X (θ) L Y (θ). 15.68 Fakt Niech zmienna losowa X ma rozkład gamma Γ(α, λ) o gęstości g α,λ (s) = λα Γ(α) sα 1 e λs 1I (0, ) (s). Wtedy transformata Laplace a X ma postać ( ) λ α L X (θ) =. θ + λ
68 Dodatek
Literatura Literatura podstawowa 1. J. Jakubowski i R. Sztencel Wstęp do teorii prawdopodobieństwa, Script, Warszawa 2004. 2. S. I. Resnick, Adventures in Stochastic Processes, Birkhäuser, 1994. Literatura uzupełniająca 1. A.A. Borowkow, Rachunek prawdopodobieństwa, PWN, Warszawa 1975. 2. O. Häggström, Finite Markov chains and algorithmic applications, Cambridge University Press, Cambridge 2008. 69