Procesy stochastyczne
|
|
- Kajetan Pawlak
- 8 lat temu
- Przeglądów:
Transkrypt
1 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu w dziedzinach matematyczno-przyrodniczych realizowany w ramach Poddziałania Programu Operacyjnego Kapitał Ludzki Procesy stochastyczne Treść wykładów Adam Jakubowski UMK Toruń 2012 Projekt współfinansowany przez Unię Europejską w ramach Europejskiego Funduszu Społecznego
2
3 Spis treści Wstęp 1 1 Istnienie procesów stochastycznych 3 Nieskończone ciągi zmiennych losowych Procesy stochastyczne Rozkłady skończenie wymiarowe Zgodność rozkładów skończenie wymiarowych Twierdzenie Kołmogorowa Istnienie ciągów niezależnych zmiennych losowych Istnienie procesów gaussowskich Jednorodne łańcuchy Markowa 7 Definicja łańcucha Markowa Istnienie łańcuchów Markowa Podstawowe wnioski z definicji Własność Markowa Rozkłady stacjonarne dla łańcuchów Markowa 11 Rozkłady brzegowe łańcuchów Markowa Rozkłady stacjonarne Istnienie rozkładów stacjonarnych Równanie równowagi szczegółowej Twierdzenie ergodyczne dla łańcuchów Markowa 15 Kiedy rozkład stacjonarny jest jedyny? Klasyfikacja stanów Nieprzywiedlny łańcuch Markowa Twierdzenie ergodyczne Algorytm Metropolisa Twierdzenia o powracaniu dla łańcuchów Markowa 19 Powracalność a prawo wielkich liczb Powroty łańcucha Markowa do ustalonego stanu I Stany powracające i
4 ii Spis treści Symetryczne błądzenie po płaszczyźnie i w przestrzeni Twierdzenia graniczne dla łańcuchów Markowa 23 Prawo wielkich liczb dla łańcuchów Markowa Schemat dowodu prawa wielkich liczb dla łańcuchów Markowa. 23 Centralne twierdzenie graniczne dla łańcuchów Markowa Procesy stacjonarne 27 Definicja procesu stacjonarnego Przekształcenie zachowujące miarę Zbiory i funkcje T -niezmiennicze Przykłady przekształceń zachowujących miarę Ułamki łańcuchowe Indywidualne twierdzenie ergodyczne 31 Indywidualne twierdzenie ergodyczne Maksymalne twierdzenie ergodyczne Przekształcenia i procesy ergodyczne Kompletna losowość - proces punktowy Poissona 35 Punktowy proces Poissona Proces Poissona Momenty skoku procesu Poissona Alternatywna konstrukcja procesu Poissona Systemy kolejkowe i inne modele oparte na procesie Poissona 39 System obsługi masowej Systemy kolejkowe O systemie M/G/ Model Cramera- Lundberga L 2 procesy 43 L 2 procesy i ich charakterystyki Funkcja kowariancji L 2 procesu Przykłady procesów gaussowskich L 2 procesy stacjonarne w szerokim sensie Miara i gęstość spektralna L 2 procesu Wstęp do teorii martyngałów 47 Pojęcie filtracji Momenty zatrzymania Gra sprawiedliwa Martyngał jako gra sprawiedliwa
5 Spis treści iii 13 Zbieżność martyngałów 51 Nierówność maksymalna dla podmartyngałów Nierówność Dooba Wnioski z twierdzenia Dooba Proces Wienera 55 Definicja procesu Wienera Własności trajektorii procesu Wienera Martyngałowe własności procesu Wienera Proces Wienera jako granica błądzeń losowych Dodatek 59 Wektory losowe Rozkłady łączne a rozkłady brzegowe Niezależność Kryteria niezależności Niezależność zdarzeń Całka iloczynu niezależnych zmiennych losowych Wielowymiarowe rozkłady normalne Przestrzenie funkcji całkowalnych Rodzaje zbieżności funkcji mierzalnych i relacje między nimi Warunkowa wartość oczekiwana zmiennej losowej Transformata Laplace a Literatura 69
6 iv Spis treści
7 Wstęp Przedmiot Procesy stochastyczne jest przedmiotem do wyboru dla wszystkich specjalności studiów II stopnia na kierunku matematyka. Jednak szczególna rola przypada mu na specjalności Zastosowania matematyki w ekonomii i finansach, ze względu na powszechność stosowania metod stochastycznych w tych dziedzinach nauki i gospodarki. Celem wykładu jest zapoznanie słuchaczy z podstawowymi klasami procesów stochastycznych. Podczas omawiana poszczególnych klas dyskutowane są zagadnienia istnienia/konstrukcji procesów oraz podstawowe własności i najważniejsze twierdzenia związane z daną klasą.. Po zaliczeniu wykładu i ćwiczeń słuchacz błędzie posiadał aparat matematyczny umożliwiający modelowanie zjawisk losowych za pomocą procesów stochastycznych. Przedmiot Procesy stochastyczne prowadzony jest w semestrze letnim, w wymiarze 30 godzin wykładu i 30 godzin ćwiczeń rachunkowych. Zaliczenie przedmiotu polega na uzyskaniu zaliczenia ćwiczeń rachunkowych oraz zdaniu egzaminu ustnego z teorii. Ćwiczenia dydaktyczne prowadzone są w oparciu o materiały dydaktyczne Adam Jakubowski Procesy stochastyczne. Materiały do ćwiczeń, Toruń Niniejsze opracowanie zawiera treści przekazywane w trakcie wykładów. Najważniejsze definicje i twierdzenia przedstawiane są w postaci zrzutu ekranowego odpowiedniej transparencji. Podstawowy materiał uzupełniany jest komentarzami i przykładami. Zagadnienia omawiane na wykładach, wraz z ewentualnymi uzupełnieniami, są dostępne na: w kategorii Studia stacjonarne/procesy stochastyczne. Całość materiału podzielono na 14 jednostek, z grubsza odpowiadających dwugodzinnemu wykładowi. Literatura podstawowa przedmiotu zawiera książki: J. Jakubowski i R. Sztencel Wstęp do teorii prawdopodobieństwa, Script, Warszawa 2004, S. I. Resnick, Adventures in Stochastic Processes, Birkhäuser,
8 2 Wstęp Jako literatura uzupełniająca zalecane są książki: A.A. Borowkow, Rachunek prawdopodobieństwa, PWN, Warszawa O. Häggström, Finite Markov chains and algorithmic applications, Cambridge University Press, Cambridge Adam Jakubowski
9 1. Istnienie procesów stochastycznych Nieskończone ciągi zmiennych losowych 1.1 Przykład (Skończony schemat Bernoullego) Ω = {0, 1} N, F = 2 Ω, P(A) = #A #ω, X k ( (ω1, ω 2,..., ω N ) ) = ω k, k = 1, 2,..., N. Zmienne {X k ; k = 1, 2,..., N} tworzą skończony schemat Bernoullego z prawdopodobieństwem sukcesu p = 1/2. Czy istnieje ciąg nieskończony takich zmiennych? 1.2 Przykład (Funkcje Rademachera) Ω = [0, 1], F = B 1, P = l [0,1], f n (x) = sign sin ( 2πx ), n = 1, 2,.... Rozwijając wzór otrzymujemy f n (x) = Rysunek przekonuje o niezależności! { ( 1) i 1 jeśli i 1 2 n x < i 2 n, i = 1, 2,..., 2 n, 1 jeśli x = 1. Procesy stochastyczne 3
10 4 1. Istnienie procesów stochastycznych Rozkłady skończenie wymiarowe Zgodność rozkładów skończenie wymiarowych Π S 2 S 1 Niech {X t ; t T} będzie procesem stochastycznym i niech S 1 S 2 T. Jeżeli przez oznaczymy naturalny rzut po współrzędnych R S 2 {t s } s S2 {t s } s S1 R S 1, to mamy również P XS1 = P XS2 ( Π S 2 S 1 ) 1. (1.1) 1.5 Definicja Własność (1.1) rozkładów skończenie wymiarowych procesu stochastycznego nazywamy zgodnością. 1.6 Wniosek Zgodność w sensie (1.1) jest warunkiem koniecznym dla istnienia procesu stochastycznego o zadanych własnościach rozkładów skończenie wymiarowych.
11 Twierdzenie Kołmogorowa o istnieniu procesu stochastycznego 5 Twierdzenie Kołmogorowa Istnienie ciągów niezależnych zmiennych losowych
12 6 1. Istnienie procesów stochastycznych Istnienie procesów gaussowskich Niech X = ( ) T X 1, X 2,..., X n będzie wektorem losowym. EX jest wektorem wartości oczekiwanych współrzędnych X: EX = ( ) T EX 1, EX 2,..., EX n. Cov ( X ) jest symetryczną i nieujemnie określoną macierzą o współczynnikach 1.10 Twierdzenie Cov ( X i, X j ) = E ( Xi EX i )( Xj EX j ), i, j = 1, 2,..., n. E X istnieje wtedy, i tylko wtedy, gdy E X < +. Cov ( X ) istnieje wtedy, i tylko wtedy, gdy E X 2 < +.
13 2. Jednorodne łańcuchy Markowa Definicja łańcucha Markowa 7
14 8 2. Jednorodne łańcuchy Markowa Istnienie łańcuchów Markowa 2.2 Twierdzenie Jeżeli P jest macierzą stochastyczną na E, a π jest rozkładem prawdopodobieństwa na E, to istnieje jednorodny łańcuch Markowa X 0, X 1, X 2,... o rozkładzie początkowym π i macierzy prawdopodobieństw przejścia P. Dowód: Utożsamiamy elementy przestrzeni E z podzbiorem N i sprawdzamy zgodność rozkładów skończenie wymiarowych indeksowanych podzbiorami N i zadanych wzorami µ 0,1,2,...,m ( (i0, i 1, i 2,..., i m 1, i m ) ) = π i0 p i0,i 1 p i1,i 2... p im 1,i m, gdzie µ 0,1,2,...,m jest rozkładem na N m = {(i 0, i 1, i 2,..., i m 1, i m ) ; i 0, i 1,... i m N}.
15 Podstawowe wnioski z definicji 9 Podstawowe wnioski z definicji Własność Markowa
16 10 2. Jednorodne łańcuchy Markowa Jak formalnie wyrazić własność Markowa? Definiujemy P ( B X 0, X 1,..., X n ) jako P ( B ) X 0 = i o, X 1 = i 1,..., X n = i n 1I {X0 =i 0,X 1 =i 1,...,X n=i n}, (i 0,i 1,...,i n) E n+1 i podobnie P ( B X n ) = i E n+1 P ( B X n = i ) 1I {Xn=i}. 2.3 Twierdzenie Dla dowolnych n, m N oraz dowolnego zbioru A E m ma miejsce równość: P ( (X n+1, X n+2,..., X n+m ) A X 0, X 1,..., X n ) = = P ( (X n+1, X n+2,..., X n+m ) A X n ).
17 3. Rozkłady stacjonarne dla łańcuchów Markowa Rozkłady brzegowe łańcuchów Markowa Przypomnijmy podstawowe elementy definicji łańcuchów Markowa. E - przeliczalny zbiór stanów. P = {p ij } i,j E - macierz prawdopodobieństw przejścia, tzn. p ij 0, i, j E oraz p ij = 1, i E. j E π = {π j } j E - rozkład początkowy. Jednorodny łańcuch Markowa - proces stochastyczny X 0, X 1, X 2,... o rozkładach skończenie wymiarowych danych wzorem P π( X 0 = i 0, X 1 = i 1, X 2 = i 2,..., X m 1 = i m 1, X m = i m ) = = π i0 p i0,i 1 p i1,i 2... p im 1,i m. 11
18 12 3. Rozkłady stacjonarne dla łańcuchów Markowa Rozkłady stacjonarne Istnienie rozkładów stacjonarnych 3.4 Uwaga Znaleźć rozkład stacjonarny dla P, to rozwiązać układ równań liniowych π i p ij = π j, j E, i E przy dodatkowym warunku π i = 1. i E Nie zawsze jest to możliwe. 3.5 Przykład Błądzenie symetryczne po kracie Z. Kładziemy: E = Z, 1 2 gdy j = i + 1, p ij = 1 2 gdy j = i 1, 0 gdy j i 1.
19 Równanie równowagi szczegółowej 13 Równanie równowagi szczegółowej
20 14 3. Rozkłady stacjonarne dla łańcuchów Markowa
21 4. Twierdzenie ergodyczne dla łańcuchów Markowa Kiedy rozkład stacjonarny jest jedyny? 4.1 Przykład Macierz jednostkowa I wymiaru #E jest macierzą stochastyczną. Dla tej macierzy każdy rozkład jest stacjonarny i każdy rozkład spełnia równanie równowagi szczegółowej. 4.2 Problem Kiedy istnieje dokładnie jeden rozkład stacjonarny? Odpowiedź: gdy wszystkie wiersze macierzy Q są identyczne, tzn. δ ij + p ij + p ij (2) p ij (n 1) π j, dla wszystkich i, j E. n W szczególności tak będzie, gdy dla wszystkich i, j E. Klasyfikacja stanów p ij (n) π j, 15
22 16 4. Twierdzenie ergodyczne dla łańcuchów Markowa Nieprzywiedlny łańcuch Markowa
23 Twierdzenie ergodyczne 17 Twierdzenie ergodyczne Najważniejsze kroki w dowodzie 4.11 Lemat Niech a 1, a 2,..., a m N będą takie, że NWD {a 1, a 2,..., a m } = 1. Wówczas istnieje liczba N 0 taka, że każdą liczbę n N 0 można przedstawić w postaci gdzie l 1, l 2,..., l m N. n = l 1 a + l 2 a l m a m, 4.12 Wniosek Jeśli łańcuch jest nieprzywiedlny i nieokresowy, to istnieje N 0 takie, że dla n N 0 wszystkie elementy macierzy P n są dodatnie. Algorytm Metropolisa 4.13 Problem Na E (zwykle bardzo licznym) mamy mamy rozkład π. Szukamy P o własnościach: (i) π jest rozkładem stacjonarnym dla P. (ii) P n szybko zmierzają do π (jak w tw. ergod.).
24 18 4. Twierdzenie ergodyczne dla łańcuchów Markowa 4.14 Uwaga Sposób osiągnięcia powyższych celów wymyślony został przez fizyków blisko 60 lat temu. W najprostszej sytuacji można go opisać w postaci algorytmu Metropolisa. Ten i inne podobne algorytmy stanowią podstawę dynamicznych metod Monte Carlo (ang. Markov Chain Monte Carlo ).
25 5. Twierdzenia o powracaniu dla łańcuchów Markowa Powracalność a prawo wielkich liczb 5.1 Przykład Rozważmy błądzenie losowe po liczbach całkowitych: p jeśli j = i + 1, p ij = 1 p =: q jeśli j = i 1, 0 jeśli j i 1. Załóżmy, że rozpoczynamy błądzenie z i = 0. Jakie wnioski można wyciągnąć na podstawie prawa wielkich liczb nt. liczby powrotów trajektorii do stanu i = 0? Powroty łańcucha Markowa do ustalonego stanu I 19
26 20 5. Twierdzenia o powracaniu dla łańcuchów Markowa Stany powracające
27 Symetryczne błądzenie po płaszczyźnie i w przestrzeni 21 Symetryczne błądzenie po płaszczyźnie i w przestrzeni
28 22 5. Twierdzenia o powracaniu dla łańcuchów Markowa
29 6. Twierdzenia graniczne dla łańcuchów Markowa Prawo wielkich liczb dla łańcuchów Markowa 6.1 Problem Łańcuchy Markowa są przykładami ciągów zależnych zmiennych losowych. W badaniu ich własności statystycznych nie można więc stosować zwykłych praw wielkich liczb i centralnego twierdzenia granicznego. Jak wyglądają ich odpowiedniki? 6.2 Umowa Przypomnienie: przez E µ f(x 0, X 1,...) rozumiemy wartość oczekiwaną przy rozkładzie początkowym µ. Schemat dowodu prawa wielkich liczb dla łańcuchów Markowa Krok 1. Ma miejsce zbieżność: E µ f(x n ) E π f(x 0 ). 23
30 24 6. Twierdzenia graniczne dla łańcuchów Markowa Stąd Krok 2. Oznaczmy E µ f(x 0 ) + E µ f(x 1 ) E µ f(x n 1 ) n E π f(x 0 ). S n ( µ, f) = f(x 0 ) E µ (f(x 0 )) + f(x 1 ) E µ (f(x 1 )) f(x n 1 ) E µ (f(x n 1 )). Wystarczy pokazać, że P µ( S n ( µ, f) n ) > ε 0, ε > 0. Krok 3. Pokażemy, że Var µ( ) S n ( µ, f) n 2 0. W tym celu wystarczy pokazać, że Var µ( ) S n ( µ, f) σ 2( π, f ), n gdzie szereg jest zbieżny. Krok 4. Szereg jest bezwzględnie zbieżny. σ 2( π, f ) = Var π( ) f(x 0 ) + 2 σ 2( π, f ) = Var π( ) f(x 0 ) + 2 Cov π( f(x 0 ), f(x k ) ) k=1 Cov π( f(x 0 ), f(x k ) ) k=1 Krok 5. Krok 6. Krok 6. Var µ( ) f(x n ) Var π( ) f(x 0 ). Cov µ( f(x n j ), f(x n ) ) Cov π( f(x 0 ), f(x j ) ). Var µ( ) S n+1 ( µ, f) Var µ( ) S n ( µ, f) = = Var π( ) n 1 f(x n ) + 2 Cov π( f(x k ), f(x n ) ) σ 2( π, f ). k=0
31 Centralne twierdzenie graniczne dla łańcuchów Markowa 25 Centralne twierdzenie graniczne dla łańcuchów Markowa
32 26 6. Twierdzenia graniczne dla łańcuchów Markowa
33 7. Procesy stacjonarne Definicja procesu stacjonarnego 27
34 28 7. Procesy stacjonarne Przekształcenie zachowujące miarę
35 Zbiory i funkcje T -niezmiennicze 29 Zbiory i funkcje T -niezmiennicze
36 30 7. Procesy stacjonarne Przykłady przekształceń zachowujących miarę 7.11 Przykład Obrót o kąt 2πα T α : S 1 S 1, T α (s) = s e 2πiα, zachowuje miarę Lebesgue a na S Przykład Przekształcenie piekarza T : [0, 1) [0, 1) [0, 1) [0, 1), { (2x, y/2) dla 0 x < 1 T (x, y) = 2 (2 2x, 1 y/2) dla 1 2 x < 1. T zachowuje miarę Lebesgue a na [0, 1) 2. Ułamki łańcuchowe 7.13 Przykład Część ułamkowa odwrotności i miara Gaussa Niech X = [0, 1]\Q (liczby niewymierne z odcinka [0, 1]). Określamy T : X X jako część ułamkową odwrotności: T (x) = 1 1 { 1 x =. x x} T zachowuje miarę Gaussa o gęstości p T (x) = (ln 2) 1 /(1 + x). Niech f : X N będzie określone wzorem 1 f(x) = = x 1 x T (x). Wtedy 1 x = f(x) + T (x) = 1 =... 1 f(x) + f(t (x)) + T (T (x)) Tak więc wartości trajektorii procesu stacjonarnego f(x), f(t (x)), f(t 2 (x)),... to kolejne redukty rozwinięcia liczby niewymiernej x w ułamek łańcuchowy x = a 1 (x) + a 2 (x) + Często zapisujemy powyższy związek w postaci lub, w notacji Pringsheima, 1 1 a 3 (x) a 4 (x) + x = [0; a 1 (x), a 2 (x), a 3 (x),...], x = a 1 (x) + 1 a 2 (x) + 1 a 3 (x) +.
37 8. Indywidualne twierdzenie ergodyczne Indywidualne twierdzenie ergodyczne Komentarze i uzupełnienia do tw. ergodycznego I dla procesu stacjonarnego X 0, X 1, X 2,... składa się ze zbiorów A F, które są równe P-p.w. zbiorowi postaci X 1 (B), gdzie B jest podzbiorem R niezmienniczym dla przesunięcia w lewo. Pokażemy później, że dla ciągu niezależnych zmiennych losowych o jednakowych rozkładach, E ( X 0 I ) = EX 0. Stąd wynika, że prawo wielkich liczb Kołmogorowa wynika z tw. ergodycznego. Przypomnijmy, że dla całkowalnej zmiennej losowej X : (ω, FP) (R 1, B 1 ) i σ- algebry G F, warunkowa wartość oczekiwana E ( X G ) zmiennej X względem G jest jedyną (z dokładnością do równości P-p.w.) zmienną losową Y, która spełnia następujące warunki: Y jest G-mierzalna. EY 1I G = EX1I G dla każdego G G. 31
38 32 8. Indywidualne twierdzenie ergodyczne Maksymalne twierdzenie ergodyczne Przekształcenia i procesy ergodyczne
39 Przekształcenia i procesy ergodyczne 33
40 34 8. Indywidualne twierdzenie ergodyczne
41 9. Kompletna losowość - proces punktowy Poissona Punktowy proces Poissona 35
42 36 9. Kompletna losowość - proces punktowy Poissona Proces Poissona 9.3 Przykład Rozważmy następujące obiekty: G = [0, T ] R +. U 1, U 2, U 3,... - zmienne niezależne o rozkładzie jednostajnym na [0, T ]. ν - niezależną od {U j } zmienną losową o rozkładzie Poissona Po(λ T ), gdzie λ > 0. Wtedy wzór R + A N(A) = ν k=1 1I A (U k ) zadaje punktowy proces Poissona na [0, T ]. Określamy N t := N([0, t]), t [0, T ]. Proces stochastyczny {N t } t [0,T ] ma następujące własności: Dla dowolnych 0 s < t T N t N s Po(λ(t s)). Dla dowolnych 0 t 1 < t 2 t 3 < t 4... t 2n 1 < t 2n T zmienne losowe N t2 N t1, N t4 N t3,..., N t2n N t2n 1 są niezależne (czyli {N t } jest procesem o przyrostach niezależnych). Trajektorie [0, T ] t N t (ω) N są niemalejące i prawostronnie ciągłe.
43 Proces Poissona Twierdzenie Proces Poissona istnieje. Idea dowodu: Dla każdego k N niech N k będzie procesem punktowym Poissona zbudowanym na zbiorze G k = [k 1, k) R +, i niech procesy N k, k = 1, 2,... będą niezależne. Kładziemy: N t = N k ( ) [0, t]. k=1 Wymagane własności dostajemy wprost z definicji. Stwierdzamy również, że: 9.6 Twierdzenie Prawie wszystkie trajektorie procesu Poissona startują z wartości 0, rosną skokami i ich skoki N t = N t N t są równe zero lub jeden.
44 38 9. Kompletna losowość - proces punktowy Poissona Momenty skoku procesu Poissona 9.9 Uwaga Można pokazać, że rozkłady skończenie wymiarowe ciągu T 1, T 2, T 3,... są identyczne z rozkładami skończenie wymiarowymi ciągu W 1, W 1 +W 2, W 1 +W 2 +W 3,..., gdzie W 1, W 2, W 3,... są niezależne i mają rozkład wykładniczy Ex(λ). Wynika stąd w szczególności, że w procesie Poissona czasy oczekiwania T 1, T 2 T 1, T 3 T 2,... są niezależne i mają rozkład wykładniczy Ex(λ). Alternatywna konstrukcja procesu Poissona 9.10 Twierdzenie Niech W 1, W 2,..., W r.... Ex(λ) będą niezależne. Definiujemy N t (ω) = 0 na zbiorze {ω ; 0 t < W 1 } oraz N t (ω) = k na zbiorze {ω ; W 1 (ω) W k (ω) t < W 1 (ω) W k (ω) + W k+1 (ω)}. Wtedy proces {N t } t R + jest procesem Poissona.
45 10. Systemy kolejkowe i inne modele oparte na procesie Poissona System obsługi masowej 10.1 Motywacja Dany jest system obsługi masowej (serwer sieciowy, kasa w supermarkecie itp.), do którego w chwilach T 1, T 1 + T 2, T 1 + T 2 + T 3,... napływają zadania do realizacji (programy do uruchomienia, klienci itp.). Realizacja k-tego zadania wymaga czasu S k. Uzasadnione jest założenie, że zmienne S 1, S 2, S 3 są niezależne o jednakowych rozkładach ν, i że proces {S k } jest niezależny od procesu na wejściu. Badane są m.in. Liczba zadań Q t znajdujących się w systemie (czyli długość kolejki) w chwili t (łącznie z realizowanym zadaniem). Średnia długość kolejki Q t = 1 t t 0 Q s ds, 1 t Q = lim Q s ds. t t 0 Średni czas oczekiwania na realizację zadania (średni czas spędzany przez klienta w kolejce). Średni czas między dwoma okresami, gdy nie ma kolejki. 39
46 Systemy kolejkowe i inne modele Systemy kolejkowe O systemie M/G/1 Niech L ν (θ) - transformata Laplace a rozkładu czasu obsługi ν. Dla każdego n 0, niech X n będzie liczbą klientów pozostających w systemie w chwili, gdy zakończono obsługę n-tego klienta. Mamy: X n+1 = X n + Y n+1 1I {Xn>0}, n 0, gdzie Y n jest liczbą klientów, którzy przybyli podczas obsługi n-tego klienta Lemat Zmienne losowe Y 1, Y 2, Y 3,..., są niezależne i mają jednakowe rozkłady o funkcji generującej momenty A(z) = Ez Y j = L ν ( λ(1 z) ), i wartości oczekiwanej EY j = λ 0 x dν(x)=: ρ. Co więcej, dla każdego n 0, zmienne Y n+1, Y n+2, Y n+3,... są niezależne od X 0, X 1,..., X n.
47 Model Cramera-Lundberga 41 Model Cramera- Lundberga Żądania odszkodowań pojawiają się w momentach T 1, T 1 + T 2, T 1 + T 2 + T 3,..., gdzie T j Ex(λ), j = 1, 2, 3,... i są niezależne. Wysokość odszkodowania w chwili T 1 + T T j wynosi X j, gdzie {X j } jest ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie, o skończonych E(X j ) = µ i D 2 (X j ) = σ 2, który jest niezależny od od {T j }. N(t) = sup{n 1 ; T 1 + T T n t} jest procesem Poissona opisującym liczbę żądań odszkodowań do momentu t, S(t) = { N(t) i=1 X i, jeśli N(t) > 0, 0, jeśli N(t) = 0, oznacza skumulowane kwoty wypłat towarzystwa ubezpieczeniowego do momentu t, U(t) = u + ct S(t) jest procesem ryzyka (niepewności), gdzie u jest kapitałem początkowym towarzystwa ubezpieczeniowego, a c tempem zbierania składek. Prawdopodobieństwo ruiny w czasie T (może być T = ) wyraża się wzorem Ψ(u, T ) = P ( ω ; t (0,T ] U(t, ω) < 0 ).
48 Systemy kolejkowe i inne modele Zadanie:Chcemy oszacować Ψ(u, T ) w zależności od c i parametrów modelu oraz zminimalizować Ψ(u, T ) przy rozsądnym c Lemat EU(t) = u + ct µλt = u + (c µλ)t Wniosek Rozsądnym wyborem ubezpieczyciela jest c µλ. Niech teraz T =. Wtedy Ψ(u, ) = P ( ω ; t>0 U(t, ω) < 0 ) = P ( ω ; n N u + c ( T 1 (ω) T n (ω) ) n X i (ω) < 0 ) i=1 = P ( n ( ω ; n N u + cti (ω) X i (ω) ) < 0 ) i=1 Takie prawdopodobieństwa można przybliżać stosując metodę Monte Carlo.
49 11. L 2 procesy L 2 procesy i ich charakterystyki Przypomnijmy, że proces stochastyczny {X t } t T nazywamy gaussowskim, jeśli każda skończona liniowa kombinacja α 1 X t1 + α 2 X t α m X tm ma rozkład normalny na R 1 (może to być rozkład zdegenerowany do punktu). Z własności rozkładów normalnych wynika, że: Każdy proces gaussowski jest L 2 procesem. Funkcje m t i K(s, t) procesu gaussowskiego {X t } w pełni określają jego rozkłady skończenie wymiarowe. Funkcja kowariancji L 2 procesu 11.2 Twierdzenie Funkcja kowariancji L 2 procesu jest nieujemnie określona na T T, tzn. dla każdego wyboru chwil t 1, t 2,..., t m T i dowolnych liczb zespolonych z 1, z 2,..., z m 43
50 L 2 procesy C 1 1 j,k m K(t j, t k )z j z k Przykład Funkcja R + R + K(s, t) = σ 2 (s t) R jest nieujemnie określona, bo K(s, t) = e s, e t H w pewnej przestrzeni Hilberta H. Przykłady procesów gaussowskich 11.5 Definicja Procesem Wienera (niesłusznie czasami nazywanym ruchem Browna) nazywamy scentrowany (EW t = 0) proces gaussowski o funkcji kowariancji EW s W t = σ 2 (s t) Wniosek Proces Wienera ma niezależne przyrosty, tzn. dla dowolnych liczb 0 < t 1 < t 2 < t 3 <... < t m niezależne są zmienne losowe W t1, W t2 W t1, W t3 W t2,..., W tm W tm Uwaga Funkcja kowariancji procesu Wienera jest identyczna z funkcją kowariancji scentrowanego procesu Poissona X t = N t t, t R +.
51 L 2 procesy stacjonarne w szerokim sensie Definicja Ułamkowym ruchem Browna z parametrem Hursta H (0, 1) nazywamy scentrowany proces gaussowski {Bt H } t R + o funkcji kowariancji ( ) EB H s B H t = 1 2{ t 2H + s 2H t s 2H} Uwaga Nie jest łatwo sprawdzić, że ( ) zadaje funkcję nieujemnie określoną Wniosek Ułamkowy ruch Browna z parametrem H = 1/2 jest procesem Wienera. Dla H > 1/2 przyrosty {B H t } są dodatnio skorelowane. Dla H < 1/2 przyrosty {B H t } są ujemnie skorelowane. L 2 procesy stacjonarne w szerokim sensie
52 L 2 procesy Miara i gęstość spektralna L 2 procesu
53 12. Wstęp do teorii martyngałów Pojęcie filtracji 47
54 Wstęp do teorii martyngałów Momenty zatrzymania
55 Gra sprawiedliwa 49 Gra sprawiedliwa Martyngał jako gra sprawiedliwa
56 Wstęp do teorii martyngałów 12.8 Przykład Niech Z 0, Z 1,... będzie ciągiem całkowalnych i niezależnych zmiennych losowych. Kładziemy X j = Z 0 + Z Z j, F j = σ{x i ; i j} ( = σ{z i ; i j} ) Przykład Niech X 1 (P) i niech {F j } będzie filtracją. Kładziemy X j = E(X F j ), j N. Martyngał, który można w taki sposób przedstawić, nazywamy regularnym Definicja Niech {X j } będzie procesem stochastycznym, a τ momentem zatrzymania. Procesem zatrzymanym w momencie τ nazywamy proces {X τ j = X τ j}, czyli Twierdzenie X τ j (ω) = X τ(ω) j (ω). Jeżeli {X j } jest adaptowany do filtracji {F j }, a τ jest momentem zatrzymania względem tej filtracji, to proces zatrzymany {X τ j } też jest adaptowany do {F j}. Jeżeli {X j } jest {F j }-martyngałem, a τ momentem zatrzymania względem {F j }, to proces zatrzymany {X τ j } też jest {F j}-martyngałem Wniosek Dla martyngału zatrzymanego w dowolnym momencie zatrzymania τ N mamy EX τ = EX τ N = EX τ N = EX τ 0 = EX τ 0 = EX Twierdzenie Proces stochastyczny {X j } jest grą sprawiedliwą dokładnie wtedy, gdy jest martyngałem.
57 13. Zbieżność martyngałów Nierówność maksymalna dla podmartyngałów 13.2 Przykład Jeśli {Y j } jest martyngałem, to {X j = Y j } jest podmartyngałem Przykład Jeśli {Y j } jest martyngałem, to {X j = Yj 2 } jest podmartyngałem. 51
58 Zbieżność martyngałów Nierówność Dooba
59 Wnioski z twierdzenia Dooba 53 Wnioski z twierdzenia Dooba 13.7 Wniosek (Kołmogorow, Chińczyn) Jeżeli Z 1, Z 2,... są niezależnymi zmiennymi losowymi, EZ j = 0, j = 1, 2,..., to warunek EXj 2 < + j=1 pociąga zbieżność P-p.w. i w L 2 (P) szeregu j=1 Z j Lemat (Kronecker) Jeśli szereg liczbowy n=1 a nn jest zbieżny, to a 1 + a a n n Twierdzenie (Kołmogorow) Jeżeli Z 1, Z 2,... są niezależnymi zmiennymi losowymi i jeśli D 2 (Z n ) n 2 < +, to P-p.w. n=1 (Z 1 EZ 1 ) + (Z 2 EZ 2 ) (Z n EZ n ) n 0.
60 Zbieżność martyngałów
61 Definicja procesu Wienera 14. Proces Wienera Przypomnijmy, że zdefiniowaliśmy proces Wienera jako scentrowany proces gaussowski {W t } t R + o funkcji kowariancji Z tej definicji wynika, że: W 0 = 0 P-p.w. Przyrosty procesu Wienera są niezależne. Przyrosty są również stacjonarne: EW s W t = σ 2 (s t). W t1, W t2 W t1, W t3 W t2,..., W tm W tm 1, W t W s W t s N (0, σ 2 (t s)). Proces Wienera jest martyngałem względem filtracji naturalnej {F t } 14.1 Twierdzenie Niech {W t } t R + będzie procesem Wienera. Istnieje ciągła modyfikacja {W t} t R + procesu {W t }. Innymi słowy, Dla każdego t R + zmienna losowa W t jest modyfikacją W t, tzn. Prawie wszystkie trajektorie są ciągłe jako funkcje od t R +. P(W t = W t) = 1, Ω ω {W t(ω) ; t R + } (R 1 ) R Uwagi W t jest mierzalna względem uzupełnionej σ-algebry F t. {W t} zadaje odwzorowanie z Ω do przestrzeni C ( R + : R 1). 55
62 Proces Wienera 14.3 Twierdzenie Jeżeli proces stochastyczny {X t }, ma przyrosty niezależne i stacjonarne oraz ciągłe trajektorie, to {X t } jest procesem Wienera dla pewnego σ 2 0. Powyższe twierdzenia pozwalają podać następującą, często bardziej przydatną, definicję procesu Wienera. Własności trajektorii procesu Wienera
63 Martyngałowe własności procesu Wienera 57 Martyngałowe własności procesu Wienera Proces Wienera jako granica błądzeń losowych Niech Z 1, Z 2,..., będzie ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie, EZ j = 0, EZ 2 j = σ 2. Określamy procesy sum częściowych ciągu {Z j } oraz procesy łamanych losowych S n (t) = 1 [nt] Z j, t R +, n j=1 S n (t) = S n ( k 1 n ) + n( t k 1 ) 1 n n Z k, t [k 1 n, k ), k = 1, 2,.... n 14.7 Twierdzenie Rozkłady skończenie wymiarowe procesów {S n (t)} i { S n (t)} zmierzają do rozkładów skończenie wymiarowych procesu {σ 2 W t }, gdzie {W t } jest standardowym procesem Wienera. W istocie można pokazać znacznie więcej.
64 Proces Wienera
65 Dodatek Wektory losowe 15.1 Definicja Wektorem losowym nazywamy odwzorowanie X = (X 1, X 2,..., X d ) T : (Ω, F, P ) R d, którego składowe X 1, X 2,..., X d są zmiennymi losowymi Definicja Rozkład P X wektora losowego X, to prawdopodobieństwo na R d zadane wzorem P X ((a 1, b 1 ] (a 2, b 2 ]... (a d, b d ]) = = P (a 1 < X 1 b 1, a 2 < X 2 b 2,..., a d < X d b d ) Uwaga Podobnie jak w przypadku jednowymiarowym, znajomość rozkładu wektora losowego pozwala obliczać wartości oczekiwane funkcji od wektora losowego Ef( X) Definicja 1. Wektor losowy X ma rozkład dyskretny, jeśli istnieją x 1, x 2,... R d i prawdopodobieństwa p 1, p 2,... 0, j=1 p j = 1, takie, że P ( X = x j ) = p j, j = 1, 2, Wektor losowy X ma rozkład absolutnie ciągły o gęstości p(x), jeśli dla każdego A postaci (a 1, b 1 ] (a 2, b 2 ]... (a d, b d ] P ( X A) = A p(x) dx. (Wtedy p(x) 0 l d -prawie wszędzie i p(x) dx = 1). 59
66 60 Dodatek Rozkłady łączne a rozkłady brzegowe 15.5 Definicja Rozkład P X wektora losowego X = (X 1, X 2,..., X d ) T nazywamy rozkładem łącznym zmiennych losowych X 1, X 2,..., X d. Rozkłady (jednowymiarowe) P X1, P X2,..., P Xd składowych wektora losowego nazywamy rozkładami brzegowymi rozkładu P X Uwaga Na ogół rozkłady brzegowe nie determinują rozkładu łącznego, tzn. istnieje wiele rozkładów na R d o tych samych rozkładach brzegowych (przykład!). Niezależność 15.7 Definicja Zmienne losowe X 1, X 2,..., X d są niezależne (lub stochastycznie niezależne), jeśli Ef 1 (X 1 )f 2 (X 2 ) f d (X d ) = Ef 1 (X 1 ) Ef 2 (X 2 ) Ef d (X d ). dla dowolnego układu f 1, f 2,..., f d funkcji ograniczonych na R 1 i takich, że f 1 (X 1 ), f 2 (X 2 ),..., f d (X d ) są zmiennymi losowymi. Rodzina zmiennych losowych {X i } i I jest niezależna, jeśli każda jej skończona podrodzina składa się ze zmiennych losowych niezależnych Twierdzenie Niech X 1, X 2,..., X d będą zmiennymi losowymi określonymi na tej samej przestrzeni probabilistycznej (Ω, F, P ). Następujące warunki są równoważne: (i) Zmienne X 1, X 2,..., X d są niezależne. (ii) Dla dowolnych liczb x 1, x 2,..., x d ma miejsce równość P (X 1 x 1, X 2 x 2,..., X d x d ) = P (X 1 x 1 )P (X 2 x 2 ) P (X d x d ). Kryteria niezależności 15.9 Definicja Dystrybuantą wektora losowego X nazywamy funkcję R d x = (x 1, x 2,..., x d ) T F X (x) = P (X 1 x 1, X 2 x 2,..., X d x d ) Uwaga Na mocy warunku (ii) twierdzenia 15.8, zmienne losowe są niezależne dokładnie wtedy, gdy dystrybuanta ich rozkładu łącznego jest iloczynem dystrybuant rozkładów brzegowych. W dalszym ciągu nie będziemy jednak zajmować się dystrybuantami rozkładów na R d, gdyż są one znacznie mniej wygodnym narzędziem niż dystrybuanty na R 1.
67 Niezależność zdarzeń Fakt Jeżeli zmienne losowe X 1, X 2,..., X d są niezależne, to dla (prawie) dowolnych funkcji g 1, g 2,..., g d, zmienne losowe też są niezależne. g 1 (X 1 ), g 2 (X 2 ),..., g d (X d ) Twierdzenie Niech rozkłady zmiennych X 1, X 2,..., X d będą dyskretne. Zmienne losowe X 1, X 2,..., X d są niezależne dokładnie wtedy, gdy dla dowolnych x 1, x 2,..., x d R 1 ma miejsce związek P (X 1 = x 1, X 2 = x 2,..., X d = x d ) = P (X 1 = x 1 )P (X 2 = x 2 ) P (X d = x d ) Twierdzenie Niech rozkłady zmiennych X 1, X 2,..., X d będą absolutnie ciągłe z gęstościami p 1 (x), p 2 (x),..., p d (x). Zmienne losowe X 1, X 2,..., X d są niezależne dokładnie wtedy, gdy rozkład łączny tych zmiennych jest absolutnie ciągły i jego gęstość ma postać p X (x 1, x 2,..., x d ) = p 1 (x 1 )p 2 (x 2 ) p d (x d ). Niezależność zdarzeń Definicja Rodzina zdarzeń {A i } i I jest niezależna, jeśli funkcje charakterystyczne {I Ai } i I tych zdarzeń są niezależne Twierdzenie Zdarzenia {A i } i I są niezależne dokładnie wtedy, gdy dla dowolnego skończonego podzbioru I 0 I ( ) P A i = Π i I0 P (A i ). i I Definicja Zmienne losowe {X i } i I są niezależne parami, jeśli dla każdych i, j I, i j, zmienne X i i X j są niezależne. Podobnie, zdarzenia {A i } i I sa niezależne parami, jeśli każde dwa zdarzenia A i i A j, i j są niezależne Przykład Istnieją zdarzenia niezależne parami, ale zależne zespołowo (mówi o tym np. przykład Bernsteina). Całka iloczynu niezależnych zmiennych losowych Twierdzenie (O mnożeniu wartości oczekiwanych) Jeżeli zmienne losowe X i Y są niezależne i całkowalne, to iloczyn XY jest całkowalną zmienną losową i EXY = EX EY.
68 62 Dodatek Uwaga Bez założenia o niezależności warunek dostateczny dla całkowalności iloczynu XY odwołuje się do tzw. nierówności Höldera Wniosek Niech X 1, X 2,..., X d będą niezależne. Jeżeli funkcje f i sa takie, że E f i (X i ) < +, i = 1, 2,..., d, to Ef 1 (X 1 )f 2 (X 2 ) f d (X d ) = Ef 1 (X 1 ) Ef 2 (X 2 ) Ef d (X d ). Wielowymiarowe rozkłady normalne Definicja Niech X 1, X 2,..., X d będą zmiennymi losowymi określonymi na wspólnej przestrzeni probabilistycznej (Ω, F, P ). Mówimy, że rozkład łączny zmiennych X 1, X 2,..., X d jest normalny, albo że wektor X = (X 1, X 2,..., X d ) T ma d-wymiarowy rozkład normalny, jeśli dowolna kombinacja liniowa α 1 X 1 + α 2 X α d X d zmiennych X 1, X 2,..., X d ma jednowymiarowy rozkład normalny, tzn. gdzie α = (α 1, α 2,..., α d ) T. α 1 X 1 + α 2 X α d X d N (m α, σ 2 α ), Uwaga Dopuszczamy przypadek σ 2 α = 0. Z definicji N (m, 0) = δ m Definicja Rodzinę zmiennych losowych {X i } i I nazywamy gaussowską, jeśli dla każdego skończonego podzbioru {i 1, i 2,..., i m } I zmienne X i1, X i2,..., X id mają łączny rozkład normalny Uwaga Biorąc α = (0,..., 0, 1, 0,..., 0) T, otrzymujemy, że składowe X k mają rozkład N (m k, σk 2 ). W ogólności, m α = E(α 1 X 1 + α 2 X α d X d ) = E α, X = α, E X. Podobnie σ 2 α = Var ( α, X ) = α, Cov ( X) α Twierdzenie Jeżeli m R d i Σ jest odwzorowaniem liniowym na R d, symetrycznym i nieujemnie określonym, to istnieje wektor losowy X o rozkładzie normalnym, który spełnia związki E X = m, Cov ( X) = Σ Uwaga Niech µ będzie rozkładem na R d. Funkcja charakterystyczna µ określona jest wzorem R d y φ µ (y) := e i y,x dµ(x). R d Funkcje charakterystyczne na R d mają własności podobne jak w przypadku jednowymiarowym. W szczególności, identyfikują rozkłady, tj. φ µ = φ ν pociąga µ = ν
69 Przestrzenie funkcji całkowalnych Twierdzenie Rozkład wektora losowego X jest normalny wtedy i tylko wtedy, gdy istnieje m R d i odwzorowanie liniowe Σ : R d R d, symetryczne i nieujemnie określone, takie że Ee i y, X = e i y,m (1/2) y,σ y. W takim przypadku, E X = m, Cov ( X) = Σ Uwaga Na mocy powyższego twierdzenia wielowymiarowy rozkład normalny wyznaczony jest przez wartość oczekiwaną i operator kowariancji. Dlatego uprawnione jest oznaczenie X N (m, Σ) Twierdzenie Wielowymiarowy rozkład normalny N (m, Σ) jest absolutnie ciągły dokładnie wtedy, gdy det Σ 0 (tj. odwzorowanie Σ jest nieosobliwe). W takim przypadku jego gęstość wyraża się wzorem p m,σ (x) = ( 1 ( 1 exp 1 ) 2π) d det Σ 2 x m, Σ 1 (x m Twierdzenie Niech zmienne losowe X 1, X 2,..., X d maja łączny rozkład normalny. Wówczas X 1, X 2,..., X d są niezależne wtedy i tylko wtedy, gdy są nieskorelowane (czyli macierz Σ jest diagonalna). Przestrzenie funkcji całkowalnych Definicja Niech (Ω, F, µ) będzie przestrzenią z miarą. Określamy przestrzeń funkcji całkowalnych. L 1 (Ω, F, µ) = L 1 (µ) = {f : (Ω, F) (R 1, B 1 ) ; f dµ < + }. Niech f g oznacza, że f = g µ-prawie wszędzie. Relacja jest relacją równoważności w L 1 (µ). Określamy przestrzeń L 1 (µ) jako przestrzeń ilorazową L 1 (µ)/ Lemat Niech f 1 = f dµ. Nieujemna funkcja 1 jest półnormą na przestrzeni L 1 (µ), tzn. spełnia następujące dwa warunki. 1. f + g 1 f 1 + g 1, f, g L 1 (µ). 2. a f 1 = a f 1, f L 1 (µ), a R 1. Funkcja 1 nie jest na ogół normą, gdyż f 1 = 0 pociąga jedynie f = 0 µ-prawie wszędzie. Stąd jednak wynika, że określając funkcję 1 : L 1 (µ) R + wzorem [f] 1 = f 1, definiujemy normę na L 1 (µ) Twierdzenie Przestrzeń (L 1 (µ), 1 ) jest zupełna (tzn. każdy ciąg Cauchy ego w normie 1 jest zbieżny). Przestrzeń ta jest więc tzw. przestrzenią Banacha.
70 64 Dodatek Definicja Niech (Ω, F, µ) będzie przestrzenią z miarą. Określamy przestrzeń funkcji całkowalnych z kwadratem. L 2 (Ω, F, µ) = L 2 (µ) = {f : (Ω, F) (R 1, B 1 ) ; f 2 dµ < + }. Podobnie jak w przypadku przestrzeni L 1, określamy L 2 (µ) jako przestrzeń ilorazową L 2 (µ)/, gdzie f g dokładnie wtedy, gdy f = g µ-prawie wszędzie Lemat Niech f, g = f g dµ i f 2 = f 2 dµ. Funkcja f, g jest formą dwuliniową i symetryczną, a 2 jest półnormą na przestrzeni L 2 (µ). Tak więc określając [f], [g] = f, g otrzymujemy iloczyn skalarny na przestrzeni L 2 (µ) Uwaga Dla funkcji całkowalnych z kwadratem o wartościach zespolonych iloczyn skalarny w L 2 (µ) zadajemy wzorem f, g = fg dµ Twierdzenie Przestrzeń (L 2 (µ), 2 ) jest zupełna (jest więc przestrzenią Hilberta) Przykład Jeżeli µ jest miarą Lebesgue a na R d, to odpowiednie przestrzenie funkcyjne oznaczamy symbolami L 1 (R d ) i L 2 (R d ). Podobnie, jeśli rozważamy miarę Lebesgue a na podzbiorze A R d, piszemy L 2 (A), np. L 2 (0, 1), L 2 (0, 2π) itp Uwaga L 1 (R 1 ) L 2 (R 1 ) i L 2 (R 1 ) L 1 (R 1 ) Przykład Niech Λ będzie miarą liczącą na N. Przestrzeń L 1 (Λ) = {f : N R 1 ; j=1 f(j) < + } oznaczamy przez l 1. Podobnie, przestrzeń L 2 (Λ) = {f : N R 1 ; j=1 f(j) 2 < + } oznaczamy przez l Fakt l 1 l 2, ale l 2 l Fakt Jeśli µ jest miarą skończoną, to L 2 (µ) L 1 (µ) Definicja Przestrzeń L p (µ), 0 < p < +, dla przestrzeni z miarą (Ω, F, µ) określamy jako L p (µ) = {f : (Ω, F) (R 1, B 1 ) ; f p dµ < + }. Podobnie jak w przypadku przestrzeni L 1 i L 2, określamy L p (µ) jako przestrzeń ilorazową L p (µ)/, gdzie f g wtedy, gdy f = g µ-prawie wszędzie Uwagi
71 Przestrzenie funkcji całkowalnych Dla 0 < p < 1, przestrzenie L p (µ) są zupełnymi przestrzeniami metrycznymi z metryką d p (f, g) = f g p dµ. 2. Dla 1 p < +, przestrzenie L p (µ) są zupełnymi przestrzeniami unormowanymi (przestrzeniami Banacha) z normą określoną wzorem ( f p = f p dµ) 1/p. Fakt, że tak określona funkcja spełnia nierówność trójkąta nie jest oczywisty Fakt (Nierówność Minkowskiego) Niech p [1, ). Jeżeli f p, g p < +, to f + g p f p + g p. Nierówność Minkowskiego wynika z kolei z Fakt (Nierówność Höldera) Niech p, q > 1 będą takie, że 1 p + 1 q = 1. Dla dowolnych funkcji numerycznych na (Ω, F, µ) ( f g dµ ) 1/p ( f p dµ g q dµ) 1/q Wniosek Jeżeli f L p (µ) i g L q (µ), gdzie 1/p + 1/q = 1, to f g L 1 (µ) Uwaga Można pokazać, że nierówność Höldera wynika z nierówności Jensena Fakt (Nierówność Jensena) Niech φ : R 1 R 1 będzie funkcją wypukłą. Niech µ będzie miarą probabilistyczną na (R 1, B 1 ) taką, że x dµ(x) < +. Wówczas φ( x dµ(x)) φ(x) dµ(x) Wniosek Jeżeli µ jest miarą probabilistyczną na R 1 i 1 p r < +, to x p dµ(x) x r dµ(x).
72 66 Dodatek Rodzaje zbieżności funkcji mierzalnych i relacje między nimi Ciągi funkcji mierzalnych rozważane w niniejszym paragrafie są określone na wspólnej przestrzeni z miarą (Ω, F, µ) Definicja Mówimy, że f n f 0 µ-prawie wszędzie, jeśli istnieje zbiór Ω 0 F taki, że µ(ω c 0 ) = 0 i dla każdego ω Ω 0, f n (ω) f 0 (ω) Definicja Ciąg f n jest zbieżny do f 0 według miary, jeśli dla każdego ε > 0 µ{ω ; f n (ω) f 0 (ω) > ε} 0, gdy n +. Zapisujemy: f n µ f Definicja Zbieżność w L p, 0 < p < +, to zbieżność w przestrzeni L p (µ). Tak więc f n L p f 0 wtedy i tylko wtedy, gdy f n f 0 p dµ 0, gdy n Fakt Jeżeli µ jest miarą skończoną, to zbieżność w L r, r > 0 pociąga zbieżność w L p, 0 < p r Fakt Zbieżność w L p pociąga zbieżność według miary Uwaga Zbieżność według miary nie pociąga zbieżności w L 1 ani zbieżności prawie wszędzie Fakt Jeżeli miara µ jest skończona, to zbieżność µ-prawie wszędzie pociąga zbieżność według miary µ. Jeśli miara µ jest nieskończona, zbieżność prawie wszędzie nie pociąga w ogólności zbieżności według miary Twierdzenie (Riesza-Fischera) Ciąg zbieżny według miary zawiera podciąg zbieżny prawie wszędzie Wniosek Niech µ będzie miarą skończoną. Wówczas ciąg {f n } jest zbieżny według miary do f 0 wtedy i tylko wtedy, gdy w każdym podciągu {f nk } ciągu {f n } można znaleźć podciąg {f nkl } zbieżny do f 0 prawie wszędzie. Warunkowa wartość oczekiwana zmiennej losowej Definicja Niech (Ω, F, P) będzie przestrzenią probabilistyczną i niech G F. Jeżeli E X 2 < +, to E ( X G ) jest rzutem zmiennej X na podprzestrzeń L 2 (Ω, G, P) zmiennych losowych G mierzalnych i całkowalnych z kwadratem.
73 Transformata Laplace a Uwaga Z definicji wynika, że dla dowolnego Y L 2 (Ω, G, P) X E ( X G ) Y, tzn. X E ( X G ), Y = E ( X E ( X G )) Y = 0. lub równoważnie EXY = EE ( X G )) Y. Dla spełnienia powyższej równości wystarczy, aby była ona prawdziwa tylko dla Y postaci Y = 1I C, gdzie C G Definicja Warunkową wartość oczekiwaną zmiennej losowej Y L 1 (Ω, F, P) względem G F określamy jako jedyną (P -p.w.) G mierzalną zmienną losową Z taką, że dla dowolnego C G EX1I C = EZ1I C Wniosek Niech G H F. Wtedy E ( E ( X H ) G ) = E ( X G ) Wniosek Jeżeli Y jest G mierzalna, Y K dla pewnej stałej K > 0 oraz X jest całkowalna, to wtedy E ( Y X G ) = Y E ( X G ). Transformata Laplace a Definicja Jeżeli X 0, to transformatą Laplace a zmiennej losowej X (w istocie jej rozkładu) nazywamy funkcję R + θ L X (θ) = Ee θx = + 0 e θx dp X (x) R Twierdzenie Jeżeli L X = L Y, to P X = P Y (tzn. transformata Laplace a identyfikuje rozkłady) Twierdzenie Jeżeli X i Y są niezależnymi zmiennymi losowymi, to L X+Y (θ) = L X (θ) L Y (θ) Fakt Niech zmienna losowa X ma rozkład gamma Γ(α, λ) o gęstości g α,λ (s) = λα Γ(α) sα 1 e λs 1I (0, ) (s). Wtedy transformata Laplace a X ma postać ( ) λ α L X (θ) =. θ + λ
74 68 Dodatek
75 Literatura Literatura podstawowa 1. J. Jakubowski i R. Sztencel Wstęp do teorii prawdopodobieństwa, Script, Warszawa S. I. Resnick, Adventures in Stochastic Processes, Birkhäuser, Literatura uzupełniająca 1. A.A. Borowkow, Rachunek prawdopodobieństwa, PWN, Warszawa O. Häggström, Finite Markov chains and algorithmic applications, Cambridge University Press, Cambridge
Procesy stochastyczne
Wykład I: Istnienie procesów stochastycznych 2 marca 2015 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane są
Bardziej szczegółowoProcesy stochastyczne
Wykład I: Istnienie procesów stochastycznych 21 lutego 2017 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład IV: 27 października 2014 Współczynnik korelacji Brak korelacji a niezależność Definicja współczynnika korelacji Współczynnikiem korelacji całkowalnych z kwadratem zmiennych losowych X i Y nazywamy
Bardziej szczegółowoStatystyka i eksploracja danych
Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu w dziedzinach matematyczno-przyrodniczych realizowany w ramach Poddziałania 4.1.1 Programu Operacyjnego Kapitał Ludzki Statystyka i eksploracja
Bardziej szczegółowo2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.
Zadania z Procesów Stochastycznych 1 1. Udowodnij, że z prawdopodobieństwem 1 trajektorie procesu Poissona są niemalejące, przyjmują wartości z Z +, mają wszystkie skoki równe 1 oraz dążą do nieskończoności.
Bardziej szczegółowo2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.
Zadania z Procesów Stochastycznych 1 1. Udowodnij, że z prawdopodobieństwem 1 trajektorie procesu Poissona są niemalejące, przyjmują wartości z Z +, mają wszystkie skoki równe 1 oraz dążą do nieskończoności.
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład VII: Rozkład i jego charakterystyki 22 listopada 2016 Uprzednio wprowadzone pojęcia i ich własności Definicja zmiennej losowej Zmienna losowa na przestrzeni probabilistycznej (Ω, F, P) to funkcja
Bardziej szczegółowoProcesy stochastyczne
Wykład IV: dla łańcuchów Markowa 14 marca 2017 Wykład IV: Klasyfikacja stanów Kiedy rozkład stacjonarny jest jedyny? Przykład Macierz jednostkowa I wymiaru #E jest macierzą stochastyczną. Dla tej macierzy
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład XIII: Prognoza. 26 stycznia 2015 Wykład XIII: Prognoza. Prognoza (predykcja) Przypuśćmy, że mamy dany ciąg liczb x 1, x 2,..., x n, stanowiących wyniki pomiaru pewnej zmiennej w czasie wielkości
Bardziej szczegółowoPrawa wielkich liczb, centralne twierdzenia graniczne
, centralne twierdzenia graniczne Katedra matematyki i ekonomii matematycznej 17 maja 2012, centralne twierdzenia graniczne Rodzaje zbieżności ciągów zmiennych losowych, centralne twierdzenia graniczne
Bardziej szczegółowoPrzykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych
Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Niech Ω będzie przestrzenią zdarzeń elementarnych. Definicja 1 Rodzinę S zdarzeń losowych (zbiór S podzbiorów zbioru
Bardziej szczegółowoProcesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.
Procesy stochastyczne WYKŁAD 2-3 Łańcuchy Markowa Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi. Przykład Symetryczne błądzenie przypadkowe na prostej. 1 2 Łańcuchem
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład II: Zmienne losowe i charakterystyki ich rozkładów 13 października 2014 Zmienne losowe Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Definicja zmiennej losowej i jej
Bardziej szczegółowo8 Całka stochastyczna względem semimartyngałów
M. Beśka, Całka Stochastyczna, wykład 8 148 8 Całka stochastyczna względem semimartyngałów 8.1 Całka stochastyczna w M 2 Oznaczmy przez Ξ zbiór procesów postaci X t (ω) = ξ (ω)i {} (t) + n ξ i (ω)i (ti,
Bardziej szczegółowoProcesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.
Procesy stochastyczne WYKŁAD 2-3 Łańcuchy Markowa Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi. 2 Łańcuchem Markowa nazywamy proces będący ciągiem zmiennych
Bardziej szczegółowoStatystyka i eksploracja danych
Wykład II: i charakterystyki ich rozkładów 24 lutego 2014 Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa,
Bardziej szczegółowoRozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład
Rozdział 1 Wektory losowe 1.1 Wektor losowy i jego rozkład Definicja 1 Wektor X = (X 1,..., X n ), którego każda współrzędna jest zmienną losową, nazywamy n-wymiarowym wektorem losowym (krótko wektorem
Bardziej szczegółowoF t+ := s>t. F s = F t.
M. Beśka, Całka Stochastyczna, wykład 1 1 1 Wiadomości wstępne 1.1 Przestrzeń probabilistyczna z filtracją Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną i niech F = {F t } t 0 będzie rodziną
Bardziej szczegółowo4 Kilka klas procesów
Marek Beśka, Całka Stochastyczna, wykład 4 48 4 Kilka klas procesów 4.1 Procesy rosnące i przestrzenie V,, loc Jak poprzednio niech (Ω, F, F, P ) będzie zupełną bazą stochastyczną. Definicja 4.1 Proces
Bardziej szczegółowoUkłady stochastyczne
Instytut Informatyki Uniwersytetu Śląskiego 21 stycznia 2009 Definicja Definicja Proces stochastyczny to funkcja losowa, czyli funkcja matematyczna, której wartości leżą w przestrzeni zdarzeń losowych.
Bardziej szczegółowoWażne rozkłady i twierdzenia c.d.
Ważne rozkłady i twierdzenia c.d. Funkcja charakterystyczna rozkładu Wielowymiarowy rozkład normalny Elipsa kowariacji Sploty rozkładów Rozkłady jednostajne Sploty z rozkładem normalnym Pobieranie próby
Bardziej szczegółowoLista 1. Procesy o przyrostach niezależnych.
Lista. Procesy o przyrostach niezależnych.. Niech N t bedzie procesem Poissona o intensywnoci λ = 2. Obliczyć a) P (N 2 < 3, b) P (N =, N 3 = 6), c) P (N 2 = N 5 = 2), d) P (N =, N 2 = 3, N 4 < 5), e)
Bardziej szczegółowoZadania z Procesów Stochastycznych 1
Zadania z Procesów Stochastycznych 1 Definicja Procesem Poissona z parametrem (intensywnością) λ > 0 nazywamy proces stochastyczny N = (N t ) t 0 taki, że N 0 = 0; (P0) N ma przyrosty niezależne; (P1)
Bardziej szczegółowoWykład 11: Martyngały: definicja, twierdzenia o zbieżności
RAP 412 14.01.2009 Wykład 11: Martyngały: definicja, twierdzenia o zbieżności Wykładowca: Andrzej Ruciński Pisarz:Mirosława Jańczak 1 Wstęp Do tej pory zajmowaliśmy się ciągami zmiennych losowych (X n
Bardziej szczegółowoModelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski
Modelowanie zależności pomiędzy zmiennymi losowymi Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski P Zmienne losowe niezależne - przypomnienie Dwie rzeczywiste zmienne losowe X i Y
Bardziej szczegółowoSpacery losowe generowanie realizacji procesu losowego
Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z
Bardziej szczegółowoZadania z Rachunku Prawdopodobieństwa III - 1
Zadania z Rachunku Prawdopodobieństwa III - 1 Funkcją tworzącą momenty (transformatą Laplace a) zmiennej losowej X nazywamy funkcję M X (t) := Ee tx, t R. 1. Oblicz funkcję tworzącą momenty zmiennych o
Bardziej szczegółowoParametr Λ w populacji ubezpieczonych ma rozkład dany na półosi dodatniej gęstością: 3 f
Zadanie. W kolejnych latach t =,,,... ubezpieczony charakteryzujący się parametrem ryzyka Λ generuje N t szkód. Dla danego Λ = λ zmienne N, N, N,... są warunkowo niezależne i mają (brzegowe) rozkłady Poissona:
Bardziej szczegółowoPRZEWODNIK PO PRZEDMIOCIE
Nazwa przedmiotu: Rachunek prawdopodobieństwa Probability theory Kierunek: Rodzaj przedmiotu: obowiązkowy dla wszystkich specjalności Rodzaj zajęć: wykład, ćwiczenia Matematyka Poziom kwalifikacji: I stopnia
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład XIV: Metody Monte Carlo 19 stycznia 2016 Przybliżone obliczanie całki oznaczonej Rozważmy całkowalną funkcję f : [0, 1] R. Chcemy znaleźć przybliżoną wartość liczbową całki 1 f (x) dx. 0 Jeden ze
Bardziej szczegółowoWstęp do rachunku prawdopodobieństwa. Cz. 2 / William Feller. wyd. 4, dodr. 3. Warszawa, Spis treści
Wstęp do rachunku prawdopodobieństwa. Cz. 2 / William Feller. wyd. 4, dodr. 3. Warszawa, 2012 Spis treści Przedmowa 5 Oznaczenia i konwencje 7 Rozdział I Rozkład wykładniczy i rozkład jednostajny 1. Wprowadzenie
Bardziej szczegółowoPROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω)
PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω) określonych na tej samej przestrzeni probabilistycznej
Bardziej szczegółowoZadania z Rachunku Prawdopodobieństwa II Podaj przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,
Zadania z Rachunku Prawdopodobieństwa II -. Udowodnij, że dla dowolnych liczb x n, x, δ xn δ x wtedy i tylko wtedy, gdy x n x.. Wykaż, że n n k= δ k/n λ, gdzie λ jest miarą Lebesgue a na [, ].. Podaj przykład
Bardziej szczegółowoWykład 3 Jednowymiarowe zmienne losowe
Wykład 3 Jednowymiarowe zmienne losowe Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną Definicja 1 Jednowymiarowa zmienna losowa (o wartościach rzeczywistych), określoną na przestrzeni probabilistycznej
Bardziej szczegółowoO procesie Wienera. O procesie Wienera. Procesy stochastyczne Wykład XV, 15 czerwca 2015 r. Proces Wienera. Ruch Browna. Ułamkowe ruchy Browna
Procesy stochastyczne Wykład XV, 15 czerwca 2015 r. Ruch 1 {X t } jest martyngałem dokładnie wtedy, gdy E(X t F s ) = X s, s, t T, s t. Jeżeli EX 2 (t) < +, to E(X t F s ) jest rzutem ortogonalnym zmiennej
Bardziej szczegółowoZadania z Rachunku Prawdopodobieństwa II Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,
Zadania z Rachunku Prawdopodobieństwa II -. Udowodnij, że dla dowolnych liczb x n, x, δ xn δ x wtedy i tylko wtedy, gdy x n x.. Wykaż, że n n k= δ k/n λ, gdzie λ jest miarą Lebesgue a na [, ].. Podać przykład
Bardziej szczegółowoJednowymiarowa zmienna losowa
1 Jednowymiarowa zmienna losowa Przykład Doświadczenie losowe - rzut kostką do gry. Obserwujemy ilość wyrzuconych oczek. Teoretyczny model eksperymentu losowego - przestrzeń probabilistyczna (Ω, S, P ),
Bardziej szczegółowoLiteratura. Leitner R., Zacharski J., Zarys matematyki wyŝszej dla studentów, cz. III.
Literatura Krysicki W., Bartos J., Dyczka W., Królikowska K, Wasilewski M., Rachunek Prawdopodobieństwa i Statystyka Matematyczna w Zadaniach, cz. I. Leitner R., Zacharski J., Zarys matematyki wyŝszej
Bardziej szczegółowo19 marzec, Łańcuchy Markowa z czasem dyskretnym. Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136
Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 19 marzec, 2012 Przykłady procesów Markowa (i). P = (p ij ) - macierz stochastyczna, tzn. p ij 0, j p ij =
Bardziej szczegółowoWykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.
Rachunek prawdopodobieństwa MAT1332 Wydział Matematyki, Matematyka Stosowana Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów. Warunkowa
Bardziej szczegółowoWykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.
Rachunek prawdopodobieństwa MAP1181 Wydział PPT, MS, rok akad. 213/14, sem. zimowy Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.
Bardziej szczegółowoWykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe.
Rachunek prawdopodobieństwa MAP3040 WPPT FT, rok akad. 2010/11, sem. zimowy Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Warunkowa wartość oczekiwana.
Bardziej szczegółowoPrzykładowe zadania na egzamin z matematyki - dr Anita Tlałka - 1
Przykładowe zadania na egzamin z matematyki - dr Anita Tlałka - 1 Zadania rozwiązywane na wykładzie Zadania rozwiązywane na ćwiczeniach Przy rozwiązywaniu zadań najistotniejsze jest wykazanie się rozumieniem
Bardziej szczegółowoRozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej
Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Zbiór możliwych wyników eksperymentu będziemy nazywać przestrzenią zdarzeń elementarnych i oznaczać Ω, natomiast
Bardziej szczegółowoDystrybucje, wiadomości wstępne (I)
Temat 8 Dystrybucje, wiadomości wstępne (I) Wielkości fizyczne opisujemy najczęściej przyporządkowując im funkcje (np. zależne od czasu). Inną drogą opisu tych wielkości jest przyporządkowanie im funkcjonałów
Bardziej szczegółowo3. Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,
Zadania z Rachunku Prawdopodobieństwa II - Mówimy, że i) ciąg miar probabilistycznych µ n zbiega słabo do miary probabilistycznej µ (ozn. µ n µ), jeśli fdµ n fdµ dla dowolnej funkcji ciągłej ograniczonej
Bardziej szczegółowoInformacja o przestrzeniach Hilberta
Temat 10 Informacja o przestrzeniach Hilberta 10.1 Przestrzenie unitarne, iloczyn skalarny Niech dana będzie przestrzeń liniowa X. Załóżmy, że każdej parze elementów x, y X została przyporządkowana liczba
Bardziej szczegółowoWYDZIAŁ ELEKTRONIKI MIKROSYSTEMÓW I FOTONIKI
Zał. nr do ZW WYDZIAŁ ELEKTRONIKI MIKROSYSTEMÓW I FOTONIKI KARTA PRZEDMIOTU Nazwa w języku polskim: Matematyka (Zao EA EiT stopień) Nazwa w języku angielskim: Mathematics Kierunek studiów (jeśli dotyczy):
Bardziej szczegółowojest ciągiem elementów z przestrzeni B(R, R)
Wykład 2 1 Ciągi Definicja 1.1 (ciąg) Ciągiem w zbiorze X nazywamy odwzorowanie x: N X. Dla uproszczenia piszemy x n zamiast x(n). Przykład 1. x n = n jest ciągiem elementów z przestrzeni R 2. f n (x)
Bardziej szczegółowoRodzinę spełniającą trzeci warunek tylko dla sumy skończonej nazywamy ciałem (algebrą) w zbiorze X.
1 σ-ciała Definicja 1.1 (σ - ciało) σ - ciałem (σ - algebrą) w danym zbiorze X (zwanym przestrzenią) nazywamy rodzinę M pewnych podzbiorów zbioru X, spełniającą trzy warunki: 1 o M; 2 o jeśli A M, to X
Bardziej szczegółowo1 Relacje i odwzorowania
Relacje i odwzorowania Relacje Jacek Kłopotowski Zadania z analizy matematycznej I Wykazać, że jeśli relacja ρ X X jest przeciwzwrotna i przechodnia, to jest przeciwsymetryczna Zbadać czy relacja ρ X X
Bardziej szczegółowoPODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA. Piotr Wiącek
PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA Piotr Wiącek ROZKŁAD PRAWDOPODOBIEŃSTWA Jest to miara probabilistyczna określona na σ-ciele podzbiorów borelowskich pewnej przestrzeni metrycznej. σ-ciało podzbiorów
Bardziej szczegółowoSTATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA
STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA Zadanie 0.1 Zmienna losowa X ma rozkład określony funkcją prawdopodobieństwa: x k 0 4 p k 1/3 1/6 1/ obliczyć EX, D X. (odp. 4/3;
Bardziej szczegółowoFunkcja tworząca Funkcja charakterystyczna. Definicja i własności Funkcja tworząca momenty
momenty Oprócz omówionych już do tej pory charakterystyk rozkładów bardzo wygodnym i skutecznym narzędziem badanie zmiennej losowej są tzw. transformaty jej rozkładu: funkcje tworzące i funkcje charakterystyczne.
Bardziej szczegółowoJeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna.
Wykład 4 Rozkłady i ich dystrybuanty Dwa typy zmiennych losowych Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x, x 2,...}, to mówimy, że jest to zmienna dyskretna.
Bardziej szczegółowoTeoria ze Wstępu do analizy stochastycznej
eoria ze Wstępu do analizy stochastycznej Marcin Szumski 22 czerwca 21 1 Definicje 1. proces stochastyczny - rodzina zmiennych losowych X = (X t ) t 2. trajektoria - funkcja (losowa) t X t (ω) f : E 3.
Bardziej szczegółowoLista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie
Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie Jarosław Kotowicz Instytut Matematyki Uniwersytet w
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład XV: Zagadnienia redukcji wymiaru danych 2 lutego 2015 r. Standaryzacja danych Standaryzacja danych Własności macierzy korelacji Definicja Niech X będzie zmienną losową o skończonym drugim momencie.
Bardziej szczegółowo5 Przegląd najważniejszych rozkładów
5 Przegląd najważniejszych rozkładów 5. Rozkład Bernoulliego W niezmieniających się warunkach wykonujemy n razy pewne doświadczenie. W wyniku każdego doświadczenia może nastąpić zdarzenie A lub A. Zakładamy,
Bardziej szczegółowoFizyka statystyczna, elementy termodynamiki nierównowagowej Cele, zakres zagadnień
Fizyka statystyczna, elementy termodynamiki nierównowagowej Cele, zakres zagadnień Narzędzia przypomnienie podstawowych definicji i twierdzeń z rachunku prawdopodobienstwa; podstawowe rozkłady statystyczne
Bardziej szczegółowoĆwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu.
Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu. A Teoria Definicja A.1. Niech (Ω, F, P) będzie przestrzenią probabilistyczną. Zmienną losową określoną na przestrzeni Ω nazywamy dowolną
Bardziej szczegółowoPEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA
PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA 1. Trójkę (Ω, F, P ), gdzie Ω, F jest σ-ciałem podzbiorów Ω, a P jest prawdopodobieństwem określonym na F, nazywamy przestrzenią probabilistyczną. 2. Rodzinę F
Bardziej szczegółowoModelowanie komputerowe
Modelowanie komputerowe wykład 5- Klasyczne systemy kolejkowe i ich analiza dr Marcin Ziółkowski Instytut Matematyki i Informatyki Akademia im. Jana Długosza w Częstochowie 16,23listopada2015r. Analiza
Bardziej szczegółowoRepetytorium z przedmiotu MIARA I PRAWDOPODOBIEŃSTWO dla kierunku Informatyka 2001/2002. Adam Jakubowski
Repetytorium z przedmiotu MIARA I PRAWDOPODOBIEŃSTWO dla kierunku Informatyka 2001/2002 Adam Jakubowski Uniwersytet Mikołaja Kopernika Wydział Matematyki i Informatyki Toruń, 2002 Spis treści Wstęp 1
Bardziej szczegółowoKARTA PRZEDMIOTU. 12. Przynależność do grupy przedmiotów: Prawdopodobieństwo i statystyka
(pieczęć wydziału) KARTA PRZEDMIOTU Z1-PU7 WYDANIE N1 Strona 1 z 5 1. Nazwa przedmiotu: RACHUNEK PRAWDOPODOBIEŃSTWA 2. Kod przedmiotu: RPr 3. Karta przedmiotu ważna od roku akademickiego: 20152016 4. Forma
Bardziej szczegółowoStatystyka. Wydział Zarządzania Uniwersytetu Łódzkiego
Statystyka Wydział Zarządzania Uniwersytetu Łódzkiego 2017 Zmienna losowa i jej rozkład Mając daną przestrzeń probabilistyczną, czyli parę (&, P) stanowiącą model pewnego doświadczenia losowego (gdzie
Bardziej szczegółowoOśrodkowość procesów, proces Wienera. Ośrodkowość procesów, proces Wienera Procesy Stochastyczne, wykład, T. Byczkowski,
Procesy Stochastyczne, wykład, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 27 luty, 2012 Ośrodkowość procesów Dalej zakładamy, że (Ω, Σ, P) jest zupełną przestrzenią miarową. Definicja.
Bardziej szczegółowoWażne rozkłady i twierdzenia
Ważne rozkłady i twierdzenia Rozkład dwumianowy i wielomianowy Częstość. Prawo wielkich liczb Rozkład hipergeometryczny Rozkład Poissona Rozkład normalny i rozkład Gaussa Centralne twierdzenie graniczne
Bardziej szczegółowoWykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga
RAP 412 21.01.2009 Wykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga Wykładowca: Andrzej Ruciński Pisarz: Łukasz Waszak 1 Wstęp Na ostatnim wykładzie przedstawiliśmy twierdzenie o zbieżności
Bardziej szczegółowoWykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe
Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe Nierówność Czebyszewa Niech X będzie zmienną losową o skończonej wariancji V ar(x). Wtedy wartość oczekiwana E(X) też jest skończona i
Bardziej szczegółowoĆwiczenia: Ukryte procesy Markowa lista 1 kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II
Ćwiczenia: Ukryte procesy Markowa lista kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II dr Jarosław Kotowicz Zadanie. Dany jest łańcuch Markowa, który może przyjmować wartości,,...,
Bardziej szczegółowoKomputerowa Analiza Danych Doświadczalnych
Komputerowa Analiza Danych Doświadczalnych dr inż. Adam Kisiel kisiel@if.pw.edu.pl pokój 117b (12b) 1 Materiały do wykładu Transparencje do wykładów: http://www.if.pw.edu.pl/~kisiel/kadd/kadd.html Literatura
Bardziej szczegółowoRachunek prawdopodobieństwa (Elektronika, studia niestacjonarne) Wykład 3
Rachunek prawdopodobieństwa (Elektronika, studia niestacjonarne) Wykład 3 Przygotowując wykład korzystam głównie z książki Jakubowski, Sztencel Wstęp do teorii prawdopodobieństwa. Zmienna losowa i jej
Bardziej szczegółowo4. O funkcji uwikłanej 4.1. Twierdzenie. Niech będzie dana funkcja f klasy C 1 na otwartym podzbiorze. ϕ : K(x 0, δ) (y 0 η, y 0 + η), taka że
4. O funkcji uwikłanej 4.1. Twierdzenie. Niech będzie dana funkcja f klasy C 1 na otwartym podzbiorze taka że K(x 0, δ) (y 0 η, y 0 + η) R n R, f(x 0, y 0 ) = 0, y f(x 0, y 0 ) 0. Wówczas dla odpowiednio
Bardziej szczegółowoRepetytorium z przedmiotu Miara i prawdopodobieństwo dla kierunku Informatyka 2003/2004. Adam Jakubowski
Repetytorium z przedmiotu Miara i prawdopodobieństwo dla kierunku Informatyka 2003/2004 Adam Jakubowski Uniwersytet Mikołaja Kopernika Wydział Matematyki i Informatyki Toruń, styczeń 2004 Spis treści
Bardziej szczegółowoStatystyka i eksploracja danych
Wykład I: Formalizm statystyki matematycznej 17 lutego 2014 Forma zaliczenia przedmiotu Forma zaliczenia Literatura Zagadnienia omawiane na wykładach Forma zaliczenia przedmiotu Forma zaliczenia Literatura
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 11 Łańcuchy Markova
Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova M. Czoków, J. Piersa 2010-12-21 1 Definicja Własności Losowanie z rozkładu dyskretnego 2 3 Łańcuch Markova Definicja Własności Losowanie z rozkładu
Bardziej szczegółowoKARTA PRZEDMIOTU. Forma prowadzenia zajęć. Odniesienie do efektów dla kierunku studiów K1A_W02
(pieczęć wydziału) KARTA PRZEDMIOTU Z1-PU7 WYDANIE N1 Strona 1 z 5 1. Nazwa przedmiotu: RACHUNEK PRAWDOPODOBIEŃSTWA 2. Kod przedmiotu: RPr 3. Karta przedmiotu ważna od roku akademickiego: 20182019 4. Forma
Bardziej szczegółowoInformacja o przestrzeniach Sobolewa
Wykład 11 Informacja o przestrzeniach Sobolewa 11.1 Definicja przestrzeni Sobolewa Niech R n będzie zbiorem mierzalnym. Rozważmy przestrzeń Hilberta X = L 2 () z iloczynem skalarnym zdefiniowanym równością
Bardziej szczegółowoRACHUNEK PRAWDOPODOBIE STWA
Jerzy Ombach RACHUNEK PRAWDOPODOBIE STWA WSPOMAGANY KOMPUTEROWO DLA STUDENTÓW MATEMATYKI STOSOWANEJ Wydawnictwo Uniwersytetu Jagielloƒskiego Seria Matematyka Książka finansowana przez Wydział Matematyki
Bardziej szczegółowoSeria 1. Zbieżność rozkładów
Seria Zbieżność rozkładów We wszystkich poniższych zadaniach (E, ρ) jest przestrzenią metryczną Wykazać, że dla dowolnych x, x n, δ xn δ x wtedy i tylko wtedy, gdy x n x Sprawdzić, że n nk= δ k n λ, gdzie
Bardziej szczegółowoZAGADNIENIA DO EGZAMINU MAGISTERSKIEGO
ZAGADNIENIA DO EGZAMINU MAGISTERSKIEGO Na egzaminie magisterskim student powinien: 1) omówić wyniki zawarte w pracy magisterskiej posługując się swobodnie pojęciami i twierdzeniami zamieszczonymi w pracy
Bardziej szczegółowoWykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa
Wykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa Marek Kubiak Instytut Informatyki Politechnika Poznańska Plan wykładu Podstawowe pojęcia rachunku prawdopodobieństwa Rozkład
Bardziej szczegółowoStatystyka i eksploracja danych
Wykład XII: Zagadnienia redukcji wymiaru danych 12 maja 2014 Definicja Niech X będzie zmienną losową o skończonym drugim momencie. Standaryzacją zmiennej X nazywamy zmienną losową Z = X EX Var (X ). Definicja
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa
Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa M. Czoków, J. Piersa 2012-01-10 1 Łańcucha Markowa 2 Istnienie Szukanie stanu stacjonarnego 3 1 Łańcucha Markowa 2 Istnienie Szukanie stanu stacjonarnego
Bardziej szczegółowoRachunek prawdopodobieństwa 1B; zadania egzaminacyjne.
Rachunek prawdopodobieństwa B; zadania egzaminacyjne.. Niech µ będzie rozkładem probabilistycznym na (0, ) (0, ): µ(b) = l({x (0,) : (x, x) B}), dla B B((0, ) (0, ))), gdzie l jest miarą Lebesgue a na
Bardziej szczegółowoMetody probabilistyczne
Metody probabilistyczne. Twierdzenia graniczne Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 20.2.208 / 26 Motywacja Rzucamy wielokrotnie uczciwą monetą i zliczamy
Bardziej szczegółowo21 maja, Mocna własność Markowa procesu Wienera. Procesy Stochastyczne, wykład 13, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126
Mocna własność Markowa procesu Wienera Procesy Stochastyczne, wykład 13, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126 21 maja, 2012 Mocna własność Markowa W = (W 1,..., W d ) oznaczać
Bardziej szczegółowoWykład 10. Stwierdzenie 1. X spełnia warunek Borela wtedy i tylko wtedy, gdy każda scentrowana rodzina zbiorów domkniętych ma niepusty przekrój.
Wykład 10 Twierdzenie 1 (Borel-Lebesgue) Niech X będzie przestrzenią zwartą Z każdego pokrycia X zbiorami otwartymi można wybrać podpokrycie skończone Dowód Lemat 1 Dla każdego pokrycia U przestrzeni ośrodkowej
Bardziej szczegółowoφ(x 1,..., x n ) = a i x 2 i +
Teoria na egzamin z algebry liniowej Wszystkie podane pojęcia należy umieć określić i podać pprzykłady, ewentualnie kontrprzykłady. Ponadto należy znać dowody tam gdzie to jest zaznaczone. Liczby zespolone.
Bardziej szczegółowoZadania z Analizy Funkcjonalnej I Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi?
Zadania z Analizy Funkcjonalnej I - 1 1. Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi? a) X = R, d(x, y) = arctg x y ; b) X = R n, d(x, y) = x 1 y 1 + x 2 y 2 + max i 3 x i
Bardziej szczegółowoZadania z Analizy Funkcjonalnej I Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi?
Zadania z Analizy Funkcjonalnej I - 1 1. Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi?. a) X = R, x = arctg x ; b) X = R n, d(x, y) = x 1 y 1 + x 2 y 2 + max i 3 x i y i ;
Bardziej szczegółowoZ Wikipedii, wolnej encyklopedii.
Rozkład normalny Rozkład normalny jest niezwykle ważnym rozkładem prawdopodobieństwa w wielu dziedzinach. Nazywa się go także rozkładem Gaussa, w szczególności w fizyce i inżynierii. W zasadzie jest to
Bardziej szczegółowoIII. ZMIENNE LOSOWE JEDNOWYMIAROWE
III. ZMIENNE LOSOWE JEDNOWYMIAROWE.. Zmienna losowa i pojęcie rozkładu prawdopodobieństwa W dotychczas rozpatrywanych przykładach każdemu zdarzeniu była przyporządkowana odpowiednia wartość liczbowa. Ta
Bardziej szczegółowoProces rezerwy w czasie dyskretnym z losową stopą procentową i losową składką
z losową stopą procentową i losową składką Instytut Matematyki i Informatyki Politechniki Wrocławskiej 10 czerwca 2008 Oznaczenia Wprowadzenie ξ n liczba wypłat w (n 1, n], Oznaczenia Wprowadzenie ξ n
Bardziej szczegółowoRepetytorium z przedmiotu Miara i Prawdopodobieństwo. Adam Jakubowski
Repetytorium z przedmiotu Miara i Prawdopodobieństwo Adam Jakubowski Uniwersytet Mikołaja Kopernika Wydział Matematyki i Informatyki Toruń, 1999 Spis treści Wstęp 1 1 Przestrzenie mierzalne i przestrzenie
Bardziej szczegółowoWYKŁAD 2. Zdarzenia losowe i prawdopodobieństwo Zmienna losowa i jej rozkłady
WYKŁAD 2 Zdarzenia losowe i prawdopodobieństwo Zmienna losowa i jej rozkłady Metody statystyczne metody opisu metody wnioskowania statystycznego syntetyczny liczbowy opis właściwości zbioru danych ocena
Bardziej szczegółowoZadania z Rachunku Prawdopodobieństwa III - 1
Zadania z Rachunku Prawdopodobieństwa III - 1 1. Oblicz funkcję tworzącą momenty zmiennych o następujących rozkładach: a) symetryczny dwupunktowy; b) dwumianowy z parametrami n, p; c) Poissona z parametrem
Bardziej szczegółowoSTATYSTYKA
Wykład 1 20.02.2008r. 1. ROZKŁADY PRAWDOPODOBIEŃSTWA 1.1 Rozkład dwumianowy Rozkład dwumianowy, 0 1 Uwaga: 1, rozkład zero jedynkowy. 1 ; 1,2,, Fakt: Niech,, będą niezależnymi zmiennymi losowymi o jednakowym
Bardziej szczegółowo