Procesy stochastyczne

Wielkość: px
Rozpocząć pokaz od strony:

Download "Procesy stochastyczne"

Transkrypt

1 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu w dziedzinach matematyczno-przyrodniczych realizowany w ramach Poddziałania Programu Operacyjnego Kapitał Ludzki Procesy stochastyczne Treść wykładów Adam Jakubowski UMK Toruń 2012 Projekt współfinansowany przez Unię Europejską w ramach Europejskiego Funduszu Społecznego

2

3 Spis treści Wstęp 1 1 Istnienie procesów stochastycznych 3 Nieskończone ciągi zmiennych losowych Procesy stochastyczne Rozkłady skończenie wymiarowe Zgodność rozkładów skończenie wymiarowych Twierdzenie Kołmogorowa Istnienie ciągów niezależnych zmiennych losowych Istnienie procesów gaussowskich Jednorodne łańcuchy Markowa 7 Definicja łańcucha Markowa Istnienie łańcuchów Markowa Podstawowe wnioski z definicji Własność Markowa Rozkłady stacjonarne dla łańcuchów Markowa 11 Rozkłady brzegowe łańcuchów Markowa Rozkłady stacjonarne Istnienie rozkładów stacjonarnych Równanie równowagi szczegółowej Twierdzenie ergodyczne dla łańcuchów Markowa 15 Kiedy rozkład stacjonarny jest jedyny? Klasyfikacja stanów Nieprzywiedlny łańcuch Markowa Twierdzenie ergodyczne Algorytm Metropolisa Twierdzenia o powracaniu dla łańcuchów Markowa 19 Powracalność a prawo wielkich liczb Powroty łańcucha Markowa do ustalonego stanu I Stany powracające i

4 ii Spis treści Symetryczne błądzenie po płaszczyźnie i w przestrzeni Twierdzenia graniczne dla łańcuchów Markowa 23 Prawo wielkich liczb dla łańcuchów Markowa Schemat dowodu prawa wielkich liczb dla łańcuchów Markowa. 23 Centralne twierdzenie graniczne dla łańcuchów Markowa Procesy stacjonarne 27 Definicja procesu stacjonarnego Przekształcenie zachowujące miarę Zbiory i funkcje T -niezmiennicze Przykłady przekształceń zachowujących miarę Ułamki łańcuchowe Indywidualne twierdzenie ergodyczne 31 Indywidualne twierdzenie ergodyczne Maksymalne twierdzenie ergodyczne Przekształcenia i procesy ergodyczne Kompletna losowość - proces punktowy Poissona 35 Punktowy proces Poissona Proces Poissona Momenty skoku procesu Poissona Alternatywna konstrukcja procesu Poissona Systemy kolejkowe i inne modele oparte na procesie Poissona 39 System obsługi masowej Systemy kolejkowe O systemie M/G/ Model Cramera- Lundberga L 2 procesy 43 L 2 procesy i ich charakterystyki Funkcja kowariancji L 2 procesu Przykłady procesów gaussowskich L 2 procesy stacjonarne w szerokim sensie Miara i gęstość spektralna L 2 procesu Wstęp do teorii martyngałów 47 Pojęcie filtracji Momenty zatrzymania Gra sprawiedliwa Martyngał jako gra sprawiedliwa

5 Spis treści iii 13 Zbieżność martyngałów 51 Nierówność maksymalna dla podmartyngałów Nierówność Dooba Wnioski z twierdzenia Dooba Proces Wienera 55 Definicja procesu Wienera Własności trajektorii procesu Wienera Martyngałowe własności procesu Wienera Proces Wienera jako granica błądzeń losowych Dodatek 59 Wektory losowe Rozkłady łączne a rozkłady brzegowe Niezależność Kryteria niezależności Niezależność zdarzeń Całka iloczynu niezależnych zmiennych losowych Wielowymiarowe rozkłady normalne Przestrzenie funkcji całkowalnych Rodzaje zbieżności funkcji mierzalnych i relacje między nimi Warunkowa wartość oczekiwana zmiennej losowej Transformata Laplace a Literatura 69

6 iv Spis treści

7 Wstęp Przedmiot Procesy stochastyczne jest przedmiotem do wyboru dla wszystkich specjalności studiów II stopnia na kierunku matematyka. Jednak szczególna rola przypada mu na specjalności Zastosowania matematyki w ekonomii i finansach, ze względu na powszechność stosowania metod stochastycznych w tych dziedzinach nauki i gospodarki. Celem wykładu jest zapoznanie słuchaczy z podstawowymi klasami procesów stochastycznych. Podczas omawiana poszczególnych klas dyskutowane są zagadnienia istnienia/konstrukcji procesów oraz podstawowe własności i najważniejsze twierdzenia związane z daną klasą.. Po zaliczeniu wykładu i ćwiczeń słuchacz błędzie posiadał aparat matematyczny umożliwiający modelowanie zjawisk losowych za pomocą procesów stochastycznych. Przedmiot Procesy stochastyczne prowadzony jest w semestrze letnim, w wymiarze 30 godzin wykładu i 30 godzin ćwiczeń rachunkowych. Zaliczenie przedmiotu polega na uzyskaniu zaliczenia ćwiczeń rachunkowych oraz zdaniu egzaminu ustnego z teorii. Ćwiczenia dydaktyczne prowadzone są w oparciu o materiały dydaktyczne Adam Jakubowski Procesy stochastyczne. Materiały do ćwiczeń, Toruń Niniejsze opracowanie zawiera treści przekazywane w trakcie wykładów. Najważniejsze definicje i twierdzenia przedstawiane są w postaci zrzutu ekranowego odpowiedniej transparencji. Podstawowy materiał uzupełniany jest komentarzami i przykładami. Zagadnienia omawiane na wykładach, wraz z ewentualnymi uzupełnieniami, są dostępne na: w kategorii Studia stacjonarne/procesy stochastyczne. Całość materiału podzielono na 14 jednostek, z grubsza odpowiadających dwugodzinnemu wykładowi. Literatura podstawowa przedmiotu zawiera książki: J. Jakubowski i R. Sztencel Wstęp do teorii prawdopodobieństwa, Script, Warszawa 2004, S. I. Resnick, Adventures in Stochastic Processes, Birkhäuser,

8 2 Wstęp Jako literatura uzupełniająca zalecane są książki: A.A. Borowkow, Rachunek prawdopodobieństwa, PWN, Warszawa O. Häggström, Finite Markov chains and algorithmic applications, Cambridge University Press, Cambridge Adam Jakubowski

9 1. Istnienie procesów stochastycznych Nieskończone ciągi zmiennych losowych 1.1 Przykład (Skończony schemat Bernoullego) Ω = {0, 1} N, F = 2 Ω, P(A) = #A #ω, X k ( (ω1, ω 2,..., ω N ) ) = ω k, k = 1, 2,..., N. Zmienne {X k ; k = 1, 2,..., N} tworzą skończony schemat Bernoullego z prawdopodobieństwem sukcesu p = 1/2. Czy istnieje ciąg nieskończony takich zmiennych? 1.2 Przykład (Funkcje Rademachera) Ω = [0, 1], F = B 1, P = l [0,1], f n (x) = sign sin ( 2πx ), n = 1, 2,.... Rozwijając wzór otrzymujemy f n (x) = Rysunek przekonuje o niezależności! { ( 1) i 1 jeśli i 1 2 n x < i 2 n, i = 1, 2,..., 2 n, 1 jeśli x = 1. Procesy stochastyczne 3

10 4 1. Istnienie procesów stochastycznych Rozkłady skończenie wymiarowe Zgodność rozkładów skończenie wymiarowych Π S 2 S 1 Niech {X t ; t T} będzie procesem stochastycznym i niech S 1 S 2 T. Jeżeli przez oznaczymy naturalny rzut po współrzędnych R S 2 {t s } s S2 {t s } s S1 R S 1, to mamy również P XS1 = P XS2 ( Π S 2 S 1 ) 1. (1.1) 1.5 Definicja Własność (1.1) rozkładów skończenie wymiarowych procesu stochastycznego nazywamy zgodnością. 1.6 Wniosek Zgodność w sensie (1.1) jest warunkiem koniecznym dla istnienia procesu stochastycznego o zadanych własnościach rozkładów skończenie wymiarowych.

11 Twierdzenie Kołmogorowa o istnieniu procesu stochastycznego 5 Twierdzenie Kołmogorowa Istnienie ciągów niezależnych zmiennych losowych

12 6 1. Istnienie procesów stochastycznych Istnienie procesów gaussowskich Niech X = ( ) T X 1, X 2,..., X n będzie wektorem losowym. EX jest wektorem wartości oczekiwanych współrzędnych X: EX = ( ) T EX 1, EX 2,..., EX n. Cov ( X ) jest symetryczną i nieujemnie określoną macierzą o współczynnikach 1.10 Twierdzenie Cov ( X i, X j ) = E ( Xi EX i )( Xj EX j ), i, j = 1, 2,..., n. E X istnieje wtedy, i tylko wtedy, gdy E X < +. Cov ( X ) istnieje wtedy, i tylko wtedy, gdy E X 2 < +.

13 2. Jednorodne łańcuchy Markowa Definicja łańcucha Markowa 7

14 8 2. Jednorodne łańcuchy Markowa Istnienie łańcuchów Markowa 2.2 Twierdzenie Jeżeli P jest macierzą stochastyczną na E, a π jest rozkładem prawdopodobieństwa na E, to istnieje jednorodny łańcuch Markowa X 0, X 1, X 2,... o rozkładzie początkowym π i macierzy prawdopodobieństw przejścia P. Dowód: Utożsamiamy elementy przestrzeni E z podzbiorem N i sprawdzamy zgodność rozkładów skończenie wymiarowych indeksowanych podzbiorami N i zadanych wzorami µ 0,1,2,...,m ( (i0, i 1, i 2,..., i m 1, i m ) ) = π i0 p i0,i 1 p i1,i 2... p im 1,i m, gdzie µ 0,1,2,...,m jest rozkładem na N m = {(i 0, i 1, i 2,..., i m 1, i m ) ; i 0, i 1,... i m N}.

15 Podstawowe wnioski z definicji 9 Podstawowe wnioski z definicji Własność Markowa

16 10 2. Jednorodne łańcuchy Markowa Jak formalnie wyrazić własność Markowa? Definiujemy P ( B X 0, X 1,..., X n ) jako P ( B ) X 0 = i o, X 1 = i 1,..., X n = i n 1I {X0 =i 0,X 1 =i 1,...,X n=i n}, (i 0,i 1,...,i n) E n+1 i podobnie P ( B X n ) = i E n+1 P ( B X n = i ) 1I {Xn=i}. 2.3 Twierdzenie Dla dowolnych n, m N oraz dowolnego zbioru A E m ma miejsce równość: P ( (X n+1, X n+2,..., X n+m ) A X 0, X 1,..., X n ) = = P ( (X n+1, X n+2,..., X n+m ) A X n ).

17 3. Rozkłady stacjonarne dla łańcuchów Markowa Rozkłady brzegowe łańcuchów Markowa Przypomnijmy podstawowe elementy definicji łańcuchów Markowa. E - przeliczalny zbiór stanów. P = {p ij } i,j E - macierz prawdopodobieństw przejścia, tzn. p ij 0, i, j E oraz p ij = 1, i E. j E π = {π j } j E - rozkład początkowy. Jednorodny łańcuch Markowa - proces stochastyczny X 0, X 1, X 2,... o rozkładach skończenie wymiarowych danych wzorem P π( X 0 = i 0, X 1 = i 1, X 2 = i 2,..., X m 1 = i m 1, X m = i m ) = = π i0 p i0,i 1 p i1,i 2... p im 1,i m. 11

18 12 3. Rozkłady stacjonarne dla łańcuchów Markowa Rozkłady stacjonarne Istnienie rozkładów stacjonarnych 3.4 Uwaga Znaleźć rozkład stacjonarny dla P, to rozwiązać układ równań liniowych π i p ij = π j, j E, i E przy dodatkowym warunku π i = 1. i E Nie zawsze jest to możliwe. 3.5 Przykład Błądzenie symetryczne po kracie Z. Kładziemy: E = Z, 1 2 gdy j = i + 1, p ij = 1 2 gdy j = i 1, 0 gdy j i 1.

19 Równanie równowagi szczegółowej 13 Równanie równowagi szczegółowej

20 14 3. Rozkłady stacjonarne dla łańcuchów Markowa

21 4. Twierdzenie ergodyczne dla łańcuchów Markowa Kiedy rozkład stacjonarny jest jedyny? 4.1 Przykład Macierz jednostkowa I wymiaru #E jest macierzą stochastyczną. Dla tej macierzy każdy rozkład jest stacjonarny i każdy rozkład spełnia równanie równowagi szczegółowej. 4.2 Problem Kiedy istnieje dokładnie jeden rozkład stacjonarny? Odpowiedź: gdy wszystkie wiersze macierzy Q są identyczne, tzn. δ ij + p ij + p ij (2) p ij (n 1) π j, dla wszystkich i, j E. n W szczególności tak będzie, gdy dla wszystkich i, j E. Klasyfikacja stanów p ij (n) π j, 15

22 16 4. Twierdzenie ergodyczne dla łańcuchów Markowa Nieprzywiedlny łańcuch Markowa

23 Twierdzenie ergodyczne 17 Twierdzenie ergodyczne Najważniejsze kroki w dowodzie 4.11 Lemat Niech a 1, a 2,..., a m N będą takie, że NWD {a 1, a 2,..., a m } = 1. Wówczas istnieje liczba N 0 taka, że każdą liczbę n N 0 można przedstawić w postaci gdzie l 1, l 2,..., l m N. n = l 1 a + l 2 a l m a m, 4.12 Wniosek Jeśli łańcuch jest nieprzywiedlny i nieokresowy, to istnieje N 0 takie, że dla n N 0 wszystkie elementy macierzy P n są dodatnie. Algorytm Metropolisa 4.13 Problem Na E (zwykle bardzo licznym) mamy mamy rozkład π. Szukamy P o własnościach: (i) π jest rozkładem stacjonarnym dla P. (ii) P n szybko zmierzają do π (jak w tw. ergod.).

24 18 4. Twierdzenie ergodyczne dla łańcuchów Markowa 4.14 Uwaga Sposób osiągnięcia powyższych celów wymyślony został przez fizyków blisko 60 lat temu. W najprostszej sytuacji można go opisać w postaci algorytmu Metropolisa. Ten i inne podobne algorytmy stanowią podstawę dynamicznych metod Monte Carlo (ang. Markov Chain Monte Carlo ).

25 5. Twierdzenia o powracaniu dla łańcuchów Markowa Powracalność a prawo wielkich liczb 5.1 Przykład Rozważmy błądzenie losowe po liczbach całkowitych: p jeśli j = i + 1, p ij = 1 p =: q jeśli j = i 1, 0 jeśli j i 1. Załóżmy, że rozpoczynamy błądzenie z i = 0. Jakie wnioski można wyciągnąć na podstawie prawa wielkich liczb nt. liczby powrotów trajektorii do stanu i = 0? Powroty łańcucha Markowa do ustalonego stanu I 19

26 20 5. Twierdzenia o powracaniu dla łańcuchów Markowa Stany powracające

27 Symetryczne błądzenie po płaszczyźnie i w przestrzeni 21 Symetryczne błądzenie po płaszczyźnie i w przestrzeni

28 22 5. Twierdzenia o powracaniu dla łańcuchów Markowa

29 6. Twierdzenia graniczne dla łańcuchów Markowa Prawo wielkich liczb dla łańcuchów Markowa 6.1 Problem Łańcuchy Markowa są przykładami ciągów zależnych zmiennych losowych. W badaniu ich własności statystycznych nie można więc stosować zwykłych praw wielkich liczb i centralnego twierdzenia granicznego. Jak wyglądają ich odpowiedniki? 6.2 Umowa Przypomnienie: przez E µ f(x 0, X 1,...) rozumiemy wartość oczekiwaną przy rozkładzie początkowym µ. Schemat dowodu prawa wielkich liczb dla łańcuchów Markowa Krok 1. Ma miejsce zbieżność: E µ f(x n ) E π f(x 0 ). 23

30 24 6. Twierdzenia graniczne dla łańcuchów Markowa Stąd Krok 2. Oznaczmy E µ f(x 0 ) + E µ f(x 1 ) E µ f(x n 1 ) n E π f(x 0 ). S n ( µ, f) = f(x 0 ) E µ (f(x 0 )) + f(x 1 ) E µ (f(x 1 )) f(x n 1 ) E µ (f(x n 1 )). Wystarczy pokazać, że P µ( S n ( µ, f) n ) > ε 0, ε > 0. Krok 3. Pokażemy, że Var µ( ) S n ( µ, f) n 2 0. W tym celu wystarczy pokazać, że Var µ( ) S n ( µ, f) σ 2( π, f ), n gdzie szereg jest zbieżny. Krok 4. Szereg jest bezwzględnie zbieżny. σ 2( π, f ) = Var π( ) f(x 0 ) + 2 σ 2( π, f ) = Var π( ) f(x 0 ) + 2 Cov π( f(x 0 ), f(x k ) ) k=1 Cov π( f(x 0 ), f(x k ) ) k=1 Krok 5. Krok 6. Krok 6. Var µ( ) f(x n ) Var π( ) f(x 0 ). Cov µ( f(x n j ), f(x n ) ) Cov π( f(x 0 ), f(x j ) ). Var µ( ) S n+1 ( µ, f) Var µ( ) S n ( µ, f) = = Var π( ) n 1 f(x n ) + 2 Cov π( f(x k ), f(x n ) ) σ 2( π, f ). k=0

31 Centralne twierdzenie graniczne dla łańcuchów Markowa 25 Centralne twierdzenie graniczne dla łańcuchów Markowa

32 26 6. Twierdzenia graniczne dla łańcuchów Markowa

33 7. Procesy stacjonarne Definicja procesu stacjonarnego 27

34 28 7. Procesy stacjonarne Przekształcenie zachowujące miarę

35 Zbiory i funkcje T -niezmiennicze 29 Zbiory i funkcje T -niezmiennicze

36 30 7. Procesy stacjonarne Przykłady przekształceń zachowujących miarę 7.11 Przykład Obrót o kąt 2πα T α : S 1 S 1, T α (s) = s e 2πiα, zachowuje miarę Lebesgue a na S Przykład Przekształcenie piekarza T : [0, 1) [0, 1) [0, 1) [0, 1), { (2x, y/2) dla 0 x < 1 T (x, y) = 2 (2 2x, 1 y/2) dla 1 2 x < 1. T zachowuje miarę Lebesgue a na [0, 1) 2. Ułamki łańcuchowe 7.13 Przykład Część ułamkowa odwrotności i miara Gaussa Niech X = [0, 1]\Q (liczby niewymierne z odcinka [0, 1]). Określamy T : X X jako część ułamkową odwrotności: T (x) = 1 1 { 1 x =. x x} T zachowuje miarę Gaussa o gęstości p T (x) = (ln 2) 1 /(1 + x). Niech f : X N będzie określone wzorem 1 f(x) = = x 1 x T (x). Wtedy 1 x = f(x) + T (x) = 1 =... 1 f(x) + f(t (x)) + T (T (x)) Tak więc wartości trajektorii procesu stacjonarnego f(x), f(t (x)), f(t 2 (x)),... to kolejne redukty rozwinięcia liczby niewymiernej x w ułamek łańcuchowy x = a 1 (x) + a 2 (x) + Często zapisujemy powyższy związek w postaci lub, w notacji Pringsheima, 1 1 a 3 (x) a 4 (x) + x = [0; a 1 (x), a 2 (x), a 3 (x),...], x = a 1 (x) + 1 a 2 (x) + 1 a 3 (x) +.

37 8. Indywidualne twierdzenie ergodyczne Indywidualne twierdzenie ergodyczne Komentarze i uzupełnienia do tw. ergodycznego I dla procesu stacjonarnego X 0, X 1, X 2,... składa się ze zbiorów A F, które są równe P-p.w. zbiorowi postaci X 1 (B), gdzie B jest podzbiorem R niezmienniczym dla przesunięcia w lewo. Pokażemy później, że dla ciągu niezależnych zmiennych losowych o jednakowych rozkładach, E ( X 0 I ) = EX 0. Stąd wynika, że prawo wielkich liczb Kołmogorowa wynika z tw. ergodycznego. Przypomnijmy, że dla całkowalnej zmiennej losowej X : (ω, FP) (R 1, B 1 ) i σ- algebry G F, warunkowa wartość oczekiwana E ( X G ) zmiennej X względem G jest jedyną (z dokładnością do równości P-p.w.) zmienną losową Y, która spełnia następujące warunki: Y jest G-mierzalna. EY 1I G = EX1I G dla każdego G G. 31

38 32 8. Indywidualne twierdzenie ergodyczne Maksymalne twierdzenie ergodyczne Przekształcenia i procesy ergodyczne

39 Przekształcenia i procesy ergodyczne 33

40 34 8. Indywidualne twierdzenie ergodyczne

41 9. Kompletna losowość - proces punktowy Poissona Punktowy proces Poissona 35

42 36 9. Kompletna losowość - proces punktowy Poissona Proces Poissona 9.3 Przykład Rozważmy następujące obiekty: G = [0, T ] R +. U 1, U 2, U 3,... - zmienne niezależne o rozkładzie jednostajnym na [0, T ]. ν - niezależną od {U j } zmienną losową o rozkładzie Poissona Po(λ T ), gdzie λ > 0. Wtedy wzór R + A N(A) = ν k=1 1I A (U k ) zadaje punktowy proces Poissona na [0, T ]. Określamy N t := N([0, t]), t [0, T ]. Proces stochastyczny {N t } t [0,T ] ma następujące własności: Dla dowolnych 0 s < t T N t N s Po(λ(t s)). Dla dowolnych 0 t 1 < t 2 t 3 < t 4... t 2n 1 < t 2n T zmienne losowe N t2 N t1, N t4 N t3,..., N t2n N t2n 1 są niezależne (czyli {N t } jest procesem o przyrostach niezależnych). Trajektorie [0, T ] t N t (ω) N są niemalejące i prawostronnie ciągłe.

43 Proces Poissona Twierdzenie Proces Poissona istnieje. Idea dowodu: Dla każdego k N niech N k będzie procesem punktowym Poissona zbudowanym na zbiorze G k = [k 1, k) R +, i niech procesy N k, k = 1, 2,... będą niezależne. Kładziemy: N t = N k ( ) [0, t]. k=1 Wymagane własności dostajemy wprost z definicji. Stwierdzamy również, że: 9.6 Twierdzenie Prawie wszystkie trajektorie procesu Poissona startują z wartości 0, rosną skokami i ich skoki N t = N t N t są równe zero lub jeden.

44 38 9. Kompletna losowość - proces punktowy Poissona Momenty skoku procesu Poissona 9.9 Uwaga Można pokazać, że rozkłady skończenie wymiarowe ciągu T 1, T 2, T 3,... są identyczne z rozkładami skończenie wymiarowymi ciągu W 1, W 1 +W 2, W 1 +W 2 +W 3,..., gdzie W 1, W 2, W 3,... są niezależne i mają rozkład wykładniczy Ex(λ). Wynika stąd w szczególności, że w procesie Poissona czasy oczekiwania T 1, T 2 T 1, T 3 T 2,... są niezależne i mają rozkład wykładniczy Ex(λ). Alternatywna konstrukcja procesu Poissona 9.10 Twierdzenie Niech W 1, W 2,..., W r.... Ex(λ) będą niezależne. Definiujemy N t (ω) = 0 na zbiorze {ω ; 0 t < W 1 } oraz N t (ω) = k na zbiorze {ω ; W 1 (ω) W k (ω) t < W 1 (ω) W k (ω) + W k+1 (ω)}. Wtedy proces {N t } t R + jest procesem Poissona.

45 10. Systemy kolejkowe i inne modele oparte na procesie Poissona System obsługi masowej 10.1 Motywacja Dany jest system obsługi masowej (serwer sieciowy, kasa w supermarkecie itp.), do którego w chwilach T 1, T 1 + T 2, T 1 + T 2 + T 3,... napływają zadania do realizacji (programy do uruchomienia, klienci itp.). Realizacja k-tego zadania wymaga czasu S k. Uzasadnione jest założenie, że zmienne S 1, S 2, S 3 są niezależne o jednakowych rozkładach ν, i że proces {S k } jest niezależny od procesu na wejściu. Badane są m.in. Liczba zadań Q t znajdujących się w systemie (czyli długość kolejki) w chwili t (łącznie z realizowanym zadaniem). Średnia długość kolejki Q t = 1 t t 0 Q s ds, 1 t Q = lim Q s ds. t t 0 Średni czas oczekiwania na realizację zadania (średni czas spędzany przez klienta w kolejce). Średni czas między dwoma okresami, gdy nie ma kolejki. 39

46 Systemy kolejkowe i inne modele Systemy kolejkowe O systemie M/G/1 Niech L ν (θ) - transformata Laplace a rozkładu czasu obsługi ν. Dla każdego n 0, niech X n będzie liczbą klientów pozostających w systemie w chwili, gdy zakończono obsługę n-tego klienta. Mamy: X n+1 = X n + Y n+1 1I {Xn>0}, n 0, gdzie Y n jest liczbą klientów, którzy przybyli podczas obsługi n-tego klienta Lemat Zmienne losowe Y 1, Y 2, Y 3,..., są niezależne i mają jednakowe rozkłady o funkcji generującej momenty A(z) = Ez Y j = L ν ( λ(1 z) ), i wartości oczekiwanej EY j = λ 0 x dν(x)=: ρ. Co więcej, dla każdego n 0, zmienne Y n+1, Y n+2, Y n+3,... są niezależne od X 0, X 1,..., X n.

47 Model Cramera-Lundberga 41 Model Cramera- Lundberga Żądania odszkodowań pojawiają się w momentach T 1, T 1 + T 2, T 1 + T 2 + T 3,..., gdzie T j Ex(λ), j = 1, 2, 3,... i są niezależne. Wysokość odszkodowania w chwili T 1 + T T j wynosi X j, gdzie {X j } jest ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie, o skończonych E(X j ) = µ i D 2 (X j ) = σ 2, który jest niezależny od od {T j }. N(t) = sup{n 1 ; T 1 + T T n t} jest procesem Poissona opisującym liczbę żądań odszkodowań do momentu t, S(t) = { N(t) i=1 X i, jeśli N(t) > 0, 0, jeśli N(t) = 0, oznacza skumulowane kwoty wypłat towarzystwa ubezpieczeniowego do momentu t, U(t) = u + ct S(t) jest procesem ryzyka (niepewności), gdzie u jest kapitałem początkowym towarzystwa ubezpieczeniowego, a c tempem zbierania składek. Prawdopodobieństwo ruiny w czasie T (może być T = ) wyraża się wzorem Ψ(u, T ) = P ( ω ; t (0,T ] U(t, ω) < 0 ).

48 Systemy kolejkowe i inne modele Zadanie:Chcemy oszacować Ψ(u, T ) w zależności od c i parametrów modelu oraz zminimalizować Ψ(u, T ) przy rozsądnym c Lemat EU(t) = u + ct µλt = u + (c µλ)t Wniosek Rozsądnym wyborem ubezpieczyciela jest c µλ. Niech teraz T =. Wtedy Ψ(u, ) = P ( ω ; t>0 U(t, ω) < 0 ) = P ( ω ; n N u + c ( T 1 (ω) T n (ω) ) n X i (ω) < 0 ) i=1 = P ( n ( ω ; n N u + cti (ω) X i (ω) ) < 0 ) i=1 Takie prawdopodobieństwa można przybliżać stosując metodę Monte Carlo.

49 11. L 2 procesy L 2 procesy i ich charakterystyki Przypomnijmy, że proces stochastyczny {X t } t T nazywamy gaussowskim, jeśli każda skończona liniowa kombinacja α 1 X t1 + α 2 X t α m X tm ma rozkład normalny na R 1 (może to być rozkład zdegenerowany do punktu). Z własności rozkładów normalnych wynika, że: Każdy proces gaussowski jest L 2 procesem. Funkcje m t i K(s, t) procesu gaussowskiego {X t } w pełni określają jego rozkłady skończenie wymiarowe. Funkcja kowariancji L 2 procesu 11.2 Twierdzenie Funkcja kowariancji L 2 procesu jest nieujemnie określona na T T, tzn. dla każdego wyboru chwil t 1, t 2,..., t m T i dowolnych liczb zespolonych z 1, z 2,..., z m 43

50 L 2 procesy C 1 1 j,k m K(t j, t k )z j z k Przykład Funkcja R + R + K(s, t) = σ 2 (s t) R jest nieujemnie określona, bo K(s, t) = e s, e t H w pewnej przestrzeni Hilberta H. Przykłady procesów gaussowskich 11.5 Definicja Procesem Wienera (niesłusznie czasami nazywanym ruchem Browna) nazywamy scentrowany (EW t = 0) proces gaussowski o funkcji kowariancji EW s W t = σ 2 (s t) Wniosek Proces Wienera ma niezależne przyrosty, tzn. dla dowolnych liczb 0 < t 1 < t 2 < t 3 <... < t m niezależne są zmienne losowe W t1, W t2 W t1, W t3 W t2,..., W tm W tm Uwaga Funkcja kowariancji procesu Wienera jest identyczna z funkcją kowariancji scentrowanego procesu Poissona X t = N t t, t R +.

51 L 2 procesy stacjonarne w szerokim sensie Definicja Ułamkowym ruchem Browna z parametrem Hursta H (0, 1) nazywamy scentrowany proces gaussowski {Bt H } t R + o funkcji kowariancji ( ) EB H s B H t = 1 2{ t 2H + s 2H t s 2H} Uwaga Nie jest łatwo sprawdzić, że ( ) zadaje funkcję nieujemnie określoną Wniosek Ułamkowy ruch Browna z parametrem H = 1/2 jest procesem Wienera. Dla H > 1/2 przyrosty {B H t } są dodatnio skorelowane. Dla H < 1/2 przyrosty {B H t } są ujemnie skorelowane. L 2 procesy stacjonarne w szerokim sensie

52 L 2 procesy Miara i gęstość spektralna L 2 procesu

53 12. Wstęp do teorii martyngałów Pojęcie filtracji 47

54 Wstęp do teorii martyngałów Momenty zatrzymania

55 Gra sprawiedliwa 49 Gra sprawiedliwa Martyngał jako gra sprawiedliwa

56 Wstęp do teorii martyngałów 12.8 Przykład Niech Z 0, Z 1,... będzie ciągiem całkowalnych i niezależnych zmiennych losowych. Kładziemy X j = Z 0 + Z Z j, F j = σ{x i ; i j} ( = σ{z i ; i j} ) Przykład Niech X 1 (P) i niech {F j } będzie filtracją. Kładziemy X j = E(X F j ), j N. Martyngał, który można w taki sposób przedstawić, nazywamy regularnym Definicja Niech {X j } będzie procesem stochastycznym, a τ momentem zatrzymania. Procesem zatrzymanym w momencie τ nazywamy proces {X τ j = X τ j}, czyli Twierdzenie X τ j (ω) = X τ(ω) j (ω). Jeżeli {X j } jest adaptowany do filtracji {F j }, a τ jest momentem zatrzymania względem tej filtracji, to proces zatrzymany {X τ j } też jest adaptowany do {F j}. Jeżeli {X j } jest {F j }-martyngałem, a τ momentem zatrzymania względem {F j }, to proces zatrzymany {X τ j } też jest {F j}-martyngałem Wniosek Dla martyngału zatrzymanego w dowolnym momencie zatrzymania τ N mamy EX τ = EX τ N = EX τ N = EX τ 0 = EX τ 0 = EX Twierdzenie Proces stochastyczny {X j } jest grą sprawiedliwą dokładnie wtedy, gdy jest martyngałem.

57 13. Zbieżność martyngałów Nierówność maksymalna dla podmartyngałów 13.2 Przykład Jeśli {Y j } jest martyngałem, to {X j = Y j } jest podmartyngałem Przykład Jeśli {Y j } jest martyngałem, to {X j = Yj 2 } jest podmartyngałem. 51

58 Zbieżność martyngałów Nierówność Dooba

59 Wnioski z twierdzenia Dooba 53 Wnioski z twierdzenia Dooba 13.7 Wniosek (Kołmogorow, Chińczyn) Jeżeli Z 1, Z 2,... są niezależnymi zmiennymi losowymi, EZ j = 0, j = 1, 2,..., to warunek EXj 2 < + j=1 pociąga zbieżność P-p.w. i w L 2 (P) szeregu j=1 Z j Lemat (Kronecker) Jeśli szereg liczbowy n=1 a nn jest zbieżny, to a 1 + a a n n Twierdzenie (Kołmogorow) Jeżeli Z 1, Z 2,... są niezależnymi zmiennymi losowymi i jeśli D 2 (Z n ) n 2 < +, to P-p.w. n=1 (Z 1 EZ 1 ) + (Z 2 EZ 2 ) (Z n EZ n ) n 0.

60 Zbieżność martyngałów

61 Definicja procesu Wienera 14. Proces Wienera Przypomnijmy, że zdefiniowaliśmy proces Wienera jako scentrowany proces gaussowski {W t } t R + o funkcji kowariancji Z tej definicji wynika, że: W 0 = 0 P-p.w. Przyrosty procesu Wienera są niezależne. Przyrosty są również stacjonarne: EW s W t = σ 2 (s t). W t1, W t2 W t1, W t3 W t2,..., W tm W tm 1, W t W s W t s N (0, σ 2 (t s)). Proces Wienera jest martyngałem względem filtracji naturalnej {F t } 14.1 Twierdzenie Niech {W t } t R + będzie procesem Wienera. Istnieje ciągła modyfikacja {W t} t R + procesu {W t }. Innymi słowy, Dla każdego t R + zmienna losowa W t jest modyfikacją W t, tzn. Prawie wszystkie trajektorie są ciągłe jako funkcje od t R +. P(W t = W t) = 1, Ω ω {W t(ω) ; t R + } (R 1 ) R Uwagi W t jest mierzalna względem uzupełnionej σ-algebry F t. {W t} zadaje odwzorowanie z Ω do przestrzeni C ( R + : R 1). 55

62 Proces Wienera 14.3 Twierdzenie Jeżeli proces stochastyczny {X t }, ma przyrosty niezależne i stacjonarne oraz ciągłe trajektorie, to {X t } jest procesem Wienera dla pewnego σ 2 0. Powyższe twierdzenia pozwalają podać następującą, często bardziej przydatną, definicję procesu Wienera. Własności trajektorii procesu Wienera

63 Martyngałowe własności procesu Wienera 57 Martyngałowe własności procesu Wienera Proces Wienera jako granica błądzeń losowych Niech Z 1, Z 2,..., będzie ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie, EZ j = 0, EZ 2 j = σ 2. Określamy procesy sum częściowych ciągu {Z j } oraz procesy łamanych losowych S n (t) = 1 [nt] Z j, t R +, n j=1 S n (t) = S n ( k 1 n ) + n( t k 1 ) 1 n n Z k, t [k 1 n, k ), k = 1, 2,.... n 14.7 Twierdzenie Rozkłady skończenie wymiarowe procesów {S n (t)} i { S n (t)} zmierzają do rozkładów skończenie wymiarowych procesu {σ 2 W t }, gdzie {W t } jest standardowym procesem Wienera. W istocie można pokazać znacznie więcej.

64 Proces Wienera

65 Dodatek Wektory losowe 15.1 Definicja Wektorem losowym nazywamy odwzorowanie X = (X 1, X 2,..., X d ) T : (Ω, F, P ) R d, którego składowe X 1, X 2,..., X d są zmiennymi losowymi Definicja Rozkład P X wektora losowego X, to prawdopodobieństwo na R d zadane wzorem P X ((a 1, b 1 ] (a 2, b 2 ]... (a d, b d ]) = = P (a 1 < X 1 b 1, a 2 < X 2 b 2,..., a d < X d b d ) Uwaga Podobnie jak w przypadku jednowymiarowym, znajomość rozkładu wektora losowego pozwala obliczać wartości oczekiwane funkcji od wektora losowego Ef( X) Definicja 1. Wektor losowy X ma rozkład dyskretny, jeśli istnieją x 1, x 2,... R d i prawdopodobieństwa p 1, p 2,... 0, j=1 p j = 1, takie, że P ( X = x j ) = p j, j = 1, 2, Wektor losowy X ma rozkład absolutnie ciągły o gęstości p(x), jeśli dla każdego A postaci (a 1, b 1 ] (a 2, b 2 ]... (a d, b d ] P ( X A) = A p(x) dx. (Wtedy p(x) 0 l d -prawie wszędzie i p(x) dx = 1). 59

66 60 Dodatek Rozkłady łączne a rozkłady brzegowe 15.5 Definicja Rozkład P X wektora losowego X = (X 1, X 2,..., X d ) T nazywamy rozkładem łącznym zmiennych losowych X 1, X 2,..., X d. Rozkłady (jednowymiarowe) P X1, P X2,..., P Xd składowych wektora losowego nazywamy rozkładami brzegowymi rozkładu P X Uwaga Na ogół rozkłady brzegowe nie determinują rozkładu łącznego, tzn. istnieje wiele rozkładów na R d o tych samych rozkładach brzegowych (przykład!). Niezależność 15.7 Definicja Zmienne losowe X 1, X 2,..., X d są niezależne (lub stochastycznie niezależne), jeśli Ef 1 (X 1 )f 2 (X 2 ) f d (X d ) = Ef 1 (X 1 ) Ef 2 (X 2 ) Ef d (X d ). dla dowolnego układu f 1, f 2,..., f d funkcji ograniczonych na R 1 i takich, że f 1 (X 1 ), f 2 (X 2 ),..., f d (X d ) są zmiennymi losowymi. Rodzina zmiennych losowych {X i } i I jest niezależna, jeśli każda jej skończona podrodzina składa się ze zmiennych losowych niezależnych Twierdzenie Niech X 1, X 2,..., X d będą zmiennymi losowymi określonymi na tej samej przestrzeni probabilistycznej (Ω, F, P ). Następujące warunki są równoważne: (i) Zmienne X 1, X 2,..., X d są niezależne. (ii) Dla dowolnych liczb x 1, x 2,..., x d ma miejsce równość P (X 1 x 1, X 2 x 2,..., X d x d ) = P (X 1 x 1 )P (X 2 x 2 ) P (X d x d ). Kryteria niezależności 15.9 Definicja Dystrybuantą wektora losowego X nazywamy funkcję R d x = (x 1, x 2,..., x d ) T F X (x) = P (X 1 x 1, X 2 x 2,..., X d x d ) Uwaga Na mocy warunku (ii) twierdzenia 15.8, zmienne losowe są niezależne dokładnie wtedy, gdy dystrybuanta ich rozkładu łącznego jest iloczynem dystrybuant rozkładów brzegowych. W dalszym ciągu nie będziemy jednak zajmować się dystrybuantami rozkładów na R d, gdyż są one znacznie mniej wygodnym narzędziem niż dystrybuanty na R 1.

67 Niezależność zdarzeń Fakt Jeżeli zmienne losowe X 1, X 2,..., X d są niezależne, to dla (prawie) dowolnych funkcji g 1, g 2,..., g d, zmienne losowe też są niezależne. g 1 (X 1 ), g 2 (X 2 ),..., g d (X d ) Twierdzenie Niech rozkłady zmiennych X 1, X 2,..., X d będą dyskretne. Zmienne losowe X 1, X 2,..., X d są niezależne dokładnie wtedy, gdy dla dowolnych x 1, x 2,..., x d R 1 ma miejsce związek P (X 1 = x 1, X 2 = x 2,..., X d = x d ) = P (X 1 = x 1 )P (X 2 = x 2 ) P (X d = x d ) Twierdzenie Niech rozkłady zmiennych X 1, X 2,..., X d będą absolutnie ciągłe z gęstościami p 1 (x), p 2 (x),..., p d (x). Zmienne losowe X 1, X 2,..., X d są niezależne dokładnie wtedy, gdy rozkład łączny tych zmiennych jest absolutnie ciągły i jego gęstość ma postać p X (x 1, x 2,..., x d ) = p 1 (x 1 )p 2 (x 2 ) p d (x d ). Niezależność zdarzeń Definicja Rodzina zdarzeń {A i } i I jest niezależna, jeśli funkcje charakterystyczne {I Ai } i I tych zdarzeń są niezależne Twierdzenie Zdarzenia {A i } i I są niezależne dokładnie wtedy, gdy dla dowolnego skończonego podzbioru I 0 I ( ) P A i = Π i I0 P (A i ). i I Definicja Zmienne losowe {X i } i I są niezależne parami, jeśli dla każdych i, j I, i j, zmienne X i i X j są niezależne. Podobnie, zdarzenia {A i } i I sa niezależne parami, jeśli każde dwa zdarzenia A i i A j, i j są niezależne Przykład Istnieją zdarzenia niezależne parami, ale zależne zespołowo (mówi o tym np. przykład Bernsteina). Całka iloczynu niezależnych zmiennych losowych Twierdzenie (O mnożeniu wartości oczekiwanych) Jeżeli zmienne losowe X i Y są niezależne i całkowalne, to iloczyn XY jest całkowalną zmienną losową i EXY = EX EY.

68 62 Dodatek Uwaga Bez założenia o niezależności warunek dostateczny dla całkowalności iloczynu XY odwołuje się do tzw. nierówności Höldera Wniosek Niech X 1, X 2,..., X d będą niezależne. Jeżeli funkcje f i sa takie, że E f i (X i ) < +, i = 1, 2,..., d, to Ef 1 (X 1 )f 2 (X 2 ) f d (X d ) = Ef 1 (X 1 ) Ef 2 (X 2 ) Ef d (X d ). Wielowymiarowe rozkłady normalne Definicja Niech X 1, X 2,..., X d będą zmiennymi losowymi określonymi na wspólnej przestrzeni probabilistycznej (Ω, F, P ). Mówimy, że rozkład łączny zmiennych X 1, X 2,..., X d jest normalny, albo że wektor X = (X 1, X 2,..., X d ) T ma d-wymiarowy rozkład normalny, jeśli dowolna kombinacja liniowa α 1 X 1 + α 2 X α d X d zmiennych X 1, X 2,..., X d ma jednowymiarowy rozkład normalny, tzn. gdzie α = (α 1, α 2,..., α d ) T. α 1 X 1 + α 2 X α d X d N (m α, σ 2 α ), Uwaga Dopuszczamy przypadek σ 2 α = 0. Z definicji N (m, 0) = δ m Definicja Rodzinę zmiennych losowych {X i } i I nazywamy gaussowską, jeśli dla każdego skończonego podzbioru {i 1, i 2,..., i m } I zmienne X i1, X i2,..., X id mają łączny rozkład normalny Uwaga Biorąc α = (0,..., 0, 1, 0,..., 0) T, otrzymujemy, że składowe X k mają rozkład N (m k, σk 2 ). W ogólności, m α = E(α 1 X 1 + α 2 X α d X d ) = E α, X = α, E X. Podobnie σ 2 α = Var ( α, X ) = α, Cov ( X) α Twierdzenie Jeżeli m R d i Σ jest odwzorowaniem liniowym na R d, symetrycznym i nieujemnie określonym, to istnieje wektor losowy X o rozkładzie normalnym, który spełnia związki E X = m, Cov ( X) = Σ Uwaga Niech µ będzie rozkładem na R d. Funkcja charakterystyczna µ określona jest wzorem R d y φ µ (y) := e i y,x dµ(x). R d Funkcje charakterystyczne na R d mają własności podobne jak w przypadku jednowymiarowym. W szczególności, identyfikują rozkłady, tj. φ µ = φ ν pociąga µ = ν

69 Przestrzenie funkcji całkowalnych Twierdzenie Rozkład wektora losowego X jest normalny wtedy i tylko wtedy, gdy istnieje m R d i odwzorowanie liniowe Σ : R d R d, symetryczne i nieujemnie określone, takie że Ee i y, X = e i y,m (1/2) y,σ y. W takim przypadku, E X = m, Cov ( X) = Σ Uwaga Na mocy powyższego twierdzenia wielowymiarowy rozkład normalny wyznaczony jest przez wartość oczekiwaną i operator kowariancji. Dlatego uprawnione jest oznaczenie X N (m, Σ) Twierdzenie Wielowymiarowy rozkład normalny N (m, Σ) jest absolutnie ciągły dokładnie wtedy, gdy det Σ 0 (tj. odwzorowanie Σ jest nieosobliwe). W takim przypadku jego gęstość wyraża się wzorem p m,σ (x) = ( 1 ( 1 exp 1 ) 2π) d det Σ 2 x m, Σ 1 (x m Twierdzenie Niech zmienne losowe X 1, X 2,..., X d maja łączny rozkład normalny. Wówczas X 1, X 2,..., X d są niezależne wtedy i tylko wtedy, gdy są nieskorelowane (czyli macierz Σ jest diagonalna). Przestrzenie funkcji całkowalnych Definicja Niech (Ω, F, µ) będzie przestrzenią z miarą. Określamy przestrzeń funkcji całkowalnych. L 1 (Ω, F, µ) = L 1 (µ) = {f : (Ω, F) (R 1, B 1 ) ; f dµ < + }. Niech f g oznacza, że f = g µ-prawie wszędzie. Relacja jest relacją równoważności w L 1 (µ). Określamy przestrzeń L 1 (µ) jako przestrzeń ilorazową L 1 (µ)/ Lemat Niech f 1 = f dµ. Nieujemna funkcja 1 jest półnormą na przestrzeni L 1 (µ), tzn. spełnia następujące dwa warunki. 1. f + g 1 f 1 + g 1, f, g L 1 (µ). 2. a f 1 = a f 1, f L 1 (µ), a R 1. Funkcja 1 nie jest na ogół normą, gdyż f 1 = 0 pociąga jedynie f = 0 µ-prawie wszędzie. Stąd jednak wynika, że określając funkcję 1 : L 1 (µ) R + wzorem [f] 1 = f 1, definiujemy normę na L 1 (µ) Twierdzenie Przestrzeń (L 1 (µ), 1 ) jest zupełna (tzn. każdy ciąg Cauchy ego w normie 1 jest zbieżny). Przestrzeń ta jest więc tzw. przestrzenią Banacha.

70 64 Dodatek Definicja Niech (Ω, F, µ) będzie przestrzenią z miarą. Określamy przestrzeń funkcji całkowalnych z kwadratem. L 2 (Ω, F, µ) = L 2 (µ) = {f : (Ω, F) (R 1, B 1 ) ; f 2 dµ < + }. Podobnie jak w przypadku przestrzeni L 1, określamy L 2 (µ) jako przestrzeń ilorazową L 2 (µ)/, gdzie f g dokładnie wtedy, gdy f = g µ-prawie wszędzie Lemat Niech f, g = f g dµ i f 2 = f 2 dµ. Funkcja f, g jest formą dwuliniową i symetryczną, a 2 jest półnormą na przestrzeni L 2 (µ). Tak więc określając [f], [g] = f, g otrzymujemy iloczyn skalarny na przestrzeni L 2 (µ) Uwaga Dla funkcji całkowalnych z kwadratem o wartościach zespolonych iloczyn skalarny w L 2 (µ) zadajemy wzorem f, g = fg dµ Twierdzenie Przestrzeń (L 2 (µ), 2 ) jest zupełna (jest więc przestrzenią Hilberta) Przykład Jeżeli µ jest miarą Lebesgue a na R d, to odpowiednie przestrzenie funkcyjne oznaczamy symbolami L 1 (R d ) i L 2 (R d ). Podobnie, jeśli rozważamy miarę Lebesgue a na podzbiorze A R d, piszemy L 2 (A), np. L 2 (0, 1), L 2 (0, 2π) itp Uwaga L 1 (R 1 ) L 2 (R 1 ) i L 2 (R 1 ) L 1 (R 1 ) Przykład Niech Λ będzie miarą liczącą na N. Przestrzeń L 1 (Λ) = {f : N R 1 ; j=1 f(j) < + } oznaczamy przez l 1. Podobnie, przestrzeń L 2 (Λ) = {f : N R 1 ; j=1 f(j) 2 < + } oznaczamy przez l Fakt l 1 l 2, ale l 2 l Fakt Jeśli µ jest miarą skończoną, to L 2 (µ) L 1 (µ) Definicja Przestrzeń L p (µ), 0 < p < +, dla przestrzeni z miarą (Ω, F, µ) określamy jako L p (µ) = {f : (Ω, F) (R 1, B 1 ) ; f p dµ < + }. Podobnie jak w przypadku przestrzeni L 1 i L 2, określamy L p (µ) jako przestrzeń ilorazową L p (µ)/, gdzie f g wtedy, gdy f = g µ-prawie wszędzie Uwagi

71 Przestrzenie funkcji całkowalnych Dla 0 < p < 1, przestrzenie L p (µ) są zupełnymi przestrzeniami metrycznymi z metryką d p (f, g) = f g p dµ. 2. Dla 1 p < +, przestrzenie L p (µ) są zupełnymi przestrzeniami unormowanymi (przestrzeniami Banacha) z normą określoną wzorem ( f p = f p dµ) 1/p. Fakt, że tak określona funkcja spełnia nierówność trójkąta nie jest oczywisty Fakt (Nierówność Minkowskiego) Niech p [1, ). Jeżeli f p, g p < +, to f + g p f p + g p. Nierówność Minkowskiego wynika z kolei z Fakt (Nierówność Höldera) Niech p, q > 1 będą takie, że 1 p + 1 q = 1. Dla dowolnych funkcji numerycznych na (Ω, F, µ) ( f g dµ ) 1/p ( f p dµ g q dµ) 1/q Wniosek Jeżeli f L p (µ) i g L q (µ), gdzie 1/p + 1/q = 1, to f g L 1 (µ) Uwaga Można pokazać, że nierówność Höldera wynika z nierówności Jensena Fakt (Nierówność Jensena) Niech φ : R 1 R 1 będzie funkcją wypukłą. Niech µ będzie miarą probabilistyczną na (R 1, B 1 ) taką, że x dµ(x) < +. Wówczas φ( x dµ(x)) φ(x) dµ(x) Wniosek Jeżeli µ jest miarą probabilistyczną na R 1 i 1 p r < +, to x p dµ(x) x r dµ(x).

72 66 Dodatek Rodzaje zbieżności funkcji mierzalnych i relacje między nimi Ciągi funkcji mierzalnych rozważane w niniejszym paragrafie są określone na wspólnej przestrzeni z miarą (Ω, F, µ) Definicja Mówimy, że f n f 0 µ-prawie wszędzie, jeśli istnieje zbiór Ω 0 F taki, że µ(ω c 0 ) = 0 i dla każdego ω Ω 0, f n (ω) f 0 (ω) Definicja Ciąg f n jest zbieżny do f 0 według miary, jeśli dla każdego ε > 0 µ{ω ; f n (ω) f 0 (ω) > ε} 0, gdy n +. Zapisujemy: f n µ f Definicja Zbieżność w L p, 0 < p < +, to zbieżność w przestrzeni L p (µ). Tak więc f n L p f 0 wtedy i tylko wtedy, gdy f n f 0 p dµ 0, gdy n Fakt Jeżeli µ jest miarą skończoną, to zbieżność w L r, r > 0 pociąga zbieżność w L p, 0 < p r Fakt Zbieżność w L p pociąga zbieżność według miary Uwaga Zbieżność według miary nie pociąga zbieżności w L 1 ani zbieżności prawie wszędzie Fakt Jeżeli miara µ jest skończona, to zbieżność µ-prawie wszędzie pociąga zbieżność według miary µ. Jeśli miara µ jest nieskończona, zbieżność prawie wszędzie nie pociąga w ogólności zbieżności według miary Twierdzenie (Riesza-Fischera) Ciąg zbieżny według miary zawiera podciąg zbieżny prawie wszędzie Wniosek Niech µ będzie miarą skończoną. Wówczas ciąg {f n } jest zbieżny według miary do f 0 wtedy i tylko wtedy, gdy w każdym podciągu {f nk } ciągu {f n } można znaleźć podciąg {f nkl } zbieżny do f 0 prawie wszędzie. Warunkowa wartość oczekiwana zmiennej losowej Definicja Niech (Ω, F, P) będzie przestrzenią probabilistyczną i niech G F. Jeżeli E X 2 < +, to E ( X G ) jest rzutem zmiennej X na podprzestrzeń L 2 (Ω, G, P) zmiennych losowych G mierzalnych i całkowalnych z kwadratem.

73 Transformata Laplace a Uwaga Z definicji wynika, że dla dowolnego Y L 2 (Ω, G, P) X E ( X G ) Y, tzn. X E ( X G ), Y = E ( X E ( X G )) Y = 0. lub równoważnie EXY = EE ( X G )) Y. Dla spełnienia powyższej równości wystarczy, aby była ona prawdziwa tylko dla Y postaci Y = 1I C, gdzie C G Definicja Warunkową wartość oczekiwaną zmiennej losowej Y L 1 (Ω, F, P) względem G F określamy jako jedyną (P -p.w.) G mierzalną zmienną losową Z taką, że dla dowolnego C G EX1I C = EZ1I C Wniosek Niech G H F. Wtedy E ( E ( X H ) G ) = E ( X G ) Wniosek Jeżeli Y jest G mierzalna, Y K dla pewnej stałej K > 0 oraz X jest całkowalna, to wtedy E ( Y X G ) = Y E ( X G ). Transformata Laplace a Definicja Jeżeli X 0, to transformatą Laplace a zmiennej losowej X (w istocie jej rozkładu) nazywamy funkcję R + θ L X (θ) = Ee θx = + 0 e θx dp X (x) R Twierdzenie Jeżeli L X = L Y, to P X = P Y (tzn. transformata Laplace a identyfikuje rozkłady) Twierdzenie Jeżeli X i Y są niezależnymi zmiennymi losowymi, to L X+Y (θ) = L X (θ) L Y (θ) Fakt Niech zmienna losowa X ma rozkład gamma Γ(α, λ) o gęstości g α,λ (s) = λα Γ(α) sα 1 e λs 1I (0, ) (s). Wtedy transformata Laplace a X ma postać ( ) λ α L X (θ) =. θ + λ

74 68 Dodatek

75 Literatura Literatura podstawowa 1. J. Jakubowski i R. Sztencel Wstęp do teorii prawdopodobieństwa, Script, Warszawa S. I. Resnick, Adventures in Stochastic Processes, Birkhäuser, Literatura uzupełniająca 1. A.A. Borowkow, Rachunek prawdopodobieństwa, PWN, Warszawa O. Häggström, Finite Markov chains and algorithmic applications, Cambridge University Press, Cambridge

Procesy stochastyczne

Procesy stochastyczne Wykład I: Istnienie procesów stochastycznych 2 marca 2015 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane są

Bardziej szczegółowo

Procesy stochastyczne

Procesy stochastyczne Wykład I: Istnienie procesów stochastycznych 21 lutego 2017 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład IV: 27 października 2014 Współczynnik korelacji Brak korelacji a niezależność Definicja współczynnika korelacji Współczynnikiem korelacji całkowalnych z kwadratem zmiennych losowych X i Y nazywamy

Bardziej szczegółowo

Statystyka i eksploracja danych

Statystyka i eksploracja danych Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu w dziedzinach matematyczno-przyrodniczych realizowany w ramach Poddziałania 4.1.1 Programu Operacyjnego Kapitał Ludzki Statystyka i eksploracja

Bardziej szczegółowo

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ. Zadania z Procesów Stochastycznych 1 1. Udowodnij, że z prawdopodobieństwem 1 trajektorie procesu Poissona są niemalejące, przyjmują wartości z Z +, mają wszystkie skoki równe 1 oraz dążą do nieskończoności.

Bardziej szczegółowo

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ. Zadania z Procesów Stochastycznych 1 1. Udowodnij, że z prawdopodobieństwem 1 trajektorie procesu Poissona są niemalejące, przyjmują wartości z Z +, mają wszystkie skoki równe 1 oraz dążą do nieskończoności.

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład VII: Rozkład i jego charakterystyki 22 listopada 2016 Uprzednio wprowadzone pojęcia i ich własności Definicja zmiennej losowej Zmienna losowa na przestrzeni probabilistycznej (Ω, F, P) to funkcja

Bardziej szczegółowo

Procesy stochastyczne

Procesy stochastyczne Wykład IV: dla łańcuchów Markowa 14 marca 2017 Wykład IV: Klasyfikacja stanów Kiedy rozkład stacjonarny jest jedyny? Przykład Macierz jednostkowa I wymiaru #E jest macierzą stochastyczną. Dla tej macierzy

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład XIII: Prognoza. 26 stycznia 2015 Wykład XIII: Prognoza. Prognoza (predykcja) Przypuśćmy, że mamy dany ciąg liczb x 1, x 2,..., x n, stanowiących wyniki pomiaru pewnej zmiennej w czasie wielkości

Bardziej szczegółowo

Prawa wielkich liczb, centralne twierdzenia graniczne

Prawa wielkich liczb, centralne twierdzenia graniczne , centralne twierdzenia graniczne Katedra matematyki i ekonomii matematycznej 17 maja 2012, centralne twierdzenia graniczne Rodzaje zbieżności ciągów zmiennych losowych, centralne twierdzenia graniczne

Bardziej szczegółowo

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Niech Ω będzie przestrzenią zdarzeń elementarnych. Definicja 1 Rodzinę S zdarzeń losowych (zbiór S podzbiorów zbioru

Bardziej szczegółowo

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy bez pamięci w których czas i stany są zbiorami dyskretnymi. Procesy stochastyczne WYKŁAD 2-3 Łańcuchy Markowa Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi. Przykład Symetryczne błądzenie przypadkowe na prostej. 1 2 Łańcuchem

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład II: Zmienne losowe i charakterystyki ich rozkładów 13 października 2014 Zmienne losowe Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Definicja zmiennej losowej i jej

Bardziej szczegółowo

8 Całka stochastyczna względem semimartyngałów

8 Całka stochastyczna względem semimartyngałów M. Beśka, Całka Stochastyczna, wykład 8 148 8 Całka stochastyczna względem semimartyngałów 8.1 Całka stochastyczna w M 2 Oznaczmy przez Ξ zbiór procesów postaci X t (ω) = ξ (ω)i {} (t) + n ξ i (ω)i (ti,

Bardziej szczegółowo

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy bez pamięci w których czas i stany są zbiorami dyskretnymi. Procesy stochastyczne WYKŁAD 2-3 Łańcuchy Markowa Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi. 2 Łańcuchem Markowa nazywamy proces będący ciągiem zmiennych

Bardziej szczegółowo

Statystyka i eksploracja danych

Statystyka i eksploracja danych Wykład II: i charakterystyki ich rozkładów 24 lutego 2014 Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa,

Bardziej szczegółowo

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład Rozdział 1 Wektory losowe 1.1 Wektor losowy i jego rozkład Definicja 1 Wektor X = (X 1,..., X n ), którego każda współrzędna jest zmienną losową, nazywamy n-wymiarowym wektorem losowym (krótko wektorem

Bardziej szczegółowo

F t+ := s>t. F s = F t.

F t+ := s>t. F s = F t. M. Beśka, Całka Stochastyczna, wykład 1 1 1 Wiadomości wstępne 1.1 Przestrzeń probabilistyczna z filtracją Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną i niech F = {F t } t 0 będzie rodziną

Bardziej szczegółowo

4 Kilka klas procesów

4 Kilka klas procesów Marek Beśka, Całka Stochastyczna, wykład 4 48 4 Kilka klas procesów 4.1 Procesy rosnące i przestrzenie V,, loc Jak poprzednio niech (Ω, F, F, P ) będzie zupełną bazą stochastyczną. Definicja 4.1 Proces

Bardziej szczegółowo

Układy stochastyczne

Układy stochastyczne Instytut Informatyki Uniwersytetu Śląskiego 21 stycznia 2009 Definicja Definicja Proces stochastyczny to funkcja losowa, czyli funkcja matematyczna, której wartości leżą w przestrzeni zdarzeń losowych.

Bardziej szczegółowo

Ważne rozkłady i twierdzenia c.d.

Ważne rozkłady i twierdzenia c.d. Ważne rozkłady i twierdzenia c.d. Funkcja charakterystyczna rozkładu Wielowymiarowy rozkład normalny Elipsa kowariacji Sploty rozkładów Rozkłady jednostajne Sploty z rozkładem normalnym Pobieranie próby

Bardziej szczegółowo

Lista 1. Procesy o przyrostach niezależnych.

Lista 1. Procesy o przyrostach niezależnych. Lista. Procesy o przyrostach niezależnych.. Niech N t bedzie procesem Poissona o intensywnoci λ = 2. Obliczyć a) P (N 2 < 3, b) P (N =, N 3 = 6), c) P (N 2 = N 5 = 2), d) P (N =, N 2 = 3, N 4 < 5), e)

Bardziej szczegółowo

Zadania z Procesów Stochastycznych 1

Zadania z Procesów Stochastycznych 1 Zadania z Procesów Stochastycznych 1 Definicja Procesem Poissona z parametrem (intensywnością) λ > 0 nazywamy proces stochastyczny N = (N t ) t 0 taki, że N 0 = 0; (P0) N ma przyrosty niezależne; (P1)

Bardziej szczegółowo

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności RAP 412 14.01.2009 Wykład 11: Martyngały: definicja, twierdzenia o zbieżności Wykładowca: Andrzej Ruciński Pisarz:Mirosława Jańczak 1 Wstęp Do tej pory zajmowaliśmy się ciągami zmiennych losowych (X n

Bardziej szczegółowo

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski Modelowanie zależności pomiędzy zmiennymi losowymi Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski P Zmienne losowe niezależne - przypomnienie Dwie rzeczywiste zmienne losowe X i Y

Bardziej szczegółowo

Spacery losowe generowanie realizacji procesu losowego

Spacery losowe generowanie realizacji procesu losowego Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z

Bardziej szczegółowo

Zadania z Rachunku Prawdopodobieństwa III - 1

Zadania z Rachunku Prawdopodobieństwa III - 1 Zadania z Rachunku Prawdopodobieństwa III - 1 Funkcją tworzącą momenty (transformatą Laplace a) zmiennej losowej X nazywamy funkcję M X (t) := Ee tx, t R. 1. Oblicz funkcję tworzącą momenty zmiennych o

Bardziej szczegółowo

Parametr Λ w populacji ubezpieczonych ma rozkład dany na półosi dodatniej gęstością: 3 f

Parametr Λ w populacji ubezpieczonych ma rozkład dany na półosi dodatniej gęstością: 3 f Zadanie. W kolejnych latach t =,,,... ubezpieczony charakteryzujący się parametrem ryzyka Λ generuje N t szkód. Dla danego Λ = λ zmienne N, N, N,... są warunkowo niezależne i mają (brzegowe) rozkłady Poissona:

Bardziej szczegółowo

PRZEWODNIK PO PRZEDMIOCIE

PRZEWODNIK PO PRZEDMIOCIE Nazwa przedmiotu: Rachunek prawdopodobieństwa Probability theory Kierunek: Rodzaj przedmiotu: obowiązkowy dla wszystkich specjalności Rodzaj zajęć: wykład, ćwiczenia Matematyka Poziom kwalifikacji: I stopnia

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład XIV: Metody Monte Carlo 19 stycznia 2016 Przybliżone obliczanie całki oznaczonej Rozważmy całkowalną funkcję f : [0, 1] R. Chcemy znaleźć przybliżoną wartość liczbową całki 1 f (x) dx. 0 Jeden ze

Bardziej szczegółowo

Wstęp do rachunku prawdopodobieństwa. Cz. 2 / William Feller. wyd. 4, dodr. 3. Warszawa, Spis treści

Wstęp do rachunku prawdopodobieństwa. Cz. 2 / William Feller. wyd. 4, dodr. 3. Warszawa, Spis treści Wstęp do rachunku prawdopodobieństwa. Cz. 2 / William Feller. wyd. 4, dodr. 3. Warszawa, 2012 Spis treści Przedmowa 5 Oznaczenia i konwencje 7 Rozdział I Rozkład wykładniczy i rozkład jednostajny 1. Wprowadzenie

Bardziej szczegółowo

PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω)

PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω) PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω) określonych na tej samej przestrzeni probabilistycznej

Bardziej szczegółowo

Zadania z Rachunku Prawdopodobieństwa II Podaj przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,

Zadania z Rachunku Prawdopodobieństwa II Podaj przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ, Zadania z Rachunku Prawdopodobieństwa II -. Udowodnij, że dla dowolnych liczb x n, x, δ xn δ x wtedy i tylko wtedy, gdy x n x.. Wykaż, że n n k= δ k/n λ, gdzie λ jest miarą Lebesgue a na [, ].. Podaj przykład

Bardziej szczegółowo

Wykład 3 Jednowymiarowe zmienne losowe

Wykład 3 Jednowymiarowe zmienne losowe Wykład 3 Jednowymiarowe zmienne losowe Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną Definicja 1 Jednowymiarowa zmienna losowa (o wartościach rzeczywistych), określoną na przestrzeni probabilistycznej

Bardziej szczegółowo

O procesie Wienera. O procesie Wienera. Procesy stochastyczne Wykład XV, 15 czerwca 2015 r. Proces Wienera. Ruch Browna. Ułamkowe ruchy Browna

O procesie Wienera. O procesie Wienera. Procesy stochastyczne Wykład XV, 15 czerwca 2015 r. Proces Wienera. Ruch Browna. Ułamkowe ruchy Browna Procesy stochastyczne Wykład XV, 15 czerwca 2015 r. Ruch 1 {X t } jest martyngałem dokładnie wtedy, gdy E(X t F s ) = X s, s, t T, s t. Jeżeli EX 2 (t) < +, to E(X t F s ) jest rzutem ortogonalnym zmiennej

Bardziej szczegółowo

Zadania z Rachunku Prawdopodobieństwa II Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,

Zadania z Rachunku Prawdopodobieństwa II Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ, Zadania z Rachunku Prawdopodobieństwa II -. Udowodnij, że dla dowolnych liczb x n, x, δ xn δ x wtedy i tylko wtedy, gdy x n x.. Wykaż, że n n k= δ k/n λ, gdzie λ jest miarą Lebesgue a na [, ].. Podać przykład

Bardziej szczegółowo

Jednowymiarowa zmienna losowa

Jednowymiarowa zmienna losowa 1 Jednowymiarowa zmienna losowa Przykład Doświadczenie losowe - rzut kostką do gry. Obserwujemy ilość wyrzuconych oczek. Teoretyczny model eksperymentu losowego - przestrzeń probabilistyczna (Ω, S, P ),

Bardziej szczegółowo

Literatura. Leitner R., Zacharski J., Zarys matematyki wyŝszej dla studentów, cz. III.

Literatura. Leitner R., Zacharski J., Zarys matematyki wyŝszej dla studentów, cz. III. Literatura Krysicki W., Bartos J., Dyczka W., Królikowska K, Wasilewski M., Rachunek Prawdopodobieństwa i Statystyka Matematyczna w Zadaniach, cz. I. Leitner R., Zacharski J., Zarys matematyki wyŝszej

Bardziej szczegółowo

19 marzec, Łańcuchy Markowa z czasem dyskretnym. Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136

19 marzec, Łańcuchy Markowa z czasem dyskretnym. Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 19 marzec, 2012 Przykłady procesów Markowa (i). P = (p ij ) - macierz stochastyczna, tzn. p ij 0, j p ij =

Bardziej szczegółowo

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów. Rachunek prawdopodobieństwa MAT1332 Wydział Matematyki, Matematyka Stosowana Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów. Warunkowa

Bardziej szczegółowo

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów. Rachunek prawdopodobieństwa MAP1181 Wydział PPT, MS, rok akad. 213/14, sem. zimowy Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Bardziej szczegółowo

Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe.

Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Rachunek prawdopodobieństwa MAP3040 WPPT FT, rok akad. 2010/11, sem. zimowy Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Warunkowa wartość oczekiwana.

Bardziej szczegółowo

Przykładowe zadania na egzamin z matematyki - dr Anita Tlałka - 1

Przykładowe zadania na egzamin z matematyki - dr Anita Tlałka - 1 Przykładowe zadania na egzamin z matematyki - dr Anita Tlałka - 1 Zadania rozwiązywane na wykładzie Zadania rozwiązywane na ćwiczeniach Przy rozwiązywaniu zadań najistotniejsze jest wykazanie się rozumieniem

Bardziej szczegółowo

Rozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej

Rozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Zbiór możliwych wyników eksperymentu będziemy nazywać przestrzenią zdarzeń elementarnych i oznaczać Ω, natomiast

Bardziej szczegółowo

Dystrybucje, wiadomości wstępne (I)

Dystrybucje, wiadomości wstępne (I) Temat 8 Dystrybucje, wiadomości wstępne (I) Wielkości fizyczne opisujemy najczęściej przyporządkowując im funkcje (np. zależne od czasu). Inną drogą opisu tych wielkości jest przyporządkowanie im funkcjonałów

Bardziej szczegółowo

3. Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,

3. Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ, Zadania z Rachunku Prawdopodobieństwa II - Mówimy, że i) ciąg miar probabilistycznych µ n zbiega słabo do miary probabilistycznej µ (ozn. µ n µ), jeśli fdµ n fdµ dla dowolnej funkcji ciągłej ograniczonej

Bardziej szczegółowo

Informacja o przestrzeniach Hilberta

Informacja o przestrzeniach Hilberta Temat 10 Informacja o przestrzeniach Hilberta 10.1 Przestrzenie unitarne, iloczyn skalarny Niech dana będzie przestrzeń liniowa X. Załóżmy, że każdej parze elementów x, y X została przyporządkowana liczba

Bardziej szczegółowo

WYDZIAŁ ELEKTRONIKI MIKROSYSTEMÓW I FOTONIKI

WYDZIAŁ ELEKTRONIKI MIKROSYSTEMÓW I FOTONIKI Zał. nr do ZW WYDZIAŁ ELEKTRONIKI MIKROSYSTEMÓW I FOTONIKI KARTA PRZEDMIOTU Nazwa w języku polskim: Matematyka (Zao EA EiT stopień) Nazwa w języku angielskim: Mathematics Kierunek studiów (jeśli dotyczy):

Bardziej szczegółowo

jest ciągiem elementów z przestrzeni B(R, R)

jest ciągiem elementów z przestrzeni B(R, R) Wykład 2 1 Ciągi Definicja 1.1 (ciąg) Ciągiem w zbiorze X nazywamy odwzorowanie x: N X. Dla uproszczenia piszemy x n zamiast x(n). Przykład 1. x n = n jest ciągiem elementów z przestrzeni R 2. f n (x)

Bardziej szczegółowo

Rodzinę spełniającą trzeci warunek tylko dla sumy skończonej nazywamy ciałem (algebrą) w zbiorze X.

Rodzinę spełniającą trzeci warunek tylko dla sumy skończonej nazywamy ciałem (algebrą) w zbiorze X. 1 σ-ciała Definicja 1.1 (σ - ciało) σ - ciałem (σ - algebrą) w danym zbiorze X (zwanym przestrzenią) nazywamy rodzinę M pewnych podzbiorów zbioru X, spełniającą trzy warunki: 1 o M; 2 o jeśli A M, to X

Bardziej szczegółowo

1 Relacje i odwzorowania

1 Relacje i odwzorowania Relacje i odwzorowania Relacje Jacek Kłopotowski Zadania z analizy matematycznej I Wykazać, że jeśli relacja ρ X X jest przeciwzwrotna i przechodnia, to jest przeciwsymetryczna Zbadać czy relacja ρ X X

Bardziej szczegółowo

PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA. Piotr Wiącek

PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA. Piotr Wiącek PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA Piotr Wiącek ROZKŁAD PRAWDOPODOBIEŃSTWA Jest to miara probabilistyczna określona na σ-ciele podzbiorów borelowskich pewnej przestrzeni metrycznej. σ-ciało podzbiorów

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA

STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA Zadanie 0.1 Zmienna losowa X ma rozkład określony funkcją prawdopodobieństwa: x k 0 4 p k 1/3 1/6 1/ obliczyć EX, D X. (odp. 4/3;

Bardziej szczegółowo

Funkcja tworząca Funkcja charakterystyczna. Definicja i własności Funkcja tworząca momenty

Funkcja tworząca Funkcja charakterystyczna. Definicja i własności Funkcja tworząca momenty momenty Oprócz omówionych już do tej pory charakterystyk rozkładów bardzo wygodnym i skutecznym narzędziem badanie zmiennej losowej są tzw. transformaty jej rozkładu: funkcje tworzące i funkcje charakterystyczne.

Bardziej szczegółowo

Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna.

Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna. Wykład 4 Rozkłady i ich dystrybuanty Dwa typy zmiennych losowych Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x, x 2,...}, to mówimy, że jest to zmienna dyskretna.

Bardziej szczegółowo

Teoria ze Wstępu do analizy stochastycznej

Teoria ze Wstępu do analizy stochastycznej eoria ze Wstępu do analizy stochastycznej Marcin Szumski 22 czerwca 21 1 Definicje 1. proces stochastyczny - rodzina zmiennych losowych X = (X t ) t 2. trajektoria - funkcja (losowa) t X t (ω) f : E 3.

Bardziej szczegółowo

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie Jarosław Kotowicz Instytut Matematyki Uniwersytet w

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład XV: Zagadnienia redukcji wymiaru danych 2 lutego 2015 r. Standaryzacja danych Standaryzacja danych Własności macierzy korelacji Definicja Niech X będzie zmienną losową o skończonym drugim momencie.

Bardziej szczegółowo

5 Przegląd najważniejszych rozkładów

5 Przegląd najważniejszych rozkładów 5 Przegląd najważniejszych rozkładów 5. Rozkład Bernoulliego W niezmieniających się warunkach wykonujemy n razy pewne doświadczenie. W wyniku każdego doświadczenia może nastąpić zdarzenie A lub A. Zakładamy,

Bardziej szczegółowo

Fizyka statystyczna, elementy termodynamiki nierównowagowej Cele, zakres zagadnień

Fizyka statystyczna, elementy termodynamiki nierównowagowej Cele, zakres zagadnień Fizyka statystyczna, elementy termodynamiki nierównowagowej Cele, zakres zagadnień Narzędzia przypomnienie podstawowych definicji i twierdzeń z rachunku prawdopodobienstwa; podstawowe rozkłady statystyczne

Bardziej szczegółowo

Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu.

Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu. Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu. A Teoria Definicja A.1. Niech (Ω, F, P) będzie przestrzenią probabilistyczną. Zmienną losową określoną na przestrzeni Ω nazywamy dowolną

Bardziej szczegółowo

PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA

PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA 1. Trójkę (Ω, F, P ), gdzie Ω, F jest σ-ciałem podzbiorów Ω, a P jest prawdopodobieństwem określonym na F, nazywamy przestrzenią probabilistyczną. 2. Rodzinę F

Bardziej szczegółowo

Modelowanie komputerowe

Modelowanie komputerowe Modelowanie komputerowe wykład 5- Klasyczne systemy kolejkowe i ich analiza dr Marcin Ziółkowski Instytut Matematyki i Informatyki Akademia im. Jana Długosza w Częstochowie 16,23listopada2015r. Analiza

Bardziej szczegółowo

Repetytorium z przedmiotu MIARA I PRAWDOPODOBIEŃSTWO dla kierunku Informatyka 2001/2002. Adam Jakubowski

Repetytorium z przedmiotu MIARA I PRAWDOPODOBIEŃSTWO dla kierunku Informatyka 2001/2002. Adam Jakubowski Repetytorium z przedmiotu MIARA I PRAWDOPODOBIEŃSTWO dla kierunku Informatyka 2001/2002 Adam Jakubowski Uniwersytet Mikołaja Kopernika Wydział Matematyki i Informatyki Toruń, 2002 Spis treści Wstęp 1

Bardziej szczegółowo

KARTA PRZEDMIOTU. 12. Przynależność do grupy przedmiotów: Prawdopodobieństwo i statystyka

KARTA PRZEDMIOTU. 12. Przynależność do grupy przedmiotów: Prawdopodobieństwo i statystyka (pieczęć wydziału) KARTA PRZEDMIOTU Z1-PU7 WYDANIE N1 Strona 1 z 5 1. Nazwa przedmiotu: RACHUNEK PRAWDOPODOBIEŃSTWA 2. Kod przedmiotu: RPr 3. Karta przedmiotu ważna od roku akademickiego: 20152016 4. Forma

Bardziej szczegółowo

Statystyka. Wydział Zarządzania Uniwersytetu Łódzkiego

Statystyka. Wydział Zarządzania Uniwersytetu Łódzkiego Statystyka Wydział Zarządzania Uniwersytetu Łódzkiego 2017 Zmienna losowa i jej rozkład Mając daną przestrzeń probabilistyczną, czyli parę (&, P) stanowiącą model pewnego doświadczenia losowego (gdzie

Bardziej szczegółowo

Ośrodkowość procesów, proces Wienera. Ośrodkowość procesów, proces Wienera Procesy Stochastyczne, wykład, T. Byczkowski,

Ośrodkowość procesów, proces Wienera. Ośrodkowość procesów, proces Wienera Procesy Stochastyczne, wykład, T. Byczkowski, Procesy Stochastyczne, wykład, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136 27 luty, 2012 Ośrodkowość procesów Dalej zakładamy, że (Ω, Σ, P) jest zupełną przestrzenią miarową. Definicja.

Bardziej szczegółowo

Ważne rozkłady i twierdzenia

Ważne rozkłady i twierdzenia Ważne rozkłady i twierdzenia Rozkład dwumianowy i wielomianowy Częstość. Prawo wielkich liczb Rozkład hipergeometryczny Rozkład Poissona Rozkład normalny i rozkład Gaussa Centralne twierdzenie graniczne

Bardziej szczegółowo

Wykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga

Wykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga RAP 412 21.01.2009 Wykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga Wykładowca: Andrzej Ruciński Pisarz: Łukasz Waszak 1 Wstęp Na ostatnim wykładzie przedstawiliśmy twierdzenie o zbieżności

Bardziej szczegółowo

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe Nierówność Czebyszewa Niech X będzie zmienną losową o skończonej wariancji V ar(x). Wtedy wartość oczekiwana E(X) też jest skończona i

Bardziej szczegółowo

Ćwiczenia: Ukryte procesy Markowa lista 1 kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II

Ćwiczenia: Ukryte procesy Markowa lista 1 kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II Ćwiczenia: Ukryte procesy Markowa lista kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II dr Jarosław Kotowicz Zadanie. Dany jest łańcuch Markowa, który może przyjmować wartości,,...,

Bardziej szczegółowo

Komputerowa Analiza Danych Doświadczalnych

Komputerowa Analiza Danych Doświadczalnych Komputerowa Analiza Danych Doświadczalnych dr inż. Adam Kisiel kisiel@if.pw.edu.pl pokój 117b (12b) 1 Materiały do wykładu Transparencje do wykładów: http://www.if.pw.edu.pl/~kisiel/kadd/kadd.html Literatura

Bardziej szczegółowo

Rachunek prawdopodobieństwa (Elektronika, studia niestacjonarne) Wykład 3

Rachunek prawdopodobieństwa (Elektronika, studia niestacjonarne) Wykład 3 Rachunek prawdopodobieństwa (Elektronika, studia niestacjonarne) Wykład 3 Przygotowując wykład korzystam głównie z książki Jakubowski, Sztencel Wstęp do teorii prawdopodobieństwa. Zmienna losowa i jej

Bardziej szczegółowo

4. O funkcji uwikłanej 4.1. Twierdzenie. Niech będzie dana funkcja f klasy C 1 na otwartym podzbiorze. ϕ : K(x 0, δ) (y 0 η, y 0 + η), taka że

4. O funkcji uwikłanej 4.1. Twierdzenie. Niech będzie dana funkcja f klasy C 1 na otwartym podzbiorze. ϕ : K(x 0, δ) (y 0 η, y 0 + η), taka że 4. O funkcji uwikłanej 4.1. Twierdzenie. Niech będzie dana funkcja f klasy C 1 na otwartym podzbiorze taka że K(x 0, δ) (y 0 η, y 0 + η) R n R, f(x 0, y 0 ) = 0, y f(x 0, y 0 ) 0. Wówczas dla odpowiednio

Bardziej szczegółowo

Repetytorium z przedmiotu Miara i prawdopodobieństwo dla kierunku Informatyka 2003/2004. Adam Jakubowski

Repetytorium z przedmiotu Miara i prawdopodobieństwo dla kierunku Informatyka 2003/2004. Adam Jakubowski Repetytorium z przedmiotu Miara i prawdopodobieństwo dla kierunku Informatyka 2003/2004 Adam Jakubowski Uniwersytet Mikołaja Kopernika Wydział Matematyki i Informatyki Toruń, styczeń 2004 Spis treści

Bardziej szczegółowo

Statystyka i eksploracja danych

Statystyka i eksploracja danych Wykład I: Formalizm statystyki matematycznej 17 lutego 2014 Forma zaliczenia przedmiotu Forma zaliczenia Literatura Zagadnienia omawiane na wykładach Forma zaliczenia przedmiotu Forma zaliczenia Literatura

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova M. Czoków, J. Piersa 2010-12-21 1 Definicja Własności Losowanie z rozkładu dyskretnego 2 3 Łańcuch Markova Definicja Własności Losowanie z rozkładu

Bardziej szczegółowo

KARTA PRZEDMIOTU. Forma prowadzenia zajęć. Odniesienie do efektów dla kierunku studiów K1A_W02

KARTA PRZEDMIOTU. Forma prowadzenia zajęć. Odniesienie do efektów dla kierunku studiów K1A_W02 (pieczęć wydziału) KARTA PRZEDMIOTU Z1-PU7 WYDANIE N1 Strona 1 z 5 1. Nazwa przedmiotu: RACHUNEK PRAWDOPODOBIEŃSTWA 2. Kod przedmiotu: RPr 3. Karta przedmiotu ważna od roku akademickiego: 20182019 4. Forma

Bardziej szczegółowo

Informacja o przestrzeniach Sobolewa

Informacja o przestrzeniach Sobolewa Wykład 11 Informacja o przestrzeniach Sobolewa 11.1 Definicja przestrzeni Sobolewa Niech R n będzie zbiorem mierzalnym. Rozważmy przestrzeń Hilberta X = L 2 () z iloczynem skalarnym zdefiniowanym równością

Bardziej szczegółowo

RACHUNEK PRAWDOPODOBIE STWA

RACHUNEK PRAWDOPODOBIE STWA Jerzy Ombach RACHUNEK PRAWDOPODOBIE STWA WSPOMAGANY KOMPUTEROWO DLA STUDENTÓW MATEMATYKI STOSOWANEJ Wydawnictwo Uniwersytetu Jagielloƒskiego Seria Matematyka Książka finansowana przez Wydział Matematyki

Bardziej szczegółowo

Seria 1. Zbieżność rozkładów

Seria 1. Zbieżność rozkładów Seria Zbieżność rozkładów We wszystkich poniższych zadaniach (E, ρ) jest przestrzenią metryczną Wykazać, że dla dowolnych x, x n, δ xn δ x wtedy i tylko wtedy, gdy x n x Sprawdzić, że n nk= δ k n λ, gdzie

Bardziej szczegółowo

ZAGADNIENIA DO EGZAMINU MAGISTERSKIEGO

ZAGADNIENIA DO EGZAMINU MAGISTERSKIEGO ZAGADNIENIA DO EGZAMINU MAGISTERSKIEGO Na egzaminie magisterskim student powinien: 1) omówić wyniki zawarte w pracy magisterskiej posługując się swobodnie pojęciami i twierdzeniami zamieszczonymi w pracy

Bardziej szczegółowo

Wykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa

Wykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa Wykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa Marek Kubiak Instytut Informatyki Politechnika Poznańska Plan wykładu Podstawowe pojęcia rachunku prawdopodobieństwa Rozkład

Bardziej szczegółowo

Statystyka i eksploracja danych

Statystyka i eksploracja danych Wykład XII: Zagadnienia redukcji wymiaru danych 12 maja 2014 Definicja Niech X będzie zmienną losową o skończonym drugim momencie. Standaryzacją zmiennej X nazywamy zmienną losową Z = X EX Var (X ). Definicja

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa

Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa M. Czoków, J. Piersa 2012-01-10 1 Łańcucha Markowa 2 Istnienie Szukanie stanu stacjonarnego 3 1 Łańcucha Markowa 2 Istnienie Szukanie stanu stacjonarnego

Bardziej szczegółowo

Rachunek prawdopodobieństwa 1B; zadania egzaminacyjne.

Rachunek prawdopodobieństwa 1B; zadania egzaminacyjne. Rachunek prawdopodobieństwa B; zadania egzaminacyjne.. Niech µ będzie rozkładem probabilistycznym na (0, ) (0, ): µ(b) = l({x (0,) : (x, x) B}), dla B B((0, ) (0, ))), gdzie l jest miarą Lebesgue a na

Bardziej szczegółowo

Metody probabilistyczne

Metody probabilistyczne Metody probabilistyczne. Twierdzenia graniczne Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 20.2.208 / 26 Motywacja Rzucamy wielokrotnie uczciwą monetą i zliczamy

Bardziej szczegółowo

21 maja, Mocna własność Markowa procesu Wienera. Procesy Stochastyczne, wykład 13, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126

21 maja, Mocna własność Markowa procesu Wienera. Procesy Stochastyczne, wykład 13, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126 Mocna własność Markowa procesu Wienera Procesy Stochastyczne, wykład 13, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126 21 maja, 2012 Mocna własność Markowa W = (W 1,..., W d ) oznaczać

Bardziej szczegółowo

Wykład 10. Stwierdzenie 1. X spełnia warunek Borela wtedy i tylko wtedy, gdy każda scentrowana rodzina zbiorów domkniętych ma niepusty przekrój.

Wykład 10. Stwierdzenie 1. X spełnia warunek Borela wtedy i tylko wtedy, gdy każda scentrowana rodzina zbiorów domkniętych ma niepusty przekrój. Wykład 10 Twierdzenie 1 (Borel-Lebesgue) Niech X będzie przestrzenią zwartą Z każdego pokrycia X zbiorami otwartymi można wybrać podpokrycie skończone Dowód Lemat 1 Dla każdego pokrycia U przestrzeni ośrodkowej

Bardziej szczegółowo

φ(x 1,..., x n ) = a i x 2 i +

φ(x 1,..., x n ) = a i x 2 i + Teoria na egzamin z algebry liniowej Wszystkie podane pojęcia należy umieć określić i podać pprzykłady, ewentualnie kontrprzykłady. Ponadto należy znać dowody tam gdzie to jest zaznaczone. Liczby zespolone.

Bardziej szczegółowo

Zadania z Analizy Funkcjonalnej I Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi?

Zadania z Analizy Funkcjonalnej I Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi? Zadania z Analizy Funkcjonalnej I - 1 1. Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi? a) X = R, d(x, y) = arctg x y ; b) X = R n, d(x, y) = x 1 y 1 + x 2 y 2 + max i 3 x i

Bardziej szczegółowo

Zadania z Analizy Funkcjonalnej I Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi?

Zadania z Analizy Funkcjonalnej I Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi? Zadania z Analizy Funkcjonalnej I - 1 1. Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi?. a) X = R, x = arctg x ; b) X = R n, d(x, y) = x 1 y 1 + x 2 y 2 + max i 3 x i y i ;

Bardziej szczegółowo

Z Wikipedii, wolnej encyklopedii.

Z Wikipedii, wolnej encyklopedii. Rozkład normalny Rozkład normalny jest niezwykle ważnym rozkładem prawdopodobieństwa w wielu dziedzinach. Nazywa się go także rozkładem Gaussa, w szczególności w fizyce i inżynierii. W zasadzie jest to

Bardziej szczegółowo

III. ZMIENNE LOSOWE JEDNOWYMIAROWE

III. ZMIENNE LOSOWE JEDNOWYMIAROWE III. ZMIENNE LOSOWE JEDNOWYMIAROWE.. Zmienna losowa i pojęcie rozkładu prawdopodobieństwa W dotychczas rozpatrywanych przykładach każdemu zdarzeniu była przyporządkowana odpowiednia wartość liczbowa. Ta

Bardziej szczegółowo

Proces rezerwy w czasie dyskretnym z losową stopą procentową i losową składką

Proces rezerwy w czasie dyskretnym z losową stopą procentową i losową składką z losową stopą procentową i losową składką Instytut Matematyki i Informatyki Politechniki Wrocławskiej 10 czerwca 2008 Oznaczenia Wprowadzenie ξ n liczba wypłat w (n 1, n], Oznaczenia Wprowadzenie ξ n

Bardziej szczegółowo

Repetytorium z przedmiotu Miara i Prawdopodobieństwo. Adam Jakubowski

Repetytorium z przedmiotu Miara i Prawdopodobieństwo. Adam Jakubowski Repetytorium z przedmiotu Miara i Prawdopodobieństwo Adam Jakubowski Uniwersytet Mikołaja Kopernika Wydział Matematyki i Informatyki Toruń, 1999 Spis treści Wstęp 1 1 Przestrzenie mierzalne i przestrzenie

Bardziej szczegółowo

WYKŁAD 2. Zdarzenia losowe i prawdopodobieństwo Zmienna losowa i jej rozkłady

WYKŁAD 2. Zdarzenia losowe i prawdopodobieństwo Zmienna losowa i jej rozkłady WYKŁAD 2 Zdarzenia losowe i prawdopodobieństwo Zmienna losowa i jej rozkłady Metody statystyczne metody opisu metody wnioskowania statystycznego syntetyczny liczbowy opis właściwości zbioru danych ocena

Bardziej szczegółowo

Zadania z Rachunku Prawdopodobieństwa III - 1

Zadania z Rachunku Prawdopodobieństwa III - 1 Zadania z Rachunku Prawdopodobieństwa III - 1 1. Oblicz funkcję tworzącą momenty zmiennych o następujących rozkładach: a) symetryczny dwupunktowy; b) dwumianowy z parametrami n, p; c) Poissona z parametrem

Bardziej szczegółowo

STATYSTYKA

STATYSTYKA Wykład 1 20.02.2008r. 1. ROZKŁADY PRAWDOPODOBIEŃSTWA 1.1 Rozkład dwumianowy Rozkład dwumianowy, 0 1 Uwaga: 1, rozkład zero jedynkowy. 1 ; 1,2,, Fakt: Niech,, będą niezależnymi zmiennymi losowymi o jednakowym

Bardziej szczegółowo