Rachunek prawdopodobieństwa. Stanisław Jaworski
|
|
- Mateusz Makowski
- 7 lat temu
- Przeglądów:
Transkrypt
1 Rachunek prawdopodobieństwa Stanisław Jaworski Rachunek prawdopodobieństwa: dział matematyki zajmujący się badaniem modeli zjawisk losowych (przypadkowych) i praw nimi rządzących (Encyklopedia Popularna PWN, 1998) Rachunek prawdopodobieństwa zajmuje się zdarzeniami, pojawiającymi się przy wykonywaniu doświadczeń, których wyniku nie da się z góry przewidzieć, a jednocześnie dających się powtarzać w tych samych warunkach. Pojęciem pierwotnym w rachunku prawdopodobieństwa jest przestrzeń zdarzeń elementarnych. Będziemy ją oznaczać przez Ω. 1
2 Przykład. Rzut monetą. Ω = {O, R} Przykład. Rzut kostką. Ω = {1, 2, 3, 4, 5, 6} Przykład. Rzut monetą do chwili pojawienia się orła. Ω = {ω 1, ω 2,..., ω n,... }, gdzie ω n oznacza, że w pierwszych n 1 rzutach wypadły reszki, a za n tym razem wypadł orzeł. Możliwych wyników jest nieskończenie wiele. Dadzą się ustawić w ciąg, tzn. że jest ich przeliczalnie wiele. 2
3 Przykład. Ze zbioru n ponumerowanych elementów losujemy dwa elementy. Ω = {(ω i, ω j ) i, j = 1, 2,..., n, i < j} ω i oznacza wylosowanie elementu o numerze i. Przykład. Czas oczekiwania na autobus. Ω = [0, ) Przykład. Niech T k [0, 45], k = 1, 2,..., 10, oznacza spóźnienie k tego studenta na losowo wybrany wykład (w minutach). (T 1, T 2,..., T 10 ) Ω Ω = [0, 45] [0, 45]... [0, 45] = [0, 45] 10 3
4 Podstawowe pojęcia rachunku prawdopodobieństwa Definicja. Rodzinę F spełniającą warunki 1. F = 2. Jeśli A F, to Ω \ A F 3. Jeśli A i F dla i = 1, 2,..., to i=1 A i F nazywamy σ ciałem podzbiorów zbioru Ω. Zdarzenie losowe jest elementem rodziny F Definicja. Prawdopodobieństwem nazywamy dowolną funkcję P, określoną na σ ciele zdarzeń F 2 Ω, spełniającą warunki A1. P : F R + ; A2. P (Ω) = 1 A3. Jeśli A i F, i = 1, 2,... oraz A i A j = dla i j, to P ( i=1 A i ) = P (A i ) i=1 Mówimy, że matematyczny model doświadczenia losowego to trójka (Ω, F, P ), którą nazywamy przestrzenią probabilistyczną 4
5 Przykład. Rozkład prawdopodobieństwa w skończonej przestrzeni zdarzeń Niech Niech Ω = {ω 1, ω 2,..., ω n }. p i 0, i = 1, 2,..., n, będą tak dobrane, że n p i = 1 i=1 Wówczas funkcję P określamy w następujący sposób: P ({ω i }) = p i oraz dla A Ω postaci A = {ω i1, ω i2,..., ω ik } P (A) = p i1 + p i p ik Tak określona funkcja spełnia układ aksjomatów Kołmogorowa dla F = 2 Ω 5
6 Przykład. Rzut kostką. ω i p i 1/6 1/6 1/6 1/6 1/6 1/6 P ({1, 2, 5}) = 1/6 + 1/6 + 1/6 = 3/6 = 1/2 ω i p i 1/12 1/12 1/12 3/12 3/12 3/12 P ({1, 2, 5}) = 1/12 + 1/12 + 3/12 = 5/12 < 1/2 Przykład. Przeliczalna przestrzeni zdarzeń Ω = {ω 1, ω 2,... } p i 0, p i = 1 i=1 P ({ω i }) = p i, P (A) = j:ω j A p j (?) Tak określona funkcja spełnia układ aksjomatów Kołmogorowa dla F = 2 Ω 6
7 Przykład. Liczba zarejestrowanych cząstek w odcinku czasu [0, t]. Ω = {0, 1,... } αt (αt)k P ({k}) = e, k = 0, 1,... k! (?) Zachodzi k=0 αt (αt)k e k! = 1 Ciągła przestrzeń zdarzeń Przykład. Czas oczekiwania na pierwszą cząstkę. Ω = [0, ) Zdarzenie (t, ): pierwsza cząstka pojawi się później niż w chwili t αt (αt)0 P ((t, )) = e 0! = e αt Stąd dla dowolnych s < t P ((s, t]) = e αs e αt 7
8 Przykład. Rzut strzałką do tarczy o promieniu 1. Model 1. Ω = {(x, y) : x 2 + y 2 1} (x, y) współrzędne kartezjańskie punktu trafienia strzałki w tarczę Szansa trafienia w zbiór A Ω P (A) = pole A pole Ω = A Ω = A π Zdarzenie A r = {(x, y) : dziesiątkę P (A r ) = πr2 π x 2 + y 2 r 2 }: trafienie w = r2 8
9 Model 2. Ω = {(ϱ, φ) : 0 ϱ 1, 0 φ 2π} = [0, 1] [0, 2π] (ϱ, φ) współrzędne biegunowe punktu trafienia strzałki w tarczę Szansa trafienia w zbiór A Ω: P (A) = pole A pole Ω = A Ω = A 2π Zdarzenie A r = {(ϱ, φ) : ϱ r}: trafienie w dziesiątkę P (A r ) = 2πr 2π = r 9
10 Model 3. Ω = {ϱ : 0 ϱ 1} = [0, 1] ϱ odległość punktu trafienia od środka tarczy Zdarzenie A r = {ϱ : ϱ r}: trafienie w dziesiątkę P (A r ) = πr2 π = r2 Zdarzenie A rk = {ϱ : r < ϱ k}: trafienie w dziewiątkę P (A rk ) = k 2 r 2 = 2(k r) k + r 2 10
11 Co łączy podane przykłady dla przestrzeni ciągłych? P (A) = f, gdzie f 0 Czas oczekiwania na pierwszą cząstkę A f(x) = αxe αx, P ((s, t])? = t s f(x) dx Rzut strzałką do tarczy (Model 1.) f(x, y) = 1 π, P (A r) =? f(x, y) dx dy A r Rzut strzałką do tarczy (Model 2.) f(ϱ, φ) = 1 2π, P (A r)? = A r f(ϱ, φ) dϱ dφ Rzut strzałką do tarczy (Model 3.) f(ϱ) = 2ϱ, P (A r )? = f(ϱ) dϱ A r 11
12 Problem: Jak określić F? Czas oczekiwania na pierwszą cząstkę F = B(R + ) Rzut strzałką do tarczy (Model 1.) F = B(K(0, 1)) Rzut strzałką do tarczy (Model 2.) F = B([0, 1] [0, 2π]) Rzut strzałką do tarczy (Model 3.) F = B([0, 1]) 12
13 Własności prawdopodobieństwa Twierdzenie 1. Jeśli (Ω, F, P ) jest przestrzenią probabilistyczną i A, B, A 1, A 2,..., A n F, to: W1. P ( ) = 0 W2. Jeśli A 1, A 2,..., A n wykluczają się wzajemnie, tj. A i A j = dla i j, to P ( n i=1 A i ) = n P (A i ) i=1 W3. P (A ) = 1 P (A), gdzie A = Ω \ A W4. Jeśli A B, to P (B \ A) = P (B) P (A) W5. Jeśli A B, to P (A) P (B) W6. P (A) 1 W7. P (A B) = P (A) + P (B) P (A B) 13
14 Dowód. ad W1. Niech A 1 = Ω, A i = dla i = 2, 3,... aksjomat A3. P (Ω) = P (Ω) + P ( ) i=2 aksjomat A1. P ( ) = 0 ad W2. P ad W3. ad W4. Niech A k =, dla k n aksjomat A3. oraz własność W1. ( n ) n A i = P (A i ) i=1 i=1 1 = P (Ω) = P (A A ) W2. = P (A) + P (A ) Jeśli A B, to B = A (B \ A). Zatem P (B) W2. = P (A) + P (B \ A) 14
15 ad W5. P (B) P (A) W4. = P (B \ A) A1. 0 ad W6. Wystarczy zastosować W5. dla B = Ω ad W7. A B = [A \ (A B)] (A B) [B \ (A B)] W2, W4. P (A B) = P (A) P (A B)+ + P (A B) + P (B) P (A B) = = P (A) + P (B) P (A B) Zauważmy, że A B = [A B ] [A B] [A B] }{{} trzy składowe sumy Zatem każda składowa sumy A 1 A 2... A n da się przedstawić, po odpowiednim przenumerowaniu zbiorów, w postaci A 1 A 2... A k A k+1 A k+2... A n, 15 gdzie k 1
16 Twierdzenie 2. (Wzór włączeń i wyłączeń) P (A 1 A 2... A n ) = P (A i ) P (A i1 A i2 )+ 1in 1i 1 i 2 n... + ( 1) n+1 P (A 1 A 2... A n ) Dowód. Zbiór A 1 A 2... A n daje się zapisać w postaci sumy rozłącznych składowych. Zatem Lewa strona równania włącza każdą składową dokładnie raz. Musimy pokazać, że prawa strona równania wprowadza każdą składową też dokładnie raz. W pierwszym składniku wzoru, czyli każda składowa postaci 1in P (A i ) A 1 A 2... A k A k+1 A k+2... A n zostanie włączona k razy, w drugim, czyli P (A i1 A i2 ), 1i 1 i 2 n 16
17 wyłączona ( k 2) razy, itd. Ostatecznie liczba włączeń wyniesie ( ) k 1 ( ) k + 2 ( ) ( ) k k +... ( 1) k+1 3 k = 1. Uwaga. Korzystam ze wzoru dwumianowego Newtona: k ( ) k (a + b) k = a k i b i i i=0 Przykład. n listów losowo wkładamy do kopert. Jakie jest prawdopodobieństwo, że choć jeden list dotrze do adresata? Niech A i oznacza zdarzenie, że i ty list dotrze do adresata. Zatem P ( n i=1 A i ) = n P (A 1 ) {}}{ ( ) (n 1)! n n! 2 + ( 1) n ( n n 1 P (A 1 A 2 ) {}}{ (n 2)! n! +... ) 1 n! + 1 ( 1)n+1 n! = 17
18 = 1 1 2! + 1 3! ( 1)n (n 1)! + 1 ( 1)n+1 n! n ( 1) i+1 n ( 1) i+1 n ( 1) i = = 1 + = 1 i! i! i! i=1 1 e 1 i=0 i=0 Błąd oszacowania ( n ) P A i (1 e 1 ) 1 (n + 1)! i=1 Skorzystałem z oszacowania: ex n i=0 x i i! x n+1 (n + 1)! 18
19 Twierdzenie 3. (O ciągłości). Niech(Ω, F, P ) będzie przestrzenią probabilistyczną. (i) Jeśli (A n ) n=1 jest wstępującą rodziną zdarzeń oraz A n = A, to n=1 P (A) = lim n P (A n). (ii) Jeśli (A n ) n=1 jest zstępującą rodziną zdarzeń oraz A n = A, to n=1 P (A) = lim n P (A n). Rodzinę zdarzeń A i nazywamy wstępującą, jeśli A 1 A 2... A n A n+1 i zstępującą, jeśli A 1 A 2... A n A n+1 19
20 Dowód. (i) Niech B 1 = A 1, B 2 = A 2 \ A 1 i ogólnie: B n = A n \ A n 1 Wtedy zdarzenia B i wykluczają się, n i=1 B i = n i=1 A i = A n, a także i=1 B i = A. Z przeliczalnej addytywności wynika, że P (A) = P ( i=1 B i ) = = lim n P (B i ) = i=1 n i=1 P (B i ) = lim n P (A n) (ii) Rozpatrzmy rodzinę wstępującą (C n ) n=1, gdzie C n = A n. Wtedy n=1 C n = n=1 A n = [ n=1 A n ] = A i wystarczy skorzystać z (i) 20
21 Prawdopodobieństwo warunkowe Definicja. Prawdopodobieństwem warunkowym zajścia zdarzenia A pod warunkiem zajścia zdarzenia B, gdzie P (B) > 0, nazywamy liczbę P (A B) = P (A B) P (B) (?) Uwaga. Przy ustalonym B prawdopodobieństwo warunkowe P (A B) jest zwykłym prawdopodobieństwem na (Ω, F), a także na (B, F B ), gdzie F B = {A B : A F} (?) Wzór łańcuchowy. Jeśli P (A 1... A n 1 ) > 0, to P (A 1... A n ) = P (A 1 )P (A 2 A 1 ) P (A 3 A 1 A 2 )... P (A n A 1... A n 1 ) 21
22 Definicja. Rozbiciem przestrzeni Ω nazywamy rodzinę zdarzeń {H i } i I, które wzajemnie wykluczają się, zaś ich suma jest równa Ω. Twierdzenie 4. Jeżeli {H 1, H 2,..., H n } jest rozbiciem Ω na zdarzenia o dodatnim prawdopodobieństwie, to dla dowolnego zdarzenia A P (A) = n P (A H i )P (H i ) i=1 Dowód. n P (A) = P ( (A H i )) = i=1 n P (A H i )P (H i ) i=1 (?) Uwaga.Twierdzenie jest prawdziwe i dla rozbicia Ω na przeliczalną liczbę zdarzeń H i, i = 1, 2,
23 Przykład. W loterii fantowej szansa wygranej jest równa p, przegranej q, a z prawdopodobieństwem r wyciągamy los graj dalej. Los graj dalej wrzucamy z powrotem do urny i dokonujemy ponownego losowania. Jakie jest prawdopodobieństwo wygranej? A wyciągneliśmy los wygrywający B wyciągneliśmy los przegrywający C wyciągneliśmy los graj dalej W wygraliśmy na loterii P (W ) = P (W A)P (A) + P (W B)P (B)+ + P (W C)P (C) = 1 p + 0 q + P (W ) r Stąd P (W ) = p 1 r = p p + q Twierdzenie 5. Niech {H i } i I będzie rozbiciem Ω na zdarzenia o dodatnim prawdopodobieństwie. Gdy P (B) > 0, to P (A B) = i I P (A B H i )P (H i B), gdzie zbiór indeksów I jest skończony lub przeliczalny. 23
24 Przykład. Grześ i Jaś rzucają na przemian monetą. Jaś wygrywa, gdy pojawią się kolejno OOR, Grześ gdy ROR. Jakie są prawdopodobieństwa wygranej dla obu chłopców? Niech W 1 wygra Jaś, W 2 wygra Grześ, O k w k-tym rzucie wypadł orzeł, R k w k-tym rzucie wypadła reszka. x = P (W 1 O 1 O 2 ) y = P (W 1 O 1 R 2 ) z = P (W 1 R 1 O 2 ) w = P (W 1 R 1 R 2 ) Zatem y =P (W 1 O 1 R 2 O 3 )P (O 3 O 1 R 2 )+ + P (W 1 O 1 R 2 R 3 )P (R 3 O 1 R 2 ) Analogicznie =z w 1 2 x = 1 2 x , z = 1 2 x + 0, w = 1 2 w z Stąd P (W 1 ) = (x + y + z + w)/4 = 5/8. 24
25 Twierdzenie 6. Wzór Bayesa. Niech {H i } i I będzie rozbiciem Ω na zdarzenia o dodatnim prawdopodobieństwie i P (A) > 0, to dla dowolnego j I mamy P (H j A) = P (A H j )P (H j ) i I P (A H i)p (H i ) Przykład. Amperomierze pochodzą z trzech taśm produkcyjnych w stosunku 1:1:1. Dostawy z pierwszej taśmy zawierają 0.5% braków, z drugiej 0.7%, a z trzeciej 1%. Wybrany losowo amperomierz okazał się brakiem. Obliczyć prawdopodobieństwo, że został on wyprodukowany na taśmie drugiej. A amperomierz jest brakiem H i amperomierz pochodzi z i tej taśmy P (H 1 ) = P (H 2 ) = P (H 3 ) = 1/3 P (A H 1 ) = 0.005; P (A H 2 ) = 0.007; P (A H 3 ) = 0.01 Stąd P (A) = ( ) = 3 1 = = P (H 2 A) = P (H 2)P (A H 2 ) P (A)
26 Niezależność zdarzeń. Zdarzenie B nie zależy od zdarzenia A, gdy wiedza o tym, że zaszło A nie wpływa na prawdopodobieństwo zajścia B. P (B A) = P (B), P (A) > 0 P (A B) = P (A)P (B) Definicja. Zdarzenia A oraz B nazywamy niezależnymi, gdy P (A B) = P (A)P (B) Definicja. Zdarzenia A 1, A 2,..., A n nazywamy niezależnymi, gdy P (A i 1 A i 2... A i k) = P (A i1 )... P (A ik ) dla 1 i i < i 2,... < i k n, k = 2, 3,..., n 26
27 Przykład. Spośród rodzin mających n dzieci wybieramy jedną rodzinę. Niech zdarzenie A polega na tym, że w losowo wybranej rodzinie jest co najwyżej jedna dziewczynka, B w rodzinie są dziewczynki i chłopcy. Czy zdarzenia A i B są niezależne? Przestrzeń probabilistyczną tworzą ciągi n elementowe uporządkowane według starszeństwa dzieci. P (A B) = P (A)P (B) n 2 n = ( n n n = 3 ) ( 2 n ) 2 2 n Przykład. W urnie są cztery kule niebieska, zielona, czerwona i pstrokata (niebiesko-zielono-czerwona). Zdarzenia A n wyciągneliśmy kulę z kolorem niebieskim A z wyciągneliśmy kulę z kolorem zielonym A n wyciągneliśmy kulę z kolorem czerwonym Mamy P (A n ) = P (A z ) = P (A c ) = 1/2 P (A n A z ) = P (A n A c ) = P (A z A c ) = 1/4 Zatem rozważane zdarzenia są parami niezależne. 27
28 Zauważmy jednak, że P (A n A z A c ) = = P (A n)p (A z )P (A c ) Przykład. Ω = [0, 1] 2, F = B([0, 1] 2 ), P rozkład równomierny na [0, 1] 2. Zdarzenia A = B = { (x, y) [0, 1] 2 : x > y } Zauważmy, że C = { (x, y) [0, 1] 2 : x < 0.5 } P (A B C) = 1 8 = P (A)P (B)P (C) natomiast żadne dwa nie są niezależne 28
29 Przyjmijmy konwencję: A 0 = A, A 1 = A Twierdzenie 7. Następujące warunki są równoważne: (i) Zdarzenia A 1, A 2,..., A n są niezależne; (ii) Dla każdego ciągu ε 1, ε 2,..., ε n, gdzie ε i {0, 1}, i = 1, 2,..., n, zdarzenia A ε 1 1,..., Aε n n są niezależne; (iii) Dla każdego ciągu ε 1, ε 2,..., ε n, gdzie ε i {0, 1}, i = 1, 2,..., n, zachodzi równość P (A ε Aε n n ) = P (A ε 1 1 )... P (Aε n n ) Dowód. (i) (ii) (indukcja względem n) (1 o ) Pokażemy dla n = 2 (2 o ) Założymy, że tw. jest prawdziwe dla n 1 (3 o ) Pokażemy, że A 1,..., A n 1, A n niezależne A 1,..., A n 1, A n niezależne (4 o ) Zauważymy, że z 3 o wynika A ε 1 1,..., Aε n 1 n 1, Aε n n niezależne 29
30 Dla n = 2 P (A 1 A 2) = P (A 1 \ A 1 A 2 ) = = P (A 1 ) P (A 1 A 2 ) = = P (A 1 )[1 P (A 2 )] = P (A 1 )P (A 2) Zatem A 1, A 2 są niezależne. Na mocy symetrii także A 1, A 2 są niezależne. Stosując jeszcze raz powyższe rozumowanie do A 1, A 2, otrzymujemy niezależność A 1, A 2 Zakładamy, że tw. jest prawdziwe dla n 1 i dowodzimy dla n. W tym celu wystarczy pokazać: P (A 1... A n 1 A n) = = P (A 1... A n 1 \ A 1... A n 1 A n ) = = P (A 1... A n 1 ) P (A 1... A n ) = = P (A 1... A n 1 )[1 P (A n )] = P (A 1 )... P (A n 1 )P (A n) Definicja. Zdarzenia A 1, A 2,... nazywamy niezależnymi, gdy dla każdego n zdarzenia A 1, A 2,..., A n są niezależne. 30
31 Zmienne losowe. Cel: Ujednolicić sposób rozważań dla różnych przestrzeni zdarzeń elementarnych. Definicja. Zmienna losowa jest to funkcja rzeczywista X : Ω X o własności: {ω Ω : X(ω) x} F x R X zbiór wartości zmiennej losowej Często X = {0, 1,... }, X = [0, ), X = [a, b], X = R 31
32 Definicja. Rozkładem prawdopodobieństwa zmiennej losowej X nazywamy rozkład prawdopodobieństwa P X określony wzorem P X (A) = P ({ω Ω : X(ω) A}) = P (X 1 (A)) dla A X! dokładniej dla A B(X ) Definicja. Trójkę (X, B(X ), P X ) nazywamy modelem probabilistycznym. Przykład. Ze zbioru pięciu ponumerowanych elementów losujemy jeden element Ω = {ω 1,..., ω 5 } P ({ω i } = 1/5) ω i wylosowano i ty element Wtedy dla X(ω i ) = i mamy X = {1, 2, 3, 4, 5} oraz P X (i) = 1/5, i = 1, 2, 3, 4, 5 P X (A) = i A P X (i), dla A X 32
33 Definicja. Dystrybuanta zmiennej losowej X, jest to funkcj F : R [0, 1] określona wzorem F X (x) = P (X x) Własności dystrybuanty W1. F jest niemalejąca x 1 < x 2, A = (, x 1 ], B = (, x 2 ], A B F (x 1 ) = P (A) P (B) = F (x 2 ) W2. lim F (x) = 0, lim x F (x) = 1 x {x n } ( ) lim F (x) = lim F (x n) = P (, x n ] x n n = P ((, )) = 1 33
34 {x n } ( ) lim F (x) = lim n) = P x n (, x n ] n = P ( ) = 0. W3. F jest prawostronnie ciągła lim x x + 0 {x n } x 0 ( ) F (x) = lim F (x n) = P (, x n ] n n = P ((, x 0 ]) = F (x 0 ), 34
35 Twierdzenie 8. Każda funkcja F : R [0, 1] o własnościach 1 3 jest dystrybuantą pewnej zmiennej losowej. Dowód. F 1 (u) := inf{x : F (x) u} dla 0 < u < 1 F 1 (u) x u F (x) Niech U oznacza zmienną losową o rozkładzie równomiernym na zbiorze (0, 1): F U (u) = P (U u) = u Niech X = F 1 (U). F X (x) = P (X x) = P (F 1 (U) x) = P (U F (x)) = F (x) 35
36 Własności dystrybuanty, ciąg dalszy oznaczmy F (a+) := lim x a + F (x) (?) (i) P (a < X b) = F (b) F (a) (ii) P (X = a) = F (a) F (a ) (iii) P (a X b) = F (b) F (a ) (iv) P (a < X < b) = F (b ) F (a) F (b) F (a) a... P (a < X b). b 36
37 Zmienne losowe typu skokowego Definicja. Mówimy, że zmienna losowa jest typu skokowego (dyskretna), jeżeli istnieje zbiór skończony lub przeliczalny X R taki, że P X (X ) = 1 Przykłady zmiennych losowych typu skokowego: rozkład dwumianowy rozkład Poissona rozkład ujemny dwumianowy rozkład wielomianowy 37
38 Rozkład dwumianowy Powtarzające się i niezależne próby nazywamy próbami Bernoulliego, jeżeli każda próba ma tylko dwa możliwe wyniki: sukces z prawdopodobieństwem p oraz porażka z prawdopodobieństwem q Niech X oznacza ilość sukcesów osiągniętych w ciągu n prób Bernoulliego. Zmienna losowa X ma następujący rozkład prawdopodobieństwa: ( ) n P (X = k) = p k q n k, k gdzie p (0, 1) oraz k = 0, 1,..., n. O zmiennej losowej X mówimy, że ma rozkład dwumianowy (X B(n, p)). 38
39 Przykład. Dziesięciu robotników używa z przerwami energię elektryczną. Jakiego należy oczekiwać obciążenia, jeżeli 1. W każdej danej chwili każdy robotnik ma to samo prawdopodobieństwo p zapotrzebowania na jednostkę energii. 2. Robotnicy pracują niezależnie od siebie. 3. Przeciętnie jeden robotnik używa dostarczanej energii w ciągu 12 minut na godzinę. Niech X oznacza liczbę robotników, którzy potrzebują energii w tym samym czasie. X B(10, 1/5). Wówczas, jeżeli dopływ energii jest ustalony na poziomie sześciu jednostek, to przeciążenie ma szanse: P (X 7) = (?) W ciągu 20 godzin powinno trwać łącznie przez około minutę. 39
40 Rozkład Poissona Zmienna losowa X ma rozkład Poissona z parametrem λ > 0 (X P 0 (λ)), jeżeli: P (X = k) = e λ λ k, k = 0, 1,... k! Rozkład Poissona a rozkład dwumianowy. Załóżmy, że liczba doświadczeń n w poszczególnych seriach schematu Bernoulliego wzrasta dążąc do nieskończoności a prawdopodobieństwo p dąży do zera tak, że iloczyn np jest wielkością stałą równą λ > 0. Wtedy zachodzi lim n ( n )p k (1 p) n k = e λ λ k. k k! Wynika to z rozpisania: ( n k) p k (1 p) n k = = 1 ( λ k! (n k + 1)(n k + 2)... n n ( = λk 1 k 1 ) ( 1 k 2 )... k! n n ( ) 1 n ) k ( 1 λ ) n k n ( 1 λ ) n k n 40
41 Przykład. Jakie jest prawdopodobieństwo p k, że wśród 500 ludzi dokładnie k będzie miało urodziny w dniu Nowego Roku? Jeżeli 500 ludzi zostało wybranych losowo, to możemy zastosować schemat 500 prób Bernoulliego z prawdopodobieństwem sukcesu 1/365. Wówczas p 0 = (364/365) 500 = Dla przybliżenia Poissona bierzemy λ = 500/365 = Wtedy p 0 e !
42 Ujemny rozkład dwumianowy. Prowadzimy doświadczenia według schematu Bernoulliego do momentu pojawienia się r tego sukcesu. Niech X oznacza liczbę porażek poprzedzających r ty sukces. ( ) ( ) r + k 1 r + k 1 P (X = k)= p r 1 q k p = p r q k k k gdzie q = 1 p, k = 0, 1,... O zmiennej losowej X mówimy, że ma ujemny rozkład dwumianowy (X f(r, p)). Zakładamy, że r > 0 oraz 0 < p < 1. Uwaga. Możemy przyjąć, że r > 0 nie musi być liczbą całkowitą. Wtedy przyjmujemy następującą definicję symbolu Newtona (dla a R oraz k 0) ( ) a k := a(a 1)(a 2)... (a (k 1)), k N k! 1, k = 0 0, k / Z 42
43 Przykład. Zadanie Banacha o pudełkach zapałek. Mamy dwa pudełka zapałek jedno w prawej kieszeni i jedno w lewej. Kiedy potrzebujemy zapałkę, wybieramy jedną z kieszeni losowo. Przypuśćmy, że początkowo każde z pudełek zawiera N zapałek. Ile wynosi prawdopodobieństwo, że gdy wyciągniemy puste pudełko, w drugim będzie dokładnie m zapałek. X liczba wyciągnięć pudełka z prawej kieszeni do momentu aż w drugim pudełku będzie m zapałek Y... z lewej kieszeni... X f(n m, 0.5), Y f(n m, 0.5) Poszukiwane prawdopodobieństwo wynosi P ({X = N + 1} {Y = N + 1}) = = P (X = N + 1) + P (Y = N + 1) 43
44 Rozkład wielomianowy uogólnienie rozkładu dwumianowego Wykonujemy serię n niezależnych prób. Każda próba może mieć jeden z kilku wyników, np. E1, E2,..., E r. Prawdopodobieństwo realizacji E i w każdej próbie wynosi p i, i = 1, 2,..., r. Prawdopodobieństwo, że w n próbach E 1 występuje k 1 razy, E 2 występuje k 2 razy itd. wynosi n! k 1!k 2!... k r! pk 1 1 pk pk r r 44
45 Zmienne losowe typu ciągłego Definicja. Mówimy, że zmienna losowa o dystrybuancie F jest typu ciągłego, jeżeli istnieje taka funkcja f 0, że dla każdego x zachodzi równość F (x) = x f(u) du Funkcję f nazywamy gęstością prawdopodobieństwa zmiennej losowej X lub w skrócie gęstością Uwagi (1) W punktach, w których f jest ciągła zachodzi d F (x) = f(x) dx (2) f(x) dx = 1 (3) Każda funkcja f nieujemna i spełniająca (2) wyznacza dystrybuantę F za pomocą wzoru F (x) = x f(u) du 45
46 Przykład. Sprawdzić, czy funkcja f określona wzorem { 0 dla x < 0 f(x) = e x dla x 0 jest gęstością. f(x) dx = 0 e x dx = [ e x] 0 = 1 Przykłady zmiennych losowych ciągłych: rozkład normalny N(µ, σ 2 ) rozkład jednostajny U(a, b) rozkład gamma G(b, p) rozkład beta B(p, q) rozkład Cauchyego C(µ, λ) 46
47 N(µ, σ 2 ), σ > 0 f(x) = 1 [ ] (x µ) 2 σ 2π exp 2σ 2 U(a, b), a < b f(x) = 1 b a, x [a, b], 0, x / [a, b] G(b, p), b > 0, p > 0 f(x) = b p Γ(p) xp 1 e bx, x > 0 0, x 0 gdzie Γ(p) = 0 x p 1 e x dx 47
48 B(p, q), b > 0, p > 0 f(x) = 1 B(p, q) xp 1 (1 x) q 1, x (0, 1) 0, x / (0, 1) gdzie B(p, q) = 1 x p 1 (1 x) q 1 dx a także 0 B(p, q) = Γ(p)Γ(q) Γ(p + q) C(µ, λ), λ > 0 f(x) = 1 π λ λ 2 + (x µ) 2 48
49 Przykład. Sprawdzimy, że rozkład N(µ, σ 2 ) jest rzeczywiście rozkładem prawdopodobieństwa: [ ] 1 (x µ) 2 σ 2π exp 2σ 2 podstawienie: y = (x µ)/σ = 1 ) exp ( y2 dy = 2π 2 dx = Należy zatem sprawdzić, że ostatnia całka równa jest 2π. Ponadto zauważmy, że przy okazji otrzymaliśmy następujący fakt X N(µ, σ 2 ) X µ σ N(0, 1) 49
50 exp = exp ( y2 2 ( x2 2 ) 2 dy = ) dx = exp ( x2 + y 2 ) 2 exp ( y2 dx dy = 2 ) dy = przejście na współrzędne biegunowe: ϕ(r, t) = (r cos t, r sin t) Jϕ(r, t) = cos(t) r sin(t) sin(t) r cos(t) = r 2π = exp 0 0 ( r2 2 = 2π [ exp r2 2 ) r dr dt = 2π ] 0 = 2π 0 exp ( r2 2 ) r dr = 50
51 Funkcje zmiennej losowej Przykład. Niech Y = ax +b, gdzie a 0 oraz X jest zmienną losową o rozkładzie P (X = 0) = 1/4, P (X = 1) = 3/4. Chcemy znaleźć rozkład zmiennej losowej Y. P (X = 0) = P (Y = b) = 1/4 P (X = 1) = P (Y = a + b) = 3/4 Przykład. Niech X będzie zmienną losową typu ciągłego o gęstości f X, dystrybuancie F X oraz niech Y = ax + b, a < 0. Chcemy znaleźć rozkład Y F Y (y) = P (Y y) = P (X y b a ) = ( = 1 P X < y b ) ( ) y b = 1 F X a a Zatem f Y (y) = d dy F Y (y) = 1 a f X ( ) y b a 51
52 Przykład. Niech X oznacza zmienną losową ciągłą o dystrybuancie F X oraz gęstości f X. Niech f X jest funkcją ciągłą, a g funkcją ściśle monotoniczną oraz niech h = g 1. Wtedy dystrybuantą zmiennej losowej Y = g(x) jest: (dla g - rosnącej) F Y (y) = P (Y y) = P (g(x) y) = P (X h(y)) = F X (h(y)) Jeżeli h jest funkcją różniczkowalną, to d dy F Y (y) = f X (h(y))h (y) jest gęstością zmiennej losowej Y = g(x) (dla g - malejącej) F Y (y) = P (Y y) = P (g(x) y) = P (X h(y)) = 1 F X (h(y)) Jeżeli h jest funkcją różniczkowalną, to d dy F Y (y) = f X (h(y))( h (y)) jest gęstością zmiennej losowej Y = g(x) 52
53 Zatem w obu przypadkach f Y (y) = f X (h(y)) h (y) Przykład. Niech X nieujemna zmienna losowa typu ciągłego oraz Y = X. Zatem h(y) = y 2 oraz f Y (y) = 2y f X (y 2 ) I (0, ) (y) Uwaga. I A (x) = { 1, x A 0, x / A Przykład. Niech X zmienna losowa typu ciągłego oraz Y = X 2. F Y (y) = P (X 2 y) = P ( y X y) = = P (X y) P (X y) = F X ( y) F X ( y) f Y (y) = d dy F Y (y) = d dy (F X( y) F ( y)) = = 1 2 y (f X( y) + f X ( y)) 53
54 Twierdzenie 9. Niech X będzie zmienną losową typu ciągłego. Niech g będzie funkcją określoną na zbiorze n [a k, b k ], k=1 która na każdym przedziale otwartym (a k, b k ) jest funkcją ściśle monotoniczną oraz ma ciągłą pochodną g(x) 0. Niech h k (y) będzie funkcją odwrotną do funkcji g(x) na przedziale I k = g((a k, b k )) = {y : x (a k, b k ), g(x) = y}. Wówczas funkcja gęstości zmiennej losowej Y = g(x) ma następującą postać f Y (y) = n f X (h k (y)) h (y) I Ik (y) k=1 Przykład. X ciągła, Y = X 2. Wtedy g(x) = x 2, h 1 (y) = y, h 2 (y) = y, I 1 = I 2 = (0, ). 54
55 Dowód. Niech A B(R) P (Y A) = P (g(x) A) = P (X g 1 (A)) n = P (X (a k, b k ) g 1 (A)) k=1 n = P (X g 1 (I k ) g 1 (A)) k=1 n = P (X g 1 (I k A)) k=1 n = P (X h k (I k A)) k=1 n = f X (x) dx k=1 h k (I k A) n = f X (h k (y)) h k(y) dy k=1 I k A n = f X (h k (y)) h k(y) I Ik dy A k=1 Pytanie: Czy coś by się zmieniło, gdyby n =? 55
56 Wektory losowe Definicja. Wektor losowy X = (X 1,..., X n ) to odwzorowanie X : Ω X R n o własności: {ω Ω : X 1 (ω) x 1,..., X n (ω) x n } F dla dowolnego (x 1, x 2,..., x n ) R n X zbiór wartości wektora losowego Często X = {0, 1,... } n, X = [0, ) n, X = [a, b] n, X = R n Definicja. Rozkładem prawdopodobieństwa wektora losowego X nazywamy rozkład prawdopodobieństwa P X określony wzorem P X (A) = P ({ω Ω : X(ω) A}) dla A B(X ) 56
57 Definicja. Trójkę (X, B(X ), P X ) nazywamy modelem probabilistycznym. Definicja. Funkcja F X : R n [0, 1] postaci F X (x 1,..., x n ) = P (X 1 x 1,..., X n x n ) nazywamy dystrybuantą wektora losowego X Definicja. Wektor losowy jest typu skokowego, jeżeli istnieje zbiór przeliczalny X R n, taki że P X (X ) = 1 Definicja. Wektor losowy jest typu ciągłego, jeżeli istnieje nieujemna funkcja f X (x 1, x 2,..., x n ), zwana gęstością, taka że dla każdego x = (x 1, x 2,..., x n ) R n F X (x) = x 1 x 2 f X (u 1,..., u n ) du 1... du n 57
58 Uwagi Prawie wszędzie ma miejsce równość F X (x 1,..., x n ) x 1,..., x n = f X (x 1,..., x n ) Dla dowolnego A B(R n ) zachodzi f X (x) dx Zauważmy, że A P (X 1 A) = P (X 1 A, X 2 R,..., X n R) = f X (x 1,..., x n ) dx 1... dx n = A f X (x 1,..., x n ) dx 2... dx n dx 1 A Zatem f X1 (x 1 ) = f X (x 1,..., x n ) dx 2... dx n Jest to tzw. brzegowa gęstość prawdopodobieństwa. 58
59 Dla rozkładów brzegowych wielowymiarowych mamy: f (X1,X 2 )(x 1, x 2 ) = = f X (x 1,..., x n ) dx 3... dx n f (X1,X 2,X 3 )(x 1, x 2, x 3 ) = = f X (x 1,..., x n ) dx 4... dx n itd. Podobnie postępuje się przy rozkładach skokowych: Przykład. Niech wektor losowy (X, Y ) ma rozkład określony liczbami p ik = P (X = x i, Y = y k ), gdzie i I, k K. Wówczas rozkład zmiennej losowej X określają liczby p i = P (X = x i ) = k K p ik, gdzie i I 59
60 Przykład. Niech (X, Y ) ma rozkład równomierny na Ω = [0, 2] [0, 3]: f X,Y (x, y) = 1 6 I Ω(x, y). Wówczas f X (x) = f X,Y (x, y) dy = 1 6 I Ω (x, y) dy = = 1 6 I [0,2] (x) I [0,3] (y) dy = = 1 6 I [0,2](x) I [0,3] (y) = 1 2 I [0,2](x) 60
61 Przykład. Niech (X 1, X 2 ) ma dwuwymiarowy rozkład normalny, tzn: 1 f X1,X 2 (x 1, x 2 ) = 2πσ 1 σ 2 (1 ϱ 2 ) 1 2 { [ (x1 ) 2 1 µ 1 exp 2(1 ϱ 2 + ) σ 1 ( ) ]} 2 x2 µ 2 + 2ϱ (x 1 µ 1 )(x 2 µ 2 ) σ 2 σ 1 σ 2 gdzie σ 1, σ 2 > 0 oraz ϱ ( 1, 1) Rozpisujemy wyrażenie w nawiasie kwadratowym: ( ) 2 ( ) 2 x1 µ 1 x2 µ 2 + 2ϱ (x 1 µ 1 )(x 2 µ 2 ) = σ 1 σ 2 σ 1 σ 2 ( ) 2 ( ) 2 x1 µ 1 x2 µ 2 = + σ 1 + ϱ 2 (x 2 µ 2 ) 2 σ 2 2 σ 2 ϱ 2 (x 2 µ 2 ) 2 σ 2 2 2ϱ (x 1 µ 1 )(x 2 µ 2 ) σ 1 σ 2 = 61
62 ( x1 µ 1 = = 1 σ 2 1 σ 1 ϱ x 2 µ 2 σ 2 ( x 1 µ 1 ϱ σ 1 σ 2 (x 2 µ 2 ) ) 2 + (1 ϱ 2 ) (x 2 µ 2 ) 2 σ 2 2 = ) 2 + (1 ϱ 2 ) (x 2 µ 2 ) 2 σ 2 2 Zatem wyrażenie w nawiasie klamrowym ma postać: h(x 1,x 2 ) {}}{ ( 1 2(1 ϱ 2 )σ1 2 x 1 µ 1 ϱ σ ) 2 1 (x 2 µ 2 ) σ 2 1 2σ2 2 (x 2 µ 2 ) 2 Zatem 1 f X1,X 2 (x 1, x 2 ) = 2πσ 1 σ 2 (1 ϱ 2 ) 1 2 { exp h(x 1, x 2 ) 1 } 2σ2 2 (x 2 µ 2 ) 2 62
63 Zauważmy, że g(x 1 ) := 1 2π(1 ϱ2 )σ 1 exp(h(x 1, x 2 )) jest gęstością rozkładu N ( µ 1 + ϱ σ ) 1 (x 2 µ 2 ), (1 ϱ 2 )σ1 2 σ 2 Zatem f X2 (x 2 ) = f X1,X 2 (x 1, x 2 ) dx 1 = = 1 2πσ2 exp { 1 2σ 2 2 } (x 2 µ 2 ) 2 g(x 1 ) dx 1 } {{ } =1 Wniosek: Rozkład brzegowy dwuwymiarowego rozkładu normalnego jest jednowymiarowym rozkładem normalnym 63
64 Niezależność zmiennych losowych Definicja. Niech (Ω, F, P ) będzie przestrzenią probabilistyczną, a X 1, X 2,..., X n będą zmiennymi losowymi określonymi na tej przestrzeni. Mówimy, że te zmienne losowe są niezależne, jeżeli dla dowolnych zbiorów borelowskich A 1, A 2,..., A n zachodzi: P (X 1 A 1,... X n, A n ) = = P (X 1 A 1 )... P (X n A n ) Definicja. Mówimy, że zmienne losowe X 1, X 2,... są niezależne, jeżeli każdy skończony podciąg ciągu X 1, X 2,... składa się z niezależnych zmiennych losowych Twierdzenie 10. Dla zmiennych losowych X 1, X 2,..., X n następujące warunki są równoważne (i) zmienne losowe są niezależne (ii) dla x = (x 1, x 2,..., x n ) R n F X (x) = F X1 (x 1 )... F Xn (x n ) 64
65 Twierdzenie 11. Jeżeli X = (X 1, X 2,..., X n ) jest wektorem losowym typu skokowego to warunkiem koniecznym i wystarczającym niezależności zmiennych losowych X 1, X 2,..., X n jest: P (X 1 = x 1,..., X n = x n ) = = P 1 (X 1 = x 1 )... P n (X n = x n ), dla każdego (x 1,..., x n ) R n, gdzie P k oznacza brzegowy rozkład prawdopodobieństwa zmiennej losowej X k (k = 1, 2,..., n). Twierdzenie 12. Jeżeli X = (X 1, X 2,..., X n ) jest wektorem losowym typu ciągłego o gęstości f X, to warunkiem koniecznym i wystarczającym niezależności zmiennych losowych X 1, X 2,..., X n jest: f X (x) = f X1 (x 1 )... f Xn (x n ), dla każdego x = (x 1,..., x n ) R n, gdzie f Xk jest gęstością rozkładu brzegowego zmiennej losowej X k (k = 1,..., n ) 65
66 Przykład. Niech X 1, X 2 ma łączny rozkład normalny. Chcemy znaleźć warunek konieczny i wystarczający na niezależność zmiennych X 1 oraz X 2. Z twierdzenia mamy, że powinno zachodzić Ponieważ f X1,X 2 (x 1, x 2 ) = f X1 (x 1 )f X2 (x 2 ) 1 f X1,X 2 (x 1, x 2 ) = 2πσ 1 σ 2 (1 ϱ 2 ) 1 2 { [ (x1 ) 2 1 µ 1 exp 2(1 ϱ 2 + ) σ 1 ( ) ]} 2 x2 µ 2 + 2ϱ (x 1 µ 1 )(x 2 µ 2 ) σ 2 σ 1 σ 2 oraz f X1 (x 1 ) = f X2 (x 2 ) = [ 1 (x1 µ 1 ) 2 ] exp σ 1 2π 2σ1 2 [ 1 (x2 µ 2 ) 2 ] exp σ 2 2π 2σ2 2 zauważamy, że warunkiem tym jest ϱ = 0 66
67 Przykład. Niech X i N(µ i, σi 2 ), i = 1, 2,, n. Wówczas n f Xi (x i ) = i=1 = = [ 1 n exp 1 2 (σ i 2π) i=1 ] n (x i µ i ) 2 = i=1 [ 1 (2π)n Σ exp 1 ] 2 (x µ)σ 1 (x µ), σ 2 i gdzie x = (x 1, x 2,..., x n ), µ = (µ 1, µ 2,..., µ n ) oraz Σ = σ σ 2 n Wniosek: Jeżeli X = (X 1, X 2,..., X n ) N n (µ, Σ), to warunkiem koniecznym i dostatecznym niezależności zmiennych losowych X i, i = 1, 2,..., n jest to, aby macierz Σ była diagonalna. 67
68 Twierdzenie 13. (a) Jeżeli zmienne losowe X 1, X 2,..., X n są niezależne oraz g 1, g 2,..., g n są funkcjami borelowskimi, to zmienne losowe Y 1 = g 1 (X 1 ),..., Y n = g n (X n ) są również niezależne. (b) Jeżeli X 1,..., X m, Y 1,..., Y n zmiennymi losowymi oraz są niezależnymi f : R m R i g : R n R są funkcjami borelowskimi, to U = f(x 1,..., X m ) i V = g(y 1,..., Y n ) są niezależnymi zmiennymi losowymi, a także U, Y 1,..., Y n są niezależnymi zmiennymi losowymi. 68
69 Przykład. Niech X i N(0, 1), i = 1, 2 będą zmiennymi niezależnymi. Chcemy znaleźć rozkład zmiennej losowej X X 2 2. Ponieważ zmienne X 1, X 2 są niezależne, to zmienne Y 1 = X1 2, Y 2 = X2 2 też są niezależne. Zatem Ponieważ f Y1,Y 2 (y 1, y 2 ) = f Y1 (y 1 )f Y2 (y 2 ) f Yi (y i ) = 1 2 y i (f Xi ( y i ) + f Xi ( y i )) I (0, ) (y i ) oraz mamy f Xi (x i ) = 1 [ x 2 σ 2π exp i 2 f Yi (y i ) = 1 [ exp y ] i I (0, ) (y i ) 2πyi 2 ] 69
70 Niech Z = X1 2 + X2 2 = Y 1 + Y 2. F Z (z) = P (Y 1 + Y 2 z) = f Y1,Y 2 (y 1, y 2 ) dy 1 dy 2 = = z y 2 Y 1 +Y 2 z f Y1,Y 2 (y 1, y 2 ) dy 1 dy 2 = = = z y 2 z f Y1 (y 1 ) dy 1 f Y2 (y 2 )dy 2 = f Y1 (y 1 y 2 ) dy 1 f Y2 (y 2 )dy 2 = = z f Y1 (y 1 y 2 )f Y2 (y 2 ) dy 2 dy 1 Zmiana oznaczeń dla funkcji w nawiasach: z := y 1, x := y 2 Zatem f Z (z) = f Y1 (z x)f Y2 (x) dx 70
71 Robimy odpowiednie podstawienie i otrzymujemy dla z > 0: f Z (z) = 1 2π z 0 [ 1 exp z x + x ] dx = (z x)x 2 = 1 [ 2π exp z ] z 2 podstawienie t := x/z 0 = 1 [ 2π exp z ] (z x)x dx = t 1 2 (1 t) 1 2 dt = = 1 [ 2π exp z ] B(1/2, 1/2) = 2 = 1 [ 2π exp z ] Γ( 1 2 )Γ( 1 2 ) 2 Γ( ) = = 1 [ 2 exp z ] 2 Zatem f Z (z) = 1 [ 2 exp z ] I (0, ) (z) 2 71
72 Można pokazać przez indukcję ze względu na n, że zmienna losowa Z = X X 2 n ma rozkład o gęstości f Z (z) = 1 2 n/2 Γ(n/2) zn/2 1 e z/2 I (0, ) (z) Jest to tzw. rozkład chi-kwadrat o n stopniach swobody. Symbolicznie piszemy X X 2 n χ 2 (n) Fakt. m λ i Xi 2 χ2 (n), Xi 2 χ2 (1) m = n, λ i = 1 i=1 72
73 Parametry rozkładów Wartość oczekiwaną (wartość przeciętna, nadzieję matematyczną) zmiennej losowej X oznaczamy symbolem E(X) i określamy w następujący sposób: Dla zmiennej losowej skokowej Jeżeli X jest zmienną losową typu skokowego, X = {x 1, x 2,... }, przy czym szereg x k P (X = x k ) jest zbieżny, to k E(X) = k Dla zmiennej losowej ciągłej x k P (X = x k ) Jeżeli X jest zmienną losową typu ciągłego o gęstości f i zbieżna jest całka x f(x) dx, to R E(X) = x f(x) dx R Ogólnie: E(X) = Ω X(ω)dP (ω) 73
74 Przykład. Niech X = {0, 1}, P (X = 0) = q, P (X = 1) = p = 1 q. Wówczas E(X) = 0 q + 1 p = p Przykład. Niech X B(n, p). Wówczas n ( ) n E(X) = k p k q n k = k k=0 n n! = k k!(n k)! pk 1 q n k = k=1 = np n k=1 (n 1)! (k 1)!(n k)! pk 1 q n k = = np (p + q) n 1 = np Przykład. Niech X P o (λ). Wówczas E(X) = k λk k! e λ = λe λ λ k 1 (k 1)! = k=0 = λe λ r=0 k=1 λ r r! = λe λ e λ = λ 74
75 Przykład. Niech X N(µ, σ 2 ). Wówczas E(X) = 1 σ 2π Stosujemy podstawienie z = x µ σ E(X) = 1 2π [ ] (x µ) 2 x exp 2σ 2 dx (µ + σz)e z2 2 dz = i otrzymujemy = µ 2π e z2 2 dz + σ 2π ze z2 2 dz = = µ 2π 2π + σ 2π 0 = µ Przykład. Niech X C(0, 1). Wówczas x π(1 + x 2 ) = 2 lim A A dx = 2 lim A 0 1 2π ln(1 + A2 ) = x π(1 + x 2 ) dx = Wniosek: Dla rozkładu Cauchy ego wartość oczekiwana nie istnieje. 75
76 Własności wartości oczekiwanej Jeżeli E(X) <, E(Y ) <, to (i) E(X + Y ) = E(X) + E(Y ) (ii) E(aX + b) = ae(x) + b, (iii) Jeżeli X 0, to E(X) = (iv) Jeżeli X oraz Y są niezależne, to 0 dla a, b R P (X > t) dt E(XY ) = E(X)E(Y ) Przykład. Niech X i, i = 1, 2,... n, ma rozkład dwupunktowy: P (X i = 0) = q, P (X i = 1) = p Jeżeli zdarzenia A i = {X i = 1} są niezależne, to Zatem n X = X i B(n, p) k=1 n n E(X) = E(X k ) = p = np k=1 k=1 76
77 Twierdzenie 14. Jeżeli funkcja ϕ jest borelowska, to (i) Dla X z rozkładu skokowego E(ϕ(X)) = k ϕ(x k )P (X = x k ) (ii) Dla X z rozkładu ciągłego o gęstości f(x) E(ϕ(X)) = ϕ(x)f(x) dx R Przykład. Znaleźć wartość oczekiwaną pola prostokąta, którego obwód jest równy 10, a jeden bok jest zmienną losową X o rozkładzie U[1, 10]. Pole = X(10 X), f X (x) = 1 9 I [1,10](x) E(X(10 X)) = x(10 x)f X (x) dx = = x(1 x) dx = 18 77
78 Problem. Jak możliwie najdokładniej zmierzyć długości dwóch prętów za pomocą zwykłej miarki, jeśli wolno mierzyć tylko dwa razy? Propozycje 1. Mierzymy osobno każdy pręt. 2. Mierzymy sumę długości prętów, składając je razem, a potem różnicę. Miernik precyzji pomiaru. Wynik pomiaru = rzeczywista długość + błąd X = x + ε ad 1. E(X x) 2 = E(ε) 2 Niech X i oznacza pomiar i tego pręta, i = 1, 2. Zatem X i = x i + ε i. Wielkość błędu pomiaru pierwszego pręta wynosi E(ε 1 ) 2, a drugiego E(ε 2 ) 2. Rozsądnie jest przyjąć E(ε 1 ) 2 = E(ε 2 ) 2 = σ 2 78
79 ad 2. Niech S oznacza pomiar sumy długości prętów oraz R różnicę. S = x 1 + x 2 + ε 1 R = x 1 x 2 + ε 2 Jako oszacowanie x 1 przyjmujemy S + R 2 = x 1 + ε 1 + ε 2 2 Jako oszacowanie x 2 przyjmujemy S R 2 Rozsądnie jest przyjąć, że = x 2 + ε 1 ε 2 2 E(ε 1 ) = E(ε 2 ) = 0, oraz ε 1, ε 2 niezależne Na mocy twierdzenia 19, 20 oraz założeń: E ( ε1 ± ε 2 2 ) 2 = 1 4 E(ε 1) E(ε 2) 2 ± 1 2 E(ε 1)E(ε 2 ) = 1 4 E(ε 1) E(ε 2) 2 ± 0 0 = σ2 2 Średni kwadrat błędu jest dwa razy mniejszy niż poprzednio. 79
80 Zauważmy, że jeżeli E(ε) = 0 to E(X) = x. Zatem E(X x) 2 = E(X E(X)) 2 Definicja. Jeżeli E(X EX) 2 <, to tę liczbę nazywamy wariancją zmiennej losowej X i oznaczamy: D 2 X = E(X EX) 2. Uwaga. D 2 X = E(X EX) 2 = E(X 2 2X EX + (EX) 2 ) = EX 2 (EX) 2 Definicja. Pierwiastek z wariancji nazywamy odchyleniem standardowym i oznaczamy przez DX. 80
81 Własności wariancji Jeżeli X jest zmienną losową, dla której EX 2 <, to istnieje D 2 X oraz: (i) D 2 X 0 (ii) D 2 (cx) = c 2 D 2 X (iii) D 2 (X + a) = D 2 X (iv) D 2 X = 0 wtedy i tylko wtedy, gdy zmienna losowa X jest z prawdopodobieństwem 1 stała Uwaga. E(X t) 2 =E(X EX + EX t) 2 =E(X EX) 2 + E(X t) 2 2E((X EX)(EX t)) =E(X EX) 2 + E(X t) 2 2E(X EX) E(EX t) E(X EX) 2 Zatem funkcja f(t) = E(X t) 2 przyjmuje minimum równe wariancji dla t = EX. 81
82 Przykład. Zagadnienie regresji liniowej. Chcemy zmienną Y w rozsądny sposób przybliżyć przy pomocy funkcji liniowej zmiennej X. Za kryterium jakości przybliżenia przyjmiemy średni kwadrat błędu: wyznaczyć takie liczby a i b, ażeby E(Y ax b)) 2 była minimalna. Na podstawie uwagi b = E(Y ax) = EY aex Zatem szukamy takiego a, które minimalizuje E(Y ax (EY aex))) 2 = = E(Y EY a(x EX)) 2 = D 2 Y + a 2 D 2 X 2aE((Y EY )(X EX)) Mamy tu funkcję kwadratową względem a. Zatem a = E((Y EY )(X EX)) D 2 X 82
83 Oznaczając ϱ(x, Y ) = E((Y EY )(X EX)) D2 X D 2 Y mamy oraz ax + b = ϱ(x, Y ) DY (X EX) + EY DX min a,b E(Y ax b)2 = (1 ϱ(x, Y ) 2 )D 2 Y Definicja. Kowariancją całkowalnych zmiennych losowych X, Y, spełniających warunek E XY <, nazywamy wielkość Cov(X, Y ) = E((Y EY )(X EX)). Definicja. Współczynnikiem korelacji zmiennych X, Y nazywamy wielkość E((Y EY )(X EX)) ϱ(x, Y ) =. D2 X D 2 Y Uwaga. Z ostatniej równości w przykładzie wynika: (i) 1 ϱ(x, Y ) 1 (ii) ϱ(x, Y ) = 1 wtedy i tylko wtedy, gdy istnieją liczby a 0 oraz b takie, że P (Y = ax + b) = 1 83
84 Wariancja sumy zmiennych losowych Jeżeli każda ze zmiennych losowych X 1, X 2,..., X n ma wariancję, to istnieje wariancja sumy i D 2 (X X n ) = n D 2 X i +2 Cov(X i, X j ) i=1 1 i<j n Definicja. Zmienne losowe X, Y, dla których Cov(X, Y ) = 0, czyli ϱ(x, Y ) = 0, nazywamy nieskorelowanymi. Wniosek. Jeśli zmienne losowe X 1, X 2,..., X n mają wariancję i są parami nieskorelowane, to D 2 (X X n ) = n D 2 X i i=1 (?) Uwaga. Jeżeli X, Y są niezależne, to są nieskorelowane. Odwrotny fakt nie zachodzi (chyba, że mamy do czynienia z rozkładem normalnym) 84
85 Przykład. Niech (X 1, X 2 ) ma dwuwymiarowy rozkład normalny. Policzmy Cov(X 1, X 2 ). Zgodnie z przekształceniami z przykładu na rozkład brzegowy dwywymiarowego rozkładu normalnego mamy: f X1,X 2 (x 1, x 2 ) = f X2 (x 2 ) g(x 1, x 2 ) }{{} g(x 1 ) prz. gdzie f X2 (x 2 ) jest gęstością rozkładu N(µ 2, σ 2 2) oraz g(x 1, x 2 ) traktowana jako funkcja zmiennej x 1 z parametrem x 2, jest funkcją gęstości zmiennej Zatem N ( µ 1 + ϱ σ ) 1 (x 2 µ 2 ), (1 ϱ 2 )σ1 2 σ 2 Cov(X 1, X 2 ) = E((X 1 µ 1 )(X 2 µ 2 )) = = (x 1 µ 1 )(x 2 µ 2 )f X2 (x 2 )g(x 1, x 2 ) dx 1 dx 2 = 85
86 = (x 2 µ 2 )f X2 (x 2 ) (x 1 µ 1 )g(x 1, x 2 ) dx 1 dx 2 Zatem = (x 2 µ 2 )f X2 (x 2 ) ( µ 1 + ϱ σ )) 1 (x 2 µ 2 ) µ 1 dx 2 σ 2 A zatem = ϱ σ 1 σ 2 (x 2 µ 2 ) 2 f X2 (x 2 )dx 2 = ϱ σ 1 σ 2 σ 2 2 = ϱσ 1 σ 2 Stąd ϱ(x, Y ) = ϱ. Zatem X, Y niezależne X, Y nieskorelowane. 86
87 Rozkłady warunkowe Przykład. Niech (X, Y ) dwuwymiarowy wektor losowy typu skokowego Rozkład X {x 1, x 2,... }, Y {y 1, y 2,... } p ij := P (X = x i, Y = y j ) Prawdopodobieństwa brzegowe P (X = x i ) = k p ik, P (Y = y k ) = i p ik Zachodzi P (X = x i Y = y k ) 0, P (X = x i Y = y k ) = 1 P (Y = y k X = x i ) 0, Zatem dla ustalonego y k P ( Y = y k ) jest rozkładem prawdopodobieństwa. Podobnie P ( X = x i ) i P (Y = y k X = x i ) = 1 k 87
88 Przykład. Rzut dwiema kostkami. X wynik rzutu pierwszą kostką Y wynik rzutu drugą kostką U := min{x, Y }, V := max{x, Y } u \ v P (U = u) P (V = v) v suma P (V = v U = 3) E(V U = 3) = 33 7 F (4 U = 3) =
89 Przykład. Jaka jest średnia liczba sukcesów w pierwszej próbie, jeżeli wiemy, ile zaszło sukcesów w całej serii n doświadczeń według schematu Bernoulliego? Oznaczenia S n łączna liczba sukcesów Y liczba sukcesów w pierwszej próbie A k := {S n = k}, B k := A k {Y = 1} E(Y A k ) = Y (ω)p (ω A k ) = ω A k = 1 Y (ω)p (ω) = P (A k ) ω A k = 1 P (ω) = P (B k) P (A k ) P (A k ) = ω B k = p( ) n 1 k 1 p k 1 q (n 1) (k 1) ( n ) = k k pk q n k n Zatem E(Y S n ) = S n n oraz E(E(Y S n )) = E(S n /n) = E(S n) n = np n = p = E(Y ) 89
90 Przykład. Niech f(x, y) gęstość wektora (X, Y ). Rozkłady brzegowe dla zmiennej X : f 1 (x) := f(x, y) dy dla zmiennej Y : f 2 (y) := f(x, y) dx Niech P (x < X x + h) > 0. Wtedy P (Y y x < X x + h) = x+h x ( y x+h x f(x, y) dy f 1 (x) dx ) dx 90
91 (?) Przy założeniu, że f(x, y)... oraz f 1 (x)... P (Y y X = x) : = lim P (Y y x < X x + h) h 0 + ( ) x+h y f(x, y) dy dx Oznaczając = lim h 0 + = y 1 h x 1 h f(x, y) dy f 1 (x) x+h x = f 1 (x) dx y f(x, y) f 1 (x) dy F (y x) = P (Y y X = x), f(y x) = f(x, y)/f 1 (x) mamy F (y x) = y f(y x) dy 91
92 Zauważamy, że f 1 (x)f (y x) = Po scałkowaniu obu stron y f(x, y) dy f 1 (x)f (y x) dx = F Y (y) Przyjmując E(Y x) := yf(y x) dy mamy E(Y x)f 1 (x) dx = ( ) yf(y x) dy f 1 (x) dx = ( y ) f(x, y) f 1 (x) dy f 1 (x) dx 92
93 ( ) yf(x, y) dy dx = y ( ) f(x, y) dx dy = = yf 2 (y) dy = E(Y ) Otrzymaliśmy E(E(Y X)) = E(Y ) Definicja. Jeżeli (X, Y ) jest wektorem losowym o gęstości f(x, y) to funkcję f(y x) = { f(x,y) f 1 (x) gdy f 1 (x) > 0 0 w przeciwnym przypadku nazywamy gęstością warunkową zmiennej Y dla danego X = x. (?) f(y x) dy = 1 93
94 Nadal zachodzi E(E(Y X)) = E(Y ) Ponadto rozumiemy, że P (Y B x) = f(y x) dy rozkład warunkowy B Przyjmując Z(ω) = I B (Y (ω)) mamy E(Z) = I B (y)f 2 (y) dy = f 2 (y) dy B = P (Y B) E(Z x) = I B (y)f(y x) dy = f(y x) dy = P (Y B x) B Zatem E(P (Y B X)) = P (Y B) 94
95 Dla B = (, y] mamy dystrybuantę zmiennej Y F Y (y) = P (Y B) dystrybuantę zmiennej Y pod warunkiem X = x F (y x) = P (Y B x) oraz wzór E(F (y X)) = F Y (y) Przykład. Z odcinka [0,1] wybrano losowo (zgodnie z rozkładem równomiernym) punk X, a następnie z odcinka [0, X], również losowo, punkt Y. Jaka jest średnia długość odcinka [0, Y ]? E(Y X) = 1 2 X E(Y ) = E(E(Y X)) = E( 1 2 X) =
96 Przykład. Owad składa X jajeczek zgodnie z rozkładem Poissona z parametrem λ, a owad z jajeczka wylęga się z prawdopodobieństwem p, niezależnie od innych. Znaleźć średnią liczbę potomków. Niech Y oznacza liczbę potomków owada. Zatem E(Y X) = Xp Stąd EY = E(E(Y X)) = E(Xp) = λp Ten przykład pokazuje, jak można obliczać wartość oczekiwaną, korzystając z warunkowej wartości oczekiwanej. Właściwy wybór zmiennej losowej X często bardzo upraszcza rachunki. 96
97 Uwaga. Skorzystaliśmy ze wzoru EY = E(E(Y X)), gdy X typu skokowego. Ja w takim przypadku rozumieć gęstość łączną? Umowa: b a f(x, y) dy = P (X = x, a Y b) Przy takiej umowie możemy zachować bez zmian określenia gęstości warunkowych f(x y) = f(x, y) f(x, y), f(y x) = f 2 (y) f 1 (x) gdzie f 1 (x) = f(x, y) dy, f 2 (y) = x f(x, y) 97
98 Rodzaje zbieżności Przykład. Niech P -rozkład jednostajny na [0, 1] oraz X kn (ω) = dla 0 k n 1, n = 1, 2,... [ k 1 dla ω n ; k + 1 ) ; n [ k 0 dla ω Ω \ n ; k + 1 ) n P (X nk = 0) = 1 1 n, P ( X nk > ε) = 1 n n P (X nk = 1) = 1 n 0, dla 0 < ε < 1 O ciągu X 01, X 02, X 12, X 03, X 13, X 23,... powiemy, że jest zbieżny do zera według prawdopodobieństwa. Ciąg ten jest rozbieżny w każdym punkcie przedziału. Na przykład dla ω = 1/2 mamy ciąg: 0, 0, 1, 0,..., który na dowolnie dalekich miejscach ma zera i jedynki. 98
99 Definicja. Ciąg zmiennych losowych (X n ) n=1 zbieżny do zmiennej losowej X: według prawdopodobieństwa, jeśli jest dla każdego ε > 0 lim n P ( X n X > ε) = 0, co oznaczamy X n P X, prawie na pewno, jeśli ({ }) P ω : lim X n (ω) = X(ω) n = 1 co oznaczamy X n p.n. X X n p.n. X P ( lim N P lim N P N=1 n=n ( n=n ( n=n { X n X ε} ) { X n X ε} { X n X > ε} ) ) lim N P ({ X N X > ε}) = 0 X n P X = 1 = 1 = 0 99
100 Wniosek. Zbieżność prawie na pewno pociąga zbieżność według prawdopodobieństwa. Przykład. Niech X n ma rozkład P (X n = a n ) = 1. Zatem F Xn (t) = I [an, )(t) 1 F Xn. 1 F X.. a a n. a Gdy a n a okazuje się, że F Xn (a) 0 1 = F X (a) 100
101 Przykład. Niech F będzie dowolną dystrybuantą. Zdefiniujmy dystrybuantę F n (t)=f (t 1 n ), n=1, 2,... Wtedy F n (t) F (t ). Zauważmy, że F (t ) = F (t) tylko wtedy, gdy t jest punktem ciągłości t. Definicja. Ciąg zmiennych losowych (X n ) n=1 jest zbieżny do zmiennej losowej X według dystrybuant, jeśli ciąg dystrybuant (F Xn ) n=1 jest zbieżny do dystrybuanty F X w każdym punkcie jej ciągłości, co oznaczamy: D X X n Można pokazać ( X n p.n. X) (X n P X) (Xn D X) 101
102 Oznaczmy Prawa wielkich liczb S n = X 1 +X 2 + +X n, Xn = X 1 + X , X n n Niech X 1, X 2,... będzie ciągiem niezależnych zmiennych losowych o tym samym rozkładzie, o wartości średniej µ i wariancji 0 < σ 2 <. Wtedy dla każdego ε > 0 mamy Słabe prawo wielkich liczb lim P n ( X 1 + X X n n ) µ < ε = 1 X n P µ Mocne prawo wielkich liczb P ( lim n X 1 + X X n n ) = µ = 1 X n p.n. µ 102
103 Wniosek. Prawdopodobieństwo jest odpowiednikiem teoretycznym częstości. Faktycznie, jeżeli w wyniku powtórzenia niezależnie n razy doświadczenia otrzymaliśmy ω 1, ω 2,..., ω n, to I A (ω 1 ) + I A (ω 2 ) + + I A (ω n ) n p.n. EI A = P (A) Metoda Monte Carlo obliczania całek. Niech X i będą niezależnymi zmiennymi losowymi o wartościach w (0,1) i o gęstości g. Wtedy z MPWL S n = 1 n n i=1 f(x i ) g(x i ) n = 1 0 E f(x) g(x) [ ] f(x1 ) g(x 1 ) = g(x) dx = W szczególności, gdy X i U(0, 1), to 1 0 f(x) dx 1 n n i=1 f(x i ) n 1 0 f(x) dx 103
104 Przykład. Obliczanie liczby π przy pomocy komputera: generujemy 50 wartości z rozkładu U(0, 1) (kolumna x). Następnie wyliczamy y = 1 x 2. Z kolumny y wyliczamy średnią i mnożymy ją przez cztery. Otrzymujemy wartość Jeśli przybliżenia to nie nie jest zadowalające, można wygenerować na przykład 1000 wartości. x y x y x y
105 Dystrybuanta empiryczna F n (x) Powtarzamy pewne doświadczenie niezależnie n razy. W wyniku tego otrzymujemy ciąg X 1, X 2,..., X n niezależnych zmiennych losowych o nieznanej dystrybuancie F. Chcemy odtworzyć F. W tym celu dla każdego x R definiujemy F n (x)(ω) = 1 n n I {Xi x}(ω) i=1 Ponieważ to z MPWL E[I {X1 x}] = P (X 1 x) = F (x), F n (x) = 1 n n i=1 I {Xi x} n F (x) 105
106 Centralne twierdzenie graniczne Centralne Twierdzenie Graniczne Niech X 1, X 2,... będą niezależnymi zmiennymi losowymi o tym samym rozkładzie, o wartości średniej µ i wariancji 0 < σ 2 <. Wtedy sup x R ( P Sn nµ σ n ) x Φ(x) n 0 X n µ σ n D N(0, 1) Twierdzenie de Moivre Laplace a Niech Y n B(n, p). Wtedy sup x R ( P Yn np npq ) x Φ(x) n 0 106
107 Przykład. Wykonano n = 100 niezależnych rzutów monetą. Oznaczmy przez Y n liczbę orłów w n rzutach. Obliczymy P (Y n 61) P (Y n 61) = 1 P (Y n 60) = ( ) Yn = 1 P ( ) Yn = 1 P Φ(2) = Uwaga. Dość dobre przybliżenie uzyskujemy ze wzoru: ( P a Y ) n np b Φ(b + 1 npq 2 h) Φ(a 1 2 h), gdzie h = 1 npq 107
108 Szybkość zbieżności w centralnym twierdzeniu granicznym Twierdzenie Berry Esséen a Jeżeli X 1, X 2,... są niezależnymi zmiennymi losowymi o tym samym rozkładzie oraz E X 1 3 <, to sup x R ( P Sn nµ σ n ) x gdzie 1/ 2π C < 0.8. Φ(x) C E X 1 EX 1 3 σ 3, n Dla rozkładu dwumianowego: sup x R ( P Yn np npq ) x Φ(x) C p2 + q 2 npq 108
109 p 2 + q 2 pq p Dla p 1 lub p 0 przybliżenie rozkładem normalnym nie musi być zadowalające. Alternatywą jest przybliżenie rozkładem Poissona: Twierdzenie 15. Niech Y n B(n, p) oraz λ = np. Wtedy dla każdego zbioru M N mamy P (Y n M) k M λ k k! e λ λ2 n 109
110 Przykład. Prawdopodobieństwo trafienia szóstki w Toto-Lotku jest równe ( ) 49 1/ = 1/ Ilu szóstek można się spodziewać w każdym tygodniu, jeżeli grający wypełniają kupony całkowicie losowo i niezależnie od siebie, a kuponów jest n = Liczba szóstek ma rozkład dwumianowy, w przybliżeniu rozkład Poissona z parametrem λ = np λ k k k! e λ k! e λ k λ k Błąd przybliżenia rozkładem Poissona: λ 2 /n
111 Twierdzenie Słuckiego Niech X n D X oraz Yn D c, gdzie c jest pewną skończoną stałą. Wówczas: (i) X n + Y n D X + c (ii) X n Y n D cx (iii) X n /Y n D X/c Z twierdzenia Słuckiego wynika, że ciąg zmiennych losowych (X n ) n zbiega według rozkładu do N(µ, σ 2 ), jeżeli równoważnie ciąg X n µ zbiega do rozkładu σ N(0, 1). Asymptotyczna normalność Mówimy, że ciąg zmiennych (X n ) n jest asymptotycznie normalny o średniej µ n i wariancji σ 2 n, jeżeli σ 2 n > 0 dla dostatecznie dużych n oraz X n µ n σ n N(0, 1). Zapisujemy to jako: X n jest AN(µ n, σ 2 n). 111
112 Asymptotyczna normalność przy przekształaceniach Niech X n będzie AN(µ, σ 2 n), σ n 0. Niech g będzie funkcją różniczkowalną w punkcie x = µ oraz niech g (µ) 0. Wówczas g(x n ) jest AN(g(µ), (g (µ)) 2 σ 2 n) Przykład. Niech X n ma rozkład Poissona o wartości oczekiwanej θn, gdzie θ > 0. Wówczas X n jest AN(θn, θn) (wariancja rozkładu Poissona jest równa wartości średniej) lub równoważnie X n n jest AN(θ, θ n ). Niech g będzie rozwiązaniem równania dg(θ) dθ = 1/2 θ 1/2. To znaczy g(x) = x 1/2. Zatem (X n /n) 1/2 jest AN(θ 1/2, 1/(4n)) lub równoważnie X 1/2 n jest AN((θn) 1/2, 1/4). 112
113 Własności rozkładów Rozkład sumy niezależnych zmiennych losowych. Niech X, Y mają rozkłady dyskretne: x X P (X = x) = 1, y Y P (Y = y) = 1 Szukamy rozkładu zmiennej losowej Z = X + Y : P (Z = z) = P (X + Y = z) = = x X P (X = x, Y = z x) = = x X, z x Y P (X = x)p (Y = z x) = W przypadku, gdy X = {0, 1,... } oraz Y = {0, 1,... } mamy P (X + Y = r) = r P (X = i)p (Y = r i) i=0 113
114 Przykład. X B(n 1, p), Y B(n 2, p). P (X + Y = r) = r ( ) n1 = p i (1 p) n 1 i i i=0 r = p r (1 p) n 1+n 2 r = ( n1 + n 2 r ( n2 ( n1 i i=0 ) p r (1 p) n 1+n 2 r ) p r i (1 p) n 1 r+i r i )( ) n2 r i Zatem X + Y B(n 1 + n 2, p) Przykład. X P o(λ 1 ), Y P o(λ 2 ) P (X + Y = r) = r λ i 1 λ r i = i! e λ1 (r i)! e λ 2 i=0 = e (λ 1+λ 2 ) 1 r! = (λ 1 + λ 2 ) r r! r i=0 Zatem X + Y P o(λ 1 + λ 2 ) e (λ 1+λ 2 ) ( ) r λ i i 1λ r i 2 114
115 Niech X, Y mają rozkłady ciągłe: X f X (x), Y f Y (y) Wówczas (porównać strona 86) F Z (z) = P (X + Y z) = f X,Y (x, y) dxdy = = z y X+Y z f X,Y (x, y) dx dy = = z y f X (x) dx f Y (y)dy = = = z z f X (x y) dx f Y (y)dy = f X (x y)f Y (y) dy dx Zatem f Z (z) = f X (z y)f Y (y) dy 115
116 Przykład. X U[0, 1], Y U[0, 1] Ponieważ I [0,1] (z y) = I [ 1,0] (y z) = I [z 1,z] (y), mamy f X+Y (z) = I [0,1] (z y)i [0,1] (y) dy = = 1 0 I [z 1,z] (y) dy = z dla 0 z 1, 2 z dla 1 z 2 0 dla z / [0, 2] Jest to rozkład trójkątny Przykład. Niech X 0, X 1,..., X n mają rozkład wykładniczy: tzn. o gęstości f(x) = λe λx dla x > 0 Wtedy X 0 + X X n ma rozkład o gęstości g n (x) = λ (λx)n n! Jest to rozkład gamma G(1, n + 1) 116 e λx dla x > 0
Wykład 3 Jednowymiarowe zmienne losowe
Wykład 3 Jednowymiarowe zmienne losowe Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną Definicja 1 Jednowymiarowa zmienna losowa (o wartościach rzeczywistych), określoną na przestrzeni probabilistycznej
Bardziej szczegółowoPEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA
PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA 1. Trójkę (Ω, F, P ), gdzie Ω, F jest σ-ciałem podzbiorów Ω, a P jest prawdopodobieństwem określonym na F, nazywamy przestrzenią probabilistyczną. 2. Rodzinę F
Bardziej szczegółowoPrzykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych
Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Niech Ω będzie przestrzenią zdarzeń elementarnych. Definicja 1 Rodzinę S zdarzeń losowych (zbiór S podzbiorów zbioru
Bardziej szczegółowoRozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład
Rozdział 1 Wektory losowe 1.1 Wektor losowy i jego rozkład Definicja 1 Wektor X = (X 1,..., X n ), którego każda współrzędna jest zmienną losową, nazywamy n-wymiarowym wektorem losowym (krótko wektorem
Bardziej szczegółowoWYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa
WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa Agata Boratyńska Agata Boratyńska Rachunek prawdopodobieństwa, wykład 2 i 3 1 / 19 Zmienna losowa Definicja Dana jest przestrzeń probabilistyczna
Bardziej szczegółowoRACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3.
RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3. ZMIENNA LOSOWA JEDNOWYMIAROWA. Zmienną losową X nazywamy funkcję (praktycznie każdą) przyporządkowującą zdarzeniom elementarnym liczby rzeczywiste. X : Ω R (dokładniej:
Bardziej szczegółowo5 Przegląd najważniejszych rozkładów
5 Przegląd najważniejszych rozkładów 5. Rozkład Bernoulliego W niezmieniających się warunkach wykonujemy n razy pewne doświadczenie. W wyniku każdego doświadczenia może nastąpić zdarzenie A lub A. Zakładamy,
Bardziej szczegółowoPrzestrzeń probabilistyczna
Przestrzeń probabilistyczna (Ω, Σ, P) Ω pewien niepusty zbiór Σ rodzina podzbiorów tego zbioru P funkcja określona na Σ, zwana prawdopodobieństwem. Przestrzeń probabilistyczna (Ω, Σ, P) Ω pewien niepusty
Bardziej szczegółowoLista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie
Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie Jarosław Kotowicz Instytut Matematyki Uniwersytet w
Bardziej szczegółowoĆwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu.
Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu. A Teoria Definicja A.1. Niech (Ω, F, P) będzie przestrzenią probabilistyczną. Zmienną losową określoną na przestrzeni Ω nazywamy dowolną
Bardziej szczegółowo12DRAP - parametry rozkładów wielowymiarowych
DRAP - parametry rozkładów wielowymiarowych Definicja.. Jeśli h : R R, a X, Y ) jest wektorem losowym o gęstości fx, y) to EhX, Y ) = hx, y)fx, y)dxdy. Jeśli natomiast X, Y ) ma rozkład dyskretny skupiony
Bardziej szczegółowoRachunek prawdopodobieństwa i statystyka
Rachunek prawdopodobieństwa i statystyka Przestrzeń probabilistyczna Niech Ω będzie dowolnym zbiorem, zwanym przestrzenią zdarzeń elementarnych. Elementy ω tej przestrzeni nazywamy zdarzeniami elementarnymi.
Bardziej szczegółowozadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych
zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych 1. [E.A 5.10.1996/zad.4] Funkcja gęstości dana jest wzorem { 3 x + 2xy + 1 y dla (x y) (0 1) (0 1) 4 4 P (X > 1 2 Y > 1 2 ) wynosi:
Bardziej szczegółowoPrawa wielkich liczb, centralne twierdzenia graniczne
, centralne twierdzenia graniczne Katedra matematyki i ekonomii matematycznej 17 maja 2012, centralne twierdzenia graniczne Rodzaje zbieżności ciągów zmiennych losowych, centralne twierdzenia graniczne
Bardziej szczegółowoSzkice do zajęć z Przedmiotu Wyrównawczego
Szkice do zajęć z Przedmiotu Wyrównawczego Matematyka Finansowa sem. letni 2011/2012 Spis treści Zajęcia 1 3 1.1 Przestrzeń probabilistyczna................................. 3 1.2 Prawdopodobieństwo warunkowe..............................
Bardziej szczegółowoWSTĘP. Tematy: Regresja liniowa: model regresji liniowej, estymacja nieznanych parametrów. Wykład:30godz., ćwiczenia:15godz., laboratorium:30godz.
Tematy: WSTĘP 1. Wprowadzenie do przedmiotu. Próbkowe odpowiedniki wielkości populacyjnych. Modele statystyczne i przykładowe zadania wnioskowania statystycznego. Statystyki i ich rozkłady. 2. Estymacja
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład VII: Rozkład i jego charakterystyki 22 listopada 2016 Uprzednio wprowadzone pojęcia i ich własności Definicja zmiennej losowej Zmienna losowa na przestrzeni probabilistycznej (Ω, F, P) to funkcja
Bardziej szczegółowoWykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe.
Rachunek prawdopodobieństwa MAP3040 WPPT FT, rok akad. 2010/11, sem. zimowy Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Warunkowa wartość oczekiwana.
Bardziej szczegółowoLaboratorium nr 7. Zmienne losowe typu skokowego.
Laboratorium nr 7. Zmienne losowe typu skokowego.. Zmienna losowa X ma rozkład dany tabelką: - 0 3 0, 0,3 0, 0,3 0, Naszkicować dystrybuantę zmiennej X. Obliczyć EX oraz VarX.. Zmienna losowa ma rozkład
Bardziej szczegółowoRozkłady prawdopodobieństwa zmiennych losowych
Rozkłady prawdopodobieństwa zmiennych losowych Rozkład dwumianowy Rozkład normalny Marta Zalewska Zmienna losowa dyskretna (skokowa) jest to zmienna, której zbór wartości jest skończony lub przeliczalny.
Bardziej szczegółowoWYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty
WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty Agata Boratyńska Agata Boratyńska Rachunek prawdopodobieństwa, wykład 4 / 9 Przekształcenia zmiennej losowej X
Bardziej szczegółowoWykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe
Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe Nierówność Czebyszewa Niech X będzie zmienną losową o skończonej wariancji V ar(x). Wtedy wartość oczekiwana E(X) też jest skończona i
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład II: Zmienne losowe i charakterystyki ich rozkładów 13 października 2014 Zmienne losowe Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Definicja zmiennej losowej i jej
Bardziej szczegółowoJednowymiarowa zmienna losowa
1 Jednowymiarowa zmienna losowa Przykład Doświadczenie losowe - rzut kostką do gry. Obserwujemy ilość wyrzuconych oczek. Teoretyczny model eksperymentu losowego - przestrzeń probabilistyczna (Ω, S, P ),
Bardziej szczegółowoWykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.
Rachunek prawdopodobieństwa MAT1332 Wydział Matematyki, Matematyka Stosowana Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów. Warunkowa
Bardziej szczegółowoWykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.
Rachunek prawdopodobieństwa MAP1181 Wydział PPT, MS, rok akad. 213/14, sem. zimowy Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.
Bardziej szczegółowoMatematyka z el. statystyki, # 3 /Geodezja i kartografia II/
Matematyka z el. statystyki, # 3 /Geodezja i kartografia II/ Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Akademicka 15, p.211a bud. Agro II, e-mail: zdzislaw.otachel@up.lublin.pl
Bardziej szczegółowoRozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej
Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Zbiór możliwych wyników eksperymentu będziemy nazywać przestrzenią zdarzeń elementarnych i oznaczać Ω, natomiast
Bardziej szczegółowoP (A B) = P (A), P (B) = P (A), skąd P (A B) = P (A) P (B). P (A)
Wykład 3 Niezależność zdarzeń, schemat Bernoulliego Kiedy dwa zdarzenia są niezależne? Gdy wiedza o tym, czy B zaszło, czy nie, NIE MA WPŁYWU na oszacowanie prawdopodobieństwa zdarzenia A: P (A B) = P
Bardziej szczegółowoIII. ZMIENNE LOSOWE JEDNOWYMIAROWE
III. ZMIENNE LOSOWE JEDNOWYMIAROWE.. Zmienna losowa i pojęcie rozkładu prawdopodobieństwa W dotychczas rozpatrywanych przykładach każdemu zdarzeniu była przyporządkowana odpowiednia wartość liczbowa. Ta
Bardziej szczegółowoMetody probabilistyczne
Metody probabilistyczne. Twierdzenia graniczne Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 20.2.208 / 26 Motywacja Rzucamy wielokrotnie uczciwą monetą i zliczamy
Bardziej szczegółowo4,5. Dyskretne zmienne losowe (17.03; 31.03)
4,5. Dyskretne zmienne losowe (17.03; 31.03) Definicja 1 Zmienna losowa nazywamy dyskretna (skokowa), jeśli zbiór jej wartości x 1, x 2,..., można ustawić w ciag. Zmienna losowa X, która przyjmuje wszystkie
Bardziej szczegółowoDyskretne zmienne losowe
Dyskretne zmienne losowe dr Mariusz Grządziel 16 marca 2009 Definicja 1. Zmienna losowa nazywamy dyskretna (skokowa), jeśli zbiór jej wartości x 1, x 2,..., można ustawić w ciag. Zmienna losowa X, która
Bardziej szczegółowoWażne rozkłady i twierdzenia
Ważne rozkłady i twierdzenia Rozkład dwumianowy i wielomianowy Częstość. Prawo wielkich liczb Rozkład hipergeometryczny Rozkład Poissona Rozkład normalny i rozkład Gaussa Centralne twierdzenie graniczne
Bardziej szczegółowoPODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA. Piotr Wiącek
PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA Piotr Wiącek ROZKŁAD PRAWDOPODOBIEŃSTWA Jest to miara probabilistyczna określona na σ-ciele podzbiorów borelowskich pewnej przestrzeni metrycznej. σ-ciało podzbiorów
Bardziej szczegółowoJeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna.
Wykład 4 Rozkłady i ich dystrybuanty Dwa typy zmiennych losowych Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x, x 2,...}, to mówimy, że jest to zmienna dyskretna.
Bardziej szczegółowoRachunek prawdopodobieństwa i statystyka
Rachunek prawdopodobieństwa i statystyka Momenty Zmienna losowa jest wystarczająco dokładnie opisana przez jej rozkład prawdopodobieństwa. Względy praktyczne dyktują jednak potrzebę znalezienia charakterystyk
Bardziej szczegółowoWażne rozkłady i twierdzenia c.d.
Ważne rozkłady i twierdzenia c.d. Funkcja charakterystyczna rozkładu Wielowymiarowy rozkład normalny Elipsa kowariacji Sploty rozkładów Rozkłady jednostajne Sploty z rozkładem normalnym Pobieranie próby
Bardziej szczegółowoStatystyka i eksploracja danych
Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu w dziedzinach matematyczno-przyrodniczych realizowany w ramach Poddziałania 4.1.1 Programu Operacyjnego Kapitał Ludzki Statystyka i eksploracja
Bardziej szczegółowoWYKŁAD 2. Zdarzenia losowe i prawdopodobieństwo Zmienna losowa i jej rozkłady
WYKŁAD 2 Zdarzenia losowe i prawdopodobieństwo Zmienna losowa i jej rozkłady Metody statystyczne metody opisu metody wnioskowania statystycznego syntetyczny liczbowy opis właściwości zbioru danych ocena
Bardziej szczegółowoElementy Rachunek prawdopodobieństwa
Elementy rachunku prawdopodobieństwa Rachunek prawdopodobieństwa zajmuje się analizą praw rządzących zdarzeniami losowymi Pojęciami pierwotnymi są: zdarzenie elementarne ω oraz zbiór zdarzeń elementarnych
Bardziej szczegółowo1 Elementy kombinatoryki i teorii prawdopodobieństwa
1 Elementy kombinatoryki i teorii prawdopodobieństwa 1.1 Elementy kombinatoryki W rozwiązywaniu pewnych problemów związanych z obliczaniem prawdopodobieństwa o skończonej liczbie zdażeń elementarnych bardzo
Bardziej szczegółowoStatystyka matematyczna dla leśników
Statystyka matematyczna dla leśników Wydział Leśny Kierunek leśnictwo Studia Stacjonarne I Stopnia Rok akademicki 2013/2014 Wykład 3 Zmienna losowa i jej rozkłady Zdarzenia losowe Pojęcie prawdopodobieństwa
Bardziej szczegółowoZmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014
Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014 Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe
Bardziej szczegółowoBiostatystyka, # 3 /Weterynaria I/
Biostatystyka, # 3 /Weterynaria I/ dr n. mat. Zdzisław Otachel Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Głęboka 28, p. 221 bud. CIW, e-mail: zdzislaw.otachel@up.lublin.pl
Bardziej szczegółowoZestaw 2: Zmienne losowe. 0, x < 1, 2, 2 x, 1 1 x, 1 x, F 9 (x) =
Zestaw : Zmienne losowe. Które z poniższych funkcji są dystrybuantami? Odpowiedź uzasadnij. Wskazówka: naszkicuj wykres. 0, x 0,, x 0, F (x) = x, F (x) = x, 0 x
Bardziej szczegółowoModelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski
Modelowanie zależności pomiędzy zmiennymi losowymi Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski P Zmienne losowe niezależne - przypomnienie Dwie rzeczywiste zmienne losowe X i Y
Bardziej szczegółowoSTATYSTYKA MATEMATYCZNA
STATYSTYKA MATEMATYCZNA Rafał Kucharski Uniwersytet Ekonomiczny w Katowicach 08/9 Zarządzanie e-mail: www: konsultacje: rafal.kucharski@ue.katowice.pl http://web.ue.katowice.pl/rkucharski/ Piątki, 5:0-6:0,
Bardziej szczegółowoTemat: Zmienna losowa. Rozkład skokowy. Rozkład ciągły. Kody kolorów: Ŝółty nowe pojęcie pomarańczowy uwaga. Anna Rajfura, Matematyka
Temat: Zmienna losowa. Rozkład skokowy. Rozkład ciągły Kody kolorów: Ŝółty nowe pojęcie pomarańczowy uwaga 1 Zagadnienia 1. Przypomnienie wybranych pojęć rachunku prawdopodobieństwa. Zmienna losowa. Rozkład
Bardziej szczegółowoRachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne
Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne 5.2. Momenty rozkładów łącznych. Katarzyna Rybarczyk-Krzywdzińska rozkładów wielowymiarowych Przypomnienie Jeśli X jest zmienną losową o rozkładzie
Bardziej szczegółowoWstęp do Rachunku Prawdopodobieństwa, IIr. WMS
Wstęp do Rachunku Prawdopodobieństwa, IIr. WMS przykładowe zadania na. kolokwium czerwca 6r. Poniżej podany jest przykładowy zestaw zadań. Podczas kolokwium na ich rozwiązanie przeznaczone będzie ok. 85
Bardziej szczegółowoWYKŁAD 3. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki
WYKŁAD 3 Witold Bednorz, Paweł Wolff 1 Instytut Matematyki Uniwersytet Warszawski Rachunek Prawdopodobieństwa, WNE, 2010-2011 Schemmat Bernouliego Rzucamy 10 razy moneta, próba Bernouliego jest pojedynczy
Bardziej szczegółowoWYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki
WYKŁAD 6 Witold Bednorz, Paweł Wolff 1 Instytut Matematyki Uniwersytet Warszawski Rachunek Prawdopodobieństwa, WNE, 2010-2011 Własności Wariancji Przypomnijmy, że VarX = E(X EX) 2 = EX 2 (EX) 2. Własności
Bardziej szczegółowoElementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa
Spis treści Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa Romuald Kotowski Katedra Informatyki Stosowanej PJWSTK 2009 Spis treści Spis treści 1 Wstęp Bardzo często interesujący
Bardziej szczegółowoWykład 3 Momenty zmiennych losowych.
Wykład 3 Momenty zmiennych losowych. Wrocław, 18 października 2017r Momenty zmiennych losowych Wartość oczekiwana - przypomnienie Definicja 3.1: 1 Niech X będzie daną zmienną losową. Jeżeli X jest zmienną
Bardziej szczegółowoWykład 3 Momenty zmiennych losowych.
Wykład 3 Momenty zmiennych losowych. Wrocław, 19 października 2016r Momenty zmiennych losowych Wartość oczekiwana - przypomnienie Definicja 3.1: 1 Niech X będzie daną zmienną losową. Jeżeli X jest zmienną
Bardziej szczegółowoPRAWDOPODOBIEŃSTWO. ZMIENNA LOSOWA. TYPY ROZKŁADÓW
PRAWDOPODOBIEŃSTWO. ZMIENNA LOSOWA. TYPY ROZKŁADÓW Rachunek prawdopodobieństwa (probabilitis - prawdopodobny) zajmuje się badaniami pewnych prawidłowości (regularności) zachodzących przy wykonywaniu doświadczeń
Bardziej szczegółowoSTATYSTYKA MATEMATYCZNA. rachunek prawdopodobieństwa
STATYSTYKA MATEMATYCZNA rachunek prawdopodobieństwa treść Zdarzenia losowe pojęcie prawdopodobieństwa prawo wielkich liczb zmienne losowe rozkłady teoretyczne zmiennych losowych Zanim zajmiemy się wnioskowaniem
Bardziej szczegółowoCentralne twierdzenie graniczne
Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 4 Ważne uzupełnienie Dwuwymiarowy rozkład normalny N (µ X, µ Y, σ X, σ Y, ρ): f XY (x, y) = 1 2πσ X σ Y 1 ρ 2 { [ (x ) 1
Bardziej szczegółowoDrugie kolokwium z Rachunku Prawdopodobieństwa, zestaw A
Drugie kolokwium z Rachunku Prawdopodobieństwa, zestaw A Zad. 1. Korzystając z podanych poniżej mini-tablic, oblicz pierwszy, drugi i trzeci kwartyl rozkładu N(10, 2 ). Rozwiązanie. Najpierw ogólny komentarz
Bardziej szczegółowoFunkcje charakterystyczne zmiennych losowych, linie regresji 1-go i 2-go rodzaju
Funkcje charakterystyczne zmiennych losowych, linie regresji -go i 2-go rodzaju Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Inteligencji i Metod Matematycznych Wydział Informatyki Politechniki
Bardziej szczegółowoRachunek prawdopodobieństwa Rozdział 4. Zmienne losowe
Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe 4.1. Zmienne losowe dyskretne. Katarzyna Rybarczyk-Krzywdzińska Definicja/Rozkład Zmienne losowe dyskretne Definicja Zmienną losową, która skupiona
Bardziej szczegółowoWykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału
Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału Magdalena Frąszczak Wrocław, 22.02.2017r Zasady oceniania Ćwiczenia 2 kolokwia (20 punktów każde) 05.04.2017 oraz 31.05.2017 2 kartkówki
Bardziej szczegółowoStatystyka. Wydział Zarządzania Uniwersytetu Łódzkiego
Statystyka Wydział Zarządzania Uniwersytetu Łódzkiego 2017 Zmienna losowa i jej rozkład Mając daną przestrzeń probabilistyczną, czyli parę (&, P) stanowiącą model pewnego doświadczenia losowego (gdzie
Bardziej szczegółowoStatystyka i eksploracja danych
Wykład II: i charakterystyki ich rozkładów 24 lutego 2014 Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa,
Bardziej szczegółowoRozkłady i ich dystrybuanty 16 marca F X (t) = P (X < t) 0, gdy t 0, F X (t) = 1, gdy t > c, 0, gdy t x 1, 1, gdy t > x 2,
Wykład 4. Rozkłady i ich dystrybuanty 6 marca 2007 Jak opisać cały rozkład jedną funkcją? Aby znać rozkład zmiennej X, musimy umieć obliczyć P (a < X < b) dla dowolnych a < b. W tym celu wystarczy znać
Bardziej szczegółowoWykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa
Wykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa Marek Kubiak Instytut Informatyki Politechnika Poznańska Plan wykładu Podstawowe pojęcia rachunku prawdopodobieństwa Rozkład
Bardziej szczegółowoWykład 11: Martyngały: definicja, twierdzenia o zbieżności
RAP 412 14.01.2009 Wykład 11: Martyngały: definicja, twierdzenia o zbieżności Wykładowca: Andrzej Ruciński Pisarz:Mirosława Jańczak 1 Wstęp Do tej pory zajmowaliśmy się ciągami zmiennych losowych (X n
Bardziej szczegółowoStatystyka. Wydział Zarządzania Uniwersytetu Łódzkiego
Statystyka Wydział Zarządzania Uniwersytetu Łódzkiego 2017 Podstawowe rozkłady zmiennych losowych Rozkłady zmiennych skokowych Rozkład zero-jedynkowy Rozpatrujemy doświadczenie, którego rezultatem może
Bardziej szczegółowoWykład 2 Zmienne losowe i ich rozkłady
Wykład 2 Zmienne losowe i ich rozkłady Magdalena Frąszczak Wrocław, 11.10.2017r Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe Doświadczenie
Bardziej szczegółowob) Niech: - wśród trzech wylosowanych opakowań jest co najwyżej jedno o dawce 15 mg. Wówczas:
ROZWIĄZANIA I ODPOWIEDZI Zadanie A1. Można założyć, że przy losowaniu trzech kul jednocześnie kolejność ich wylosowania nie jest istotna. A więc: Ω = 20 3. a) Niech: - wśród trzech wylosowanych opakowań
Bardziej szczegółowoWartość oczekiwana Mediana i dominanta Wariancja Nierówności związane z momentami. Momenty zmiennych losowych Momenty wektorów losowych
Przykład(Wartość średnia) Otrzymaliśmy propozycję udziału w grze polegającej na jednokrotnym rzucie symetryczną kostką. Jeśli wypadnie 1 wygrywamy2zł,;jeśliwypadnie2,płacimy1zł;za3wygrywamy 4zł;za4płacimy5zł;za5wygrywamy3złiwreszcieza6
Bardziej szczegółowoRozkłady prawdopodobieństwa
Tytuł Spis treści Wersje dokumentu Instytut Matematyki Politechniki Łódzkiej 10 grudnia 2011 Spis treści Tytuł Spis treści Wersje dokumentu 1 Wartość oczekiwana Wariancja i odchylenie standardowe Rozkład
Bardziej szczegółowoMetody probabilistyczne opracowane notatki 1. Zdefiniuj zmienną losową, rozkład prawdopodobieństwa. Przy jakich założeniach funkcje: F(x) = sin(x),
Metody probabilistyczne opracowane notatki 1. Zdefiniuj zmienną losową, rozkład prawdopodobieństwa. Przy jakich założeniach funkcje: Fx sinx, Fx a e x mogą być dystrybuantami?. Podaj twierdzenie Lindeberga
Bardziej szczegółowoZmienna losowa. Rozkład skokowy
Temat: Zmienna losowa. Rozkład skokowy Kody kolorów: żółty nowe pojęcie pomarańczowy uwaga * - materiał nadobowiązkowy Anna Rajfura, Matematyka i statystyka matematyczna na kierunku Rolnictwo SGGW 1 Zagadnienia
Bardziej szczegółowoLiteratura. Leitner R., Zacharski J., Zarys matematyki wyŝszej dla studentów, cz. III.
Literatura Krysicki W., Bartos J., Dyczka W., Królikowska K, Wasilewski M., Rachunek Prawdopodobieństwa i Statystyka Matematyczna w Zadaniach, cz. I. Leitner R., Zacharski J., Zarys matematyki wyŝszej
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład IV: 27 października 2014 Współczynnik korelacji Brak korelacji a niezależność Definicja współczynnika korelacji Współczynnikiem korelacji całkowalnych z kwadratem zmiennych losowych X i Y nazywamy
Bardziej szczegółowoMetody probabilistyczne
Metody probabilistyczne 5. Zmienne losowe: wprowadzenie Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 8..208 / 42 Motywacja Często bardziej niż same zdarzenia losowe
Bardziej szczegółowoRachunek prawdopodobieństwa 1B; zadania egzaminacyjne.
Rachunek prawdopodobieństwa B; zadania egzaminacyjne.. Niech µ będzie rozkładem probabilistycznym na (0, ) (0, ): µ(b) = l({x (0,) : (x, x) B}), dla B B((0, ) (0, ))), gdzie l jest miarą Lebesgue a na
Bardziej szczegółowoSTATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA
STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA Zadanie 0.1 Zmienna losowa X ma rozkład określony funkcją prawdopodobieństwa: x k 0 4 p k 1/3 1/6 1/ obliczyć EX, D X. (odp. 4/3;
Bardziej szczegółowoZmienne losowe ciągłe i ich rozkłady
Statystyka i opracowanie danych W3 Zmienne losowe ciągłe i ich rozkłady Dr Anna ADRIAN Paw B5, pok47 adan@agh.edu.pl Plan wykładu Rozkład Poissona. Zmienna losowa ciągła Dystrybuanta i funkcja gęstości
Bardziej szczegółowoStatystyka. Magdalena Jakubek. kwiecień 2017
Statystyka Magdalena Jakubek kwiecień 2017 1 Nauka nie stara się wyjaśniać, a nawet niemal nie stara się interpretować, zajmuje się ona głównie budową modeli. Model rozumiany jest jako matematyczny twór,
Bardziej szczegółowoSTATYSTYKA MATEMATYCZNA dla ZPM I dr inż Krzysztof Bryś wyk lad 1,2 KLASYCZNY RACHUNEK PRAWDOPODOBIEŃSTWA
1 STATYSTYKA MATEMATYCZNA dla ZPM I dr inż Krzysztof Bryś wyk lad 1,2 KLASYCZNY RACHUNEK PRAWDOPODOBIEŃSTWA 1. Pojȩcia wstȩpne. Doświadczeniem losowym nazywamy doświadczenie, którego wynik nie jest znany.
Bardziej szczegółowoRachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne
Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne 5.3 Rozkłady warunkowe i warunkowa wartość oczekiwana Katarzyna Rybarczyk-Krzywdzińska semestr zimowy 2015/2016 Prawdopodobieństwo wyraża postawę
Bardziej szczegółowoSTYSTYSTYKA dla ZOM II dr inż Krzysztof Bryś Wykad 1
1 STYSTYSTYKA dla ZOM II dr inż Krzysztof Bryś Wykad 1 Klasyczny Rachunek Prawdopodobieństwa. 1. Pojȩcia wstȩpne. Doświadczeniem losowym nazywamy doświadczenie, którego wynik nie jest znany. Posiadamy
Bardziej szczegółowoZadania o numerze 4 z zestawów licencjat 2014.
Zadania o numerze 4 z zestawów licencjat 2014. W nawiasie przy zadaniu jego występowanie w numerze zestawu Spis treści (Z1, Z22, Z43) Definicja granicy ciągu. Obliczyć granicę:... 3 Definicja granicy ciągu...
Bardziej szczegółowo6. Zmienne losowe typu ciagłego ( ) Pole trapezu krzywoliniowego
6. Zmienne losowe typu ciagłego (2.04.2007) Pole trapezu krzywoliniowego Przypomnienie: figurę ograniczoną przez: wykres funkcji y = f(x), gdzie f jest funkcją ciągłą; proste x = a, x = b, a < b, oś OX
Bardziej szczegółowoZmienne losowe ciągłe i ich rozkłady
Rachunek Prawdopodobieństwa i Statystyka - W3 Zmienne losowe ciągłe i ich rozkłady Dr Anna ADRIAN Paw B5, pok47 adan@agh.edu.pl Plan wykładu Zmienna losowa ciągła Dystrybuanta i unkcja gęstości rozkładu
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład XIV: Metody Monte Carlo 19 stycznia 2016 Przybliżone obliczanie całki oznaczonej Rozważmy całkowalną funkcję f : [0, 1] R. Chcemy znaleźć przybliżoną wartość liczbową całki 1 f (x) dx. 0 Jeden ze
Bardziej szczegółowoRachunek prawdopodobieństwa
Rachunek prawdopodobieństwa Sebastian Rymarczyk srymarczyk@afm.edu.pl Tematyka zajęć 1. Elementy kombinatoryki. 2. Definicje prawdopodobieństwa. 3. Własności prawdopodobieństwa. 4. Zmienne losowe, parametry
Bardziej szczegółowo1 Zmienne losowe wielowymiarowe.
1 Zmienne losowe wielowymiarowe. 1.1 Definicja i przykłady. Definicja1.1. Wektorem losowym n-wymiarowym(zmienna losowa n-wymiarowa )nazywamywektorn-wymiarowy,któregoskładowymisązmiennelosowex i dlai=1,,...,n,
Bardziej szczegółowoLista 5. Zadanie 3. Zmienne losowe X i (i = 1, 2, 3, 4) są niezależne o tym samym
Lista 5 Zadania na zastosowanie nierównosci Markowa i Czebyszewa. Zadanie 1. Niech zmienna losowa X ma rozkład jednostajny na odcinku [0, 1]. Korzystając z nierówności Markowa oszacować od góry prawdopodobieństwo,
Bardziej szczegółowoRachunek Prawdopodobieństwa i Statystyka
Rachunek Prawdopodobieństwa i Statystyka W 2. Probabilistyczne modele danych Zmienne losowe. Rozkład prawdopodobieństwa i dystrybuanta. Wartość oczekiwana i wariancja zmiennej losowej Dr Anna ADRIAN Zmienne
Bardziej szczegółowoZadania z Rachunku Prawdopodobieństwa II Podaj przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,
Zadania z Rachunku Prawdopodobieństwa II -. Udowodnij, że dla dowolnych liczb x n, x, δ xn δ x wtedy i tylko wtedy, gdy x n x.. Wykaż, że n n k= δ k/n λ, gdzie λ jest miarą Lebesgue a na [, ].. Podaj przykład
Bardziej szczegółowoRozkłady statystyk z próby
Rozkłady statystyk z próby Rozkłady statystyk z próby Przypuśćmy, że wykonujemy serię doświadczeń polegających na 4 krotnym rzucie symetryczną kostką do gry, obserwując liczbę wyrzuconych oczek Nr kolejny
Bardziej szczegółowo07DRAP - Zmienne losowe: dyskretne i ciągłe
07DRAP - Zmienne losowe: dyskretne i ciągłe Słynne rozkłady dyskretne Rozkład parametry P (X = k dla k = E(X Var(X uwagi ( dwumianowy n, p n k p k ( p n k 0,,, n np np( p liczba sukcesów w n próbach Bernoulliego
Bardziej szczegółowoZmienne losowe. dr Mariusz Grządziel Wykład 12; 20 maja 2014
Zmienne losowe dr Mariusz Grządziel Wykład 2; 20 maja 204 Definicja. Zmienna losowa nazywamy dyskretna (skokowa), jeśli zbiór jej wartości x, x 2,..., można ustawić w ciag. Zmienna losowa X, która przyjmuje
Bardziej szczegółowoPrawdopodobieństwo. Prawdopodobieństwo. Jacek Kłopotowski. Katedra Matematyki i Ekonomii Matematycznej SGH. 16 października 2018
Katedra Matematyki i Ekonomii Matematycznej SGH 16 października 2018 Definicja σ-algebry Definicja Niech Ω oznacza zbiór niepusty. Rodzinę M podzbiorów zbioru Ω nazywamy σ-algebrą (lub σ-ciałem) wtedy
Bardziej szczegółowoMetody probabilistyczne
Metody probabilistyczne 2. Aksjomatyczna definicja prawdopodobieństwa Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 10.10.2017 1 / 33 Klasyczna definicja prawdopodobieństwa
Bardziej szczegółowoPodstawy nauk przyrodniczych Matematyka
Podstawy nauk przyrodniczych Matematyka Elementy rachunku prawdopodobieństwa dr inż. Małgorzata Szeląg Zakład Genetyki Molekularnej Człowieka tel. 61 829 59 04 malgorzata.szelag@amu.edu.pl Pokój 1.118
Bardziej szczegółowo