Rachunek prawdopodobieństwa. Stanisław Jaworski

Wielkość: px
Rozpocząć pokaz od strony:

Download "Rachunek prawdopodobieństwa. Stanisław Jaworski"

Transkrypt

1 Rachunek prawdopodobieństwa Stanisław Jaworski Rachunek prawdopodobieństwa: dział matematyki zajmujący się badaniem modeli zjawisk losowych (przypadkowych) i praw nimi rządzących (Encyklopedia Popularna PWN, 1998) Rachunek prawdopodobieństwa zajmuje się zdarzeniami, pojawiającymi się przy wykonywaniu doświadczeń, których wyniku nie da się z góry przewidzieć, a jednocześnie dających się powtarzać w tych samych warunkach. Pojęciem pierwotnym w rachunku prawdopodobieństwa jest przestrzeń zdarzeń elementarnych. Będziemy ją oznaczać przez Ω. 1

2 Przykład. Rzut monetą. Ω = {O, R} Przykład. Rzut kostką. Ω = {1, 2, 3, 4, 5, 6} Przykład. Rzut monetą do chwili pojawienia się orła. Ω = {ω 1, ω 2,..., ω n,... }, gdzie ω n oznacza, że w pierwszych n 1 rzutach wypadły reszki, a za n tym razem wypadł orzeł. Możliwych wyników jest nieskończenie wiele. Dadzą się ustawić w ciąg, tzn. że jest ich przeliczalnie wiele. 2

3 Przykład. Ze zbioru n ponumerowanych elementów losujemy dwa elementy. Ω = {(ω i, ω j ) i, j = 1, 2,..., n, i < j} ω i oznacza wylosowanie elementu o numerze i. Przykład. Czas oczekiwania na autobus. Ω = [0, ) Przykład. Niech T k [0, 45], k = 1, 2,..., 10, oznacza spóźnienie k tego studenta na losowo wybrany wykład (w minutach). (T 1, T 2,..., T 10 ) Ω Ω = [0, 45] [0, 45]... [0, 45] = [0, 45] 10 3

4 Podstawowe pojęcia rachunku prawdopodobieństwa Definicja. Rodzinę F spełniającą warunki 1. F = 2. Jeśli A F, to Ω \ A F 3. Jeśli A i F dla i = 1, 2,..., to i=1 A i F nazywamy σ ciałem podzbiorów zbioru Ω. Zdarzenie losowe jest elementem rodziny F Definicja. Prawdopodobieństwem nazywamy dowolną funkcję P, określoną na σ ciele zdarzeń F 2 Ω, spełniającą warunki A1. P : F R + ; A2. P (Ω) = 1 A3. Jeśli A i F, i = 1, 2,... oraz A i A j = dla i j, to P ( i=1 A i ) = P (A i ) i=1 Mówimy, że matematyczny model doświadczenia losowego to trójka (Ω, F, P ), którą nazywamy przestrzenią probabilistyczną 4

5 Przykład. Rozkład prawdopodobieństwa w skończonej przestrzeni zdarzeń Niech Niech Ω = {ω 1, ω 2,..., ω n }. p i 0, i = 1, 2,..., n, będą tak dobrane, że n p i = 1 i=1 Wówczas funkcję P określamy w następujący sposób: P ({ω i }) = p i oraz dla A Ω postaci A = {ω i1, ω i2,..., ω ik } P (A) = p i1 + p i p ik Tak określona funkcja spełnia układ aksjomatów Kołmogorowa dla F = 2 Ω 5

6 Przykład. Rzut kostką. ω i p i 1/6 1/6 1/6 1/6 1/6 1/6 P ({1, 2, 5}) = 1/6 + 1/6 + 1/6 = 3/6 = 1/2 ω i p i 1/12 1/12 1/12 3/12 3/12 3/12 P ({1, 2, 5}) = 1/12 + 1/12 + 3/12 = 5/12 < 1/2 Przykład. Przeliczalna przestrzeni zdarzeń Ω = {ω 1, ω 2,... } p i 0, p i = 1 i=1 P ({ω i }) = p i, P (A) = j:ω j A p j (?) Tak określona funkcja spełnia układ aksjomatów Kołmogorowa dla F = 2 Ω 6

7 Przykład. Liczba zarejestrowanych cząstek w odcinku czasu [0, t]. Ω = {0, 1,... } αt (αt)k P ({k}) = e, k = 0, 1,... k! (?) Zachodzi k=0 αt (αt)k e k! = 1 Ciągła przestrzeń zdarzeń Przykład. Czas oczekiwania na pierwszą cząstkę. Ω = [0, ) Zdarzenie (t, ): pierwsza cząstka pojawi się później niż w chwili t αt (αt)0 P ((t, )) = e 0! = e αt Stąd dla dowolnych s < t P ((s, t]) = e αs e αt 7

8 Przykład. Rzut strzałką do tarczy o promieniu 1. Model 1. Ω = {(x, y) : x 2 + y 2 1} (x, y) współrzędne kartezjańskie punktu trafienia strzałki w tarczę Szansa trafienia w zbiór A Ω P (A) = pole A pole Ω = A Ω = A π Zdarzenie A r = {(x, y) : dziesiątkę P (A r ) = πr2 π x 2 + y 2 r 2 }: trafienie w = r2 8

9 Model 2. Ω = {(ϱ, φ) : 0 ϱ 1, 0 φ 2π} = [0, 1] [0, 2π] (ϱ, φ) współrzędne biegunowe punktu trafienia strzałki w tarczę Szansa trafienia w zbiór A Ω: P (A) = pole A pole Ω = A Ω = A 2π Zdarzenie A r = {(ϱ, φ) : ϱ r}: trafienie w dziesiątkę P (A r ) = 2πr 2π = r 9

10 Model 3. Ω = {ϱ : 0 ϱ 1} = [0, 1] ϱ odległość punktu trafienia od środka tarczy Zdarzenie A r = {ϱ : ϱ r}: trafienie w dziesiątkę P (A r ) = πr2 π = r2 Zdarzenie A rk = {ϱ : r < ϱ k}: trafienie w dziewiątkę P (A rk ) = k 2 r 2 = 2(k r) k + r 2 10

11 Co łączy podane przykłady dla przestrzeni ciągłych? P (A) = f, gdzie f 0 Czas oczekiwania na pierwszą cząstkę A f(x) = αxe αx, P ((s, t])? = t s f(x) dx Rzut strzałką do tarczy (Model 1.) f(x, y) = 1 π, P (A r) =? f(x, y) dx dy A r Rzut strzałką do tarczy (Model 2.) f(ϱ, φ) = 1 2π, P (A r)? = A r f(ϱ, φ) dϱ dφ Rzut strzałką do tarczy (Model 3.) f(ϱ) = 2ϱ, P (A r )? = f(ϱ) dϱ A r 11

12 Problem: Jak określić F? Czas oczekiwania na pierwszą cząstkę F = B(R + ) Rzut strzałką do tarczy (Model 1.) F = B(K(0, 1)) Rzut strzałką do tarczy (Model 2.) F = B([0, 1] [0, 2π]) Rzut strzałką do tarczy (Model 3.) F = B([0, 1]) 12

13 Własności prawdopodobieństwa Twierdzenie 1. Jeśli (Ω, F, P ) jest przestrzenią probabilistyczną i A, B, A 1, A 2,..., A n F, to: W1. P ( ) = 0 W2. Jeśli A 1, A 2,..., A n wykluczają się wzajemnie, tj. A i A j = dla i j, to P ( n i=1 A i ) = n P (A i ) i=1 W3. P (A ) = 1 P (A), gdzie A = Ω \ A W4. Jeśli A B, to P (B \ A) = P (B) P (A) W5. Jeśli A B, to P (A) P (B) W6. P (A) 1 W7. P (A B) = P (A) + P (B) P (A B) 13

14 Dowód. ad W1. Niech A 1 = Ω, A i = dla i = 2, 3,... aksjomat A3. P (Ω) = P (Ω) + P ( ) i=2 aksjomat A1. P ( ) = 0 ad W2. P ad W3. ad W4. Niech A k =, dla k n aksjomat A3. oraz własność W1. ( n ) n A i = P (A i ) i=1 i=1 1 = P (Ω) = P (A A ) W2. = P (A) + P (A ) Jeśli A B, to B = A (B \ A). Zatem P (B) W2. = P (A) + P (B \ A) 14

15 ad W5. P (B) P (A) W4. = P (B \ A) A1. 0 ad W6. Wystarczy zastosować W5. dla B = Ω ad W7. A B = [A \ (A B)] (A B) [B \ (A B)] W2, W4. P (A B) = P (A) P (A B)+ + P (A B) + P (B) P (A B) = = P (A) + P (B) P (A B) Zauważmy, że A B = [A B ] [A B] [A B] }{{} trzy składowe sumy Zatem każda składowa sumy A 1 A 2... A n da się przedstawić, po odpowiednim przenumerowaniu zbiorów, w postaci A 1 A 2... A k A k+1 A k+2... A n, 15 gdzie k 1

16 Twierdzenie 2. (Wzór włączeń i wyłączeń) P (A 1 A 2... A n ) = P (A i ) P (A i1 A i2 )+ 1in 1i 1 i 2 n... + ( 1) n+1 P (A 1 A 2... A n ) Dowód. Zbiór A 1 A 2... A n daje się zapisać w postaci sumy rozłącznych składowych. Zatem Lewa strona równania włącza każdą składową dokładnie raz. Musimy pokazać, że prawa strona równania wprowadza każdą składową też dokładnie raz. W pierwszym składniku wzoru, czyli każda składowa postaci 1in P (A i ) A 1 A 2... A k A k+1 A k+2... A n zostanie włączona k razy, w drugim, czyli P (A i1 A i2 ), 1i 1 i 2 n 16

17 wyłączona ( k 2) razy, itd. Ostatecznie liczba włączeń wyniesie ( ) k 1 ( ) k + 2 ( ) ( ) k k +... ( 1) k+1 3 k = 1. Uwaga. Korzystam ze wzoru dwumianowego Newtona: k ( ) k (a + b) k = a k i b i i i=0 Przykład. n listów losowo wkładamy do kopert. Jakie jest prawdopodobieństwo, że choć jeden list dotrze do adresata? Niech A i oznacza zdarzenie, że i ty list dotrze do adresata. Zatem P ( n i=1 A i ) = n P (A 1 ) {}}{ ( ) (n 1)! n n! 2 + ( 1) n ( n n 1 P (A 1 A 2 ) {}}{ (n 2)! n! +... ) 1 n! + 1 ( 1)n+1 n! = 17

18 = 1 1 2! + 1 3! ( 1)n (n 1)! + 1 ( 1)n+1 n! n ( 1) i+1 n ( 1) i+1 n ( 1) i = = 1 + = 1 i! i! i! i=1 1 e 1 i=0 i=0 Błąd oszacowania ( n ) P A i (1 e 1 ) 1 (n + 1)! i=1 Skorzystałem z oszacowania: ex n i=0 x i i! x n+1 (n + 1)! 18

19 Twierdzenie 3. (O ciągłości). Niech(Ω, F, P ) będzie przestrzenią probabilistyczną. (i) Jeśli (A n ) n=1 jest wstępującą rodziną zdarzeń oraz A n = A, to n=1 P (A) = lim n P (A n). (ii) Jeśli (A n ) n=1 jest zstępującą rodziną zdarzeń oraz A n = A, to n=1 P (A) = lim n P (A n). Rodzinę zdarzeń A i nazywamy wstępującą, jeśli A 1 A 2... A n A n+1 i zstępującą, jeśli A 1 A 2... A n A n+1 19

20 Dowód. (i) Niech B 1 = A 1, B 2 = A 2 \ A 1 i ogólnie: B n = A n \ A n 1 Wtedy zdarzenia B i wykluczają się, n i=1 B i = n i=1 A i = A n, a także i=1 B i = A. Z przeliczalnej addytywności wynika, że P (A) = P ( i=1 B i ) = = lim n P (B i ) = i=1 n i=1 P (B i ) = lim n P (A n) (ii) Rozpatrzmy rodzinę wstępującą (C n ) n=1, gdzie C n = A n. Wtedy n=1 C n = n=1 A n = [ n=1 A n ] = A i wystarczy skorzystać z (i) 20

21 Prawdopodobieństwo warunkowe Definicja. Prawdopodobieństwem warunkowym zajścia zdarzenia A pod warunkiem zajścia zdarzenia B, gdzie P (B) > 0, nazywamy liczbę P (A B) = P (A B) P (B) (?) Uwaga. Przy ustalonym B prawdopodobieństwo warunkowe P (A B) jest zwykłym prawdopodobieństwem na (Ω, F), a także na (B, F B ), gdzie F B = {A B : A F} (?) Wzór łańcuchowy. Jeśli P (A 1... A n 1 ) > 0, to P (A 1... A n ) = P (A 1 )P (A 2 A 1 ) P (A 3 A 1 A 2 )... P (A n A 1... A n 1 ) 21

22 Definicja. Rozbiciem przestrzeni Ω nazywamy rodzinę zdarzeń {H i } i I, które wzajemnie wykluczają się, zaś ich suma jest równa Ω. Twierdzenie 4. Jeżeli {H 1, H 2,..., H n } jest rozbiciem Ω na zdarzenia o dodatnim prawdopodobieństwie, to dla dowolnego zdarzenia A P (A) = n P (A H i )P (H i ) i=1 Dowód. n P (A) = P ( (A H i )) = i=1 n P (A H i )P (H i ) i=1 (?) Uwaga.Twierdzenie jest prawdziwe i dla rozbicia Ω na przeliczalną liczbę zdarzeń H i, i = 1, 2,

23 Przykład. W loterii fantowej szansa wygranej jest równa p, przegranej q, a z prawdopodobieństwem r wyciągamy los graj dalej. Los graj dalej wrzucamy z powrotem do urny i dokonujemy ponownego losowania. Jakie jest prawdopodobieństwo wygranej? A wyciągneliśmy los wygrywający B wyciągneliśmy los przegrywający C wyciągneliśmy los graj dalej W wygraliśmy na loterii P (W ) = P (W A)P (A) + P (W B)P (B)+ + P (W C)P (C) = 1 p + 0 q + P (W ) r Stąd P (W ) = p 1 r = p p + q Twierdzenie 5. Niech {H i } i I będzie rozbiciem Ω na zdarzenia o dodatnim prawdopodobieństwie. Gdy P (B) > 0, to P (A B) = i I P (A B H i )P (H i B), gdzie zbiór indeksów I jest skończony lub przeliczalny. 23

24 Przykład. Grześ i Jaś rzucają na przemian monetą. Jaś wygrywa, gdy pojawią się kolejno OOR, Grześ gdy ROR. Jakie są prawdopodobieństwa wygranej dla obu chłopców? Niech W 1 wygra Jaś, W 2 wygra Grześ, O k w k-tym rzucie wypadł orzeł, R k w k-tym rzucie wypadła reszka. x = P (W 1 O 1 O 2 ) y = P (W 1 O 1 R 2 ) z = P (W 1 R 1 O 2 ) w = P (W 1 R 1 R 2 ) Zatem y =P (W 1 O 1 R 2 O 3 )P (O 3 O 1 R 2 )+ + P (W 1 O 1 R 2 R 3 )P (R 3 O 1 R 2 ) Analogicznie =z w 1 2 x = 1 2 x , z = 1 2 x + 0, w = 1 2 w z Stąd P (W 1 ) = (x + y + z + w)/4 = 5/8. 24

25 Twierdzenie 6. Wzór Bayesa. Niech {H i } i I będzie rozbiciem Ω na zdarzenia o dodatnim prawdopodobieństwie i P (A) > 0, to dla dowolnego j I mamy P (H j A) = P (A H j )P (H j ) i I P (A H i)p (H i ) Przykład. Amperomierze pochodzą z trzech taśm produkcyjnych w stosunku 1:1:1. Dostawy z pierwszej taśmy zawierają 0.5% braków, z drugiej 0.7%, a z trzeciej 1%. Wybrany losowo amperomierz okazał się brakiem. Obliczyć prawdopodobieństwo, że został on wyprodukowany na taśmie drugiej. A amperomierz jest brakiem H i amperomierz pochodzi z i tej taśmy P (H 1 ) = P (H 2 ) = P (H 3 ) = 1/3 P (A H 1 ) = 0.005; P (A H 2 ) = 0.007; P (A H 3 ) = 0.01 Stąd P (A) = ( ) = 3 1 = = P (H 2 A) = P (H 2)P (A H 2 ) P (A)

26 Niezależność zdarzeń. Zdarzenie B nie zależy od zdarzenia A, gdy wiedza o tym, że zaszło A nie wpływa na prawdopodobieństwo zajścia B. P (B A) = P (B), P (A) > 0 P (A B) = P (A)P (B) Definicja. Zdarzenia A oraz B nazywamy niezależnymi, gdy P (A B) = P (A)P (B) Definicja. Zdarzenia A 1, A 2,..., A n nazywamy niezależnymi, gdy P (A i 1 A i 2... A i k) = P (A i1 )... P (A ik ) dla 1 i i < i 2,... < i k n, k = 2, 3,..., n 26

27 Przykład. Spośród rodzin mających n dzieci wybieramy jedną rodzinę. Niech zdarzenie A polega na tym, że w losowo wybranej rodzinie jest co najwyżej jedna dziewczynka, B w rodzinie są dziewczynki i chłopcy. Czy zdarzenia A i B są niezależne? Przestrzeń probabilistyczną tworzą ciągi n elementowe uporządkowane według starszeństwa dzieci. P (A B) = P (A)P (B) n 2 n = ( n n n = 3 ) ( 2 n ) 2 2 n Przykład. W urnie są cztery kule niebieska, zielona, czerwona i pstrokata (niebiesko-zielono-czerwona). Zdarzenia A n wyciągneliśmy kulę z kolorem niebieskim A z wyciągneliśmy kulę z kolorem zielonym A n wyciągneliśmy kulę z kolorem czerwonym Mamy P (A n ) = P (A z ) = P (A c ) = 1/2 P (A n A z ) = P (A n A c ) = P (A z A c ) = 1/4 Zatem rozważane zdarzenia są parami niezależne. 27

28 Zauważmy jednak, że P (A n A z A c ) = = P (A n)p (A z )P (A c ) Przykład. Ω = [0, 1] 2, F = B([0, 1] 2 ), P rozkład równomierny na [0, 1] 2. Zdarzenia A = B = { (x, y) [0, 1] 2 : x > y } Zauważmy, że C = { (x, y) [0, 1] 2 : x < 0.5 } P (A B C) = 1 8 = P (A)P (B)P (C) natomiast żadne dwa nie są niezależne 28

29 Przyjmijmy konwencję: A 0 = A, A 1 = A Twierdzenie 7. Następujące warunki są równoważne: (i) Zdarzenia A 1, A 2,..., A n są niezależne; (ii) Dla każdego ciągu ε 1, ε 2,..., ε n, gdzie ε i {0, 1}, i = 1, 2,..., n, zdarzenia A ε 1 1,..., Aε n n są niezależne; (iii) Dla każdego ciągu ε 1, ε 2,..., ε n, gdzie ε i {0, 1}, i = 1, 2,..., n, zachodzi równość P (A ε Aε n n ) = P (A ε 1 1 )... P (Aε n n ) Dowód. (i) (ii) (indukcja względem n) (1 o ) Pokażemy dla n = 2 (2 o ) Założymy, że tw. jest prawdziwe dla n 1 (3 o ) Pokażemy, że A 1,..., A n 1, A n niezależne A 1,..., A n 1, A n niezależne (4 o ) Zauważymy, że z 3 o wynika A ε 1 1,..., Aε n 1 n 1, Aε n n niezależne 29

30 Dla n = 2 P (A 1 A 2) = P (A 1 \ A 1 A 2 ) = = P (A 1 ) P (A 1 A 2 ) = = P (A 1 )[1 P (A 2 )] = P (A 1 )P (A 2) Zatem A 1, A 2 są niezależne. Na mocy symetrii także A 1, A 2 są niezależne. Stosując jeszcze raz powyższe rozumowanie do A 1, A 2, otrzymujemy niezależność A 1, A 2 Zakładamy, że tw. jest prawdziwe dla n 1 i dowodzimy dla n. W tym celu wystarczy pokazać: P (A 1... A n 1 A n) = = P (A 1... A n 1 \ A 1... A n 1 A n ) = = P (A 1... A n 1 ) P (A 1... A n ) = = P (A 1... A n 1 )[1 P (A n )] = P (A 1 )... P (A n 1 )P (A n) Definicja. Zdarzenia A 1, A 2,... nazywamy niezależnymi, gdy dla każdego n zdarzenia A 1, A 2,..., A n są niezależne. 30

31 Zmienne losowe. Cel: Ujednolicić sposób rozważań dla różnych przestrzeni zdarzeń elementarnych. Definicja. Zmienna losowa jest to funkcja rzeczywista X : Ω X o własności: {ω Ω : X(ω) x} F x R X zbiór wartości zmiennej losowej Często X = {0, 1,... }, X = [0, ), X = [a, b], X = R 31

32 Definicja. Rozkładem prawdopodobieństwa zmiennej losowej X nazywamy rozkład prawdopodobieństwa P X określony wzorem P X (A) = P ({ω Ω : X(ω) A}) = P (X 1 (A)) dla A X! dokładniej dla A B(X ) Definicja. Trójkę (X, B(X ), P X ) nazywamy modelem probabilistycznym. Przykład. Ze zbioru pięciu ponumerowanych elementów losujemy jeden element Ω = {ω 1,..., ω 5 } P ({ω i } = 1/5) ω i wylosowano i ty element Wtedy dla X(ω i ) = i mamy X = {1, 2, 3, 4, 5} oraz P X (i) = 1/5, i = 1, 2, 3, 4, 5 P X (A) = i A P X (i), dla A X 32

33 Definicja. Dystrybuanta zmiennej losowej X, jest to funkcj F : R [0, 1] określona wzorem F X (x) = P (X x) Własności dystrybuanty W1. F jest niemalejąca x 1 < x 2, A = (, x 1 ], B = (, x 2 ], A B F (x 1 ) = P (A) P (B) = F (x 2 ) W2. lim F (x) = 0, lim x F (x) = 1 x {x n } ( ) lim F (x) = lim F (x n) = P (, x n ] x n n = P ((, )) = 1 33

34 {x n } ( ) lim F (x) = lim n) = P x n (, x n ] n = P ( ) = 0. W3. F jest prawostronnie ciągła lim x x + 0 {x n } x 0 ( ) F (x) = lim F (x n) = P (, x n ] n n = P ((, x 0 ]) = F (x 0 ), 34

35 Twierdzenie 8. Każda funkcja F : R [0, 1] o własnościach 1 3 jest dystrybuantą pewnej zmiennej losowej. Dowód. F 1 (u) := inf{x : F (x) u} dla 0 < u < 1 F 1 (u) x u F (x) Niech U oznacza zmienną losową o rozkładzie równomiernym na zbiorze (0, 1): F U (u) = P (U u) = u Niech X = F 1 (U). F X (x) = P (X x) = P (F 1 (U) x) = P (U F (x)) = F (x) 35

36 Własności dystrybuanty, ciąg dalszy oznaczmy F (a+) := lim x a + F (x) (?) (i) P (a < X b) = F (b) F (a) (ii) P (X = a) = F (a) F (a ) (iii) P (a X b) = F (b) F (a ) (iv) P (a < X < b) = F (b ) F (a) F (b) F (a) a... P (a < X b). b 36

37 Zmienne losowe typu skokowego Definicja. Mówimy, że zmienna losowa jest typu skokowego (dyskretna), jeżeli istnieje zbiór skończony lub przeliczalny X R taki, że P X (X ) = 1 Przykłady zmiennych losowych typu skokowego: rozkład dwumianowy rozkład Poissona rozkład ujemny dwumianowy rozkład wielomianowy 37

38 Rozkład dwumianowy Powtarzające się i niezależne próby nazywamy próbami Bernoulliego, jeżeli każda próba ma tylko dwa możliwe wyniki: sukces z prawdopodobieństwem p oraz porażka z prawdopodobieństwem q Niech X oznacza ilość sukcesów osiągniętych w ciągu n prób Bernoulliego. Zmienna losowa X ma następujący rozkład prawdopodobieństwa: ( ) n P (X = k) = p k q n k, k gdzie p (0, 1) oraz k = 0, 1,..., n. O zmiennej losowej X mówimy, że ma rozkład dwumianowy (X B(n, p)). 38

39 Przykład. Dziesięciu robotników używa z przerwami energię elektryczną. Jakiego należy oczekiwać obciążenia, jeżeli 1. W każdej danej chwili każdy robotnik ma to samo prawdopodobieństwo p zapotrzebowania na jednostkę energii. 2. Robotnicy pracują niezależnie od siebie. 3. Przeciętnie jeden robotnik używa dostarczanej energii w ciągu 12 minut na godzinę. Niech X oznacza liczbę robotników, którzy potrzebują energii w tym samym czasie. X B(10, 1/5). Wówczas, jeżeli dopływ energii jest ustalony na poziomie sześciu jednostek, to przeciążenie ma szanse: P (X 7) = (?) W ciągu 20 godzin powinno trwać łącznie przez około minutę. 39

40 Rozkład Poissona Zmienna losowa X ma rozkład Poissona z parametrem λ > 0 (X P 0 (λ)), jeżeli: P (X = k) = e λ λ k, k = 0, 1,... k! Rozkład Poissona a rozkład dwumianowy. Załóżmy, że liczba doświadczeń n w poszczególnych seriach schematu Bernoulliego wzrasta dążąc do nieskończoności a prawdopodobieństwo p dąży do zera tak, że iloczyn np jest wielkością stałą równą λ > 0. Wtedy zachodzi lim n ( n )p k (1 p) n k = e λ λ k. k k! Wynika to z rozpisania: ( n k) p k (1 p) n k = = 1 ( λ k! (n k + 1)(n k + 2)... n n ( = λk 1 k 1 ) ( 1 k 2 )... k! n n ( ) 1 n ) k ( 1 λ ) n k n ( 1 λ ) n k n 40

41 Przykład. Jakie jest prawdopodobieństwo p k, że wśród 500 ludzi dokładnie k będzie miało urodziny w dniu Nowego Roku? Jeżeli 500 ludzi zostało wybranych losowo, to możemy zastosować schemat 500 prób Bernoulliego z prawdopodobieństwem sukcesu 1/365. Wówczas p 0 = (364/365) 500 = Dla przybliżenia Poissona bierzemy λ = 500/365 = Wtedy p 0 e !

42 Ujemny rozkład dwumianowy. Prowadzimy doświadczenia według schematu Bernoulliego do momentu pojawienia się r tego sukcesu. Niech X oznacza liczbę porażek poprzedzających r ty sukces. ( ) ( ) r + k 1 r + k 1 P (X = k)= p r 1 q k p = p r q k k k gdzie q = 1 p, k = 0, 1,... O zmiennej losowej X mówimy, że ma ujemny rozkład dwumianowy (X f(r, p)). Zakładamy, że r > 0 oraz 0 < p < 1. Uwaga. Możemy przyjąć, że r > 0 nie musi być liczbą całkowitą. Wtedy przyjmujemy następującą definicję symbolu Newtona (dla a R oraz k 0) ( ) a k := a(a 1)(a 2)... (a (k 1)), k N k! 1, k = 0 0, k / Z 42

43 Przykład. Zadanie Banacha o pudełkach zapałek. Mamy dwa pudełka zapałek jedno w prawej kieszeni i jedno w lewej. Kiedy potrzebujemy zapałkę, wybieramy jedną z kieszeni losowo. Przypuśćmy, że początkowo każde z pudełek zawiera N zapałek. Ile wynosi prawdopodobieństwo, że gdy wyciągniemy puste pudełko, w drugim będzie dokładnie m zapałek. X liczba wyciągnięć pudełka z prawej kieszeni do momentu aż w drugim pudełku będzie m zapałek Y... z lewej kieszeni... X f(n m, 0.5), Y f(n m, 0.5) Poszukiwane prawdopodobieństwo wynosi P ({X = N + 1} {Y = N + 1}) = = P (X = N + 1) + P (Y = N + 1) 43

44 Rozkład wielomianowy uogólnienie rozkładu dwumianowego Wykonujemy serię n niezależnych prób. Każda próba może mieć jeden z kilku wyników, np. E1, E2,..., E r. Prawdopodobieństwo realizacji E i w każdej próbie wynosi p i, i = 1, 2,..., r. Prawdopodobieństwo, że w n próbach E 1 występuje k 1 razy, E 2 występuje k 2 razy itd. wynosi n! k 1!k 2!... k r! pk 1 1 pk pk r r 44

45 Zmienne losowe typu ciągłego Definicja. Mówimy, że zmienna losowa o dystrybuancie F jest typu ciągłego, jeżeli istnieje taka funkcja f 0, że dla każdego x zachodzi równość F (x) = x f(u) du Funkcję f nazywamy gęstością prawdopodobieństwa zmiennej losowej X lub w skrócie gęstością Uwagi (1) W punktach, w których f jest ciągła zachodzi d F (x) = f(x) dx (2) f(x) dx = 1 (3) Każda funkcja f nieujemna i spełniająca (2) wyznacza dystrybuantę F za pomocą wzoru F (x) = x f(u) du 45

46 Przykład. Sprawdzić, czy funkcja f określona wzorem { 0 dla x < 0 f(x) = e x dla x 0 jest gęstością. f(x) dx = 0 e x dx = [ e x] 0 = 1 Przykłady zmiennych losowych ciągłych: rozkład normalny N(µ, σ 2 ) rozkład jednostajny U(a, b) rozkład gamma G(b, p) rozkład beta B(p, q) rozkład Cauchyego C(µ, λ) 46

47 N(µ, σ 2 ), σ > 0 f(x) = 1 [ ] (x µ) 2 σ 2π exp 2σ 2 U(a, b), a < b f(x) = 1 b a, x [a, b], 0, x / [a, b] G(b, p), b > 0, p > 0 f(x) = b p Γ(p) xp 1 e bx, x > 0 0, x 0 gdzie Γ(p) = 0 x p 1 e x dx 47

48 B(p, q), b > 0, p > 0 f(x) = 1 B(p, q) xp 1 (1 x) q 1, x (0, 1) 0, x / (0, 1) gdzie B(p, q) = 1 x p 1 (1 x) q 1 dx a także 0 B(p, q) = Γ(p)Γ(q) Γ(p + q) C(µ, λ), λ > 0 f(x) = 1 π λ λ 2 + (x µ) 2 48

49 Przykład. Sprawdzimy, że rozkład N(µ, σ 2 ) jest rzeczywiście rozkładem prawdopodobieństwa: [ ] 1 (x µ) 2 σ 2π exp 2σ 2 podstawienie: y = (x µ)/σ = 1 ) exp ( y2 dy = 2π 2 dx = Należy zatem sprawdzić, że ostatnia całka równa jest 2π. Ponadto zauważmy, że przy okazji otrzymaliśmy następujący fakt X N(µ, σ 2 ) X µ σ N(0, 1) 49

50 exp = exp ( y2 2 ( x2 2 ) 2 dy = ) dx = exp ( x2 + y 2 ) 2 exp ( y2 dx dy = 2 ) dy = przejście na współrzędne biegunowe: ϕ(r, t) = (r cos t, r sin t) Jϕ(r, t) = cos(t) r sin(t) sin(t) r cos(t) = r 2π = exp 0 0 ( r2 2 = 2π [ exp r2 2 ) r dr dt = 2π ] 0 = 2π 0 exp ( r2 2 ) r dr = 50

51 Funkcje zmiennej losowej Przykład. Niech Y = ax +b, gdzie a 0 oraz X jest zmienną losową o rozkładzie P (X = 0) = 1/4, P (X = 1) = 3/4. Chcemy znaleźć rozkład zmiennej losowej Y. P (X = 0) = P (Y = b) = 1/4 P (X = 1) = P (Y = a + b) = 3/4 Przykład. Niech X będzie zmienną losową typu ciągłego o gęstości f X, dystrybuancie F X oraz niech Y = ax + b, a < 0. Chcemy znaleźć rozkład Y F Y (y) = P (Y y) = P (X y b a ) = ( = 1 P X < y b ) ( ) y b = 1 F X a a Zatem f Y (y) = d dy F Y (y) = 1 a f X ( ) y b a 51

52 Przykład. Niech X oznacza zmienną losową ciągłą o dystrybuancie F X oraz gęstości f X. Niech f X jest funkcją ciągłą, a g funkcją ściśle monotoniczną oraz niech h = g 1. Wtedy dystrybuantą zmiennej losowej Y = g(x) jest: (dla g - rosnącej) F Y (y) = P (Y y) = P (g(x) y) = P (X h(y)) = F X (h(y)) Jeżeli h jest funkcją różniczkowalną, to d dy F Y (y) = f X (h(y))h (y) jest gęstością zmiennej losowej Y = g(x) (dla g - malejącej) F Y (y) = P (Y y) = P (g(x) y) = P (X h(y)) = 1 F X (h(y)) Jeżeli h jest funkcją różniczkowalną, to d dy F Y (y) = f X (h(y))( h (y)) jest gęstością zmiennej losowej Y = g(x) 52

53 Zatem w obu przypadkach f Y (y) = f X (h(y)) h (y) Przykład. Niech X nieujemna zmienna losowa typu ciągłego oraz Y = X. Zatem h(y) = y 2 oraz f Y (y) = 2y f X (y 2 ) I (0, ) (y) Uwaga. I A (x) = { 1, x A 0, x / A Przykład. Niech X zmienna losowa typu ciągłego oraz Y = X 2. F Y (y) = P (X 2 y) = P ( y X y) = = P (X y) P (X y) = F X ( y) F X ( y) f Y (y) = d dy F Y (y) = d dy (F X( y) F ( y)) = = 1 2 y (f X( y) + f X ( y)) 53

54 Twierdzenie 9. Niech X będzie zmienną losową typu ciągłego. Niech g będzie funkcją określoną na zbiorze n [a k, b k ], k=1 która na każdym przedziale otwartym (a k, b k ) jest funkcją ściśle monotoniczną oraz ma ciągłą pochodną g(x) 0. Niech h k (y) będzie funkcją odwrotną do funkcji g(x) na przedziale I k = g((a k, b k )) = {y : x (a k, b k ), g(x) = y}. Wówczas funkcja gęstości zmiennej losowej Y = g(x) ma następującą postać f Y (y) = n f X (h k (y)) h (y) I Ik (y) k=1 Przykład. X ciągła, Y = X 2. Wtedy g(x) = x 2, h 1 (y) = y, h 2 (y) = y, I 1 = I 2 = (0, ). 54

55 Dowód. Niech A B(R) P (Y A) = P (g(x) A) = P (X g 1 (A)) n = P (X (a k, b k ) g 1 (A)) k=1 n = P (X g 1 (I k ) g 1 (A)) k=1 n = P (X g 1 (I k A)) k=1 n = P (X h k (I k A)) k=1 n = f X (x) dx k=1 h k (I k A) n = f X (h k (y)) h k(y) dy k=1 I k A n = f X (h k (y)) h k(y) I Ik dy A k=1 Pytanie: Czy coś by się zmieniło, gdyby n =? 55

56 Wektory losowe Definicja. Wektor losowy X = (X 1,..., X n ) to odwzorowanie X : Ω X R n o własności: {ω Ω : X 1 (ω) x 1,..., X n (ω) x n } F dla dowolnego (x 1, x 2,..., x n ) R n X zbiór wartości wektora losowego Często X = {0, 1,... } n, X = [0, ) n, X = [a, b] n, X = R n Definicja. Rozkładem prawdopodobieństwa wektora losowego X nazywamy rozkład prawdopodobieństwa P X określony wzorem P X (A) = P ({ω Ω : X(ω) A}) dla A B(X ) 56

57 Definicja. Trójkę (X, B(X ), P X ) nazywamy modelem probabilistycznym. Definicja. Funkcja F X : R n [0, 1] postaci F X (x 1,..., x n ) = P (X 1 x 1,..., X n x n ) nazywamy dystrybuantą wektora losowego X Definicja. Wektor losowy jest typu skokowego, jeżeli istnieje zbiór przeliczalny X R n, taki że P X (X ) = 1 Definicja. Wektor losowy jest typu ciągłego, jeżeli istnieje nieujemna funkcja f X (x 1, x 2,..., x n ), zwana gęstością, taka że dla każdego x = (x 1, x 2,..., x n ) R n F X (x) = x 1 x 2 f X (u 1,..., u n ) du 1... du n 57

58 Uwagi Prawie wszędzie ma miejsce równość F X (x 1,..., x n ) x 1,..., x n = f X (x 1,..., x n ) Dla dowolnego A B(R n ) zachodzi f X (x) dx Zauważmy, że A P (X 1 A) = P (X 1 A, X 2 R,..., X n R) = f X (x 1,..., x n ) dx 1... dx n = A f X (x 1,..., x n ) dx 2... dx n dx 1 A Zatem f X1 (x 1 ) = f X (x 1,..., x n ) dx 2... dx n Jest to tzw. brzegowa gęstość prawdopodobieństwa. 58

59 Dla rozkładów brzegowych wielowymiarowych mamy: f (X1,X 2 )(x 1, x 2 ) = = f X (x 1,..., x n ) dx 3... dx n f (X1,X 2,X 3 )(x 1, x 2, x 3 ) = = f X (x 1,..., x n ) dx 4... dx n itd. Podobnie postępuje się przy rozkładach skokowych: Przykład. Niech wektor losowy (X, Y ) ma rozkład określony liczbami p ik = P (X = x i, Y = y k ), gdzie i I, k K. Wówczas rozkład zmiennej losowej X określają liczby p i = P (X = x i ) = k K p ik, gdzie i I 59

60 Przykład. Niech (X, Y ) ma rozkład równomierny na Ω = [0, 2] [0, 3]: f X,Y (x, y) = 1 6 I Ω(x, y). Wówczas f X (x) = f X,Y (x, y) dy = 1 6 I Ω (x, y) dy = = 1 6 I [0,2] (x) I [0,3] (y) dy = = 1 6 I [0,2](x) I [0,3] (y) = 1 2 I [0,2](x) 60

61 Przykład. Niech (X 1, X 2 ) ma dwuwymiarowy rozkład normalny, tzn: 1 f X1,X 2 (x 1, x 2 ) = 2πσ 1 σ 2 (1 ϱ 2 ) 1 2 { [ (x1 ) 2 1 µ 1 exp 2(1 ϱ 2 + ) σ 1 ( ) ]} 2 x2 µ 2 + 2ϱ (x 1 µ 1 )(x 2 µ 2 ) σ 2 σ 1 σ 2 gdzie σ 1, σ 2 > 0 oraz ϱ ( 1, 1) Rozpisujemy wyrażenie w nawiasie kwadratowym: ( ) 2 ( ) 2 x1 µ 1 x2 µ 2 + 2ϱ (x 1 µ 1 )(x 2 µ 2 ) = σ 1 σ 2 σ 1 σ 2 ( ) 2 ( ) 2 x1 µ 1 x2 µ 2 = + σ 1 + ϱ 2 (x 2 µ 2 ) 2 σ 2 2 σ 2 ϱ 2 (x 2 µ 2 ) 2 σ 2 2 2ϱ (x 1 µ 1 )(x 2 µ 2 ) σ 1 σ 2 = 61

62 ( x1 µ 1 = = 1 σ 2 1 σ 1 ϱ x 2 µ 2 σ 2 ( x 1 µ 1 ϱ σ 1 σ 2 (x 2 µ 2 ) ) 2 + (1 ϱ 2 ) (x 2 µ 2 ) 2 σ 2 2 = ) 2 + (1 ϱ 2 ) (x 2 µ 2 ) 2 σ 2 2 Zatem wyrażenie w nawiasie klamrowym ma postać: h(x 1,x 2 ) {}}{ ( 1 2(1 ϱ 2 )σ1 2 x 1 µ 1 ϱ σ ) 2 1 (x 2 µ 2 ) σ 2 1 2σ2 2 (x 2 µ 2 ) 2 Zatem 1 f X1,X 2 (x 1, x 2 ) = 2πσ 1 σ 2 (1 ϱ 2 ) 1 2 { exp h(x 1, x 2 ) 1 } 2σ2 2 (x 2 µ 2 ) 2 62

63 Zauważmy, że g(x 1 ) := 1 2π(1 ϱ2 )σ 1 exp(h(x 1, x 2 )) jest gęstością rozkładu N ( µ 1 + ϱ σ ) 1 (x 2 µ 2 ), (1 ϱ 2 )σ1 2 σ 2 Zatem f X2 (x 2 ) = f X1,X 2 (x 1, x 2 ) dx 1 = = 1 2πσ2 exp { 1 2σ 2 2 } (x 2 µ 2 ) 2 g(x 1 ) dx 1 } {{ } =1 Wniosek: Rozkład brzegowy dwuwymiarowego rozkładu normalnego jest jednowymiarowym rozkładem normalnym 63

64 Niezależność zmiennych losowych Definicja. Niech (Ω, F, P ) będzie przestrzenią probabilistyczną, a X 1, X 2,..., X n będą zmiennymi losowymi określonymi na tej przestrzeni. Mówimy, że te zmienne losowe są niezależne, jeżeli dla dowolnych zbiorów borelowskich A 1, A 2,..., A n zachodzi: P (X 1 A 1,... X n, A n ) = = P (X 1 A 1 )... P (X n A n ) Definicja. Mówimy, że zmienne losowe X 1, X 2,... są niezależne, jeżeli każdy skończony podciąg ciągu X 1, X 2,... składa się z niezależnych zmiennych losowych Twierdzenie 10. Dla zmiennych losowych X 1, X 2,..., X n następujące warunki są równoważne (i) zmienne losowe są niezależne (ii) dla x = (x 1, x 2,..., x n ) R n F X (x) = F X1 (x 1 )... F Xn (x n ) 64

65 Twierdzenie 11. Jeżeli X = (X 1, X 2,..., X n ) jest wektorem losowym typu skokowego to warunkiem koniecznym i wystarczającym niezależności zmiennych losowych X 1, X 2,..., X n jest: P (X 1 = x 1,..., X n = x n ) = = P 1 (X 1 = x 1 )... P n (X n = x n ), dla każdego (x 1,..., x n ) R n, gdzie P k oznacza brzegowy rozkład prawdopodobieństwa zmiennej losowej X k (k = 1, 2,..., n). Twierdzenie 12. Jeżeli X = (X 1, X 2,..., X n ) jest wektorem losowym typu ciągłego o gęstości f X, to warunkiem koniecznym i wystarczającym niezależności zmiennych losowych X 1, X 2,..., X n jest: f X (x) = f X1 (x 1 )... f Xn (x n ), dla każdego x = (x 1,..., x n ) R n, gdzie f Xk jest gęstością rozkładu brzegowego zmiennej losowej X k (k = 1,..., n ) 65

66 Przykład. Niech X 1, X 2 ma łączny rozkład normalny. Chcemy znaleźć warunek konieczny i wystarczający na niezależność zmiennych X 1 oraz X 2. Z twierdzenia mamy, że powinno zachodzić Ponieważ f X1,X 2 (x 1, x 2 ) = f X1 (x 1 )f X2 (x 2 ) 1 f X1,X 2 (x 1, x 2 ) = 2πσ 1 σ 2 (1 ϱ 2 ) 1 2 { [ (x1 ) 2 1 µ 1 exp 2(1 ϱ 2 + ) σ 1 ( ) ]} 2 x2 µ 2 + 2ϱ (x 1 µ 1 )(x 2 µ 2 ) σ 2 σ 1 σ 2 oraz f X1 (x 1 ) = f X2 (x 2 ) = [ 1 (x1 µ 1 ) 2 ] exp σ 1 2π 2σ1 2 [ 1 (x2 µ 2 ) 2 ] exp σ 2 2π 2σ2 2 zauważamy, że warunkiem tym jest ϱ = 0 66

67 Przykład. Niech X i N(µ i, σi 2 ), i = 1, 2,, n. Wówczas n f Xi (x i ) = i=1 = = [ 1 n exp 1 2 (σ i 2π) i=1 ] n (x i µ i ) 2 = i=1 [ 1 (2π)n Σ exp 1 ] 2 (x µ)σ 1 (x µ), σ 2 i gdzie x = (x 1, x 2,..., x n ), µ = (µ 1, µ 2,..., µ n ) oraz Σ = σ σ 2 n Wniosek: Jeżeli X = (X 1, X 2,..., X n ) N n (µ, Σ), to warunkiem koniecznym i dostatecznym niezależności zmiennych losowych X i, i = 1, 2,..., n jest to, aby macierz Σ była diagonalna. 67

68 Twierdzenie 13. (a) Jeżeli zmienne losowe X 1, X 2,..., X n są niezależne oraz g 1, g 2,..., g n są funkcjami borelowskimi, to zmienne losowe Y 1 = g 1 (X 1 ),..., Y n = g n (X n ) są również niezależne. (b) Jeżeli X 1,..., X m, Y 1,..., Y n zmiennymi losowymi oraz są niezależnymi f : R m R i g : R n R są funkcjami borelowskimi, to U = f(x 1,..., X m ) i V = g(y 1,..., Y n ) są niezależnymi zmiennymi losowymi, a także U, Y 1,..., Y n są niezależnymi zmiennymi losowymi. 68

69 Przykład. Niech X i N(0, 1), i = 1, 2 będą zmiennymi niezależnymi. Chcemy znaleźć rozkład zmiennej losowej X X 2 2. Ponieważ zmienne X 1, X 2 są niezależne, to zmienne Y 1 = X1 2, Y 2 = X2 2 też są niezależne. Zatem Ponieważ f Y1,Y 2 (y 1, y 2 ) = f Y1 (y 1 )f Y2 (y 2 ) f Yi (y i ) = 1 2 y i (f Xi ( y i ) + f Xi ( y i )) I (0, ) (y i ) oraz mamy f Xi (x i ) = 1 [ x 2 σ 2π exp i 2 f Yi (y i ) = 1 [ exp y ] i I (0, ) (y i ) 2πyi 2 ] 69

70 Niech Z = X1 2 + X2 2 = Y 1 + Y 2. F Z (z) = P (Y 1 + Y 2 z) = f Y1,Y 2 (y 1, y 2 ) dy 1 dy 2 = = z y 2 Y 1 +Y 2 z f Y1,Y 2 (y 1, y 2 ) dy 1 dy 2 = = = z y 2 z f Y1 (y 1 ) dy 1 f Y2 (y 2 )dy 2 = f Y1 (y 1 y 2 ) dy 1 f Y2 (y 2 )dy 2 = = z f Y1 (y 1 y 2 )f Y2 (y 2 ) dy 2 dy 1 Zmiana oznaczeń dla funkcji w nawiasach: z := y 1, x := y 2 Zatem f Z (z) = f Y1 (z x)f Y2 (x) dx 70

71 Robimy odpowiednie podstawienie i otrzymujemy dla z > 0: f Z (z) = 1 2π z 0 [ 1 exp z x + x ] dx = (z x)x 2 = 1 [ 2π exp z ] z 2 podstawienie t := x/z 0 = 1 [ 2π exp z ] (z x)x dx = t 1 2 (1 t) 1 2 dt = = 1 [ 2π exp z ] B(1/2, 1/2) = 2 = 1 [ 2π exp z ] Γ( 1 2 )Γ( 1 2 ) 2 Γ( ) = = 1 [ 2 exp z ] 2 Zatem f Z (z) = 1 [ 2 exp z ] I (0, ) (z) 2 71

72 Można pokazać przez indukcję ze względu na n, że zmienna losowa Z = X X 2 n ma rozkład o gęstości f Z (z) = 1 2 n/2 Γ(n/2) zn/2 1 e z/2 I (0, ) (z) Jest to tzw. rozkład chi-kwadrat o n stopniach swobody. Symbolicznie piszemy X X 2 n χ 2 (n) Fakt. m λ i Xi 2 χ2 (n), Xi 2 χ2 (1) m = n, λ i = 1 i=1 72

73 Parametry rozkładów Wartość oczekiwaną (wartość przeciętna, nadzieję matematyczną) zmiennej losowej X oznaczamy symbolem E(X) i określamy w następujący sposób: Dla zmiennej losowej skokowej Jeżeli X jest zmienną losową typu skokowego, X = {x 1, x 2,... }, przy czym szereg x k P (X = x k ) jest zbieżny, to k E(X) = k Dla zmiennej losowej ciągłej x k P (X = x k ) Jeżeli X jest zmienną losową typu ciągłego o gęstości f i zbieżna jest całka x f(x) dx, to R E(X) = x f(x) dx R Ogólnie: E(X) = Ω X(ω)dP (ω) 73

74 Przykład. Niech X = {0, 1}, P (X = 0) = q, P (X = 1) = p = 1 q. Wówczas E(X) = 0 q + 1 p = p Przykład. Niech X B(n, p). Wówczas n ( ) n E(X) = k p k q n k = k k=0 n n! = k k!(n k)! pk 1 q n k = k=1 = np n k=1 (n 1)! (k 1)!(n k)! pk 1 q n k = = np (p + q) n 1 = np Przykład. Niech X P o (λ). Wówczas E(X) = k λk k! e λ = λe λ λ k 1 (k 1)! = k=0 = λe λ r=0 k=1 λ r r! = λe λ e λ = λ 74

75 Przykład. Niech X N(µ, σ 2 ). Wówczas E(X) = 1 σ 2π Stosujemy podstawienie z = x µ σ E(X) = 1 2π [ ] (x µ) 2 x exp 2σ 2 dx (µ + σz)e z2 2 dz = i otrzymujemy = µ 2π e z2 2 dz + σ 2π ze z2 2 dz = = µ 2π 2π + σ 2π 0 = µ Przykład. Niech X C(0, 1). Wówczas x π(1 + x 2 ) = 2 lim A A dx = 2 lim A 0 1 2π ln(1 + A2 ) = x π(1 + x 2 ) dx = Wniosek: Dla rozkładu Cauchy ego wartość oczekiwana nie istnieje. 75

76 Własności wartości oczekiwanej Jeżeli E(X) <, E(Y ) <, to (i) E(X + Y ) = E(X) + E(Y ) (ii) E(aX + b) = ae(x) + b, (iii) Jeżeli X 0, to E(X) = (iv) Jeżeli X oraz Y są niezależne, to 0 dla a, b R P (X > t) dt E(XY ) = E(X)E(Y ) Przykład. Niech X i, i = 1, 2,... n, ma rozkład dwupunktowy: P (X i = 0) = q, P (X i = 1) = p Jeżeli zdarzenia A i = {X i = 1} są niezależne, to Zatem n X = X i B(n, p) k=1 n n E(X) = E(X k ) = p = np k=1 k=1 76

77 Twierdzenie 14. Jeżeli funkcja ϕ jest borelowska, to (i) Dla X z rozkładu skokowego E(ϕ(X)) = k ϕ(x k )P (X = x k ) (ii) Dla X z rozkładu ciągłego o gęstości f(x) E(ϕ(X)) = ϕ(x)f(x) dx R Przykład. Znaleźć wartość oczekiwaną pola prostokąta, którego obwód jest równy 10, a jeden bok jest zmienną losową X o rozkładzie U[1, 10]. Pole = X(10 X), f X (x) = 1 9 I [1,10](x) E(X(10 X)) = x(10 x)f X (x) dx = = x(1 x) dx = 18 77

78 Problem. Jak możliwie najdokładniej zmierzyć długości dwóch prętów za pomocą zwykłej miarki, jeśli wolno mierzyć tylko dwa razy? Propozycje 1. Mierzymy osobno każdy pręt. 2. Mierzymy sumę długości prętów, składając je razem, a potem różnicę. Miernik precyzji pomiaru. Wynik pomiaru = rzeczywista długość + błąd X = x + ε ad 1. E(X x) 2 = E(ε) 2 Niech X i oznacza pomiar i tego pręta, i = 1, 2. Zatem X i = x i + ε i. Wielkość błędu pomiaru pierwszego pręta wynosi E(ε 1 ) 2, a drugiego E(ε 2 ) 2. Rozsądnie jest przyjąć E(ε 1 ) 2 = E(ε 2 ) 2 = σ 2 78

79 ad 2. Niech S oznacza pomiar sumy długości prętów oraz R różnicę. S = x 1 + x 2 + ε 1 R = x 1 x 2 + ε 2 Jako oszacowanie x 1 przyjmujemy S + R 2 = x 1 + ε 1 + ε 2 2 Jako oszacowanie x 2 przyjmujemy S R 2 Rozsądnie jest przyjąć, że = x 2 + ε 1 ε 2 2 E(ε 1 ) = E(ε 2 ) = 0, oraz ε 1, ε 2 niezależne Na mocy twierdzenia 19, 20 oraz założeń: E ( ε1 ± ε 2 2 ) 2 = 1 4 E(ε 1) E(ε 2) 2 ± 1 2 E(ε 1)E(ε 2 ) = 1 4 E(ε 1) E(ε 2) 2 ± 0 0 = σ2 2 Średni kwadrat błędu jest dwa razy mniejszy niż poprzednio. 79

80 Zauważmy, że jeżeli E(ε) = 0 to E(X) = x. Zatem E(X x) 2 = E(X E(X)) 2 Definicja. Jeżeli E(X EX) 2 <, to tę liczbę nazywamy wariancją zmiennej losowej X i oznaczamy: D 2 X = E(X EX) 2. Uwaga. D 2 X = E(X EX) 2 = E(X 2 2X EX + (EX) 2 ) = EX 2 (EX) 2 Definicja. Pierwiastek z wariancji nazywamy odchyleniem standardowym i oznaczamy przez DX. 80

81 Własności wariancji Jeżeli X jest zmienną losową, dla której EX 2 <, to istnieje D 2 X oraz: (i) D 2 X 0 (ii) D 2 (cx) = c 2 D 2 X (iii) D 2 (X + a) = D 2 X (iv) D 2 X = 0 wtedy i tylko wtedy, gdy zmienna losowa X jest z prawdopodobieństwem 1 stała Uwaga. E(X t) 2 =E(X EX + EX t) 2 =E(X EX) 2 + E(X t) 2 2E((X EX)(EX t)) =E(X EX) 2 + E(X t) 2 2E(X EX) E(EX t) E(X EX) 2 Zatem funkcja f(t) = E(X t) 2 przyjmuje minimum równe wariancji dla t = EX. 81

82 Przykład. Zagadnienie regresji liniowej. Chcemy zmienną Y w rozsądny sposób przybliżyć przy pomocy funkcji liniowej zmiennej X. Za kryterium jakości przybliżenia przyjmiemy średni kwadrat błędu: wyznaczyć takie liczby a i b, ażeby E(Y ax b)) 2 była minimalna. Na podstawie uwagi b = E(Y ax) = EY aex Zatem szukamy takiego a, które minimalizuje E(Y ax (EY aex))) 2 = = E(Y EY a(x EX)) 2 = D 2 Y + a 2 D 2 X 2aE((Y EY )(X EX)) Mamy tu funkcję kwadratową względem a. Zatem a = E((Y EY )(X EX)) D 2 X 82

83 Oznaczając ϱ(x, Y ) = E((Y EY )(X EX)) D2 X D 2 Y mamy oraz ax + b = ϱ(x, Y ) DY (X EX) + EY DX min a,b E(Y ax b)2 = (1 ϱ(x, Y ) 2 )D 2 Y Definicja. Kowariancją całkowalnych zmiennych losowych X, Y, spełniających warunek E XY <, nazywamy wielkość Cov(X, Y ) = E((Y EY )(X EX)). Definicja. Współczynnikiem korelacji zmiennych X, Y nazywamy wielkość E((Y EY )(X EX)) ϱ(x, Y ) =. D2 X D 2 Y Uwaga. Z ostatniej równości w przykładzie wynika: (i) 1 ϱ(x, Y ) 1 (ii) ϱ(x, Y ) = 1 wtedy i tylko wtedy, gdy istnieją liczby a 0 oraz b takie, że P (Y = ax + b) = 1 83

84 Wariancja sumy zmiennych losowych Jeżeli każda ze zmiennych losowych X 1, X 2,..., X n ma wariancję, to istnieje wariancja sumy i D 2 (X X n ) = n D 2 X i +2 Cov(X i, X j ) i=1 1 i<j n Definicja. Zmienne losowe X, Y, dla których Cov(X, Y ) = 0, czyli ϱ(x, Y ) = 0, nazywamy nieskorelowanymi. Wniosek. Jeśli zmienne losowe X 1, X 2,..., X n mają wariancję i są parami nieskorelowane, to D 2 (X X n ) = n D 2 X i i=1 (?) Uwaga. Jeżeli X, Y są niezależne, to są nieskorelowane. Odwrotny fakt nie zachodzi (chyba, że mamy do czynienia z rozkładem normalnym) 84

85 Przykład. Niech (X 1, X 2 ) ma dwuwymiarowy rozkład normalny. Policzmy Cov(X 1, X 2 ). Zgodnie z przekształceniami z przykładu na rozkład brzegowy dwywymiarowego rozkładu normalnego mamy: f X1,X 2 (x 1, x 2 ) = f X2 (x 2 ) g(x 1, x 2 ) }{{} g(x 1 ) prz. gdzie f X2 (x 2 ) jest gęstością rozkładu N(µ 2, σ 2 2) oraz g(x 1, x 2 ) traktowana jako funkcja zmiennej x 1 z parametrem x 2, jest funkcją gęstości zmiennej Zatem N ( µ 1 + ϱ σ ) 1 (x 2 µ 2 ), (1 ϱ 2 )σ1 2 σ 2 Cov(X 1, X 2 ) = E((X 1 µ 1 )(X 2 µ 2 )) = = (x 1 µ 1 )(x 2 µ 2 )f X2 (x 2 )g(x 1, x 2 ) dx 1 dx 2 = 85

86 = (x 2 µ 2 )f X2 (x 2 ) (x 1 µ 1 )g(x 1, x 2 ) dx 1 dx 2 Zatem = (x 2 µ 2 )f X2 (x 2 ) ( µ 1 + ϱ σ )) 1 (x 2 µ 2 ) µ 1 dx 2 σ 2 A zatem = ϱ σ 1 σ 2 (x 2 µ 2 ) 2 f X2 (x 2 )dx 2 = ϱ σ 1 σ 2 σ 2 2 = ϱσ 1 σ 2 Stąd ϱ(x, Y ) = ϱ. Zatem X, Y niezależne X, Y nieskorelowane. 86

87 Rozkłady warunkowe Przykład. Niech (X, Y ) dwuwymiarowy wektor losowy typu skokowego Rozkład X {x 1, x 2,... }, Y {y 1, y 2,... } p ij := P (X = x i, Y = y j ) Prawdopodobieństwa brzegowe P (X = x i ) = k p ik, P (Y = y k ) = i p ik Zachodzi P (X = x i Y = y k ) 0, P (X = x i Y = y k ) = 1 P (Y = y k X = x i ) 0, Zatem dla ustalonego y k P ( Y = y k ) jest rozkładem prawdopodobieństwa. Podobnie P ( X = x i ) i P (Y = y k X = x i ) = 1 k 87

88 Przykład. Rzut dwiema kostkami. X wynik rzutu pierwszą kostką Y wynik rzutu drugą kostką U := min{x, Y }, V := max{x, Y } u \ v P (U = u) P (V = v) v suma P (V = v U = 3) E(V U = 3) = 33 7 F (4 U = 3) =

89 Przykład. Jaka jest średnia liczba sukcesów w pierwszej próbie, jeżeli wiemy, ile zaszło sukcesów w całej serii n doświadczeń według schematu Bernoulliego? Oznaczenia S n łączna liczba sukcesów Y liczba sukcesów w pierwszej próbie A k := {S n = k}, B k := A k {Y = 1} E(Y A k ) = Y (ω)p (ω A k ) = ω A k = 1 Y (ω)p (ω) = P (A k ) ω A k = 1 P (ω) = P (B k) P (A k ) P (A k ) = ω B k = p( ) n 1 k 1 p k 1 q (n 1) (k 1) ( n ) = k k pk q n k n Zatem E(Y S n ) = S n n oraz E(E(Y S n )) = E(S n /n) = E(S n) n = np n = p = E(Y ) 89

90 Przykład. Niech f(x, y) gęstość wektora (X, Y ). Rozkłady brzegowe dla zmiennej X : f 1 (x) := f(x, y) dy dla zmiennej Y : f 2 (y) := f(x, y) dx Niech P (x < X x + h) > 0. Wtedy P (Y y x < X x + h) = x+h x ( y x+h x f(x, y) dy f 1 (x) dx ) dx 90

91 (?) Przy założeniu, że f(x, y)... oraz f 1 (x)... P (Y y X = x) : = lim P (Y y x < X x + h) h 0 + ( ) x+h y f(x, y) dy dx Oznaczając = lim h 0 + = y 1 h x 1 h f(x, y) dy f 1 (x) x+h x = f 1 (x) dx y f(x, y) f 1 (x) dy F (y x) = P (Y y X = x), f(y x) = f(x, y)/f 1 (x) mamy F (y x) = y f(y x) dy 91

92 Zauważamy, że f 1 (x)f (y x) = Po scałkowaniu obu stron y f(x, y) dy f 1 (x)f (y x) dx = F Y (y) Przyjmując E(Y x) := yf(y x) dy mamy E(Y x)f 1 (x) dx = ( ) yf(y x) dy f 1 (x) dx = ( y ) f(x, y) f 1 (x) dy f 1 (x) dx 92

93 ( ) yf(x, y) dy dx = y ( ) f(x, y) dx dy = = yf 2 (y) dy = E(Y ) Otrzymaliśmy E(E(Y X)) = E(Y ) Definicja. Jeżeli (X, Y ) jest wektorem losowym o gęstości f(x, y) to funkcję f(y x) = { f(x,y) f 1 (x) gdy f 1 (x) > 0 0 w przeciwnym przypadku nazywamy gęstością warunkową zmiennej Y dla danego X = x. (?) f(y x) dy = 1 93

94 Nadal zachodzi E(E(Y X)) = E(Y ) Ponadto rozumiemy, że P (Y B x) = f(y x) dy rozkład warunkowy B Przyjmując Z(ω) = I B (Y (ω)) mamy E(Z) = I B (y)f 2 (y) dy = f 2 (y) dy B = P (Y B) E(Z x) = I B (y)f(y x) dy = f(y x) dy = P (Y B x) B Zatem E(P (Y B X)) = P (Y B) 94

95 Dla B = (, y] mamy dystrybuantę zmiennej Y F Y (y) = P (Y B) dystrybuantę zmiennej Y pod warunkiem X = x F (y x) = P (Y B x) oraz wzór E(F (y X)) = F Y (y) Przykład. Z odcinka [0,1] wybrano losowo (zgodnie z rozkładem równomiernym) punk X, a następnie z odcinka [0, X], również losowo, punkt Y. Jaka jest średnia długość odcinka [0, Y ]? E(Y X) = 1 2 X E(Y ) = E(E(Y X)) = E( 1 2 X) =

96 Przykład. Owad składa X jajeczek zgodnie z rozkładem Poissona z parametrem λ, a owad z jajeczka wylęga się z prawdopodobieństwem p, niezależnie od innych. Znaleźć średnią liczbę potomków. Niech Y oznacza liczbę potomków owada. Zatem E(Y X) = Xp Stąd EY = E(E(Y X)) = E(Xp) = λp Ten przykład pokazuje, jak można obliczać wartość oczekiwaną, korzystając z warunkowej wartości oczekiwanej. Właściwy wybór zmiennej losowej X często bardzo upraszcza rachunki. 96

97 Uwaga. Skorzystaliśmy ze wzoru EY = E(E(Y X)), gdy X typu skokowego. Ja w takim przypadku rozumieć gęstość łączną? Umowa: b a f(x, y) dy = P (X = x, a Y b) Przy takiej umowie możemy zachować bez zmian określenia gęstości warunkowych f(x y) = f(x, y) f(x, y), f(y x) = f 2 (y) f 1 (x) gdzie f 1 (x) = f(x, y) dy, f 2 (y) = x f(x, y) 97

98 Rodzaje zbieżności Przykład. Niech P -rozkład jednostajny na [0, 1] oraz X kn (ω) = dla 0 k n 1, n = 1, 2,... [ k 1 dla ω n ; k + 1 ) ; n [ k 0 dla ω Ω \ n ; k + 1 ) n P (X nk = 0) = 1 1 n, P ( X nk > ε) = 1 n n P (X nk = 1) = 1 n 0, dla 0 < ε < 1 O ciągu X 01, X 02, X 12, X 03, X 13, X 23,... powiemy, że jest zbieżny do zera według prawdopodobieństwa. Ciąg ten jest rozbieżny w każdym punkcie przedziału. Na przykład dla ω = 1/2 mamy ciąg: 0, 0, 1, 0,..., który na dowolnie dalekich miejscach ma zera i jedynki. 98

99 Definicja. Ciąg zmiennych losowych (X n ) n=1 zbieżny do zmiennej losowej X: według prawdopodobieństwa, jeśli jest dla każdego ε > 0 lim n P ( X n X > ε) = 0, co oznaczamy X n P X, prawie na pewno, jeśli ({ }) P ω : lim X n (ω) = X(ω) n = 1 co oznaczamy X n p.n. X X n p.n. X P ( lim N P lim N P N=1 n=n ( n=n ( n=n { X n X ε} ) { X n X ε} { X n X > ε} ) ) lim N P ({ X N X > ε}) = 0 X n P X = 1 = 1 = 0 99

100 Wniosek. Zbieżność prawie na pewno pociąga zbieżność według prawdopodobieństwa. Przykład. Niech X n ma rozkład P (X n = a n ) = 1. Zatem F Xn (t) = I [an, )(t) 1 F Xn. 1 F X.. a a n. a Gdy a n a okazuje się, że F Xn (a) 0 1 = F X (a) 100

101 Przykład. Niech F będzie dowolną dystrybuantą. Zdefiniujmy dystrybuantę F n (t)=f (t 1 n ), n=1, 2,... Wtedy F n (t) F (t ). Zauważmy, że F (t ) = F (t) tylko wtedy, gdy t jest punktem ciągłości t. Definicja. Ciąg zmiennych losowych (X n ) n=1 jest zbieżny do zmiennej losowej X według dystrybuant, jeśli ciąg dystrybuant (F Xn ) n=1 jest zbieżny do dystrybuanty F X w każdym punkcie jej ciągłości, co oznaczamy: D X X n Można pokazać ( X n p.n. X) (X n P X) (Xn D X) 101

102 Oznaczmy Prawa wielkich liczb S n = X 1 +X 2 + +X n, Xn = X 1 + X , X n n Niech X 1, X 2,... będzie ciągiem niezależnych zmiennych losowych o tym samym rozkładzie, o wartości średniej µ i wariancji 0 < σ 2 <. Wtedy dla każdego ε > 0 mamy Słabe prawo wielkich liczb lim P n ( X 1 + X X n n ) µ < ε = 1 X n P µ Mocne prawo wielkich liczb P ( lim n X 1 + X X n n ) = µ = 1 X n p.n. µ 102

103 Wniosek. Prawdopodobieństwo jest odpowiednikiem teoretycznym częstości. Faktycznie, jeżeli w wyniku powtórzenia niezależnie n razy doświadczenia otrzymaliśmy ω 1, ω 2,..., ω n, to I A (ω 1 ) + I A (ω 2 ) + + I A (ω n ) n p.n. EI A = P (A) Metoda Monte Carlo obliczania całek. Niech X i będą niezależnymi zmiennymi losowymi o wartościach w (0,1) i o gęstości g. Wtedy z MPWL S n = 1 n n i=1 f(x i ) g(x i ) n = 1 0 E f(x) g(x) [ ] f(x1 ) g(x 1 ) = g(x) dx = W szczególności, gdy X i U(0, 1), to 1 0 f(x) dx 1 n n i=1 f(x i ) n 1 0 f(x) dx 103

104 Przykład. Obliczanie liczby π przy pomocy komputera: generujemy 50 wartości z rozkładu U(0, 1) (kolumna x). Następnie wyliczamy y = 1 x 2. Z kolumny y wyliczamy średnią i mnożymy ją przez cztery. Otrzymujemy wartość Jeśli przybliżenia to nie nie jest zadowalające, można wygenerować na przykład 1000 wartości. x y x y x y

105 Dystrybuanta empiryczna F n (x) Powtarzamy pewne doświadczenie niezależnie n razy. W wyniku tego otrzymujemy ciąg X 1, X 2,..., X n niezależnych zmiennych losowych o nieznanej dystrybuancie F. Chcemy odtworzyć F. W tym celu dla każdego x R definiujemy F n (x)(ω) = 1 n n I {Xi x}(ω) i=1 Ponieważ to z MPWL E[I {X1 x}] = P (X 1 x) = F (x), F n (x) = 1 n n i=1 I {Xi x} n F (x) 105

106 Centralne twierdzenie graniczne Centralne Twierdzenie Graniczne Niech X 1, X 2,... będą niezależnymi zmiennymi losowymi o tym samym rozkładzie, o wartości średniej µ i wariancji 0 < σ 2 <. Wtedy sup x R ( P Sn nµ σ n ) x Φ(x) n 0 X n µ σ n D N(0, 1) Twierdzenie de Moivre Laplace a Niech Y n B(n, p). Wtedy sup x R ( P Yn np npq ) x Φ(x) n 0 106

107 Przykład. Wykonano n = 100 niezależnych rzutów monetą. Oznaczmy przez Y n liczbę orłów w n rzutach. Obliczymy P (Y n 61) P (Y n 61) = 1 P (Y n 60) = ( ) Yn = 1 P ( ) Yn = 1 P Φ(2) = Uwaga. Dość dobre przybliżenie uzyskujemy ze wzoru: ( P a Y ) n np b Φ(b + 1 npq 2 h) Φ(a 1 2 h), gdzie h = 1 npq 107

108 Szybkość zbieżności w centralnym twierdzeniu granicznym Twierdzenie Berry Esséen a Jeżeli X 1, X 2,... są niezależnymi zmiennymi losowymi o tym samym rozkładzie oraz E X 1 3 <, to sup x R ( P Sn nµ σ n ) x gdzie 1/ 2π C < 0.8. Φ(x) C E X 1 EX 1 3 σ 3, n Dla rozkładu dwumianowego: sup x R ( P Yn np npq ) x Φ(x) C p2 + q 2 npq 108

109 p 2 + q 2 pq p Dla p 1 lub p 0 przybliżenie rozkładem normalnym nie musi być zadowalające. Alternatywą jest przybliżenie rozkładem Poissona: Twierdzenie 15. Niech Y n B(n, p) oraz λ = np. Wtedy dla każdego zbioru M N mamy P (Y n M) k M λ k k! e λ λ2 n 109

110 Przykład. Prawdopodobieństwo trafienia szóstki w Toto-Lotku jest równe ( ) 49 1/ = 1/ Ilu szóstek można się spodziewać w każdym tygodniu, jeżeli grający wypełniają kupony całkowicie losowo i niezależnie od siebie, a kuponów jest n = Liczba szóstek ma rozkład dwumianowy, w przybliżeniu rozkład Poissona z parametrem λ = np λ k k k! e λ k! e λ k λ k Błąd przybliżenia rozkładem Poissona: λ 2 /n

111 Twierdzenie Słuckiego Niech X n D X oraz Yn D c, gdzie c jest pewną skończoną stałą. Wówczas: (i) X n + Y n D X + c (ii) X n Y n D cx (iii) X n /Y n D X/c Z twierdzenia Słuckiego wynika, że ciąg zmiennych losowych (X n ) n zbiega według rozkładu do N(µ, σ 2 ), jeżeli równoważnie ciąg X n µ zbiega do rozkładu σ N(0, 1). Asymptotyczna normalność Mówimy, że ciąg zmiennych (X n ) n jest asymptotycznie normalny o średniej µ n i wariancji σ 2 n, jeżeli σ 2 n > 0 dla dostatecznie dużych n oraz X n µ n σ n N(0, 1). Zapisujemy to jako: X n jest AN(µ n, σ 2 n). 111

112 Asymptotyczna normalność przy przekształaceniach Niech X n będzie AN(µ, σ 2 n), σ n 0. Niech g będzie funkcją różniczkowalną w punkcie x = µ oraz niech g (µ) 0. Wówczas g(x n ) jest AN(g(µ), (g (µ)) 2 σ 2 n) Przykład. Niech X n ma rozkład Poissona o wartości oczekiwanej θn, gdzie θ > 0. Wówczas X n jest AN(θn, θn) (wariancja rozkładu Poissona jest równa wartości średniej) lub równoważnie X n n jest AN(θ, θ n ). Niech g będzie rozwiązaniem równania dg(θ) dθ = 1/2 θ 1/2. To znaczy g(x) = x 1/2. Zatem (X n /n) 1/2 jest AN(θ 1/2, 1/(4n)) lub równoważnie X 1/2 n jest AN((θn) 1/2, 1/4). 112

113 Własności rozkładów Rozkład sumy niezależnych zmiennych losowych. Niech X, Y mają rozkłady dyskretne: x X P (X = x) = 1, y Y P (Y = y) = 1 Szukamy rozkładu zmiennej losowej Z = X + Y : P (Z = z) = P (X + Y = z) = = x X P (X = x, Y = z x) = = x X, z x Y P (X = x)p (Y = z x) = W przypadku, gdy X = {0, 1,... } oraz Y = {0, 1,... } mamy P (X + Y = r) = r P (X = i)p (Y = r i) i=0 113

114 Przykład. X B(n 1, p), Y B(n 2, p). P (X + Y = r) = r ( ) n1 = p i (1 p) n 1 i i i=0 r = p r (1 p) n 1+n 2 r = ( n1 + n 2 r ( n2 ( n1 i i=0 ) p r (1 p) n 1+n 2 r ) p r i (1 p) n 1 r+i r i )( ) n2 r i Zatem X + Y B(n 1 + n 2, p) Przykład. X P o(λ 1 ), Y P o(λ 2 ) P (X + Y = r) = r λ i 1 λ r i = i! e λ1 (r i)! e λ 2 i=0 = e (λ 1+λ 2 ) 1 r! = (λ 1 + λ 2 ) r r! r i=0 Zatem X + Y P o(λ 1 + λ 2 ) e (λ 1+λ 2 ) ( ) r λ i i 1λ r i 2 114

115 Niech X, Y mają rozkłady ciągłe: X f X (x), Y f Y (y) Wówczas (porównać strona 86) F Z (z) = P (X + Y z) = f X,Y (x, y) dxdy = = z y X+Y z f X,Y (x, y) dx dy = = z y f X (x) dx f Y (y)dy = = = z z f X (x y) dx f Y (y)dy = f X (x y)f Y (y) dy dx Zatem f Z (z) = f X (z y)f Y (y) dy 115

116 Przykład. X U[0, 1], Y U[0, 1] Ponieważ I [0,1] (z y) = I [ 1,0] (y z) = I [z 1,z] (y), mamy f X+Y (z) = I [0,1] (z y)i [0,1] (y) dy = = 1 0 I [z 1,z] (y) dy = z dla 0 z 1, 2 z dla 1 z 2 0 dla z / [0, 2] Jest to rozkład trójkątny Przykład. Niech X 0, X 1,..., X n mają rozkład wykładniczy: tzn. o gęstości f(x) = λe λx dla x > 0 Wtedy X 0 + X X n ma rozkład o gęstości g n (x) = λ (λx)n n! Jest to rozkład gamma G(1, n + 1) 116 e λx dla x > 0

Wykład 3 Jednowymiarowe zmienne losowe

Wykład 3 Jednowymiarowe zmienne losowe Wykład 3 Jednowymiarowe zmienne losowe Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną Definicja 1 Jednowymiarowa zmienna losowa (o wartościach rzeczywistych), określoną na przestrzeni probabilistycznej

Bardziej szczegółowo

PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA

PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA 1. Trójkę (Ω, F, P ), gdzie Ω, F jest σ-ciałem podzbiorów Ω, a P jest prawdopodobieństwem określonym na F, nazywamy przestrzenią probabilistyczną. 2. Rodzinę F

Bardziej szczegółowo

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Niech Ω będzie przestrzenią zdarzeń elementarnych. Definicja 1 Rodzinę S zdarzeń losowych (zbiór S podzbiorów zbioru

Bardziej szczegółowo

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład Rozdział 1 Wektory losowe 1.1 Wektor losowy i jego rozkład Definicja 1 Wektor X = (X 1,..., X n ), którego każda współrzędna jest zmienną losową, nazywamy n-wymiarowym wektorem losowym (krótko wektorem

Bardziej szczegółowo

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa Agata Boratyńska Agata Boratyńska Rachunek prawdopodobieństwa, wykład 2 i 3 1 / 19 Zmienna losowa Definicja Dana jest przestrzeń probabilistyczna

Bardziej szczegółowo

RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3.

RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3. RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3. ZMIENNA LOSOWA JEDNOWYMIAROWA. Zmienną losową X nazywamy funkcję (praktycznie każdą) przyporządkowującą zdarzeniom elementarnym liczby rzeczywiste. X : Ω R (dokładniej:

Bardziej szczegółowo

5 Przegląd najważniejszych rozkładów

5 Przegląd najważniejszych rozkładów 5 Przegląd najważniejszych rozkładów 5. Rozkład Bernoulliego W niezmieniających się warunkach wykonujemy n razy pewne doświadczenie. W wyniku każdego doświadczenia może nastąpić zdarzenie A lub A. Zakładamy,

Bardziej szczegółowo

Przestrzeń probabilistyczna

Przestrzeń probabilistyczna Przestrzeń probabilistyczna (Ω, Σ, P) Ω pewien niepusty zbiór Σ rodzina podzbiorów tego zbioru P funkcja określona na Σ, zwana prawdopodobieństwem. Przestrzeń probabilistyczna (Ω, Σ, P) Ω pewien niepusty

Bardziej szczegółowo

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie Jarosław Kotowicz Instytut Matematyki Uniwersytet w

Bardziej szczegółowo

Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu.

Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu. Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu. A Teoria Definicja A.1. Niech (Ω, F, P) będzie przestrzenią probabilistyczną. Zmienną losową określoną na przestrzeni Ω nazywamy dowolną

Bardziej szczegółowo

12DRAP - parametry rozkładów wielowymiarowych

12DRAP - parametry rozkładów wielowymiarowych DRAP - parametry rozkładów wielowymiarowych Definicja.. Jeśli h : R R, a X, Y ) jest wektorem losowym o gęstości fx, y) to EhX, Y ) = hx, y)fx, y)dxdy. Jeśli natomiast X, Y ) ma rozkład dyskretny skupiony

Bardziej szczegółowo

Rachunek prawdopodobieństwa i statystyka

Rachunek prawdopodobieństwa i statystyka Rachunek prawdopodobieństwa i statystyka Przestrzeń probabilistyczna Niech Ω będzie dowolnym zbiorem, zwanym przestrzenią zdarzeń elementarnych. Elementy ω tej przestrzeni nazywamy zdarzeniami elementarnymi.

Bardziej szczegółowo

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych 1. [E.A 5.10.1996/zad.4] Funkcja gęstości dana jest wzorem { 3 x + 2xy + 1 y dla (x y) (0 1) (0 1) 4 4 P (X > 1 2 Y > 1 2 ) wynosi:

Bardziej szczegółowo

Prawa wielkich liczb, centralne twierdzenia graniczne

Prawa wielkich liczb, centralne twierdzenia graniczne , centralne twierdzenia graniczne Katedra matematyki i ekonomii matematycznej 17 maja 2012, centralne twierdzenia graniczne Rodzaje zbieżności ciągów zmiennych losowych, centralne twierdzenia graniczne

Bardziej szczegółowo

Szkice do zajęć z Przedmiotu Wyrównawczego

Szkice do zajęć z Przedmiotu Wyrównawczego Szkice do zajęć z Przedmiotu Wyrównawczego Matematyka Finansowa sem. letni 2011/2012 Spis treści Zajęcia 1 3 1.1 Przestrzeń probabilistyczna................................. 3 1.2 Prawdopodobieństwo warunkowe..............................

Bardziej szczegółowo

WSTĘP. Tematy: Regresja liniowa: model regresji liniowej, estymacja nieznanych parametrów. Wykład:30godz., ćwiczenia:15godz., laboratorium:30godz.

WSTĘP. Tematy: Regresja liniowa: model regresji liniowej, estymacja nieznanych parametrów. Wykład:30godz., ćwiczenia:15godz., laboratorium:30godz. Tematy: WSTĘP 1. Wprowadzenie do przedmiotu. Próbkowe odpowiedniki wielkości populacyjnych. Modele statystyczne i przykładowe zadania wnioskowania statystycznego. Statystyki i ich rozkłady. 2. Estymacja

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład VII: Rozkład i jego charakterystyki 22 listopada 2016 Uprzednio wprowadzone pojęcia i ich własności Definicja zmiennej losowej Zmienna losowa na przestrzeni probabilistycznej (Ω, F, P) to funkcja

Bardziej szczegółowo

Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe.

Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Rachunek prawdopodobieństwa MAP3040 WPPT FT, rok akad. 2010/11, sem. zimowy Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Warunkowa wartość oczekiwana.

Bardziej szczegółowo

Laboratorium nr 7. Zmienne losowe typu skokowego.

Laboratorium nr 7. Zmienne losowe typu skokowego. Laboratorium nr 7. Zmienne losowe typu skokowego.. Zmienna losowa X ma rozkład dany tabelką: - 0 3 0, 0,3 0, 0,3 0, Naszkicować dystrybuantę zmiennej X. Obliczyć EX oraz VarX.. Zmienna losowa ma rozkład

Bardziej szczegółowo

Rozkłady prawdopodobieństwa zmiennych losowych

Rozkłady prawdopodobieństwa zmiennych losowych Rozkłady prawdopodobieństwa zmiennych losowych Rozkład dwumianowy Rozkład normalny Marta Zalewska Zmienna losowa dyskretna (skokowa) jest to zmienna, której zbór wartości jest skończony lub przeliczalny.

Bardziej szczegółowo

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty Agata Boratyńska Agata Boratyńska Rachunek prawdopodobieństwa, wykład 4 / 9 Przekształcenia zmiennej losowej X

Bardziej szczegółowo

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe Nierówność Czebyszewa Niech X będzie zmienną losową o skończonej wariancji V ar(x). Wtedy wartość oczekiwana E(X) też jest skończona i

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład II: Zmienne losowe i charakterystyki ich rozkładów 13 października 2014 Zmienne losowe Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Definicja zmiennej losowej i jej

Bardziej szczegółowo

Jednowymiarowa zmienna losowa

Jednowymiarowa zmienna losowa 1 Jednowymiarowa zmienna losowa Przykład Doświadczenie losowe - rzut kostką do gry. Obserwujemy ilość wyrzuconych oczek. Teoretyczny model eksperymentu losowego - przestrzeń probabilistyczna (Ω, S, P ),

Bardziej szczegółowo

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów. Rachunek prawdopodobieństwa MAT1332 Wydział Matematyki, Matematyka Stosowana Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów. Warunkowa

Bardziej szczegółowo

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów. Rachunek prawdopodobieństwa MAP1181 Wydział PPT, MS, rok akad. 213/14, sem. zimowy Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Bardziej szczegółowo

Matematyka z el. statystyki, # 3 /Geodezja i kartografia II/

Matematyka z el. statystyki, # 3 /Geodezja i kartografia II/ Matematyka z el. statystyki, # 3 /Geodezja i kartografia II/ Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Akademicka 15, p.211a bud. Agro II, e-mail: zdzislaw.otachel@up.lublin.pl

Bardziej szczegółowo

Rozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej

Rozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Zbiór możliwych wyników eksperymentu będziemy nazywać przestrzenią zdarzeń elementarnych i oznaczać Ω, natomiast

Bardziej szczegółowo

P (A B) = P (A), P (B) = P (A), skąd P (A B) = P (A) P (B). P (A)

P (A B) = P (A), P (B) = P (A), skąd P (A B) = P (A) P (B). P (A) Wykład 3 Niezależność zdarzeń, schemat Bernoulliego Kiedy dwa zdarzenia są niezależne? Gdy wiedza o tym, czy B zaszło, czy nie, NIE MA WPŁYWU na oszacowanie prawdopodobieństwa zdarzenia A: P (A B) = P

Bardziej szczegółowo

III. ZMIENNE LOSOWE JEDNOWYMIAROWE

III. ZMIENNE LOSOWE JEDNOWYMIAROWE III. ZMIENNE LOSOWE JEDNOWYMIAROWE.. Zmienna losowa i pojęcie rozkładu prawdopodobieństwa W dotychczas rozpatrywanych przykładach każdemu zdarzeniu była przyporządkowana odpowiednia wartość liczbowa. Ta

Bardziej szczegółowo

Metody probabilistyczne

Metody probabilistyczne Metody probabilistyczne. Twierdzenia graniczne Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 20.2.208 / 26 Motywacja Rzucamy wielokrotnie uczciwą monetą i zliczamy

Bardziej szczegółowo

4,5. Dyskretne zmienne losowe (17.03; 31.03)

4,5. Dyskretne zmienne losowe (17.03; 31.03) 4,5. Dyskretne zmienne losowe (17.03; 31.03) Definicja 1 Zmienna losowa nazywamy dyskretna (skokowa), jeśli zbiór jej wartości x 1, x 2,..., można ustawić w ciag. Zmienna losowa X, która przyjmuje wszystkie

Bardziej szczegółowo

Dyskretne zmienne losowe

Dyskretne zmienne losowe Dyskretne zmienne losowe dr Mariusz Grządziel 16 marca 2009 Definicja 1. Zmienna losowa nazywamy dyskretna (skokowa), jeśli zbiór jej wartości x 1, x 2,..., można ustawić w ciag. Zmienna losowa X, która

Bardziej szczegółowo

Ważne rozkłady i twierdzenia

Ważne rozkłady i twierdzenia Ważne rozkłady i twierdzenia Rozkład dwumianowy i wielomianowy Częstość. Prawo wielkich liczb Rozkład hipergeometryczny Rozkład Poissona Rozkład normalny i rozkład Gaussa Centralne twierdzenie graniczne

Bardziej szczegółowo

PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA. Piotr Wiącek

PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA. Piotr Wiącek PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA Piotr Wiącek ROZKŁAD PRAWDOPODOBIEŃSTWA Jest to miara probabilistyczna określona na σ-ciele podzbiorów borelowskich pewnej przestrzeni metrycznej. σ-ciało podzbiorów

Bardziej szczegółowo

Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna.

Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna. Wykład 4 Rozkłady i ich dystrybuanty Dwa typy zmiennych losowych Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x, x 2,...}, to mówimy, że jest to zmienna dyskretna.

Bardziej szczegółowo

Rachunek prawdopodobieństwa i statystyka

Rachunek prawdopodobieństwa i statystyka Rachunek prawdopodobieństwa i statystyka Momenty Zmienna losowa jest wystarczająco dokładnie opisana przez jej rozkład prawdopodobieństwa. Względy praktyczne dyktują jednak potrzebę znalezienia charakterystyk

Bardziej szczegółowo

Ważne rozkłady i twierdzenia c.d.

Ważne rozkłady i twierdzenia c.d. Ważne rozkłady i twierdzenia c.d. Funkcja charakterystyczna rozkładu Wielowymiarowy rozkład normalny Elipsa kowariacji Sploty rozkładów Rozkłady jednostajne Sploty z rozkładem normalnym Pobieranie próby

Bardziej szczegółowo

Statystyka i eksploracja danych

Statystyka i eksploracja danych Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu w dziedzinach matematyczno-przyrodniczych realizowany w ramach Poddziałania 4.1.1 Programu Operacyjnego Kapitał Ludzki Statystyka i eksploracja

Bardziej szczegółowo

WYKŁAD 2. Zdarzenia losowe i prawdopodobieństwo Zmienna losowa i jej rozkłady

WYKŁAD 2. Zdarzenia losowe i prawdopodobieństwo Zmienna losowa i jej rozkłady WYKŁAD 2 Zdarzenia losowe i prawdopodobieństwo Zmienna losowa i jej rozkłady Metody statystyczne metody opisu metody wnioskowania statystycznego syntetyczny liczbowy opis właściwości zbioru danych ocena

Bardziej szczegółowo

Elementy Rachunek prawdopodobieństwa

Elementy Rachunek prawdopodobieństwa Elementy rachunku prawdopodobieństwa Rachunek prawdopodobieństwa zajmuje się analizą praw rządzących zdarzeniami losowymi Pojęciami pierwotnymi są: zdarzenie elementarne ω oraz zbiór zdarzeń elementarnych

Bardziej szczegółowo

1 Elementy kombinatoryki i teorii prawdopodobieństwa

1 Elementy kombinatoryki i teorii prawdopodobieństwa 1 Elementy kombinatoryki i teorii prawdopodobieństwa 1.1 Elementy kombinatoryki W rozwiązywaniu pewnych problemów związanych z obliczaniem prawdopodobieństwa o skończonej liczbie zdażeń elementarnych bardzo

Bardziej szczegółowo

Statystyka matematyczna dla leśników

Statystyka matematyczna dla leśników Statystyka matematyczna dla leśników Wydział Leśny Kierunek leśnictwo Studia Stacjonarne I Stopnia Rok akademicki 2013/2014 Wykład 3 Zmienna losowa i jej rozkłady Zdarzenia losowe Pojęcie prawdopodobieństwa

Bardziej szczegółowo

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014 Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014 Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe

Bardziej szczegółowo

Biostatystyka, # 3 /Weterynaria I/

Biostatystyka, # 3 /Weterynaria I/ Biostatystyka, # 3 /Weterynaria I/ dr n. mat. Zdzisław Otachel Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Głęboka 28, p. 221 bud. CIW, e-mail: zdzislaw.otachel@up.lublin.pl

Bardziej szczegółowo

Zestaw 2: Zmienne losowe. 0, x < 1, 2, 2 x, 1 1 x, 1 x, F 9 (x) =

Zestaw 2: Zmienne losowe. 0, x < 1, 2, 2 x, 1 1 x, 1 x, F 9 (x) = Zestaw : Zmienne losowe. Które z poniższych funkcji są dystrybuantami? Odpowiedź uzasadnij. Wskazówka: naszkicuj wykres. 0, x 0,, x 0, F (x) = x, F (x) = x, 0 x

Bardziej szczegółowo

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski Modelowanie zależności pomiędzy zmiennymi losowymi Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski P Zmienne losowe niezależne - przypomnienie Dwie rzeczywiste zmienne losowe X i Y

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA

STATYSTYKA MATEMATYCZNA STATYSTYKA MATEMATYCZNA Rafał Kucharski Uniwersytet Ekonomiczny w Katowicach 08/9 Zarządzanie e-mail: www: konsultacje: rafal.kucharski@ue.katowice.pl http://web.ue.katowice.pl/rkucharski/ Piątki, 5:0-6:0,

Bardziej szczegółowo

Temat: Zmienna losowa. Rozkład skokowy. Rozkład ciągły. Kody kolorów: Ŝółty nowe pojęcie pomarańczowy uwaga. Anna Rajfura, Matematyka

Temat: Zmienna losowa. Rozkład skokowy. Rozkład ciągły. Kody kolorów: Ŝółty nowe pojęcie pomarańczowy uwaga. Anna Rajfura, Matematyka Temat: Zmienna losowa. Rozkład skokowy. Rozkład ciągły Kody kolorów: Ŝółty nowe pojęcie pomarańczowy uwaga 1 Zagadnienia 1. Przypomnienie wybranych pojęć rachunku prawdopodobieństwa. Zmienna losowa. Rozkład

Bardziej szczegółowo

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne 5.2. Momenty rozkładów łącznych. Katarzyna Rybarczyk-Krzywdzińska rozkładów wielowymiarowych Przypomnienie Jeśli X jest zmienną losową o rozkładzie

Bardziej szczegółowo

Wstęp do Rachunku Prawdopodobieństwa, IIr. WMS

Wstęp do Rachunku Prawdopodobieństwa, IIr. WMS Wstęp do Rachunku Prawdopodobieństwa, IIr. WMS przykładowe zadania na. kolokwium czerwca 6r. Poniżej podany jest przykładowy zestaw zadań. Podczas kolokwium na ich rozwiązanie przeznaczone będzie ok. 85

Bardziej szczegółowo

WYKŁAD 3. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

WYKŁAD 3. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki WYKŁAD 3 Witold Bednorz, Paweł Wolff 1 Instytut Matematyki Uniwersytet Warszawski Rachunek Prawdopodobieństwa, WNE, 2010-2011 Schemmat Bernouliego Rzucamy 10 razy moneta, próba Bernouliego jest pojedynczy

Bardziej szczegółowo

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki WYKŁAD 6 Witold Bednorz, Paweł Wolff 1 Instytut Matematyki Uniwersytet Warszawski Rachunek Prawdopodobieństwa, WNE, 2010-2011 Własności Wariancji Przypomnijmy, że VarX = E(X EX) 2 = EX 2 (EX) 2. Własności

Bardziej szczegółowo

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa Spis treści Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa Romuald Kotowski Katedra Informatyki Stosowanej PJWSTK 2009 Spis treści Spis treści 1 Wstęp Bardzo często interesujący

Bardziej szczegółowo

Wykład 3 Momenty zmiennych losowych.

Wykład 3 Momenty zmiennych losowych. Wykład 3 Momenty zmiennych losowych. Wrocław, 18 października 2017r Momenty zmiennych losowych Wartość oczekiwana - przypomnienie Definicja 3.1: 1 Niech X będzie daną zmienną losową. Jeżeli X jest zmienną

Bardziej szczegółowo

Wykład 3 Momenty zmiennych losowych.

Wykład 3 Momenty zmiennych losowych. Wykład 3 Momenty zmiennych losowych. Wrocław, 19 października 2016r Momenty zmiennych losowych Wartość oczekiwana - przypomnienie Definicja 3.1: 1 Niech X będzie daną zmienną losową. Jeżeli X jest zmienną

Bardziej szczegółowo

PRAWDOPODOBIEŃSTWO. ZMIENNA LOSOWA. TYPY ROZKŁADÓW

PRAWDOPODOBIEŃSTWO. ZMIENNA LOSOWA. TYPY ROZKŁADÓW PRAWDOPODOBIEŃSTWO. ZMIENNA LOSOWA. TYPY ROZKŁADÓW Rachunek prawdopodobieństwa (probabilitis - prawdopodobny) zajmuje się badaniami pewnych prawidłowości (regularności) zachodzących przy wykonywaniu doświadczeń

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA. rachunek prawdopodobieństwa

STATYSTYKA MATEMATYCZNA. rachunek prawdopodobieństwa STATYSTYKA MATEMATYCZNA rachunek prawdopodobieństwa treść Zdarzenia losowe pojęcie prawdopodobieństwa prawo wielkich liczb zmienne losowe rozkłady teoretyczne zmiennych losowych Zanim zajmiemy się wnioskowaniem

Bardziej szczegółowo

Centralne twierdzenie graniczne

Centralne twierdzenie graniczne Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 4 Ważne uzupełnienie Dwuwymiarowy rozkład normalny N (µ X, µ Y, σ X, σ Y, ρ): f XY (x, y) = 1 2πσ X σ Y 1 ρ 2 { [ (x ) 1

Bardziej szczegółowo

Drugie kolokwium z Rachunku Prawdopodobieństwa, zestaw A

Drugie kolokwium z Rachunku Prawdopodobieństwa, zestaw A Drugie kolokwium z Rachunku Prawdopodobieństwa, zestaw A Zad. 1. Korzystając z podanych poniżej mini-tablic, oblicz pierwszy, drugi i trzeci kwartyl rozkładu N(10, 2 ). Rozwiązanie. Najpierw ogólny komentarz

Bardziej szczegółowo

Funkcje charakterystyczne zmiennych losowych, linie regresji 1-go i 2-go rodzaju

Funkcje charakterystyczne zmiennych losowych, linie regresji 1-go i 2-go rodzaju Funkcje charakterystyczne zmiennych losowych, linie regresji -go i 2-go rodzaju Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Inteligencji i Metod Matematycznych Wydział Informatyki Politechniki

Bardziej szczegółowo

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe 4.1. Zmienne losowe dyskretne. Katarzyna Rybarczyk-Krzywdzińska Definicja/Rozkład Zmienne losowe dyskretne Definicja Zmienną losową, która skupiona

Bardziej szczegółowo

Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału

Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału Magdalena Frąszczak Wrocław, 22.02.2017r Zasady oceniania Ćwiczenia 2 kolokwia (20 punktów każde) 05.04.2017 oraz 31.05.2017 2 kartkówki

Bardziej szczegółowo

Statystyka. Wydział Zarządzania Uniwersytetu Łódzkiego

Statystyka. Wydział Zarządzania Uniwersytetu Łódzkiego Statystyka Wydział Zarządzania Uniwersytetu Łódzkiego 2017 Zmienna losowa i jej rozkład Mając daną przestrzeń probabilistyczną, czyli parę (&, P) stanowiącą model pewnego doświadczenia losowego (gdzie

Bardziej szczegółowo

Statystyka i eksploracja danych

Statystyka i eksploracja danych Wykład II: i charakterystyki ich rozkładów 24 lutego 2014 Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa,

Bardziej szczegółowo

Rozkłady i ich dystrybuanty 16 marca F X (t) = P (X < t) 0, gdy t 0, F X (t) = 1, gdy t > c, 0, gdy t x 1, 1, gdy t > x 2,

Rozkłady i ich dystrybuanty 16 marca F X (t) = P (X < t) 0, gdy t 0, F X (t) = 1, gdy t > c, 0, gdy t x 1, 1, gdy t > x 2, Wykład 4. Rozkłady i ich dystrybuanty 6 marca 2007 Jak opisać cały rozkład jedną funkcją? Aby znać rozkład zmiennej X, musimy umieć obliczyć P (a < X < b) dla dowolnych a < b. W tym celu wystarczy znać

Bardziej szczegółowo

Wykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa

Wykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa Wykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa Marek Kubiak Instytut Informatyki Politechnika Poznańska Plan wykładu Podstawowe pojęcia rachunku prawdopodobieństwa Rozkład

Bardziej szczegółowo

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności RAP 412 14.01.2009 Wykład 11: Martyngały: definicja, twierdzenia o zbieżności Wykładowca: Andrzej Ruciński Pisarz:Mirosława Jańczak 1 Wstęp Do tej pory zajmowaliśmy się ciągami zmiennych losowych (X n

Bardziej szczegółowo

Statystyka. Wydział Zarządzania Uniwersytetu Łódzkiego

Statystyka. Wydział Zarządzania Uniwersytetu Łódzkiego Statystyka Wydział Zarządzania Uniwersytetu Łódzkiego 2017 Podstawowe rozkłady zmiennych losowych Rozkłady zmiennych skokowych Rozkład zero-jedynkowy Rozpatrujemy doświadczenie, którego rezultatem może

Bardziej szczegółowo

Wykład 2 Zmienne losowe i ich rozkłady

Wykład 2 Zmienne losowe i ich rozkłady Wykład 2 Zmienne losowe i ich rozkłady Magdalena Frąszczak Wrocław, 11.10.2017r Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe Doświadczenie

Bardziej szczegółowo

b) Niech: - wśród trzech wylosowanych opakowań jest co najwyżej jedno o dawce 15 mg. Wówczas:

b) Niech: - wśród trzech wylosowanych opakowań jest co najwyżej jedno o dawce 15 mg. Wówczas: ROZWIĄZANIA I ODPOWIEDZI Zadanie A1. Można założyć, że przy losowaniu trzech kul jednocześnie kolejność ich wylosowania nie jest istotna. A więc: Ω = 20 3. a) Niech: - wśród trzech wylosowanych opakowań

Bardziej szczegółowo

Wartość oczekiwana Mediana i dominanta Wariancja Nierówności związane z momentami. Momenty zmiennych losowych Momenty wektorów losowych

Wartość oczekiwana Mediana i dominanta Wariancja Nierówności związane z momentami. Momenty zmiennych losowych Momenty wektorów losowych Przykład(Wartość średnia) Otrzymaliśmy propozycję udziału w grze polegającej na jednokrotnym rzucie symetryczną kostką. Jeśli wypadnie 1 wygrywamy2zł,;jeśliwypadnie2,płacimy1zł;za3wygrywamy 4zł;za4płacimy5zł;za5wygrywamy3złiwreszcieza6

Bardziej szczegółowo

Rozkłady prawdopodobieństwa

Rozkłady prawdopodobieństwa Tytuł Spis treści Wersje dokumentu Instytut Matematyki Politechniki Łódzkiej 10 grudnia 2011 Spis treści Tytuł Spis treści Wersje dokumentu 1 Wartość oczekiwana Wariancja i odchylenie standardowe Rozkład

Bardziej szczegółowo

Metody probabilistyczne opracowane notatki 1. Zdefiniuj zmienną losową, rozkład prawdopodobieństwa. Przy jakich założeniach funkcje: F(x) = sin(x),

Metody probabilistyczne opracowane notatki 1. Zdefiniuj zmienną losową, rozkład prawdopodobieństwa. Przy jakich założeniach funkcje: F(x) = sin(x), Metody probabilistyczne opracowane notatki 1. Zdefiniuj zmienną losową, rozkład prawdopodobieństwa. Przy jakich założeniach funkcje: Fx sinx, Fx a e x mogą być dystrybuantami?. Podaj twierdzenie Lindeberga

Bardziej szczegółowo

Zmienna losowa. Rozkład skokowy

Zmienna losowa. Rozkład skokowy Temat: Zmienna losowa. Rozkład skokowy Kody kolorów: żółty nowe pojęcie pomarańczowy uwaga * - materiał nadobowiązkowy Anna Rajfura, Matematyka i statystyka matematyczna na kierunku Rolnictwo SGGW 1 Zagadnienia

Bardziej szczegółowo

Literatura. Leitner R., Zacharski J., Zarys matematyki wyŝszej dla studentów, cz. III.

Literatura. Leitner R., Zacharski J., Zarys matematyki wyŝszej dla studentów, cz. III. Literatura Krysicki W., Bartos J., Dyczka W., Królikowska K, Wasilewski M., Rachunek Prawdopodobieństwa i Statystyka Matematyczna w Zadaniach, cz. I. Leitner R., Zacharski J., Zarys matematyki wyŝszej

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład IV: 27 października 2014 Współczynnik korelacji Brak korelacji a niezależność Definicja współczynnika korelacji Współczynnikiem korelacji całkowalnych z kwadratem zmiennych losowych X i Y nazywamy

Bardziej szczegółowo

Metody probabilistyczne

Metody probabilistyczne Metody probabilistyczne 5. Zmienne losowe: wprowadzenie Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 8..208 / 42 Motywacja Często bardziej niż same zdarzenia losowe

Bardziej szczegółowo

Rachunek prawdopodobieństwa 1B; zadania egzaminacyjne.

Rachunek prawdopodobieństwa 1B; zadania egzaminacyjne. Rachunek prawdopodobieństwa B; zadania egzaminacyjne.. Niech µ będzie rozkładem probabilistycznym na (0, ) (0, ): µ(b) = l({x (0,) : (x, x) B}), dla B B((0, ) (0, ))), gdzie l jest miarą Lebesgue a na

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA

STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA Zadanie 0.1 Zmienna losowa X ma rozkład określony funkcją prawdopodobieństwa: x k 0 4 p k 1/3 1/6 1/ obliczyć EX, D X. (odp. 4/3;

Bardziej szczegółowo

Zmienne losowe ciągłe i ich rozkłady

Zmienne losowe ciągłe i ich rozkłady Statystyka i opracowanie danych W3 Zmienne losowe ciągłe i ich rozkłady Dr Anna ADRIAN Paw B5, pok47 adan@agh.edu.pl Plan wykładu Rozkład Poissona. Zmienna losowa ciągła Dystrybuanta i funkcja gęstości

Bardziej szczegółowo

Statystyka. Magdalena Jakubek. kwiecień 2017

Statystyka. Magdalena Jakubek. kwiecień 2017 Statystyka Magdalena Jakubek kwiecień 2017 1 Nauka nie stara się wyjaśniać, a nawet niemal nie stara się interpretować, zajmuje się ona głównie budową modeli. Model rozumiany jest jako matematyczny twór,

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA dla ZPM I dr inż Krzysztof Bryś wyk lad 1,2 KLASYCZNY RACHUNEK PRAWDOPODOBIEŃSTWA

STATYSTYKA MATEMATYCZNA dla ZPM I dr inż Krzysztof Bryś wyk lad 1,2 KLASYCZNY RACHUNEK PRAWDOPODOBIEŃSTWA 1 STATYSTYKA MATEMATYCZNA dla ZPM I dr inż Krzysztof Bryś wyk lad 1,2 KLASYCZNY RACHUNEK PRAWDOPODOBIEŃSTWA 1. Pojȩcia wstȩpne. Doświadczeniem losowym nazywamy doświadczenie, którego wynik nie jest znany.

Bardziej szczegółowo

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne 5.3 Rozkłady warunkowe i warunkowa wartość oczekiwana Katarzyna Rybarczyk-Krzywdzińska semestr zimowy 2015/2016 Prawdopodobieństwo wyraża postawę

Bardziej szczegółowo

STYSTYSTYKA dla ZOM II dr inż Krzysztof Bryś Wykad 1

STYSTYSTYKA dla ZOM II dr inż Krzysztof Bryś Wykad 1 1 STYSTYSTYKA dla ZOM II dr inż Krzysztof Bryś Wykad 1 Klasyczny Rachunek Prawdopodobieństwa. 1. Pojȩcia wstȩpne. Doświadczeniem losowym nazywamy doświadczenie, którego wynik nie jest znany. Posiadamy

Bardziej szczegółowo

Zadania o numerze 4 z zestawów licencjat 2014.

Zadania o numerze 4 z zestawów licencjat 2014. Zadania o numerze 4 z zestawów licencjat 2014. W nawiasie przy zadaniu jego występowanie w numerze zestawu Spis treści (Z1, Z22, Z43) Definicja granicy ciągu. Obliczyć granicę:... 3 Definicja granicy ciągu...

Bardziej szczegółowo

6. Zmienne losowe typu ciagłego ( ) Pole trapezu krzywoliniowego

6. Zmienne losowe typu ciagłego ( ) Pole trapezu krzywoliniowego 6. Zmienne losowe typu ciagłego (2.04.2007) Pole trapezu krzywoliniowego Przypomnienie: figurę ograniczoną przez: wykres funkcji y = f(x), gdzie f jest funkcją ciągłą; proste x = a, x = b, a < b, oś OX

Bardziej szczegółowo

Zmienne losowe ciągłe i ich rozkłady

Zmienne losowe ciągłe i ich rozkłady Rachunek Prawdopodobieństwa i Statystyka - W3 Zmienne losowe ciągłe i ich rozkłady Dr Anna ADRIAN Paw B5, pok47 adan@agh.edu.pl Plan wykładu Zmienna losowa ciągła Dystrybuanta i unkcja gęstości rozkładu

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład XIV: Metody Monte Carlo 19 stycznia 2016 Przybliżone obliczanie całki oznaczonej Rozważmy całkowalną funkcję f : [0, 1] R. Chcemy znaleźć przybliżoną wartość liczbową całki 1 f (x) dx. 0 Jeden ze

Bardziej szczegółowo

Rachunek prawdopodobieństwa

Rachunek prawdopodobieństwa Rachunek prawdopodobieństwa Sebastian Rymarczyk srymarczyk@afm.edu.pl Tematyka zajęć 1. Elementy kombinatoryki. 2. Definicje prawdopodobieństwa. 3. Własności prawdopodobieństwa. 4. Zmienne losowe, parametry

Bardziej szczegółowo

1 Zmienne losowe wielowymiarowe.

1 Zmienne losowe wielowymiarowe. 1 Zmienne losowe wielowymiarowe. 1.1 Definicja i przykłady. Definicja1.1. Wektorem losowym n-wymiarowym(zmienna losowa n-wymiarowa )nazywamywektorn-wymiarowy,któregoskładowymisązmiennelosowex i dlai=1,,...,n,

Bardziej szczegółowo

Lista 5. Zadanie 3. Zmienne losowe X i (i = 1, 2, 3, 4) są niezależne o tym samym

Lista 5. Zadanie 3. Zmienne losowe X i (i = 1, 2, 3, 4) są niezależne o tym samym Lista 5 Zadania na zastosowanie nierównosci Markowa i Czebyszewa. Zadanie 1. Niech zmienna losowa X ma rozkład jednostajny na odcinku [0, 1]. Korzystając z nierówności Markowa oszacować od góry prawdopodobieństwo,

Bardziej szczegółowo

Rachunek Prawdopodobieństwa i Statystyka

Rachunek Prawdopodobieństwa i Statystyka Rachunek Prawdopodobieństwa i Statystyka W 2. Probabilistyczne modele danych Zmienne losowe. Rozkład prawdopodobieństwa i dystrybuanta. Wartość oczekiwana i wariancja zmiennej losowej Dr Anna ADRIAN Zmienne

Bardziej szczegółowo

Zadania z Rachunku Prawdopodobieństwa II Podaj przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,

Zadania z Rachunku Prawdopodobieństwa II Podaj przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ, Zadania z Rachunku Prawdopodobieństwa II -. Udowodnij, że dla dowolnych liczb x n, x, δ xn δ x wtedy i tylko wtedy, gdy x n x.. Wykaż, że n n k= δ k/n λ, gdzie λ jest miarą Lebesgue a na [, ].. Podaj przykład

Bardziej szczegółowo

Rozkłady statystyk z próby

Rozkłady statystyk z próby Rozkłady statystyk z próby Rozkłady statystyk z próby Przypuśćmy, że wykonujemy serię doświadczeń polegających na 4 krotnym rzucie symetryczną kostką do gry, obserwując liczbę wyrzuconych oczek Nr kolejny

Bardziej szczegółowo

07DRAP - Zmienne losowe: dyskretne i ciągłe

07DRAP - Zmienne losowe: dyskretne i ciągłe 07DRAP - Zmienne losowe: dyskretne i ciągłe Słynne rozkłady dyskretne Rozkład parametry P (X = k dla k = E(X Var(X uwagi ( dwumianowy n, p n k p k ( p n k 0,,, n np np( p liczba sukcesów w n próbach Bernoulliego

Bardziej szczegółowo

Zmienne losowe. dr Mariusz Grządziel Wykład 12; 20 maja 2014

Zmienne losowe. dr Mariusz Grządziel Wykład 12; 20 maja 2014 Zmienne losowe dr Mariusz Grządziel Wykład 2; 20 maja 204 Definicja. Zmienna losowa nazywamy dyskretna (skokowa), jeśli zbiór jej wartości x, x 2,..., można ustawić w ciag. Zmienna losowa X, która przyjmuje

Bardziej szczegółowo

Prawdopodobieństwo. Prawdopodobieństwo. Jacek Kłopotowski. Katedra Matematyki i Ekonomii Matematycznej SGH. 16 października 2018

Prawdopodobieństwo. Prawdopodobieństwo. Jacek Kłopotowski. Katedra Matematyki i Ekonomii Matematycznej SGH. 16 października 2018 Katedra Matematyki i Ekonomii Matematycznej SGH 16 października 2018 Definicja σ-algebry Definicja Niech Ω oznacza zbiór niepusty. Rodzinę M podzbiorów zbioru Ω nazywamy σ-algebrą (lub σ-ciałem) wtedy

Bardziej szczegółowo

Metody probabilistyczne

Metody probabilistyczne Metody probabilistyczne 2. Aksjomatyczna definicja prawdopodobieństwa Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 10.10.2017 1 / 33 Klasyczna definicja prawdopodobieństwa

Bardziej szczegółowo

Podstawy nauk przyrodniczych Matematyka

Podstawy nauk przyrodniczych Matematyka Podstawy nauk przyrodniczych Matematyka Elementy rachunku prawdopodobieństwa dr inż. Małgorzata Szeląg Zakład Genetyki Molekularnej Człowieka tel. 61 829 59 04 malgorzata.szelag@amu.edu.pl Pokój 1.118

Bardziej szczegółowo