Rachunek prawdopodobieństwa. Stanisław Jaworski

Podobne dokumenty
Wykład 3 Jednowymiarowe zmienne losowe

PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa

RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3.

5 Przegląd najważniejszych rozkładów

Przestrzeń probabilistyczna

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie

Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu.

12DRAP - parametry rozkładów wielowymiarowych

Rachunek prawdopodobieństwa i statystyka

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych

Prawa wielkich liczb, centralne twierdzenia graniczne

Szkice do zajęć z Przedmiotu Wyrównawczego

WSTĘP. Tematy: Regresja liniowa: model regresji liniowej, estymacja nieznanych parametrów. Wykład:30godz., ćwiczenia:15godz., laboratorium:30godz.

Prawdopodobieństwo i statystyka

Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe.

Laboratorium nr 7. Zmienne losowe typu skokowego.

Rozkłady prawdopodobieństwa zmiennych losowych

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe

Prawdopodobieństwo i statystyka

Jednowymiarowa zmienna losowa

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Matematyka z el. statystyki, # 3 /Geodezja i kartografia II/

Rozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej

P (A B) = P (A), P (B) = P (A), skąd P (A B) = P (A) P (B). P (A)

III. ZMIENNE LOSOWE JEDNOWYMIAROWE

Metody probabilistyczne

4,5. Dyskretne zmienne losowe (17.03; 31.03)

Dyskretne zmienne losowe

Ważne rozkłady i twierdzenia

PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA. Piotr Wiącek

Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna.

Rachunek prawdopodobieństwa i statystyka

Ważne rozkłady i twierdzenia c.d.

Statystyka i eksploracja danych

WYKŁAD 2. Zdarzenia losowe i prawdopodobieństwo Zmienna losowa i jej rozkłady

Elementy Rachunek prawdopodobieństwa

1 Elementy kombinatoryki i teorii prawdopodobieństwa

Statystyka matematyczna dla leśników

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014

Biostatystyka, # 3 /Weterynaria I/

Zestaw 2: Zmienne losowe. 0, x < 1, 2, 2 x, 1 1 x, 1 x, F 9 (x) =

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski

STATYSTYKA MATEMATYCZNA

Temat: Zmienna losowa. Rozkład skokowy. Rozkład ciągły. Kody kolorów: Ŝółty nowe pojęcie pomarańczowy uwaga. Anna Rajfura, Matematyka

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne

Wstęp do Rachunku Prawdopodobieństwa, IIr. WMS

WYKŁAD 3. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa

Wykład 3 Momenty zmiennych losowych.

Wykład 3 Momenty zmiennych losowych.

PRAWDOPODOBIEŃSTWO. ZMIENNA LOSOWA. TYPY ROZKŁADÓW

STATYSTYKA MATEMATYCZNA. rachunek prawdopodobieństwa

Centralne twierdzenie graniczne

Drugie kolokwium z Rachunku Prawdopodobieństwa, zestaw A

Funkcje charakterystyczne zmiennych losowych, linie regresji 1-go i 2-go rodzaju

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe

Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału

Statystyka. Wydział Zarządzania Uniwersytetu Łódzkiego

Statystyka i eksploracja danych

Rozkłady i ich dystrybuanty 16 marca F X (t) = P (X < t) 0, gdy t 0, F X (t) = 1, gdy t > c, 0, gdy t x 1, 1, gdy t > x 2,

Wykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności

Statystyka. Wydział Zarządzania Uniwersytetu Łódzkiego

Wykład 2 Zmienne losowe i ich rozkłady

b) Niech: - wśród trzech wylosowanych opakowań jest co najwyżej jedno o dawce 15 mg. Wówczas:

Wartość oczekiwana Mediana i dominanta Wariancja Nierówności związane z momentami. Momenty zmiennych losowych Momenty wektorów losowych

Rozkłady prawdopodobieństwa

Metody probabilistyczne opracowane notatki 1. Zdefiniuj zmienną losową, rozkład prawdopodobieństwa. Przy jakich założeniach funkcje: F(x) = sin(x),

Zmienna losowa. Rozkład skokowy

Literatura. Leitner R., Zacharski J., Zarys matematyki wyŝszej dla studentów, cz. III.

Prawdopodobieństwo i statystyka

Metody probabilistyczne

Rachunek prawdopodobieństwa 1B; zadania egzaminacyjne.

STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA

Zmienne losowe ciągłe i ich rozkłady

Statystyka. Magdalena Jakubek. kwiecień 2017

STATYSTYKA MATEMATYCZNA dla ZPM I dr inż Krzysztof Bryś wyk lad 1,2 KLASYCZNY RACHUNEK PRAWDOPODOBIEŃSTWA

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne

STYSTYSTYKA dla ZOM II dr inż Krzysztof Bryś Wykad 1

Zadania o numerze 4 z zestawów licencjat 2014.

6. Zmienne losowe typu ciagłego ( ) Pole trapezu krzywoliniowego

Zmienne losowe ciągłe i ich rozkłady

Prawdopodobieństwo i statystyka

Rachunek prawdopodobieństwa

1 Zmienne losowe wielowymiarowe.

Lista 5. Zadanie 3. Zmienne losowe X i (i = 1, 2, 3, 4) są niezależne o tym samym

Rachunek Prawdopodobieństwa i Statystyka

Zadania z Rachunku Prawdopodobieństwa II Podaj przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,

Rozkłady statystyk z próby

07DRAP - Zmienne losowe: dyskretne i ciągłe

Zmienne losowe. dr Mariusz Grządziel Wykład 12; 20 maja 2014

Prawdopodobieństwo. Prawdopodobieństwo. Jacek Kłopotowski. Katedra Matematyki i Ekonomii Matematycznej SGH. 16 października 2018

Metody probabilistyczne

Podstawy nauk przyrodniczych Matematyka

Transkrypt:

Rachunek prawdopodobieństwa Stanisław Jaworski Rachunek prawdopodobieństwa: dział matematyki zajmujący się badaniem modeli zjawisk losowych (przypadkowych) i praw nimi rządzących (Encyklopedia Popularna PWN, 1998) Rachunek prawdopodobieństwa zajmuje się zdarzeniami, pojawiającymi się przy wykonywaniu doświadczeń, których wyniku nie da się z góry przewidzieć, a jednocześnie dających się powtarzać w tych samych warunkach. Pojęciem pierwotnym w rachunku prawdopodobieństwa jest przestrzeń zdarzeń elementarnych. Będziemy ją oznaczać przez Ω. 1

Przykład. Rzut monetą. Ω = {O, R} Przykład. Rzut kostką. Ω = {1, 2, 3, 4, 5, 6} Przykład. Rzut monetą do chwili pojawienia się orła. Ω = {ω 1, ω 2,..., ω n,... }, gdzie ω n oznacza, że w pierwszych n 1 rzutach wypadły reszki, a za n tym razem wypadł orzeł. Możliwych wyników jest nieskończenie wiele. Dadzą się ustawić w ciąg, tzn. że jest ich przeliczalnie wiele. 2

Przykład. Ze zbioru n ponumerowanych elementów losujemy dwa elementy. Ω = {(ω i, ω j ) i, j = 1, 2,..., n, i < j} ω i oznacza wylosowanie elementu o numerze i. Przykład. Czas oczekiwania na autobus. Ω = [0, ) Przykład. Niech T k [0, 45], k = 1, 2,..., 10, oznacza spóźnienie k tego studenta na losowo wybrany wykład (w minutach). (T 1, T 2,..., T 10 ) Ω Ω = [0, 45] [0, 45]... [0, 45] = [0, 45] 10 3

Podstawowe pojęcia rachunku prawdopodobieństwa Definicja. Rodzinę F spełniającą warunki 1. F = 2. Jeśli A F, to Ω \ A F 3. Jeśli A i F dla i = 1, 2,..., to i=1 A i F nazywamy σ ciałem podzbiorów zbioru Ω. Zdarzenie losowe jest elementem rodziny F Definicja. Prawdopodobieństwem nazywamy dowolną funkcję P, określoną na σ ciele zdarzeń F 2 Ω, spełniającą warunki A1. P : F R + ; A2. P (Ω) = 1 A3. Jeśli A i F, i = 1, 2,... oraz A i A j = dla i j, to P ( i=1 A i ) = P (A i ) i=1 Mówimy, że matematyczny model doświadczenia losowego to trójka (Ω, F, P ), którą nazywamy przestrzenią probabilistyczną 4

Przykład. Rozkład prawdopodobieństwa w skończonej przestrzeni zdarzeń Niech Niech Ω = {ω 1, ω 2,..., ω n }. p i 0, i = 1, 2,..., n, będą tak dobrane, że n p i = 1 i=1 Wówczas funkcję P określamy w następujący sposób: P ({ω i }) = p i oraz dla A Ω postaci A = {ω i1, ω i2,..., ω ik } P (A) = p i1 + p i2 +... + p ik Tak określona funkcja spełnia układ aksjomatów Kołmogorowa dla F = 2 Ω 5

Przykład. Rzut kostką. ω i 1 2 3 4 5 6 p i 1/6 1/6 1/6 1/6 1/6 1/6 P ({1, 2, 5}) = 1/6 + 1/6 + 1/6 = 3/6 = 1/2 ω i 1 2 3 4 5 6 p i 1/12 1/12 1/12 3/12 3/12 3/12 P ({1, 2, 5}) = 1/12 + 1/12 + 3/12 = 5/12 < 1/2 Przykład. Przeliczalna przestrzeni zdarzeń Ω = {ω 1, ω 2,... } p i 0, p i = 1 i=1 P ({ω i }) = p i, P (A) = j:ω j A p j (?) Tak określona funkcja spełnia układ aksjomatów Kołmogorowa dla F = 2 Ω 6

Przykład. Liczba zarejestrowanych cząstek w odcinku czasu [0, t]. Ω = {0, 1,... } αt (αt)k P ({k}) = e, k = 0, 1,... k! (?) Zachodzi k=0 αt (αt)k e k! = 1 Ciągła przestrzeń zdarzeń Przykład. Czas oczekiwania na pierwszą cząstkę. Ω = [0, ) Zdarzenie (t, ): pierwsza cząstka pojawi się później niż w chwili t αt (αt)0 P ((t, )) = e 0! = e αt Stąd dla dowolnych s < t P ((s, t]) = e αs e αt 7

Przykład. Rzut strzałką do tarczy o promieniu 1. Model 1. Ω = {(x, y) : x 2 + y 2 1} (x, y) współrzędne kartezjańskie punktu trafienia strzałki w tarczę Szansa trafienia w zbiór A Ω P (A) = pole A pole Ω = A Ω = A π Zdarzenie A r = {(x, y) : dziesiątkę P (A r ) = πr2 π x 2 + y 2 r 2 }: trafienie w = r2 8

Model 2. Ω = {(ϱ, φ) : 0 ϱ 1, 0 φ 2π} = [0, 1] [0, 2π] (ϱ, φ) współrzędne biegunowe punktu trafienia strzałki w tarczę Szansa trafienia w zbiór A Ω: P (A) = pole A pole Ω = A Ω = A 2π Zdarzenie A r = {(ϱ, φ) : ϱ r}: trafienie w dziesiątkę P (A r ) = 2πr 2π = r 9

Model 3. Ω = {ϱ : 0 ϱ 1} = [0, 1] ϱ odległość punktu trafienia od środka tarczy Zdarzenie A r = {ϱ : ϱ r}: trafienie w dziesiątkę P (A r ) = πr2 π = r2 Zdarzenie A rk = {ϱ : r < ϱ k}: trafienie w dziewiątkę P (A rk ) = k 2 r 2 = 2(k r) k + r 2 10

Co łączy podane przykłady dla przestrzeni ciągłych? P (A) = f, gdzie f 0 Czas oczekiwania na pierwszą cząstkę A f(x) = αxe αx, P ((s, t])? = t s f(x) dx Rzut strzałką do tarczy (Model 1.) f(x, y) = 1 π, P (A r) =? f(x, y) dx dy A r Rzut strzałką do tarczy (Model 2.) f(ϱ, φ) = 1 2π, P (A r)? = A r f(ϱ, φ) dϱ dφ Rzut strzałką do tarczy (Model 3.) f(ϱ) = 2ϱ, P (A r )? = f(ϱ) dϱ A r 11

Problem: Jak określić F? Czas oczekiwania na pierwszą cząstkę F = B(R + ) Rzut strzałką do tarczy (Model 1.) F = B(K(0, 1)) Rzut strzałką do tarczy (Model 2.) F = B([0, 1] [0, 2π]) Rzut strzałką do tarczy (Model 3.) F = B([0, 1]) 12

Własności prawdopodobieństwa Twierdzenie 1. Jeśli (Ω, F, P ) jest przestrzenią probabilistyczną i A, B, A 1, A 2,..., A n F, to: W1. P ( ) = 0 W2. Jeśli A 1, A 2,..., A n wykluczają się wzajemnie, tj. A i A j = dla i j, to P ( n i=1 A i ) = n P (A i ) i=1 W3. P (A ) = 1 P (A), gdzie A = Ω \ A W4. Jeśli A B, to P (B \ A) = P (B) P (A) W5. Jeśli A B, to P (A) P (B) W6. P (A) 1 W7. P (A B) = P (A) + P (B) P (A B) 13

Dowód. ad W1. Niech A 1 = Ω, A i = dla i = 2, 3,... aksjomat A3. P (Ω) = P (Ω) + P ( ) i=2 aksjomat A1. P ( ) = 0 ad W2. P ad W3. ad W4. Niech A k =, dla k n aksjomat A3. oraz własność W1. ( n ) n A i = P (A i ) i=1 i=1 1 = P (Ω) = P (A A ) W2. = P (A) + P (A ) Jeśli A B, to B = A (B \ A). Zatem P (B) W2. = P (A) + P (B \ A) 14

ad W5. P (B) P (A) W4. = P (B \ A) A1. 0 ad W6. Wystarczy zastosować W5. dla B = Ω ad W7. A B = [A \ (A B)] (A B) [B \ (A B)] W2, W4. P (A B) = P (A) P (A B)+ + P (A B) + P (B) P (A B) = = P (A) + P (B) P (A B) Zauważmy, że A B = [A B ] [A B] [A B] }{{} trzy składowe sumy Zatem każda składowa sumy A 1 A 2... A n da się przedstawić, po odpowiednim przenumerowaniu zbiorów, w postaci A 1 A 2... A k A k+1 A k+2... A n, 15 gdzie k 1

Twierdzenie 2. (Wzór włączeń i wyłączeń) P (A 1 A 2... A n ) = P (A i ) P (A i1 A i2 )+ 1in 1i 1 i 2 n... + ( 1) n+1 P (A 1 A 2... A n ) Dowód. Zbiór A 1 A 2... A n daje się zapisać w postaci sumy rozłącznych składowych. Zatem Lewa strona równania włącza każdą składową dokładnie raz. Musimy pokazać, że prawa strona równania wprowadza każdą składową też dokładnie raz. W pierwszym składniku wzoru, czyli każda składowa postaci 1in P (A i ) A 1 A 2... A k A k+1 A k+2... A n zostanie włączona k razy, w drugim, czyli P (A i1 A i2 ), 1i 1 i 2 n 16

wyłączona ( k 2) razy, itd. Ostatecznie liczba włączeń wyniesie ( ) k 1 ( ) k + 2 ( ) ( ) k k +... ( 1) k+1 3 k = 1. Uwaga. Korzystam ze wzoru dwumianowego Newtona: k ( ) k (a + b) k = a k i b i i i=0 Przykład. n listów losowo wkładamy do kopert. Jakie jest prawdopodobieństwo, że choć jeden list dotrze do adresata? Niech A i oznacza zdarzenie, że i ty list dotrze do adresata. Zatem P ( n i=1 A i ) = n P (A 1 ) {}}{ ( ) (n 1)! n n! 2 + ( 1) n ( n n 1 P (A 1 A 2 ) {}}{ (n 2)! n! +... ) 1 n! + 1 ( 1)n+1 n! = 17

= 1 1 2! + 1 3! +... + 1 ( 1)n (n 1)! + 1 ( 1)n+1 n! n ( 1) i+1 n ( 1) i+1 n ( 1) i = = 1 + = 1 i! i! i! i=1 1 e 1 i=0 i=0 Błąd oszacowania ( n ) P A i (1 e 1 ) 1 (n + 1)! i=1 Skorzystałem z oszacowania: ex n i=0 x i i! x n+1 (n + 1)! 18

Twierdzenie 3. (O ciągłości). Niech(Ω, F, P ) będzie przestrzenią probabilistyczną. (i) Jeśli (A n ) n=1 jest wstępującą rodziną zdarzeń oraz A n = A, to n=1 P (A) = lim n P (A n). (ii) Jeśli (A n ) n=1 jest zstępującą rodziną zdarzeń oraz A n = A, to n=1 P (A) = lim n P (A n). Rodzinę zdarzeń A i nazywamy wstępującą, jeśli A 1 A 2... A n A n+1 i zstępującą, jeśli A 1 A 2... A n A n+1 19

Dowód. (i) Niech B 1 = A 1, B 2 = A 2 \ A 1 i ogólnie: B n = A n \ A n 1 Wtedy zdarzenia B i wykluczają się, n i=1 B i = n i=1 A i = A n, a także i=1 B i = A. Z przeliczalnej addytywności wynika, że P (A) = P ( i=1 B i ) = = lim n P (B i ) = i=1 n i=1 P (B i ) = lim n P (A n) (ii) Rozpatrzmy rodzinę wstępującą (C n ) n=1, gdzie C n = A n. Wtedy n=1 C n = n=1 A n = [ n=1 A n ] = A i wystarczy skorzystać z (i) 20

Prawdopodobieństwo warunkowe Definicja. Prawdopodobieństwem warunkowym zajścia zdarzenia A pod warunkiem zajścia zdarzenia B, gdzie P (B) > 0, nazywamy liczbę P (A B) = P (A B) P (B) (?) Uwaga. Przy ustalonym B prawdopodobieństwo warunkowe P (A B) jest zwykłym prawdopodobieństwem na (Ω, F), a także na (B, F B ), gdzie F B = {A B : A F} (?) Wzór łańcuchowy. Jeśli P (A 1... A n 1 ) > 0, to P (A 1... A n ) = P (A 1 )P (A 2 A 1 ) P (A 3 A 1 A 2 )... P (A n A 1... A n 1 ) 21

Definicja. Rozbiciem przestrzeni Ω nazywamy rodzinę zdarzeń {H i } i I, które wzajemnie wykluczają się, zaś ich suma jest równa Ω. Twierdzenie 4. Jeżeli {H 1, H 2,..., H n } jest rozbiciem Ω na zdarzenia o dodatnim prawdopodobieństwie, to dla dowolnego zdarzenia A P (A) = n P (A H i )P (H i ) i=1 Dowód. n P (A) = P ( (A H i )) = i=1 n P (A H i )P (H i ) i=1 (?) Uwaga.Twierdzenie jest prawdziwe i dla rozbicia Ω na przeliczalną liczbę zdarzeń H i, i = 1, 2,.... 22

Przykład. W loterii fantowej szansa wygranej jest równa p, przegranej q, a z prawdopodobieństwem r wyciągamy los graj dalej. Los graj dalej wrzucamy z powrotem do urny i dokonujemy ponownego losowania. Jakie jest prawdopodobieństwo wygranej? A wyciągneliśmy los wygrywający B wyciągneliśmy los przegrywający C wyciągneliśmy los graj dalej W wygraliśmy na loterii P (W ) = P (W A)P (A) + P (W B)P (B)+ + P (W C)P (C) = 1 p + 0 q + P (W ) r Stąd P (W ) = p 1 r = p p + q Twierdzenie 5. Niech {H i } i I będzie rozbiciem Ω na zdarzenia o dodatnim prawdopodobieństwie. Gdy P (B) > 0, to P (A B) = i I P (A B H i )P (H i B), gdzie zbiór indeksów I jest skończony lub przeliczalny. 23

Przykład. Grześ i Jaś rzucają na przemian monetą. Jaś wygrywa, gdy pojawią się kolejno OOR, Grześ gdy ROR. Jakie są prawdopodobieństwa wygranej dla obu chłopców? Niech W 1 wygra Jaś, W 2 wygra Grześ, O k w k-tym rzucie wypadł orzeł, R k w k-tym rzucie wypadła reszka. x = P (W 1 O 1 O 2 ) y = P (W 1 O 1 R 2 ) z = P (W 1 R 1 O 2 ) w = P (W 1 R 1 R 2 ) Zatem y =P (W 1 O 1 R 2 O 3 )P (O 3 O 1 R 2 )+ + P (W 1 O 1 R 2 R 3 )P (R 3 O 1 R 2 ) Analogicznie =z 1 2 + w 1 2 x = 1 2 x + 1 2 1, z = 1 2 x + 0, w = 1 2 w + 1 2 z Stąd P (W 1 ) = (x + y + z + w)/4 = 5/8. 24

Twierdzenie 6. Wzór Bayesa. Niech {H i } i I będzie rozbiciem Ω na zdarzenia o dodatnim prawdopodobieństwie i P (A) > 0, to dla dowolnego j I mamy P (H j A) = P (A H j )P (H j ) i I P (A H i)p (H i ) Przykład. Amperomierze pochodzą z trzech taśm produkcyjnych w stosunku 1:1:1. Dostawy z pierwszej taśmy zawierają 0.5% braków, z drugiej 0.7%, a z trzeciej 1%. Wybrany losowo amperomierz okazał się brakiem. Obliczyć prawdopodobieństwo, że został on wyprodukowany na taśmie drugiej. A amperomierz jest brakiem H i amperomierz pochodzi z i tej taśmy P (H 1 ) = P (H 2 ) = P (H 3 ) = 1/3 P (A H 1 ) = 0.005; P (A H 2 ) = 0.007; P (A H 3 ) = 0.01 Stąd P (A) = 1 3 0.022 (0.005 + 0.007 + 0.01) = 3 1 = 3 0.007 = 1 3 0.022 P (H 2 A) = P (H 2)P (A H 2 ) P (A) 25 7 22

Niezależność zdarzeń. Zdarzenie B nie zależy od zdarzenia A, gdy wiedza o tym, że zaszło A nie wpływa na prawdopodobieństwo zajścia B. P (B A) = P (B), P (A) > 0 P (A B) = P (A)P (B) Definicja. Zdarzenia A oraz B nazywamy niezależnymi, gdy P (A B) = P (A)P (B) Definicja. Zdarzenia A 1, A 2,..., A n nazywamy niezależnymi, gdy P (A i 1 A i 2... A i k) = P (A i1 )... P (A ik ) dla 1 i i < i 2,... < i k n, k = 2, 3,..., n 26

Przykład. Spośród rodzin mających n dzieci wybieramy jedną rodzinę. Niech zdarzenie A polega na tym, że w losowo wybranej rodzinie jest co najwyżej jedna dziewczynka, B w rodzinie są dziewczynki i chłopcy. Czy zdarzenia A i B są niezależne? Przestrzeń probabilistyczną tworzą ciągi n elementowe uporządkowane według starszeństwa dzieci. P (A B) = P (A)P (B) n 2 n = ( n + 1 2 n n = 3 ) ( 2 n ) 2 2 n Przykład. W urnie są cztery kule niebieska, zielona, czerwona i pstrokata (niebiesko-zielono-czerwona). Zdarzenia A n wyciągneliśmy kulę z kolorem niebieskim A z wyciągneliśmy kulę z kolorem zielonym A n wyciągneliśmy kulę z kolorem czerwonym Mamy P (A n ) = P (A z ) = P (A c ) = 1/2 P (A n A z ) = P (A n A c ) = P (A z A c ) = 1/4 Zatem rozważane zdarzenia są parami niezależne. 27

Zauważmy jednak, że P (A n A z A c ) = 1 4 1 8 = P (A n)p (A z )P (A c ) Przykład. Ω = [0, 1] 2, F = B([0, 1] 2 ), P rozkład równomierny na [0, 1] 2. Zdarzenia A = B = { (x, y) [0, 1] 2 : x > y } Zauważmy, że C = { (x, y) [0, 1] 2 : x < 0.5 } P (A B C) = 1 8 = P (A)P (B)P (C) natomiast żadne dwa nie są niezależne 28

Przyjmijmy konwencję: A 0 = A, A 1 = A Twierdzenie 7. Następujące warunki są równoważne: (i) Zdarzenia A 1, A 2,..., A n są niezależne; (ii) Dla każdego ciągu ε 1, ε 2,..., ε n, gdzie ε i {0, 1}, i = 1, 2,..., n, zdarzenia A ε 1 1,..., Aε n n są niezależne; (iii) Dla każdego ciągu ε 1, ε 2,..., ε n, gdzie ε i {0, 1}, i = 1, 2,..., n, zachodzi równość P (A ε 1 1... Aε n n ) = P (A ε 1 1 )... P (Aε n n ) Dowód. (i) (ii) (indukcja względem n) (1 o ) Pokażemy dla n = 2 (2 o ) Założymy, że tw. jest prawdziwe dla n 1 (3 o ) Pokażemy, że A 1,..., A n 1, A n niezależne A 1,..., A n 1, A n niezależne (4 o ) Zauważymy, że z 3 o wynika A ε 1 1,..., Aε n 1 n 1, Aε n n niezależne 29

Dla n = 2 P (A 1 A 2) = P (A 1 \ A 1 A 2 ) = = P (A 1 ) P (A 1 A 2 ) = = P (A 1 )[1 P (A 2 )] = P (A 1 )P (A 2) Zatem A 1, A 2 są niezależne. Na mocy symetrii także A 1, A 2 są niezależne. Stosując jeszcze raz powyższe rozumowanie do A 1, A 2, otrzymujemy niezależność A 1, A 2 Zakładamy, że tw. jest prawdziwe dla n 1 i dowodzimy dla n. W tym celu wystarczy pokazać: P (A 1... A n 1 A n) = = P (A 1... A n 1 \ A 1... A n 1 A n ) = = P (A 1... A n 1 ) P (A 1... A n ) = = P (A 1... A n 1 )[1 P (A n )] = P (A 1 )... P (A n 1 )P (A n) Definicja. Zdarzenia A 1, A 2,... nazywamy niezależnymi, gdy dla każdego n zdarzenia A 1, A 2,..., A n są niezależne. 30

Zmienne losowe. Cel: Ujednolicić sposób rozważań dla różnych przestrzeni zdarzeń elementarnych. Definicja. Zmienna losowa jest to funkcja rzeczywista X : Ω X o własności: {ω Ω : X(ω) x} F x R X zbiór wartości zmiennej losowej Często X = {0, 1,... }, X = [0, ), X = [a, b], X = R 31

Definicja. Rozkładem prawdopodobieństwa zmiennej losowej X nazywamy rozkład prawdopodobieństwa P X określony wzorem P X (A) = P ({ω Ω : X(ω) A}) = P (X 1 (A)) dla A X! dokładniej dla A B(X ) Definicja. Trójkę (X, B(X ), P X ) nazywamy modelem probabilistycznym. Przykład. Ze zbioru pięciu ponumerowanych elementów losujemy jeden element Ω = {ω 1,..., ω 5 } P ({ω i } = 1/5) ω i wylosowano i ty element Wtedy dla X(ω i ) = i mamy X = {1, 2, 3, 4, 5} oraz P X (i) = 1/5, i = 1, 2, 3, 4, 5 P X (A) = i A P X (i), dla A X 32

Definicja. Dystrybuanta zmiennej losowej X, jest to funkcj F : R [0, 1] określona wzorem F X (x) = P (X x) Własności dystrybuanty W1. F jest niemalejąca x 1 < x 2, A = (, x 1 ], B = (, x 2 ], A B F (x 1 ) = P (A) P (B) = F (x 2 ) W2. lim F (x) = 0, lim x F (x) = 1 x {x n } ( ) lim F (x) = lim F (x n) = P (, x n ] x n n = P ((, )) = 1 33

{x n } ( ) lim F (x) = lim n) = P x n (, x n ] n = P ( ) = 0. W3. F jest prawostronnie ciągła lim x x + 0 {x n } x 0 ( ) F (x) = lim F (x n) = P (, x n ] n n = P ((, x 0 ]) = F (x 0 ), 34

Twierdzenie 8. Każda funkcja F : R [0, 1] o własnościach 1 3 jest dystrybuantą pewnej zmiennej losowej. Dowód. F 1 (u) := inf{x : F (x) u} dla 0 < u < 1 F 1 (u) x u F (x) Niech U oznacza zmienną losową o rozkładzie równomiernym na zbiorze (0, 1): F U (u) = P (U u) = u Niech X = F 1 (U). F X (x) = P (X x) = P (F 1 (U) x) = P (U F (x)) = F (x) 35

Własności dystrybuanty, ciąg dalszy oznaczmy F (a+) := lim x a + F (x) (?) (i) P (a < X b) = F (b) F (a) (ii) P (X = a) = F (a) F (a ) (iii) P (a X b) = F (b) F (a ) (iv) P (a < X < b) = F (b ) F (a) F (b)............. F (a).......... a... P (a < X b). b 36

Zmienne losowe typu skokowego Definicja. Mówimy, że zmienna losowa jest typu skokowego (dyskretna), jeżeli istnieje zbiór skończony lub przeliczalny X R taki, że P X (X ) = 1 Przykłady zmiennych losowych typu skokowego: rozkład dwumianowy rozkład Poissona rozkład ujemny dwumianowy rozkład wielomianowy 37

Rozkład dwumianowy Powtarzające się i niezależne próby nazywamy próbami Bernoulliego, jeżeli każda próba ma tylko dwa możliwe wyniki: sukces z prawdopodobieństwem p oraz porażka z prawdopodobieństwem q Niech X oznacza ilość sukcesów osiągniętych w ciągu n prób Bernoulliego. Zmienna losowa X ma następujący rozkład prawdopodobieństwa: ( ) n P (X = k) = p k q n k, k gdzie p (0, 1) oraz k = 0, 1,..., n. O zmiennej losowej X mówimy, że ma rozkład dwumianowy (X B(n, p)). 38

Przykład. Dziesięciu robotników używa z przerwami energię elektryczną. Jakiego należy oczekiwać obciążenia, jeżeli 1. W każdej danej chwili każdy robotnik ma to samo prawdopodobieństwo p zapotrzebowania na jednostkę energii. 2. Robotnicy pracują niezależnie od siebie. 3. Przeciętnie jeden robotnik używa dostarczanej energii w ciągu 12 minut na godzinę. Niech X oznacza liczbę robotników, którzy potrzebują energii w tym samym czasie. X B(10, 1/5). Wówczas, jeżeli dopływ energii jest ustalony na poziomie sześciu jednostek, to przeciążenie ma szanse: P (X 7) = 0.0008643584 (?) W ciągu 20 godzin powinno trwać łącznie przez około minutę. 39

Rozkład Poissona Zmienna losowa X ma rozkład Poissona z parametrem λ > 0 (X P 0 (λ)), jeżeli: P (X = k) = e λ λ k, k = 0, 1,... k! Rozkład Poissona a rozkład dwumianowy. Załóżmy, że liczba doświadczeń n w poszczególnych seriach schematu Bernoulliego wzrasta dążąc do nieskończoności a prawdopodobieństwo p dąży do zera tak, że iloczyn np jest wielkością stałą równą λ > 0. Wtedy zachodzi lim n ( n )p k (1 p) n k = e λ λ k. k k! Wynika to z rozpisania: ( n k) p k (1 p) n k = = 1 ( λ k! (n k + 1)(n k + 2)... n n ( = λk 1 k 1 ) ( 1 k 2 )... k! n n (... 1 1 ) 1 n ) k ( 1 λ ) n k n ( 1 λ ) n k n 40

Przykład. Jakie jest prawdopodobieństwo p k, że wśród 500 ludzi dokładnie k będzie miało urodziny w dniu Nowego Roku? Jeżeli 500 ludzi zostało wybranych losowo, to możemy zastosować schemat 500 prób Bernoulliego z prawdopodobieństwem sukcesu 1/365. Wówczas p 0 = (364/365) 500 = 0.2537... Dla przybliżenia Poissona bierzemy λ = 500/365 = 1.3699... Wtedy p 0 e 1.3699 1.3699 0 0! 0.2541 41

Ujemny rozkład dwumianowy. Prowadzimy doświadczenia według schematu Bernoulliego do momentu pojawienia się r tego sukcesu. Niech X oznacza liczbę porażek poprzedzających r ty sukces. ( ) ( ) r + k 1 r + k 1 P (X = k)= p r 1 q k p = p r q k k k gdzie q = 1 p, k = 0, 1,... O zmiennej losowej X mówimy, że ma ujemny rozkład dwumianowy (X f(r, p)). Zakładamy, że r > 0 oraz 0 < p < 1. Uwaga. Możemy przyjąć, że r > 0 nie musi być liczbą całkowitą. Wtedy przyjmujemy następującą definicję symbolu Newtona (dla a R oraz k 0) ( ) a k := a(a 1)(a 2)... (a (k 1)), k N k! 1, k = 0 0, k / Z 42

Przykład. Zadanie Banacha o pudełkach zapałek. Mamy dwa pudełka zapałek jedno w prawej kieszeni i jedno w lewej. Kiedy potrzebujemy zapałkę, wybieramy jedną z kieszeni losowo. Przypuśćmy, że początkowo każde z pudełek zawiera N zapałek. Ile wynosi prawdopodobieństwo, że gdy wyciągniemy puste pudełko, w drugim będzie dokładnie m zapałek. X liczba wyciągnięć pudełka z prawej kieszeni do momentu aż w drugim pudełku będzie m zapałek Y... z lewej kieszeni... X f(n m, 0.5), Y f(n m, 0.5) Poszukiwane prawdopodobieństwo wynosi P ({X = N + 1} {Y = N + 1}) = = P (X = N + 1) + P (Y = N + 1) 43

Rozkład wielomianowy uogólnienie rozkładu dwumianowego Wykonujemy serię n niezależnych prób. Każda próba może mieć jeden z kilku wyników, np. E1, E2,..., E r. Prawdopodobieństwo realizacji E i w każdej próbie wynosi p i, i = 1, 2,..., r. Prawdopodobieństwo, że w n próbach E 1 występuje k 1 razy, E 2 występuje k 2 razy itd. wynosi n! k 1!k 2!... k r! pk 1 1 pk 2 2... pk r r 44

Zmienne losowe typu ciągłego Definicja. Mówimy, że zmienna losowa o dystrybuancie F jest typu ciągłego, jeżeli istnieje taka funkcja f 0, że dla każdego x zachodzi równość F (x) = x f(u) du Funkcję f nazywamy gęstością prawdopodobieństwa zmiennej losowej X lub w skrócie gęstością Uwagi (1) W punktach, w których f jest ciągła zachodzi d F (x) = f(x) dx (2) f(x) dx = 1 (3) Każda funkcja f nieujemna i spełniająca (2) wyznacza dystrybuantę F za pomocą wzoru F (x) = x f(u) du 45

Przykład. Sprawdzić, czy funkcja f określona wzorem { 0 dla x < 0 f(x) = e x dla x 0 jest gęstością. f(x) dx = 0 e x dx = [ e x] 0 = 1 Przykłady zmiennych losowych ciągłych: rozkład normalny N(µ, σ 2 ) rozkład jednostajny U(a, b) rozkład gamma G(b, p) rozkład beta B(p, q) rozkład Cauchyego C(µ, λ) 46

N(µ, σ 2 ), σ > 0 f(x) = 1 [ ] (x µ) 2 σ 2π exp 2σ 2 U(a, b), a < b f(x) = 1 b a, x [a, b], 0, x / [a, b] G(b, p), b > 0, p > 0 f(x) = b p Γ(p) xp 1 e bx, x > 0 0, x 0 gdzie Γ(p) = 0 x p 1 e x dx 47

B(p, q), b > 0, p > 0 f(x) = 1 B(p, q) xp 1 (1 x) q 1, x (0, 1) 0, x / (0, 1) gdzie B(p, q) = 1 x p 1 (1 x) q 1 dx a także 0 B(p, q) = Γ(p)Γ(q) Γ(p + q) C(µ, λ), λ > 0 f(x) = 1 π λ λ 2 + (x µ) 2 48

Przykład. Sprawdzimy, że rozkład N(µ, σ 2 ) jest rzeczywiście rozkładem prawdopodobieństwa: [ ] 1 (x µ) 2 σ 2π exp 2σ 2 podstawienie: y = (x µ)/σ = 1 ) exp ( y2 dy = 2π 2 dx = Należy zatem sprawdzić, że ostatnia całka równa jest 2π. Ponadto zauważmy, że przy okazji otrzymaliśmy następujący fakt X N(µ, σ 2 ) X µ σ N(0, 1) 49

exp = exp ( y2 2 ( x2 2 ) 2 dy = ) dx = exp ( x2 + y 2 ) 2 exp ( y2 dx dy = 2 ) dy = przejście na współrzędne biegunowe: ϕ(r, t) = (r cos t, r sin t) Jϕ(r, t) = cos(t) r sin(t) sin(t) r cos(t) = r 2π = exp 0 0 ( r2 2 = 2π [ exp r2 2 ) r dr dt = 2π ] 0 = 2π 0 exp ( r2 2 ) r dr = 50

Funkcje zmiennej losowej Przykład. Niech Y = ax +b, gdzie a 0 oraz X jest zmienną losową o rozkładzie P (X = 0) = 1/4, P (X = 1) = 3/4. Chcemy znaleźć rozkład zmiennej losowej Y. P (X = 0) = P (Y = b) = 1/4 P (X = 1) = P (Y = a + b) = 3/4 Przykład. Niech X będzie zmienną losową typu ciągłego o gęstości f X, dystrybuancie F X oraz niech Y = ax + b, a < 0. Chcemy znaleźć rozkład Y F Y (y) = P (Y y) = P (X y b a ) = ( = 1 P X < y b ) ( ) y b = 1 F X a a Zatem f Y (y) = d dy F Y (y) = 1 a f X ( ) y b a 51

Przykład. Niech X oznacza zmienną losową ciągłą o dystrybuancie F X oraz gęstości f X. Niech f X jest funkcją ciągłą, a g funkcją ściśle monotoniczną oraz niech h = g 1. Wtedy dystrybuantą zmiennej losowej Y = g(x) jest: (dla g - rosnącej) F Y (y) = P (Y y) = P (g(x) y) = P (X h(y)) = F X (h(y)) Jeżeli h jest funkcją różniczkowalną, to d dy F Y (y) = f X (h(y))h (y) jest gęstością zmiennej losowej Y = g(x) (dla g - malejącej) F Y (y) = P (Y y) = P (g(x) y) = P (X h(y)) = 1 F X (h(y)) Jeżeli h jest funkcją różniczkowalną, to d dy F Y (y) = f X (h(y))( h (y)) jest gęstością zmiennej losowej Y = g(x) 52

Zatem w obu przypadkach f Y (y) = f X (h(y)) h (y) Przykład. Niech X nieujemna zmienna losowa typu ciągłego oraz Y = X. Zatem h(y) = y 2 oraz f Y (y) = 2y f X (y 2 ) I (0, ) (y) Uwaga. I A (x) = { 1, x A 0, x / A Przykład. Niech X zmienna losowa typu ciągłego oraz Y = X 2. F Y (y) = P (X 2 y) = P ( y X y) = = P (X y) P (X y) = F X ( y) F X ( y) f Y (y) = d dy F Y (y) = d dy (F X( y) F ( y)) = = 1 2 y (f X( y) + f X ( y)) 53

Twierdzenie 9. Niech X będzie zmienną losową typu ciągłego. Niech g będzie funkcją określoną na zbiorze n [a k, b k ], k=1 która na każdym przedziale otwartym (a k, b k ) jest funkcją ściśle monotoniczną oraz ma ciągłą pochodną g(x) 0. Niech h k (y) będzie funkcją odwrotną do funkcji g(x) na przedziale I k = g((a k, b k )) = {y : x (a k, b k ), g(x) = y}. Wówczas funkcja gęstości zmiennej losowej Y = g(x) ma następującą postać f Y (y) = n f X (h k (y)) h (y) I Ik (y) k=1 Przykład. X ciągła, Y = X 2. Wtedy g(x) = x 2, h 1 (y) = y, h 2 (y) = y, I 1 = I 2 = (0, ). 54

Dowód. Niech A B(R) P (Y A) = P (g(x) A) = P (X g 1 (A)) n = P (X (a k, b k ) g 1 (A)) k=1 n = P (X g 1 (I k ) g 1 (A)) k=1 n = P (X g 1 (I k A)) k=1 n = P (X h k (I k A)) k=1 n = f X (x) dx k=1 h k (I k A) n = f X (h k (y)) h k(y) dy k=1 I k A n = f X (h k (y)) h k(y) I Ik dy A k=1 Pytanie: Czy coś by się zmieniło, gdyby n =? 55

Wektory losowe Definicja. Wektor losowy X = (X 1,..., X n ) to odwzorowanie X : Ω X R n o własności: {ω Ω : X 1 (ω) x 1,..., X n (ω) x n } F dla dowolnego (x 1, x 2,..., x n ) R n X zbiór wartości wektora losowego Często X = {0, 1,... } n, X = [0, ) n, X = [a, b] n, X = R n Definicja. Rozkładem prawdopodobieństwa wektora losowego X nazywamy rozkład prawdopodobieństwa P X określony wzorem P X (A) = P ({ω Ω : X(ω) A}) dla A B(X ) 56

Definicja. Trójkę (X, B(X ), P X ) nazywamy modelem probabilistycznym. Definicja. Funkcja F X : R n [0, 1] postaci F X (x 1,..., x n ) = P (X 1 x 1,..., X n x n ) nazywamy dystrybuantą wektora losowego X Definicja. Wektor losowy jest typu skokowego, jeżeli istnieje zbiór przeliczalny X R n, taki że P X (X ) = 1 Definicja. Wektor losowy jest typu ciągłego, jeżeli istnieje nieujemna funkcja f X (x 1, x 2,..., x n ), zwana gęstością, taka że dla każdego x = (x 1, x 2,..., x n ) R n F X (x) = x 1 x 2 f X (u 1,..., u n ) du 1... du n 57

Uwagi Prawie wszędzie ma miejsce równość F X (x 1,..., x n ) x 1,..., x n = f X (x 1,..., x n ) Dla dowolnego A B(R n ) zachodzi f X (x) dx Zauważmy, że A P (X 1 A) = P (X 1 A, X 2 R,..., X n R) = f X (x 1,..., x n ) dx 1... dx n = A f X (x 1,..., x n ) dx 2... dx n dx 1 A Zatem f X1 (x 1 ) = f X (x 1,..., x n ) dx 2... dx n Jest to tzw. brzegowa gęstość prawdopodobieństwa. 58

Dla rozkładów brzegowych wielowymiarowych mamy: f (X1,X 2 )(x 1, x 2 ) = = f X (x 1,..., x n ) dx 3... dx n f (X1,X 2,X 3 )(x 1, x 2, x 3 ) = = f X (x 1,..., x n ) dx 4... dx n itd. Podobnie postępuje się przy rozkładach skokowych: Przykład. Niech wektor losowy (X, Y ) ma rozkład określony liczbami p ik = P (X = x i, Y = y k ), gdzie i I, k K. Wówczas rozkład zmiennej losowej X określają liczby p i = P (X = x i ) = k K p ik, gdzie i I 59

Przykład. Niech (X, Y ) ma rozkład równomierny na Ω = [0, 2] [0, 3]: f X,Y (x, y) = 1 6 I Ω(x, y). Wówczas f X (x) = f X,Y (x, y) dy = 1 6 I Ω (x, y) dy = = 1 6 I [0,2] (x) I [0,3] (y) dy = = 1 6 I [0,2](x) I [0,3] (y) = 1 2 I [0,2](x) 60

Przykład. Niech (X 1, X 2 ) ma dwuwymiarowy rozkład normalny, tzn: 1 f X1,X 2 (x 1, x 2 ) = 2πσ 1 σ 2 (1 ϱ 2 ) 1 2 { [ (x1 ) 2 1 µ 1 exp 2(1 ϱ 2 + ) σ 1 ( ) ]} 2 x2 µ 2 + 2ϱ (x 1 µ 1 )(x 2 µ 2 ) σ 2 σ 1 σ 2 gdzie σ 1, σ 2 > 0 oraz ϱ ( 1, 1) Rozpisujemy wyrażenie w nawiasie kwadratowym: ( ) 2 ( ) 2 x1 µ 1 x2 µ 2 + 2ϱ (x 1 µ 1 )(x 2 µ 2 ) = σ 1 σ 2 σ 1 σ 2 ( ) 2 ( ) 2 x1 µ 1 x2 µ 2 = + σ 1 + ϱ 2 (x 2 µ 2 ) 2 σ 2 2 σ 2 ϱ 2 (x 2 µ 2 ) 2 σ 2 2 2ϱ (x 1 µ 1 )(x 2 µ 2 ) σ 1 σ 2 = 61

( x1 µ 1 = = 1 σ 2 1 σ 1 ϱ x 2 µ 2 σ 2 ( x 1 µ 1 ϱ σ 1 σ 2 (x 2 µ 2 ) ) 2 + (1 ϱ 2 ) (x 2 µ 2 ) 2 σ 2 2 = ) 2 + (1 ϱ 2 ) (x 2 µ 2 ) 2 σ 2 2 Zatem wyrażenie w nawiasie klamrowym ma postać: h(x 1,x 2 ) {}}{ ( 1 2(1 ϱ 2 )σ1 2 x 1 µ 1 ϱ σ ) 2 1 (x 2 µ 2 ) σ 2 1 2σ2 2 (x 2 µ 2 ) 2 Zatem 1 f X1,X 2 (x 1, x 2 ) = 2πσ 1 σ 2 (1 ϱ 2 ) 1 2 { exp h(x 1, x 2 ) 1 } 2σ2 2 (x 2 µ 2 ) 2 62

Zauważmy, że g(x 1 ) := 1 2π(1 ϱ2 )σ 1 exp(h(x 1, x 2 )) jest gęstością rozkładu N ( µ 1 + ϱ σ ) 1 (x 2 µ 2 ), (1 ϱ 2 )σ1 2 σ 2 Zatem f X2 (x 2 ) = f X1,X 2 (x 1, x 2 ) dx 1 = = 1 2πσ2 exp { 1 2σ 2 2 } (x 2 µ 2 ) 2 g(x 1 ) dx 1 } {{ } =1 Wniosek: Rozkład brzegowy dwuwymiarowego rozkładu normalnego jest jednowymiarowym rozkładem normalnym 63

Niezależność zmiennych losowych Definicja. Niech (Ω, F, P ) będzie przestrzenią probabilistyczną, a X 1, X 2,..., X n będą zmiennymi losowymi określonymi na tej przestrzeni. Mówimy, że te zmienne losowe są niezależne, jeżeli dla dowolnych zbiorów borelowskich A 1, A 2,..., A n zachodzi: P (X 1 A 1,... X n, A n ) = = P (X 1 A 1 )... P (X n A n ) Definicja. Mówimy, że zmienne losowe X 1, X 2,... są niezależne, jeżeli każdy skończony podciąg ciągu X 1, X 2,... składa się z niezależnych zmiennych losowych Twierdzenie 10. Dla zmiennych losowych X 1, X 2,..., X n następujące warunki są równoważne (i) zmienne losowe są niezależne (ii) dla x = (x 1, x 2,..., x n ) R n F X (x) = F X1 (x 1 )... F Xn (x n ) 64

Twierdzenie 11. Jeżeli X = (X 1, X 2,..., X n ) jest wektorem losowym typu skokowego to warunkiem koniecznym i wystarczającym niezależności zmiennych losowych X 1, X 2,..., X n jest: P (X 1 = x 1,..., X n = x n ) = = P 1 (X 1 = x 1 )... P n (X n = x n ), dla każdego (x 1,..., x n ) R n, gdzie P k oznacza brzegowy rozkład prawdopodobieństwa zmiennej losowej X k (k = 1, 2,..., n). Twierdzenie 12. Jeżeli X = (X 1, X 2,..., X n ) jest wektorem losowym typu ciągłego o gęstości f X, to warunkiem koniecznym i wystarczającym niezależności zmiennych losowych X 1, X 2,..., X n jest: f X (x) = f X1 (x 1 )... f Xn (x n ), dla każdego x = (x 1,..., x n ) R n, gdzie f Xk jest gęstością rozkładu brzegowego zmiennej losowej X k (k = 1,..., n ) 65

Przykład. Niech X 1, X 2 ma łączny rozkład normalny. Chcemy znaleźć warunek konieczny i wystarczający na niezależność zmiennych X 1 oraz X 2. Z twierdzenia mamy, że powinno zachodzić Ponieważ f X1,X 2 (x 1, x 2 ) = f X1 (x 1 )f X2 (x 2 ) 1 f X1,X 2 (x 1, x 2 ) = 2πσ 1 σ 2 (1 ϱ 2 ) 1 2 { [ (x1 ) 2 1 µ 1 exp 2(1 ϱ 2 + ) σ 1 ( ) ]} 2 x2 µ 2 + 2ϱ (x 1 µ 1 )(x 2 µ 2 ) σ 2 σ 1 σ 2 oraz f X1 (x 1 ) = f X2 (x 2 ) = [ 1 (x1 µ 1 ) 2 ] exp σ 1 2π 2σ1 2 [ 1 (x2 µ 2 ) 2 ] exp σ 2 2π 2σ2 2 zauważamy, że warunkiem tym jest ϱ = 0 66

Przykład. Niech X i N(µ i, σi 2 ), i = 1, 2,, n. Wówczas n f Xi (x i ) = i=1 = = [ 1 n exp 1 2 (σ i 2π) i=1 ] n (x i µ i ) 2 = i=1 [ 1 (2π)n Σ exp 1 ] 2 (x µ)σ 1 (x µ), σ 2 i gdzie x = (x 1, x 2,..., x n ), µ = (µ 1, µ 2,..., µ n ) oraz Σ = σ 2 1 0... 0 σ 2 n Wniosek: Jeżeli X = (X 1, X 2,..., X n ) N n (µ, Σ), to warunkiem koniecznym i dostatecznym niezależności zmiennych losowych X i, i = 1, 2,..., n jest to, aby macierz Σ była diagonalna. 67

Twierdzenie 13. (a) Jeżeli zmienne losowe X 1, X 2,..., X n są niezależne oraz g 1, g 2,..., g n są funkcjami borelowskimi, to zmienne losowe Y 1 = g 1 (X 1 ),..., Y n = g n (X n ) są również niezależne. (b) Jeżeli X 1,..., X m, Y 1,..., Y n zmiennymi losowymi oraz są niezależnymi f : R m R i g : R n R są funkcjami borelowskimi, to U = f(x 1,..., X m ) i V = g(y 1,..., Y n ) są niezależnymi zmiennymi losowymi, a także U, Y 1,..., Y n są niezależnymi zmiennymi losowymi. 68

Przykład. Niech X i N(0, 1), i = 1, 2 będą zmiennymi niezależnymi. Chcemy znaleźć rozkład zmiennej losowej X 2 1 + X 2 2. Ponieważ zmienne X 1, X 2 są niezależne, to zmienne Y 1 = X1 2, Y 2 = X2 2 też są niezależne. Zatem Ponieważ f Y1,Y 2 (y 1, y 2 ) = f Y1 (y 1 )f Y2 (y 2 ) f Yi (y i ) = 1 2 y i (f Xi ( y i ) + f Xi ( y i )) I (0, ) (y i ) oraz mamy f Xi (x i ) = 1 [ x 2 σ 2π exp i 2 f Yi (y i ) = 1 [ exp y ] i I (0, ) (y i ) 2πyi 2 ] 69

Niech Z = X1 2 + X2 2 = Y 1 + Y 2. F Z (z) = P (Y 1 + Y 2 z) = f Y1,Y 2 (y 1, y 2 ) dy 1 dy 2 = = z y 2 Y 1 +Y 2 z f Y1,Y 2 (y 1, y 2 ) dy 1 dy 2 = = = z y 2 z f Y1 (y 1 ) dy 1 f Y2 (y 2 )dy 2 = f Y1 (y 1 y 2 ) dy 1 f Y2 (y 2 )dy 2 = = z f Y1 (y 1 y 2 )f Y2 (y 2 ) dy 2 dy 1 Zmiana oznaczeń dla funkcji w nawiasach: z := y 1, x := y 2 Zatem f Z (z) = f Y1 (z x)f Y2 (x) dx 70

Robimy odpowiednie podstawienie i otrzymujemy dla z > 0: f Z (z) = 1 2π z 0 [ 1 exp z x + x ] dx = (z x)x 2 = 1 [ 2π exp z ] z 2 podstawienie t := x/z 0 = 1 [ 2π exp z ] 1 2 0 1 (z x)x dx = t 1 2 (1 t) 1 2 dt = = 1 [ 2π exp z ] B(1/2, 1/2) = 2 = 1 [ 2π exp z ] Γ( 1 2 )Γ( 1 2 ) 2 Γ( 1 2 + 1 2 ) = = 1 [ 2 exp z ] 2 Zatem f Z (z) = 1 [ 2 exp z ] I (0, ) (z) 2 71

Można pokazać przez indukcję ze względu na n, że zmienna losowa Z = X 2 1 +... + X 2 n ma rozkład o gęstości f Z (z) = 1 2 n/2 Γ(n/2) zn/2 1 e z/2 I (0, ) (z) Jest to tzw. rozkład chi-kwadrat o n stopniach swobody. Symbolicznie piszemy X 2 1 +... + X 2 n χ 2 (n) Fakt. m λ i Xi 2 χ2 (n), Xi 2 χ2 (1) m = n, λ i = 1 i=1 72

Parametry rozkładów Wartość oczekiwaną (wartość przeciętna, nadzieję matematyczną) zmiennej losowej X oznaczamy symbolem E(X) i określamy w następujący sposób: Dla zmiennej losowej skokowej Jeżeli X jest zmienną losową typu skokowego, X = {x 1, x 2,... }, przy czym szereg x k P (X = x k ) jest zbieżny, to k E(X) = k Dla zmiennej losowej ciągłej x k P (X = x k ) Jeżeli X jest zmienną losową typu ciągłego o gęstości f i zbieżna jest całka x f(x) dx, to R E(X) = x f(x) dx R Ogólnie: E(X) = Ω X(ω)dP (ω) 73

Przykład. Niech X = {0, 1}, P (X = 0) = q, P (X = 1) = p = 1 q. Wówczas E(X) = 0 q + 1 p = p Przykład. Niech X B(n, p). Wówczas n ( ) n E(X) = k p k q n k = k k=0 n n! = k k!(n k)! pk 1 q n k = k=1 = np n k=1 (n 1)! (k 1)!(n k)! pk 1 q n k = = np (p + q) n 1 = np Przykład. Niech X P o (λ). Wówczas E(X) = k λk k! e λ = λe λ λ k 1 (k 1)! = k=0 = λe λ r=0 k=1 λ r r! = λe λ e λ = λ 74

Przykład. Niech X N(µ, σ 2 ). Wówczas E(X) = 1 σ 2π Stosujemy podstawienie z = x µ σ E(X) = 1 2π [ ] (x µ) 2 x exp 2σ 2 dx (µ + σz)e z2 2 dz = i otrzymujemy = µ 2π e z2 2 dz + σ 2π ze z2 2 dz = = µ 2π 2π + σ 2π 0 = µ Przykład. Niech X C(0, 1). Wówczas x π(1 + x 2 ) = 2 lim A A dx = 2 lim A 0 1 2π ln(1 + A2 ) = x π(1 + x 2 ) dx = Wniosek: Dla rozkładu Cauchy ego wartość oczekiwana nie istnieje. 75

Własności wartości oczekiwanej Jeżeli E(X) <, E(Y ) <, to (i) E(X + Y ) = E(X) + E(Y ) (ii) E(aX + b) = ae(x) + b, (iii) Jeżeli X 0, to E(X) = (iv) Jeżeli X oraz Y są niezależne, to 0 dla a, b R P (X > t) dt E(XY ) = E(X)E(Y ) Przykład. Niech X i, i = 1, 2,... n, ma rozkład dwupunktowy: P (X i = 0) = q, P (X i = 1) = p Jeżeli zdarzenia A i = {X i = 1} są niezależne, to Zatem n X = X i B(n, p) k=1 n n E(X) = E(X k ) = p = np k=1 k=1 76

Twierdzenie 14. Jeżeli funkcja ϕ jest borelowska, to (i) Dla X z rozkładu skokowego E(ϕ(X)) = k ϕ(x k )P (X = x k ) (ii) Dla X z rozkładu ciągłego o gęstości f(x) E(ϕ(X)) = ϕ(x)f(x) dx R Przykład. Znaleźć wartość oczekiwaną pola prostokąta, którego obwód jest równy 10, a jeden bok jest zmienną losową X o rozkładzie U[1, 10]. Pole = X(10 X), f X (x) = 1 9 I [1,10](x) E(X(10 X)) = x(10 x)f X (x) dx = = 1 9 10 1 x(1 x) dx = 18 77

Problem. Jak możliwie najdokładniej zmierzyć długości dwóch prętów za pomocą zwykłej miarki, jeśli wolno mierzyć tylko dwa razy? Propozycje 1. Mierzymy osobno każdy pręt. 2. Mierzymy sumę długości prętów, składając je razem, a potem różnicę. Miernik precyzji pomiaru. Wynik pomiaru = rzeczywista długość + błąd X = x + ε ad 1. E(X x) 2 = E(ε) 2 Niech X i oznacza pomiar i tego pręta, i = 1, 2. Zatem X i = x i + ε i. Wielkość błędu pomiaru pierwszego pręta wynosi E(ε 1 ) 2, a drugiego E(ε 2 ) 2. Rozsądnie jest przyjąć E(ε 1 ) 2 = E(ε 2 ) 2 = σ 2 78

ad 2. Niech S oznacza pomiar sumy długości prętów oraz R różnicę. S = x 1 + x 2 + ε 1 R = x 1 x 2 + ε 2 Jako oszacowanie x 1 przyjmujemy S + R 2 = x 1 + ε 1 + ε 2 2 Jako oszacowanie x 2 przyjmujemy S R 2 Rozsądnie jest przyjąć, że = x 2 + ε 1 ε 2 2 E(ε 1 ) = E(ε 2 ) = 0, oraz ε 1, ε 2 niezależne Na mocy twierdzenia 19, 20 oraz założeń: E ( ε1 ± ε 2 2 ) 2 = 1 4 E(ε 1) 2 + 1 4 E(ε 2) 2 ± 1 2 E(ε 1)E(ε 2 ) = 1 4 E(ε 1) 2 + 1 4 E(ε 2) 2 ± 0 0 = σ2 2 Średni kwadrat błędu jest dwa razy mniejszy niż poprzednio. 79

Zauważmy, że jeżeli E(ε) = 0 to E(X) = x. Zatem E(X x) 2 = E(X E(X)) 2 Definicja. Jeżeli E(X EX) 2 <, to tę liczbę nazywamy wariancją zmiennej losowej X i oznaczamy: D 2 X = E(X EX) 2. Uwaga. D 2 X = E(X EX) 2 = E(X 2 2X EX + (EX) 2 ) = EX 2 (EX) 2 Definicja. Pierwiastek z wariancji nazywamy odchyleniem standardowym i oznaczamy przez DX. 80

Własności wariancji Jeżeli X jest zmienną losową, dla której EX 2 <, to istnieje D 2 X oraz: (i) D 2 X 0 (ii) D 2 (cx) = c 2 D 2 X (iii) D 2 (X + a) = D 2 X (iv) D 2 X = 0 wtedy i tylko wtedy, gdy zmienna losowa X jest z prawdopodobieństwem 1 stała Uwaga. E(X t) 2 =E(X EX + EX t) 2 =E(X EX) 2 + E(X t) 2 2E((X EX)(EX t)) =E(X EX) 2 + E(X t) 2 2E(X EX) E(EX t) E(X EX) 2 Zatem funkcja f(t) = E(X t) 2 przyjmuje minimum równe wariancji dla t = EX. 81

Przykład. Zagadnienie regresji liniowej. Chcemy zmienną Y w rozsądny sposób przybliżyć przy pomocy funkcji liniowej zmiennej X. Za kryterium jakości przybliżenia przyjmiemy średni kwadrat błędu: wyznaczyć takie liczby a i b, ażeby E(Y ax b)) 2 była minimalna. Na podstawie uwagi b = E(Y ax) = EY aex Zatem szukamy takiego a, które minimalizuje E(Y ax (EY aex))) 2 = = E(Y EY a(x EX)) 2 = D 2 Y + a 2 D 2 X 2aE((Y EY )(X EX)) Mamy tu funkcję kwadratową względem a. Zatem a = E((Y EY )(X EX)) D 2 X 82

Oznaczając ϱ(x, Y ) = E((Y EY )(X EX)) D2 X D 2 Y mamy oraz ax + b = ϱ(x, Y ) DY (X EX) + EY DX min a,b E(Y ax b)2 = (1 ϱ(x, Y ) 2 )D 2 Y Definicja. Kowariancją całkowalnych zmiennych losowych X, Y, spełniających warunek E XY <, nazywamy wielkość Cov(X, Y ) = E((Y EY )(X EX)). Definicja. Współczynnikiem korelacji zmiennych X, Y nazywamy wielkość E((Y EY )(X EX)) ϱ(x, Y ) =. D2 X D 2 Y Uwaga. Z ostatniej równości w przykładzie wynika: (i) 1 ϱ(x, Y ) 1 (ii) ϱ(x, Y ) = 1 wtedy i tylko wtedy, gdy istnieją liczby a 0 oraz b takie, że P (Y = ax + b) = 1 83

Wariancja sumy zmiennych losowych Jeżeli każda ze zmiennych losowych X 1, X 2,..., X n ma wariancję, to istnieje wariancja sumy i D 2 (X 1 +...+X n ) = n D 2 X i +2 Cov(X i, X j ) i=1 1 i<j n Definicja. Zmienne losowe X, Y, dla których Cov(X, Y ) = 0, czyli ϱ(x, Y ) = 0, nazywamy nieskorelowanymi. Wniosek. Jeśli zmienne losowe X 1, X 2,..., X n mają wariancję i są parami nieskorelowane, to D 2 (X 1 +... + X n ) = n D 2 X i i=1 (?) Uwaga. Jeżeli X, Y są niezależne, to są nieskorelowane. Odwrotny fakt nie zachodzi (chyba, że mamy do czynienia z rozkładem normalnym) 84

Przykład. Niech (X 1, X 2 ) ma dwuwymiarowy rozkład normalny. Policzmy Cov(X 1, X 2 ). Zgodnie z przekształceniami z przykładu na rozkład brzegowy dwywymiarowego rozkładu normalnego mamy: f X1,X 2 (x 1, x 2 ) = f X2 (x 2 ) g(x 1, x 2 ) }{{} g(x 1 ) prz. gdzie f X2 (x 2 ) jest gęstością rozkładu N(µ 2, σ 2 2) oraz g(x 1, x 2 ) traktowana jako funkcja zmiennej x 1 z parametrem x 2, jest funkcją gęstości zmiennej Zatem N ( µ 1 + ϱ σ ) 1 (x 2 µ 2 ), (1 ϱ 2 )σ1 2 σ 2 Cov(X 1, X 2 ) = E((X 1 µ 1 )(X 2 µ 2 )) = = (x 1 µ 1 )(x 2 µ 2 )f X2 (x 2 )g(x 1, x 2 ) dx 1 dx 2 = 85

= (x 2 µ 2 )f X2 (x 2 ) (x 1 µ 1 )g(x 1, x 2 ) dx 1 dx 2 Zatem = (x 2 µ 2 )f X2 (x 2 ) ( µ 1 + ϱ σ )) 1 (x 2 µ 2 ) µ 1 dx 2 σ 2 A zatem = ϱ σ 1 σ 2 (x 2 µ 2 ) 2 f X2 (x 2 )dx 2 = ϱ σ 1 σ 2 σ 2 2 = ϱσ 1 σ 2 Stąd ϱ(x, Y ) = ϱ. Zatem X, Y niezależne X, Y nieskorelowane. 86

Rozkłady warunkowe Przykład. Niech (X, Y ) dwuwymiarowy wektor losowy typu skokowego Rozkład X {x 1, x 2,... }, Y {y 1, y 2,... } p ij := P (X = x i, Y = y j ) Prawdopodobieństwa brzegowe P (X = x i ) = k p ik, P (Y = y k ) = i p ik Zachodzi P (X = x i Y = y k ) 0, P (X = x i Y = y k ) = 1 P (Y = y k X = x i ) 0, Zatem dla ustalonego y k P ( Y = y k ) jest rozkładem prawdopodobieństwa. Podobnie P ( X = x i ) i P (Y = y k X = x i ) = 1 k 87

Przykład. Rzut dwiema kostkami. X wynik rzutu pierwszą kostką Y wynik rzutu drugą kostką U := min{x, Y }, V := max{x, Y } u \ v 1 2 3 4 5 6 P (U = u) 1 1 36 1 36 2 0 1 36 2 36 2 36 3 0 0 1 36 2 36 2 36 2 36 4 0 0 0 1 36 2 36 2 36 2 36 2 36 5 0 0 0 0 1 36 2 36 2 36 2 36 2 36 2 36 6 0 0 0 0 0 1 36 P (V = v) 1 36 3 36 5 36 7 36 9 36 11 36 11 36 9 36 7 36 5 36 3 36 1 36 v 1 2 3 4 5 6 suma P (V = v U = 3) 0 0 1 7 2 7 2 7 2 7 1 E(V U = 3) = 33 7 F (4 U = 3) = 3 7 88

Przykład. Jaka jest średnia liczba sukcesów w pierwszej próbie, jeżeli wiemy, ile zaszło sukcesów w całej serii n doświadczeń według schematu Bernoulliego? Oznaczenia S n łączna liczba sukcesów Y liczba sukcesów w pierwszej próbie A k := {S n = k}, B k := A k {Y = 1} E(Y A k ) = Y (ω)p (ω A k ) = ω A k = 1 Y (ω)p (ω) = P (A k ) ω A k = 1 P (ω) = P (B k) P (A k ) P (A k ) = ω B k = p( ) n 1 k 1 p k 1 q (n 1) (k 1) ( n ) = k k pk q n k n Zatem E(Y S n ) = S n n oraz E(E(Y S n )) = E(S n /n) = E(S n) n = np n = p = E(Y ) 89

Przykład. Niech f(x, y) gęstość wektora (X, Y ). Rozkłady brzegowe dla zmiennej X : f 1 (x) := f(x, y) dy dla zmiennej Y : f 2 (y) := f(x, y) dx Niech P (x < X x + h) > 0. Wtedy P (Y y x < X x + h) = x+h x ( y x+h x f(x, y) dy f 1 (x) dx ) dx 90

(?) Przy założeniu, że f(x, y)... oraz f 1 (x)... P (Y y X = x) : = lim P (Y y x < X x + h) h 0 + ( ) x+h y f(x, y) dy dx Oznaczając = lim h 0 + = y 1 h x 1 h f(x, y) dy f 1 (x) x+h x = f 1 (x) dx y f(x, y) f 1 (x) dy F (y x) = P (Y y X = x), f(y x) = f(x, y)/f 1 (x) mamy F (y x) = y f(y x) dy 91

Zauważamy, że f 1 (x)f (y x) = Po scałkowaniu obu stron y f(x, y) dy f 1 (x)f (y x) dx = F Y (y) Przyjmując E(Y x) := yf(y x) dy mamy E(Y x)f 1 (x) dx = ( ) yf(y x) dy f 1 (x) dx = ( y ) f(x, y) f 1 (x) dy f 1 (x) dx 92

( ) yf(x, y) dy dx = y ( ) f(x, y) dx dy = = yf 2 (y) dy = E(Y ) Otrzymaliśmy E(E(Y X)) = E(Y ) Definicja. Jeżeli (X, Y ) jest wektorem losowym o gęstości f(x, y) to funkcję f(y x) = { f(x,y) f 1 (x) gdy f 1 (x) > 0 0 w przeciwnym przypadku nazywamy gęstością warunkową zmiennej Y dla danego X = x. (?) f(y x) dy = 1 93

Nadal zachodzi E(E(Y X)) = E(Y ) Ponadto rozumiemy, że P (Y B x) = f(y x) dy rozkład warunkowy B Przyjmując Z(ω) = I B (Y (ω)) mamy E(Z) = I B (y)f 2 (y) dy = f 2 (y) dy B = P (Y B) E(Z x) = I B (y)f(y x) dy = f(y x) dy = P (Y B x) B Zatem E(P (Y B X)) = P (Y B) 94

Dla B = (, y] mamy dystrybuantę zmiennej Y F Y (y) = P (Y B) dystrybuantę zmiennej Y pod warunkiem X = x F (y x) = P (Y B x) oraz wzór E(F (y X)) = F Y (y) Przykład. Z odcinka [0,1] wybrano losowo (zgodnie z rozkładem równomiernym) punk X, a następnie z odcinka [0, X], również losowo, punkt Y. Jaka jest średnia długość odcinka [0, Y ]? E(Y X) = 1 2 X E(Y ) = E(E(Y X)) = E( 1 2 X) = 1 4 95

Przykład. Owad składa X jajeczek zgodnie z rozkładem Poissona z parametrem λ, a owad z jajeczka wylęga się z prawdopodobieństwem p, niezależnie od innych. Znaleźć średnią liczbę potomków. Niech Y oznacza liczbę potomków owada. Zatem E(Y X) = Xp Stąd EY = E(E(Y X)) = E(Xp) = λp Ten przykład pokazuje, jak można obliczać wartość oczekiwaną, korzystając z warunkowej wartości oczekiwanej. Właściwy wybór zmiennej losowej X często bardzo upraszcza rachunki. 96

Uwaga. Skorzystaliśmy ze wzoru EY = E(E(Y X)), gdy X typu skokowego. Ja w takim przypadku rozumieć gęstość łączną? Umowa: b a f(x, y) dy = P (X = x, a Y b) Przy takiej umowie możemy zachować bez zmian określenia gęstości warunkowych f(x y) = f(x, y) f(x, y), f(y x) = f 2 (y) f 1 (x) gdzie f 1 (x) = f(x, y) dy, f 2 (y) = x f(x, y) 97

Rodzaje zbieżności Przykład. Niech P -rozkład jednostajny na [0, 1] oraz X kn (ω) = dla 0 k n 1, n = 1, 2,... [ k 1 dla ω n ; k + 1 ) ; n [ k 0 dla ω Ω \ n ; k + 1 ) n P (X nk = 0) = 1 1 n, P ( X nk > ε) = 1 n n P (X nk = 1) = 1 n 0, dla 0 < ε < 1 O ciągu X 01, X 02, X 12, X 03, X 13, X 23,... powiemy, że jest zbieżny do zera według prawdopodobieństwa. Ciąg ten jest rozbieżny w każdym punkcie przedziału. Na przykład dla ω = 1/2 mamy ciąg: 0, 0, 1, 0,..., który na dowolnie dalekich miejscach ma zera i jedynki. 98

Definicja. Ciąg zmiennych losowych (X n ) n=1 zbieżny do zmiennej losowej X: według prawdopodobieństwa, jeśli jest dla każdego ε > 0 lim n P ( X n X > ε) = 0, co oznaczamy X n P X, prawie na pewno, jeśli ({ }) P ω : lim X n (ω) = X(ω) n = 1 co oznaczamy X n p.n. X X n p.n. X P ( lim N P lim N P N=1 n=n ( n=n ( n=n { X n X ε} ) { X n X ε} { X n X > ε} ) ) lim N P ({ X N X > ε}) = 0 X n P X = 1 = 1 = 0 99

Wniosek. Zbieżność prawie na pewno pociąga zbieżność według prawdopodobieństwa. Przykład. Niech X n ma rozkład P (X n = a n ) = 1. Zatem F Xn (t) = I [an, )(t) 1 F Xn. 1 F X.. a a n. a Gdy a n a okazuje się, że F Xn (a) 0 1 = F X (a) 100

Przykład. Niech F będzie dowolną dystrybuantą. Zdefiniujmy dystrybuantę F n (t)=f (t 1 n ), n=1, 2,... Wtedy F n (t) F (t ). Zauważmy, że F (t ) = F (t) tylko wtedy, gdy t jest punktem ciągłości t. Definicja. Ciąg zmiennych losowych (X n ) n=1 jest zbieżny do zmiennej losowej X według dystrybuant, jeśli ciąg dystrybuant (F Xn ) n=1 jest zbieżny do dystrybuanty F X w każdym punkcie jej ciągłości, co oznaczamy: D X X n Można pokazać ( X n p.n. X) (X n P X) (Xn D X) 101

Oznaczmy Prawa wielkich liczb S n = X 1 +X 2 + +X n, Xn = X 1 + X 2 +... +, X n n Niech X 1, X 2,... będzie ciągiem niezależnych zmiennych losowych o tym samym rozkładzie, o wartości średniej µ i wariancji 0 < σ 2 <. Wtedy dla każdego ε > 0 mamy Słabe prawo wielkich liczb lim P n ( X 1 + X 2 + + X n n ) µ < ε = 1 X n P µ Mocne prawo wielkich liczb P ( lim n X 1 + X 2 + + X n n ) = µ = 1 X n p.n. µ 102

Wniosek. Prawdopodobieństwo jest odpowiednikiem teoretycznym częstości. Faktycznie, jeżeli w wyniku powtórzenia niezależnie n razy doświadczenia otrzymaliśmy ω 1, ω 2,..., ω n, to I A (ω 1 ) + I A (ω 2 ) + + I A (ω n ) n p.n. EI A = P (A) Metoda Monte Carlo obliczania całek. Niech X i będą niezależnymi zmiennymi losowymi o wartościach w (0,1) i o gęstości g. Wtedy z MPWL S n = 1 n n i=1 f(x i ) g(x i ) n = 1 0 E f(x) g(x) [ ] f(x1 ) g(x 1 ) = g(x) dx = W szczególności, gdy X i U(0, 1), to 1 0 f(x) dx 1 n n i=1 f(x i ) n 1 0 f(x) dx 103

Przykład. Obliczanie liczby π przy pomocy komputera: generujemy 50 wartości z rozkładu U(0, 1) (kolumna x). Następnie wyliczamy y = 1 x 2. Z kolumny y wyliczamy średnią i mnożymy ją przez cztery. Otrzymujemy wartość 3.155. Jeśli przybliżenia to nie nie jest zadowalające, można wygenerować na przykład 1000 wartości. x y x y x y 0.382 0.924 0.017 1.000 0.952 0.307 0.101 0.995 0.285 0.959 0.053 0.999 0.596 0.803 0.343 0.939 0.705 0.709 0.899 0.438 0.554 0.833 0.817 0.577 0.885 0.466 0.357 0.934 0.973 0.233 0.958 0.285 0.372 0.928 0.466 0.885 0.014 1.000 0.356 0.935 0.300 0.954 0.407 0.913 0.910 0.414 0.750 0.661 0.863 0.505 0.466 0.885 0.351 0.936 0.139 0.990 0.426 0.905 0.776 0.631 0.245 0.970 0.304 0.953 0.074 0.997 0.045 0.999 0.976 0.219 0.198 0.980 0.032 0.999 0.807 0.591 0.064 0.998 0.164 0.986 0.991 0.132 0.358 0.934 0.220 0.976 0.256 0.967 0.487 0.873 0.511 0.859 0.373 0.928 0.986 0.167 0.041 0.999 0.231 0.973 104

Dystrybuanta empiryczna F n (x) Powtarzamy pewne doświadczenie niezależnie n razy. W wyniku tego otrzymujemy ciąg X 1, X 2,..., X n niezależnych zmiennych losowych o nieznanej dystrybuancie F. Chcemy odtworzyć F. W tym celu dla każdego x R definiujemy F n (x)(ω) = 1 n n I {Xi x}(ω) i=1 Ponieważ to z MPWL E[I {X1 x}] = P (X 1 x) = F (x), F n (x) = 1 n n i=1 I {Xi x} n F (x) 105

Centralne twierdzenie graniczne Centralne Twierdzenie Graniczne Niech X 1, X 2,... będą niezależnymi zmiennymi losowymi o tym samym rozkładzie, o wartości średniej µ i wariancji 0 < σ 2 <. Wtedy sup x R ( P Sn nµ σ n ) x Φ(x) n 0 X n µ σ n D N(0, 1) Twierdzenie de Moivre Laplace a Niech Y n B(n, p). Wtedy sup x R ( P Yn np npq ) x Φ(x) n 0 106

Przykład. Wykonano n = 100 niezależnych rzutów monetą. Oznaczmy przez Y n liczbę orłów w n rzutach. Obliczymy P (Y n 61) P (Y n 61) = 1 P (Y n 60) = ( ) Yn 100 0.5 60 100 0.5 = 1 P 10 0.5 10 0.5 ( ) Yn 100 0.5 = 1 P 2 10 0.5 1 Φ(2) 0.0228 = Uwaga. Dość dobre przybliżenie uzyskujemy ze wzoru: ( P a Y ) n np b Φ(b + 1 npq 2 h) Φ(a 1 2 h), gdzie h = 1 npq 107

Szybkość zbieżności w centralnym twierdzeniu granicznym Twierdzenie Berry Esséen a Jeżeli X 1, X 2,... są niezależnymi zmiennymi losowymi o tym samym rozkładzie oraz E X 1 3 <, to sup x R ( P Sn nµ σ n ) x gdzie 1/ 2π C < 0.8. Φ(x) C E X 1 EX 1 3 σ 3, n Dla rozkładu dwumianowego: sup x R ( P Yn np npq ) x Φ(x) C p2 + q 2 npq 108

p 2 + q 2 pq 0.0 0.5 1.0 p Dla p 1 lub p 0 przybliżenie rozkładem normalnym nie musi być zadowalające. Alternatywą jest przybliżenie rozkładem Poissona: Twierdzenie 15. Niech Y n B(n, p) oraz λ = np. Wtedy dla każdego zbioru M N mamy P (Y n M) k M λ k k! e λ λ2 n 109

Przykład. Prawdopodobieństwo trafienia szóstki w Toto-Lotku jest równe ( ) 49 1/ = 1/13983816 7.151 10 8. 6 Ilu szóstek można się spodziewać w każdym tygodniu, jeżeli grający wypełniają kupony całkowicie losowo i niezależnie od siebie, a kuponów jest n = 10 7. Liczba szóstek ma rozkład dwumianowy, w przybliżeniu rozkład Poissona z parametrem λ = np 0.7151. λ k k k! e λ 0 0.4891 3 0.0298 1 0.3498 4 0.0053 2 0.1251 5 0.0008 k! e λ k λ k Błąd przybliżenia rozkładem Poissona: λ 2 /n 0.5 10 7. 110

Twierdzenie Słuckiego Niech X n D X oraz Yn D c, gdzie c jest pewną skończoną stałą. Wówczas: (i) X n + Y n D X + c (ii) X n Y n D cx (iii) X n /Y n D X/c Z twierdzenia Słuckiego wynika, że ciąg zmiennych losowych (X n ) n zbiega według rozkładu do N(µ, σ 2 ), jeżeli równoważnie ciąg X n µ zbiega do rozkładu σ N(0, 1). Asymptotyczna normalność Mówimy, że ciąg zmiennych (X n ) n jest asymptotycznie normalny o średniej µ n i wariancji σ 2 n, jeżeli σ 2 n > 0 dla dostatecznie dużych n oraz X n µ n σ n N(0, 1). Zapisujemy to jako: X n jest AN(µ n, σ 2 n). 111

Asymptotyczna normalność przy przekształaceniach Niech X n będzie AN(µ, σ 2 n), σ n 0. Niech g będzie funkcją różniczkowalną w punkcie x = µ oraz niech g (µ) 0. Wówczas g(x n ) jest AN(g(µ), (g (µ)) 2 σ 2 n) Przykład. Niech X n ma rozkład Poissona o wartości oczekiwanej θn, gdzie θ > 0. Wówczas X n jest AN(θn, θn) (wariancja rozkładu Poissona jest równa wartości średniej) lub równoważnie X n n jest AN(θ, θ n ). Niech g będzie rozwiązaniem równania dg(θ) dθ = 1/2 θ 1/2. To znaczy g(x) = x 1/2. Zatem (X n /n) 1/2 jest AN(θ 1/2, 1/(4n)) lub równoważnie X 1/2 n jest AN((θn) 1/2, 1/4). 112

Własności rozkładów Rozkład sumy niezależnych zmiennych losowych. Niech X, Y mają rozkłady dyskretne: x X P (X = x) = 1, y Y P (Y = y) = 1 Szukamy rozkładu zmiennej losowej Z = X + Y : P (Z = z) = P (X + Y = z) = = x X P (X = x, Y = z x) = = x X, z x Y P (X = x)p (Y = z x) = W przypadku, gdy X = {0, 1,... } oraz Y = {0, 1,... } mamy P (X + Y = r) = r P (X = i)p (Y = r i) i=0 113

Przykład. X B(n 1, p), Y B(n 2, p). P (X + Y = r) = r ( ) n1 = p i (1 p) n 1 i i i=0 r = p r (1 p) n 1+n 2 r = ( n1 + n 2 r ( n2 ( n1 i i=0 ) p r (1 p) n 1+n 2 r ) p r i (1 p) n 1 r+i r i )( ) n2 r i Zatem X + Y B(n 1 + n 2, p) Przykład. X P o(λ 1 ), Y P o(λ 2 ) P (X + Y = r) = r λ i 1 λ r i = i! e λ1 (r i)! e λ 2 i=0 = e (λ 1+λ 2 ) 1 r! = (λ 1 + λ 2 ) r r! r i=0 Zatem X + Y P o(λ 1 + λ 2 ) e (λ 1+λ 2 ) ( ) r λ i i 1λ r i 2 114

Niech X, Y mają rozkłady ciągłe: X f X (x), Y f Y (y) Wówczas (porównać strona 86) F Z (z) = P (X + Y z) = f X,Y (x, y) dxdy = = z y X+Y z f X,Y (x, y) dx dy = = z y f X (x) dx f Y (y)dy = = = z z f X (x y) dx f Y (y)dy = f X (x y)f Y (y) dy dx Zatem f Z (z) = f X (z y)f Y (y) dy 115

Przykład. X U[0, 1], Y U[0, 1] Ponieważ I [0,1] (z y) = I [ 1,0] (y z) = I [z 1,z] (y), mamy f X+Y (z) = I [0,1] (z y)i [0,1] (y) dy = = 1 0 I [z 1,z] (y) dy = z dla 0 z 1, 2 z dla 1 z 2 0 dla z / [0, 2] Jest to rozkład trójkątny Przykład. Niech X 0, X 1,..., X n mają rozkład wykładniczy: tzn. o gęstości f(x) = λe λx dla x > 0 Wtedy X 0 + X 1 + + X n ma rozkład o gęstości g n (x) = λ (λx)n n! Jest to rozkład gamma G(1, n + 1) 116 e λx dla x > 0