5 Przegląd najważniejszych rozkładów

Podobne dokumenty
PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA

Wykład 3 Jednowymiarowe zmienne losowe

Prawa wielkich liczb, centralne twierdzenia graniczne

Szkice do zajęć z Przedmiotu Wyrównawczego

Statystyka i eksploracja danych

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu.

STATYSTYKA MATEMATYCZNA

WSTĘP. Tematy: Regresja liniowa: model regresji liniowej, estymacja nieznanych parametrów. Wykład:30godz., ćwiczenia:15godz., laboratorium:30godz.

Przestrzeń probabilistyczna

Jednowymiarowa zmienna losowa

Wartość oczekiwana Mediana i dominanta Wariancja Nierówności związane z momentami. Momenty zmiennych losowych Momenty wektorów losowych

Wykład 3 Momenty zmiennych losowych.

Wykład 3 Momenty zmiennych losowych.

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa

Rachunek prawdopodobieństwa i statystyka

Matematyka z el. statystyki, # 3 /Geodezja i kartografia II/

PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA. Piotr Wiącek

Rozkłady prawdopodobieństwa

Najczęściej spotykane rozkłady dyskretne:

WYKŁAD 2. Zdarzenia losowe i prawdopodobieństwo Zmienna losowa i jej rozkłady

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych

Zestaw 2: Zmienne losowe. 0, x < 1, 2, 2 x, 1 1 x, 1 x, F 9 (x) =

1 Elementy kombinatoryki i teorii prawdopodobieństwa

Rachunek prawdopodobieństwa i statystyka

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

Statystyka. Magdalena Jakubek. kwiecień 2017

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Zadania z Rachunku Prawdopodobieństwa II Podaj przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,

Biostatystyka, # 3 /Weterynaria I/

Elementy Rachunek prawdopodobieństwa

Rozkłady i ich dystrybuanty 16 marca F X (t) = P (X < t) 0, gdy t 0, F X (t) = 1, gdy t > c, 0, gdy t x 1, 1, gdy t > x 2,

dr Jarosław Kotowicz 24 lutego 2003 roku 1 c Copyright J.Kotowicz

Zadania z Rachunku Prawdopodobieństwa II Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,

Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna.

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Rozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej

Różne rozkłady prawdopodobieństwa

Rozkład normalny Parametry rozkładu zmiennej losowej Zmienne losowe wielowymiarowe

3. Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,

Literatura. Leitner R., Zacharski J., Zarys matematyki wyŝszej dla studentów, cz. III.

Zmienne losowe ciągłe i ich rozkłady

Statystyka i eksploracja danych

Statystyka matematyczna dla leśników

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności

Wybrane rozkłady zmiennych losowych. Statystyka

Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe.

Zmienne losowe ciągłe i ich rozkłady

Funkcje charakterystyczne zmiennych losowych, linie regresji 1-go i 2-go rodzaju

STATYSTYKA MATEMATYCZNA. rachunek prawdopodobieństwa

RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3.

Rachunek prawdopodobieństwa II

Zadania z Rachunku Prawdopodobieństwa III - 1

Procesy stochastyczne

Rozkłady statystyk z próby

Zadania z RP 2. seria Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n

Zmienne losowe. Rozkład prawdopodobieństwa i dystrybuanta. Wartość oczekiwana i wariancja zmiennej losowej

Procesy stochastyczne

Statystyka matematyczna. Wykład III. Estymacja przedziałowa

Metody probabilistyczne

Matematyka dla biologów Zajęcia nr 13.

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

Centralne twierdzenie graniczne

Ważne rozkłady i twierdzenia

Seria 1. Zbieżność rozkładów

Zmienne losowe. dr Mariusz Grządziel Wykład 12; 20 maja 2014

Statystyka. Wydział Zarządzania Uniwersytetu Łódzkiego

Podstawowe modele probabilistyczne

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

Wykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa

Statystyka. Wydział Zarządzania Uniwersytetu Łódzkiego

Ważne rozkłady i twierdzenia c.d.

Rachunek Prawdopodobieństwa i Statystyka

Statystyczna analiza danych

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski

W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych:

1 Wykład 4. Proste Prawa wielkich liczb, CTG i metody Monte Carlo

Rachunek prawdopodobieństwa 1B; zadania egzaminacyjne.

Statystyka w analizie i planowaniu eksperymentu

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa

PRAWDOPODOBIEŃSTWO. ZMIENNA LOSOWA. TYPY ROZKŁADÓW

1. Pojęcie normy, normy wektora [Kiełbasiński, Schwetlick]

2. P (E) = 1. β B. TSIM W3: Sygnały stochastyczne 1/27

STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA

Zmienne losowe. dr Mariusz Grzadziel. rok akademicki 2016/2017 semestr letni. Katedra Matematyki, Uniwersytet Przyrodniczy we Wrocławiu

L.Kowalski Zmienne losowe jednowymiarowe

Rozkłady prawdopodobieństwa zmiennych losowych

STYSTYSTYKA dla ZOM II dr inż Krzysztof Bryś Wykad 1

Przegląd ważniejszych rozkładów

METODY BADAŃ NA ZWIERZĘTACH ze STATYSTYKĄ wykład 3-4. Parametry i wybrane rozkłady zmiennych losowych

Statystyka. Wykład 2. Krzysztof Topolski. Wrocław, 11 października 2012

Transkrypt:

5 Przegląd najważniejszych rozkładów 5. Rozkład Bernoulliego W niezmieniających się warunkach wykonujemy n razy pewne doświadczenie. W wyniku każdego doświadczenia może nastąpić zdarzenie A lub A. Zakładamy, że dla każdego z tych n doświadczeń P(A) = p, P(A ) = p = q, 0 < p <. Niech X będzie liczbą wystąpień zdarzenia A w serii n doświadczeń: zdarzenie {X = k} oznacza, że w serii n doświadczeń zdarzenie A wystąpiło k razy. Zmienna losowa X ma rozkład prawdopodobieństwa określony wzorem ( ) n B(n, p, k) := P(X = k) = p k q n k. k Rozkład ten nazywa się rozkładem dwumianowym z parametrami n i p. Parametry: EX = np, D 2 = npq. 5.2 Rozkład Poissona Zmienna losowa X ma rozkład Poissona z parametrem λ > 0, jeśli Parametry: EX = λ, D 2 X = λ. P(X = k) = e λ λ k, k = 0,, 2,... k! Twierdzenie 5. (Poissona). Niech zmienna losowa X n ma rozkład dwumianowy z parametrami n i p = p n. Jeśli lim n np n = λ > 0, to lim P(X n = k) = e λ λ k. n k! Dowód. Niech λ n = np n. Wówczas p n = λn n, lim n λ n = λ oraz lim P(X n = k) = lim n n n! k!(n k)! pk n( p n ) n k (n k + ) n = lim n n k n k + = lim n k + 2 n n n n n n n λk n k! 5.3 Rozkład geometryczny Zmienna losowa X ma rozkład geometryczny z parametrem p, jeśli ( λ n n P (X = k) = ( p) k p, p (0, ), k =, 2,... (np n) k ( p n ) n ( p n ) k = k! ) n ( λ ) k n = λk n k! e λ. Jest to rozkład czasu oczekiwania na pierwszy sukces w ciągu doświadczeń Bernoulliego liczba doświadczeń, które należy wykonać, aby otrzymać pierwszy sukces. Parametry: EX = /p, D 2 X = ( p)/p 2. 5.4 Rozkład wielomianowy Jest uogólnieniem rozkładu dwumianowego i opisuje rozkład wyników przy n-krotnym powtórzeniu doświadczenia o k możliwych rezultatach. Jeśli X i oznacza liczbę wyników i-tego typu, to P(X = n,..., X k = n k ) = gdzie p i [0, ], i =,..., k, p + + p k =, n + + n k = n. Jeśli µ jest rozkładem prawdopodobieństwa na R n to n! n! n k! pn pn k k, µ j (B) = µ(r R }{{} B R R), j-te miejsce gdzie B B(R), jest rozkładem prawdopodobieństwa. Nazywamy go rozkładem brzegowym rozkładu µ. Dla każdego i =,..., k zmienne X i mają rozkład dwumianowy, co oznacza, że jednowymiarowe rozkłady brzegowe rozkładu wielomianowego to rozkłady dwumianowe.

5.5 Rozkład jednostajny Niech A R n będzie zbiorem o dodatniej i skończonej mierze Lebesgue a λ. Rozkład o gęstości g(x) = λ(a) A(x), x R n, nazywamy rozkładem jednostajnym na zbiorze A. Najczęściej spotykamy się z sytuacją jednowymiarową, gdy A jest przedziałem [a, b], a wówczas jego gęstość ma postać a dystrybuanta Rozkład ten oznacza się często U[a, b]. Parametry: EX = a + b 2, (b D2 a)2 X =. 2 5.6 Rozkład wykładniczy Rozkład wykładniczy z parametrem λ ma gęstość Dystrybuanta tego rozkładu to: g(x) = b a [a,b](x), x R, 0, t < a, t a F (t) =, a t < b, b a, b t. g(x) = λe λx (0, ) (x). F (t) = ( e λt ) (0, ) (t). Rozkład geometryczny i rozkład wykładniczy mają własność braku pamięci, to znaczy jeśli X jest zmienną losową o jednym z tych rozkładów, to: P(X > t + s X > t) = P(X > s) gdzie t, s > 0 oraz dodatkowo t, s N dla rozkładu geometrycznego. Parametry: EX = /λ, D 2 X = /λ 2. 5.7 Rozkład gamma Rozkładem gamma nazywamy rozkład o gęstości γ a,b (x) = ba Γ(a) xa e bx (0, ) (x), a, b > 0. Jeśli a jest liczbą naturalną, to jest to rozkład sumy a niezależnych zmiennych losowych o rozkładzie wykładniczym z parametrem b. (Funkcja Gamma Eulera: Γ(a) = t a e t dt, a > 0). 0 Parametry: EX = a/b, D 2 X = a/b 2. 5.8 Rozkład beta Jest to rozkład o gęstości gdzie funkcja beta Na przykład dla a = b = 2 β a,b (x) = B(a, b) xa ( x) b [0,] (x), a, b > 0, B(a, b) = Γ(a)Γ(b) Γ(a + b) = 0 t a ( t) b dt, a, b > 0. otrzymujemy rozkład arcusa sinusa o gęstości: β /2,/2 (x) = Parametry: EX = a/(a + b), D 2 X = ab/[(a + b) 2 (a + b + )]. [0,](x) π x( x).

5.9 Rozkład normalny Zmienna losowa X ma jednowymiarowy rozkład normalny o średniej µ i wariancji σ 2, co zapisujemy X N(µ, σ 2 ), jeżeli ma gęstość ϕ µ,σ (x) = σ 2 2π e (x µ) /2σ 2, µ R, σ > 0. Wektor losowy X = (X, X 2,..., X n ) ma wielowymiarowy rozkład normalny, jeśli jego funkcja gęstości dana jest wzorem: (2π) n/2 V exp [ /2 2 (x µ)t V (x µ)], gdzie µ jest wektorem wartości oczekiwanych, a V symetryczną i dodatnio określoną (nieosobliwą) macierzą (kowariancji). Parametry: EX = µ, D 2 X = σ 2. 5.0 Rozkład χ 2. Niech X = (X, X 2,..., X n ) będzie wektorem niezależnych zmiennych losowych o rozkładach normalnych z E(X i ) = 0 oraz D 2 (X i ) =, i =,..., n. Zmienna Z = X X = ma rozkład χ 2 z n stopniami swobody, co zapisujemy Z χ 2 n. Rozkład ten ma gęstość: i= X 2 i 2 n/2 Γ(n/2) xn/2 e x/2 (0, ) (x). Zauważmy, że jest rozkład Γ(2, n/2). Rozkład ten ma następującą własność: jeśli Z χ 2 n, Z 2 χ 2 m oraz Z i Z 2 są niezależne, to: Z + Z 2 χ 2 n+m. Twierdzenie 5.2. Jeśli A jest macierzą idempotentną (A 2 = A) o wymiarach n n rzędu r, to X AX χ 2 r. Jeśli A, A 2 są macierzami idempotentnymi oraz A A 2 = 0, to zmienne X A X i X A 2 X są niezależne. Parametry: EX = n, D 2 X = 2n. 5. Rozkład t-studenta. Jeśli X N(0, ) oraz Y χ 2 n oraz X i Y są niezależne, to Z = X Y/n ma rozkład t z n stopniami swobody, co oznaczamy Z t n. Rozkład ten ma gęstość: ( ) (n+)/2 Γ((n + )/2) + x2. nπγ(n/2) n Dla n = rozkład t-studenta jest rozkładem Cauchy ego o gęstości π( + x 2 ). Możemy również rozważać bardziej ogólną jego postać z gęstością: h π(h 2 + (x m) 2 ). Dla n rozkład t-studenta zbiega do rozkładu normalnego. Parametry: przy n stopniach swobody istnieją momenty rzędu mniejszego niż n.

5.2 Rozkład F-Snedecora. Jeśli Y χ 2 n, Y 2 χ 2 n 2 oraz Y i Y 2 są niezależne, to zmienna F = Y /n Y 2 /n 2 ma rozkład F z n i n 2 stopniami swobody: Z F n,n 2. 6 Parametry rozkładów Ustalmy przestrzeń probabilistyczną (Ω, F, P). Definicja 6.. O zmiennej losowej X mówimy, że jest całkowalna, jeśli skończona jest całka X(ω) dp(ω). Ω Definicja 6.2. Wartością średnią (oczekiwaną, przeciętną) całkowalnej zmiennej losowej X nazywamy liczbę E(X) = X dp. Wartością oczekiwaną zmiennej losowej X = (X,..., X n ) o wartościach w R n nazywamy wektor o ile wszystkie współrzędne mają wartość średnią. Ω E(X) = (EX,..., EX n ), Jeśli zmienna losowa nie jest całkowalna, to nie ma wartości oczekiwanej. Twierdzenie 6.3. Załóżmy, że wartości oczekiwane EX i EY istnieją. Wtedy Jeśli X 0, to EX 0; EX E X ; Dla a, b R istnieje wartość średnia zmiennej ax + by oraz E(aX + by ) = aex + bey. Twierdzenie 6.4. Niech ϕ: R n R będzie funkcją borelowską, a X zmienną losową o wartościach w R n. Wtedy Eϕ(X) = ϕ(x) dµ X (x), R n przy czym całkowalność jednej ze stron implikuje całkowalność drugiej i rowność całek. Wniosek 6.5. Jeśli zmienna losowa X ma rozkład dyskretny {(x i, p i ) i I }, to wartość oczekiwana istnieje wtedy i tylko wtedy, gdy zbieżny jest szereg i I ϕ(x i) p i i wyraża się wzorem Eϕ(X) = i I ϕ(x i )p i. Wniosek 6.6. Jeśli zmienna losowa X o wartościach w R n ma rozkład ciągły o gęstości g, a funkcja ϕ: R n R jest borelowska, to Eϕ(X) = ϕ(x)g(x) dx, R n przy czym całkowalność jednej ze stron implikuje całkowalność drugiej i równość całek. Twierdzenie 6.7. Jeśli X jest nieujemną zmienną losową, to zachodzi wzór: EX = 0 P(X > s) ds. Definicja 6.8. Jeśli E(X EX) 2 <, to tę liczbę nazywamy wariancją zmiennej losowej X i oznaczamy D 2 X. Twierdzenie 6.9. Jeśli X jest zmienną losową dla której EX 2 <, to istnieje D 2 X oraz D 2 X = E(X 2 ) E 2 X, D 2 (cx) = c 2 D 2 X, D 2 (X + a) = D 2 X,

D 2 X 0, natomiast D 2 X = 0 wtedy i tylko wtedy, gdy X jest stała. Zauważmy, że jeśli zmienna losowa X ma wartość oczekiwaną µ = EX oraz wariancję σ 2 = D 2 X, to zmienna Y = X EX ma parametry: σ EY = EX µ σ 2 = 0, D 2 Y = D2 (X µ) σ 2 = D2 X σ 2 =. Zmienną o takich własnościach nazywamy zmienną losową standaryzowaną, a transformację polegającą na odjęciu wartości oczekiwanej i podzieleniu przez odchylenie standardowe standaryzacją. Pierwiastek z wariancji nazywamy odchyleniem standardowym: σ(x) = D 2 X. Liczbę m k = E(X k ) nazywamy momentem zwykłym rzędu k zmiennej losowej X. Liczbę µ k = E(X m ) k = E(X EX) k nazywamy momentem centralnym rzędu k zmiennej losowej X. Współczynnik asymetrii: α 3 = µ 3 /σ 3. Kurtoza (współczynnik spłaszczenia): α 4 = (µ 4 /σ 4 3). Definicja 6.0. Medianą zmiennej losowej X nazywamy każdą taką liczbę q, która spełnia nierówności P(X q) 2 P(X q) 2, i oznaczamy Me(X). Zmienna losowa X ma rozkład: P(X = 0) = P(X = ) = 4, P(X = 2) = 2. Medianą jest każdy punkt przedziału [, 2]. Wartość przeciętna to E(X) = 0 4 + 4 + 2 2 = 5 4. Definicja 6.. Kwantylem rzędu p (0 < p < ) zmiennej losowej X o dystrybuancie F nazywamy każdą liczbę q p spełniającą zależności F (q p ) p F (q p ). Mediana jest kwantylem rzędu /2. Twierdzenie 6.2 (Nierówność Schwartza). Jeśli EX 2 <, EY 2 <, to (E XY ) 2 E(X 2 ) E(Y 2 ). Dowód. Zauważmy, że 2 ab a 2 + b 2, weźmy a = X/ EX 2, b = Y/ EY 2, podstawmy i obłóżmy wartością oczekiwaną. Twierdzenie 6.3 (Nierówność Jensena). Niech E X < oraz g będzie taką funkcją wypukłą, że E g(x) <. Wówczas g(ex) Eg(X). Definicja 6.4. Kowariancją zmiennych losowych X i Y, posiadających wariancję, nazywamy wielkość cov(x, Y ) = E(X EX)(Y EY ). Mamy cov(x, Y ) = E(XY Y EX XEY + EXEY ) = E(XY ) E(Y )E(X) E(X)E(Y ) + E(X)E(Y ) = E(XY ) E(X)E(Y ). Jeśli cov(x, Y ) = 0, to zmienne losowe nazywamy nieskorelowanymi. Na mocy nierówności Schwartza mamy cov(x, Y ) D 2 (X)D 2 (Y ), przy czym równość zachodzi, gdy zmienne losowe X i Y są związane deterministyczną zależnością linową, tzn. ax + by = c, gdzie a 2 + b 2 > 0. Wynika stąd, że współczynnik korelacji zdefiniowany jako ρ(x, Y ) = cov(x, Y ) D2 (X)D 2 (Y ) ma własność ρ(x, Y ) oraz ρ(x, Y ) = tylko dla zmiennych liniowo zależnych. Twierdzenie 6.5. Jeśli zmienne losowe X,..., X n mają wariancję, to istnieje wariancja sumy i D 2 (X + + X n ) = D 2 X i + 2 cov(x i, X j ). i= i<j n

Dowód. D 2 (X + + X n ) = E(X + + X n ) 2 (EX + + EX n ) 2 = E Xi 2 + 2 X i X j (EX i ) 2 + 2 = = i= i<j n ( EX 2 i (EX i ) 2) + 2 i= D 2 X i + 2 i= i<j n i<j n cov(x i, X j ). i= i<j n (E(X i X j ) EX i EX j ) EX i EX j Wniosek 6.6. Jeśli zmienne losowe X,..., X n mają wariancję i są parami nieskorelowane, to D 2 (X + + X n ) = D 2 X i. Definicja 6.7. Jeśli D 2 X i istnieje dla każdego i =,..., n, to macierz Q X = [cov(x i, X j )] n i,j= nazywamy macierzą kowariancji wektora losowego X = (X,..., X n ). Macierz kowariacji jest symetryczna oraz nieujemnie określona: dla dowolnego x R n mamy x T Qx = i= x i x j cov(x i, X j ) 0. i,j= Jeśli rząd rank(q) = k < n, to wektor X przyjmuje wartości w pewnej k-wymiarowej podprzestrzeni. Twierdzenie 6.8 (Nierówność Czebyszewa). Niech X będzie nieujemną zmienną losową. Wtedy dla dowolnego ε > 0 Dowód. EX = Ω X dp X dp εp(x ε). {X ε} P(X ε) EX ε. Twierdzenie 6.9 (Uogólniona nierówność Czebyszewa). Niech g będzie nieujemną funkcją niemalejącą. Wtedy dla dowolnego ε > 0 P( X ε) Eg(X) g(ε). Dowód. Eg(X) g(x) dp g(ε)p( X ε). { X ε} Wniosek 6.20 (Nierówność Markowa). Dla p > 0 i dowolnego ε > 0 P( X ε) E X p ε p. Wniosek 6.2 (Nierówność Czebyszewa-Bienaymé). Jeśli zmienna losowa X ma skończoną wariancję, to dla dowolnego ε > 0 P( X EX ε) D2 X ε 2. 7 Niezależność zmiennych losowych Ustalmy przestrzeń probabilistyczną (Ω, F, P). Definicja 7.. Zmienne losowe X, X 2,..., X n o wartościach w R, określone na przestrzeni (Ω, F, P) nazywamy niezależnymi, gdy dla każdego ciągu zbiorów borelowskich B, B 2,..., B n zachodzi równość P(X B, X 2 B 2,..., X n B n ) = P(X B )P(X 2 B 2 ) P(X n B n ). Inaczej można wypowiedzieć powyższą równość w języku rozkładów zmiennych X i : µ (X,X 2,...,X n)(b B 2 B n ) = µ X (B )µ X2 (B 2 ) µ Xn (B n ), co oznacza, że dla zmiennych niezależnych rozkład łączny jest wyznaczony przez rozkłady brzegowe. Jeszcze inaczej możemy powiedzieć, że zmienne są niezależne, jeśli niezależne są σ-ciała generowane przez te zmienne. Oczywiste jest ponadto następujące twierdzenie.

Twierdzenie 7.2. Zmienne losowe X, X 2,..., X n są niezależne wtedy i tylko wtedy, gdy dla wszystkich t, t 2,..., t n R F (X,...,X n)(t,..., t n ) = F X (t ) F Xn (t n ). Przykład 7.3. Niech X,..., X n będą niezależnymi zmiennymi losowymi. Znaleźć rozkład zmiennych Y = max(x,..., X n ), Z = min(x,..., X n ). Mamy F Y (t) = P(Y t) = P(max(X,..., X n ) t) = P(X t,..., X n t) = F (t) F n (t), F Z (t) = P(Z t) = P(Z > t) = P(min(X,..., X n ) > t) = P(X > t,..., X n > t) = = P(X > t)p(x 2 > t) P(X n > t) = ( F (t)) ( F n (t)). Twierdzenie 7.4. Zmienne losowe X,..., X n o rozkładach dyskretnych są niezależne wtedy i tylko wtedy, gdy dla każdego ciągu x,..., x n, gdzie x i jest punktem skokowym zmiennej X i, i =,..., n, P(X = x,..., X n = x n ) = P(X = x ) P(X n = x n ). Twierdzenie 7.5. Zmienne losowe X,..., X n o rozkładach ciągłych z gęstościami g,..., g n, są niezależne wtedy i tylko wtedy, gdy wektor (X,..., X n ) ma rozkład ciągły z gęstością g(x,..., x n ) = g (x ) g n (x n ). Definicja 7.6. Zmienne losowe (X i ) i I określone na tej samej przestrzeni nazywamy niezależnymi, gdy dla każdego skończonego podzbioru J I zmienne (X i ) i J są niezależne. Twierdzenie 7.7. Załóżmy, że zmienne losowe X,, X,2,..., X,k, X 2,,..., X 2,k2,..., X n,,..., X n,kn są niezależne. Wówczas zmienne losowe Y j = ϕ j (X j,,..., X j,kj ), j =, 2,..., n, gdzie ϕ j są takimi funkcjami borelowskimi, że zmienne Y j są dobrze zdefiniowane, są niezależne. Twierdzenie 7.8. Niech X,..., X n będą zmiennymi losowymi, które maja wartość oczekiwaną. Wtedy istnieje wartość oczekiwana iloczynu X X 2 X n oraz E(X X 2 X n ) = E(X )E(X 2 ) E(X n ). Uwaga 7.9.. Powyższe twierdzenie nie jest prawdziwe dla ciągów nieskończonych. 2. Z powyższego twierdzenia wynika, że jeśli zmienne X i X 2 są niezależne, to są również nieskorelowane: cov(x, X 2 ) = E(X X 2 ) E(X )E(X 2 ) = E(X )E(X 2 ) E(X )E(X 2 ) = 0. Niech X, Y będą niezależnymi zmiennymi losowymi oraz B B(R). Wówczas µ X+Y (B) = P(X + Y B) = P((X, Y ) {(x, y) R 2 : x + y B}) = {x+y B} (x, y)µ (X,Y ) (dx, dy) = {x+y B} (x, y)µ X (dx)µ Y (dy) R 2 R 2 [ ] = B y (x)µ X (dx) µ Y (dy) = µ X (B y)µ Y (dy) = (µ X µ Y )(B). Miarę µ X µ Y nazywamy splotem rozkładów µ X i µ Y. Jeśli rozkłady te mają gęstości g X i g Y odpowiednio, to zmienna X + Y ma gęstość (g X g Y )(u) = g X (u y)g Y (y) dy, nazywaną splotem gęstości g X i g Y. Uwaga: ponieważ X+Y = Y +X, to µ X µ Y = µ Y µ X oraz g X g Y = g Y g X. 8 Zbieżność zmiennych losowych. Twierdzenia graniczne Ustalmy przestrzeń probabilistyczną (Ω, F, P). Definicja 8.. Ciąg zmiennych losowych X, X 2,... jest zbieżny do zmiennej losowej X z prawdopodobieństwem (prawie na pewno, prawie wszędzie), jeśli ( ) P {ω : lim X n(ω) = X(ω)} =. n

Definicja 8.2. Ciąg zmiennych losowych X, X 2,... jest zbieżny do zmiennej losowej X według prawdopodobieństwa (stochastycznie, według miary), jeśli dla każdego ε > 0 lim P ({ω : X n(ω) = X(ω) < ε}) =. n (lub równoważnie lim n P ({ω : X n (ω) = X(ω) ε}) = 0). Definicja 8.3. Ciąg zmiennych losowych X, X 2,... jest zbieżny do zmiennej losowej X średniokwadratowo (w L 2 ), jeśli lim n E( X n X 2 ) = 0. Definicja 8.4. Mówimy, że ciąg dystrybuant F, F 2,... jest słabo zbieżny do dystrybuanty F, jeśli lim n F n (x) = F (x) dla każdego x będącego punktem ciągłości dystrybuanty F. Jeśli ciąg dystrybuant (F n ) zmiennych losowych (X n ) jest zbieżny słabo do dystrybuanty F zmiennej losowej X, to mówimy, że ciąg (X n ) zbiega według dystrybuant (słabo, w sensie słabym) do zmiennej losowej X. Przykład 8.5. Rozważmy przestrzeń Ω = [0, ) z rozkładem jednostajnym. Przyjmujemy {, ω [ k X kn = n, k+ n ), 0, ω [ k n, k+ n ), k = 0,..., n, n =, 2,... Zmienne losowe X kn mają rozkłady dwupunktowe P(X kn = 0) = n n, P(X kn = ) = n, a stąd dla dowolnego ε > 0 lim P( X kn 0 > ε) = lim n n n = 0, zatem ciąg X 0, X 02, X 2, X 03, X 3, X 23,... jest zbieżny według prawdopodobieństwa do zmiennej losowej stale równej 0. Jednakże w każdym punkcie ω [0, ), dla każdego n N istnieje takie k, że X kn (ω) = oraz X jn (ω) = 0 dla j k, zatem powyższy ciąg nie jest zbieżny punktowo w żadnym punkcie. Uwaga 8.6. Jeśli ciąg X, X 2,... jest zbieżny średniokwadratowo do zmiennej losowej X, to jest także zbieżny według prawdopodobieństwa do X. Jeśli ciąg X, X 2,... jest zbieżny do z prawdopodobieństwem do zmiennej losowej X, to jest także zbieżny według prawdopodobieństwa do X. Jeśli ciąg X, X 2,... jest zbieżny według prawdopodobieństwa do zmiennej losowej X, to ciąg dystrybuant F X, F X2,... zmiennych losowych X, X 2,... jest słabo zbieżny do dystrybuanty F X zmiennej losowej X. Przykład 8.7. Niech (X n ) będzie ciągiem niezależnych zmiennych losowych o wartościach oczekiwanych m oraz wariancjach σ 2. Wówczas ciąg n n k= (X k m) 2 jest zbieżny średniokwadratowo do 0. Definicja 8.8. Mówimy, że ciąg całkowalnych zmiennych losowych X, X 2,... spełnia słabe prawo wielkich liczb (SPWL), jeśli ( ) ε>0 lim P n n (X k E(X k )) ε = 0. k= Twierdzenie 8.9 (SPWL Czebyszewa-Markowa). Jeżeli (X n ) jest ciągiem zmiennych losowych całkowalnych z kwadratem oraz lim n n D 2 ( n 2 k= X k) = 0, to ciąg ten spełnia SPWL. Dowód. Dla dowolnego ε > 0 mamy ( ) ( ) P n (X k E(X k ) ε = P (X k E(X k ) nε k= k= D2 ( n k= X k) n 2 ε 2 0. Definicja 8.0. Mówimy, że ciąg zmiennych losowych X, X 2,... spełnia mocne prawo wielkich liczb (MPWL), jeśli lim (X k E(X k )) = 0 p.n. n n k= Twierdzenie 8. (Kryterium Kołomogorowa). Niech (X n ) n N będzie ciągiem niezależnych zmiennych losowych całkowalnych z kwadratem. Jeżeli n= <, to ciąg (X n ) spełnia MPWL. D 2 X n n 2

Twierdzenie 8.2 (MPWL Kołomogorowa). Niech (X n ) n N będzie ciągiem niezależnych zmiennych losowych o tym samym rozkładzie. Jeżeli E X <, to ciąg (X n ) spełnia MPWL, w szczególności lim n n X k = EX p.n. k= Twierdzenie 8.3 (Centralne Twierdzenie Graniczne Lindeberga-Levy ego). Jeśli (X n ) n N jest ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie całkowalnych z kwadratem, to ( n lim P k= X ) k nex x = x e 2 t2 dt. n nd2 X 2π Inaczej mówiąc, jeśli przyjmiemy Y n = n k= X k nex nd2 X, to ciąg dystrybuant (F Yn ) zmiennych losowych (Y n ) jest zbieżny słabo do dystrybuanty rozkładu normalnego standardowego. Wniosek 8.4 (Twierdzenie Moivre a-laplace a). Niech (X n ) n N będą próbami Bernoulliego z prawdopodobieństwem sukcesu p. Wtedy ( n lim P k= X ) k np x = x e 2 t2 dt. n npq 2π Twierdzenie 8.5 (CTG Lapunowa). Niech (X n ) n N będzie ciągiem niezależnych zmiennych losowych i niech m n = E(X n ), σn 2 = D 2 (X n ), b n = E( X n m n 3 ), C n = σ + + σ n, B n = 3 b + + b n, U n = (X k m k ), F n (u) = P(U n < u). C n Jeśli lim n B n C n = 0, to dla każdego u k= lim F n(u) = u e 2 t2 dt. n 2π