STATYSTYKA MATEMATYCZNA

Podobne dokumenty
STATYSTYKA. Rafał Kucharski. Uniwersytet Ekonomiczny w Katowicach 2015/16 ROND, Finanse i Rachunkowość, rok 2

Przestrzeń probabilistyczna

PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA

Szkice do zajęć z Przedmiotu Wyrównawczego

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

5 Przegląd najważniejszych rozkładów

Wykład 3 Jednowymiarowe zmienne losowe

WYKŁAD 2. Zdarzenia losowe i prawdopodobieństwo Zmienna losowa i jej rozkłady

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty

Rachunek prawdopodobieństwa i statystyka

Prawdopodobieństwo i statystyka

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa

Elementy Rachunek prawdopodobieństwa

Prawdopodobieństwo i statystyka

1 Elementy kombinatoryki i teorii prawdopodobieństwa

WSTĘP. Tematy: Regresja liniowa: model regresji liniowej, estymacja nieznanych parametrów. Wykład:30godz., ćwiczenia:15godz., laboratorium:30godz.

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Rozkłady prawdopodobieństwa zmiennych losowych

Jednowymiarowa zmienna losowa

Wykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa

Rachunek Prawdopodobieństwa i Statystyka

RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3.

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014

Statystyka i eksploracja danych

Statystyka. Magdalena Jakubek. kwiecień 2017

Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału

PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA. Piotr Wiącek

Temat: Zmienna losowa. Rozkład skokowy. Rozkład ciągły. Kody kolorów: Ŝółty nowe pojęcie pomarańczowy uwaga. Anna Rajfura, Matematyka

Zestaw 2: Zmienne losowe. 0, x < 1, 2, 2 x, 1 1 x, 1 x, F 9 (x) =

Rozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej

4,5. Dyskretne zmienne losowe (17.03; 31.03)

Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu.

Prawa wielkich liczb, centralne twierdzenia graniczne

Dyskretne zmienne losowe

Rozkłady i ich dystrybuanty 16 marca F X (t) = P (X < t) 0, gdy t 0, F X (t) = 1, gdy t > c, 0, gdy t x 1, 1, gdy t > x 2,

Zmienne losowe, statystyki próbkowe. Wrocław, 2 marca 2015

Rachunek prawdopodobieństwa

Wykład 2 Zmienne losowe i ich rozkłady

Prawdopodobieństwo i statystyka

Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna.

P (A B) = P (A), P (B) = P (A), skąd P (A B) = P (A) P (B). P (A)

STATYSTYKA MATEMATYCZNA dla ZPM I dr inż Krzysztof Bryś wyk lad 1,2 KLASYCZNY RACHUNEK PRAWDOPODOBIEŃSTWA

12DRAP - parametry rozkładów wielowymiarowych

WYKŁAD 3. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

W2 Podstawy rachunku prawdopodobieństwa (przypomnienie)

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie

III. ZMIENNE LOSOWE JEDNOWYMIAROWE

STATYSTYKA MATEMATYCZNA. rachunek prawdopodobieństwa

Pojęcie przestrzeni probabilistycznej

Rachunek prawdopodobieństwa (Elektronika, studia niestacjonarne) Wykład 3

Statystyka matematyczna dla leśników

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych

Statystyka i eksploracja danych

Najczęściej spotykane rozkłady dyskretne:

Literatura. Leitner R., Zacharski J., Zarys matematyki wyŝszej dla studentów, cz. III.

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe

Matematyka z el. statystyki, # 3 /Geodezja i kartografia II/

STYSTYSTYKA dla ZOM II dr inż Krzysztof Bryś Wykad 1

Statystyka matematyczna. Wykład III. Estymacja przedziałowa

Zmienna losowa. Rozkład skokowy

Biostatystyka, # 3 /Weterynaria I/

Rozkłady prawdopodobieństwa

II WYKŁAD STATYSTYKA. 12/03/2014 B8 sala 0.10B Godz. 15:15

Rachunek prawdopodobieństwa i statystyka

Prawdopodobieństwo. Prawdopodobieństwo. Jacek Kłopotowski. Katedra Matematyki i Ekonomii Matematycznej SGH. 16 października 2018

Statystyka. Wydział Zarządzania Uniwersytetu Łódzkiego

Zmienne losowe. Rozkład prawdopodobieństwa i dystrybuanta. Wartość oczekiwana i wariancja zmiennej losowej

1.1 Wstęp Literatura... 1

Statystyka w analizie i planowaniu eksperymentu

Rozkład normalny Parametry rozkładu zmiennej losowej Zmienne losowe wielowymiarowe

Rozkłady statystyk z próby

STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA

Statystyka Opisowa z Demografią oraz Biostatystyka. Zmienne losowe. Aleksander Denisiuk. denisjuk@euh-e.edu.pl

PRAWDOPODOBIEŃSTWO. ZMIENNA LOSOWA. TYPY ROZKŁADÓW

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I (SGH)

Wartość oczekiwana Mediana i dominanta Wariancja Nierówności związane z momentami. Momenty zmiennych losowych Momenty wektorów losowych

W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych:

Statystyka matematyczna

Centralne twierdzenie graniczne

Zmienne losowe ciągłe i ich rozkłady

Laboratorium nr 7. Zmienne losowe typu skokowego.

Elementy rachunku prawdopodobieństwa (M. Skośkiewicz, A. Siejka, K. Walczak, A. Szpakowska)

Wykład 3 Momenty zmiennych losowych.

Wykład 4, 5 i 6. Elementy rachunku prawdopodobieństwa i kombinatoryki w fizyce statystycznej

Seria 1. Zbieżność rozkładów

Statystyka w analizie i planowaniu eksperymentu

Wykład 3 Momenty zmiennych losowych.

Metody probabilistyczne opracowane notatki 1. Zdefiniuj zmienną losową, rozkład prawdopodobieństwa. Przy jakich założeniach funkcje: F(x) = sin(x),

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe

Statystyka matematyczna

Wykład 13. Podstawowe pojęcia rachunku prawdopodobieństwa

Podstawy nauk przyrodniczych Matematyka

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Zmienne losowe ciągłe i ich rozkłady

Metody probabilistyczne

Statystyka matematyczna

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne

Matematyka stosowana i metody numeryczne

MATEMATYKA Z ELEMENTAMI STATYSTYKI LABORATORIUM KOMPUTEROWE DLA II ROKU KIERUNKU ZARZĄDZANIE I INŻYNIERIA PRODUKCJI ZESTAWY ZADAŃ

Zmienne losowe. Statystyka w 3

Transkrypt:

STATYSTYKA MATEMATYCZNA Rafał Kucharski Uniwersytet Ekonomiczny w Katowicach 08/9 Zarządzanie e-mail: www: konsultacje: rafal.kucharski@ue.katowice.pl http://web.ue.katowice.pl/rkucharski/ Piątki, 5:0-6:0, 30A ocena: zaliczenie 60%, egzamin 0% teoria + zadania (7 lutego 09) Literatura: Kończak G., Trzpiot G. Metody statystyczne z wykorzystaniem programów komputerowych, Wydawnictwo AE w Katowicach, Katowice 00. Kończak G., Trzpiot G. Statystyka opisowa i matematyczna z arkuszem kalkulacyjnym EXCEL, Wydawnictwo AE w Katowicach, Katowice. Aczel A. D., Statystyka w zarządzaniu, PWN, Warszawa 000. Jóźwiak J., Podgórski J., Statystyka od podstaw, PWE, Warszawa (dużo wydań). Fisz M., Rachunek prawdopodobieństwa i statystyka matematyczna, PWN Warszawa, 969. Gajek L., Kałuszka M., Wnioskowanie statystyczne, WNT, Warszawa 998. Plucińska A., Pluciński E., Probabilistyka: Rachunek Prawdopodobieństwa, Statystyka Matematyczna, Procesy Stochastyczne, WNT Warszawa 000. Plan wykładu: Elementy rachunku prawdopodobieństwa Podstawy teorii estymacji Weryfikacja hipotez (testy statystyczne)

Informacje wstępne. Logika. Teoria mnogości (zbiorów) 0. Wybrane litery alfabetu greckiego α alfa β beta Γ γ gamma δ delta ɛ, ε epsilon ζ dzeta η eta Θ θ, ϑ teta κ kappa Λ λ lambda µ mi ν ni Ξ ξ ksi Π π pi ρ, ϱ ro Σ σ, ς sigma τ tau Φ φ, ϕ fi χ chi Ψ ψ psi Ω ω omega 0. Zbiory liczbowe. Symbole logiczne. Notacja sigmowa N zbiór liczb naturalnych: 0,,, 3,... R zbiór liczb rzeczywistych: (, ) iloczyn logiczny, koniunkcja, i suma logiczna, alternatywa, lub implikacja, wynikanie, p q jeśli p, to q równoważność, wtedy i tylko wtedy negacja, zaprzeczenie, nie n a i := a + a + + a n, n a i := a a a n. 0.3 Zbiory. Operacje na zbiorach jest elementem, należy do, np. x A, nie jest elementem, nie należy do, np. x A. zbiór pusty A A B B A B przekrój (część wspólna) zbiorów A i B: x A B x A x B A B suma (mnogościowa) zbiorów A i B: x A B x A x B A \ B różnica zbioru A i B: A B x A \ B x A x B Dla większej ilości zbiorów: n A i := A A A n, n A i := A A A n.

zawieranie zbiorów (czytamy: A jest podzbiorem B, A zawiera się w B, B zawiera A): A B x (x A x B), Zbiory A i B są rozłączne: A B =. A B A, P(A) rodzina wszystkich podzbiorów zbioru A, potęga zbioru A. 0. Elementy kombinatoryki permutacje, kombinacje Permutacją (bez powtórzeń) n-elementowego zbioru Y nazywamy każdą funkcję f odwzorowującą zbiór {,,..., n} na zbiór Y. Liczba permutacji zbioru n-elementowego jest równa n! = 3... n, n, 0! =. Kombinacją k-elementową (bez powtórzeń) zbioru Y złożonego z n elementów, nazywamy dowolny k-elementowy podzbiór zbioru Y. Liczba k-elementowych kombinacji zbioru n- elementowego jest równa ( ) n = k (symbol Newtona, współczynnik dwumianowy). n!, 0 k n, k!(n k)!

Rachunek prawdopodobieństwa. Przestrzeń probabilistyczna: (Ω, F, P) (Kołmogorow, 933) ω zdarzenie elementarne Ω zbiór (wszystkich) zdarzeń elementarnych, przestrzeń zdarzeń elementarnych A Ω, A F zdarzenie losowe F σ-ciało zdarzeń: rodzina podzbiorów Ω zamknięta na przeliczalne operacje mnogościowe: Ω F A, B F A \ B F A, A, F A i F P prawdopodobieństwo, miara probabilistyczna, przeliczalnie addytywna, nieujemna miara unormowana : P: F [0, ], P(Ω) = Jeżeli A, A, F, jest ciągiem zdarzeń parami rozłącznych: A i A j = dla i j, to ( ) P A i = P(A i ) { Przykład (Rzut monetą). Ω = F = { { } { } {,,,,, }}, ({ }) ({ }) P( ) = 0, P = p, P = p, P(Ω) =. p [0, ], a monetę nazywamy sprawiedliwą, jeśli p =. Przykład (Rzut kością do gry). }, Ω = {,,,,, }, F = Ω ( 6 = 6 podzbiory), P({ })=P({ })=P({ })=P({ })=P({ })=P({ })= 6. Klasyczna definicja prawdopodobieństwa Jeśli zbiór Ω jest skończony (Ω = {ω, ω,..., ω n }, F = Ω ) oraz wszystkie zdarzenia elementarne są jednakowo prawdopodobne, to dla dowolnego A Ω: P(A) = #A #Ω, gdzie #A oznacza liczbę elementów zbioru A (liczba zdarzeń elementarnych sprzyjających zdarzeniu A). Jeśli zbiór Ω jest przeliczalny: Ω = {ω, ω,... }, F = Ω, to P(A) = i A p i, gdzie p i = P({ω i }).

. Własności prawdopodobieństwa A B Jeśli A i B wykluczają się (są rozłączne): A B = P(A B) = P(A) + P(B) (Addytywność) Dla A, A,..., A n, parami rozłącznych: ( n ) n (i j A i A j = ) = P A i = P(A i ) Dla dowolnych zbiorów mamy P(A B) = P(A) + P(B) P(A B). A B A \ B A B B \ A A B A B = + + = + Ω Zdarzenie pewne: P(Ω) = Zdarzenie niemożliwe: P( ) = 0 Jeśli A B, to P(B \ A) = P(B) P(A). B \ A = B A A (B \ A) =, B = A (B \ A), więc P(B) = P(A) + P(B \ A). Jeśli A B, to P(A) P(B). Dla każdego A, 0 P(A). A A Zdarzenie przeciwne do A: A = A := Ω \ A P(A ) = P(Ω \ A) = P(Ω) P(A) = P(A)..3 Prawdopodobieństwo warunkowe, niezależność zdarzeń Jeśli P(B) > 0, to prawdopodobieństwem warunkowym zdarzenia A pod warunkiem (zajścia) zdarzenia B nazywamy liczbę P(A B) = P(A B). P(B) Zauważmy, że P(A B) = P(A B) P(B). Zdarzenia A i B nazywamy niezależnymi, jeżeli P(A B) = P(A) P(B). Jeśli zdarzenia A i B są niezależne oraz P(B) > 0, to P(A B) = P(A). Przykład. Wybieramy jedną rodzinę spośród rodzin z dwojgiem dzieci. Jakie jest prawdopodobieństwo zdarzenia, że wybierzemy rodzinę z dwoma chłopcami, jeśli wiemy, że w tej rodzinie: a) starsze dziecko jest chłopcem, b) jest co najmniej jeden chłopiec?

Rozwiązanie. Przyjmujemy upraszczające założenia, że prawdopodobieństwa urodzenia chłopca i dziewczynki jest takie samo, oraz płci pierwszego i drugiego dziecka są niezależne. Stąd Ω = {(c, c), (d, d), (c, d), (d, c)} jest zbiorem równo prawdopodobnych par, gdzie pierwszy element oznacza płać młodszego dziecka, drugi starszego. W punkcie a) P({(c, c)} {(c, c), (d, c)}) = =, w punkcie b) P({(c, c)} {(c, c), (d, c), (c, d)}) =. Wzór na prawdopodobieństwo całkowite. Wzór Bayesa 3 = 3. Jeśli zbiory B,..., B n stanowią rozbicie zbioru Ω, to znaczy zbiory te są parami rozłączne oraz Ω = B B n (zupełny układ zdarzeń), to dla dowolnego zdarzenia A zachodzi równość (wzór na prawdopodobieństwo całkowite) Uzasadnienie: n P(A) = P(A B i ) P(B i ). P(A) = P(A (B B n )) = P((A B ) (A B n )) = = P(A B ) + + P(A B n ) = P(A B )P(B ) + + P(A B n )P(B n ). Dla n = : jeśli Ω = B B, B B =, to P(A) = P(A B ) P(B ) + P(A B ) P(B ). Jeśli zbiory B,..., B n stanowią rozbicie zbioru Ω oraz P(A) > 0, to dla dowolnego j {,..., n} mamy (wzór Bayesa) P(B j A) = P(A B j) P(B j ) P(A) = P(A B j) P(B j ) n P(A B i ) P(B i ). Liczby P(B j ) nazywamy tu prawdopodobieństwami a priori (z góry, z założenia, przed doświadczeniem), zaś P(B j A) prawdopodobieństwami a posteriori (po fakcie, po doświadczeniu). Przykład. Mamy dwie urny. Pierwsza urna zawiera kule białe i 8 kul czarnych. Druga urna zawiera 8 kul białych i kule czarne. Z wybranej losowo urny wyciągamy kulę. Jakie jest prawdopodobieństwo, że losowaliśmy z urny pierwszej, jeżeli wylosowana kula jest biała? Rozwiązanie. A wylosowanie kuli białej B losujemy z urny pierwszej, B losujemy z urny drugiej Mamy P(B ) = = P(B ), P(A B ) = 0, P(A B ) = 8 0, zatem P(B A) = P(A B )P(B ) P(A B )P(B ) + P(A B )P(B ) = 0 0 + 8 0 = 0 = 5.

.5 Zmienna losowa Ustalmy przestrzeń probabilistyczną (Ω, F, P). Zmienną losową (o wartościach rzeczywistych) nazywamy dowolną funkcję X : Ω R spełniającą warunek mierzalności: X ((, t]) = {ω Ω : X(ω) t} = {X t} F dla t R. Jeśli F = Ω, to każda funkcja jest mierzalna. Rozkładem prawdopodobieństwa nazywamy każdą miarę probabilistyczną określoną na (R, B(R)), gdzie B(R) jest najmniejszym σ-ciałem zawierającym wszystkie przedziały (σciało borelowskie), Rozkładem zmiennej losowej X nazywamy rozkład prawdopodobieństwa µ X określony dla B R wzorem: µ X (B) := P(X (B)) = P({ω Ω : X(ω) B}) = P(X B). Dzięki rozkładowi zmiennej losowej X mamy przestrzeń probabilistyczną: (R, B(R), µ X )..6 Dystrybuanta Dystrybuantą rozkładu prawdopodobieństwa µ na R nazywamy funkcję F µ : R R daną wzorem F µ (t) := µ((, t]). Jeśli µ X jest rozkładem zmiennej losowej X, to dystrybuantę F µx będziemy nazywać dystrybuantą zmiennej losowej X i oznaczać F X (lub po prostu F ). Wtedy F X (t) := µ X ((, t]) = P(X (, t]) = P(X t). Funkcja F : R R jest dystrybuantą (pewnego rozkładu) wtedy i tylko wtedy, gdy: F jest niemalejąca, lim t F (t) = 0, lim t + F (t) =, F jest prawostronnie ciągła. Jeśli F jest dystrybuantą zmiennej losowej X, to dla x, y R mamy P(X > x) = F (x), P(x < X y) = F (y) F (x), P(X < x) = F (x ), P(X x) = F (x ), P(X = x) = F (x) F (x ), gdzie F (x ) = lim y x F (y) oznacza granicę lewostronną F w punkcie x.

Przykład. Rzucamy razy sprawiedliwą monetą (kolejne rzuty są niezależne) Ω = {OO, OR, RO, RR}, P({OO}) = P({OR}) = P({RO}) = P({RR}) =. Niech X oznacza liczbę wyrzuconych orłów: 0, ω = RR, X(ω) =, ω = RO lub ω = OR, ω = OO. µ X ({0}) = P(X = 0) =, µ X({}) = P(X = ) =, µ X({}) = P(X = ) =, 0, t < 0, F X (t) =, 0 t <, 3, t <,, t..6. Zmienna losowa dyskretna Zmienna losowa X ma rozkład dyskretny (skokowy), jeśli istnieje taki przeliczalny zbiór S R, że P(X S) =. Dla x S przyjmujemy p x := P(X = x). Dla dowolnego zbioru A R mamy wówczas P(X A) = P(X = x) = x A x A S p x. W szczególności F (t) = P(X t) = {x t} p x. Dystrybuanta zmiennej dyskretnej: w punktach x S ma skoki w górę o wysokości p x, jest stała w przedziałach pomiędzy tymi punktami. Aby określić rozkład dyskretny wystarczy podać przeliczalny zbiór S = {x i : i I} i taki ciąg dodatnich liczb {p i : i I}, że i I p i = oraz przyjąć P(X = x i ) := p i. Funkcję x i p i nazywamy także funkcją prawdopodobieństwa. Jeśli S = {x,..., x n }, jest zbiorem skończonym, to rozkład zmiennej losowej X często podajemy w postaci tabeli. W przykładzie z rzutem dwoma monetami, rozkład zmiennej X opisującej liczbę wyrzuconych orłów możemy zapisać następująco: x P(X = x) 0

Dalej, jeśli wartości zmiennej losowej X są uporządkowane rosnąco, jej dystrybuantę łatwo wyznaczyć kumulując prawdopodobieństwa: 0, t < 0, F X (t) =, 0 t <, 3 = +, t <, = 3 +, t..6. Zmienna losowa ciągła Zmienna losowa X ma rozkład ciągły, jeśli ma gęstość, to znaczy istnieje taka funkcja f : R R, że P(a X b) = b a f(x) dx, [a, b] R. Funkcja f : R R jest gęstością wtedy i tylko wtedy, gdy f 0 oraz f(x) dx =. Jeśli f jest gęstością rozkładu o dystrybuancie F, to F (t) = t f(x) dx, t R. Jeśli F jest dystrybuantą rozkładu ciągłego, to f = F jest gęstością tego rozkładu..7 Wartość oczekiwana. Wariancja. Momenty Wartością oczekiwaną (średnią, przeciętną, nadzieją matematyczną) całkowalnej zmiennej losowej X nazywamy liczbę E(X) = X dp = x dµ X (x). Jeśli X ma rozkład dyskretny: P(X = x) = p x, oraz x x p x <, to Ω R E(X) = x x P(X = x) = x x p x. (suma przebiega wszystkie wartości zmiennej losowej o dodatnim prawdopodobieństwie). Jeśli X ma rozkład ciągły o gęstości f, oraz x f(x) dx <, to E(X) = x f(x) dx. Jeśli h: R R oraz E(h(X)) istnieje, to E(h(X)) = x h(x)p x dla zmiennej o rozkładzie dyskretnym oraz dla zmiennej o rozkładzie ciągłym. E(h(X)) = h(x)f(x) dx, Niech X, Y będą zmiennymi losowymi o skończonych wartościach oczekiwanych. Wtedy Jeśli X 0, to EX 0; E(c) = c, dla c R.

E jest funkcjonałem liniowym: dla a, b R W szczególności E(X E(X)) = 0. E(aX + by ) = ae(x) + be(y ). E(aX) = ae(x), E(X + Y ) = E(X) + E(Y ). Twierdzenie (Mocne Prawo Wielkich Liczb Kołmogorowa). Niech (X n ) n N będzie ciągiem niezależnych zmiennych losowych o tym samym rozkładzie. Jeżeli E(X ) = µ <, to ciąg (X n ) spełnia Mocne Prawo Wielkich Liczb, czyli z prawdopodobieństwem zachodzi n lim X k = µ. n n Jeśli E(X ) <, to wariancją zmiennej losowej X nazywamy liczbę: k= D (X) = E(X EX). W praktyce zwykle lepiej jest korzystać z wzoru: D (X) = E(X ) E (X). D (ax) = a D (X), D (X + a) = D (X) dla a R. D X 0, D X = 0 X jest stała (nielosowa). Odchylenie standardowe: σ = D(X) = D (X). Standaryzacja: jeśli E(X) = µ oraz D (X) = σ, to zmienna zestandaryzowana Y = X µ σ ma parametry: E(Y ) = E(X) µ σ = 0, D (Y ) = D (X µ) σ Moment zwykły rzędu k zmiennej losowej X: m k = E(X k ), Moment centralny rzędu k: µ k = E(X E(X)) k, Współczynnik asymetrii: α 3 = µ 3 /σ 3, Kurtoza (eksces, współczynnik spłaszczenia): α = µ /σ 3..8 Nierówności Czebyszewa/Markowa/Bienaymé Jeśli X jest nieujemną zmienną losową, to dla dowolnego ε > 0 Dla p > 0 i dowolnego ε > 0 P(X ε) EX ε. P( X ε) E X p ε p. = D (X) σ =. Jeśli zmienna losowa X ma wariancję σ i wartość oczekiwaną µ, to dla dowolnego ε > 0 w szczególności dla ε = kσ P( X µ ε) σ ε, P( X µ kσ) k.

.9 Kwantyle Kwantylem rzędu p (dla 0 < p < ) zmiennej losowej X o dystrybuancie F, nazywamy każdą liczbę q p spełniającą zależności Mediana jest kwantylem rzędu /. F (q p ) p F (q p ). Kwantyle rzędu /, / i 3/ nazywamy kwartylami. Kwantyle rzędu k/0, k =,..., 9 nazywamy decylami. Kwantyle rzędu k/00, k =,..., 99 nazywamy percentylami. 0.9 0.6 Q Me q 0.9 q 0.6.0 Niezależność zmiennych losowych Dystrybuantę pary zmiennych losowych (X, Y ) określamy wzorem F (X,Y ) (x, y) = P(X x, Y y), x, y R. Zmienne X i Y są niezależne, jeśli F (X,Y ) (x, y) = F X (x)f Y (y), x, y R. Gęstością wektora (X, Y ) nazywamy taką funkcję f : R R, że F (x, y) = x y f(t, s) ds dt. Zmienne X i Y o rozkładach ciągłych są niezależne, jeżeli f (X,Y ) (x, y) = f X (x)f Y (y), x, y R. Zmienne o rozkładach dyskretnych są niezależne, jeżeli P (X = x, Y = y) = P(X = x)p(y = y), x, y R. Jeżeli X i Y są niezależne, to E(XY ) = E(X)E(Y ).

. Kowariancja i korelacja Kowariancją zmiennych losowych X i Y, posiadających wariancję, nazywamy wielkość cov(x, Y ) = E(X E(X))(Y E(Y )). Bardziej praktyczny jest wzór: cov(x, Y ) = E(XY ) E(X)E(Y ). Jeśli cov(x, Y ) = 0, to mówimy, że zmienne losowe X i Y są nieskorelowane. Jeśli zmienne są niezależne, to są nieskorelowane. Zachodzi nierówność (Schwartza): cov(x, Y ) D (X)D (Y ). Współczynnik korelacji zmiennych losowych X i Y : ρ(x, Y ) = cov(x, Y ) D (X)D (Y ). Z nierówności Schwartza: ρ(x, Y ). Równość ρ(x, Y ) = zachodzi tylko, gdy ax + by = c dla pewnych stałych a, b, c. Jeśli X,..., X n mają wariancję, to istnieje wariancja sumy oraz n D (X + + X n ) = D X i + cov(x i, X j ). i<j n Jeśli X,..., X n mają wariancję i są parami nieskorelowane, to D (X + + X n ) =. Przegląd najważniejszych rozkładów.. Rozkład równomierny w n punktach Dla pewnych n N, x,..., x n R: n D X i. P(X = x ) = P(X = x ) = = P(X = x n ) = n. E(X) = n n x i, E(X ) = n n x i, D (X) = n x i n ( n ) n x i. Na przykład, X = liczba oczek w rzucie sześcienną kostką do gry: n = 6, x i = i, i =,... 6, E(X) = 6 = 3.5, D(X) = 35.7078.

.. Rozkład dwupunktowy P(X = a) = p, P(X = b) = p dla pewnych a, b R, p (0, ). E(X) = pa + ( p)b, E(X ) = pa + ( p)b, D (X) = pa + ( p)b p a p( p)ab ( p) b = = p( p)[a ab + b ] = p( p)(a b). W szczególności, dla a =, b = 0 otrzymujemy zmienną zero-jedynkową, na przykład dla ustalonego zdarzenia A: {, gdy zachodzi zdarzenie A, X = A = 0, gdy nie zachodzi zdarzenie A. Wówczas P(X = ) = P(A) = p, P(X = 0) = P(A ) = p, E(X) = p = E(X ), D (X) = p( p)...3 Rozkład dwumianowy (schemat Bernoulliego) W niezmiennych warunkach wykonujemy n razy doświadczenie, którego wynikiem może być zdarzenie A (sukces) lub A (porażka). Zakładamy, że dla każdego z tych n doświadczeń P(A) = p, P(A ) = p = q, 0 < p <. Zakładamy, że wyniki kolejnych doświadczeń są niezależne. Niech X oznacza liczbę sukcesów w serii n doświadczeń. Zdarzenie {X = k} oznacza, że zdarzenie A wystąpiło k razy. Zmienna losowa X ma rozkład prawdopodobieństwa ( ) n P(X = k) = p k q n k, k = 0,,..., n. k X B(n, p) X ma rozkład dwumianowy z parametrami n i p. E(X) = np, D (X) = npq = np( p). P(X = k) 0. 0.3 0. 0. 0 3 5 6 F (k) k B(6, 0.) 0.75 0 3 5 6 k

.. Rozkład Poissona Zmienna losowa X ma rozkład Poissona z parametrem λ > 0, jeśli EX = λ, D X = λ. P(X = k) = λk k! e λ, k = 0,,,... Twierdzenie Poissona: Jeśli X n B(n, p n ), n =,,... oraz lim n np n = λ > 0, to lim P(X n = k) = λk n k! e λ. P(X = k) 0.3 λ = 0. 0. k 0 3 5 6 F (k) 0.75 0 3 5 6 k..5 Rozkład jednostajny Zmienna losowa X ma rozkład jednostajny na odcinku [a, b], a, b R, a < b, co zapisujemy X U([a, b]), jeśli ma gęstość: lub równoważnie, gdy ma dystrybuantę E(X) = b a x b a dx = E (X) = b a x b a dx = D (X) = b +ab+a 3 = a +ab+b = (b a). f(x) = { b a [a,b](x) = b a dla x [a, b], 0 dla x [a, b], 0, t < a, t a F (t) =, a t < b, b a, b t. b a x b a = b a (b a) = a+b, b a x3 b 3 a = b3 a 3 3(b a) = a +ab+b 3, ( a+b ) = a +ab+b 3 a +ab+b = a +ab+b 3a 6ab 3b = f(x) F (x) a = 0, b = 0 x 0 x

..6 Rozkład normalny Zmienna losowa X ma jednowymiarowy rozkład normalny o średniej µ i wariancji σ, X N(µ, σ ), jeżeli ma gęstość E(X) = µ, D (X) = σ. ϕ µ,σ (x) = σ π e (x µ) /(σ ), x R. Jeśli µ = 0, σ =, to mówimy o standardowym rozkładzie normalnym N(0, ) o gęstości: ϕ 0, (x) = π e x /. Dystrybuanty rozkładu normalnego nie potrafimy zapisać za pomocą funkcji elementarnych korzystamy z tablic/obliczeń przybliżonych. Dystrybuantę rozkładu N(0, ) oznacza się często literą Φ. Jest to rozkład symetryczny: E((X µ) 3 ) = 0 α 3 = 0. Ponieważ E((X µ) ) = 3σ, więc jego kurtoza α = 0. f(x) µ = 0, σ = µ =, σ = µ =, σ = 3 0 3 x F (x) 3 0 3 x

f(x) µ = 0, σ = µ = 0, σ = µ = 0, σ = / 3 0 3 x F (x) 3 0 3 x Niezwykła rola rozkładu normalnego wynika z następującego twierdzenia. Twierdzenie (Centralne Twierdzenie Graniczne Lindeberga-Levy ego). Jeśli (X n ) n N jest ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie, µ = E(X ), σ = D (X ) <, to ( nk= ) lim P X k nµ x = x e t dt. n nσ π Inaczej mówiąc, jeśli przyjmiemy Y n = nk= X k nµ nσ = n n k= X k E(X k ) D (X k ), to ciąg dystrybuant (F Yn ) zmiennych losowych (Y n ) zbiega do dystrybuanty rozkładu normalnego standardowego...7 Rozkład χ Jeśli X, X,..., X n są niezależnymi zmiennymi losowymi o rozkładzie N(0, ), to zmienna losowa n Y n = Xi ma rozkład χ z n stopniami swobody, co zapisujemy Y n χ n. Rozkład ten ma gęstość: f(x) = n/ Γ(n/) xn/ e x/ (0, ) (x), gdzie Γ(x) = 0 t x e t dt jest funkcją gamma Eulera. Rozkład ten ma następującą własność: jeśli Y χ n, Z χ m oraz Y i Z są niezależne, to: E(Y n ) = n, D (Y n ) = n. Y + Z χ n+m.

..8 Rozkład t-studenta Jeśli X N(0, ) oraz Y χ n oraz X i Y są niezależne, to Z = X Y/n ma rozkład t z n stopniami swobody, co oznaczamy Z t n. Rozkład ten ma gęstość: f(x) = ( ) (n+)/ Γ((n + )/) + x. nπγ(n/) n Dla n = rozkład t-studenta jest rozkładem Cauchy ego o gęstości f(x) = π( + x ). Dla n rozkład t-studenta zbiega do rozkładu normalnego. E(Z) = 0 dla n > ; D (Z) = n/(n ) dla n >...9 Rozkład F Snedecora Jeśli Y χ n, Z χ m oraz Y i Z są niezależne, to zmienna F = Y/n Z/m ma rozkład F z n i m stopniami swobody: F F n,m. Z uwagi na trudną postać analityczną rozkładów χ, t-studenta i F Snedecora, przy korzystaniu z nich posługujemy się tablicami.