Przestrzeń probabilistyczna (Ω, Σ, P) Ω pewien niepusty zbiór Σ rodzina podzbiorów tego zbioru P funkcja określona na Σ, zwana prawdopodobieństwem.
Przestrzeń probabilistyczna (Ω, Σ, P) Ω pewien niepusty zbiór Σ rodzina podzbiorów tego zbioru P funkcja określona na Σ, zwana prawdopodobieństwem. Σ spełnia następujace warunki:, Ω Σ, A 1, A 2,... Σ A 1 A 2... Σ, A 1, A 2,... Σ A 1 A 2... Σ, A Σ Ω \ A Σ (Oznaczenie A := Ω \ A, A - zdarzenie przeciwne), A, B Σ A \ B Σ. Elementy Σ nazywamy zdarzeniami losowymi.
Przestrzeń probabilistyczna (Ω, Σ, P) Ω pewien niepusty zbiór Σ rodzina podzbiorów tego zbioru P funkcja określona na Σ, zwana prawdopodobieństwem. P spełnia natępujace warunki: P( ) = 0, P(Ω) = 1, P(A) [0, 1] dla A Σ, P(A B) = P(A) + P(B), dla A, B Σ, A B =, Jeśli A 1, A 2,... Σ, A i A j = dla i j, to P(A 1 A 2...) = P(A 1 ) + P(A 2 ) +....
Przykłady Rzut kostka. Ω = {1, 2, 3, 4, 5, 6} Σ = P(Ω) P({i}) = 1/6, dla i = 1, 2, 3, 4, 5, 6. Na przykład A = {2, 4, 6} jest zdarzeniem losowym polegajacym na wylosowaniu parzystej liczby oczek. P(A) = P({2, 4, 6}) = P({2}) + P({4}) + P({6}) = 1/6 + 1/6 + 1/6 = 1/2
Przykłady Rzut dwiema kostkami do gry. Ω = {(1, 1), (1, 2), (1, 3), (1, 4), (1, 5), (1, 6), (2, 1),..., (6, 5), (6, 6)} Σ = P(Ω) P(ω) = 1/36, dla ω Ω. Na przykład A = {(5, 5), (6, 5), (6, 6), (5, 6)} jest zdarzeniem losowym polegajacym na wylosowaniu liczby oczek nie mniejszej niż 11. P(A) = P({(5, 5), (6, 5), (6, 6), (5, 6)}) = P({(5, 5)}) + P({(5, 6)}) + P({(6, 5)}) + P({(6, 6)})) = 1/36 + 1/36 + 1/36 + 1/36 = 4/36
Prawodopodobieństwo klasyczne Ω-zbiór skończony n-elementowy. Σ = P(Ω) P({ω}) = 1/n dla ω Ω. Wtedy P(A) = card A/ card Ω = card A/n.
Inne przykłady Ω = N P({n}) = 1/2 n A-zdarzenie losowe polegajace na wylosowaniu liczby parzystej. P(A) = P({2})+P({4})+... = 1/4+1/16+... = 1/4 1 1/4 = 1/3.
Prawdopodobieństwo geometryczne Ω- pewien mierzalny podzbiór R n P(A) = pole A/pole Ω. Przykład: Jakie jest prawdopodobieństwo, że rzucajac do tarczy trafimy w "środek". Dane: tarcza okragła o promieniu 20cm, środek- koło o promieniu 5cm. P(A) = π52 π20 2
Prawdopodobieństwo warunkowe Niech (Ω, Σ, P) będzie przestrzenia probabilistyczna, A, B Σ, P(B) > 0. Prawdopodobieństwem warunowym zdarzenia A pod warunkiem zdarzenia B nazywamy P(A B) := P(A B). (1) P(B) Oznaczenie: P B (A) := P(A B). Fakt: (Ω, Σ, P B ) jest przestrzenia probabilistyczna. Ze wzoru (1) mamy P(A B)P(A B) P(B) = B(B A) P(A).
Przykład W ciemnym pokoju sa dwa pudełka: duże, do którego trafiamy z prawdopodobieństwem 3/4, i małe, do którego trafiamy z prawdopodobieństwem 1/4. W dużym pudełku sa dwie kule białe i jedna czarna, a w małym 2 czarne i jedna biała. Niech A będzie zdarzeniem losowym polegajacym na trafieniu do dużej urny, a B zdarzeniem losowym polegajacym na wyciagięciu kuli białej. Jakie jest prawdopodobieństwo, że losowano z dużego pudła, jeśli wiadomo, że wylosowano kulę biała.
c.d. Rozwiazanie. Dane: P(A) = 3/4, P(A ) = 1/4, P(B A) = 2/3, P(B A ) = 1/3. Należy obliczyć P(A B). Korzystamy ze wzoru P(A B) = P(A B) P(B). Obliczamy P(A B) = P(B A)P(A) = 2 3 3 4. P(B) = P(B A) + P(B A ) = = P(B A) P(A) + P(B A ) P(A ) = 2/3 3/4 + 1/3 1/4 = 7/12. A więc P(A B) = 1/2 7/12 = 6/7.
Wzór na prawdopodobieństwo całkowite Niech (Ω, Σ, P) będzie przestrzenia probabilistyczna. Niech A 1, A 2,... będa zdarzeniami losowymi parami rozłacznymi i takimi, że P(A 1 ) + P(A 2 ) +... = 1. Wtedy, dla dowolnego B Σ zachodzi wzór P(B) = P(B A 1 ) P(A 1 ) + P(B A 2 ) P(A 2 ) +...
Wzór Bayesa Niech (Ω, Σ, P) będzie przestrzenia probabilistyczna. Niech A 1, A 2,... będa zdarzeniami losowymi parami rozłacznymi i takimi, że P(A 1 ) + P(A 2 ) +... = 1. Wtedy, dla dowolnego B Σ zachodzi wzór P(A i B) = P(B A i ) P(A i ) P(B A 1 ) P(A 1 ) + P(B A 2 ) P(A 2 ) +...
Przykład Twierdzenia Bayesa można użyć do interpretacji rezultatów badania przy użyciu testów wykrywajacych narkotyki. Załóżmy, że przy badaniu narkomana test wypada pozytywnie w 99% przypadków, zaś przy badaniu osoby nie zażywajacej narkotyków wypada negatywnie w 99% przypadków. Pewna firma postanowiła przebadać swoich pracowników takim testem wiedzac, że 0,5% z nich to narkomani. Chcemy obliczyć prawdopodobieństwo, że osoba u której test wypadł pozytywnie rzeczywiście zażywa narkotyki.
c.d Oznaczmy następujace zdarzenia: T - dana osoba jest narkomanem N - dana osoba nie jest narkomanem + - u danej osoby test dał wynik pozytywny - - u danej osoby test dał wynik negatywny Wiemy, że: P(T ) = 0, 005, gdyż 0,5% pracowników to narkomani P(N) = 1 P(D) = 0, 995 P(+ T ) = 0, 99, gdyż taka skuteczność ma test przy badaniu narkomana P( N) = 0, 99, gdyż taka skuteczność ma test przy badaniu osoby nie będacej narkomanem P(+ N) = 1 P( N) = 0, 01 Majac te dane chcemy obliczyć prawdopodobieństwo, że osoba, u której test wypadł pozytywnie, rzeczywiście jest narkomanem. Tak więc:
c.d P(T +) = = P(+ T ) P(T ) P(+ T ) P(T ) + P(+ N) P(N) = 0, 99 0, 005 0, 33. 0, 99 0, 005 + 0, 01 0, 995
c.d Mimo potencjalnie wysokiej skuteczności testu, prawdopodobieństwo, że narkomanem jest badany pracownik, u którego test dał wynik pozytywny, jest równe około 33%, więc jest nawet bardziej prawdopodobnym, ze taka osoba nie zażywa narkotyków. Ten przykład pokazuje, dlaczego ważne jest, aby nie polegać na wynikach tylko pojedynczego testu. Innymi słowy, pozorny paradoks polegajacy na dużej dokładności testu (99% wykrywalności narkomanów wśród narkomanów i nieuzależnionych wśród nieuzależnionych) i niskiej dokładności badania bierze się stad, że w badanej próbie tylko niewielka część osób to narkomani. Przykładowo jeśli badamy 1000 osób, 0,5% z nich czyli 5 to narkomani, a 995 nie. Natomiast test wskaże jako narkomanów 1% nieuzależnionych (995 1% 10), oraz 99% uzależnionych (5 99% 5). Ostatecznie test wypadł pozytywnie dla 15 osób, jednak tylko 5 z nich to narkomani.
Niezależność zdarzeń Zdarzenia A i B nazywamy niezależnymi, gdy P(A B) = P(A) P(B). A więc, zdarzenia A i B sa niezależne, gdy przynajmniej jedno z nich ma prawdopodobieństwo równe 0, lub oba maja dodatnie prawdopodobieństwa i P(A B) = P(A), P(B A) = P(B).
Niezależność większej ilości zdarzeń Zdarzenia A, B i C sa niezależne, gdy P(A B C) = P(A) P(B) P(C), P(A B) = P(A) P(B), P(A C) = P(A) P(C), P(B C) = P(B) P(C)....
Zmienne losowe Niech (Ω, Σ, P) będzie przestrzenia probabilistyczna. Zmienna losowa nazywamy każda funkcję ξ określona na Ω i przyjmujac a wartości rzeczywiste, taka, że zdarzeniami sa następujace zbiory: {ω : ξ(ω) < x}, {ω : ξ(ω) x}, {ω : ξ(ω) > x}, {ω : ξ(ω) x}, {ω : ξ(ω) (a, b)}, {ω : ξ(ω) [a, b]}, {ω : ξ(ω) [a, b)}, {ω : ξ(ω) (a, b]}, dla dowolnych x, a, b R.
Niezależność zmiennych losowych Zmienne losowe X 1, X 2,..., X n sa niezależne, gdy dla każdych x 1, x 2,..., x n R zachodzi P(X 1 < x 1, X 2 < x 2,..., X n < x n ) = = P(X 1 < x 1 ) P(X 2 < x 2 )... P(X n < x n ).
Dystrybuanta zmiennej losowej Dystrybuanta zmiennej losowej X nazywamy funkcję F : R R określona wzorem F(x) = P(X < x) = P({ω : X(ω) < x}). Własności dystrybuant: F jest niemalejaca, lewostronnie ciagła, F(x) [0, 1], lim x F(x) = 1, lim x F(x) = 0.
Typy zmiennych losowych zmienne losowe dyskretne (typu skokowego), zmienne losowe ciagłe, inne.
Zmienne losowe dyskretne To zmienne, które przyjmuja (z prawdopodobieństwem 1) wartości ze zbioru {x 1, x 2,...}. Dystrybuanta takich zmiennych losowych jest przedziałami stała, a w punktach x 1, x 2,... ma "skoki" wysokości P(X = x i ) odpowiednio.
Przykłady zmiennych losowych o rozkładach dyskretnych - rozkład dwupunktowy rozkład zero-jedynkowy - rozkład dwumianowy - rozkład Poissona -inne
Rozkład dwupunktowy Zmienna losowa X ma rozkład dwupunktowy, gdy przyjmuje dwie wartości (z prawdopodobieństwem 1): P(X = x 1 ) = p, P(X = x 2 ) = q = 1 p. Szczególnym przypadkiem rozkładu dwupunktowego jest rozkład zero-jedynkowy, gdy x 1 = 1, x 2 = 0.
Dystrybuanta rozkładu zero-jedynkowego
Rozkład dwumianowy Niech X 1, X 2,..., X n będzie ciagiem niezależnych zmiennych losowych o tym samym rozkładzie zero-jedynkowym. Oznaczmy przez X sumę tych zmiennch, tzn. X = X 1 + X 2 +... + X n. Mówimy, że zmienna losowa X ma rozkład dwumianowy. ( ) n P(X = k) = p k q n k, k = 0, 1,..., n. k Oznaczenie b(n, k, p) = ( n k) p k q n k - prawdopodobieństwo k sukcesów w n próbach Bernoulliego, w których prawdopodobieństwo sukcesu jest równe p.
Rozkład Poissona Zmienna losowa X ma rozkład Poissona z parametrem λ, gdy przyjmuje tylko wartości całkowite nieujemne, oraz P(X = k) = e λ λk k!. Oznaczenie p(λ, k) = e λ λk k!. Uwaga. Gdy n jest duże (n 100), p małe (p 0, 1), a np [0.1, 10], to dokonuje się przybliżenia gdzie λ np. b(n, k, p) p(λ, k),
Rozkład Poissona
Rozkłady ciagłe Mówimy, że zmienna losowa ma rozkład ciagły, gdy istnieje funkcja f : R R, nieujemna, taka, że f (x) dx = 1, oraz R P(X A) = A f (x) dx. Tę funkcję f nazywamy gęstościa rozkładu zmiennej X. Dystrybuantę obliczamy ze wzoru F(x) = x f (t) dt.
Przykłady zmiennych losowych o rozładzie ciagłym -rozkład jednostajny -rozkład wykładniczy -rozkład normalny -rozkład chi-kwadrat -rozkład t-studenta -inne
Rozkład jednostajny Rozkład jednostajny na odcinku [a, b] ma gęstość Dystrybuanata: f (x) = F(x) = { 1 b a, dla x [a, b]; 0, dla x / [a, b]. x a b a, dla x [a, b]; 0, dla x < a; 1, dla x > b.
Rozkład jednostajny
Rozkład wykładniczy Rozkład wykładniczy z parametrem λ ma gęstość { λ e f (x) = λx, dla x 0; 0, dla x < 0. Dystrybuanata: F(x) = { 1 e λx, dla x 0; 0, dla x < 0.
Rozkład wykładniczy
Rozkład normalny Rozkład normalny z parametrami m i σ, N(m, σ) ma gęstość f (x) = 1 σ 2π (x m) 2 e 2σ 2. W szczególności rozkład normalny N(0, 1) ma gestość f (x) = 1 2π e x2 2. Jeśli X N(m, σ), to X m σ losowej X) N(0, 1). (standaryzacja zmiennej
Rozkład normalny
Tablica dystrybuanty rozkładu normalnego
Reguła trzech sigm Jeżeli zmienna losowa ma rozkład normalny N(m, σ) to P( X m > 3σ) < 0, 01.
Rozkład chi-kwadrat Mówimy, że zmienna losowa χ 2 ma rozkład chi-kwadrat Pearsona z n stopniami swobody, gdy jest postaci χ 2 = X 2 1 + X 2 2 +... + X 2 n gdzie X 1, X 2,..., X n sa niezależnymi zmiennymi losowymi o rozkładzie normalnym N(0, 1).
Rozkład t-studenta Mówimy, że zmienna losowa t ma rozkład t-studenta o n stopniach swobody, gdy jest postaci t = X χ 2 /n gdzie X, χ 2 sa niezależnymi zmiennymi losowymi X o rozkładzie normalnym N(0, 1) a χ 2 ma rozkład chi-kwadrat o n stopniach swobody.
Wartość oczekiwana zmiennej losowej Wartośc oczekiwana zmiennej losowej X, to "wartość średnia", oznaczamy ja EX lub E(X), lub m, lub m 1. Dla zmiennych o rozkładzie dyskretnym P(X = x k ) = p k dla k = 1, 2,...: EX = x 1 p 1 + x 2 p 2 +.... Dla zmiennych o rozkładzie ciagłym o gęstości f : Własności: E(XY ) = E(X)E(Y ), EX = xf (x) dx. E(aX + by ) = aex + bey, dla zmiennych X, Y niezależnych.
Gra polega na rzucie kostka. Za przystapienie do gry wpłacamy 10 zł. Za wyrzucenie 1,2 lub 3 nie wygrywamy nic. Za wyrzucenie 4 wygrywmy 5 zł,a za wyrzucenie 5-10 zł. Za wyrzucenie 6 otrzymujemy 30 zł. Zmienna losowa X oznacza zysk w tej grze. Jaki jest jej rozkład, dystrybuanta i wartość oczekiwana. Rozkład: P(X = 10) = P({1, 2, 3}) = 1/6 + 1/6 + 1/6 = 1/2, P(X = 5) = P({4}) = 1/6, P(X = 0) = P({5}) = 1/6, P(X = 20) = P({6}) = 1/6. Dystrybuanta: 0, x 10; 1/2, x ( 10, 5]; F(x) = 2/3, x ( 5, 0]; 5/6, x (0, 20]; 1, x (20, ). E(X) = 10 1/2 + ( 5) 1/6 + 0 1/6 + 20 1/6 = 2.5
Wariancja i odchylenie standardowe Wariancja zmiennej losowej X (oznaczenie D 2 X lub Var X) nazywamy D 2 X = E(X EX) 2 = E(X m) 2. Odchylenie standardowe (oznaczenie σ), to σ = D 2 X. Własności: D 2 (ax) = a 2 D 2 X, D 2 (X + Y ) = D 2 X + D 2 Y, dla zmiennych losowych X, Y niezależnych, D 2 X = E(X 2 ) (EX) 2. Dla zmiennych o rozkładzie dyskretnym: P(X = x k ) = p k, k N: D 2 X = (x 1 m) 2 p 1 +(x 2 m) 2 p 2 +... = [x 2 1 p 1+x 2 2 p 2+...] (EX) 2. Dla zmiennych o rozkładzie ciagłym o gęstości f : EX = x 2 f (x) dx (EX) 2.
Wariancja z wcześniejszego przykładu D 2 X = = ( 10 ( 2, 5)) 2 1/2+( 5 ( 2, 5)) 2 1/6+(0 ( 2, 5)) 2 1/6+(20 ( = 114, 58(3) drugim sposobem: D 2 X = ( 10) 2 1/2+( 5) 2 1/6+(0)) 2 1/6+(20)) 2 1/6 ( 2, 5) 2 = = 114, 58(3)
Nierówność Czebyszewa Jeśli EX = m oraz D 2 X = σ 2 (0, ), to dla t > 0 mamy P( X m t) σ2 t 2.
Słabe prawo wielkich liczb Niech X 1, X 2,... będzie ciagiem niezależnych zmiennych losowych o tym samym rozkładzie, o wartości oczekiwanej m i odchyleniu standardowym σ. Wtedy dla każdego ε > 0 mamy lim P( X 1 + X 2 +... + X n m < ε) = 1. n n
Centralne Twierdzenie Graniczne Niech X 1, X 2,... będzie ciagiem niezależnych zmiennych losowych o tym samym rozkładzie, o wartości oczekiwanej m i odchyleniu standardowym σ. Wtedy lim P(X 1 + X 2 +... + X n nm n σ < x) = Φ(x), n gdzie Φ oznacza dystrybuantę rozkładu normalnego N(0, 1).
Wartości wartości oczekiwanej i wariancji dla wybranych rozkładów rozkład zero-jedynkowy z prawdopodobieństwem p: EX = p, D 2 X = pq rozkład dwumianowy (p): EX = np D 2 X = npq rozkład Poissona z parametrem λ: EX = λ, D 2 X = λ rozkład jednostajny na [a, b]: EX = (a + b)/2, D 2 X = (b a) 2 /12 rozkład wykładniczy z parametrem λ: EX = 1/λ, D 2 X = 1/λ 2 rozkład normalny N(m, σ): EX = m, D 2 X = σ 2 rozkład chi-kwadrat z n stopniami swobody: EX = n D 2 X = 2n