Metody probabilistyczne
|
|
- Feliks Wiśniewski
- 4 lat temu
- Przeglądów:
Transkrypt
1 Metody probabilistyczne 6. Momenty zmiennych losowych Wojciech Kotłowski Instytut Informatyki PP / 47
2 Funkcje zmiennych losowych Mierzalna funkcja Y = g(x ) zmiennej losowej X o wartościach rzeczywistych jest również zmienną losową. X : Ω R g : R R ω 1 Ω ω ω 2 4 x ω 1 x 2 x 3 x y 1 y 2 y 3 Rozkład zmiennej losowej Y definiujemy poprzez przeciwobraz jako: ( P Y (A) = P X g 1 (A) ), lub w zdarzeniowej notacji: P(Y A) = P ( X g 1 (A) ) 2 / 47
3 Przykład Rzucamy dwoma kostkami: X określa sumaryczną liczbę oczek na obu kostkach 0 jeśli X < 5 1 jeśli 5 X 8 Y = g(x ) = 2 jeśli 9 X 11 3 jeśli X = 12 3 / 47
4 Przykład Rzucamy dwoma kostkami: X określa sumaryczną liczbę oczek na obu kostkach 0 jeśli X < 5 1 jeśli 5 X 8 Y = g(x ) = 2 jeśli 9 X 11 3 jeśli X = 12 x P(X = x) y P(Y = y) / 47
5 Przykład Rzucamy dwoma kostkami: X określa sumaryczną liczbę oczek na obu kostkach 0 jeśli X < 5 1 jeśli 5 X 8 Y = g(x ) = 2 jeśli 9 X 11 3 jeśli X = 12 x P(X = x) y P(Y = y) 6 36 Przykład: P(Y = 2) = P ( X g 1 (2) ) = P(X {x : g(x) = 2}) = P(X {9, 10, 11}) 3 / 47
6 Funkcje dyskretnych zmiennych losowych Jeśli X {x 1, x 2,...} oraz Y = g(x ) {y 1, y 2,...} są dyskretnymi zmiennymi losowymi to: P(Y = y) = x : g(x)=y P(X = x) Czyli aby policzyć prawdopodobieństwo P(Y = y) sumujemy prawdopodobieństwa P(X = x) dla wszystkich x które prowadzą do wyniku g(x) = y. 4 / 47
7 Wartość oczekiwana: motywacja Rzucamy uczciwą monetą. W przypadku orła przegrywamy 1zł, w przypadku reszki wygrywamy 2zł. Czy warto brać udział w takiej grze? Wygrywamy a zł z prawdopodobieństwem p i przegrywamy b zł z prawdopodobieństwem 1 p. Ile wynosi średnia wygrana? Rzucamy kostką, jaka jest średnia liczba oczek której można się spodziewać? Gramy w totolotka aż do trafienia szóstki. Ile średnio gier musielibyśmy zagrać? Jaka jest średnia liczba sukcesów w n próbach w schemacie Bernoulliego? 5 / 47
8 Wartość oczekiwana Definicja Niech X {x 1, x 2,...} będzie zmienną dyskretną. Wartością oczekiwaną (wartością przeciętną, wartością średnią) zmiennej losowej X nazywamy liczbę: E(X ) = x i P(X = x i ) i Wartość oczekiwana jest średnią ważoną po zbiorze {x 1, x 2,...} z wagami P(X = x i ). Uwaga: wartość oczekiwana jest deterministyczną liczbą! Uwaga: Często będziemy opuszczali nawiasy i zapisywali E(X ) jako EX 6 / 47
9 Wartość oczekiwana: przykłady E(X ) = i x i P(X = x i ) Przykład: Rzucamy kostką, jaka jest wartość oczekiwana liczby oczek? X {1, 2, 3, 4, 5, 6}, P(X = i) = / 47
10 Wartość oczekiwana: przykłady E(X ) = i x i P(X = x i ) Przykład: Rzucamy kostką, jaka jest wartość oczekiwana liczby oczek? X {1, 2, 3, 4, 5, 6}, P(X = i) = 1 6 EX = = 21 6 = / 47
11 Wartość oczekiwana: przykłady E(X ) = i x i P(X = x i ) Przykład: Rzucamy kostką, jaka jest wartość oczekiwana liczby oczek? X {1, 2, 3, 4, 5, 6}, P(X = i) = 1 6 EX = = 21 6 = 3.5 Przykład: Podobnie, ale rzucamy dwoma kostkami i sumujemy wynik x P(X = x) / 47
12 Wartość oczekiwana: przykłady E(X ) = i x i P(X = x i ) Przykład: Rzucamy kostką, jaka jest wartość oczekiwana liczby oczek? X {1, 2, 3, 4, 5, 6}, P(X = i) = 1 6 EX = = 21 6 = 3.5 Przykład: Podobnie, ale rzucamy dwoma kostkami i sumujemy wynik x P(X = x) EX = = = / 47
13 Wartość oczekiwana: przykłady E(X ) = i x i P(X = x i ) Przykład: Rzucamy uczciwą monetą. W przypadku orła przegrywamy 1zł, w przypadku reszki wygrywamy 2zł. Czy warto brać udział w takiej grze? X { 1, 2}, P(X = 1) = P(X = 2) = / 47
14 Wartość oczekiwana: przykłady E(X ) = i x i P(X = x i ) Przykład: Rzucamy uczciwą monetą. W przypadku orła przegrywamy 1zł, w przypadku reszki wygrywamy 2zł. Czy warto brać udział w takiej grze? X { 1, 2}, P(X = 1) = P(X = 2) = 1 2 EX = = 1 2 (warto!) 8 / 47
15 Wartość oczekiwana: przykłady E(X ) = i x i P(X = x i ) Przykład: Rzucamy uczciwą monetą. W przypadku orła przegrywamy 1zł, w przypadku reszki wygrywamy 2zł. Czy warto brać udział w takiej grze? X { 1, 2}, P(X = 1) = P(X = 2) = 1 2 EX = = 1 2 (warto!) Przykład: Wygrywamy a zł z prawdopodobieństwem p i przegrywamy b zł z prawdopodobieństwem 1 p. Ile wynosi średnia wygrana? X {a, b}, P(X = a) = p, P(X = b) = 1 p 8 / 47
16 Wartość oczekiwana: przykłady E(X ) = i x i P(X = x i ) Przykład: Rzucamy uczciwą monetą. W przypadku orła przegrywamy 1zł, w przypadku reszki wygrywamy 2zł. Czy warto brać udział w takiej grze? X { 1, 2}, P(X = 1) = P(X = 2) = 1 2 EX = = 1 2 (warto!) Przykład: Wygrywamy a zł z prawdopodobieństwem p i przegrywamy b zł z prawdopodobieństwem 1 p. Ile wynosi średnia wygrana? X {a, b}, P(X = a) = p, P(X = b) = 1 p Warto grać, jeśli ap b(1 p) > 0. EX = ap b(1 p) 8 / 47
17 Strategia martyngałowa Po obstawieniu a zł wygrywamy dodatkowe a zł z prawdopodobieństwem 1 p lub tracimy obstawione a zł z prawdopodobieństwem p. Rozważmy strategię, w której gramy do momentu wygranej w ten sposób: obstawiamy 1zł; jeśli przegramy, obstawiamy 2zł; jeśli przegramy, obstawiamy 4zł, itp. (przy każdej przegranej podwajamy stawkę). Robimy tak, dopóki nie wygramy lub nie stracimy całego kapitału. W przypadku wygranej zawsze jesteśmy do przodu 1zł, ponieważ następne zakłady kompensują poprzednie przegrane! Jaka jest wartość oczekiwana wygranej? 9 / 47
18 Strategia martyngałowa Załóżmy, że początkowy kapitał jest postaci 2 n 1 zł, czyli po przegranej n razy z rzędu tracimy cały kapitał. Niech X określa wartość wygranej pod koniec gry 10 / 47
19 Strategia martyngałowa Załóżmy, że początkowy kapitał jest postaci 2 n 1 zł, czyli po przegranej n razy z rzędu tracimy cały kapitał. Niech X określa wartość wygranej pod koniec gry Jeśli przegramy n razy z rzędu, tracimy kapitał, czyli X = ( 2 n 1 ) 10 / 47
20 Strategia martyngałowa Załóżmy, że początkowy kapitał jest postaci 2 n 1 zł, czyli po przegranej n razy z rzędu tracimy cały kapitał. Niech X określa wartość wygranej pod koniec gry Jeśli przegramy n razy z rzędu, tracimy kapitał, czyli X = ( 2 n 1 ) Prawdopodobieństwo tej sytuacji wynosi p n 10 / 47
21 Strategia martyngałowa Załóżmy, że początkowy kapitał jest postaci 2 n 1 zł, czyli po przegranej n razy z rzędu tracimy cały kapitał. Niech X określa wartość wygranej pod koniec gry Jeśli przegramy n razy z rzędu, tracimy kapitał, czyli X = ( 2 n 1 ) Prawdopodobieństwo tej sytuacji wynosi p n Jeśli nie przegramy n razy z rzędu, zyskujemy 1zł, czyli X = 1 10 / 47
22 Strategia martyngałowa Załóżmy, że początkowy kapitał jest postaci 2 n 1 zł, czyli po przegranej n razy z rzędu tracimy cały kapitał. Niech X określa wartość wygranej pod koniec gry Jeśli przegramy n razy z rzędu, tracimy kapitał, czyli X = ( 2 n 1 ) Prawdopodobieństwo tej sytuacji wynosi p n Jeśli nie przegramy n razy z rzędu, zyskujemy 1zł, czyli X = 1 Prawdopodobieństwo tej sytuacji wynosi 1 p n 10 / 47
23 Strategia martyngałowa Załóżmy, że początkowy kapitał jest postaci 2 n 1 zł, czyli po przegranej n razy z rzędu tracimy cały kapitał. Niech X określa wartość wygranej pod koniec gry Jeśli przegramy n razy z rzędu, tracimy kapitał, czyli X = ( 2 n 1 ) Prawdopodobieństwo tej sytuacji wynosi p n Jeśli nie przegramy n razy z rzędu, zyskujemy 1zł, czyli X = 1 Prawdopodobieństwo tej sytuacji wynosi 1 p n EX = 1 (1 p n) ( 2 n 1 ) p n 10 / 47
24 Strategia martyngałowa Załóżmy, że początkowy kapitał jest postaci 2 n 1 zł, czyli po przegranej n razy z rzędu tracimy cały kapitał. Niech X określa wartość wygranej pod koniec gry Jeśli przegramy n razy z rzędu, tracimy kapitał, czyli X = ( 2 n 1 ) Prawdopodobieństwo tej sytuacji wynosi p n Jeśli nie przegramy n razy z rzędu, zyskujemy 1zł, czyli X = 1 Prawdopodobieństwo tej sytuacji wynosi 1 p n EX = 1 (1 p n) ( 2 n 1 ) p n = 1 2 n p n = 1 (2p) n 10 / 47
25 Strategia martyngałowa Załóżmy, że początkowy kapitał jest postaci 2 n 1 zł, czyli po przegranej n razy z rzędu tracimy cały kapitał. Niech X określa wartość wygranej pod koniec gry Jeśli przegramy n razy z rzędu, tracimy kapitał, czyli X = ( 2 n 1 ) Prawdopodobieństwo tej sytuacji wynosi p n Jeśli nie przegramy n razy z rzędu, zyskujemy 1zł, czyli X = 1 Prawdopodobieństwo tej sytuacji wynosi 1 p n EX = 1 (1 p n) ( 2 n 1 ) p n = 1 2 n p n = 1 (2p) n Jeśli p = 1 2 to EX = 0 Jeśli p > 1 2 (np. w ruletce), to EX < 0 Mimo, że przegrana jest bardzo mało prawdopodobna, to generuje bardzo dużą stratę, stąd średnio przegrywamy 10 / 47
26 Własności wartości oczekiwanej Jeśli X przyjmuje tylko wartości większe bądź równe a, to EX a. Podobnie, jeśli X przyjmuje wartości mniejsze bądź równe b, to EX b. 11 / 47
27 Własności wartości oczekiwanej Jeśli X przyjmuje tylko wartości większe bądź równe a, to EX a. Podobnie, jeśli X przyjmuje wartości mniejsze bądź równe b, to EX b. Dowód: bezpośrednio z definicji wartości oczekiwanej: EX = x xp(x = x) Podobnie dowodzimy EX b. x ap(x = x) = a P(X = x) x }{{} =1 11 / 47
28 Własności wartości oczekiwanej Jeśli X przyjmuje tylko wartości większe bądź równe a, to EX a. Podobnie, jeśli X przyjmuje wartości mniejsze bądź równe b, to EX b. Dowód: bezpośrednio z definicji wartości oczekiwanej: EX = x xp(x = x) Podobnie dowodzimy EX b. x ap(x = x) = a P(X = x) x }{{} =1 Wniosek: jeśli X przyjmuje wartości nieujemne, to EX / 47
29 Wartość oczekiwana w rozkładzie dwupunktowym Zmienna X ma rozkład dwupunktowy B(p), jeśli X {0, 1} p = P(X = 1), P(X = 0) = 1 p 12 / 47
30 Wartość oczekiwana w rozkładzie dwupunktowym Zmienna X ma rozkład dwupunktowy B(p), jeśli X {0, 1} p = P(X = 1), P(X = 0) = 1 p EX = 1 p + 0 (1 p) = p 12 / 47
31 Wartość oczekiwana w rozkładzie dwupunktowym Zmienna X ma rozkład dwupunktowy B(p), jeśli X {0, 1} p = P(X = 1), P(X = 0) = 1 p EX = 1 p + 0 (1 p) = p Jeśli X B(p) to EX = p 12 / 47
32 Wartość oczekiwana w rozkładzie dwumianowym Zmienna X {0, 1, 2,..., n} ma rozkład dwumianowy B(n, p) jeśli: P(X = k) = ( ) n p k (1 p) n k, k k = 0, 1,..., n 13 / 47
33 Wartość oczekiwana w rozkładzie dwumianowym Zmienna X {0, 1, 2,..., n} ma rozkład dwumianowy B(n, p) jeśli: P(X = k) = EX = ( ) n p k (1 p) n k, k n k P(X = k) = k=0 k=1 k = 0, 1,..., n ( ) n n k p k (1 p) n k k 13 / 47
34 Wartość oczekiwana w rozkładzie dwumianowym Zmienna X {0, 1, 2,..., n} ma rozkład dwumianowy B(n, p) jeśli: P(X = k) = EX = ( ) n p k (1 p) n k, k n k P(X = k) = k=0 =... = np k=1 k = 0, 1,..., n ( ) n n k p k (1 p) n k k Zadanie 1 Uzupełnij brakującą część wyprowadzenia 13 / 47
35 Wartość oczekiwana w rozkładzie dwumianowym Zmienna X {0, 1, 2,..., n} ma rozkład dwumianowy B(n, p) jeśli: P(X = k) = EX = ( ) n p k (1 p) n k, k n k P(X = k) = k=0 =... = np k=1 k = 0, 1,..., n ( ) n n k p k (1 p) n k k Zadanie 1 Uzupełnij brakującą część wyprowadzenia Jeśli X B(n, p) to EX = np 13 / 47
36 Rozkład dwumianowy B(n = 6, p = 0.5) B(10, 0.4) P(X = k) P(X = k) k = B(20, 0.3) k = B(30, 0.7) P(X = k) P(X = k) k = k = / 47
37 Alternatywny wzór wartość oczekiwaną Niech X będzie zmienną losową przyjmującą tylko wartości całkowite nieujemne (X {0, 1, 2,...}). Wtedy: EX = P(X k) k=1 15 / 47
38 Alternatywny wzór wartość oczekiwaną Niech X będzie zmienną losową przyjmującą tylko wartości całkowite nieujemne (X {0, 1, 2,...}). Wtedy: EX = P(X k) k=1 Dowód: EX = kp(x = k) = P(X = 1) + 2P(X = 2) + 3P(X = 3) +... k=1 15 / 47
39 Alternatywny wzór wartość oczekiwaną Niech X będzie zmienną losową przyjmującą tylko wartości całkowite nieujemne (X {0, 1, 2,...}). Wtedy: EX = P(X k) k=1 Dowód: EX = kp(x = k) = P(X = 1) + 2P(X = 2) + 3P(X = 3) +... k=1 = P(X 1) +P(X 2) +P(X 3) +P(X 4) +... = P(X = 1) +2P(X = 2) +3P(X = 3) +4P(X = 4) +5P(X = 5) +... P(X = 1) P(X = 2) P(X = 3) P(X = 4) P(X = 5)... P(X = 2) P(X = 3) P(X = 4) P(X = 5)... P(X = 3) P(X = 4) P(X = 5)... P(X = 4) P(X = 5) P(X = 5) / 47
40 Alternatywny wzór wartość oczekiwaną Niech X będzie zmienną losową przyjmującą tylko wartości całkowite nieujemne (X {0, 1, 2,...}). Wtedy: EX = P(X k) k=1 Dowód: EX = kp(x = k) = P(X = 1) + 2P(X = 2) + 3P(X = 3) +... k=1 = P(X 1) +P(X 2) +P(X 3) +P(X 4) +... = P(X = 1) +2P(X = 2) +3P(X = 3) +4P(X = 4) +5P(X = 5) +... P(X = 1) P(X = 2) P(X = 3) P(X = 4) P(X = 5)... P(X = 2) P(X = 3) P(X = 4) P(X = 5)... P(X = 3) P(X = 4) P(X = 5)... P(X = 4) P(X = 5) P(X = 5) / 47
41 Alternatywny wzór wartość oczekiwaną Niech X będzie zmienną losową przyjmującą tylko wartości całkowite nieujemne (X {0, 1, 2,...}). Wtedy: EX = P(X k) k=1 Dowód: EX = kp(x = k) = P(X = 1) + 2P(X = 2) + 3P(X = 3) +... k=1 = P(X 1) +P(X 2) +P(X 3) +P(X 4) +... = P(X = 1) +2P(X = 2) +3P(X = 3) +4P(X = 4) +5P(X = 5) +... P(X = 1) P(X = 2) P(X = 3) P(X = 4) P(X = 5)... P(X = 2) P(X = 3) P(X = 4) P(X = 5)... P(X = 3) P(X = 4) P(X = 5)... P(X = 4) P(X = 5) P(X = 5) / 47
42 Alternatywny wzór wartość oczekiwaną Niech X będzie zmienną losową przyjmującą tylko wartości całkowite nieujemne (X {0, 1, 2,...}). Wtedy: EX = P(X k) k=1 Dowód: EX = kp(x = k) = P(X = 1) + 2P(X = 2) + 3P(X = 3) +... k=1 = P(X 1) +P(X 2) +P(X 3) +P(X 4) +... = P(X = 1) +2P(X = 2) +3P(X = 3) +4P(X = 4) +5P(X = 5) +... P(X = 1) P(X = 2) P(X = 3) P(X = 4) P(X = 5)... P(X = 2) P(X = 3) P(X = 4) P(X = 5)... P(X = 3) P(X = 4) P(X = 5)... P(X = 4) P(X = 5) P(X = 5) / 47
43 Alternatywny wzór wartość oczekiwaną Niech X będzie zmienną losową przyjmującą tylko wartości całkowite nieujemne (X {0, 1, 2,...}). Wtedy: EX = P(X k) k=1 Dowód: EX = kp(x = k) = P(X = 1) + 2P(X = 2) + 3P(X = 3) +... k=1 = P(X 1) +P(X 2) +P(X 3) +P(X 4) +... = P(X = 1) +2P(X = 2) +3P(X = 3) +4P(X = 4) +5P(X = 5) +... P(X = 1) P(X = 2) P(X = 3) P(X = 4) P(X = 5)... P(X = 2) P(X = 3) P(X = 4) P(X = 5)... P(X = 3) P(X = 4) P(X = 5)... P(X = 4) P(X = 5) P(X = 5) / 47
44 Alternatywny wzór wartość oczekiwaną Niech X będzie zmienną losową przyjmującą tylko wartości całkowite nieujemne (X {0, 1, 2,...}). Wtedy: EX = P(X k) k=1 Dowód: EX = kp(x = k) = P(X = 1) + 2P(X = 2) + 3P(X = 3) +... k=1 = P(X 1) +P(X 2) +P(X 3) +P(X 4) +... = P(X = 1) +2P(X = 2) +3P(X = 3) +4P(X = 4) +5P(X = 5) +... P(X = 1) P(X = 2) P(X = 3) P(X = 4) P(X = 5)... P(X = 2) P(X = 3) P(X = 4) P(X = 5)... P(X = 3) P(X = 4) P(X = 5)... P(X = 4) P(X = 5) P(X = 5) / 47
45 Przykład EX = P(X k) k=1 Nowy wzór działa również gdy X {i,..., j} 16 / 47
46 Przykład EX = P(X k) k=1 Nowy wzór działa również gdy X {i,..., j} Po prostu przyjmujemy P(X = k) = 0 dla k < i lub k > j 16 / 47
47 Przykład EX = P(X k) k=1 Nowy wzór działa również gdy X {i,..., j} Po prostu przyjmujemy P(X = k) = 0 dla k < i lub k > j Przykład Rzut kostką: X {1, 2, 3, 4, 5, 6}, P(X = k) = / 47
48 Przykład EX = P(X k) k=1 Nowy wzór działa również gdy X {i,..., j} Po prostu przyjmujemy P(X = k) = 0 dla k < i lub k > j Przykład Rzut kostką: X {1, 2, 3, 4, 5, 6}, P(X = k) = 1 6 EX = P(X 1) + P(X 2) + P(X 3) P(X 6) 16 / 47
49 Przykład EX = P(X k) k=1 Nowy wzór działa również gdy X {i,..., j} Po prostu przyjmujemy P(X = k) = 0 dla k < i lub k > j Przykład Rzut kostką: X {1, 2, 3, 4, 5, 6}, P(X = k) = 1 6 EX = P(X 1) + P(X 2) + P(X 3) P(X 6) = = 21 6 = / 47
50 Wartość oczekiwana w rozkładzie geometrycznym Zmienna X {1, 2,...} ma rozkład geometryczny G 1 (p) jeśli: P(X = k) = (1 p) k 1 p, k = 1, 2, / 47
51 Wartość oczekiwana w rozkładzie geometrycznym Zmienna X {1, 2,...} ma rozkład geometryczny G 1 (p) jeśli: P(X = k) = (1 p) k 1 p, k = 1, 2,... EX = kp(x = k) = k=1 P(X k) k=1 17 / 47
52 Wartość oczekiwana w rozkładzie geometrycznym Zmienna X {1, 2,...} ma rozkład geometryczny G 1 (p) jeśli: P(X = k) = (1 p) k 1 p, k = 1, 2,... EX = kp(x = k) = k=1 P(X k) }{{} k=1 =(1 p) k 1 17 / 47
53 Wartość oczekiwana w rozkładzie geometrycznym Zmienna X {1, 2,...} ma rozkład geometryczny G 1 (p) jeśli: P(X = k) = (1 p) k 1 p, k = 1, 2,... EX = kp(x = k) = k=1 P(X k) }{{} k=1 =(1 p) k 1 = 1 + (1 p) + (1 p) = 1 1 (1 p) = 1 p 17 / 47
54 Wartość oczekiwana w rozkładzie geometrycznym Zmienna X {1, 2,...} ma rozkład geometryczny G 1 (p) jeśli: P(X = k) = (1 p) k 1 p, k = 1, 2,... EX = kp(x = k) = k=1 P(X k) }{{} k=1 =(1 p) k 1 = 1 + (1 p) + (1 p) = 1 1 (1 p) = 1 p Jeśli X G 1 (p) to EX = 1 p 17 / 47
55 Rozkład geometryczny: przykład Gramy w totolotka aż do trafienia szóstki. Ile średnio gier musielibyśmy zagrać? 18 / 47
56 Rozkład geometryczny: przykład Gramy w totolotka aż do trafienia szóstki. Ile średnio gier musielibyśmy zagrać? X liczba gier (prób) do trafienia szóstki (sukcesu) X G 1 (p), p = 1 ( 49 6 ) 18 / 47
57 Rozkład geometryczny: przykład Gramy w totolotka aż do trafienia szóstki. Ile średnio gier musielibyśmy zagrać? X liczba gier (prób) do trafienia szóstki (sukcesu) X G 1 (p), p = 1 ( 49 6 ) EX = 1 p = ( 49 6 ) = / 47
58 Rozkład ujemny dwumianowy (Pascala) Zmienna X {0, 1,...} ma rozkład ujemny dwumianowy NB(r, p) jeśli: ( ) r + k 1 P(X = k) = (1 p) r p k r 1 Zadanie 2 Pokaż, że jeśli X NB(r, p) to: EX = rp 1 p 19 / 47
59 Rozkład Poissona Zmienna X {0, 1,...} ma rozkład Poissona Pois(λ) jeśli: P(X = k) = λk k! e λ Zadanie 3 Pokaż, że jeśli X Pois(λ) to: EX = λ Uwaga: Ponieważ rozkład Poissona jest przybliżeniem rozkładu dwumianowego przy λ = np, takiego wyniku należało oczekiwać! 20 / 47
60 Zmienna losowe może nie mieć wartości oczekiwanej Weźmy zmienną losową X {1, 2,...} dla której: P(X = k) = 1 k(k + 1) 21 / 47
61 Zmienna losowe może nie mieć wartości oczekiwanej Weźmy zmienną losową X {1, 2,...} dla której: P(X = k) = Czy to się poprawnie normalizuje? 1 k(k + 1) 21 / 47
62 Zmienna losowe może nie mieć wartości oczekiwanej Weźmy zmienną losową X {1, 2,...} dla której: P(X = k) = Czy to się poprawnie normalizuje? 1 Ponieważ k(k+1) = 1 k 1 k+1, mamy: n k=1 1 k(k + 1) = 1 k(k + 1) ( 1 1 2) 1 ( ) 1 ( ) = 1 1 n + 1 ( 1 n 1 ) n / 47
63 Zmienna losowe może nie mieć wartości oczekiwanej Weźmy zmienną losową X {1, 2,...} dla której: P(X = k) = Czy to się poprawnie normalizuje? 1 Ponieważ k(k+1) = 1 k 1 k+1, mamy: n k=1 1 k(k + 1) = 1 k(k + 1) ( 1 1 2) 1 ( ) 1 ( ) = 1 1 n 1 n + 1 A więc k=1 P(X = k) = 1, czyli normalizacja jest poprawna. ( 1 n 1 ) n / 47
64 Zmienna losowe może nie mieć wartości oczekiwanej Weźmy zmienną losową X {1, 2,...} dla której: P(X = k) = Czy to się poprawnie normalizuje? 1 Ponieważ k(k+1) = 1 k 1 k+1, mamy: n k=1 1 k(k + 1) = 1 k(k + 1) ( 1 1 2) 1 ( ) 1 ( ) ( 1 n 1 ) n + 1 = 1 1 n 1 n + 1 A więc k=1 P(X = k) = 1, czyli normalizacja jest poprawna. 1 EX = k k(k + 1) = 1 (k + 1) = k=1 k=1 21 / 47
65 Zmienna losowe może nie mieć wartości oczekiwanej Weźmy zmienną losową X {1, 2,...} dla której: P(X = k) = Czy to się poprawnie normalizuje? 1 Ponieważ k(k+1) = 1 k 1 k+1, mamy: n k=1 1 k(k + 1) = 1 k(k + 1) ( 1 1 2) 1 ( ) 1 ( ) ( 1 n 1 ) n + 1 = 1 1 n 1 n + 1 A więc k=1 P(X = k) = 1, czyli normalizacja jest poprawna. 1 EX = k k(k + 1) = 1 (k + 1) = k=1 k=1 Ale ta suma się rozbiega do nieskończoności! EX = 21 / 47
66 Wartość oczekiwana funkcji zmiennej losowej X określa wynik rzutu kostką (X {1, 2, 3, 4, 5, 6}) 1 jeśli X {1, 2, 3} Y = g(x ) = 2 jeśli X {4, 5} 3 jeśli X = 6 22 / 47
67 Wartość oczekiwana funkcji zmiennej losowej X określa wynik rzutu kostką (X {1, 2, 3, 4, 5, 6}) 1 jeśli X {1, 2, 3} Y = g(x ) = 2 jeśli X {4, 5} 3 jeśli X = 6 x P(X = x) 1/6 1/6 1/6 1/6 1/6 1/6 y = g(x) P(Y = y) 1/2 1/3 1/6 22 / 47
68 Wartość oczekiwana funkcji zmiennej losowej X określa wynik rzutu kostką (X {1, 2, 3, 4, 5, 6}) 1 jeśli X {1, 2, 3} Y = g(x ) = 2 jeśli X {4, 5} 3 jeśli X = 6 x P(X = x) 1/6 1/6 1/6 1/6 1/6 1/6 y = g(x) P(Y = y) 1/2 1/3 1/6 EY = 1 P(Y = 1) + 2 P(Y = 2) + 3 P(Y = 3) (z def.) 22 / 47
69 Wartość oczekiwana funkcji zmiennej losowej X określa wynik rzutu kostką (X {1, 2, 3, 4, 5, 6}) 1 jeśli X {1, 2, 3} Y = g(x ) = 2 jeśli X {4, 5} 3 jeśli X = 6 x P(X = x) 1/6 1/6 1/6 1/6 1/6 1/6 y = g(x) P(Y = y) 1/2 1/3 1/6 EY = 1 P(Y = 1) + 2 P(Y = 2) + 3 P(Y = 3) (z def.) = 1 (P(X = 1) + P(X = 2) + P(X = 3) ) + 2 (P(X = 4) + P(X = 5) ) + 3 P(X = 6) 22 / 47
70 Wartość oczekiwana funkcji zmiennej losowej X określa wynik rzutu kostką (X {1, 2, 3, 4, 5, 6}) 1 jeśli X {1, 2, 3} Y = g(x ) = 2 jeśli X {4, 5} 3 jeśli X = 6 x P(X = x) 1/6 1/6 1/6 1/6 1/6 1/6 y = g(x) P(Y = y) 1/2 1/3 1/6 EY = 1 P(Y = 1) + 2 P(Y = 2) + 3 P(Y = 3) (z def.) = 1 (P(X = 1) + P(X = 2) + P(X = 3) ) + 2 (P(X = 4) + P(X = 5) ) + 3 P(X = 6) = g(1)p(x = 1) + g(2)p(x = 2) g(6)p(x = 6) 22 / 47
71 Wartość oczekiwana funkcji zmiennej losowej x x 1 x 2 x 3 x 4 x 5 x 6... x n P(X = x) p 1 p 2 p 3 p 4 p 5 p 6... p n y = g(x) y 1 y 2 y 3... y n P(Y = y) p 1 + p 2 p 3 p 4 + p 5 + p 6... p n EY = y y P(Y = y) = x g(x) P(X = x) 23 / 47
72 Wartość oczekiwana funkcji zmiennej losowej x x 1 x 2 x 3 x 4 x 5 x 6... x n P(X = x) p 1 p 2 p 3 p 4 p 5 p 6... p n y = g(x) y 1 y 2 y 3... y n P(Y = y) p 1 + p 2 p 3 p 4 + p 5 + p 6... p n EY = y y P(Y = y) = x g(x) P(X = x) Aby policzyć EY nie musimy wyznaczać rozkładu zmiennej Y, wystarczy rozkład zmiennej X 23 / 47
73 Wartość oczekiwana funkcji zmiennej losowej x x 1 x 2 x 3 x 4 x 5 x 6... x n P(X = x) p 1 p 2 p 3 p 4 p 5 p 6... p n y = g(x) y 1 y 2 y 3... y n P(Y = y) p 1 + p 2 p 3 p 4 + p 5 + p 6... p n EY = y y P(Y = y) = x g(x) P(X = x) Aby policzyć EY nie musimy wyznaczać rozkładu zmiennej Y, wystarczy rozkład zmiennej X Wartość oczekiwana funkcji zmiennej losowej E ( g(x ) ) = x g(x)p(x = x) 23 / 47
74 Wartość oczekiwana funkcji zmiennej losowej x x 1 x 2 x 3 x 4 x 5 x 6... x n P(X = x) p 1 p 2 p 3 p 4 p 5 p 6... p n y = g(x) y 1 y 2 y 3... y n P(Y = y) p 1 + p 2 p 3 p 4 + p 5 + p 6... p n EY = y y P(Y = y) = x g(x) P(X = x) Aby policzyć EY nie musimy wyznaczać rozkładu zmiennej Y, wystarczy rozkład zmiennej X Wartość oczekiwana funkcji zmiennej losowej E ( g(x ) ) = x g(x)p(x = x) Zadanie 4 Przeprowadź formalny dowód powyższego wniosku 23 / 47
75 Liniowość wartości oczekiwanej W szczególności: E(aX + b) = ae(x ) + b Wartość oczekiwana stałej b jest równa b: E(b) = b Tym samym np. E ( EX ) = EX Stałą przemnażającą X można wyjąć przed wartość oczekiwaną: E(aX) = a EX 24 / 47
76 Liniowość wartości oczekiwanej W szczególności: E(aX + b) = ae(x ) + b Wartość oczekiwana stałej b jest równa b: E(b) = b Tym samym np. E ( EX ) = EX Stałą przemnażającą X można wyjąć przed wartość oczekiwaną: E(aX) = a EX Dowód: Rozważmy funkcję g(x) = ax + b 24 / 47
77 Liniowość wartości oczekiwanej W szczególności: E(aX + b) = ae(x ) + b Wartość oczekiwana stałej b jest równa b: E(b) = b Tym samym np. E ( EX ) = EX Stałą przemnażającą X można wyjąć przed wartość oczekiwaną: E(aX) = a EX Dowód: Rozważmy funkcję g(x) = ax + b E(aX + b) = E ( g(x ) ) = x g(x) P(X = x) 24 / 47
78 Liniowość wartości oczekiwanej W szczególności: E(aX + b) = ae(x ) + b Wartość oczekiwana stałej b jest równa b: E(b) = b Tym samym np. E ( EX ) = EX Stałą przemnażającą X można wyjąć przed wartość oczekiwaną: E(aX) = a EX Dowód: Rozważmy funkcję g(x) = ax + b E(aX + b) = E ( g(x ) ) = x g(x) P(X = x) = x (ax + b) P(X = x) 24 / 47
79 W szczególności: Liniowość wartości oczekiwanej E(aX + b) = ae(x ) + b Wartość oczekiwana stałej b jest równa b: E(b) = b Tym samym np. E ( EX ) = EX Stałą przemnażającą X można wyjąć przed wartość oczekiwaną: E(aX) = a EX Dowód: Rozważmy funkcję g(x) = ax + b E(aX + b) = E ( g(x ) ) = x g(x) P(X = x) = (ax + b) P(X = x) x ( ) ( ) = a x P(X = x) + b P(X = x) x } {{ } =EX x } {{ } =1 24 / 47
80 Liniowość wartości oczekiwanej Zadanie 5 Pokaż, że dla dowolnych funkcji g 1,..., g n : ( ) E g 1 (X ) g n (X ) = E ( g 1 (X ) ) E ( g n (X ) ) 25 / 47
81 Wartość oczekiwana w rozkładzie geometrycznym G 1 (p): liczba prób do sukcesu: P(X = k) = (1 p) k 1 p, k = 1, 2,... G 0 (p): Liczba porażek do sukcesu: P(Y = k) = (1 p) k p, k = 0, 1, 2,... Zauważmy, że X = Y / 47
82 Wartość oczekiwana w rozkładzie geometrycznym G 1 (p): liczba prób do sukcesu: P(X = k) = (1 p) k 1 p, k = 1, 2,... G 0 (p): Liczba porażek do sukcesu: P(Y = k) = (1 p) k p, k = 0, 1, 2,... Zauważmy, że X = Y + 1. Z jednej strony: EX = E(Y + 1) = EY / 47
83 Wartość oczekiwana w rozkładzie geometrycznym G 1 (p): liczba prób do sukcesu: P(X = k) = (1 p) k 1 p, k = 1, 2,... G 0 (p): Liczba porażek do sukcesu: Zauważmy, że X = Y + 1. Z jednej strony: Z drugiej strony: EY = P(Y = k) = (1 p) k p, k = 0, 1, 2,... k=1 EX = E(Y + 1) = EY + 1 k(1 p) k p = (1 p) k(1 p) k 1 p k=1 } {{ } =EX 26 / 47
84 Wartość oczekiwana w rozkładzie geometrycznym G 1 (p): liczba prób do sukcesu: P(X = k) = (1 p) k 1 p, k = 1, 2,... G 0 (p): Liczba porażek do sukcesu: Zauważmy, że X = Y + 1. Z jednej strony: Z drugiej strony: Czyli: EY = P(Y = k) = (1 p) k p, k = 0, 1, 2,... k=1 EX = E(Y + 1) = EY + 1 k(1 p) k p = (1 p) k(1 p) k 1 p k=1 } {{ } =EX EX = EY + 1 = (1 p)ex + 1 = EX = 1 p 26 / 47
85 Paradoks petersburski Rozważmy grę w której rzucamy uczciwą monetą aż do wyrzucenia orła. Wygrana w grze to 2 k zł, gdzie k liczba rzutów. Jeśli orzeł wypadnie w 1. rzucie wygrywamy 2 zł Jeśli orzeł wypadnie w 2. rzucie wygrywamy 4 zł Jeśli orzeł wypadnie w 3. rzucie wygrywamy 8 zł itd. Ile warto zapłacić wpisowego, aby przystąpić do takiej gry? 27 / 47
86 Paradoks petersburski Rozważmy grę w której rzucamy uczciwą monetą aż do wyrzucenia orła. Wygrana w grze to 2 k zł, gdzie k liczba rzutów. Ile warto zapłacić wpisowego, aby przystąpić do takiej gry? X liczba rzutów do pierwszego orła, 27 / 47
87 Paradoks petersburski Rozważmy grę w której rzucamy uczciwą monetą aż do wyrzucenia orła. Wygrana w grze to 2 k zł, gdzie k liczba rzutów. Ile warto zapłacić wpisowego, aby przystąpić do takiej gry? X liczba rzutów do pierwszego orła, X ma rozkład G 1 ( 1 2 ): P(X = k) = (1 p) k 1 p = ( 1 2 ) k, k = 1, 2, / 47
88 Paradoks petersburski Rozważmy grę w której rzucamy uczciwą monetą aż do wyrzucenia orła. Wygrana w grze to 2 k zł, gdzie k liczba rzutów. Ile warto zapłacić wpisowego, aby przystąpić do takiej gry? X liczba rzutów do pierwszego orła, X ma rozkład G 1 ( 1 2 ): P(X = k) = (1 p) k 1 p = ( 1 2 ) k, k = 1, 2,... Y = g(x ) = 2 X wygrana 27 / 47
89 Paradoks petersburski Rozważmy grę w której rzucamy uczciwą monetą aż do wyrzucenia orła. Wygrana w grze to 2 k zł, gdzie k liczba rzutów. Ile warto zapłacić wpisowego, aby przystąpić do takiej gry? X liczba rzutów do pierwszego orła, X ma rozkład G 1 ( 1 2 ): P(X = k) = (1 p) k 1 p = ( 1 2 ) k, k = 1, 2,... Y = g(x ) = 2 X wygrana Warto zapłacić a zł wpisowego jeśli EY a > 0 27 / 47
90 Paradoks petersburski Rozważmy grę w której rzucamy uczciwą monetą aż do wyrzucenia orła. Wygrana w grze to 2 k zł, gdzie k liczba rzutów. Ile warto zapłacić wpisowego, aby przystąpić do takiej gry? X liczba rzutów do pierwszego orła, X ma rozkład G 1 ( 1 2 ): P(X = k) = (1 p) k 1 p = ( 1 2 ) k, k = 1, 2,... Y = g(x ) = 2 X wygrana Warto zapłacić a zł wpisowego jeśli EY a > 0 EY = g(k)p(x = k) k=1 27 / 47
91 Paradoks petersburski Rozważmy grę w której rzucamy uczciwą monetą aż do wyrzucenia orła. Wygrana w grze to 2 k zł, gdzie k liczba rzutów. Ile warto zapłacić wpisowego, aby przystąpić do takiej gry? X liczba rzutów do pierwszego orła, X ma rozkład G 1 ( 1 2 ): P(X = k) = (1 p) k 1 p = ( 1 2 ) k, k = 1, 2,... Y = g(x ) = 2 X wygrana Warto zapłacić a zł wpisowego jeśli EY a > 0 EY = g(k)p(x = k) = k=1 ( 1 k 2 2) k = k=1 27 / 47
92 Paradoks petersburski Rozważmy grę w której rzucamy uczciwą monetą aż do wyrzucenia orła. Wygrana w grze to 2 k zł, gdzie k liczba rzutów. Ile warto zapłacić wpisowego, aby przystąpić do takiej gry? X liczba rzutów do pierwszego orła, X ma rozkład G 1 ( 1 2 ): P(X = k) = (1 p) k 1 p = ( 1 2 ) k, k = 1, 2,... Y = g(x ) = 2 X wygrana Warto zapłacić a zł wpisowego jeśli EY a > 0 EY = g(k)p(x = k) = k=1 ( 1 k 2 2) k = = k=1 27 / 47
93 Paradoks petersburski Rozważmy grę w której rzucamy uczciwą monetą aż do wyrzucenia orła. Wygrana w grze to 2 k zł, gdzie k liczba rzutów. Ile warto zapłacić wpisowego, aby przystąpić do takiej gry? X liczba rzutów do pierwszego orła, X ma rozkład G 1 ( 1 2 ): P(X = k) = (1 p) k 1 p = ( 1 2 ) k, k = 1, 2,... Y = g(x ) = 2 X wygrana Warto zapłacić a zł wpisowego jeśli EY a > 0 EY = g(k)p(x = k) = k=1 ( 1 k 2 2) k = = k=1 Warto zapłacić każdą kwotę wpisowego??? A za ile byście przystąpili do takiej gry? 27 / 47
94 Dygresja: teoria użyteczności Zachowanie ludzi w tego typu grach wyjaśnia teorii użyteczności Ludzie nie kierują się oczekiwaną wartością wygranej, ale oczekiwaną użytecznością wygranej Użyteczność ta rośnie znacznie wolniej niż sama wygrana ( prawo malejącej użyteczności krańcowej ) 28 / 47
95 Dygresja: teoria użyteczności Zachowanie ludzi w tego typu grach wyjaśnia teorii użyteczności Ludzie nie kierują się oczekiwaną wartością wygranej, ale oczekiwaną użytecznością wygranej Użyteczność ta rośnie znacznie wolniej niż sama wygrana ( prawo malejącej użyteczności krańcowej ) Przykład: weźmy grę, w której z prawdopodobieństwem 20% wygrywamy 10-krotność zakładu, a z prawdopodobieństwem 80% przegrywamy zakład. Jeśli obstawimy a zł, to średnia wygrana wynosi: a 0.8 a = 1.2a 28 / 47
96 Dygresja: teoria użyteczności Zachowanie ludzi w tego typu grach wyjaśnia teorii użyteczności Ludzie nie kierują się oczekiwaną wartością wygranej, ale oczekiwaną użytecznością wygranej Użyteczność ta rośnie znacznie wolniej niż sama wygrana ( prawo malejącej użyteczności krańcowej ) Przykład: weźmy grę, w której z prawdopodobieństwem 20% wygrywamy 10-krotność zakładu, a z prawdopodobieństwem 80% przegrywamy zakład. Jeśli obstawimy a zł, to średnia wygrana wynosi: a 0.8 a = 1.2a Czy obstawilibyście w tej grze a = 10 zł? 28 / 47
97 Dygresja: teoria użyteczności Zachowanie ludzi w tego typu grach wyjaśnia teorii użyteczności Ludzie nie kierują się oczekiwaną wartością wygranej, ale oczekiwaną użytecznością wygranej Użyteczność ta rośnie znacznie wolniej niż sama wygrana ( prawo malejącej użyteczności krańcowej ) Przykład: weźmy grę, w której z prawdopodobieństwem 20% wygrywamy 10-krotność zakładu, a z prawdopodobieństwem 80% przegrywamy zakład. Jeśli obstawimy a zł, to średnia wygrana wynosi: a 0.8 a = 1.2a Czy obstawilibyście w tej grze a = 10 zł? Czy obstawilibyście w tej grze całe oszczędności życia, powiedzmy a = 100 tys. zł? 28 / 47
98 Dygresja: przykład funkcji użyteczności Często rozważa się użyteczność logarytmiczną jako funkcję kapitału y: U(y) = log 2 (y) ( dwukrotne zwiększenie kapitału zwiększa użyteczność o jednostkę ) 29 / 47
99 Dygresja: przykład funkcji użyteczności Często rozważa się użyteczność logarytmiczną jako funkcję kapitału y: U(y) = log 2 (y) ( dwukrotne zwiększenie kapitału zwiększa użyteczność o jednostkę ) W poprzednim przykładzie, mając początkowy kapitał y 0 zł i obstawiając a zł, oczekiwana użyteczność wynosi: EU = 0.2 U(y 0 +10a)+0.8 U(y 0 a) = 0.2 log 2 (y 0 +10a)+0.8 log 2 (y 0 a), 29 / 47
100 Dygresja: przykład funkcji użyteczności Często rozważa się użyteczność logarytmiczną jako funkcję kapitału y: U(y) = log 2 (y) ( dwukrotne zwiększenie kapitału zwiększa użyteczność o jednostkę ) W poprzednim przykładzie, mając początkowy kapitał y 0 zł i obstawiając a zł, oczekiwana użyteczność wynosi: EU = 0.2 U(y 0 +10a)+0.8 U(y 0 a) = 0.2 log 2 (y 0 +10a)+0.8 log 2 (y 0 a), stąd oczekiwany przyrost użyteczności wynosi: U = EU U(y 0 ) = 0.2 log 2 (y a) log 2 (y 0 a) log 2 (y 0 ) 29 / 47
101 Dygresja: przykład funkcji użyteczności Często rozważa się użyteczność logarytmiczną jako funkcję kapitału y: U(y) = log 2 (y) ( dwukrotne zwiększenie kapitału zwiększa użyteczność o jednostkę ) W poprzednim przykładzie, mając początkowy kapitał y 0 zł i obstawiając a zł, oczekiwana użyteczność wynosi: EU = 0.2 U(y 0 +10a)+0.8 U(y 0 a) = 0.2 log 2 (y 0 +10a)+0.8 log 2 (y 0 a), stąd oczekiwany przyrost użyteczności wynosi: U = EU U(y 0 ) = 0.2 log 2 (y a) log 2 (y 0 a) log 2 (y 0 ) Jeśli y 0 = 1000 zł i a = 10 zł, to U 0.02 Jeśli y 0 = zł i a = zł, to U / 47
102 Dygresja: paradoks petersburski U(y) = log 2 (y) Mając początkowy kapitał y 0 zł i płacąc wpisowe a zł, oczekiwany przyrost użyteczności wynosi: EU U(y 0 ) = U(y 0 a + 2 k )P(X = k) U(y 0 ) = k=1 k=1 ( ) 1 k log 2 (y 0 a + 2 k ) log 2 2 (y 0 ) 30 / 47
103 Dygresja: paradoks petersburski U(y) = log 2 (y) Mając początkowy kapitał y 0 zł i płacąc wpisowe a zł, oczekiwany przyrost użyteczności wynosi: EU U(y 0 ) = U(y 0 a + 2 k )P(X = k) U(y 0 ) = k=1 k=1 Kiedy przyrost użyteczności jest dodatni? ( ) 1 k log 2 (y 0 a + 2 k ) log 2 2 (y 0 ) 30 / 47
104 Dygresja: paradoks petersburski U(y) = log 2 (y) Mając początkowy kapitał y 0 zł i płacąc wpisowe a zł, oczekiwany przyrost użyteczności wynosi: EU U(y 0 ) = U(y 0 a + 2 k )P(X = k) U(y 0 ) = k=1 k=1 ( ) 1 k log 2 (y 0 a + 2 k ) log 2 2 (y 0 ) Kiedy przyrost użyteczności jest dodatni? Mając y 0 = zł kapitału, przyrost użyteczności staje się dodatni dla a < zł 30 / 47
105 Dygresja: paradoks petersburski U(y) = log 2 (y) Mając początkowy kapitał y 0 zł i płacąc wpisowe a zł, oczekiwany przyrost użyteczności wynosi: EU U(y 0 ) = U(y 0 a + 2 k )P(X = k) U(y 0 ) = k=1 k=1 ( ) 1 k log 2 (y 0 a + 2 k ) log 2 2 (y 0 ) Kiedy przyrost użyteczności jest dodatni? Mając y 0 = zł kapitału, przyrost użyteczności staje się dodatni dla a < zł Mając y 0 = zł kapitału, przyrost użyteczności staje się dodatni dla a < zł 30 / 47
106 Dygresja: paradoks petersburski U(y) = log 2 (y) Mając początkowy kapitał y 0 zł i płacąc wpisowe a zł, oczekiwany przyrost użyteczności wynosi: EU U(y 0 ) = U(y 0 a + 2 k )P(X = k) U(y 0 ) = k=1 k=1 ( ) 1 k log 2 (y 0 a + 2 k ) log 2 2 (y 0 ) Kiedy przyrost użyteczności jest dodatni? Mając y 0 = zł kapitału, przyrost użyteczności staje się dodatni dla a < zł Mając y 0 = zł kapitału, przyrost użyteczności staje się dodatni dla a < zł Mając y = 1 zł kapitału, przyrost użyteczności staje się dodatni dla a < 2.82 zł 30 / 47
107 Wariancja: motywacja P(X1 = k) X 1 P(X2 = k) X 2 k = k = P(X3 = k) X 3 P(X4 = k) X 4 k = k = Wszystkie zmienne losowe mają tę samą wartość oczekiwaną równą 5 Jak mocno rozkład jest skoncentrowany wokół tej wartości? 31 / 47
108 Definicja Wariancja zmiennej losowej Wariancją zmiennej losowej X nazywamy liczbę określającą średni kwadrat odchylenia od wartości średniej: ( (X D 2 ) ) 2 (X ) = E EX = x ( x EX ) 2P(X = x), 32 / 47
109 Definicja Wariancja zmiennej losowej Wariancją zmiennej losowej X nazywamy liczbę określającą średni kwadrat odchylenia od wartości średniej: ( (X D 2 ) ) 2 (X ) = E EX = x ( x EX ) 2P(X = x), Wariancja określa koncentrację rozkładu wokół swojej wartości oczekiwanej (średniej) Kwadrat w definicji wariancji używany jest do tego, żeby poszczególne odchyłki się nie znosiły 32 / 47
110 Definicja Wariancja zmiennej losowej Wariancją zmiennej losowej X nazywamy liczbę określającą średni kwadrat odchylenia od wartości średniej: ( (X D 2 ) ) 2 (X ) = E EX = x ( x EX ) 2P(X = x), Wariancja określa koncentrację rozkładu wokół swojej wartości oczekiwanej (średniej) Kwadrat w definicji wariancji używany jest do tego, żeby poszczególne odchyłki się nie znosiły ( ) E X EX = EX EX = 0 Wykorzystujemy wzór E(aX + b) = ae(x ) + b dla a = 1 i b = EX 32 / 47
111 Wariancja: przykład Wyznacz wariancję zmiennej X {1, 2, 3, 4, 5, 6} określającej wynik rzutu kostką. 33 / 47
112 Wariancja: przykład Wyznacz wariancję zmiennej X {1, 2, 3, 4, 5, 6} określającej wynik rzutu kostką. Z poprzednich slajdów wiemy, że EX = / 47
113 Wariancja: przykład Wyznacz wariancję zmiennej X {1, 2, 3, 4, 5, 6} określającej wynik rzutu kostką. Z poprzednich slajdów wiemy, że EX = 3.5 ( (X D 2 ) ) 2 (X ) = E EX 33 / 47
114 Wariancja: przykład Wyznacz wariancję zmiennej X {1, 2, 3, 4, 5, 6} określającej wynik rzutu kostką. Z poprzednich slajdów wiemy, że EX = 3.5 ( (X D 2 ) ) 2 (X ) = E EX = 6 (k EX ) 2 P(X = k) k=1 33 / 47
115 Wariancja: przykład Wyznacz wariancję zmiennej X {1, 2, 3, 4, 5, 6} określającej wynik rzutu kostką. Z poprzednich slajdów wiemy, że EX = 3.5 ( (X D 2 ) ) 2 (X ) = E EX = = 6 (k EX ) 2 P(X = k) k=1 6 k=1 (k 3.5) / 47
116 Wariancja: przykład Wyznacz wariancję zmiennej X {1, 2, 3, 4, 5, 6} określającej wynik rzutu kostką. Z poprzednich slajdów wiemy, że EX = 3.5 ( (X D 2 ) ) 2 (X ) = E EX = = = (k EX ) 2 P(X = k) k=1 6 (k 3.5) ((1 3.5) 2 + (2 3.5) (6 3.5) 2) = k=1 33 / 47
117 Wariancja rozkładu dwupunktowego B(p) X {0, 1}, P(X = 1) = p, P(X = 0) = 1 p 34 / 47
118 Wariancja rozkładu dwupunktowego B(p) X {0, 1}, P(X = 1) = p, P(X = 0) = 1 p Z poprzednich slajdów wiemy, że EX = p 34 / 47
119 Wariancja rozkładu dwupunktowego B(p) X {0, 1}, P(X = 1) = p, P(X = 0) = 1 p Z poprzednich slajdów wiemy, że EX = p D 2 (X ) = (0 EX ) 2 P(X = 0) + (1 EX ) 2 P(X = 1) 34 / 47
120 Wariancja rozkładu dwupunktowego B(p) X {0, 1}, P(X = 1) = p, P(X = 0) = 1 p Z poprzednich slajdów wiemy, że EX = p D 2 (X ) = (0 EX ) 2 P(X = 0) + (1 EX ) 2 P(X = 1) = p 2 (1 p) + (1 p) 2 p 34 / 47
121 Wariancja rozkładu dwupunktowego B(p) X {0, 1}, P(X = 1) = p, P(X = 0) = 1 p Z poprzednich slajdów wiemy, że EX = p D 2 (X ) = (0 EX ) 2 P(X = 0) + (1 EX ) 2 P(X = 1) = p 2 (1 p) + (1 p) 2 p = p(1 p) ( ) p + (1 p) = p(1 p) }{{} =1 34 / 47
122 Wzór skróconego mnożenia dla wariancji Twierdzenie D 2 (X ) = E ( X 2) ( EX ) 2 35 / 47
123 Wzór skróconego mnożenia dla wariancji Twierdzenie D 2 (X ) = E ( X 2) ( EX ) 2 Dowód: D 2 (X ) = E ((X EX ) 2) 35 / 47
124 Wzór skróconego mnożenia dla wariancji Twierdzenie D 2 (X ) = E ( X 2) ( EX ) 2 Dowód: D 2 (X ) = E ((X EX ) 2) = E (X 2 2(EX )X + (EX ) 2) 35 / 47
125 Wzór skróconego mnożenia dla wariancji Twierdzenie D 2 (X ) = E ( X 2) ( EX ) 2 Dowód: D 2 (X ) = E ((X EX ) 2) (X 2 2(EX )X + (EX ) 2) = E = E ( X 2) ( E 2(EX ) }{{} stała ) ( X + E (EX ) 2 }{{} stała ) 35 / 47
126 Wzór skróconego mnożenia dla wariancji Twierdzenie D 2 (X ) = E ( X 2) ( EX ) 2 Dowód: D 2 (X ) = E ((X EX ) 2) (X 2 2(EX )X + (EX ) 2) = E ( X 2) ( E ) ( X + E = E 2(EX ) }{{} stała = E ( X 2) 2(EX )(EX ) + (EX ) 2 (EX ) 2 }{{} stała ) 35 / 47
127 Wzór skróconego mnożenia dla wariancji Twierdzenie D 2 (X ) = E ( X 2) ( EX ) 2 Dowód: D 2 (X ) = E ((X EX ) 2) (X 2 2(EX )X + (EX ) 2) = E ( X 2) ( E ) ( X + E = E 2(EX ) }{{} stała = E ( X 2) 2(EX )(EX ) + (EX ) 2 = E ( X 2) (EX ) 2 (EX ) 2 }{{} stała ) 35 / 47
128 Wariancja rozkładu Poissona Pois(λ) P(X = k) = λk k! e λ, X {0, 1,...} 36 / 47
129 Wariancja rozkładu Poissona Pois(λ) P(X = k) = λk k! e λ, X {0, 1,...} Z poprzednich slajdów wiemy, że EX = λ 36 / 47
130 Wariancja rozkładu Poissona Pois(λ) P(X = k) = λk k! e λ, X {0, 1,...} Z poprzednich slajdów wiemy, że EX = λ Ze wzoru skróconego mnożenia: D 2 (X ) = E ( X 2) ( EX ) 2 = E ( X 2 ) λ 2 Musimy więc tylko policzyć E ( X 2) 36 / 47
131 Wariancja rozkładu Poissona Pois(λ) P(X = k) = λk k! e λ, X {0, 1,...} Z poprzednich slajdów wiemy, że EX = λ Ze wzoru skróconego mnożenia: D 2 (X ) = E ( X 2) ( EX ) 2 = E ( X 2 ) λ 2 Musimy więc tylko policzyć E ( X 2) E ( X 2) = k 2 P(X = k) = k=0 k=1 k 2 λk k! e λ =... = λ + λ 2 Zadanie 6 Uzupełnij brakującą część wyprowadzenia 36 / 47
132 Wariancja rozkładu Poissona Pois(λ) P(X = k) = λk k! e λ, X {0, 1,...} Z poprzednich slajdów wiemy, że EX = λ Ze wzoru skróconego mnożenia: D 2 (X ) = E ( X 2) ( EX ) 2 = E ( X 2 ) λ 2 Musimy więc tylko policzyć E ( X 2) E ( X 2) = k 2 P(X = k) = k=0 k=1 k 2 λk k! e λ =... = λ + λ 2 Zadanie 6 Uzupełnij brakującą część wyprowadzenia Stąd D 2 (X ) = E ( X 2) λ 2 = λ 2 + λ λ 2 = λ 36 / 47
133 Wariancja rozkładu geometrycznego i dwumianowego Zadanie 7 Pokaż, że dla rozkładu geometrycznego: P(X = k) = (1 p) k 1 p, k = 1, 2,... wariancja wynosi D 2 (X ) = 1 p p 2 (krótszy sposób pokazany na następnym slajdzie) Zadanie 8 Pokaż, że dla rozkładu dwumianowego: ( ) n P(X = k) = p k (1 p) n k, k k = 0, 1,..., n wariancja wynosi D 2 (X ) = np(1 p) 37 / 47
134 Wariancja w rozkładzie geometrycznym G 1 (p): liczba prób do sukcesu: P(X = k) = (1 p) k 1 p, EX = 1, k = 1, 2,... p G 0 (p): Liczba porażek do sukcesu: P(Y = k) = (1 p) k p, k = 0, 1, 2,... Ponieważ X = Y + 1, czyli EY = EX 1 = 1 p 1 38 / 47
135 Wariancja w rozkładzie geometrycznym G 1 (p): liczba prób do sukcesu: P(X = k) = (1 p) k 1 p, EX = 1, k = 1, 2,... p G 0 (p): Liczba porażek do sukcesu: P(Y = k) = (1 p) k p, k = 0, 1, 2,... Ponieważ X = Y + 1, czyli EY = EX 1 = 1 p 1 Z jednej strony: E ( X 2) = E ( (Y + 1) 2) = E ( Y 2) + 2E(Y ) + 1 = E ( Y 2) + 2 p 1 38 / 47
136 Wariancja w rozkładzie geometrycznym G 1 (p): liczba prób do sukcesu: P(X = k) = (1 p) k 1 p, EX = 1, k = 1, 2,... p G 0 (p): Liczba porażek do sukcesu: P(Y = k) = (1 p) k p, k = 0, 1, 2,... Ponieważ X = Y + 1, czyli EY = EX 1 = 1 p 1 Z jednej strony: E ( X 2) = E ( (Y + 1) 2) = E ( Y 2) + 2E(Y ) + 1 = E ( Y 2) + 2 p 1 Z drugiej strony: ( E Y 2) = k 2 (1 p) k p = (1 p) k 2 (1 p) k 1 p k=1 k=1 }{{} ) =E (X 2 38 / 47
137 Wariancja w rozkładzie geometrycznym G 1 (p): liczba prób do sukcesu: P(X = k) = (1 p) k 1 p, EX = 1, k = 1, 2,... p G 0 (p): Liczba porażek do sukcesu: P(Y = k) = (1 p) k p, k = 0, 1, 2,... Ponieważ X = Y + 1, czyli EY = EX 1 = 1 p 1 Czyli: E ( X 2) = E ( Y 2) + 2 p 1 oraz E ( Y 2) = (1 p)e ( X 2) 38 / 47
138 Wariancja w rozkładzie geometrycznym G 1 (p): liczba prób do sukcesu: P(X = k) = (1 p) k 1 p, EX = 1, k = 1, 2,... p G 0 (p): Liczba porażek do sukcesu: P(Y = k) = (1 p) k p, k = 0, 1, 2,... Ponieważ X = Y + 1, czyli EY = EX 1 = 1 p 1 Czyli: Stąd: E ( X 2) = E ( Y 2) + 2 p 1 oraz E ( Y 2) = (1 p)e ( X 2) E ( X 2) = (1 p)e ( X 2) + 2 p 1 = E ( X 2) = 2 p 2 1 p 38 / 47
139 Wariancja w rozkładzie geometrycznym G 1 (p): liczba prób do sukcesu: P(X = k) = (1 p) k 1 p, EX = 1, k = 1, 2,... p G 0 (p): Liczba porażek do sukcesu: P(Y = k) = (1 p) k p, k = 0, 1, 2,... Ponieważ X = Y + 1, czyli EY = EX 1 = 1 p 1 Czyli: Stąd: E ( X 2) = E ( Y 2) + 2 p 1 oraz E ( Y 2) = (1 p)e ( X 2) E ( X 2) = (1 p)e ( X 2) + 2 p 1 = E ( X 2) = 2 p 2 1 p D 2 (X ) = E ( X 2) ( EX ) 2 = 2 p 2 1 p 1 p 2 = 1 p 2 1 p = 1 p p 2 38 / 47
140 1. D 2 (X ) 0 Własności wariancji 2. D 2 (X ) = 0 wtedy i tylko wtedy gdy X ma rozkład jednopunktowy 39 / 47
141 1. D 2 (X ) 0 Własności wariancji 2. D 2 (X ) = 0 wtedy i tylko wtedy gdy X ma rozkład jednopunktowy Dowód: D 2 (X ) = x (x EX ) 2 P(X = x) ( ) 39 / 47
142 1. D 2 (X ) 0 Własności wariancji 2. D 2 (X ) = 0 wtedy i tylko wtedy gdy X ma rozkład jednopunktowy Dowód: D 2 (X ) = x (x EX ) 2 P(X = x) ( ) Własność 1: oczywista, bo wszystkie wyrazy sumy są nieujemne 39 / 47
143 1. D 2 (X ) 0 Własności wariancji 2. D 2 (X ) = 0 wtedy i tylko wtedy gdy X ma rozkład jednopunktowy Dowód: D 2 (X ) = x (x EX ) 2 P(X = x) ( ) Własność 1: oczywista, bo wszystkie wyrazy sumy są nieujemne Własność 2: Jeśli X ma r. jednopunktowy w x to: E(X ) = x 1 = x, D 2 (X ) = E(X 2 ) (EX ) 2 = x 2 1 x 2 = 0 39 / 47
144 1. D 2 (X ) 0 Własności wariancji 2. D 2 (X ) = 0 wtedy i tylko wtedy gdy X ma rozkład jednopunktowy Dowód: D 2 (X ) = x (x EX ) 2 P(X = x) ( ) Własność 1: oczywista, bo wszystkie wyrazy sumy są nieujemne Własność 2: Jeśli X ma r. jednopunktowy w x to: E(X ) = x 1 = x, D 2 (X ) = E(X 2 ) (EX ) 2 = x 2 1 x 2 = 0 Jeśli D 2 (X ) = 0, to wszystkie wyrazy w ( ) muszą być = 0 39 / 47
145 1. D 2 (X ) 0 Własności wariancji 2. D 2 (X ) = 0 wtedy i tylko wtedy gdy X ma rozkład jednopunktowy Dowód: D 2 (X ) = x (x EX ) 2 P(X = x) ( ) Własność 1: oczywista, bo wszystkie wyrazy sumy są nieujemne Własność 2: Jeśli X ma r. jednopunktowy w x to: E(X ) = x 1 = x, D 2 (X ) = E(X 2 ) (EX ) 2 = x 2 1 x 2 = 0 Jeśli D 2 (X ) = 0, to wszystkie wyrazy w ( ) muszą być = 0 A więc dla wszystkich x (o niezerowym prawdopodobieństwie) zachodzi x = EX, czyli jest tylko jeden taki x, z P(X = x) = 1 39 / 47
146 1. D 2 (X ) 0 Własności wariancji 2. D 2 (X ) = 0 wtedy i tylko wtedy gdy X ma rozkład jednopunktowy Dowód: D 2 (X ) = x (x EX ) 2 P(X = x) ( ) Własność 1: oczywista, bo wszystkie wyrazy sumy są nieujemne Własność 2: Jeśli X ma r. jednopunktowy w x to: E(X ) = x 1 = x, D 2 (X ) = E(X 2 ) (EX ) 2 = x 2 1 x 2 = 0 Jeśli D 2 (X ) = 0, to wszystkie wyrazy w ( ) muszą być = 0 A więc dla wszystkich x (o niezerowym prawdopodobieństwie) zachodzi x = EX, czyli jest tylko jeden taki x, z P(X = x) = 1 Zadanie 9 Pokaż, że jeśli E(X 2 ) = 0, X ma rozkład jednopunktowy w zerze. 39 / 47
147 Własności wariancji D 2 (ax + b) = a 2 D 2 (X ) Wariancja nie zmienia się przy translacji o stałą i przemnaża się przez a 2 przy przemnożeniu zmiennej przez a. 40 / 47
148 Własności wariancji D 2 (ax + b) = a 2 D 2 (X ) Wariancja nie zmienia się przy translacji o stałą i przemnaża się przez a 2 przy przemnożeniu zmiennej przez a. Dowód: Zdefiniujmy zmienną Y = ax + b. Musimy pokazać, że D 2 (Y ) = a 2 D 2 (X ) 40 / 47
149 Własności wariancji D 2 (ax + b) = a 2 D 2 (X ) Wariancja nie zmienia się przy translacji o stałą i przemnaża się przez a 2 przy przemnożeniu zmiennej przez a. Dowód: Zdefiniujmy zmienną Y = ax + b. Musimy pokazać, że D 2 (Y ) = a 2 D 2 (X ) Y EY = ax + b E(aX + b) }{{} =aex +b = ax aex = a(x EX ) 40 / 47
150 Własności wariancji D 2 (ax + b) = a 2 D 2 (X ) Wariancja nie zmienia się przy translacji o stałą i przemnaża się przez a 2 przy przemnożeniu zmiennej przez a. Dowód: Zdefiniujmy zmienną Y = ax + b. Musimy pokazać, że D 2 (Y ) = a 2 D 2 (X ) Y EY = ax + b E(aX + b) }{{} =aex +b (Y EY ) 2 = a 2 (X EX ) 2 = ax aex = a(x EX ) 40 / 47
151 Własności wariancji D 2 (ax + b) = a 2 D 2 (X ) Wariancja nie zmienia się przy translacji o stałą i przemnaża się przez a 2 przy przemnożeniu zmiennej przez a. Dowód: Zdefiniujmy zmienną Y = ax + b. Musimy pokazać, że D 2 (Y ) = a 2 D 2 (X ) Y EY = ax + b E(aX + b) }{{} =aex +b (Y EY ) 2 = a 2 (X EX ) 2 = ax aex = a(x EX ) E ( (Y EY ) 2) = E ( a 2 (X EX ) 2) = a 2 E ( (X EX ) 2) 40 / 47
152 Własności wariancji D 2 (ax + b) = a 2 D 2 (X ) Wariancja nie zmienia się przy translacji o stałą i przemnaża się przez a 2 przy przemnożeniu zmiennej przez a. Dowód: Zdefiniujmy zmienną Y = ax + b. Musimy pokazać, że D 2 (Y ) = a 2 D 2 (X ) Y EY = ax + b E(aX + b) }{{} =aex +b (Y EY ) 2 = a 2 (X EX ) 2 E ( (Y EY ) 2) }{{} D 2 (Y ) = ax aex = a(x EX ) = E ( a 2 (X EX ) 2) = a 2 E ( (X EX ) 2) }{{} =D 2 (X ) 40 / 47
153 Wartość oczekiwana i wariancja podsumowanie rozkład X EX D 2 (X ) B(p) p p(1 p) B(n, p) np np(1 p) G 1 (p) 1 p NB(r, p) rp 1 p 1 p p 2 rp (1 p) 2 Pois(λ) λ λ 41 / 47
154 Odchylenie standardowe Wariancja ma inną skalę niż zmienna losowa Jeśli wartości X byłyby wyrażone np. w zł, to jaka jest jednostka wariancji? 42 / 47
155 Odchylenie standardowe Wariancja ma inną skalę niż zmienna losowa Jeśli wartości X byłyby wyrażone np. w zł, to jaka jest jednostka wariancji? Odchylenie standardowe D(X ) = D 2 (X ) 42 / 47
156 Odchylenie standardowe Wariancja ma inną skalę niż zmienna losowa Jeśli wartości X byłyby wyrażone np. w zł, to jaka jest jednostka wariancji? Odchylenie standardowe D(X ) = D 2 (X ) O ile wariancją łatwiej operuje się w wyprowadzeniach wzorów, to odchylenie standardowe jest miarą rozkładu podawaną w statystykach Odchylenie często (szczególnie w statystyce) oznacza się za pomocą symbolu σ, stąd wariancja oznaczana jest przez σ 2 42 / 47
157 Momenty zmiennej losowej Definicja Liczbę: m k = E(X k ) nazywamy momentem rzędu k zmiennej losowej X 43 / 47
158 Momenty zmiennej losowej Definicja Liczbę: m k = E(X k ) nazywamy momentem rzędu k zmiennej losowej X m 1 = EX m 2 = E(X 2 ) m 3 = E(X 3 ) / 47
159 Momenty centralne zmiennej losowej Definicja Liczbę: µ k = E ( (X EX ) k) nazywamy momentem centralnym rzędu k zmiennej losowej X 44 / 47
160 Momenty centralne zmiennej losowej Definicja Liczbę: µ k = E ( (X EX ) k) nazywamy momentem centralnym rzędu k zmiennej losowej X µ 1 = E(X EX ) = EX EX = 0 µ 2 = E ( (X EX ) 2) = D 2 (X ) µ 3 = E ( (X EX ) 3) / 47
161 Nierówność Markowa Niech X będzie nieujemną zmienną losową. Dla dowolnego a > 0: P(X a) EX a 45 / 47
162 Nierówność Markowa Niech X będzie nieujemną zmienną losową. Dla dowolnego a > 0: Dowód: P(X a) EX a EX = x x P(X = x) 45 / 47
163 Nierówność Markowa Niech X będzie nieujemną zmienną losową. Dla dowolnego a > 0: Dowód: P(X a) EX a EX = x x P(X = x) = x<a x P(X = x) } {{ } 0 + x a x P(X = x) 45 / 47
164 Nierówność Markowa Niech X będzie nieujemną zmienną losową. Dla dowolnego a > 0: Dowód: P(X a) EX a EX = x x P(X = x) = x<a x P(X = x) } {{ } x a a P(X = x) + x a x P(X = x) 45 / 47
165 Nierówność Markowa Niech X będzie nieujemną zmienną losową. Dla dowolnego a > 0: Dowód: P(X a) EX a EX = x x P(X = x) = x<a x P(X = x) } {{ } x a a P(X = x) + x a x P(X = x) = a x a P(X = x) = ap(x a) 45 / 47
166 Nierówność Markowa Niech X będzie nieujemną zmienną losową. Dla dowolnego a > 0: Dowód: P(X a) EX a EX = x x P(X = x) = x<a x P(X = x) } {{ } x a a P(X = x) + x a x P(X = x) = a x a P(X = x) = ap(x a) Dzieląc obustronnie przez a kończymy dowód. 45 / 47
167 Nierówność Czebyszewa Dla zmiennej losowej o skończonej wartości oczekiwanej i wariancji: P ( X EX ɛ ) D2 (X ) ɛ 2 Prawdopodobieństwo znacznego odchylenia się od wartości oczekiwanej jest niewielkie. 46 / 47
168 Nierówność Czebyszewa Dla zmiennej losowej o skończonej wartości oczekiwanej i wariancji: P ( X EX ɛ ) D2 (X ) ɛ 2 Prawdopodobieństwo znacznego odchylenia się od wartości oczekiwanej jest niewielkie. Dowód: Weźmy nieujemną zmienną losową Y = (X EX ) 2 P ( X EX ɛ ) = P ( (X EX ) 2 ɛ 2 ) = P(Y ɛ 2 ) 46 / 47
169 Nierówność Czebyszewa Dla zmiennej losowej o skończonej wartości oczekiwanej i wariancji: P ( X EX ɛ ) D2 (X ) ɛ 2 Prawdopodobieństwo znacznego odchylenia się od wartości oczekiwanej jest niewielkie. Dowód: Weźmy nieujemną zmienną losową Y = (X EX ) 2 P ( X EX ɛ ) = P ( (X EX ) 2 ɛ 2 ) = P(Y ɛ 2 ) ( ) EY ɛ 2 = D2 (X ) ɛ 2, gdzie w ( ) skorzystaliśmy z nierówności Markowa 46 / 47
170 Nierówność Czebyszewa P ( X EX ɛ ) D2 (X ) ɛ 2 Wniosek: Jeśli weźmiemy ɛ = kd(x ) dla pewnego k > 0 to: P ( X EX kd(x ) ) D2 (X ) k 2 D 2 (X ) = 1 k 2 Prawdopodobieństwo odchylenia się zmiennej losowej od swojej wartości oczekiwanej o więcej niż k odchyleń standardowych jest co najwyżej 1 k 2 47 / 47
Metody probabilistyczne
Metody probabilistyczne. Twierdzenia graniczne Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 20.2.208 / 26 Motywacja Rzucamy wielokrotnie uczciwą monetą i zliczamy
Bardziej szczegółowoPrzykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych
Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Niech Ω będzie przestrzenią zdarzeń elementarnych. Definicja 1 Rodzinę S zdarzeń losowych (zbiór S podzbiorów zbioru
Bardziej szczegółowo4,5. Dyskretne zmienne losowe (17.03; 31.03)
4,5. Dyskretne zmienne losowe (17.03; 31.03) Definicja 1 Zmienna losowa nazywamy dyskretna (skokowa), jeśli zbiór jej wartości x 1, x 2,..., można ustawić w ciag. Zmienna losowa X, która przyjmuje wszystkie
Bardziej szczegółowoDyskretne zmienne losowe
Dyskretne zmienne losowe dr Mariusz Grządziel 16 marca 2009 Definicja 1. Zmienna losowa nazywamy dyskretna (skokowa), jeśli zbiór jej wartości x 1, x 2,..., można ustawić w ciag. Zmienna losowa X, która
Bardziej szczegółowoRachunek prawdopodobieństwa Rozdział 4. Zmienne losowe
Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe 4.4. Momenty zmiennych losowych Katarzyna Rybarczyk-Krzywdzińska Wprowadzenie Przykład 1 Rzucamy raz kostką Ile wynosi średnia liczba oczek, jaka
Bardziej szczegółowoMetody probabilistyczne
Metody probabilistyczne 5. Zmienne losowe: wprowadzenie Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 8..208 / 42 Motywacja Często bardziej niż same zdarzenia losowe
Bardziej szczegółowoWykład 11: Martyngały: definicja, twierdzenia o zbieżności
RAP 412 14.01.2009 Wykład 11: Martyngały: definicja, twierdzenia o zbieżności Wykładowca: Andrzej Ruciński Pisarz:Mirosława Jańczak 1 Wstęp Do tej pory zajmowaliśmy się ciągami zmiennych losowych (X n
Bardziej szczegółowoRozkłady prawdopodobieństwa
Tytuł Spis treści Wersje dokumentu Instytut Matematyki Politechniki Łódzkiej 10 grudnia 2011 Spis treści Tytuł Spis treści Wersje dokumentu 1 Wartość oczekiwana Wariancja i odchylenie standardowe Rozkład
Bardziej szczegółowoWYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa
WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa Agata Boratyńska Agata Boratyńska Rachunek prawdopodobieństwa, wykład 2 i 3 1 / 19 Zmienna losowa Definicja Dana jest przestrzeń probabilistyczna
Bardziej szczegółowoPrzestrzeń probabilistyczna
Przestrzeń probabilistyczna (Ω, Σ, P) Ω pewien niepusty zbiór Σ rodzina podzbiorów tego zbioru P funkcja określona na Σ, zwana prawdopodobieństwem. Przestrzeń probabilistyczna (Ω, Σ, P) Ω pewien niepusty
Bardziej szczegółowoZmienna losowa. Rozkład skokowy
Temat: Zmienna losowa. Rozkład skokowy Kody kolorów: żółty nowe pojęcie pomarańczowy uwaga * - materiał nadobowiązkowy Anna Rajfura, Matematyka i statystyka matematyczna na kierunku Rolnictwo SGGW 1 Zagadnienia
Bardziej szczegółowoĆwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu.
Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu. A Teoria Definicja A.1. Niech (Ω, F, P) będzie przestrzenią probabilistyczną. Zmienną losową określoną na przestrzeni Ω nazywamy dowolną
Bardziej szczegółowoWykład 3 Jednowymiarowe zmienne losowe
Wykład 3 Jednowymiarowe zmienne losowe Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną Definicja 1 Jednowymiarowa zmienna losowa (o wartościach rzeczywistych), określoną na przestrzeni probabilistycznej
Bardziej szczegółowoRuletka czy można oszukać kasyno?
23 stycznia 2017 Ruletka czy można oszukać kasyno? M. Dworak, K. Maraj, S. Michałowski Plan prezentacji Podstawy ruletki System dwójkowy (Martingale) Czy system rzeczywiście działa? 1/22 Podstawy ruletki
Bardziej szczegółowoStatystyka matematyczna
Statystyka matematyczna Wykład 5 Magdalena Alama-Bućko 1 kwietnia 2019 Magdalena Alama-Bućko Statystyka matematyczna 1 kwietnia 2019 1 / 19 Rozkład Poissona Po(λ), λ > 0 - parametr tzw. rozkład zdarzeń
Bardziej szczegółowoZmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014
Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014 Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe
Bardziej szczegółowoWYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty
WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty Agata Boratyńska Agata Boratyńska Rachunek prawdopodobieństwa, wykład 4 / 9 Przekształcenia zmiennej losowej X
Bardziej szczegółowoZestaw 2: Zmienne losowe. 0, x < 1, 2, 2 x, 1 1 x, 1 x, F 9 (x) =
Zestaw : Zmienne losowe. Które z poniższych funkcji są dystrybuantami? Odpowiedź uzasadnij. Wskazówka: naszkicuj wykres. 0, x 0,, x 0, F (x) = x, F (x) = x, 0 x
Bardziej szczegółowoRozkłady prawdopodobieństwa zmiennych losowych
Rozkłady prawdopodobieństwa zmiennych losowych Rozkład dwumianowy Rozkład normalny Marta Zalewska Zmienna losowa dyskretna (skokowa) jest to zmienna, której zbór wartości jest skończony lub przeliczalny.
Bardziej szczegółowoRachunek prawdopodobieństwa Rozdział 4. Zmienne losowe
Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe 4.1. Zmienne losowe dyskretne. Katarzyna Rybarczyk-Krzywdzińska Definicja/Rozkład Zmienne losowe dyskretne Definicja Zmienną losową, która skupiona
Bardziej szczegółowoJednowymiarowa zmienna losowa
1 Jednowymiarowa zmienna losowa Przykład Doświadczenie losowe - rzut kostką do gry. Obserwujemy ilość wyrzuconych oczek. Teoretyczny model eksperymentu losowego - przestrzeń probabilistyczna (Ω, S, P ),
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład VII: Rozkład i jego charakterystyki 22 listopada 2016 Uprzednio wprowadzone pojęcia i ich własności Definicja zmiennej losowej Zmienna losowa na przestrzeni probabilistycznej (Ω, F, P) to funkcja
Bardziej szczegółowoPEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA
PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA 1. Trójkę (Ω, F, P ), gdzie Ω, F jest σ-ciałem podzbiorów Ω, a P jest prawdopodobieństwem określonym na F, nazywamy przestrzenią probabilistyczną. 2. Rodzinę F
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład II: Zmienne losowe i charakterystyki ich rozkładów 13 października 2014 Zmienne losowe Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Definicja zmiennej losowej i jej
Bardziej szczegółowoWYKŁAD 2. Zdarzenia losowe i prawdopodobieństwo Zmienna losowa i jej rozkłady
WYKŁAD 2 Zdarzenia losowe i prawdopodobieństwo Zmienna losowa i jej rozkłady Metody statystyczne metody opisu metody wnioskowania statystycznego syntetyczny liczbowy opis właściwości zbioru danych ocena
Bardziej szczegółowoBiostatystyka, # 3 /Weterynaria I/
Biostatystyka, # 3 /Weterynaria I/ dr n. mat. Zdzisław Otachel Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Głęboka 28, p. 221 bud. CIW, e-mail: zdzislaw.otachel@up.lublin.pl
Bardziej szczegółowoL.Kowalski zadania z rachunku prawdopodobieństwa-zestaw 2 ZADANIA - ZESTAW 2
ZADANIA - ZESTAW 2 Zadanie 2.1 Zmienna losowa X ma rozkład określony funkcją prawdopodobieństwa: x k 1 0 2 p k 1/ 1/6 1/2 a) wyznaczyć dystrybuantę tej zmiennej losowej i naszkicować jej wykres, b) obliczyć
Bardziej szczegółowoElementy Rachunek prawdopodobieństwa
Elementy rachunku prawdopodobieństwa Rachunek prawdopodobieństwa zajmuje się analizą praw rządzących zdarzeniami losowymi Pojęciami pierwotnymi są: zdarzenie elementarne ω oraz zbiór zdarzeń elementarnych
Bardziej szczegółowoRozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej
Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Zbiór możliwych wyników eksperymentu będziemy nazywać przestrzenią zdarzeń elementarnych i oznaczać Ω, natomiast
Bardziej szczegółowoIII. ZMIENNE LOSOWE JEDNOWYMIAROWE
III. ZMIENNE LOSOWE JEDNOWYMIAROWE.. Zmienna losowa i pojęcie rozkładu prawdopodobieństwa W dotychczas rozpatrywanych przykładach każdemu zdarzeniu była przyporządkowana odpowiednia wartość liczbowa. Ta
Bardziej szczegółowoP (A B) = P (A), P (B) = P (A), skąd P (A B) = P (A) P (B). P (A)
Wykład 3 Niezależność zdarzeń, schemat Bernoulliego Kiedy dwa zdarzenia są niezależne? Gdy wiedza o tym, czy B zaszło, czy nie, NIE MA WPŁYWU na oszacowanie prawdopodobieństwa zdarzenia A: P (A B) = P
Bardziej szczegółowoTemat: Zmienna losowa. Rozkład skokowy. Rozkład ciągły. Kody kolorów: Ŝółty nowe pojęcie pomarańczowy uwaga. Anna Rajfura, Matematyka
Temat: Zmienna losowa. Rozkład skokowy. Rozkład ciągły Kody kolorów: Ŝółty nowe pojęcie pomarańczowy uwaga 1 Zagadnienia 1. Przypomnienie wybranych pojęć rachunku prawdopodobieństwa. Zmienna losowa. Rozkład
Bardziej szczegółowoRachunek Prawdopodobieństwa i Statystyka
Rachunek Prawdopodobieństwa i Statystyka W 2. Probabilistyczne modele danych Zmienne losowe. Rozkład prawdopodobieństwa i dystrybuanta. Wartość oczekiwana i wariancja zmiennej losowej Dr Anna ADRIAN Zmienne
Bardziej szczegółowoRachunek prawdopodobieństwa i statystyka
Rachunek prawdopodobieństwa i statystyka Przestrzeń probabilistyczna Niech Ω będzie dowolnym zbiorem, zwanym przestrzenią zdarzeń elementarnych. Elementy ω tej przestrzeni nazywamy zdarzeniami elementarnymi.
Bardziej szczegółowoWYKŁAD 3. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki
WYKŁAD 3 Witold Bednorz, Paweł Wolff 1 Instytut Matematyki Uniwersytet Warszawski Rachunek Prawdopodobieństwa, WNE, 2010-2011 Schemmat Bernouliego Rzucamy 10 razy moneta, próba Bernouliego jest pojedynczy
Bardziej szczegółowoPojęcie szeregu nieskończonego:zastosowania do rachunku prawdopodobieństwa wykład 1
Pojęcie szeregu nieskończonego:zastosowania do rachunku prawdopodobieństwa wykład dr Mariusz Grządziel 5 lutego 04 Paradoks Zenona z Elei wersja uwspółcześniona Zenek goni Andrzeja; prędkość Andrzeja:
Bardziej szczegółowoLista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie
Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie Jarosław Kotowicz Instytut Matematyki Uniwersytet w
Bardziej szczegółowoJeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna.
Wykład 4 Rozkłady i ich dystrybuanty Dwa typy zmiennych losowych Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x, x 2,...}, to mówimy, że jest to zmienna dyskretna.
Bardziej szczegółowoStatystyka i eksploracja danych
Wykład II: i charakterystyki ich rozkładów 24 lutego 2014 Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa,
Bardziej szczegółowoRachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne
Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne 5.3 Rozkłady warunkowe i warunkowa wartość oczekiwana Katarzyna Rybarczyk-Krzywdzińska semestr zimowy 2015/2016 Prawdopodobieństwo wyraża postawę
Bardziej szczegółowoPODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA. Piotr Wiącek
PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA Piotr Wiącek ROZKŁAD PRAWDOPODOBIEŃSTWA Jest to miara probabilistyczna określona na σ-ciele podzbiorów borelowskich pewnej przestrzeni metrycznej. σ-ciało podzbiorów
Bardziej szczegółowoZmienna losowa i jej rozkład Dystrybuanta zmiennej losowej Wartość oczekiwana zmiennej losowej
Zmienna losowa i jej rozkład Dystrybuanta zmiennej losowej Wartość oczekiwana zmiennej losowej c Copyright by Ireneusz Krech ikrech@ap.krakow.pl Instytut Matematyki Uniwersytet Pedagogiczny im. KEN w Krakowie
Bardziej szczegółowoRachunek prawdopodobieństwa - Teoria - Przypomnienie.. A i B są niezależne, gdy P(A B) = P(A)P(B). P(A B i )P(B i )
Rachunek prawdopodobieństwa - Teoria - Przypomnienie Podstawy Definicja 1. Schemat klasyczny - wszystkie zdarzenia elementarne są równo prawdopodobne, licząc prawdopodobieństwo liczymy stosunek liczby
Bardziej szczegółowoPodstawy nauk przyrodniczych Matematyka
Podstawy nauk przyrodniczych Matematyka Elementy rachunku prawdopodobieństwa dr inż. Małgorzata Szeląg Zakład Genetyki Molekularnej Człowieka tel. 61 829 59 04 malgorzata.szelag@amu.edu.pl Pokój 1.118
Bardziej szczegółowoWykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa
Wykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa Marek Kubiak Instytut Informatyki Politechnika Poznańska Plan wykładu Podstawowe pojęcia rachunku prawdopodobieństwa Rozkład
Bardziej szczegółowoPrawa wielkich liczb, centralne twierdzenia graniczne
, centralne twierdzenia graniczne Katedra matematyki i ekonomii matematycznej 17 maja 2012, centralne twierdzenia graniczne Rodzaje zbieżności ciągów zmiennych losowych, centralne twierdzenia graniczne
Bardziej szczegółowoMatematyka z el. statystyki, # 3 /Geodezja i kartografia II/
Matematyka z el. statystyki, # 3 /Geodezja i kartografia II/ Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Akademicka 15, p.211a bud. Agro II, e-mail: zdzislaw.otachel@up.lublin.pl
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład VIII: Przestrzenie statystyczne. Estymatory 1 grudnia 2014 Wprowadzenie Przykład: pomiar z błędem Współczynnik korelacji r(x, Z) = 0, 986 Wprowadzenie Przykład: pomiar z błędem Współczynnik korelacji
Bardziej szczegółowoZmienne losowe. Powtórzenie. Dariusz Uciński. Wykład 1. Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski
Powtórzenie Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 1 Podręcznik podstawowy Jacek Koronacki, Jan Mielniczuk: Statystyka dla studentów kierunków technicznych i przyrodnicznych,
Bardziej szczegółowoPrzykłady 6.1 : charakterystyki liczbowe rozkładów dyskretnych
Rachunek Prawdopodobieństwa MAP8 Wydział Matematyki, Matematyka Stosowana Przykłady 6. Wartość oczekiwana, wariancja, mediana, kwartyle rozkładu prawdopodobieństwa. Transformacje zmiennej losowej. Opracowanie:
Bardziej szczegółowoWykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe
Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe Nierówność Czebyszewa Niech X będzie zmienną losową o skończonej wariancji V ar(x). Wtedy wartość oczekiwana E(X) też jest skończona i
Bardziej szczegółowoW rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych:
W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych: Zmienne losowe skokowe (dyskretne) przyjmujące co najwyżej przeliczalnie wiele wartości Zmienne losowe ciągłe
Bardziej szczegółowoMatematyka dla biologów Zajęcia nr 12.
Matematyka dla biologów Zajęcia nr 12. Rachunek prawdopodobieństwa Dariusz Wrzosek Zajęcia nr 12. 9 stycznia 2019 1 / 32 Zmienne losowe Przebieg różnych zjawisk losowych wygodnie jest opisywać za pomoca
Bardziej szczegółowoWażne rozkłady i twierdzenia
Ważne rozkłady i twierdzenia Rozkład dwumianowy i wielomianowy Częstość. Prawo wielkich liczb Rozkład hipergeometryczny Rozkład Poissona Rozkład normalny i rozkład Gaussa Centralne twierdzenie graniczne
Bardziej szczegółowoRACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3.
RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3. ZMIENNA LOSOWA JEDNOWYMIAROWA. Zmienną losową X nazywamy funkcję (praktycznie każdą) przyporządkowującą zdarzeniom elementarnym liczby rzeczywiste. X : Ω R (dokładniej:
Bardziej szczegółowoSieci Mobilne i Bezprzewodowe laboratorium 1
Sieci Mobilne i Bezprzewodowe laboratorium 1 Plan laboratoriów Teoria zdarzeń dyskretnych Modelowanie zdarzeń dyskretnych Symulacja zdarzeń dyskretnych Problem rozmieszczenia stacji raportujących i nieraportujących
Bardziej szczegółowoRachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne
Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne 5.2. Momenty rozkładów łącznych. Katarzyna Rybarczyk-Krzywdzińska rozkładów wielowymiarowych Przypomnienie Jeśli X jest zmienną losową o rozkładzie
Bardziej szczegółowoZadania zestaw 1: Zadania zestaw 2
Zadania zestaw 1: Zadania zestaw 2 Zadania zestaw 3. 1 Rozkład zmiennej losowej skokowej X przedstawia tabela. x i m 0 n p i 0,4 0,3 0,3 a) Wyznacz m i n jeśli: są całkowite, m
Bardziej szczegółowoElementy rachunku prawdopodobieństwa (M. Skośkiewicz, A. Siejka, K. Walczak, A. Szpakowska)
Elementy rachunku prawdopodobieństwa (M. Skośkiewicz, A. Siejka, K. Walczak, A. Szpakowska) Twierdzenie (o mnożeniu) Podstawowe pojęcia i wzory kombinatoryczne. Niech,, będą zbiorami mającymi odpowiednio,,
Bardziej szczegółowoWykład 2 Zmienne losowe i ich rozkłady
Wykład 2 Zmienne losowe i ich rozkłady Magdalena Frąszczak Wrocław, 11.10.2017r Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe Doświadczenie
Bardziej szczegółowoRozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład
Rozdział 1 Wektory losowe 1.1 Wektor losowy i jego rozkład Definicja 1 Wektor X = (X 1,..., X n ), którego każda współrzędna jest zmienną losową, nazywamy n-wymiarowym wektorem losowym (krótko wektorem
Bardziej szczegółowo12DRAP - parametry rozkładów wielowymiarowych
DRAP - parametry rozkładów wielowymiarowych Definicja.. Jeśli h : R R, a X, Y ) jest wektorem losowym o gęstości fx, y) to EhX, Y ) = hx, y)fx, y)dxdy. Jeśli natomiast X, Y ) ma rozkład dyskretny skupiony
Bardziej szczegółowoStatystyka matematyczna dla leśników
Statystyka matematyczna dla leśników Wydział Leśny Kierunek leśnictwo Studia Stacjonarne I Stopnia Rok akademicki 2013/2014 Wykład 3 Zmienna losowa i jej rozkłady Zdarzenia losowe Pojęcie prawdopodobieństwa
Bardziej szczegółowoRachunek prawdopodobieństwa- wykład 2
Rachunek prawdopodobieństwa- wykład 2 Pojęcie dyskretnej przestrzeni probabilistycznej i określenie prawdopodobieństwa w tej przestrzeni dr Marcin Ziółkowski Instytut Matematyki i Informatyki Uniwersytet
Bardziej szczegółowoTeoria miary. WPPT/Matematyka, rok II. Wykład 5
Teoria miary WPPT/Matematyka, rok II Wykład 5 Funkcje mierzalne Niech (X, F) będzie przestrzenią mierzalną i niech f : X R. Twierdzenie 1. NWSR 1. {x X : f(x) > a} F dla każdego a R 2. {x X : f(x) a} F
Bardziej szczegółowoMATEMATYKA Z ELEMENTAMI STATYSTYKI LABORATORIUM KOMPUTEROWE DLA II ROKU KIERUNKU ZARZĄDZANIE I INŻYNIERIA PRODUKCJI ZESTAWY ZADAŃ
MATEMATYKA Z ELEMENTAMI STATYSTYKI LABORATORIUM KOMPUTEROWE DLA II ROKU KIERUNKU ZARZĄDZANIE I INŻYNIERIA PRODUKCJI ZESTAWY ZADAŃ Opracowała: Milena Suliga Wszystkie pliki pomocnicze wymienione w treści
Bardziej szczegółowoRozkłady statystyk z próby
Rozkłady statystyk z próby Rozkłady statystyk z próby Przypuśćmy, że wykonujemy serię doświadczeń polegających na 4 krotnym rzucie symetryczną kostką do gry, obserwując liczbę wyrzuconych oczek Nr kolejny
Bardziej szczegółowoRozkłady zmiennych losowych
Rozkłady zmiennych losowych Wprowadzenie Badamy pewną zbiorowość czyli populację pod względem występowania jakiejś cechy. Pobieramy próbę i na podstawie tej próby wyznaczamy pewne charakterystyki. Jeśli
Bardziej szczegółowop k (1 p) n k. k c. dokładnie 10 razy została wylosowana kula amarantowa, ale nie za pierwszym ani drugim razem;
05DRAP - Niezależność zdarzeń, schemat Bernoulliego Definicja.. Zdarzenia A i B nazywamy niezależnymi, jeżeli zachodzi równość P(A B) = P(A) P(B). Definicja. 2. Zdarzenia A,..., A n nazywamy niezależnymi
Bardziej szczegółowoStatystyka. Magdalena Jakubek. kwiecień 2017
Statystyka Magdalena Jakubek kwiecień 2017 1 Nauka nie stara się wyjaśniać, a nawet niemal nie stara się interpretować, zajmuje się ona głównie budową modeli. Model rozumiany jest jako matematyczny twór,
Bardziej szczegółowoLista 5. Zadanie 3. Zmienne losowe X i (i = 1, 2, 3, 4) są niezależne o tym samym
Lista 5 Zadania na zastosowanie nierównosci Markowa i Czebyszewa. Zadanie 1. Niech zmienna losowa X ma rozkład jednostajny na odcinku [0, 1]. Korzystając z nierówności Markowa oszacować od góry prawdopodobieństwo,
Bardziej szczegółowoStatystyka Opisowa z Demografią oraz Biostatystyka. Zmienne losowe. Aleksander Denisiuk. denisjuk@euh-e.edu.pl
Statystyka Opisowa z Demografią oraz Biostatystyka Zmienne losowe Aleksander Denisiuk denisjuk@euh-e.edu.pl Elblaska Uczelnia Humanistyczno-Ekonomiczna ul. Lotnicza 2 82-300 Elblag oraz Biostatystyka p.
Bardziej szczegółowoZmienne losowe. dr Mariusz Grządziel Wykład 12; 20 maja 2014
Zmienne losowe dr Mariusz Grządziel Wykład 2; 20 maja 204 Definicja. Zmienna losowa nazywamy dyskretna (skokowa), jeśli zbiór jej wartości x, x 2,..., można ustawić w ciag. Zmienna losowa X, która przyjmuje
Bardziej szczegółowoSTATYSTYKA MATEMATYCZNA. rachunek prawdopodobieństwa
STATYSTYKA MATEMATYCZNA rachunek prawdopodobieństwa treść Zdarzenia losowe pojęcie prawdopodobieństwa prawo wielkich liczb zmienne losowe rozkłady teoretyczne zmiennych losowych Zanim zajmiemy się wnioskowaniem
Bardziej szczegółowoDeska Galtona. Adam Osękowski. Instytut Matematyki, Wydział Matematyki, Informatyki i Mechaniki Uniwersytet Warszawski
a schemat Bernoulliego Instytut Matematyki, Wydział Matematyki, Informatyki i Mechaniki Uniwersytet Warszawski XV Festiwal Nauki, 21 września 2011r. a schemat Bernoulliego Schemat Bernoulliego B(n, p)
Bardziej szczegółowoNajczęściej spotykane rozkłady dyskretne:
I. Rozkład dwupunktowy: Najczęściej spotykane rozkłady dyskretne: Def. Zmienna X ma rozkład dwupunktowy z prawdopodobieostwem 1 przyjmuje tylko dwie wartości, tzn. P(X = x 1 ) = p i P(X = x 2 ) = 1 p =
Bardziej szczegółowoRozkłady i ich dystrybuanty 16 marca F X (t) = P (X < t) 0, gdy t 0, F X (t) = 1, gdy t > c, 0, gdy t x 1, 1, gdy t > x 2,
Wykład 4. Rozkłady i ich dystrybuanty 6 marca 2007 Jak opisać cały rozkład jedną funkcją? Aby znać rozkład zmiennej X, musimy umieć obliczyć P (a < X < b) dla dowolnych a < b. W tym celu wystarczy znać
Bardziej szczegółowoMatematyka ubezpieczeń majątkowych r.
Matematyka ubezpieczeń majątkowych 5.0.00 r. Zadanie. Dla dowolnej zmiennej losowej X o wartości oczekiwanej µ wariancji oraz momencie centralnym µ k rzędu k zachodzą nierówności (typu Czebyszewa): ( X
Bardziej szczegółowoRachunek prawdopodobieństwa Rozdział 4. Zmienne losowe
Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe 4.0. Rozkłady zmiennych losowych, dystrybuanta. Katarzyna Rybarczyk-Krzywdzińska Wprowadzenie Rozważmy eksperymenty 1 gra Bolka w ruletkę w kasynie;
Bardziej szczegółowoWykład 3 Momenty zmiennych losowych.
Wykład 3 Momenty zmiennych losowych. Wrocław, 19 października 2016r Momenty zmiennych losowych Wartość oczekiwana - przypomnienie Definicja 3.1: 1 Niech X będzie daną zmienną losową. Jeżeli X jest zmienną
Bardziej szczegółowoWykład 3 Momenty zmiennych losowych.
Wykład 3 Momenty zmiennych losowych. Wrocław, 18 października 2017r Momenty zmiennych losowych Wartość oczekiwana - przypomnienie Definicja 3.1: 1 Niech X będzie daną zmienną losową. Jeżeli X jest zmienną
Bardziej szczegółowoStatystyka. Wydział Zarządzania Uniwersytetu Łódzkiego
Statystyka Wydział Zarządzania Uniwersytetu Łódzkiego 2017 Zmienna losowa i jej rozkład Mając daną przestrzeń probabilistyczną, czyli parę (&, P) stanowiącą model pewnego doświadczenia losowego (gdzie
Bardziej szczegółowoRachunek prawdopodobieństwa- wykład 6
Rachunek prawdopodobieństwa- wykład 6 Zmienne losowe dyskretne. Charakterystyki liczbowe zmiennych losowych dyskretnych dr Marcin Ziółkowski Instytut Matematyki i Informatyki Uniwersytet Humanistyczno-Przyrodniczy
Bardziej szczegółowoLiteratura. Leitner R., Zacharski J., Zarys matematyki wyŝszej dla studentów, cz. III.
Literatura Krysicki W., Bartos J., Dyczka W., Królikowska K, Wasilewski M., Rachunek Prawdopodobieństwa i Statystyka Matematyczna w Zadaniach, cz. I. Leitner R., Zacharski J., Zarys matematyki wyŝszej
Bardziej szczegółowo1 Elementy kombinatoryki i teorii prawdopodobieństwa
1 Elementy kombinatoryki i teorii prawdopodobieństwa 1.1 Elementy kombinatoryki W rozwiązywaniu pewnych problemów związanych z obliczaniem prawdopodobieństwa o skończonej liczbie zdażeń elementarnych bardzo
Bardziej szczegółowoĆwiczenia 3 ROZKŁAD ZMIENNEJ LOSOWEJ JEDNOWYMIAROWEJ
Ćwiczenia 3 ROZKŁAD ZMIENNEJ LOSOWEJ JEDNOWYMIAROWEJ Zadanie 1. Zmienna losowa przyjmuje wartości -1, 0, 1 z prawdopodobieństwami równymi odpowiednio: ¼, ½, ¼. Należy: a. Wyznaczyć rozkład prawdopodobieństwa
Bardziej szczegółowoMetody probabilistyczne Rozwiązania zadań
Metody robabilistyczne Rozwiązania zadań 6. Momenty zmiennych losowych 8.11.2018 Zadanie 1. Poaż, że jeśli X Bn, to EX n. Odowiedź: X rzyjmuje wartości w zbiorze {0, 1,..., n} z rawdoodobieństwami zadanymi
Bardziej szczegółowoZmienne losowe ciągłe i ich rozkłady
Statystyka i opracowanie danych W3 Zmienne losowe ciągłe i ich rozkłady Dr Anna ADRIAN Paw B5, pok47 adan@agh.edu.pl Plan wykładu Rozkład Poissona. Zmienna losowa ciągła Dystrybuanta i funkcja gęstości
Bardziej szczegółowoStatystyka w analizie i planowaniu eksperymentu
21 marca 2011 Zmienna losowa - wst ep Przeprowadzane w praktyce badania i eksperymenty maja bardzo różnorodny charakter, niemniej jednak wiaż a sie one z rejestracja jakiś sygna lów (danych). Moga to być
Bardziej szczegółowoStatystyka w analizie i planowaniu eksperymentu
21 marca 2011 Zmienna losowa wst ep Przeprowadzane w praktyce badania i eksperymenty maja bardzo różnorodny charakter, niemniej jednak wiaż a sie z rejestracja jakiś sygna lów (danych). Moga to być na
Bardziej szczegółowoLaboratorium nr 7. Zmienne losowe typu skokowego.
Laboratorium nr 7. Zmienne losowe typu skokowego.. Zmienna losowa X ma rozkład dany tabelką: - 0 3 0, 0,3 0, 0,3 0, Naszkicować dystrybuantę zmiennej X. Obliczyć EX oraz VarX.. Zmienna losowa ma rozkład
Bardziej szczegółowoStatystyka w analizie i planowaniu eksperymentu
10 marca 2014 Zmienna losowa - wst ep Przeprowadzane w praktyce badania i eksperymenty maja bardzo różnorodny charakter, niemniej jednak wiaż a sie one z rejestracja jakiś sygna lów (danych). Moga to być
Bardziej szczegółowoPrzegląd ważniejszych rozkładów
Przegląd ważniejszych rozkładów Rozkład dwupunktowy P (X = x) = { p dla x = a, 1 p dla x = b, to zmienna losowa X ma rozkład dwupunktowy z parametrem p (0 < p < 1). Rozkład ten pojawia się przy opisie
Bardziej szczegółowoI. Kombinatoryka i prawdopodobieństwo. g) różnowartościowych, h) bez miejsc zerowych, i) z jednym miejscem zerowym, j) z dwoma miejscami zerowymi,
I. Kombinatoryka i prawdopodobieństwo I.1 Mała Lusia bawi się literkami A,A,A,E,K,M,M,T,T,Y ustawiając je w różnej kolejności. Jakie jest prawdopodobieństwo ustawienia wyrazu MATEMATYKA? I. Wśród funkcji
Bardziej szczegółowo5 Przegląd najważniejszych rozkładów
5 Przegląd najważniejszych rozkładów 5. Rozkład Bernoulliego W niezmieniających się warunkach wykonujemy n razy pewne doświadczenie. W wyniku każdego doświadczenia może nastąpić zdarzenie A lub A. Zakładamy,
Bardziej szczegółowoćwiczenia z rachunku prawdopodobieństwa
ćwiczenia z rachunku prawdopodobieństwa 9.10.2010 ogólna definicja prawdopodobieństwa, własności 1. Niech Ω = [0, 1] oraz niech Σ będzie pewną σ-algebrą podzbiorów odcinka [0, 1]. Udowodnić, że funkcja
Bardziej szczegółowoStatystyczna analiza danych w programie STATISTICA 7.1 PL (wykład 1) Dariusz Gozdowski
Statystyczna analiza danych w programie STATISTICA 7.1 PL (wykład 1) Dariusz Gozdowski Katedra Doświadczalnictwa i Bioinformatyki Wydział Rolnictwa i Biologii SGGW STATYSTYKA to nauka, której przedmiotem
Bardziej szczegółowoMetody probabilistyczne
Metody probabilistyczne 13. Elementy statystki matematycznej I Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 17.01.2019 1 / 30 Zagadnienia statystki Przeprowadzamy
Bardziej szczegółowoWIELKA SGH-OWA POWTÓRKA ZE STATYSTYKI. Zmienna losowa i jej rozkład
WIELKA SGH-OWA POWTÓRKA ZE STATYSTYKI Zmienna losowa i jej rozkład ZMIENNA LOSOWA Funkcja X przyporządkowująca każdemu zdarzeniu elementarnemu jedną i tylko jedną liczbę x. zmienna losowa skokowa skończona
Bardziej szczegółowoPRAWDOPODOBIEŃSTWO. ZMIENNA LOSOWA. TYPY ROZKŁADÓW
PRAWDOPODOBIEŃSTWO. ZMIENNA LOSOWA. TYPY ROZKŁADÓW Rachunek prawdopodobieństwa (probabilitis - prawdopodobny) zajmuje się badaniami pewnych prawidłowości (regularności) zachodzących przy wykonywaniu doświadczeń
Bardziej szczegółowo