Wykład 3 Momenty zmiennych losowych. Wrocław, 18 października 2017r
Momenty zmiennych losowych
Wartość oczekiwana - przypomnienie Definicja 3.1: 1 Niech X będzie daną zmienną losową. Jeżeli X jest zmienną losową dyskretną oraz i x i P(X = x i ) <, to istnieje wartość oczekiwana EX dana wzorem: EX = i x i P(X = x i ) 2 Jeżeli X jest zmienną losową z ciągłą gęstością f oraz x f (x)dx <, to istnieje wartość oczekiwana EX dana wzorem EX = xf (x)dx
Własności wartości oczekiwanej - przypomnienie Niech będą dane zmienne losowe X i Y oraz stała a E(a) = a E(aX ) = ae(x ) E(X Y ) = EX EY E(X + Y ) = EX + EY Jeżeli X i Y są niezależnymi zmiennymi losowymi, to: E(XY ) = EX EY
Momenty Definicja 3.2: Momentem rzędu n rozkładu zmiennej losowej X nazywamy: µ n = EX n Momentem centralnym rzędu n rozkładu zmiennej losowej X nazywamy: m n = E[X EX ] n Wartość oczekiwana EX jest pierwszym momentem rozkładu zmiennej losowej X
Momenty Szczególnym przypadkiem momentu centralnego jest wariancja zmiennej losowej, którą będziemy oznaczać Var: Definicja 3.3: Moment centralny rzędu 2 rozkładu zmiennej losowej X nazywamy wariancją: Var(X ) = E[X EX ] 2 = EX 2 (EX ) 2 Wariancja zmiennej losowej (błąd średniokwadratowy) jest to miara rozproszenia wartości zmiennej wokół wartości średniej. Im wariancja jest mniejsza tym bardziej wartości zmiennej skupiają się wokół średniej.
Momenty Twierdzenie 3.1 Jeżeli zmienna losowa X ma skończoną wariancję to dla dowolnych stałych a i b zachodzi: Var(aX + b) = a 2 Var(X ) Jeżeli zmienne losowe X i Y są niezależne i mają skończone wariancje to Var(X + Y ) = Var(X ) + Var(Y ) Dowód: na ćwiczeniach.
Momenty. Przykład 3.1 Wyznaczyć warość oczekiwaną i wariancję zmiennej losowej X z rozkładu wykładniczego z parametrem λ. Zmienna X ma rozkład Ex(λ), a zatem f X (x) = λe λx I (0, ) (x). Wyznaczmy EX, korzystając z całkowania przez części: EX = xλe λx dx = xe λx 0 = 0 e λx dx = 1 λ + e λx dx = 0 0
Momenty. Przykład 3.1 - c.d. Następnie dwukrotnie całkując przez części otrzymujemy EX 2 : EX 2 = x 2 λe λx dx = x 2 e λx 0 + 2 xe λx dx = 0 0 Następnie: = 2 λ 0 xλe λx dx = 2 λ 2 VarX = EX 2 (EX ) 2 = 2 λ 2 1 λ 2 = 1 λ 2
Momenty W statystyce znaczenie mają również momenty centralne rzędów trzeciego i czwartego, za pomocą których wyznacza się znane miary statystyczne: Definicja 3.4: wskaźnik asymetrii (wskaźnik skośności) γ 1 = E[X EX ]3 [Var(X )] 3/2 = m 3 m 2/3 2 wskaźnik spłaszczenia (kurtoza, eksces) γ 2 = E[X EX ]4 [Var(X )] 2 3 = m 4 m2 2 3
Próba losowa. Rozkład łączny.
Próba losowa Definicja 3.5: Wektor zmiennych losowych X = (X 1, X 2,... X n ) nazywamy próbą losową rozmiaru n z rozkładu o gęstości f X (x) jeśli X 1, X 2,..., X n są niezależnymi zmiennymi losowymi o wspólnym rozkładzie z gęstością f (x) Niech X 1, X 2,..., X n będą niezależnymi zmiennymi losowymi o gęstościach f (x 1 ), f (x 2 ),..., f (x n ) odpowiednio. Gęstość łączna wektora losowego X wygląda następująco: n f (x) = f (x 1, x 2,..., x n ) = f (x 1 )f (x 2 ) f (x n ) = f (x i ), natomiast dystrybuanta łączna: F (x) = F (x 1, x 2,..., x n ) = F (x 1 )F (x 2 ) F (x n ) = n F (x i )
Próba losowa. Przykład 3.2 Niech X = (X 1, X 2,... X n ) będzie próbą losową z rozkładu wykładniczego z parametrem λ. Wyznaczyć gęstość łączną wektora losowego. X i Ex(λ), czyli f (x i ) = λe λx i I (0, ) (x i ) f X (x) = n f (x i ) = n λe λx i I (0, ) (x i ) = λ n exp( λ n x i ) I (0, ) (x i )
Rozkłady wybranych statystyk próbkowych.
Statystyka Definicja 3.6: Zmienną losową będącą dowolną funkcją wyników próby losowej, tzn. dowolną funkcję nazywamy statystyką. Definicja 3.7: T (X 1, X 2,... X n ) Dowolną statystykę służącą do oszacowania nieznanej wartości parametru populacji generalnej lub nieznanego rozkładu populacji nazywamy estymatorem
Statystyki próbkowe Niech X = (X 1, X 2,... X n ) będzie n elementową próbą losową. Definicja 3.8: Średnią z próby nazywamy statystykę: X = 1 X i n Definicja 3.9: Wariancją z próby nazywamy statystykę: S 2 = 1 n 1 (X i X ) 2
Statystyki próbkowe Niech X = (X 1, X 2,... X n ) będzie n elementowym wektorem losowym. Wariancja nieobciążona: S 2 = 1 n 1 (X i X ) 2 Wariancja obciążona: S0 2 = 1 n (X i X ) 2
Rozkłady statystyk próbkowych Lemat 3.1: Niech X 1, X 2,... X n będzie n elementową próbą losową, a g(x), funkcją dla której E[g(x)] oraz Var[g(x)] istnieją. Wówczas: oraz ( ) E g(x i ) = ne[g(x 1 )] ( ) Var g(x i ) = nvar[g(x 1 )]
Rozkłady statystyk próbkowych Twierdzenie 3.2: Niech X 1, X 2,... X n będzie n elementową próbą losową, o średniej EX i = µ, i wariancji VarX i = σ 2 < Wówczas: 1 E X = µ 2 Var X = σ2 n 3 ES 2 = σ 2 4 VarS 2 = 2 n 1 σ4
Rozkłady statystyk próbkowych Dowód: Korzystając z Lematu 3.1 otrzymujemy: ( ) E X 1 = E X i = 1 ( ) n n E X i = 1 n nex 1 = µ co dowodzi równości (1) w Twierdzeniu 3.2. Analogicznie dowodzimy równości (2): Var X = Var ( 1 n ) X i = 1 ( ) n 2 Var X i = 1 n 2 nvarx 1 = σ2 n
Rozkłady statystyk próbkowych Dowód: Aby dowieść punktu (3) Twierdzenia, najpierw pokażemy, że zachodzi równość (X i X ) 2 = Xi 2 n X 2 (1) Niech a R, powyższą równość dowodzimy następująco: (X i X ) 2 = (X i + a a X ) 2 = = (X i a) 2 2 (X i + a)(a + X ) + = X 2 i n X 2. (a + X ) 2 = Przyjmując a = 0 otrzymujemy dowodzoną równość.
Rozkłady statystyk próbkowych Dowód: Zatem korzystając z równania (1) i Lematu 3.1 dostajemy: ES 2 = E ( 1 n 1 ) ( ( 1 )) (X i X ) 2 = E Xi 2 n X 2 = n 1 = 1 ( ( ) ) E Xi 2 ne X 2 = n 1 ( ( )) σ n(σ 2 + µ 2 2 ) n n + µ2 = σ 2 = 1 n 1
Statystyki próbkowe Jeżeli X = (X 1, X 2,... X n ) jest próbą losową z rozkładu normalnego, tj X i N(µ, σ 2 ) to: X = 1 ( ) X i N µ, σ2 n n ns 2 σ 2 χ2 (n 1) Zmienne X i S 2 są niezależnymi zmiennymi losowymi
Statystyki próbkowe Niech X = (X 1, X 2,... X n ) będzie n elementową próbą losową. Definicja 3.10: k tym momentem empirycznym zwykłym nazywamy statystykę: M k = 1 n X k i Definicja 3.11: k tym momentem empirycznym centralnym nazywamy statystykę: C k = 1 (X i M 1 ) k n
Statystyki ekstremalne Maksimum z próby oznaczmy przez: X (n:n) = max(x 1, X 2,... X n ) Minimum z próby oznaczmy przez: X (1:n) = min(x 1, X 2,... X n )
Rozkłady statystyk ekstremalnych Rozkład maksimum F Xn:n (t) = P(X n:n t) = P(max(X 1, X 2,... X n ) t) = = P(X 1 t, X 2 t,... X n t) = = P(X 1 t)p(x 2 t) P(X n t) = [F X (t)] n Rozkład minimum F X1:n (t) = P(X 1:n t) = P(min(X 1, X 2,... X n ) t) = = 1 P(min(X 1, X 2,... X n ) t) = = 1 P(X 1 t)p(x 2 t) P(X n t) = 1 (1 P(X 1 t))(1 P(X 2 t)) (1 P(X n t)) = = 1 [1 F X (t)] n
Statystyki pozycyjne Niech X = (X 1, X 2,..., X n ) - próbą losową o wartościach x = (x 1, x 2,..., x n ). Uporządkowując wartości wektora w kolejności rosnącej otrzymujemy: x 1:n x 2:n x n:n. Wektor statystyk pozycyjnych: (X 1:n, X 2:n,..., X n:n )
Statystyki pozycyjne Twierdzenie 3.3 Niech X = (X 1, X 2,..., X n ) - próbą losową z rozkładu o dystrybuancie F. Statystyka pozycyjna X i:n ma rozkład o dystrybuancie: F i:n (x) = n! F (x) t i 1 (1 t) n i dt (i 1)!(n i)! 0
Literatura: Bartoszewicz J.,Wykłady ze statystyki matematycznej, PWN, Warszawa 1989. Gajek L., Kałuszka M.,Wnioskowanie statystyczne, WNT, Warszawa 2000, wyd. IV. Krysicki W., Bartos J., Dyczka W., Krówlikowska K., Wasilewski M., Rachunek Prawdopodobieństwa i Statystyka Matematyczna w Zadaniach, część II, PWN, 2012 Magiera M, Modele i metody statystyki matematycznej, część II, wnioskowanie statystyczne, Wrocław, 2007