Wykład 5 Estymatory nieobciążone z jednostajnie minimalną wariancją Wrocław, 25 października 2017r
Statystyki próbkowe - Przypomnienie Niech X = (X 1, X 2,... X n ) będzie n elementowym wektorem losowym. Średnia z próby: Wariancja nieobciążona: X = 1 n X i n i=1 Wariancja obciążona: S 2 = 1 n 1 S 2 0 = 1 n n (X i X ) 2 i=1 n (X i X ) 2 i=1
Rozkłady statystyk próbkowych - Przypomnienie Twierdzenie 5.1: Niech X 1, X 2,... X n będzie n elementową próbą losową, o średniej EX i = µ, i wariancji VarX i = σ 2 < Wówczas: 1 E X = µ 2 Var X = σ2 n 3 ES 2 = σ 2 4 VarS 2 = 2 n 1 σ4
Estymator Definicja 5.1: Statystykę T (X 1, X 2,... X n ) służącą do oszacowania nieznanego parametru populacji nazywamy estymatorem. Dla konkretnych wartości próby X 1 = x 1, X 2 = x 2,..., X n = x n, liczbę T (x 1, x 2,... x n ) nazywamy wartością estymatora.
Błąd średniokwadratowy Za liczbową charakterystykę dokładności estymatora T rzeczywistej funkcji g(θ) podlegającej ocenie, przyjmuje się błąd średniokwadratowy, oznaczany przez BSK θ (T ) Definicja 5.2: Błędem średniokwadratowym estymatora T funkcji g(θ) nazywamy BSK θ (T ) = E θ [(T g(θ)) 2 ] Zauważmy, że BSK θ (T ) = E θ [(T E θ (T )) 2 ]+[E θ (T ) g(θ)] 2 = Var θ (T )+b θ (T ) gdzie b θ (T ) oznacza obciążenie estymatora.
Estymator lepszy, dopuszczalny Definicja 5.3: Estymator T 1 jest lepszy od estymatora T 2, jeżeli BSK θ (T 1 ) BSK θ (T 2 ) dla każdego θ Θ i chociażby dla jednej wartości θ spełniona jest nierówność ostra BSK θ (T 1 ) < BSK θ (T 2 ) Definicja 5.4: Estymator T nazywa się dopuszczalny, jeżeli nie istnieje estymator lepszy niż T. W przeciwnym razie estymator T nazywa się niedopuszczalny.
Przykład 5.1 Niech X 1, X 2 będą zmiennymi losowymi takimi, że E θ (X 2 i ) < i niech g(θ) = E θ (X i ), i = 1, 2. Który z estymatorów jest lepszy T (X 1, X 2 ) = X 1 czy S(X 1, X 2 ) = 1 2 (X 1 + X 2 )? Estymatory spełniają równość: E θ (T ) = E θ (X 1 ) = E θ (S) = g(θ) równoważnie b θ (T ) = b θ (S) = 0.
Przykład 5.1 - c.d Jednocześnie: dla każdego θ Θ. Var θ (S) = 1 2 Var θ(x 1 ) < Var θ (X 1 ) = Var θ (T ), A zatem: BSK θ (S) < BSK θ (T ), czyli S jest estymatorem lepszym niż T, a T jest estymatorem niedopuszczalnym.
Estymator nieobciążony Definicja 5.5: Estymator T (X 1, X 2,..., X n ) rzeczywistej funkcji g(θ) jest nieobciążony, jeżeli E θ [T (X 1, X 2,..., X n )] = g(θ) dla każdego θ Θ Obciążeniem estymatora T nazywamy: b θ (T ) = E θ (T ) g(θ)
Przykład 5.2 Niech X = (X 1, X 2,..., X n ) będzie wektorem losowym, dla którego E θ X i = θ. Niech Wówczas: T (X) = 1 n n X i = X. i=1 E θ [T (X)] = θ A zatem średnia próbkowa jest nieobciążonym estymatorem wartości oczekiwanej.
Przykład 5.3 Niech X 1, X 2,..., X n będzie próbą z rozkładu normalnego N(µ, σ 2 ), µ R, σ > 0. Rozważmy estymator wariancji postaci: Ponieważ S 2 = 1 n 1 n (X i X ) 2 i=1 E(S 2 ) = σ 2 wariancja próbkowa wyrażona powyższym wzorem jest nieobciążonym estymatorem wariancji σ 2.
Przykład 5.3 - c.d Innym estymatorem wariancji σ 2 jest estymator: S0 2 = 1 n (X i n X ) 2 = n 1 n S 2, i=1 dla którego: ES 2 0 = E ( ) n 1 n S 2 = n 1 n σ2, czyli jest on estymatorem obciążonym. Wariancja estymatora S 0 jest równa VarS 2 0 = Var ( ) n 1 n S 2 = ( ) n 1 2 Var(S 2 ) = n 2(n 1) n 2 σ 4.
Estymator nieobciążony Definicja 5.6: Niech T 1 i T 2 będą dwoma nieobciążonymi estymatorami funkcji g(θ). Powiemy, że estymator T 1 jest lepszy od estymatora T 2, jeżeli: Var(T 1 ) Var(T 2 ), dla każdego θ Θ i dla co najmniej jednej wartości θ zachodzi: Var(T 1 ) < Var(T 2 ).
Przykład 5.4 Niech X 1, X 2, X 3 będzie daną próbą losową o średniej E(X i ) = µ i wariancji Var(X i ) = σ 2 i niech oraz T 1 (X 1, X 2, X 3 ) = 1 3 X i 3 i=1 T 2 (X 1, X 2, X 3 ) = 1 2 X 1 + 2 3 X 2 1 6 X 3 będą dwoma estymatorami średniej µ. Który z nich jest lepszy?
Przykład 5.4 - c.d Sprawdzenie nieobciążoności: E ( 1 3 ) 3 X i = 1 3 3µ = µ i=1 ( 1 E 2 X 1 + 2 3 X 2 1 ) 6 X 3 = 1 2 µ + 2 3 µ 1 6 µ = µ, a zatem oba estymatory są nieobciążone.
Przykład 5.4 - c.d Wyznaczenie wariancji estymatorów: czyli Var ( 1 3 ) 3 X i = 1 9 3Var(X 1) = 1 3 σ2 i=1 Var ( 1 2 X 1 + 2 3 X 2 1 6 X 3 ) = 1 4 σ2 + 4 9 σ2 + 1 36 σ2 = 26 36 σ2, Var(T 1 ) = 12 36 σ2 < 26 36 σ2 = Var(T 2 ), a stąd estymator T 1 jest lepszy od T 2.
Estymator nieobciążony z jednostajnie minimalną wariancją Definicja 5.8: Niech g(θ) będzie funkcją estymowalną i niech W będzie zbiorem jej wszystkich estymatorów nieobciążonych posiadających skończoną wariancję dla każdego θ Θ. Statystyka T W jest nazywana estymatorem nieobciążonym o minimalnej wariancji funkcji g(θ) (estymatorem NJMW), jeżeli: E θ (T 2 ) <, dla każdego θ Θ Var θ (T ) = Var θ (U), dla każdego U W i każdego θ Θ
Literatura: Bartoszewicz J.,Wykłady ze statystyki matematycznej, PWN, Warszawa 1989. Gajek L., Kałuszka M.,Wnioskowanie statystyczne, WNT, Warszawa 2000, wyd. IV. Krysicki W., Bartos J., Dyczka W., Krówlikowska K., Wasilewski M., Rachunek Prawdopodobieństwa i Statystyka Matematyczna w Zadaniach, część II, PWN, 2012 Magiera M, Modele i metody statystyki matematycznej, część II, wnioskowanie statystyczne, Wrocław, 2007