Definicja 1 Statystyką nazywamy (mierzalną) funkcję obserwowalnego wektora losowego

Podobne dokumenty
METODY ESTYMACJI PUNKTOWEJ. nieznanym parametrem (lub wektorem parametrów). Przez X będziemy też oznaczać zmienną losową o rozkładzie

Metoda momentów i kwantyli próbkowych. Wrocław, 7 listopada 2014

Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/

Wykład 10 Estymacja przedziałowa - przedziały ufności dla średn

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 7 i 8 - Efektywność estymatorów, przedziały ufności

Statystyka matematyczna. Wykład III. Estymacja przedziałowa

Estymacja przedziałowa - przedziały ufności dla średnich. Wrocław, 5 grudnia 2014

Estymacja parametrów rozkładu cechy

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Wnioskowanie statystyczne. Statystyka w 5

Wykład 1 Próba i populacja. Estymacja parametrów z wykorzystaniem metody bootstrap

Estymacja punktowa i przedziałowa

STATYSTYKA

Wykład 3 Momenty zmiennych losowych.

Wykład 3 Momenty zmiennych losowych.

Statystyka matematyczna. Wykład IV. Weryfikacja hipotez statystycznych

Statystyka. Wykład 2. Krzysztof Topolski. Wrocław, 11 października 2012

Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału

1.1 Wstęp Literatura... 1

1 Podstawy rachunku prawdopodobieństwa

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 4 - zagadnienie estymacji, metody wyznaczania estymatorów

1 Estymacja przedziałowa

Wykład 5 Estymatory nieobciążone z jednostajnie minimalną war

Statystyka w przykładach

... i statystyka testowa przyjmuje wartość..., zatem ODRZUCAMY /NIE MA POD- STAW DO ODRZUCENIA HIPOTEZY H 0 (właściwe podkreślić).

Testowanie hipotez statystycznych.

Testowanie hipotez statystycznych.

LABORATORIUM Populacja Generalna (PG) 2. Próba (P n ) 3. Kryterium 3σ 4. Błąd Średniej Arytmetycznej 5. Estymatory 6. Teoria Estymacji (cz.

Spis treści 3 SPIS TREŚCI

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 3 - model statystyczny, podstawowe zadania statystyki matematycznej

Komputerowa analiza danych doświadczalnych

WYKŁAD 5 TEORIA ESTYMACJI II

MATEMATYKA Z ELEMENTAMI STATYSTYKI LABORATORIUM KOMPUTEROWE DLA II ROKU KIERUNKU ZARZĄDZANIE I INŻYNIERIA PRODUKCJI ZESTAWY ZADAŃ

Tablica Wzorów Rachunek Prawdopodobieństwa i Statystyki

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 9 i 10 - Weryfikacja hipotez statystycznych

Estymacja parametrów w modelu normalnym

Statystyka matematyczna Testowanie hipotez i estymacja parametrów. Wrocław, r

Metody probabilistyczne

Oznacza to, że chcemy znaleźć minimum, a właściwie wartość najmniejszą funkcji

Prawdopodobieństwo i statystyka

Rozkłady statystyk z próby. Statystyka

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 13 i 14 - Statystyka bayesowska

Stanisław Cichocki Natalia Nehrebecka. Wykład 7

Prawdopodobieństwo i statystyka

Wykład 6 Estymatory efektywne. Własności asymptotyczne estym. estymatorów

Idea. θ = θ 0, Hipoteza statystyczna Obszary krytyczne Błąd pierwszego i drugiego rodzaju p-wartość

STATYSTYKA MATEMATYCZNA WYKŁAD października 2009

Weryfikacja hipotez statystycznych

Zmienne losowe, statystyki próbkowe. Wrocław, 2 marca 2015

7. Estymacja parametrów w modelu normalnym( ) Pojęcie losowej próby prostej

Komputerowa analiza danych doświadczalnych

Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji

Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 11 i 12 - Weryfikacja hipotez statystycznych

Statystyka w analizie i planowaniu eksperymentu

Statystyka w analizie i planowaniu eksperymentu

Rozkłady statystyk z próby

STATYSTYKA MATEMATYCZNA WYKŁAD stycznia 2010

Na podstawie dokonanych obserwacji:

Statystyka i eksploracja danych

Hipotezy proste. (1 + a)x a, dla 0 < x < 1, 0, poza tym.

Metoda największej wiarogodności

Błędy przy testowaniu hipotez statystycznych. Decyzja H 0 jest prawdziwa H 0 jest faszywa

Wykład Centralne twierdzenie graniczne. Statystyka matematyczna: Estymacja parametrów rozkładu

Metody probabilistyczne

ESTYMACJA PRZEDZIAŁOWA WYBRANYCH PARAMETRÓW

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

Estymacja przedziałowa. Przedział ufności

Komputerowa Analiza Danych Doświadczalnych

2.1 Przykład wstępny Określenie i konstrukcja Model dwupunktowy Model gaussowski... 7

Wstęp do probabilistyki i statystyki. Wykład 4. Statystyki i estymacja parametrów

IV WYKŁAD STATYSTYKA. 26/03/2014 B8 sala 0.10B Godz. 15:15

Zad. 4 Należy określić rodzaj testu (jedno czy dwustronny) oraz wartości krytyczne z lub t dla określonych hipotez i ich poziomów istotności:

LABORATORIUM 8 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów

STATYSTYKA wykład 5-6

Testowanie hipotez. Hipoteza prosta zawiera jeden element, np. H 0 : θ = 2, hipoteza złożona zawiera więcej niż jeden element, np. H 0 : θ > 4.

Statystyka. Rozkład prawdopodobieństwa Testowanie hipotez. Wykład III ( )

Testowanie hipotez statystycznych.

WNIOSKOWANIE W MODELU REGRESJI LINIOWEJ

Statystyka matematyczna dla leśników

VI WYKŁAD STATYSTYKA. 9/04/2014 B8 sala 0.10B Godz. 15:15

STATYSTYKA MATEMATYCZNA WYKŁAD grudnia 2009

Kwantyle. Kwantyl rzędu p rozkładu prawdopodobieństwa to taka liczba x p. , że. Możemy go obliczyć z dystrybuanty: P(X x p.

Statystyka od podstaw Janina Jóźwiak, Jarosław Podgórski

Szczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć)

O ŚREDNIEJ STATYSTYCZNEJ

STATYSTYKA - PRZYKŁADOWE ZADANIA EGZAMINACYJNE

STATYSTYKA MATEMATYCZNA WYKŁAD 4. WERYFIKACJA HIPOTEZ PARAMETRYCZNYCH X - cecha populacji, θ parametr rozkładu cechy X.

W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych:

Metoda największej wiarygodności

Centralne twierdzenie graniczne

LABORATORIUM 8 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI

Kolokwium ze statystyki matematycznej

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty

Statystyka. #5 Testowanie hipotez statystycznych. Aneta Dzik-Walczak Małgorzata Kalbarczyk-Stęclik. rok akademicki 2016/ / 28

LABORATORIUM 6 ESTYMACJA cz. 2

Weryfikacja hipotez statystycznych za pomocą testów statystycznych

Weryfikacja hipotez statystycznych

Zadania ze statystyki, cz.7 - hipotezy statystyczne, błąd standardowy, testowanie hipotez statystycznych

Transkrypt:

Rozdział 1 Statystyki Definicja 1 Statystyką nazywamy (mierzalną) funkcję obserwowalnego wektora losowego X = (X 1,..., X n ). Uwaga 1 Statystyka jako funkcja wektora zmiennych losowych jest zmienną losową lub wektorem losowym. Wyznaczenie rozkładu statystyki jest często bardzo trudnym zadaniem. Przykład 1 (Momenty z próby) Momentem rzędu k z próby X = (X 1,..., X n ) nazywamy statystykę A k = 1 n Xi k. (1.1) n W szczególności, moment rzędu 1 z próby X = (X 1,..., X n ) nazywamy średnią z próby i oznaczamy przez X, czyli X = 1 n X i. (1.2) n Momentem centralnym rzędu k z próby X = (X 1,..., X n ) nazywamy statystykę M k = 1 n (X i n X) k. (1.3) W szczególności, moment centralny rzędu 2 z próby X = (X 1,..., X n ) nazywamy wariancją z próby i oznaczamy przez S 2 0, czyli S0 2 = 1 n (X i n X) 2. (1.4) Często za definicję wariancji z próby przyjmuje się statystykę postaci S 2 = 1 n 1 n (X i X) 2 = n n 1 S2 0. (1.5) 1

Twierdzenie 1 Jeżeli X = (X 1,..., X n ) jest próbą z rozkładu normalnego N (µ, σ 2 ), to (i) średnia X z próby X ma rozkład normalny N (µ, σ 2 /n); (ii) (n 1)S 2 /σ 2 ma tzw. rozkład χ 2 o n 1 stopniach swobody; (iii) zmienne losowe X i S 2 są niezależne; (iv) zmienna losowa X n S ma tzw. rozkład t-studenta o n 1 stopniach swobody. Przykład 2 (Statystyki pozycyjne) W praktyce duże znaczenie mają tzw. statystyki pozycyjne z próby X = (X 1,..., X n ). Statystykę X i:n, której wartość jest równa i-tej co do wielkości wartości w uporządkowanym rosnąco ciągu zmiennych losowych X 1,..., X n nazywamy i-tą statystyką pozycyjną. Najczęściej wyznacza się pierwszą statystyką pozycyjną (minimum), która jest postaci X 1:n = min{x 1,..., X n } (1.6) oraz n-tą statystyką pozycyjną (maksimum), która jest postaci X n:n = max{x 1,..., X n }. (1.7) 2

Rozdział 2 Estymacja parametryczna Estymacja parametryczna jest formą wnioskowania statystycznego, której zadaniem jest oszacowanie nieznanych parametrów, bądź ich funkcji, na podstawie obserwacji realizacji x obserwowalnego wektora losowego X o rozkładzie zależnym od tych parametrów. W teorii estymacji wyróżniamy dwa podejścia: estymację punktową i estymację poprzez podanie tzw. zbioru ufności. W przypadku, gdy szacowany parametr jest parametrem rzeczywistym, w tym drugim podejściu, najczęściej konstruuje się tzw. przedział ufności i estymację tego typu nazywamy estymacją przedziałową. 2.1 Estymacja punktowa Definicja 2 Estymatorem parametru ϑ nazywamy statystykę ˆϑ = T (X 1,..., X n ), której wartość, dla konkretnej realizacji (x 1,..., x n ) wektora losowego X = (X 1,..., X n ), przyjmujemy za ocenę nieznanego parametru ϑ. Otrzymaną na podstawie jednej konkretnej realizacji x wektora losowego X wartość estymatora ˆϑ nazywamy oceną (oszacowaniem) nieznanego parametru ϑ. 2.1.1 Metody wyznaczania estymatorów Istnieje szereg metod wyznaczania estymatorów punktowych. Do najczęściej stosowanych zaliczamy: metodę momentów, metodę największej wiarogodności, metodę najmniejszych kwadratów, metodę kwantyli, metodę podstawiania dystrybuanty empirycznej, metodę podstawiania częstości, uogólnioną metodę momentów, metodę najmniejszej odległości, metodę funkcji estymujących. W dalszej części wykładu omówimy dwie pierwsze metody z wyżej wymienionych. 3

Metoda momentów Metoda momentów polega na przyrównaniu pewnej liczby (najczęściej kolejnych) momentów z próby do odpowiednich momentów rozkładu, które są funkcjami nieznanych parametrów. Wykorzystujemy tyle momentów ile jest parametrów do oszacowania i rozwiązując otrzymany układ równań ze względu na ϑ, uzyskujemy oceny tych parametrów. Na przykład niech ϑ = (ϑ 1..., ϑ k ) będzie nieznanym parametrem, który chcemy estymować na podstawie obserwacji x próby X = (X 1..., X n ). Niech A j = 1 n X j n i oznacza moment rzędu j z próby X, a m j = E(X1) j moment rzędu j obserwowalnych zmiennych losowych X 1,..., X n (wektor X jest próbą, zatem zmienne losowe X 1,..., X n mają ten sam rozkład, więc E(X1) j =... = E(Xn)). j Wówczas rozwiązując układ równań A 1 (X) = m 1 (ϑ 1,..., ϑ k ) A k (X) = m k (ϑ 1,..., ϑ k ) ze względu na ϑ 1,..., ϑ k, uzyskamy estymator ˆϑ metodą momentów (MM) parametru ϑ. Metoda momentów jest często bardzo prosta w użyciu, co pokazuje następujący przykład. Przykład 3 Niech X = (X 1..., X n ) będzie próbą z rozkładu Poissona P(λ) z parametrem λ, który chcemy estymawać. W tym przypadku nieznany parametr jest jednowymiarowy (k = 1) i do wyznaczenia estymatora parametru λ wystarczy przyrównać jeden moment z próby do odpowiedniego momentu rozkładu Poissona. Wiadomo, że wartość oczekiwana E(X) w rozkładzie Poissona jest równa λ, zatem m 1 = λ i po przyrównaniu tego momentu do odpowiedniego momentu z próby, czyli A 1 = X, otrzymujemy równanie X = λ, którego właściwie nawet nie musimy rozwiązywać (ze względu na λ). Estymatorem parametru λ w rozkładzie Poissona, uzyskanym metodą momentów, jest zatem ˆλ = X. Zauważmy jednak, że do wyznaczenia estymatora parametru λ w rozkładzie Poissona możemy również wykorzystać momenty centralne i przyrównać na przykład moment centralny rzędu 2 z próby do momentu centralnego rzędu 2 rozkładu. Stąd mamy równanie M 2 = S0 2 = 1 n (X i n X) 2 = E[X 1 E(X 1 )] 2 = Var(X 1 ) = λ i otrzymujemy drugi estymator parametru λ, uzyskany metodą momentów, postaci ˆλ = S0. 2 4

Z powyższego przykładu widać, że metoda momentów może prowadzić do różnych estymatorów nieznanego parametru i to jest jedną z jej wad. Przykład 4 Niech X = (X 1..., X n ) będzie próbą z rozkładu normalnego N (µ, σ 2, gdzie µ R i σ > 0 są nieznanymi parametrami, które chcemy oszacować. Przyrównując pierwszy moment zwykły rozkładu N (µ, σ 2, czyli µ, do momentu rzędu 1 z próby X, czyli X, oraz drugi moment centralny rozkładu N (µ, σ 2, czyli σ 2, do momentu centralnego rzędu 2 z próby X, czyli S0, 2 otrzymujemy następujące estymatory nieznanych parametrów µ i σ ˆµ = X, ˆσ = S 0. Metoda największej wiarogodności Niech X = (X 1,..., X n ) będzie obserwowalnym wektorem losowym o rozkładzie, który zależy od niezananego parametru ϑ = (ϑ 1,..., ϑ k ) Θ. W przypadku, gdy wektor losowy X jest typu ciągłego, oznaczmy przez f gęstość jego rozkładu, natomiast, gdy jest on typu dyskretnego, oznaczmy przez p jego funkcję prawdopodobieństwa. Zauważmy, że z założenia, że rozkład wektora losowego X zależy od nieznanego parametru ϑ, f lub p są funkcjami nie tylko obserwacji x, ale również parametru ϑ. Fakt ten będziemy zaznaczać, podając nieznany parametr w indeksie funkcji f lub p następująco: f ϑ (x) lub p ϑ (x). Definicja 3 Funkcją wiarogodności obserwowalnego wektora losowego X nazywamy funkcję gęstości lub funkcję prawdopodobieństwa wektora X, traktowaną jako funkcję parametru ϑ przy ustalonej wartości realizacji x. Funkcję wiarogodności oznaczamy przez L(ϑ; x). Przykład 5 Niech X = (X 1..., X n ) będzie próbą z rozkładu Poissona P(λ) z parametrem λ. Rolę niezanego parametru ϑ pełni w tym przypadku parametr λ, k = 1 i Θ = (0, ). Funkcja prawdopodobieństwa p λ wektora losowego X jest w tym przypadku postaci n λ x i p λ (x 1,..., x n ) = x i! exp( λ) = λ n x i n x i! exp( nλ), gdzie x i {0, 1, 2,...}, i = 1,..., n. Zatem funkcja wiarogodności L jest postaci L(λ; x 1,..., x n ) = λ n x i n exp( nλ), (2.1) x i! gdzie argumentem jest λ (0, ), natomiast x 1,..., x n traktowane są jako znane realizacje zmiennych losowych odpowiednio X 1,..., X n. 5

Definicja 4 Oszacowaniem parametru ϑ, uzyskanym metodą największej wiarogodności, nazywamy wartość ˆϑ, która spełnia następującą równość gdzie Θ oznacza domknięcie zbioru Θ. L( ˆϑ; x 1,..., x n ) = max L(ϑ; x 1,..., x n ), θ Θ Uwaga 2 Dla konkretnej realizacji x obserwowalnego wektora losowego X może nie istnieć maksimum funkcji wiarogodności i w konsekwencji może nie istnieć oszacowanie największej wiarogodności parametru ϑ. Można również podać przykłady, w których dla konkretnej realizacji x obserwowalnego wektora losowego X istnieje nieskończenie wiele wartości, dla których funkcja wiarogodności L przyjmuje wartość największą. Ponadto, w praktyce, często oszacowanie największej wiarogodności możemy wyznaczyć jedynie numerycznie. W celu wyznaczenia oszacowania największej wiarogodności parametru ϑ = (ϑ 1,..., ϑ k ) należy wyznaczyć maksimum funkcji wiarogodności L na zbiorze Θ. Jeżeli funkcja L jest różniczkowalna ze względu na ϑ i, i = 1,..., k, to punktami podejrzanymi o ekstremum funkcji L są rozwiązania układu równań wiarogodności postaci L ϑ i = 0, i = 1,..., k. Funkcja wiarogodności jest najczęściej iloczynem funkcji zależnych od θ i wyznaczenie pochodnej iloczynu, a następnie szukanie jej miejsc zerowych może być trudnym zadaniem. Możemy jednak uprościć zadanie wyznaczenia maksimum funkcji L. Korzystając z tego, że logarytm jest funkcją ściśle rosnącą, mamy, że funkcja L i funkcja l := ln L mają maksima w tych samych punktach. W wielu przypadkach dużo prościej wyznacza się pochodną funkcji l niż pochodną funkcji L. Równania postaci l ϑ i = 0, i = 1,..., k, również nazywamy równaniami wiarogodności. Przykład 6 W przypadku obserwacji próby z rozkładu Poissona P(λ) z parametrem λ, funkcja wiarogodności jest postaci (2.1). W celu wyznaczenia oszacowania największej wiarogodności prametru λ, wyznaczymy maksimum funkcji wiarogodności L. Funkcja L jest funkcją różniczkowalną ze względu na λ, ale jak widać, prościej będziemy mogli wyznaczyć pochodną i miejsca zerowe pochodnej funkcji l = ln L, która jest w tym przypadku postaci n n l(λ; x 1,..., x n ) = ln(λ) x i ln( x i!) nλ. (2.2) 6

Równanie wiarogodności jest w tym przypadku postaci l (λ; x 1,..., x n ) = n x i λ n = 0. (2.3) Rozwiązaniem równania wiarogodności (2.2) jest ˆλ = n x i /n = x i l (ˆλ) < 0, czyli ˆλ jest maksimum funkcji l i również L i jest zatem oszacowaniem największej wiarogodności parametru λ. 2.1.2 Własności estymatorów Dla danego parametru ϑ można utworzyć wiele estymatorów ˆϑ, ale pożądane jest by charakteryzowały go pewne narzucone z góry własności optymalności. Do takich własności zaliczamy: nieobciążoność, efektywność, zgodność. Definicja 5 Estymator T = ˆϑ nazywamy estymatorem nieobciążonym parametru ϑ, jeżeli dla każdego θ Θ jego wartość oczekiwana jest równa szacowanemu parametrowi θ, tzn. E ϑ (T ) = ϑ, θ Θ. Przykład 7 Średnia X z próby X = (X 1,..., X n ) jest nieobciążonym estymatorem wartości oczekiwanej ϑ = E(X i ). Przykład 8 Wariancja S 2 z próby X = (X 1,..., X n ) jest nieobciążonym estymatorem wariancji σ 2 = E(X EX) 2. Definicja 6 Niech T 1 i T 2 będą dwoma nieobciążonymi estymatorami parametru ϑ. Jeżeli Var(T 1 ) Var(T 2 ), dla każdego θ Θ, to mówimy, że estymator T 1 jest lepszy od estymatora T 2. Definicja 7 Estymator T = ˆϑ nazywamy estymatorem najefektywniejszym parametru ϑ, jeżeli jest niebciążony i jeżeli dla dowolnego estymatora nieobciążonego T 1, V ar θ (T ) V ar ϑ (T 1 ) dla każdego θ Θ. Estymator najefektywniejszy nazywany jest często estymatorem najlepszym. 7

Przykład 9 Jeżeli X 1,..., X n jest próbą z rozkładu normalnego N(µ, σ 2 ), to średnia z próby X i wariancja z próby S 2 są najlepszymi estymatorami odpowiednio µ i σ 2. Definicja 8 Estymator T = ˆϑ nazywamy estymatorem zgodnym, jeżeli dla każdego dodatniego ϵ spełniony jest warunek lim P ( T ϑ > ϵ) = 0. n 2.2 Estymacja przedziałowa Niech X = (X 1,..., X n ) będzie obserwowalnym wektorem losowym z rozkładu P ϑ, gdzie ϑ Θ R jest nieznanym parametrem, który chcemy oszacować. Metody estymacji punktowej pozwalają uzyskiwać oceny punktowe nieznanych parametrów, przy czym na ich podstawie nie potrafimy odpowiedzieć na pytanie jaka jest dokładność uzyskanej oceny. Estymacja przedziałowa jest sposobem estymacji dającym możliwość oceny tej dokładności i polega na podaniu tzw. przedziałów ufności dla nieznanych parametrów (bądź funkcji tych parametrów) danego rozkładu. Definicja 9 Niech X = (X 1,..., X n ) będzie obserwowalnym wektorem losowym o rozkładzie P ϑ, ϑ Θ R. Przedziałem ufności dla parametru ϑ na poziomie ufności 1 α, 0 < α < 1, w oparciu o wektor X, nazywamy losowy przedział (T L, T U ) spełniający następujące warunki: jego końce T L = T L (X), T U = T U (X) są funkcjami wektora X = (X 1,..., X n ) i nie zależą od szacowanego parametru ϑ i innych nieznanych parametrów, jeżeli takie występują w modelu, prawdopodobieństwo pokrycia przez ten przedział nieznanego parametru ϑ wynosi co najmniej 1 α, dla każdego ϑ Θ, tzn. P ϑ (T L (X) < ϑ < T U (X)) 1 α, θ Θ. 2.2.1 Metody wyznaczania przedziałów ufności Istnieje kilka metod konstrukcji przedziałów ufności. Jedna z nich polega na wykorzystaniu tzw. funkcji centralnych (wiodących, estymujących). Definicja 10 Niech X = (X 1,..., X n ) będzie obserwowalnym wektorem losowym o rozkładzie P ϑ. Funkcję Q(X, ϑ) nazywamy funkcją centralną (wiodocą lub estymującą) dla parametru ϑ, jeżeli jej rozkład prawdopodobieństwa nie zależy od ϑ. 8

Przykład 10 Niech X = (X 1,..., X n ) będzie próbą z rozkładu normalnego N(µ, σ 2 0), gdzie µ R jest nieznanym parametrem, a σ 0 znaną liczbą dodatnią. Niech Q(X, µ) = n(x µ)/σ 0, (2.4) gdzie X = 1 n n X i. Można pokazać, że funkcja Q(X, µ) ma rozkład normalny N(0, 1), niezależny od nieznanego parametru µ. Jest więc ona funkcją centralną dla parametru µ. Przykład 11 Niech X = (X 1,..., X n ) będzie próbą z rozkładu normalnego N(µ, σ 2 ), gdzie µ 0 jest znane, a σ R + jest nieznanym parametrem. Niech S1 2 = 1 n Można pokazać, że funkcja n (X i µ 0 ) 2. Q(X, σ 2 ) = ns 2 1/σ 2 (2.5) ma rozkład χ 2 z n stopniami swobody, niezależny od nieznanego parametru σ 2. Jest więc ona funkcją centralną dla parametru σ 2. Przykład 12 Niech X = (X 1,..., X n ) będzie próbą z rozkładu normalnego N(µ, σ 2 ), gdzie µ R i σ R + są nieznanymi parametrami. Niech Można pokazać, że funkcja X = n 1 n X i oraz S 2 = n 1 n 1 (X i X) 2. Q(X, µ) = n(x µ)/s (2.6) ma rozkład t Studenta z n 1 stopniami swobody, niezależny od nieznanego parametru µ i również niezależny od nieznanego parametru σ. Jest więc ona funkcja centralną dla parametru µ. Również można pokazać, że funkcja Q(X 1,..., X n, σ 2 ) = n 1S 2 /σ 2 (2.7) ma rozkład χ 2 z n 1 stopniami swobody, niezależny od σ 2 i również niezależny od nieznanego parametru µ. Jest więc ona funkcją centralną dla parametru σ 2. 9

Załóżmy teraz, że dysponujemy funkcją centralną Q(X, ϑ) dla parametru ϑ. Przedział ufności dla parametru ϑ konstruuje się w następujący sposób. Wybieramy liczby a i b tak, aby spełniały równość P ϑ (a Q(X, ϑ) b) 1 α, dla każdego ϑ Θ i zadanego α. W przypadku, gdy Q(X, ϑ) jest funkcją ciągłą i ściśle monotoniczną parametru ϑ, to nierówność a Q b jest równoważna nierówności T L (X, a, b) ϑ T U (X, a, b). Stąd T L (X, a, b) oraz T U (X, a, b) są odpowiednio dolnym i górnym końcem 100(1 α)% przedziału ufności dla parametru ϑ. Jeżeli x = (x 1,..., x n ) jest realizacją obserwowalnego wektora losowego X = (X 1,..., X n ), to przedział [T L (x, a, b), T U (x, a, b)] nazywamy realizacją przedziału ufności dla parametru ϑ lub 100(1 α)% oceną przedziałową parametru ϑ. W konkretnym problemie funkcja centralna może nie istnieć lub może istnieć kilka takich funkcji. W tym drugim przypadku należy wybrać funkcję optymalną ze względu na pewne kryteria (np. długość przedziału ufności, który przy wykorzystaniu danej funkcji otrzymamy). Często wybiera się funkcje centralne będące funkcjami statystyk dostatecznych, czy też optymalnych estymatorów punktowych. Przy konstrukcji przedziału ufności oprócz problemu wyboru funkcji centralnej natrafiamy również na problem wyboru stałych a i b. Często, gdy dysponujemy już konkretną funkcją centralną, stałe a i b możemy wybrać na nieskończenie wiele sposobów. Wówczas przy ich wyborze też powinniśmy kierować się spełnieniem pewnych kryteriów optymalności. Przykładem takiego kryterium jest długość przedziału ufności lub wartość oczekiwana jego długości. 2.2.2 Przedziały ufności dla wartości średniej Model I Populacja generalna ma rozkład normalny N (µ, σ 2 ). Wartość średnia µ jest nieznana, odchylenie standardowe σ 0 w populacji jest znane. Z populacji tej pobrano próbę o liczebności n elementów, wylosowanych niezależnie. Korzystając z funkcji centralnej Q(X, µ), określonej wzorem (2.4), otrzymujemy następujące granice ufności dla parametru µ na poziomie ufności 1 α T L = X z(1 α 2 ) σ 0 n, T U = X z(α 1 ) σ 0 n, 10

gdzie z(p) oznacza kwantyl rzędu p standardowego rozkładu normalnego oraz α 1 +α 2 = α. Można pokazać, że przyjmując α 1 = α 2 = α/2, otrzymamy najkrótszy przedział ufności dla parametru µ w klasie przedziałów ufności na poziomie ufności 1 α, skonstruowanych przy użyciu funkcji centralnej określonej wzorem (2.4). Także w praktyce przyjmuje się najczęściej następujące granice przedziału ufności dla parametru µ w rozkładzie normalnym, gdy σ 0 jest znane T L = X z(1 α/2) σ 0 n, T U = X + z(1 α/2) σ 0 n. (2.8) Długość tego przedziału jest nielosowa i wynosi L = 2z(1 α/2)σ 0 / n. Model II Populacja generalna ma rozkład normalny N (µ, σ 2 ). Nieznana jest zarówno wartość średnia µ, jak i odchylenie standardowe σ w populacji. Z populacji tej pobrano małą próbę o liczebności n elementów, wylosowanych niezależnie. Korzystając z funkcji centralnej Q(X, µ), określonej wzorem (2.6), otrzymujemy następujące granice ufności dla parametru µ na poziomie ufności 1 α T L = X t n 1 (1 α 2 ) S n, T U = X + t n 1 (α 1 ) S n, gdzie t n 1 (p), oznacza kwantyl rzędu p rozkładu Studenta z n 1 stopniami swobody oraz α 1 + α 2 = α. Można pokazać, że przyjmując α 1 = α 2 = α/2, otrzymamy przedział ufności dla parametru µ o najmniejszej oczekiwanej długości w klasie przedziałów ufności na poziomie ufności 1 α, skonstruowanych przy użyciu funkcji centralnej określonej wzorem (2.6). Także w praktyce przyjmuje się najczęściej następujące granice przedziału ufności dla parametru µ w rozkładzie normalnym, gdy σ nie jest znane T L = X t n 1 (1 α/2) S n, T U = X + t n 1 (1 α/2) S n. Długość tego przedziału jest losowa i wynosi L = 2t n 1 (1 α/2)s/ n. Model III Populacja generalna ma rozkład normalny N (µ, σ 2 ), bądź dowolny inny rozkład o średniej µ i skończonej wariancji σ 2 (nieznanej). Z populacji tej pobrano do próby n niezależnych obserwacji, przy czym rozmiar n próby jest duży. Wówczas można pokazać, że zmienna losowa Q(X, µ) = n(x µ)/s ma w przybliżeniu standardowy rozkład normalny. Korzystając z tego faktu dolna T L i górna T U granica przedziału ufności dla wartości oczekiwanej µ na poziomie ufności równym w przybliżeniu 1 α wyraża się wzorem (2.8) jak w modelu I, w którym zamiast σ przyjmujemy wartość odchylenia standardowego S obliczonego z próby. Długość tego przedziału jest losowa i wynosi L = 2z(1 α/2)s/ n. 11

2.2.3 Przedziały ufności dla wariancji Model I Populacja generalna ma rozkład normalny N (µ 0, σ 2 ). Odchylenie standardowe σ w populacji nie jest znane, wartość średnia µ 0 jest znana. Z populacji tej pobrano próbę o liczebności n elementów, wylosowanych niezależnie. Korzystając z funkcji centralnej Q(X, σ), określonej wzorem (2.5), otrzymujemy następujące granice ufności dla parametru σ 2 na poziomie ufności 1 α T L = ns 2 1 χ 2 n(1 α 2 ), T U = ns2 1 χ 2 n(α 1 ), (2.9) gdzie χ 2 n(p) oznacza kwantyl rzędu p rozkładu χ 2 n z n stopniami swobody oraz α 1 +α 2 = α. W praktyce przyjmuje się najczęściej α 1 = α 2 = α/2. Długość otrzymanego w ten sposób przedziału ufności jest losowa i wynosi ns 2 1[1/χ 2 n(α/2) 1/χ 2 n(1 α/2)]. Model II Populacja generalna ma rozkład normalny N (µ, σ 2 ) o nieznanych parametrach µ i σ. Z populacji tej wylosowano niezależnie do próby n elementów (n jest małe, tj. n < 30). Korzystając z funkcji centralnej Q(X, σ), określonej wzorem (2.7), otrzymujemy następujące granice ufności dla parametru σ 2 na poziomie ufności 1 α T L = (n 1)S2 χ 2 n 1(1 α 2 ), T U = (n 1)S2 χ 2 n 1(α 1 ), (2.10) gdzie χ 2 n 1(p) oznacza kwantyl rzędu p rozkładu χ 2 n 1 z n 1 stopniami swobody oraz α 1 + α 2 = α. W praktyce przyjmuje się najczęściej α 1 = α 2 = α/2. Długość otrzymanego w ten sposób przedziału ufności jest losowa i wynosi ns 2 [1/χ 2 n 1(α/2) 1/χ 2 n 1(1 α/2)]. Model III Populacja generalna ma rozkład normalny N (µ, σ 2 ), bądź dowolny inny rozkład o średniej µ i skończonej wariancji σ 2. Z populacji tej pobrano do próby n niezależnych obserwacji, przy czym rozmiar n próby jest duży. Wówczas można pokazać, że zmienna losowa Q(X, σ) = 2(n 1)S/σ 2n 3 ma w przybliżeniu standardowy rozkład normalny. Korzystając z tego faktu dolna T L i górna T U granica przedziału ufności dla odchylenia standardowego σ na poziomie ufności równym w przybliżeniu 1 α wyraża się następującym wzorem T L = S 2n 2/(z(1 α 2 ) + 2n 3), T U = S 2n 2/(z(α 1 ) + 2n 3), (2.11) gdzie z(p) oznacza kwantyl rzędu p standardowego rozkładu normalnego oraz α 1 +α 2 = α. 12

Uwaga 3 Przedziały ufności na poziomie ufności 1 α dla odchylenia standardowego σ w modelu I i w modelu II otrzymujemy pierwiastkując granice ufności określone odpowiednio wzorami (2.9) i (2.10). Natomiast przedziały ufności na poziomie ufności 1 α dla wariancji σ 2 w modelu III otrzymujemy podnosząc do kwadratu granice ufności określone wzorem (2.11). 2.2.4 Przedziały ufności dla prawdopodobieństwa sukcesu Niech X = (X 1,..., X n ) będzie próbą z rozkładu dwumianowego B(1, p), gdzie p (0, 1) jest nieznanym parametrem. Oznaczmy X = n X i. Wiadomo, że X ma rozkład B(n, p). Na podstawie obserwacji zmiennej losowej X chcemy skonstruować przedział ufności, na poziomie ufności 1 α, dla parametru p. Granice ufności T L i T U będą zatem funkcjami X, n i α takimi, że P p (T L (X, n, α) < p < T U (X, n, α)) 1 α. Istnieje wiele metod konstrukcji przedziałów ufności dla parametru p (zobacz np. Blyth i Still, 1983). Najczęściej metody te są dzielone na dwie grupy: przedziały ufności w przypadku, gdy rozmiar n próby jest mały oraz przedziały ufności w przypadku, gdy rozmiar próby jest duży. Przypadek małego rozmiaru próby Oznaczmy przez Be q (a, b) kwantyl rzędu q rozkładu beta z parametrami a, b. Dolna granica przedziału ufności Cloppera-Pearsona dla parametru p, na poziomie ufności 1 α jest postaci 0, gdy X = 0, T L (X) = Be α/2 (X, n X + 1), gdy X 0, natomiast górna granica przedziału ufności wyraża się wzorem 1, gdy X = n, T L (X) = Be 1 α/2 (X + 1, n X), gdy X n. Powyższe przedziały ufności zostały zaproponowane przez Cloppera-Pearsona w roku 1934. Posiadają one wiele pożądanych własności, ale charakteryzują się dość dużą oczekiwaną długością i z tego powodu były modyfikowane w różny sposób. 13

Przypadek dużego rozmiaru próby W przypadku, gdy rozmiar n próby X jest duży, przy wyznaczaniu przedziałów ufności dla parametru p możemy skorzystać z następującej aproksymacji n(ˆp p) N (0, 1) (2.12) ˆp(1 ˆp) lub n(ˆp p) p(1 p) N (0, 1), (2.13) gdzie ˆp = X/n. Korzystając z aproksymacji (2.12), otrzymujemy następujące granice ufności T L (X, n, α) = ˆp c ˆp(1 ˆp) (2.14) i T U (X, n, α) = ˆp + c ˆp(1 ˆp), (2.15) gdzie c = z(1 α/2) n, (2.16) i z(1 α/2) jest kwantylem rzędu 1 α/2 standardowego rozkładu normalnego. Natomiast korzystając z aproksymacji (2.13) otrzymujemy następujące granice ufności T L (X, n, α) = 2ˆp + c2 c c 2 + 4ˆp(1 ˆp), (2.17) 2(1 + c 2 ) T U (X, n, α) = 2ˆp + c2 + c c 2 + 4ˆp(1 ˆp), (2.18) 2(1 + c 2 ) 2.2.5 Przedziały ufności dla różnicy dwóch prawdopodobieństw sukcesu Istnieje co najmniej jedenaście metod konstrukcji przedziałów ufności dla różnicy dwóch prawdopodobieństw sukcesu (zobacz np. Newcombe, 1998 i Prendergast, 2014). 14