8 Weryfikacja hipotez statystycznych

Podobne dokumenty
1. Wnioskowanie statystyczne. Ponadto mianem statystyki określa się także funkcje zmiennych losowych o

X i. X = 1 n. i=1. wartość tej statystyki nazywana jest wartością średnią empiryczną i oznaczamy ją symbolem x, przy czym x = 1. (X i X) 2.

Trzeba pokazać, że dla każdego c 0 c Mc 0. ) = oraz det( ) det( ) det( ) jest macierzą idempotentną? Proszę odpowiedzieć w

Zadanie 2 Niech,,, będą niezależnymi zmiennymi losowymi o identycznym rozkładzie,.

Twierdzenia graniczne:

ZAGADNIENIE ESTYMACJI. ESTYMACJA PUNKTOWA I PRZEDZIAŁOWA

będą niezależnymi zmiennymi losowymi z rozkładu jednostajnego na przedziale ( 0,

16 Przedziały ufności

TESTY LOSOWOŚCI. Badanie losowości próby - test serii.

1 Twierdzenia o granicznym przejściu pod znakiem całki

Wokół testu Studenta 1. Wprowadzenie Rozkłady prawdopodobieństwa występujące w testowaniu hipotez dotyczących rozkładów normalnych

Lista 6. Estymacja punktowa

Estymacja przedziałowa

PRZEDZIAŁY UFNOŚCI. Niech θ - nieznany parametr rozkładu cechy X. Niech α będzie liczbą z przedziału (0, 1).

Statystyka matematyczna dla leśników

O liczbach naturalnych, których suma równa się iloczynowi

Testowanie hipotez. H 1 : µ 15 lub H 1 : µ < 15 lub H 1 : µ > 15

Prawdopodobieństwo i statystyka r.

Statystyka matematyczna. Wykład II. Estymacja punktowa

Podstawowe oznaczenia i wzory stosowane na wykładzie i laboratorium Część I: estymacja

Charakterystyki liczbowe zmiennych losowych: wartość oczekiwana i wariancja

MACIERZE STOCHASTYCZNE

UKŁADY RÓWNAŃ LINOWYCH

Estymatory nieobciążone o minimalnej wariancji

Podstawowe rozkłady zmiennych losowych typu dyskretnego

Testowanie hipotez. Hipoteza prosta zawiera jeden element, np. H 0 : θ = 2, hipoteza złożona zawiera więcej niż jeden element, np. H 0 : θ > 4.

θx θ 1, dla 0 < x < 1, 0, poza tym,

( ) WŁASNOŚCI MACIERZY

Statystyka i Opracowanie Danych. W7. Estymacja i estymatory. Dr Anna ADRIAN Paw B5, pok407

µ = Test jest następujący: jeŝeli X > 0.01 to odrzucamy H. 0

ANALIZA DANYCH DYSKRETNYCH

Parametryczne Testy Istotności

WYKŁAD 1. Zdarzenia losowe i prawdopodobieństwo Zmienna losowa i jej rozkłady

Modele probabilistyczne zjawisk losowych

STATYSTYKA. Rafał Kucharski. Uniwersytet Ekonomiczny w Katowicach 2015/16 ROND, Finanse i Rachunkowość, rok 2

KURS STATYSTYKA. Lekcja 3 Parametryczne testy istotności ZADANIE DOMOWE. Strona 1

STATYSTKA I ANALIZA DANYCH LAB II

STATYSTYKA OPISOWA I PROJEKTOWANIE EKSPERYMENTU dr inż Krzysztof Bryś

L.Kowalski zadania ze statystyki matematycznej-zestaw 3 ZADANIA - ZESTAW 3

Statystyka opisowa. (n m n m 1 ) h (n m n m 1 ) + (n m n m+1 ) 2 +1), gdy n jest parzyste

są niezależnymi zmiennymi losowymi o jednakowym rozkładzie Poissona z wartością oczekiwaną λ równą 10. Obliczyć v = var( X

Korelacja i regresja. Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Inteligencji i Metod Matematycznych. Wykład 12

1 Układy równań liniowych

STATYSTYKA MATEMATYCZNA

ma rozkład złożony Poissona z oczekiwaną liczbą szkód równą λ i rozkładem wartości pojedynczej szkody takim, że Pr( Y

Estymacja parametrów populacji

Wykład 11 ( ). Przedziały ufności dla średniej

Metrologia: miary dokładności. dr inż. Paweł Zalewski Akademia Morska w Szczecinie

Lista 5. Odp. 1. xf(x)dx = xdx = 1 2 E [X] = 1. Pr(X > 3/4) E [X] 3/4 = 2 3. Zadanie 3. Zmienne losowe X i (i = 1, 2, 3, 4) są niezależne o tym samym

Zdarzenia losowe, definicja prawdopodobieństwa, zmienne losowe

PODSTAWY BIOSTATYSTYKI ĆWICZENIA

ZBIEŻNOŚĆ CIĄGU ZMIENNYCH LOSOWYCH. TWIERDZENIA GRANICZNE

Prawdopodobieństwo i statystyka r.

Prawdopodobieństwo i statystyka

Twierdzenie Cayleya-Hamiltona

Niezależność zmiennych, funkcje i charakterystyki wektora losowego, centralne twierdzenia graniczne

MODELE MATEMATYCZNE W UBEZPIECZENIACH. 1. Renty

Estymacja przedziałowa - przedziały ufności

Matematyka ubezpieczeń majątkowych r.

Metoda łączona. Wykład 7 Dwie niezależne próby. Standardowy błąd dla różnicy dwóch średnich. Metoda zwykła (niełączona) n2 2

Teoria. a k. Wskaźnik sumowania można oznaczać dowolną literą. Mamy np. a j = a i =

Weryfikacja hipotez statystycznych

Podprzestrzenie macierzowe

Moda (Mo, D) wartość cechy występującej najczęściej (najliczniej).

3. Regresja liniowa Założenia dotyczące modelu regresji liniowej

Wykład 5 Przedziały ufności. Przedział ufności, gdy znane jest σ. Opis słowny / 2

Parametryzacja rozwiązań układu równań

1 Testy statystyczne. 2 Rodzaje testów

Relacje rekurencyjne. będzie następująco zdefiniowanym ciągiem:

Idea. θ = θ 0, Hipoteza statystyczna Obszary krytyczne Błąd pierwszego i drugiego rodzaju p-wartość

(X i X) 2. n 1. X m S

Jarosław Wróblewski Analiza Matematyczna 1, zima 2016/17

Wykład 11. a, b G a b = b a,

z przedziału 0,1. Rozważmy trzy zmienne losowe:..., gdzie X

STATYSTYKA I ANALIZA DANYCH

Analiza matematyczna. Robert Rałowski

Metody badania zbieżności/rozbieżności ciągów liczbowych

Podprzestrzenie macierzowe

Znajdowanie pozostałych pierwiastków liczby zespolonej, gdy znany jest jeden pierwiastek

Statystyka. Katarzyna Chudy Laskowska

Statystyka matematyczna. Wykład IV. Weryfikacja hipotez statystycznych

n n X n = σ σ = n n n Ponieważ zmienna losowa standaryzowana ma rozkład normalny N(0, 1), więc

0.1 ROZKŁADY WYBRANYCH STATYSTYK

Wykład 2 Hipoteza statystyczna, test statystyczny, poziom istotn. istotności, p-wartość i moc testu

ZSTA LMO Zadania na ćwiczenia

Stwierdzenie 1. Jeżeli ciąg ma granicę, to jest ona określona jednoznacznie (żaden ciąg nie może mieć dwóch różnych granic).

Porównanie dwu populacji

Błędy przy testowaniu hipotez statystycznych. Decyzja H 0 jest prawdziwa H 0 jest faszywa

Prawdopodobieństwo i statystyka r.

P = 27, 8 27, 9 27 ). Przechodząc do granicy otrzymamy lim P(Y n > Y n+1 ) = P(Z 1 0 > Z 2 X 2 X 1 = 0)π 0 + P(Z 1 1 > Z 2 X 2 X 1 = 1)π 1 +

Pierwiastki z liczby zespolonej. Autorzy: Agnieszka Kowalik

Ćwiczenie 2 ESTYMACJA STATYSTYCZNA

Rachunek prawdopodobieństwa i statystyka W12: Statystyczna analiza danych jakościowych. Dr Anna ADRIAN Paw B5, pok 407 adan@agh.edu.

1 Przedziały ufności. ). Obliczamy. gdzie S pochodzi z rozkładu B(n, 1 2. P(2 S n 2) = 1 P(S 2) P(S n 2) = 1 2( 2 n +n2 n +2 n ) = 1 (n 2 +n+2)2 n.

Estymacja: Punktowa (ocena, błędy szacunku) Przedziałowa (przedział ufności)

Weryfikacja hipotez statystycznych

Zadania z algebry liniowej - sem. I Liczby zespolone

x t 1 (x) o 1 : x s 3 (x) Tym samym S(3) = {id 3,o 1,o 2,s 1,s 2,s 3 }. W zbiorze S(n) definiujemy działanie wzorem

Rekursja 2. Materiały pomocnicze do wykładu. wykładowca: dr Magdalena Kacprzak

Transkrypt:

Marek Beśka, Statystyka matematycza, wykład 8 04 8 Weryfikacja hipotez statystyczych 8. Hipotezy statystycze Drugą obok estymacji formą wioskowaia statystyczego jest weryfikacja hipotez statystyczych. Zacziemy od defiicji hipotezy statystyczej Defiicja 8. Każde przypuszczeie dotyczące iezaego rozkładu prawdopodobieństwa cechy X azywa się hipotezą statystyczą. A więc w realych sytuacjach w których moża przeprowadzać pewe obserwacje i które opisuje się za pomocą jakiegoś modelu probabilistyczego, każde twierdzeie specyfikujące model probabilistyczy odzwierciedlający aturalą zmieość obserwacji azywamy hipotezą statystyczą. Przykład 8.2 Kilka przykładów hipotez statystyczych:. Liczba zgłoszeń w cetrali telefoiczej (cecha X) w przedziale czasu długości t ma rozkład Poissoa z parametrem λ > 0. Wysuwamy przypuszczeie λ = 3. Przypuszczeie to jest hipoteza statystyczą i piszemy H (λ = 3). 2. Do kasy biletowej zgłasza się przeciętie dwóch iteresatów w ciągu miuty. Przypuszczeie: Liczba iteresatów (cecha X) zgłaszających się do kasy w ciagu ustaloego odcika czasu o długości t podlega rozkładowi Poissoa z parametrem 2t jest hipotezą statystyczą, którą ozaczymy przez H 2. 3. Niech cecha X ozacza wartość siły zrywającej włóka określoego rodzaju. Dla poszczególych włókie przyjmuje oa róże ie dające się z góry określić wartości. Przypuszczeie: Rozważa cecha X ma rozkład ormaly N(450, σ 2 ) jest hipotezą statystyczą, która ozaczymy przez H 3. 4. Niech cecha X będzie tak jak wyżej. Przypuszczeie cecha X ma rozkład ormaly N(450, 90) jest hipotezą statystyczą, którą ozaczymy przez H 4. Z podaego przykładu widzimy, że hipoteza statystycza może dotyczyć wartości parametrów rozkładu, wtedy mamy do czyieia z hipoteza parametryczą p. H lub dotyczyć postaci rozkładu, wtedy mamy do czyieia z hipoteza ieparametryczą p. H 2, H 3,H 4 z przykładu powyżej. Hipotezę statystyczą, która określa całkowicie rozkład prawdopodobieństwa azywamy hipotezą prostą w przeciwym razie mamy do czyieia z hipotezą złożoą. W przykładzie powyżej hipoteza H 3 jest hipotezą złożoą, pozostałe są hipotezami prostymi. Formułując hipotezę statystyczą H dokoujemy podziału wszystkich możliwych rozkładów cechy X a dwa zbiory. Jede tworzą rozkłady opisae przez hipotezę H drugi jest dopełieiem pierwszego zbioru. Przyjęto tą wyjściową hipotezę H azywać hipotezą zerową i ozaczać przez H 0, a hipotezę mówiącą, że rozkład cechy X ależy do drugiego

Marek Beśka, Statystyka matematycza, wykład 8 05 zbioru hipotezą alteratywą i ozaczać przez H a. Będziemy wtedy pisać H 0 H a i mówić, że stawiamy hipotezę H 0 przeciwko hipotezie H a. Przykład 8.3 Nawiązując do przykładu 8.2 sformułujemy hipotezy zerowe i hipotezy alteratywe.. H 0 (λ = 3) H a (λ 3). 2. H 0 (cecha X ma rozkład Poissoa z parametrem 2t) H a (cecha X ma rozkład dyskrety ie będący rozkładem Poissoa). 3. H 0 (cecha X ma rozkład ormaly N(450, σ 2 )) H a (cecha X ma rozkład ormaly N(450, σ 2 ) lub iy rozkład typu ciągłego ). 4. H 0 (cecha X ma rozkład ormaly N(450, 90)) H a (cecha X ma rozkład ormaly N(450, 90) lub iy rozkład typu ciągłego ). Zauważmy, że w powyższym przykładzie hipotezy zerowe w, 2, 4 są proste, a w 3 hipoteza zerowa jest złożoa. Wszystkie hipotezy alteratywe w powyższym przykładzie są złożoe. 8.2 Testy statystycze Hipoteza statystycza poddawaa jest weryfikacji za pomocą odpowiedio dobraego testu statystyczego. Testem statystyczym hipotezy H 0 H a azywamy postępowaie, które precyzuje dla jakiej próbki x = (x,..., x ) przyjmujemy H 0, a dla jakiej odrzucamy H 0 (tz. przyjmujemy H a ). Podzbiór W X tych próbek dla których odrzucamy hipotezę H 0 azywamy obszarem odrzuceia hipotezy H 0 lub obszarem krytyczym (zbiorem krytyczym). Dopełieie tego zbioru W = X \ W azywamy obszarem przyjęcia hipotezy H 0. Warto tu podkreślić, że test statystyczy ie udowadaia w sesie logiki prawdziwości czy fałszywaości hipotezy. Staowi o tylko formę podejmowaia decyzji w przypadku braku pełej iformacji. Testy statystycze służące do weryfikacji hipotezy parametryczej azywamy testami parametryczymi, a służące do weryfikacji hipotez ieparametryczych testami ieparametryczymi. Wśród tych ostatich wyróżia się testy zgodości służące do weryfikacji hipotez dotyczących postaci rozkładu cechy X. Będziemy wyróżiać testy iezradomizowae i test zradomizowae. Defiicja 8.4 Testem iezradomizowaym hipotezy H 0 H a azywamy azywamy fukcję φ : X {0, } określoą wzorem φ(x) = {, x W, 0, x W. x X, gdzie W jest obszarem krytyczym.

Marek Beśka, Statystyka matematycza, wykład 8 06 Jeśli φ(x) =, to odrzucamy H 0 i przyjmujemy H a, gdy φ(x) = 0 to przyjmujemy H 0 i odrzucamy H a. Zazwyczaj obszar krytyczy koostruuje się w oparciu o pewą statystykę T : (X, B) (Y, A). Wtedy obszarowi krytyczemu W B odpowiada pewie obszar U A taki, że W = T (U). Statystykę T azywamy wtedy statystyką testową. Przykład 8.5 Cecha X ma rozkład ormaly N(m, σ 2 ), gdzie σ 2 jest zae. Rozważmy hipotezy H 0 (m = m 0 ) H a (m m 0 ). Wtedy obszar krytyczy może być określoy astępująco { W = x X : x m 0 } > c σ dla pewego ustaloego c IR, gdzie T (x) = x m 0 σ jest statystyką testową. Obszarowi krytyczemu W odpowiada zatem obszar U = {t IR : t > c}. Jeśli teraz T (x) U to odrzucamy H 0, jeśli T (x) U to przyjmujemy H 0. Defiicja 8.6 Testem zradomizowaym hipotezy H 0 przeciwko H a azywamy mierzalą fukcję φ : X [0, ], gdzie φ(x) jest prawdopodobieństwem podjęcia decyzji o odrzuceiu hipotezy H 0, gdy zaobserwowao próbkę x X. W przypadku testu zradomizowaego dla daej próbki x hipoteza H 0 zostaje przyjęta z prawdopodobieństwem φ(x) i odrzucoa z prawdopodobieństwem φ(x). Decyzję o odrzuceiu lub przyjęciu hipotezy H 0 podejmuje się a podstawie eksperymetu Beroulliego w którym zdarzeie przyjąć H 0 ma prawdopodobieństwo φ(x), a odrzucić H 0 ma prawdopodobieństwo φ(x). Zauważmy, że test iezradomizoway jest szczególym przypadkiem testu zradomizowaego. 8.3 Błędy I i II rodzaju, moc testu Defiicja 8.7 Błędem I rodzaju azywamy podjęcie decyzji o odrzuceiu hipotezy statystyczej H 0, gdy jest oa prawdziwa (i powia być przyjęta). Błąd I rodzaju może być kotroloway przez odpowiedi wybór obszaru krytyczego. Może to am zapewić, że prawdopodobieństwo błędu I rodzju ie będzie większe od pewej z góry przyjętej stałej.

Marek Beśka, Statystyka matematycza, wykład 8 07 Defiicja 8.8 Błędem II rodzaju azywamy podjecie decyzji o przyjęciu hipotezy H 0, gdy jest oa fałszywa (i powia być odrzucoa). Poiższa tabelka przedstawia am możliwe przypadki jaki mogą zajść: Decyzja Hipoteza Odrzucić H 0 Przyjąć H 0 H 0 prawdziwa Błąd I rodzaju Decyzja poprawa H 0 fałszywa Decyzja poprawa Błąd II rodzaju Okazuje się, że ie moża zmiimalizować jedocześie błędów I i II rodzaju. Defiicja 8.9 Niech (X, B, P), gdzie P = {µ θ } θ Θ będzie przestrzeią statystyczą idukowaą przez próbę X = (X,..., X ), a φ testem. Wtedy fukcję β φ : Θ [0, ] określoą wzorem β φ (θ) = E θ (φ(x)), θ Θ azywamy fukcją mocy testu. Zauważmy, że w przypadku testu iezradomizowaego β φ (θ) = µ θ (W ) = P {X W }, gdzie W jest obszarem krytyczym φ. Jeśli hipotezie zerowej odpowiada zbiór Θ 0, a hipotezie alteratywej zbiór Θ 0, to β φ(θ) dla θ Θ 0 jest prawdopodobieństwem błędu I rodzaju, a β φ (θ) dla θ Θ 0 jest prawdopodobieństwem błędu II rodzaju. Fukcję mocy β φ obciętą do zbioru Θ 0 azywamy mocą testu. Niemożość jedoczesego zmiimalizowaia błędów I i II rodzaju spowodowała wybór pewego kompromisu, miaowicie ustala się z góry ograiczeie α a prawdopodobieństwo błędu I rodzaju. Na ogół przyjmuje się, że α = 0, 05, α = 0, 0 lub α = 0, 00. Tak więc dla testu φ będziemy mieli (8.) β φ (θ) α, θ Θ 0. To góre ograiczeie α błędu I rodzaju azywamy poziomem istotości testu, a liczbę sup β φ (θ) θ Θ 0 rozmiarem testu. Następie spośród testów spełiających (8.) wybieramy taki, który miimalizuje prawdopodobieństwo błędu II rodzaju. Tak skostruowae testy azywamy testami istotości. Test, który przy ustaloym prawdopodobieństwie błędu I rodzaju miimalizuje prawdopodobieństwo błędu II rodzaju azywamy testem ajmociejszym dla

Marek Beśka, Statystyka matematycza, wykład 8 08 H 0 względem prostej hipotezy alteratywej H a. Jeśli test jest ajmociejszy względem każdej hipotezy alteratywej ze zbioru hipotez Θ 0, a więc hipotezy alteratywej złożoej azywamy go testem jedostajie ajmociejszym. Lemat 8.0 (Podstawowy lemat Neymaa-Pearsoa) Niech (X, B, P), gdzie P = {µ θ } θ Θ będzie przestrzeią statystyczą idukowaą przez próbę X = (X,..., X ). Załóżmy, że Θ = {θ 0, θ } (θ 0 θ ) oraz rozkłady µ θ0, µ θ są absolutie ciągłe względem pewej σ - skończoej miary λ tz. µ θ0 (A) = f 0 dλ, µ θ (A) = f dλ, A B. Rozważmy problem testowaia hipotezy (8.2) H 0 (θ = θ 0 ) H a (θ = θ ) a poziomie istotości α. A (i) (Istieie testu) Dla daego α (0, ) istieje test φ hipotezy (8.2) o rozmiarze α tz. taki, że (8.3) E θ0 φ(x) = α. (ii) (Dostateczość) Jeśli φ jest testem hipotezy (8.2) o rozmiarze α oraz istieje t > 0 takie, że A (8.4) φ(x) = {, gdy f (x) > tf 0 (x), 0, gdy f (x) < tf 0 (x), dla λ p.w. x X, test φ jest testem ajmociejszym dla testowaia hipotezy (8.2) a poziomie istotości α. (iii) (Koieczość) Jeśli test φ jest testem ajmociejszym dla testowaia hipotezy (8.2) a poziomie istotości α, to dla pewego t > 0 spełia o waruek (8.4). Uwaga. Skrócoą wersję tego lematu moża wypowiedzieć astępująco: Niech E X będzie mierzalym obszarem w przestrzei próbek takim, że µ θ0 (E) α. Przypuśćmy, że istieje obszar E = {f > tf 0 } taki, że µ θ0 (E ) = α. Wtedy µ θ (E ) µ θ (E). Dowód lematu 8.0. (i) Ozaczmy f (x) T (x) = f 0 (x), f 0(x) > 0, +, f 0 (x) = 0, x X oraz iech F (t) = µ θ0 ({x X : T (x) t}), t IR.

Marek Beśka, Statystyka matematycza, wykład 8 09 Dla α (0, ) iech t α = F ( α). Zauważmy, że µ θ0 ({x X : f (x) = t α f 0 (x)}) = µ θ0 ({x X : T (x) = t α }) = F (t α ) F (t α ). Jeśli t α jest puktem ciągłości F, to test φ określamy wzorem φ(x) = {, gdy f (x) > t α f 0 (x), 0, gdy f (x) t α f 0 (x) lub φ(x) = {, gdy f (x) t α f 0 (x), 0, gdy f (x) < t α f 0 (x) dla x X. Wtedy E θ0 φ(x) = F (t α ) = F (F ( α)) = ( α) = α. Zatem φ jest (iezradomizowaym) testem o rozmiarze α. Jeśli t α ie jest puktem ciągłości F, to test φ określamy wzorem, gdy f (x) > t α f 0 (x), α ( F (t α )) φ(x) = F (t α ) F (t α ), gdy f (x) = t α f 0 (x), 0, gdy f (x) < t α f 0 (x), x X. Wtedy E θ0 φ(x) = µ θ0 ({x X : f (x) > t α f 0 (x)})+ α ( F (t α )) F (t α ) F (t α ) µ θ 0 ({x X : f (x) = t α f 0 (x)}) = F (t α ) + α ( F (t α)) F (t α ) F (t α ) [F (t α) F (t α )] = α. Zatem φ jest (zradomizowaym) testem o rozmiarze α i dowód istieia testu o rozmiarze α (0, ) został zakończoy. (ii) Niech φ będzie testem o rozmiarze α hipotezy (8.2) spełiającym waruek (8.4) i iech φ będzie iym testem hipotezy (8.2) a poziomie istotości α tz. mamy {x : φ(x)>φ (x)} E θ φ(x) E θ φ (X) = [φ(x) φ (x)] f (x) dλ(x)+ E θ0 φ (X) α. X [φ(x) φ (x)] f (x) dλ(x) = {x : φ(x)<φ (x)} Jeśli φ(x) > φ (x), to φ(x) > 0. Zatem f (x) tf 0 (x). Stąd A t [φ(x) φ (x)] f 0 (x) dλ(x). {x : φ(x)>φ (x)} [φ(x) φ (x)] f (x) dλ(x) = A+B.

Marek Beśka, Statystyka matematycza, wykład 8 0 Podobie, jeśli φ(x) < φ (x), to φ(x) <. Zatem f (x) tf 0 (x). Stąd B t [φ(x) φ (x)] f 0 (x) dλ(x). {x : φ(x)<φ (x)} Ostateczie, więc otrzymujemy E θ φ(x) E θ φ (X) = A + B t X [φ(x) φ (x)] f 0 (x) dλ(x) = t[e θ0 φ(x) E θ0 φ (X)] = t[α E θ0 φ (X)] 0. Zatem test φ jest co ajmiej tak mocy jak test φ i dowód dostateczości został zakończoy. (iii) Niech φ będzie testem hipotezy (8.2) o rozmiarze α spełiającym waruek (8.4). Z puktu (ii) mamy E θ φ (X) = E θ φ(x). Rozważmy zbiór C = {x X : φ (x) φ(x) f (x) tf 0 (x)}. Dla dowodu wystarczy wykazać, że λ(c) = 0. Zauważmy, że (8.5) [φ (x) φ(x)][f (x) tf 0 (x)] > 0 dla x C. Załóżmy, że λ(c) > 0. Wtedy z (8.5) mamy [φ (x) φ(x)][f (x) tf 0 (x)] dλ(x) = Ale wtedy 0 = X co daje sprzeczość. C X [φ (x) φ(x)][f (x) tf 0 (x)] dλ(x) > 0. [φ (x) φ(x)]f (x) dλ(x) > t [φ (x) φ(x)]f 0 (x) dλ(x) 0 X Wiosek 8. Załóżmy, że spełioe są założeia lematu Neymaa-Pearsoa. Jeśli β jest mocą ajmociejszego testu (8.2) a poziomie istotości α (0, ), to β > α chyba, że µ θ0 = µ θ. Dowód. Rozważmy test φ α. Jest to test a poziomie istotości α i moc tego testu jest rówa α, więc z założeia β α. Przypuśćmy, że β = α. Wtedy test φ jest testem ajmociejszym, więc z lematu Neymaa-Pearsoa musi spełiać waruek (8.4). Poieważ α (0, ), więc dla pewego t mamy f = tf 0, λ - p.w. Ale f i f 0 są gęstościami, stąd t =. Zatem µ θ0 = µ θ.

Marek Beśka, Statystyka matematycza, wykład 8 Przykład 8.2 Rzucamy osiem razy moetą iesymetryczą z prawdopodobieństwem wyrzuceie orzełka w jede próbie rówym θ (0, ). Korzystając z lematu Neymaa- Pearsoa zbudujemy ajmociejszy test dla testowaia hipotezy ( H 0 θ = ) ( H a θ = 2 ) 2 3 a poziomie istotości α = 0, 05. Korzystają ze wzoru a rozkład dwumiaowy otrzymujemy gęstości: ( ) 8 ( ) x ( f 0 (x) = ) ( ) 8 x 8 ( ) 8, = x = 0,,..., 8. x 2 2 x 2 oraz f (x) = ( ) 8 (2 x ( ) 8 x, x = 0,,..., 8. x 3) 3 Wartości powyższych gęstości zebrao w tabelce poiżej Z powyższej tabelki widzimy, że x f 0 (x) f (x) f (x)/f 0 (x) 0 0,00390625 0,0005246 0,039084 0,0325 0,00243865 0,0780369 2 0,09375 0,070706 0,56074 3 0,2875 0,0682823 0,3248 4 0,273438 0,70706 0,624295 5 0,2875 0,27329,24859 6 0,09375 0,27329 2,4978 7 0,0325 0,56074 4,99436 8 0,00390625 0,039084 9,98872 f (x) > 3 x > 6. f 0 (x) Zatem korzystając z lematu Neymaa-Pearsoa test iezradomizoway a poziomie istotości α = 0, 05 ma postać { dla x > 6, φ(x) = 0 dla x 6. Jego rozmiar wyosi E θ0 φ = 0, 00390625 + 0, 0325 = 0, 0355625, a moc tego testu jest rówa β φ (θ ) = 0, 039084 + 0, 56074 = 0, 950924. Test zradomizoway o rozmiarze

Marek Beśka, Statystyka matematycza, wykład 8 2 0, 05 będzie miał postać dla x > 6, φ(x) = 9/40 dla x = 6, 0 dla x < 6. Jego moc wyosi β φ (θ ) = 0, 950924 + 9 40 0, 27329 = 0, 23256. Jest o zgodie z lematem Neymaa-Pearsoa testem ajmociejszym. Przykład 8.3 Niech X = (X,..., X ) będzie próbą z rozkładu ormalego N(m, σ 2 ), gdzie σ > 0 jest zae. Zbudujemy test ajmociejszy a poziomie istotości α (0, ) dla testowaie hipotezy Zauważmy, że Podobie f 0 (x) = f (x) = H 0 (m = θ 0 ) H a (m = θ ), gdzie θ > θ 0. [ (σ 2π) exp 2σ 2 [ (σ 2π) exp 2σ 2 (x i θ 0 ) 2], x = (x,..., x ) IR. (x i θ ) 2], x = (x,..., x ) IR. Na mocy lematu Neymaa-Pearsoa obszar krytyczy dla ajmociejszego testu ma postać Zauważmy, że W = f (x) [ f 0 (x) t exp 2σ 2 { x IR : f (x) f 0 (x) t }. (x i θ ) 2 + 2σ 2 (x i θ 0 ) 2] t x(θ θ 0 ) 2 (θ2 θ 2 0) t x t. Zatem dla wyzaczeia obszaru krytyczego wystarczy zaleźć takie t aby µ θ0 {x : x t } = α. Zauważmy, że { µ θ0 x : x θ 0 } u α = α, σ gdzie u α jest kwatylem rzędu α stadardowego rozkładu ormalego N(0, ). Stąd { µ θ0 x : x σ } u α + θ 0 = α.

Marek Beśka, Statystyka matematycza, wykład 8 3 Zatem obszar krytyczy aszego testu ma postać (8.6) W = {x : x σ } u α + θ 0. Zbudoway test jest więc rówy (8.7) φ(x) = Jego moc wyosi {, x W, 0, x W. x IR. µ θ (W ) = µ θ { x : x σ u α + θ 0 } = { µ θ x : x θ } u α + σ σ (θ 0 θ ) = ( ) ( ) Φ u α + σ (θ 0 θ ) = Φ u α + σ (θ θ 0 ). Na koiec zauważmy, że otrzymay test (8.7) z obszarem krytyczym (8.6) jest rówież jedostajie ajmociejszym testem a poziomie istotości α (0, ) do testowaia hipotezy H 0 (m = θ 0 ) H a (m > θ 0 ). 8.4 Test Kołmogorowa Niech cecha X posiada ciągłą dystrybuatę F X, która jest iezaa. Zadaie polega a zweryfikowaiu hipotezy (prostej) Rozważmy statystykę Kołmogorowa H 0 (F X = F ) H a (F X F ). D = sup F (u; X) F (u), u R gdzie X = (X,..., X ) jest próbą losową prostą. Jak wiadomo D 0, P p.w, więc duże wartości tej statystyki będą przeczyły testowaej hipotezie H 0. poziomie istotości α (0, ) zbiór krytyczy będzie miał postać gdzie d (α) jest tak dobrae, że W = d (α),, P {D > d (α)} = α. Na daym Okazuje się, że wartość krytyczą d (α) możemy dokładaie wyzaczyć, bo rozkład statystyki Kołmogorowa D, gdy prawdziwa jest hipoteza zerowa H 0 ie zależy od postaci dystrybuaty F. Dokładiej mamy astępujące twierdzeie

Marek Beśka, Statystyka matematycza, wykład 8 4 Twierdzeie 8.4 Jeśli hipoteza zerowa H 0 jest prawdziwa, to rozkład statystyki Kołmogorowa ie zależy od postaci dystrybuaty F. Dowód. Korzystając własości uogólioej dystrybuaty odwrotej oraz z twierdzeia.7 otrzymujemy { } P {D > d (α)} = P F (x; X) F (x) > d (α) = { P { P sup 0<t< sup x R { P sup x R } I (,x] (X i ) F (x) > d (α) = } I (, F (t)](x i ) F (F (t)) > d (α) = sup 0<t< } I (, t] (U i ) t) > d (α), gdzie U i, i =, 2,..., są iezależe i mają rozkład jedostajy a (0, ), bo P {X i F (t)} = P {X i < F (t)} = P {F (X i ) < t} = P {F (X i ) t} i przyjmujemy U i = F (X i ), i =, 2,...,. Zauważmy, że aby obliczyć wartość statystyki Kołmogorowa D a próbce, wystarczy zauważyć, że występujący w D kres góry realizuje się w jedym z puktów skoku dystrybuaty empiryczej. W praktyczych zastosowaiach postępuje się astępująco: (i) porządkujemy próbkę x = (x, x 2,..., x ) iemalejąco (ii) Obliczamy x () x (2) x (). D = max F (x (i) ) i oraz D + = max i i i F (x (i)). (iii) Obliczamy D = max{d, D + }. (iv) Z tablic kwatyli rozkładu Kołmogorowa odczytujemy wartość krytyczą.

Marek Beśka, Statystyka matematycza, wykład 8 5 Przykład 8.5 Wyikami obserwacji są 0, 87, 0, 56,, 37, 0, 8, 2, 46. Na poziomie istotości α = 0, 05 chcemy testem Kołmogorowa zweryfikować hipotezę, że próbka została pobraa z populacji w której badaa cecha ma stadardoway rozkład wykładiczy tj. o dystrybuacie F (x) = ( e x ) I (0, ), x IR (jest to asza hipoteza zerowa H 0 ). Porządkujemy próbkę Dalsze obliczeia zebraliśmy w tabelce 0, 8, 0, 56, 0, 87,, 37, 2, 46. i x (i) i/ F (x (i) ) (i )/ i F (x (i)) F (x(i) ) i 0,8 0,2 0,647 0 0,0353 0,647 2 0,56 0,4 0,4288 0,2 0,0288 0,2288 3 0,87 0,6 0,580 0,4 0,090 0,80 4,37 0,8 0,7456 0,6 0,0544 0,456 5 2,46 0,945 0,8 0,0855 0,45 Z tabelki odczytujemy D + = 0, 0855 i D = 0, 2288. Zatem D = max{d, D + } = 0, 2288. Z tablic kwatyli rozkładu Kołmogorowa odczytujemy d (α) = d 5 (0, 05) = 0, 563. Zbiór krytyczy jest więc postaci W = 0, 563,. Mamy więc D W. Zatem a poziomie istotości α = 0, 05 próbka ie przeczy hipotezie zerowej H 0 8.5 Test χ 2 - Pearsoa Zakładamy, że cecha X ma dowoly rozkład. Testujemy hipotezę H 0 (F X = F ) H a (F X F ). Hipoteza zerowa musi być hipotezą prostą, liczość próbki 00. Dzielmy prostą IR a k przedziałów (klas) postaci (a i, a i+ dla i = 0,,... k 2 oraz (a k, a k ),

Marek Beśka, Statystyka matematycza, wykład 8 6 gdzie a 0 = i a k = +. Przez i ozaczmy ilość elemetów próbki x i, które wpadą do i-tej klasy tj. do przedziału (a i, a i, gdy i =,..., k lub (a k, a k ), gdy i = k. Wielkości i azywamy liczościami doświadczalymi. Odpowiadają im liczości teoretycze tj. p i, gdzie p i = F (a i ) F (a i ). Poadto wymaga się aby p i 5, i =,... k. Gdy w jakieś klasie tak ie jest to łączymy tą klasę z sąsiedią. Zauważmy, że p i =. Statystyką testową jest tzw. statystyka Pearsoa postaci χ 2 = (N i p i ) 2 p i, gdzie wektor losowy N = (N, N 2,..., N k ) spełia waruek oraz posiada rozkład wielomiaowy tz. N i = P {(N, N 2,..., N k ) = (, 2,... k )} =!! 2! k! (p ) (p 2 ) 2 (p k ) k. Wartość statystyki Pearsoa a próbce x z której i elemetów wpadło do i - tej klasy, i =, 2,..., k wyosi χ 2 obl = ( i p i ) 2 2 i =. p i p i Zachdzi astępujące twierdzeie Pearsoa z 900 roku Twierdzeie 8.6 (Pearso) Jeśli hipoteza zerowa H 0 jest prawdziwa, to statystyka Pearsoa χ 2 (N i p i ) 2 = p i ma przy rozkład graiczy (w słabej zbieżości), którym jest rozkład chi-kwadrat o k stopiach swobody. Dowód. Ozaczmy Y i = N i p i pi, i =, 2,..., k.

Marek Beśka, Statystyka matematycza, wykład 8 7 Zauważmy, że χ 2 = Y 2 i oraz Y i pi = 0. Obliczmy fukcję charakterystyczą wektora losowego Y = (Y, Y 2,..., Y k ) w pukcie t = (t, t 2,..., t k ). Mamy ( ϕ Y (t) = E exp i t, Y = E exp i ( exp i ( t j pj )E exp i ) ( t j Y j = E exp i t ) j N j pj t j N j p j pj ) = Zauważmy, ( że ostati czyik jest fukcją charakterystyczą wektora losowego N w pukcie t p t, p2 2 t,..., pk k ). Poieważ, 2,..., k 0 + 2 + + k =, 2,..., k 0 + 2 + + k = więc ostateczie Stąd ( ϕ N (t) = E exp i t, N = E exp i ( exp i ) t j N j = )! t j j! 2! k! (p ) (p 2 ) 2 (p k ) k =!! 2! k! (eit p ) (e it 2 p 2 ) 2 (e it k p k ) k = ( ϕ Y (t) = exp i )( t j pj p j exp it ) j. pj [ ( lim ϕ Y(t) = lim exp i Rozwijając fukcję exp w szereg otrzymujemy lim ( ), e it j p j t j pj )( p j exp it )] j. pj lim ϕ Y(t) = [( i k t j p j ( k t j p j ) 2 +o 2 ( )) ( p j + it j pj t2 j 2p j +o( ))] =

Marek Beśka, Statystyka matematycza, wykład 8 8 [( lim i gdzie t j pj ( 2 [ lim + 2 ( t j pj ) 2+o ( t j pj ) 2 2 ))( + i t j pj 2 ( ))] t 2 j + o = { exp [ ( t 2 ) 2 ]} ( j t j pj = exp ) 2 2 At, t, A = p p p 2 p p 3 p 2 p p 2 p 2 p 3 p p k p 2 p k p k p p k p 2 p k p 3 p k ( ))] t 2 j+o = jest macierzą symetryczą i ieujemie określoą. Wykazaliśmy, że graiczy rozkład jest rozkładem ormalym tj. jego charakterystycza dla t = (t,..., t k ) IR k ma postać { ϕ(t) = exp [ ( t 2 ) 2 ]} ( j t j pj = exp ) 2 2 At, t. Niech W = (W, W 2,..., W k ) będzie wektorem losowym takim, że ϕ W = ϕ. Wtedy możemy apisać, że (8.8) Y = (Y, Y 2,..., Y k ) Niech U będzie macierzą ortogoalą taką, że U T = D W = (W, W 2,..., W k ). p p2 p3 pk oraz iech X = U T W. Wtedy ϕ X (x) = E exp i x, X = E exp i x, U T W = E exp i Ux, W = ( exp ) 2 AUx, Ux.

Marek Beśka, Statystyka matematycza, wykład 8 9 Podstawiając t = Ux dostajemy ( ϕ X (x) = exp ) { 2 At, t = exp [ ( t 2 ) 2 j t j pj ]}. 2 Z własości macierzy ortogoalych mamy Zatem Stąd t 2 = x 2 tj. t 2 + t 2 2 + + t 2 k = x2 + x 2 2 + + x 2 k. ( t 2 + t 2 2 + + t 2 k = x2 + x 2 2 + + x 2 k + ) 2 t j pj ( t 2 k ) 2 t j pj = x 2 + x 2 2 + + x 2 k. [ ϕ X (x) = exp 2 ( k x 2 j Tak więc rozkład wektora losowego X jest stadardowym rozkładem a IR k, a stąd zmiea losowa X 2 ma rozkład chi-kwadrat o k stopiach swobody. Poieważ W 2 = X 2, więc W 2 ma rówież rozkład chi-kwadrat o k stopiach swobody. Stąd i z (8.8) dostajemy (N i p i ) 2 = Y 2 D p i W 2. Zatem rozkładem graiczym (w słabej zbieżości) statystyki Pearsoa jest rozkład chikwadrat o k stopiach swobody. Przy założeiu prawdziwości hipotezy zerowej duże wartości statystyki testowej a próbce przeczą hipotezie zerowej. Jeśli α jest poziomem istotości testu, to zbiór krytyczy W ma postać W = χ 2 k, α, ), gdzie χ2 k, α jest kwatylem rozkładu chi-kwadrat o k stopiach swobody rzędu α. Jeśli χ 2 obl W, to odrzucamy hipotezę zerową, w przeciwym przypadku mówimy, że a poziomie istotości α próbka ie przeczy hipotezie zerowej. Przykład 8.7 Z populacji w której badaa cecha X ma iezaą dystrybuatę F pobrao próbkę o liczości = 200. Otrzymae wyiki pogrupowao w 0 rówych klas, które przedstawioo w tabelce. )].

Marek Beśka, Statystyka matematycza, wykład 8 20 Lp. klasy i p i ( i p i ) 2 ( i p i ) 2 /p i (45; 45, 5 23 20 9 0,45 2 (45, 5; 46 9 20 0,05 3 (46; 46, 5 25 20 25,25 4 (46, 5; 47 8 20 4 0,20 5 (47; 47, 5 7 20 9 0,45 6 (47, 5; 48 24 20 6 0,80 7 (48; 48, 5 6 20 6 0,80 8 (48, 5; 49 22 20 4 0,20 9 (49; 49, 5 20 20 0 0,00 0 (49, 5; 50) 6 20 6 0,80 Na poziomie istotości α = 0, 05 zweryfikować hipotezę, że cecha X ma rozkład jedostajy a przedziale (45, 50). Naszą hipotezą zerową jest hipoteza mówiąca, że cecha ma rozkład jedostajy a przedziale (45, 50). Hipotezą alteratywą jest, że rozkład cechy X jest róży od tego rozkładu. Mamy = 200 oraz k = 0. Obliczamy p i = I j 5 dx = 5 I j = 5 2 =, j =, 2,..., 0, 0 gdzie I j = (45 + (j )/2; 45 + j/2, j =, 2,..., 0. Sumując ostatią kolumę w tabeli powyżej dostajemy wartość statystyki Pearsoa a daej próbce; χ 2 obl = 5. Z tablic rozkładu chi-kwadrat zajdujemy kwatyl χ 2 9;0,95 = 6, 99. Zatem zbiór krytyczy ma postać W = 6, 99, + ). Poieważ χ 2 obl W, więc próbka ie przeczy aszej hipotezie. Przykład 8.8 Rzucoa = 20 razy kostką do gry i otrzymao wyiki i 2 3 4 5 6 i 4 5 27 3 22 29 Na poziomie istotości α = 0, 05 zweryfikować hipotezę, że kostka jest symetrycza i jedoroda. Jest to asza hipoteza zerowa. Hipoteza alteratywa jest zaprzeczeiem hipotezy zerowej. Dokoujemy obliczeia statystyki testowej a próbce. Mamy = 20, k = 6 oraz przy prawdziwości hipotezy zerowej p i = /6, i =, 2,..., 6. Obliczeia zebrao w tabelce poiżej.

Marek Beśka, Statystyka matematycza, wykład 8 2 i i p i ( i p i ) 2 ( i p i ) 2 /p i 4 20 36,80 2 5 20 25,25 3 27 20 49 2,45 4 3 20 49 2,45 5 22 20 4 0,20 6 29 20 8 4,05 Wartość statystyki a próbce jest sumą liczb z ostatiej kolumy w tabelce powyżej i wyosi oa χ 2 obl = 2, 2. W celu wyzaczeia zbioru krytyczego zajdujemy w tablicach kwatyl rozkładu chi-kwadrat o 5 stopiach swobody rzędu 0, 95 i wyosi o χ 2 5;0,95 =, 070. Zatem zbior krytyczy ma postać W =, 070, + ). Poieważ χ 2 obl W, więc a poziomie istotości α = 0, 05 odrzucamy hipotezę zerową. Zauważmy, że gdy przyjmiemy poziom istotości testu α = 0, 0, to χ 2 5;0,99 = 5, 09, więc zbiór krytyczy W = 5, 09, + ) i χ 2 obl W. Zatem a poziomie istotości α = 0, 0 próbka ie przeczy hipotezie zerowej. 8.6 Porówywaie średich (aaliza wariacji) Rozważmy astępujący problem. Na podstawie k iezależych prób (k > 2) X,, X,2,..., X, X 2,, X 2,2,..., X 2,2,,,,,, X k,, X k,2,..., X k,k pochodzacych z k populacji w których cecha X miała odpowiedio rozkłady ormale N(m, σ 2 ), N(m 2, σ 2 ),..., N(m k, σ 2 ) chcemy zweryfikować hipotezę zerową H 0 (m = m 2 =... m k ). Hipotezą alteratywą jest zaprzeczeie hipotezy zerowej. W zgadieiach praktyczych problem taki pojawia się, gdy weryfikujemy hipotezę, że rozmiar jakiegoś wyróżioego czyika ie ma wpływu a poziom badaego zjawiska. Niech X i = i i X i,j, i =, 2,..., k. Gdyby hipoteza H 0 była prawdziwa, wszystkie średie X i, i =, 2,..., k byłyby miej więcej takie same. Za statystykę testową przyjmuje się statystykę która byłaby w jakimś

Marek Beśka, Statystyka matematycza, wykład 8 22 sesie miarą zróżicowaia tych średich p. (8.9) (X i X) 2, gdzie X jest średią ważoą wszystkich średich X i, i =, 2,..., k lub iaczej średią ze wszystkich k prób tj. X = i X i = i X i,j, gdzie = i. Gdy = 2 = = k, to X = k X i. Za wyborem statystyki (8.9) jako statystyki testowej przemawia to, że jest to pewa forma kwadratowa z próby, a więc jej rozkład powiie być rozkładem typu chi-kwadrat, co ułatwiłoby operowaie tą statystyką. Podstawą teoretyczą dla kostrukcji odpowiediego testu jest astępujące twierdzeie. Twierdzeie 8.9 (Cochraa-Fishera) Niech Y = (Y,..., Y ) będzie wektorem losowym o rozkładzie ormalym N(0,I). Poadto iech dla i =, 2,..., k y T A i y = A i y, y, y IR będą formami kwadratowymi takimi, że rz(a i ) = i oraz y 2 = y, y = y T y = y T A i y, y IR. Wówczas zmiee losowe Y T A i Y, i =, 2,..., k są iezależe i mają rozkłady chi-kwadrat o i stopiach swobody odpowiedio wtedy i tylko wtedy, gdy i =. Dowód. (Koieczość). Jeśli zmiee losowe Y T A i Y, i =, 2,..., k sa iezależe i mają rozkłady chi-kwadrat o i stopiach swobody odpowiedio, to zmiea losowa Y T A i Y

Marek Beśka, Statystyka matematycza, wykład 8 23 ma rozkład chi-kwadrat o k i stopiach swobody. Z drugiej stroy zmiea losowa Y T Y = Y i 2 ma rozkład chi-kwadrat o stopiach swobody. Poieważ Y T Y = Y T A i Y, więc k i =. (Dostateczość). Załóżmy, że k i =. Z przedstawieia formy kwadratowej w postaci kaoiczej wyika, że istieją takie liczby b i,j, i, j =, 2,..., takie, że y T A i y = ε i, (b mi +,y + + b mi +,y ) 2 + + ε i,i (b mi,y + + b mi,y ) 2, i =, 2,..., k, gdzie y = (y,..., y ), ε j,i = ±, j i, m 0 = 0, m i = i j, i =, 2,..., k. Przyjmując B = [b i,j ] i,j możemy zapisać (8.0) y T y = y T A i y = y T B T DBy, y IR, gdzie D jest macierzą diagoalą mającą a przekatej wyrazy rówe ±. Stąd Poieważ więc B jest macierzą ieosobliwą. Zatem B T DB = I = det(b T )det(d)det(b), D = ( B T ) B = ( BB T ). Macierz BB T jest rzędu, jest dodatio określoa, więc wszystkie elemety przekątej macierzy D są rówe, czyli BB T = I. Stąd wyika, że B T B = I, więc macierz B jest macierzą ortogoalą. Zatem składowe losowego wektora V = BY

Marek Beśka, Statystyka matematycza, wykład 8 24 są iezależymi zmieymi losowymi o rozkładzie ormalym N(0,). Ale z kostrukcji (patrz (8.0)) wyika, że Y T A Y = V 2 + + V 2, Y T A 2 Y = V 2 + + + V 2 + 2,... =...,... =...,... =..., Y T A k Y = V 2 + + k + + + V 2 k, więc Y T A i Y dla i =, 2,..., k są iezależe i mają odpowiedio rozkłady chi-kwadrat o i stopiach swobody odpowiedio. Wykorzystamy teraz to twierdzeie do kostrukcji odpowiediego testu dla rozważaego przez as problemu porówywaia k średich. Ozaczmy Y i,j = X i,j m i, j =, 2,..., i, i =, 2,..., k, σ Y = (Y,,..., Y,,..., Y k,,..., Y k,k ), Y i = i Y = i Y i,j, i =, 2,..., k, i Y i = i Y i,j. Oczywiście wektor losowy Y ma rozkład ormaly N(0, I). Sumę kwadratów współrzędych wektora losowego Y T Y zapiszemy w postaci 2 Y T Y = i Yi,j 2 = (Y i,j Y i + Y i Y + Y ) 2 = i (Y i,j Y i ) 2 + i (Y i,j Y i )(Y i Y ) + 2 i (Y i Y ) 2 + Y 2 + i (Y i,j Y i )Y + 2 Zauważmy, że sumy mieszaych iloczyów są rówe zero, zatem (8.) Y T Y = i (Y i,j Y i ) 2 + i (Y i Y )Y. i (Y i Y ) 2 + Y 2.

Marek Beśka, Statystyka matematycza, wykład 8 25 Wyzaczymy macierz A i taką aby i i (Y i,j Y i ) 2 = Y 2 i,j i Y 2 i = Y T A i Y. Ze wzoru powyżej wiadać, że macierz A i składa się z samych zer oprócz elemetów zajdujących się w wierszach od + 2 + + i + do wiersza + 2 + + i i w kolumach od + 2 + + i + do kolumy + 2 + + i. Elemety macierzy A i zajdujące się w wyżej wymieioych wierszach i kolumach tworzą podmacierz postaci i i i i i i i i i i i Obliczmy rząd tej macierzy (możemy pomożyć ją przez i, co ie zmiei jej rzędu). i i rz(a i ) = rz = i. i i Dodając kolumy od drugiej do ostatiej do pierwszej kolumy, a astępie wiersze od 2 do ostatiego do pierwszego wiersza otrzymujemy dalej 0 0 0 0 0 i 0 i rz = 0 i rz i i i i i ( i ) ( i ) =

Marek Beśka, Statystyka matematycza, wykład 8 26 Odejmując pierwszy wiersz do pozostałych, a astepie kolumy od drugiej do ostatiej dodajemy do pierwszej mamy rz i i i 0 0 i 0 0 i Wyzaczymy teraz macierz A taką aby Zauważmy, że = rz i (Y i Y ) 2 = Y T AY. 0 i 0 0 0 0 0 i = i. i (Y i Y ) 2 = i Y 2 i 2 i Y i Y + i Y 2 = i Y 2 i Y 2 = i j,l= i Y i,j Y i,l i m m= l= Y i,j Y m,l. Stąd macierz A jest różicą dwóch macierzy (pierwsza jest macierzą blokową) A = C 0 0 0 0 C 2 0 0 0 0 0 C k gdzie w pierwszej macierzy macierz C i, i =, 2,..., k jest macierzą wymiaru i i i jej elemetami są liczby i. Obliczymy rząd macierzy A. Po skreśleiu idetyczych wierszy i kolum otrzymujemy 2 rz(a) = rz = k k k,

Marek Beśka, Statystyka matematycza, wykład 8 27 Pomożymy macierz A przez 2 rz = k Odejmujemy pierwszy wiersz od pozostałych, astępie możymy i - tą kolumę przez i dla i =, 2,..., k 2 0 0 rz 0 0 k = rz 2 3 k 0 0 0 0 Dodajemy kolumy od drugiej do ostatiej do pierwszej kolumy 0 2 3 k 0 0 0 rz = k. 0 0 0 = Forma kwadratowa Y 2 ma oczywiście rząd. Ostateczie więc forma kwadratowa Y T Y jest sumą k form kwadratowych rzędu i dla i =, 2,..., k plus jedej rzędu k i jedej rzędu. Poieważ ( i ) + k + =, więc z twierdzeia Cochraa-Fishera wioskujemy, że zmiee losowe i (Y i,j Y i ) 2, i =, 2,..., k, i (Y i Y ) 2 i Y 2 są iezależymi zmieymi losowymi mającymi rozkłady chi-kwadrat z liczbą stopi swobody rówą ich rzędom. Przejdziemy teraz kostrukcji testu w celu zweryfikowaia aszej hipotezy zerowej H 0 (m = m 2 =... m k ).

Marek Beśka, Statystyka matematycza, wykład 8 28 Załóżmy, że hipoteza zerowa jest prawdziwa tz. m = m 2 =... m k. Wtedy dla i =, 2,..., k mamy oraz Y i = i Y = Zatem i Y i,j = i i Y i,j = i i σ 2 X i,j m i σ X i,j m i σ = i i = i (X i X) 2 = X i,j σ i m i σ = X i σ m i σ = X i σ m σ X i,j σ i (Y i Y ) 2 i m i σ ma rozkład chi-kwadrat o k stopiach swobody. Jeśli σ 2 jest zae, to (8.2) σ 2 i (X i X) 2 = X σ m σ. jest statystyką z próby (czyli aszą statystyką testową). Duże wartości tej statystyki świadczą przeciwko weryfikowaej hipotezie H 0. Dla daego poziomu istotości α wartość krytyczą zajdujemy z tablic rozkładu chi-kwadrat. Zbiór krytyczy ma postać W = χ 2 k ; α, + ), gdzie χ 2 k ; α jest kwatylem z rozkładu chi-kwadrat o k stopiach swobody rzędu α. Jeśli wariacja σ 2 ie jest zaa to zmiea losowa (8.2) ie jest statystyką z próby. Zauważmy, że i i σ 2 (X i,j X i ) 2 = (Y i,j Y i ) 2 jest zmieą losową o rozkładzie chi-kwadrat o k stopiach swobody i iezależą od (8.2), więc statystyka (przy założeiu prawdziwości hipotezy H 0 ) F k, k = k σ 2 i(x i X) 2 k σ 2 k i (X i,j X i ) 2 k ie zależy od σ 2 i ma rozkład F-Sedecora o (k, k) stopiach swobody. Jeśli α jest poziomem istotości testu, to zbiór krytyczy W ma postać W = F k, k; α, + ),

Marek Beśka, Statystyka matematycza, wykład 8 29 gdzie F k, k; α jest kwatylem rzędu α rozkładu F-Sedecora o (k, k) stopiach swobody. Opisaa procedura testowa jest pewym szczególym przypadkiem procedur rozważaych w tzw. aalizie wariacji (ANOVA Table). Nazwa pochodzi stąd, że przy założeiu prawdziwości hipotezy H 0 wariacja empirycza wszystkich obserwacji {X i,j : j i, i k} zostaje rozłożoa a sumę wariacji wewątrzpróbkowej i wariacji międzypróbkowej i (X i,j X i ) 2 i (X i X) 2. Rzeczywiście, ze wzoru (8.) dostajemy (8.3) S 2 Y := YT Y Y 2 = Poadto i (Y i,j Y i ) 2 + i (Y i Y ) 2. S 2 Y = i Y 2 i,j Y 2 = i X 2 i,j 2X i,jm + m 2 σ 2 ( X σ m ) 2 = σ i X 2 i,j σ 2 2 X σ 2 m + m2 σ 2 ( X 2 σ 2 2 X σ 2 m + m2 σ 2 ) = Stąd z (8.3) i z tego, że i X 2 i,j σ 2 X2 σ 2 = S2 X σ 2. i (Y i,j Y i ) 2 = i σ 2 (X i,j X i ) 2 i i (Y i Y ) 2 = σ 2 i (X i X) 2 dostajemy S 2 X = i (X i,j X i ) 2 + i (X i X) 2. Z tego puktu widzeia skostruoway test może być iterpretoway w astępujący sposób: Hipoteza H 0 o rówości średiach zostaje odrzucoa, gdy wariacja międzypróbkowa jest duża a tle wariacji wewątrzpróbkowej.

Marek Beśka, Statystyka matematycza, wykład 8 30 Uwaga. W przypadku, gdy k = 2 stosujemy test oparty o statystykę testową t = X X 2, S 2+ 2S2 2 + 2 2 + 2 2 która przy założeiu prawdziwości hipotezy zerowej H 0 (m = m 2 ) ma rozkład t-studeta o + 2 2 stopiach swobody (patrz zadaie z ćwiczeń). Niech α będzie poziomem istotości testu. Postać zbioru krytyczego zależy od hipotezy alteratywej. Jeśli H a (m < m 2 ), to W = (, t + 2 2, α, gdzie t + 2 2, α jest kwatylem rzędu α rozkładu t-studeta o + 2 2 stopiach swobody. Jeśli H a (m > m 2 ), to Gdy atomiast H a (m m 2 ), to W = t + 2 2, α, + ). W = (, t + 2 2, α/2 t + 2 2, α/2, + ), gdzie t + 2 2, α/2 jest kwatylem rzędu α/2 rozkładu t-studeta o + 2 2 stopiach swobody.