Testy post-hoc. Wrocław, 6 czerwca 2016

Podobne dokumenty
Wykład 12 Testowanie hipotez dla współczynnika korelacji

Wykład 12 Testowanie hipotez dla współczynnika korelacji

Wykład 10 Testy jednorodności rozkładów

Wykład 11 Testowanie jednorodności

Wykład 5 Teoria eksperymentu

Wykład 5 Problem dwóch prób - testowanie hipotez dla równości średnich

Matematyka i statystyka matematyczna dla rolników w SGGW WYKŁAD 11 DOŚWIADCZENIE JEDNOCZYNNIKOWE W UKŁADZIE CAŁKOWICIE LOSOWYM PORÓWNANIA SZCZEGÓŁOWE

Wykład 7 Testowanie zgodności z rozkładem normalnym

Wykład 9 Testy rangowe w problemie dwóch prób

Elementy statystyki STA - Wykład 5

1. Jednoczynnikowa analiza wariancji 2. Porównania szczegółowe

Problem dwóch prób: porównywanie średnich i wariancji z populacji o rozkładach normalnych. Wrocław, 23 marca 2015

Testowanie hipotez statystycznych.

JEDNOCZYNNIKOWA ANALIZA WARIANCJI, ANOVA

Analiza wariancji. dr Janusz Górczyński

Testowanie hipotez statystycznych.

Statystyczna analiza danych w programie STATISTICA (wykład 2) Dariusz Gozdowski

Testy dla dwóch prób w rodzinie rozkładów normalnych

Wykład 12 ( ): Testy dla dwóch prób w rodzinie rozkładów normalnych

Statystyczna analiza danych (molekularnych) analiza wariancji ANOVA

Statystyka matematyczna dla leśników

Wykład 5 Estymatory nieobciążone z jednostajnie minimalną war

WIELKA SGH-OWA POWTÓRKA ZE STATYSTYKI. Test zgodności i analiza wariancji Analiza wariancji

Wykład 3 Hipotezy statystyczne

Wykład 3 Testowanie hipotez statystycznych o wartości średniej. średniej i wariancji z populacji o rozkładzie normalnym

Testowanie hipotez statystycznych. Wnioskowanie statystyczne

Przykład 1. (A. Łomnicki)

Matematyka i statystyka matematyczna dla rolników w SGGW

Weryfikacja hipotez statystycznych

Wykład 2 Hipoteza statystyczna, test statystyczny, poziom istotn. istotności, p-wartość i moc testu

weryfikacja hipotez dotyczących parametrów populacji (średnia, wariancja)

Analiza wariancji i kowariancji

Stanisław Cichocki. Natalia Nehrebecka. Wykład 9

Statystyka matematyczna. Wykład V. Parametryczne testy istotności

Testowanie hipotez. Marcin Zajenkowski. Marcin Zajenkowski () Testowanie hipotez 1 / 25

Statystyka. #6 Analiza wariancji. Aneta Dzik-Walczak Małgorzata Kalbarczyk-Stęclik. rok akademicki 2015/ / 14

Testowanie hipotez dla frakcji. Wrocław, 29 marca 2017

Testowanie hipotez. Hipoteza prosta zawiera jeden element, np. H 0 : θ = 2, hipoteza złożona zawiera więcej niż jeden element, np. H 0 : θ > 4.

Testowanie hipotez dla proporcji. Wrocław, 13 kwietnia 2015

STATYSTYKA I DOŚWIADCZALNICTWO. Wykład 2

Wykład 6 Estymatory efektywne. Własności asymptotyczne estym. estymatorów

Statystyka matematyczna Testowanie hipotez i estymacja parametrów. Wrocław, r

Statystyka matematyczna. Wykład IV. Weryfikacja hipotez statystycznych

Jednoczynnikowa analiza wariancji

Uwaga. Decyzje brzmią różnie! Testy parametryczne dotyczące nieznanej wartości

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 9 i 10 - Weryfikacja hipotez statystycznych

Prawdopodobieństwo i rozkład normalny cd.

Porównanie modeli statystycznych. Monika Wawrzyniak Katarzyna Kociałkowska

BADANIE POWTARZALNOŚCI PRZYRZĄDU POMIAROWEGO

Test t-studenta dla jednej średniej

RÓWNOWAŻNOŚĆ METOD BADAWCZYCH

Testowanie hipotez statystycznych.

dr hab. Dariusz Piwczyński, prof. nadzw. UTP

Wykład 10 Estymacja przedziałowa - przedziały ufności dla średn

SIGMA KWADRAT. Weryfikacja hipotez statystycznych. Statystyka i demografia CZWARTY LUBELSKI KONKURS STATYSTYCZNO-DEMOGRAFICZNY

Tablica Wzorów Rachunek Prawdopodobieństwa i Statystyki

WYDZIAŁ BUDOWNICTWA LĄDOWEGO I WODNEGO

, a ilość poziomów czynnika A., b ilość poziomów czynnika B. gdzie

Idea. θ = θ 0, Hipoteza statystyczna Obszary krytyczne Błąd pierwszego i drugiego rodzaju p-wartość

WYMAGANIA WSTĘPNE W ZAKRESIE WIEDZY, UMIEJĘTNOŚCI I INNYCH KOMPETENCJI

STATYSTYKA I DOŚWIADCZALNICTWO Wykład 5

Weryfikacja hipotez statystycznych za pomocą testów statystycznych

TESTOWANIE HIPOTEZ Przez hipotezę statystyczną rozumiemy, najogólniej mówiąc, pewną wypowiedź na temat rozkładu interesującej nas cechy.

Rozkłady statystyk z próby

Temat: BADANIE ZGODNOŚCI ROZKŁADU CECHY (EMPIRYCZNEGO) Z ROZKŁADEM TEORETYCZNYM TEST CHI-KWADRAT. Anna Rajfura 1

Błędy przy testowaniu hipotez statystycznych. Decyzja H 0 jest prawdziwa H 0 jest faszywa

Wykład Ćwiczenia Laboratorium Projekt Seminarium 30

Badanie zgodności dwóch rozkładów - test serii, test mediany, test Wilcoxona, test Kruskala-Wallisa

Rozdział 8. Regresja. Definiowanie modelu

Testowanie hipotez statystycznych

Porównanie wielu rozkładów normalnych

STATYSTYKA MATEMATYCZNA

Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji

WYKŁAD 8 TESTOWANIE HIPOTEZ STATYSTYCZNYCH

Statystyka matematyczna Testowanie hipotez dla średnich w rozkładzie normalnym. Wrocław, r

Weryfikacja hipotez statystycznych testy dla dwóch zbiorowości

Kolokwium ze statystyki matematycznej

Temat: BADANIE ZGODNOŚCI ROZKŁADU CECHY (EMPIRYCZNEGO) Z ROZKŁADEM TEORETYCZNYM TEST CHI-KWADRAT. Anna Rajfura 1

Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału

Testowanie hipotez statystycznych

ALGORYTMICZNA I STATYSTYCZNA ANALIZA DANYCH

WYMAGANIA WSTĘPNE W ZAKRESIE WIEDZY, UMIEJĘTNOŚCI I INNYCH KOMPETENCJI

Statystyka. #5 Testowanie hipotez statystycznych. Aneta Dzik-Walczak Małgorzata Kalbarczyk-Stęclik. rok akademicki 2016/ / 28

Analizy wariancji ANOVA (analysis of variance)

Wykład 3 Momenty zmiennych losowych.

Wykład: Założenia analizy wariancji. Analiza wariancji złożona i testy wielokrotnych porównań.

STATYSTYKA MATEMATYCZNA WYKŁAD 5. 2 listopada 2009

2. Założenie niezależności zakłóceń modelu - autokorelacja składnika losowego - test Durbina - Watsona

Metody Statystyczne. Metody Statystyczne

Wykład 3 Momenty zmiennych losowych.

Własności statystyczne regresji liniowej. Wykład 4

Statystyka Matematyczna Anna Janicka

BADANIE POWTARZALNOŚCI PRZYRZĄDU POMIAROWEGO

1 Estymacja przedziałowa

... i statystyka testowa przyjmuje wartość..., zatem ODRZUCAMY /NIE MA POD- STAW DO ODRZUCENIA HIPOTEZY H 0 (właściwe podkreślić).

Wykład 7 Teoria eksperymentu

Analiza wariancji - ANOVA

Testowanie hipotez statystycznych cd.

STATYSTYKA MATEMATYCZNA WYKŁAD 4. Testowanie hipotez Estymacja parametrów

Transkrypt:

Testy post-hoc Wrocław, 6 czerwca 2016

Testy post-hoc 1 metoda LSD 2 metoda Duncana 3 metoda Dunneta 4 metoda kontrastów 5 matoda Newman-Keuls 6 metoda Tukeya

Metoda LSD Metoda Least Significant Difference (najmniej istotnych różnic) Fishera. Testujemy szereg hipotez H i,j 0 : µ i = µ j dla ustalonej pary i j H 1 : µ i µ j

Metoda LSD Metoda Least Significant Difference (najmniej istotnych różnic) Fishera. Testujemy szereg hipotez H i,j 0 : µ i = µ j dla ustalonej pary i j H 1 : µ i µ j Test oparty jest na statystyce: T = Ȳ i Ȳj MS E ( 1ni + 1nj )

Metoda LSD Wprowadzamy miarę ( LSD = t 1 α/2 (N a) 1 MSE + 1 ) n i n j gdzie t 1 α/2 (N a) jest odpowiednim kwantylem rozkładu t-studenta. Odrzucamy hipotezę zerową gdy: Ȳi Ȳj > LSD

Metoda LSD W przypadku, gdy mamy do czynienia z modelem zbalansowanym, tzn. n 1 = n 2 = = n a = n miara LSD przyjmuje postać: LSD = t 1 α/2 (N a) 2 MS E n

Metoda LSD - Przykład 14.1 Dla danych z przykładu z wykładu 13 przeprowadzimy porównania wielokrotne metodą LSD na poziomie istotności 0.05 Wyznaczymy wartość LSD: LSD = t 0.975 (20) 2 MS E n = 2.086 2 8.06 5 = 3.75

Metoda LSD - Przykład 14.1 - c.d. Różnice pomiędzy średnimi w grupach wynoszą odpowiednio: ȳ 1 ȳ 2 = 9.8 15.4 = 5.6 ȳ 1 ȳ 3 = 9.8 17.6 = 7.8 ȳ 1 ȳ 4 = 9.8 21.6 = 11.8 ȳ 1 ȳ 5 = 9.8 10.8 = 1.0 ȳ 2 ȳ 3 = 15.4 17.6 = 2.2 ȳ 2 ȳ 4 = 15.4 21.6 = 6.2 ȳ 2 ȳ 5 = 15.4 10.8 = 4.6 ȳ 3 ȳ 4 = 17.6 21.6 = 4.0 ȳ 3 ȳ 5 = 17.6 10.8 = 6.8 ȳ 4 ȳ 5 = 21.6 10.8 = 10.8

Metoda LSD - Przykład 14.1 - c.d. Różnice pomiędzy średnimi w grupach wynoszą odpowiednio: ȳ 1 ȳ 2 = 9.8 15.4 = 5.6 ȳ 1 ȳ 3 = 9.8 17.6 = 7.8 ȳ 1 ȳ 4 = 9.8 21.6 = 11.8 ȳ 1 ȳ 5 = 9.8 10.8 = 1.0 ȳ 2 ȳ 3 = 15.4 17.6 = 2.2 ȳ 2 ȳ 4 = 15.4 21.6 = 6.2 ȳ 2 ȳ 5 = 15.4 10.8 = 4.6 ȳ 3 ȳ 4 = 17.6 21.6 = 4.0 ȳ 3 ȳ 5 = 17.6 10.8 = 6.8 ȳ 4 ȳ 5 = 21.6 10.8 = 10.8

Metoda LSD - Przykład 14.1 - c.d. Wnioski: brak istotnych różnic między średnimi 1 i 5 brak istotnych różnic między średnimi 2 i 3 średnia dla grupy 4 jest istotnie większa od pozostałych ȳ 1 ȳ 5 ȳ 2 ȳ 3 ȳ 4 9.8 10.8 15.4 17.6 21.6

metoda Duncana Test Duncana (wielokrotny test rozstępu). 1 Wyznaczamy błąd standardowy dla wszystkich średnich postaci: MS E S yi = n. W przypadku niezbalansowanym, tzn gdy dla pewnych i j n i n j, zastępujemy n przez średnią harmoniczną: n h = a ai=1 1 n i. 2 Z tablic istotnych rozstępów Duncana odczytujemy wartości: r α (p, f ), gdzie p = 2, 3,..., a, α jest poziomem istotności, a f oznacza liczbę stopni swobody dla błędu.

metoda Duncana 3 Wyznaczamy najmniej znaczące rangi: R p = r α (p, f ) S yi. 4 szeregujemy średnie w kolejności malejącej: Y a:a Y a 1:a Y 1:a 5 Dla największej ze średnich Y a:a rozważamy różnice pomiędzy średnimi, zaczynając od tej największej: Y a:a Y 1:a, a następnie Y a:a Y 2:a, aż do Y a:a Y a 1:a i porównujemy je odpowiednio z wartościami R a do R 2. Odrzucamy hipotezę zerową gdy Y i Y j > R p. 6 Powtarzamy krok 5 kolejno dla Y a 1:a,..., Y 1:a

metoda Duncana-Przykład 14.2 Z wykładu 13 wiemy, że: MS E = 8.06, N = 25, n = 5, p = 20 Szeregując średnie w kolejności malejącej otrzymujemy: ȳ 4 = 21.6 ȳ 3 = 17.6 ȳ 2 = 15.4 ȳ 5 = 10.8 ȳ 1 = 9.8

metoda Duncana-Przykład 14.2 - c.d. Błąd standardowy dla średnich wynosi: S yi = 8.06 = 1.27. 5 Z tablic istotnych różnic Duncana odczytujemy: r 0.05 (2, 20) = 2.95, r 0.05 (3, 20) = 3.1, r 0.05 (4, 20) = 3.18, Stąd najmniej istotne rozstępy: r 0.05 (5, 20) = 3.25. R 2 = r 0.05 (2, 20) S yi = 2.95 1.27 = 3.75 R 3 = r 0.05 (3, 20) S yi = 3.10 1.27 = 3.94 R 4 = r 0.05 (4, 20) S yi = 3.18 1.27 = 4.04 R 5 = r 0.05 (5, 20) S yi = 3.25 1.27 = 4.13

metoda Duncana - Przykład 14.2 - c.d. Następnie porównujemy wartości różnic średnich z odpowiednimi wartościami R p : ȳ 4 ȳ 1 = 21.6 9.8 = 11.8 > 4.13 (R 5 ) ȳ 4 ȳ 5 = 21.6 10.8 = 10.8 > 4.04 (R 4 ) ȳ 4 ȳ 2 = 21.6 15.4 = 6.2 > 3.94 (R 3 ) ȳ 4 ȳ 3 = 21.6 17.6 = 4.0 > 3.75 (R 2 ) ȳ 3 ȳ 1 = 17.6 9.8 = 7.8 > 4.04 (R 4 ) ȳ 3 ȳ 5 = 17.6 10.8 = 6.8 > 3.94 (R 3 ) ȳ 3 ȳ 2 = 17.6 15.4 = 2.2 < 3.75 (R 2 ) ȳ 2 ȳ 1 = 15.4 9.8 = 5.6 > 3.94 (R 3 ) ȳ 2 ȳ 5 = 15.4 10.8 = 4.6 > 3.75 (R 2 ) ȳ 5 ȳ 1 = 10.8 9.08 = 1.0 < 3.75 (R 2 )

metoda Duncana - Przykład 14.2 - c.d. Następnie porównujemy wartości różnic średnich z odpowiednimi wartościami R p : ȳ 4 ȳ 1 = 21.6 9.8 = 11.8 > 4.13 (R 5 ) ȳ 4 ȳ 5 = 21.6 10.8 = 10.8 > 4.04 (R 4 ) ȳ 4 ȳ 2 = 21.6 15.4 = 6.2 > 3.94 (R 3 ) ȳ 4 ȳ 3 = 21.6 17.6 = 4.0 > 3.75 (R 2 ) ȳ 3 ȳ 1 = 17.6 9.8 = 7.8 > 4.04 (R 4 ) ȳ 3 ȳ 5 = 17.6 10.8 = 6.8 > 3.94 (R 3 ) ȳ 3 ȳ 2 = 17.6 15.4 = 2.2 < 3.75 (R 2 ) ȳ 2 ȳ 1 = 15.4 9.8 = 5.6 > 3.94 (R 3 ) ȳ 2 ȳ 5 = 15.4 10.8 = 4.6 > 3.75 (R 2 ) ȳ 5 ȳ 1 = 10.8 9.08 = 1.0 < 3.75 (R 2 )

Metoda Dunneta Metoda Dunneta - metoda porównań z grupą kontrolną. Załóżmy, że a jest grupą kontrolną. Testujemy hipotezy Test oparty jest na statystyce: H i 0 : µ i = µ a dla i = 1, 2,... a 1 H 1 : µ i µ a T = Ȳ i Ȳa MS E ( 1ni + 1na )

Metoda Dunneta Odrzucamy hipotezę zerową gdy: ( ) Ȳ i Ȳ j > d α (a 1, f ) MS E + 1ni 1na, gdzie d α (a 1, f ) oznacza odpowiedni kwantyl rozkładu Dunneta.

Metoda Dunneta - Przykład 14.3 - c.d. Mamy dane: a = 5, a 1 = 4, f = 20, n i = n a = n = 5 Z tablic odczytujemy wartość kwantyl d 0.05 (4, 20) = 2.65. Jako grupę kontrolną przyjmujemy grupę 5, a następnie obliczamy wartości odpowiednich różnic: ȳ 1 ȳ 5 = 9.8 10.8 = 1.0 ȳ 2 ȳ 5 = 15.4 10.8 = 4.6 ȳ 3 ȳ 5 = 17.6 10.8 = 6.8 ȳ 4 ȳ 5 = 21.6 10.8 = 10.8

Metoda Dunneta - Przykład 14.3 - c.d. Istotne różnice obserwujemy wyłącznie w przypadku porównywania średnich: µ 3 i µ 5 oraz µ 2 i µ 5.

Metoda Dunneta Uwaga praktyczna Dobrą metodą jest użycie do grupy kontrolnej większej liczby obserwacji - n a, gdzie zakładając, że porównujemy grupę kontrolna z a 1 grupami, liczebność grupy kontrolnej dobieramy tak aby n a n = a, gdzie n oznacza liczebność pozostałych grup.

Kontrasty Testujemy hipotezy porównujące różne kombinacje równości średnich. Hipoteza H 0 : µ 1 = µ 2 H 1 : µ 1 µ 2 może być testowana poprzez badanie kombinacji liniowej Hipoteza y 1 y 2 = 0 H 0 : µ 1 + µ 2 = µ 3 + µ 4 H 1 : µ 1 + µ 2 µ 3 + µ 4 może być testowana poprzez badanie kombinacji liniowej y 1 + y 2 y 3 y 4 = 0

Kontrasty W ogólności rozważamy kombinacje liniowe: C = a c i y i, przy czym a i=1 c i = 0. Suma kwadratów dla dowolnego kontrastu ma jeden stopień swobody i jest postaci: i=1 SS C = ( a i=1 c i y i ) 2 n a i=1 c 2 i

Kontrasty W przypadku modelu niezbalansowanego wymaga się spełnienia założenia a i=1 n i c i = 0, natomiast suma kwadratów jest postaci: SS C = ( a i=1 c i y i ) 2 ai=1 n i c 2 i

Kontrasty Statystyka testowa do testowania kontrastów jest postaci F = MS C MS E = SS C MS E i przy prawdziwości hipotezy zerowej ma rozkład Fishera - Snedecora z 1 i N a stopniami swobody.

Kontrasty - Przykład 14.4 Testujemy następujące hipotezy: H0 1 : µ 4 = µ 5 H0 2 : µ 1 + µ 3 = µ 4 + µ 5 H0 3 : µ 1 = µ 3 H0 4 : 4µ 2 = µ 1 + µ 3 + µ 4 + µ 5 Hipotezą tym odpowiadają odpowiednio kontrasty: C 1 = y 4 +y 5 C 2 = y 1 +y 3 y 4 y 5 C 3 = y 1 y 3 C 4 = y 1 +4y 2 y 4 y 5

Kontrasty - Przykład 14.4 -c.d. obliczamy odpowiednie wartości kontrastów C 1 = 108 +54 = 54 C 2 = 49 +88 108 54 = 25 C 3 = 49 88 = 39 C 4 = 49 +4 77 108 54 = 9 a następnie odpowiednie sumy kwadratów SS C1 = ( 54)2 5 2 = 291.60 SS C2 = ( 25)2 5 4 = 31.25 SS C3 = ( 39)2 5 2 = 125.10 SS C4 = (9)2 5 20 = 0.81

Kontrasty - Przykład 14.4 -c.d. Tablica analizy wariancji przedstawia się następująco: źródło suma stopnie średni zmienności kwadratów swobody kwadrat F zawartość bawełny 475.76 4 118.94 14.76 C 1 291.60 1 291.60 36.18 C 2 31.25 1 31.25 3.88 C 3 125.10 1 125.10 18.87 C 4 0.81 1 0.81 0.10 błąd 161.20 20 8.06 całkowita 636.96 24 Odpowiednie kwantyle są równe f (0.95, 4, 20) = 2.86 oraz f (0.95, 4, 20) = 4.35.

Kontrasty - Przykład 14.4 -c.d. Tablica analizy wariancji przedstawia się następująco: źródło suma stopnie średni zmienności kwadratów swobody kwadrat F zawartość bawełny 475.76 4 118.94 14.76 C 1 291.60 1 291.60 36.18 C 2 31.25 1 31.25 3.88 C 3 125.10 1 125.10 18.87 C 4 0.81 1 0.81 0.10 błąd 161.20 20 8.06 całkowita 636.96 24 Odpowiednie kwantyle są równe f (0.95, 4, 20) = 2.86 oraz f (0.95, 4, 20) = 4.35.

Literatura: Bartoszewicz J.,Wykłady ze statystyki matematycznej, PWN, Warszawa 1989. Koronacki J. i Mielniczuk J., Statystyka, dla studentów kierunków technicznych i przyrodniczych, WNT, 2001 Krysicki W., Bartos J., Dyczka W., Krówlikowska K., Wasilewski M., Rachunek Prawdopodobieństwa i Statystyka Matematyczna w Zadaniach, część II, PWN, 2012 Magiera M, Modele i metody statystyki matematycznej, część II, wnioskowanie statystyczne, Wrocław, 2007 Montgomery D.C.,Design and Analysis of Experiments, John Wiley & Sons, 1991.