Wykład dla studiów doktoranckich IMDiK PAN. Biostatystyka I. dr Anna Rajfura Kat. Doświadczalnictwa i Bioinformatyki SGGW

Podobne dokumenty
Założenia do analizy wariancji. dr Anna Rajfura Kat. Doświadczalnictwa i Bioinformatyki SGGW

1. Jednoczynnikowa analiza wariancji 2. Porównania szczegółowe

Matematyka i statystyka matematyczna dla rolników w SGGW WYKŁAD 11 DOŚWIADCZENIE JEDNOCZYNNIKOWE W UKŁADZIE CAŁKOWICIE LOSOWYM PORÓWNANIA SZCZEGÓŁOWE

Elementy statystyki STA - Wykład 5

Statystyczna analiza danych w programie STATISTICA (wykład 2) Dariusz Gozdowski

Matematyka i statystyka matematyczna dla rolników w SGGW

Analiza wariancji i kowariancji

Analiza wariancji - ANOVA

Analizy wariancji ANOVA (analysis of variance)

ANALIZA WARIANCJI - KLASYFIKACJA JEDNOCZYNNIKOWA

dr hab. Dariusz Piwczyński, prof. nadzw. UTP

STATYSTYKA I DOŚWIADCZALNICTWO. Wykład 2

Testowanie hipotez statystycznych. Wnioskowanie statystyczne

Testy post-hoc. Wrocław, 6 czerwca 2016

WIELKA SGH-OWA POWTÓRKA ZE STATYSTYKI. Test zgodności i analiza wariancji Analiza wariancji

Porównanie wielu rozkładów normalnych

JEDNOCZYNNIKOWA ANALIZA WARIANCJI, ANOVA

Jak sprawdzić normalność rozkładu w teście dla prób zależnych?

Wykład dla studiów doktoranckich IMDiK PAN. Biostatystyka I. dr Anna Rajfura Kat. Doświadczalnictwa i Bioinformatyki SGGW

Analiza wariancji. dr Janusz Górczyński

Temat: BADANIE ZGODNOŚCI ROZKŁADU CECHY (EMPIRYCZNEGO) Z ROZKŁADEM TEORETYCZNYM TEST CHI-KWADRAT. Anna Rajfura 1

STATYSTYKA I DOŚWIADCZALNICTWO Wykład 6

Testy nieparametryczne

Zadania ze statystyki cz. 8 I rok socjologii. Zadanie 1.

RÓWNOWAŻNOŚĆ METOD BADAWCZYCH

Testowanie hipotez dla dwóch zmiennych zależnych. Moc testu. Minimalna liczność próby; Regresja prosta; Korelacja Pearsona;

STATYSTYKA I DOŚWIADCZALNICTWO Wykład 4

LABORATORIUM 3. Jeśli p α, to hipotezę zerową odrzucamy Jeśli p > α, to nie mamy podstaw do odrzucenia hipotezy zerowej

Statystyka matematyczna dla leśników

, a ilość poziomów czynnika A., b ilość poziomów czynnika B. gdzie

Przykład 1. (A. Łomnicki)

Wykład 5 Teoria eksperymentu

Jednoczynnikowa analiza wariancji

WYKŁAD 8 TESTOWANIE HIPOTEZ STATYSTYCZNYCH

Weryfikacja hipotez statystycznych za pomocą testów statystycznych

Analiza wariancji (ANalysis Of Variance - ANOVA)

Testowanie hipotez statystycznych.

Zadania ze statystyki cz.8. Zadanie 1.

Testowanie hipotez. Marcin Zajenkowski. Marcin Zajenkowski () Testowanie hipotez 1 / 25

TESTY NIEPARAMETRYCZNE. 1. Testy równości średnich bez założenia normalności rozkładu zmiennych: Manna-Whitney a i Kruskala-Wallisa.

Statystyczna analiza danych (molekularnych) analiza wariancji ANOVA

Opracowywanie wyników doświadczeń

( x) Równanie regresji liniowej ma postać. By obliczyć współczynniki a i b należy posłużyć się następującymi wzorami 1 : Gdzie:

Spis treści. Laboratorium III: Testy statystyczne. Inżynieria biomedyczna, I rok, semestr letni 2013/2014 Analiza danych pomiarowych

Wydział Matematyki. Testy zgodności. Wykład 03

ANALIZA WARIANCJI - KLASYFIKACJA WIELOCZYNNIKOWA

Testowanie hipotez statystycznych cd.

Porównanie modeli statystycznych. Monika Wawrzyniak Katarzyna Kociałkowska

Statystyka. #6 Analiza wariancji. Aneta Dzik-Walczak Małgorzata Kalbarczyk-Stęclik. rok akademicki 2015/ / 14

Statystyka matematyczna. Wykład IV. Weryfikacja hipotez statystycznych

Statystyka i Analiza Danych

Temat: BADANIE ZGODNOŚCI ROZKŁADU CECHY (EMPIRYCZNEGO) Z ROZKŁADEM TEORETYCZNYM TEST CHI-KWADRAT. Anna Rajfura 1

Estymacja punktowa i przedziałowa

Idea. θ = θ 0, Hipoteza statystyczna Obszary krytyczne Błąd pierwszego i drugiego rodzaju p-wartość

Metody Statystyczne. Metody Statystyczne

Dane dotyczące wartości zmiennej (cechy) wprowadzamy w jednej kolumnie. W przypadku większej liczby zmiennych wprowadzamy każdą w oddzielnej kolumnie.

Wnioskowanie statystyczne Weryfikacja hipotez. Statystyka

Analiza wariancji - ANOVA

Zadanie 1. Analiza Analiza rozkładu

Statystyka matematyczna Testowanie hipotez i estymacja parametrów. Wrocław, r

Modele i wnioskowanie statystyczne (MWS), sprawozdanie z laboratorium 4

STATYSTYKA I DOŚWIADCZALNICTWO Wykład 5

Rozdział 8. Regresja. Definiowanie modelu

Testowanie hipotez statystycznych.

Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji

Błędy przy testowaniu hipotez statystycznych. Decyzja H 0 jest prawdziwa H 0 jest faszywa

ALGORYTMICZNA I STATYSTYCZNA ANALIZA DANYCH

STATYSTYKA MATEMATYCZNA WYKŁAD 4. WERYFIKACJA HIPOTEZ PARAMETRYCZNYCH X - cecha populacji, θ parametr rozkładu cechy X.

Rachunek prawdopodobieństwa i statystyka - W 9 Testy statystyczne testy zgodności. Dr Anna ADRIAN Paw B5, pok407

Statystyka i opracowanie danych- W 8 Wnioskowanie statystyczne. Testy statystyczne. Weryfikacja hipotez statystycznych.

Zawartość. Zawartość

Zadania ze statystyki, cz.6

Testowanie hipotez statystycznych

Statystyka matematyczna. Wykład V. Parametryczne testy istotności

WNIOSKOWANIE STATYSTYCZNE

JEDNOCZYNNIKOWA ANOVA

Tablica Wzorów Rachunek Prawdopodobieństwa i Statystyki

PDF created with FinePrint pdffactory Pro trial version

Wykład 9 Wnioskowanie o średnich

Statystyka. Rozkład prawdopodobieństwa Testowanie hipotez. Wykład III ( )

Wykład 12 ( ): Testy dla dwóch prób w rodzinie rozkładów normalnych

SIGMA KWADRAT. Weryfikacja hipotez statystycznych. Statystyka i demografia CZWARTY LUBELSKI KONKURS STATYSTYCZNO-DEMOGRAFICZNY

Jednoczynnikowa analiza wariancji. Wnioskowanie dla jednoczynnikowej ANOV-y. Porównywanie poszczególnych średnich

Weryfikacja hipotez statystycznych

LABORATORIUM 8 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI

Spis treści. Księgarnia PWN: Bruce M. King, Edward W. Minium - Statystyka dla psychologów i pedagogów. Wstęp Wprowadzenie...

Księgarnia PWN: George A. Ferguson, Yoshio Takane - Analiza statystyczna w psychologii i pedagogice

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 9 i 10 - Weryfikacja hipotez statystycznych

Testy dla dwóch prób w rodzinie rozkładów normalnych

weryfikacja hipotez dotyczących parametrów populacji (średnia, wariancja)

LABORATORIUM 8 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI

Porównanie dwóch rozkładów normalnych

Wnioskowanie statystyczne i weryfikacja hipotez statystycznych

Statystyka. #5 Testowanie hipotez statystycznych. Aneta Dzik-Walczak Małgorzata Kalbarczyk-Stęclik. rok akademicki 2016/ / 28

hipotez statystycznych

1 Estymacja przedziałowa

VI WYKŁAD STATYSTYKA. 9/04/2014 B8 sala 0.10B Godz. 15:15

Uwaga. Decyzje brzmią różnie! Testy parametryczne dotyczące nieznanej wartości

TESTOWANIE HIPOTEZ STATYSTYCZNYCH Hipotezą statystyczną nazywamy, najogólniej mówiąc, pewną wypowiedź na temat rozkładu interesującej nas cechy.

Badanie zgodności dwóch rozkładów - test serii, test mediany, test Wilcoxona, test Kruskala-Wallisa

Transkrypt:

Wykład dla studiów doktoranckich IMDiK PAN Biostatystyka I dr Anna Rajfura Kat. Doświadczalnictwa i Bioinformatyki SGGW anna_rajfura@sggw.pl

Program wykładu w skrócie 1. Jednoczynnikowa analiza wariancji 2. Porównania szczegółowe 3. Sprawdzenie założeń o wariancji 4. Test nieparametryczny Kruskala-Wallisa 2

Porównanie czterech metod Rozpatrzymy zagadnienie polegające na porównaniu kilku grup (populacji) pod względem wartości średniej wybranej cechy. Przykład 1. Porównano cztery metody pomiaru czasu krzepnięcia osocza krwi. Każdą metodę zastosowano w grupie 10 pacjentów. Należy porównać średnie czasy krzepnięcia dla badanych metod. 3

Porównanie czterech metod Wyniki pomiaru czasu krzepnięcia osocza krwi Metoda 1 Metoda 2 Metoda 3 Metoda 4 9,1 10,0 10,0 10,9 8,9 10,2 9,9 11,1 8,4 9,8 9,8 12,2 12,8 11,6 12,9 14,4 8,7 9,5 11,2 9,8 9,2 9,2 9,9 12,0 7,6 8,6 8,5 8,5 8,6 10,3 9,8 10,9 8,9 9,4 9,2 10,4 7,9 8,5 8,2 10,0 Jak porównać metody przy występującej zmienności? 4

Porównanie czterech metod Wyniki pomiaru czasu krzepnięcia osocza krwi Metoda 1 Metoda 2 Metoda 3 Metoda 4 9,1 10,0 10,0 10,9 8,9 10,2 9,9 11,1 8,4 9,8 9,8 12,2 12,8 11,6 12,9 14,4 8,7 9,5 11,2 9,8 9,2 9,2 9,9 12,0 7,6 8,6 8,5 8,5 8,6 10,3 9,8 10,9 8,9 9,4 9,2 10,4 7,9 8,5 8,2 10,0 średnie 9,01 9,71 9,94 11,02 Średnie arytmet. są ocenami średnich populacyjnych. 5

Porównanie czterech metod Cecha X czas krzepnięcia cecha X1 czas krzepnięcia mierzony metodą M1 cecha X2 czas krzepnięcia mierzony metodą M2 itd. Ogólniej: cecha Xi czas krzepnięcia mierzony metodą Mi, gdzie i = 1, 2, 3, 4 Modelem dla każdej cechy Xi jest zmienna losowa o rozkładzie normalnym z nieznanymi parametrami µi,σi 2. 6

Porównanie czterech metod Jak zinterpretować czasy krzepnięcia dla czterech metod przy takim położeniu krzywych Gaussa? X1 X2 X3 X4 µ1 µ2 µ3 µ4 czas krzepnięcia 7

Porównanie czterech metod Jak zinterpretować czasy krzepnięcia dla czterech metod przy takim położeniu krzywych Gaussa? X1=X2 X3=X4 µ1= µ2 µ3= µ4 czas krzepnięcia 8

Pytanie Zapis hipotezy zerowej Czy porównywane metody mają czasy krzepnięcia na podobnym poziomie? Hipoteza zerowa Czy µ1 = µ2 = µ3 = µ4? H0: µ1 = µ2 = µ3 = µ4 Hipoteza o braku zróżnicowania między czterema metodami pod względem średniego czasu krzepnięcia. Uwaga o odrzuceniu H0. 9

Sposób porównania? Wykonanie testu t-studenta dla każdej pary metod nie jest dobrym podejściem... Liczymy p-stwo popełnienia błędu odrzucenia prawdziwej hipotezy o równości dwóch średnich populacyjnych: 1. niech poziom istotności wynosi 0,05 2. czyli p-stwo popełnienia błędu wynosi 0,05 3. to p-stwo uniknięcia błędu wynosi 1-0,05=0,95 Dla dwóch porównań niezależnych: 4. p-stwo uniknięcia błędu wynosi 0,95 2 =0,9025 5. p-stwo popełnienia błędu wynosi 1-0,95 2 0,10 Przy czterech grupach mamy sześć porównań: 6. p-stwo popełnienia błędu wynosi 1-0,95 6 =1-0,7351 0,26 - duży błąd I rodzaju Tu porównania nie są niezależne (Aczel, 1993), ale błąd I rodzaju jest większy niż 0,05. 10

Analiza wariancji. Historia Analiza wariancji, ANOVA (ang. ANalysis Of VAriance) metoda do badania wpływu kontrolowanego czynnika (czynników) na wartości rozważanej cechy X. Twórcą metody jest Ronald Aylmer Fisher (1890-1962) genetyk i statystyk brytyjski, który w 1923 r. razem ze współpracownikiem Frankiem Yatesem rozwinął i ogłosił elementy analizy wariancji jako metody do rozwiązywania problemów doświadczalnictwa rolniczego. Obecnie testy analizy wariancji są podstawowym narzędziem oceny wpływów kontrolowanych czynników na wynik eksperymentu we wszystkich dziedzinach badań. 11

Analiza wariancji. Idea dla trzech grup Przykład 1 Przykład 2 gr_1 gr_2 gr_3 gr_4 gr_5 gr_6 11 21 31 1 21 41 12 22 32 2 22 42 13 23 33 3 23 43 12

Analiza wariancji. Idea dla trzech grup Przykład 1 średnie w grupach: x 1 n n i1 x i wariancje w grupach: s 2 n i 1 x i n x 2 13

Analiza wariancji. Idea dla trzech grup Przykład 1 średnie w grupach: 11 12 13 x1 3 12 wariancje w grupach: 2 2 1112 s 1 2 12 12 13 12 2 2 1 x 2 22 s 2 2 1 x 3 32 s 2 3 1 14

Analiza wariancji. Idea dla trzech grup Przykład 1 średnia ogólna: 11 12... 32 33 198 x 9 9 wariancja między grupami: 12, 12, 12, 22, 22, 22, 32, 32, 32 22 2 s miedzy grupami 2 2 12 22 3 22 22 3 32 22 8 2 3 600 8 75 15

Analiza wariancji. Idea dla trzech grup Przykład 2 średnie w grupach: x 4 2 wariancje w grupach: s 2 4 1 x 5 22 s 2 5 1 x 6 42 s 2 6 1 16

Analiza wariancji. Idea dla trzech grup Przykład 2 średnia ogólna: x 1 2... 9 42 43 198 9 22 wariancja między grupami: 2, 2, 2, 22, 22, 22, 42, 42, 42 2 s miedzy grupami 2 2 2 22 3 22 22 3 42 22 8 2 3 3200 8 400 17

Analiza wariancji. Idea dla trzech grup średnie w grupach: wariancja między grupami: x 1 12, x2 22, x3 32 2 s 75 miedzy grupami średnie w grupach: wariancja między grupami: x 4 2, x5 22, x6 42 2 s 400 miedzy grupami 18

Analiza wariancji. Idea dla trzech grup Przykład 1 średnie w grupach: wariancja między grupami: x 1 12, x2 22, x3 32 2 s 75 miedzy grupami Przykład 2 średnie w grupach: wariancja między grupami: x 4 2, x5 22, x6 42 2 s 400 miedzy grupami Duża wartość wariancji między grupami świadczy o znacznym zróżnicowaniu średnich tych grup. 19

Analiza wariancji. Terminologia Wyniki pomiaru czasu krzepnięcia osocza krwi Metoda 1 Metoda 2 Metoda 3 Metoda 4 9,1 10,0 10,0 10,9 8,9 10,2 9,9 11,1 8,4 9,8 9,8 12,2 12,8 11,6 12,9 14,4 8,7 9,5 11,2 9,8 9,2 9,2 9,9 12,0 7,6 8,6 8,5 8,5 8,6 10,3 9,8 10,9 8,9 9,4 9,2 10,4 7,9 8,5 8,2 10,0 20

Analiza wariancji. Terminologia Wyniki pomiaru czasu krzepnięcia osocza krwi Cztery obiekty, poziomy czynnika a=4 Replikacje n=10 Metoda 1 Metoda 2 Metoda 3 Metoda 4 9,1 10,0 10,0 10,9 8,9 10,2 9,9 11,1 8,4 9,8 9,8 12,2 12,8 11,6 12,9 14,4 8,7 9,5 11,2 9,8 9,2 9,2 9,9 12,0 7,6 8,6 8,5 8,5 8,6 10,3 9,8 10,9 8,9 9,4 9,2 10,4 7,9 8,5 8,2 10,0 Założono doświadczenie z czterema obiektami w dziesięciu replikacjach. 21

Analiza wariancji. Terminologia Jednokierunkowa klasyfikacja danych wyniki pomiaru cechy uzyskane w doświadczeniu przedstawione w tabeli. Jednokierunkowa bo doświadczenie jest jednoczynnikowe. Obiekty Nr powtórzenia (poziomy czynnika A) 1 2... n A 1 x 11 x 12... 1n 1 A 2 x 21 x 22... 2 n 2 x x... A a x a1 a2 x x... a na 22

Analiza wariancji. Oznaczenia Wartość cechy X dla i tego obiektu w j tej replikacji x i j nr obiektu (poziomu czynnika) nr replikacji W przykładzie: x ij czas krzepnięcia dla i tej metody u j tego pacjenta), i=1, 2,..., a, j=1, 2,..., n 23

Pytania Analiza wariancji. Przykład 1. Czy wszystkie porównywane metody dają czas krzepnięcia na podobnym poziomie? Odpowiemy po przeprowadzeniu analizy wariancji. 2. Jeśli nie wszystkie, to które metody dają podobny czas? Odpowiemy po przeprowadzeniu porównań szczegółowych. 24

Analiza wariancji 25

Analiza wariancji. Warunki stosowania 1. Analizujemy cechę mierzalną X w a populacjach, a>2 (np. czas krzepnięcia osocza krwi dla czterech metod) 2. Cechy Xi mają niezależne rozkłady normalne N~(µi; σi 2 ), i= 1, 2,..., a 3. Rozkłady te mają jednakowe wariancje σ1 2 = σ2 2 =... = σa 2 (jednorodność wariancji) 26

Analiza wariancji. Hipotezy Hipoteza zerowa H 0 : µ1 = µ2 =... = µa Hipoteza o braku zróżnicowania między średnimi populacyjnymi cechy dla badanych obiektów. Hipoteza alternatywna H 1 : istnieje para średnich µi, µj, które są różne Uwaga o alternatywie Przyjmujemy poziom istotności α np. α =0,05 27

Tabela analizy wariancji Źródło zmienności cechy X Suma kwadratów Stopnie swobody Średni kwadrat F emp wartość p Czynnik A (obiekty, między grupami) Sum of Squares SS Degrees of freedom Df SSA Df A = a 1 Mean Square MS A MS SS Df A A MS MS A E p-value Błąd losowy E (w grupach) SSE Df E = N - a Całkowita T SST Df T = N - 1 MS E SS Df E E 28

Źródła zmienności Źródło zmienności cechy X Suma kwadratów Stopnie swobody Średni kwadrat F emp wartość p Czynnik A (obiekty, między grupami) Sum of Squares SS Degrees of freedom Df SSA Df A = a 1 Mean Square MS A MS SS Df A A MS MS A E p-value Błąd losowy E (w grupach) SSE Df E = N - a Całkowita T SST Df T = N - 1 MS E SS Df E E 29

Źródła zmienności Zmienność zmierzonych wartości cechy spowodowana czynnikiem zmienność między metodami. Metoda 1 Metoda 2 Metoda 3 Metoda 4 9,1 10,0 10,0 10,9 8,9 10,2 9,9 11,1 8,4 9,8 9,8 12,2 12,8 11,6 12,9 14,4 8,7 9,5 11,2 9,8 9,2 9,2 9,9 12,0 7,6 8,6 8,5 8,5 8,6 10,3 9,8 10,9 8,9 9,4 9,2 10,4 7,9 8,5 8,2 10,0 30

Źródła zmienności Zmienność zmierzonych wartości cechy spowodowana błędem losowym zmienność między powtórzeniami dla ustalonej odmiany. Metoda 1 Metoda 2 Metoda 3 Metoda 4 9,1 10,0 10,0 10,9 8,9 10,2 9,9 11,1 8,4 9,8 9,8 12,2 12,8 11,6 12,9 14,4 8,7 9,5 11,2 9,8 9,2 9,2 9,9 12,0 7,6 8,6 8,5 8,5 8,6 10,3 9,8 10,9 8,9 9,4 9,2 10,4 7,9 8,5 8,2 10,0 31

Sumy kwadratów Źródło zmienności cechy X Suma kwadratów Stopnie swobody Średni kwadrat F emp wartość p Czynnik A (obiekty, między grupami) Sum of Squares SS Degrees of freedom Df SSA Df A = a 1 Mean Square MS A MS SS Df A A MS MS A E p-value Błąd losowy E (w grupach) SSE Df E = N - a Całkowita T SST Df T = N - 1 MS E SS Df E E 32

Poziomy czynnika A Średnie obiektowe Powtórzenia A 1 x 11 12 1 2... n x... 1 n 1 średnie obiektowe 1 1 x x 1 n 1 n j 1 x 1 j A 2 x 21 22 x... 2 n 2 2 1 x x 2 n 2 n j 1 x 2 j... A a x a1 a2 x x... ana a 1 x a x n a n j 1 a j 33

Sumy kwadratów i-ta średnia obiektowa 1 x i x n i n i j1 ij średnia ogólna x 1 N a n i i1 j1 x ij SS A a i1 n i x i x a n i i 2 2 SS x x SS x x E i1 j1 ij i T a n i1 j1 ij 2 Sumy kwadratów mają własność: SS A SS E SS T 34

Stopnie swobody Źródło zmienności cechy X Suma kwadratów Stopnie swobody Średni kwadrat F emp wartość p Czynnik A (obiekty, między grupami) Sum of Squares SS Degrees of freedom Df SSA Df A = a 1 Mean Square MS A MS SS Df A A MS MS A E p-value Błąd losowy E (w grupach) SSE Df E = N - a Całkowita T SST Df T = N - 1 MS E SS Df E E Stopnie swobody mają własność: Df A Df E Df T 35

Średnie kwadraty Źródło zmienności cechy X Suma kwadratów Stopnie swobody Średni kwadrat F emp wartość p Czynnik A (obiekty, między grupami) Sum of Squares SS Degrees of freedom Df SSA Df A = a 1 Mean Square MS A MS SS Df A A MS MS A E p-value Błąd losowy E (w grupach) SSE Df E = N - a Całkowita T SST Df T = N - 1 MS E SS Df E E Średnie kwadraty obliczamy na podstawie dwóch wcześniejszych kolumn SS, Df. 36

Funkcja testowa Femp Źródło zmienności cechy X Suma kwadratów Stopnie swobody Średni kwadrat F emp wartość p Czynnik A (obiekty, między grupami) Sum of Squares SS Degrees of freedom Df SSA Df A = a 1 Mean Square MS A MS SS Df A A MS MS A E p-value Błąd losowy E (w grupach) SSE Df E = N - a Całkowita T SST Df T = N - 1 MS E SS Df E E Wartość empiryczną funkcji testowej Femp obliczamy na podstawie wcześniejszej kolumny średnich kwadratów MS. 37

Uwaga Jeśli H 0 jest prawdziwa, to MSA oraz MSE są nieobciążonymi estymatorami wariancji. Oszacowanie wariancji tymi estymatorami powinno niewiele się różnić. Jeśli H 0 nie jest prawdziwa, to MSA jest wyższy od MSE - H 0 należy odrzucić. Do porównania MSA i MSE służy test F Fishera- Snedecora o liczbach stopni swobody ν 1 =DfA, ν 2 = DfE F emp MS MS Wartości F bliskie 1 świadczą za hipotezą, wartości dużo większe od 1 przeciw hipotezie. A E 38

Wartość krytyczna Fkryt Źródło zmienności cechy X Suma kwadratów Stopnie swobody Średni kwadrat F emp wartość p Czynnik A (obiekty, między grupami) Sum of Squares SS Degrees of freedom Df SSA Df A = a 1 Mean Square MS A MS SS Df A A MS MS A E p-value Błąd losowy E (w grupach) SSE Df E = N - a Całkowita T SST Df T = N - 1 MS E SS Df E E F kryt = F α, a - 1, N a 39

Wnioskowanie Wnioskowanie Jeśli F emp > F kryt, to H 0 odrzucamy, w przeciwnym przypadku H 0 nie można odrzucić. Wnioskowanie równoważne Jeśli wartość p < α, to H 0 odrzucamy, w przeciwnym przypadku H 0 nie można odrzucić. Odrzucenie hipotezy H 0 oznacza stwierdzenie statystycznie istotnego wpływu czynnika A na badaną cechę. 40

Tabela ANOVA dla przykładu Źródła zm. SS Df MS Femp Czynnik A (metody) wartość p 20,826 3 6,942 3,859 0,017 Błąd losowy E 64,758 36 1,799 Całkowita T 85,584 39 Wartość empiryczną funkcji testowej porównujemy z wartością krytyczną Fkryt = Fα, a - 1, N a = F 0,05, 3, 36 = 2,866 41

Wnioskowanie dla przykładu Zachodzi F emp > F kryt, więc H 0 odrzucamy. Wnioskowanie równoważne Wartość p wyliczają pakiety statystyczne: wartość p = 0,017, α = 0,05 Ponieważ wartość p < α, to H 0 odrzucamy. Czas krzepnięcia nie jest jednakowy dla porównywanych metod. 42

Postępowanie po analizie wariancji Jeśli analiza wariancji nie wykaże istotnych różnic między rozpatrywanymi średnimi, nie przeprowadza się dalszych testów. Natomiast jeśli średnie okażą się istotnie zróżnicowane (H 0 odrzucona), to chcemy wiedzieć, które z rozpatrywanych średnich różnią się między sobą, a które nie. W tym celu wykonujemy porównania poszczególnych średnich z zastosowaniem testów post-hoc nazywanych testami wielokrotnych porównań. 43

Obliczenia w pakiecie STATISTICA Dane, na których będziemy wykonywać analizę wariancji, muszą być zorganizowane w specjalny sposób: w jednej kolumnie wartości mierzonej cechy (czas), a w innej nazwa/kod metody dla pomiaru. Można przygotować je w arkuszu kalkulacyjnym... 44

Obliczenia w pakiecie STATISTICA... albo wykorzystać narzędzie w pakiecie STATISTICA. W tym przypadku kopiujemy dane w postaci tabelki z arkusza do pakietu (wklejone z nagłówkami): 45

Obliczenia w pakiecie STATISTICA Z menu głównego wybieramy opcję Dane, z podmenu opcję Rozrzuć po zmiennych/ułóż w stertę... 46

Obliczenia w pakiecie STATISTICA W okienku Rozrzuć po zmiennych/ułóż w stertę wybieramy kartę Ułóż w stertę. Przyciskamy przycisk Zmienne... 47

Obliczenia w pakiecie STATISTICA... i w okienku Wybierz zmienne z... zaznaczamy myszką nazwy kolumn. Przyciskamy OK. 48

Obliczenia w pakiecie STATISTICA Można zmienić domyślne nazwy kolumn: zamiast Wartości wpisać Czas, a zamiast Kody wpisać Metody. 49

Obliczenia w pakiecie STATISTICA Znaczniki w polach obwiedzionych czerwoną linią ustawiamy, jak na załączonym zrzucie (czyścimy Przeplot wyjścia oraz Dołącz pozostałe zmienne), OK. 50

Obliczenia w pakiecie STATISTICA Otwiera się arkusz z danymi w postaci odpowiedniej do przeprowadzenia analizy wariancji: kolumna z pomiarami czasu oraz kolumna z nazwą metody (kolejność kolumn jest dowolna). Uwaga. Ten arkusz z danymi musi być aktywny (trzeba na nim kliknąć) zanim wybierzemy analizę z menu głównego. 51

Obliczenia w pakiecie STATISTICA W pakiecie można przeprowadzić jednoczynnikową analizę wariancji wybierając z menu głównego opcję Statystyka, z podmenu Statystyki podstawowe i tabele, a z okienka Statystyki podstawowe i tabele opcję Przekroje, prosta ANOVA. 52

Obliczenia w pakiecie STATISTICA Druga możliwość, to wybrać z menu głównego opcję Statystyka, z podmenu ANOVA. 53

Obliczenia w pakiecie STATISTICA W okienku Ogólna ANOVA/MANOVA wybieramy rodzaj analizy Jednoczynnikowa ANOVA, OK. 54

Obliczenia w pakiecie STATISTICA Na karcie Podstawowe przyciskamy przycisk Zmienne. 55

Obliczenia w pakiecie STATISTICA W okienku Wybierz zmienną zależną i predyktor... na pierwszej liście (dla zmiennej zależnej, czyli wielkości mierzonej w doświadczeniu) zaznaczamy myszką Czas, a na drugiej liście (dla czynnika jakościowego, czyli kolumny z nazwami metod) zaznaczamy Metody, OK. 56

Obliczenia w pakiecie STATISTICA W okienku ANOVA/MANOVA na karcie Podstawowe zmienne zostały wybrane, OK. 57

Obliczenia w pakiecie STATISTICA Okienko ANOVA Wyniki nie pokazuje się całe, więc trzeba wybrać przycisk Więcej wyników. 58

Obliczenia w pakiecie STATISTICA W powiększonym już okienku ANOVA Wyniki wybieramy kartę Podsumowanie i widzimy opcje, jak na zrzucie: Aby wyświetlić tabelę ANOVA, wybieramy przycisk Wyniki jednowymiarowe. 59

Obliczenia w pakiecie STATISTICA Wyświetla się tabela większa, niż klasyczna tabela ANOVA (z dodatkowym pierwszym wierszem). 60

Obliczenia w pakiecie STATISTICA Klikamy na komórce Wyraz wolny... Prawym przyciskiem myszy otwieramy menu podręczne,... 61

Obliczenia w pakiecie STATISTICA... i wybieramy opcję Usuń przypadki. Potwierdzamy przyciskiem OK, że chcemy usunąć przypadek 1 (czyli wiersz 1). 62

Obliczenia w pakiecie STATISTICA Otrzymaliśmy tabelę ANOVA. Dobrze jest sprawdzić, czy zgadzaję się liczby stopni swobody dla metod (powinno być: liczba porównywanych metod-1), zwłaszcza, gdy dane przygotowywane były w arkuszu z użyciem kopiowania przez przeciąganie za uchwyt kopiujący z wciśniętym SHIFT lub bez SHIFT (zdarza się błędne zwielokrotnienie liczby porównywanych obiektów). Łatwo sprawdzić, czy zgadzaję się liczby stopni swobody ogółem (powinno być: liczba wszystkich jednostek doświadczalnych, czyli pacjentów-1). 63

Obliczenia w pakiecie STATISTICA Okno analizy ANOVA Wyniki zostało zwinięte w lewym dolnym rogu. Klikamy na nie, żeby kontynuować działania. W okienku analizy wybieramy przycisk Statystyki podklas. 64

Obliczenia w pakiecie STATISTICA Wyświetla się tabelka ze statystykami opisowymi dla metod, m. in. średnim czasem i odchyleniem standardowym. 65

Obliczenia w pakiecie STATISTICA Ponownie podnosimy z lewego dolnego rogu okienko analizy ANOVA Wyniki i wybieramy przycisk Średnie/wykresy. 66

Obliczenia w pakiecie STATISTICA W oknie Tabela wszystkich efektów zaznaczamy Pokaż wykres, OK. 67

Obliczenia w pakiecie STATISTICA Wyświetla się wykres ze średnimi i przedziałami ufności albo wykres ze średnimi i błędami standardowymi średnich, albo... 68

Obliczenia w pakiecie STATISTICA... wykres samych średnich, w zależności od tego, jakie pole jest zaznaczone w okienku Tabela wszystkich efektów. 69

Postępowanie po analizie wariancji Przykład Analiza wariancji dla czasu krzepnięcia wykazała, że średnie dla metod są istotnie zróżnicowane (H 0 odrzucona). Teraz chcemy wiedzieć, które z rozpatrywanych średnich różnią się między sobą, a które nie. W tym celu wykonujemy porównania poszczególnych średnich z zastosowaniem testów post-hoc. 70

Porównania szczegółowe dla przykładu Średnie wyniki pomiaru czasu krzepnięcia osocza krwi dla metod Metoda 1 Metoda 2 Metoda 3 Metoda 4 średnie 9,01 9,71 9,94 11,02 71

Porównania szczegółowe 1. procedura NIR Fishera (oparta na teście t-studenta) 2. procedura Tukeya (test HSD) 3. procedura Spjotvolla i Stoline'a 4. procedura Sheffego 5. metoda Bonferroniego 6. procedura Newmana-Keulsa 72

Wyniki doświadczenia Średnie arytmetyczne dla metod (średnie obiektowe) ustawiamy w kolejności rosnącej: Średnia arytmet. Metoda 1 9,01 Metoda 2 9,71 Metoda 3 9,94 Metoda 4 11,02 Zastosowanie testu NIR Fishera 73

Test t dla dwóch prób niezależnych Hipoteza zerowa Hipoteza alternatywna H 0 : µi = µj H 1 : µi µj Funkcja testowa: gdzie: s r Test t-studenta, poziom istotności α s 2 e 1 ni t 1 n 2 s e ocena wspólnej wariancji j x i s r x j błąd stand. różnicy średnich, Wnioskowanie: Jeżeli t to hipotezę H 0 t α, ν odrzucamy, w przeciwnym przypadku H 0 nie można odrzucić; ν n n 2 1 2 74

Na podstawie testu t-studenta t α, ν H 0 : µi = µj t - to H 0 odrzucamy, x i s r x j t α, ν - to H 0 odrzucamy t x i s r x j x i x j t α, ν s r - to H 0 odrzucamy NIR t α, ν s r x i x j NIR - to H 0 odrzucamy 75

Na podstawie testu t-studenta x i H 0 : µi = µj xj NIR - to H 0 odrzucamy, NIR tα, ν sr gdzie: s wariancji. r s 2 e 1 n i 1 n j, ocena s 2 e wspólnej Do porównań szczegółowych bierzemy wartości z tabeli analizy wariancji: w miejsce s 2 e - średni kwadrat dla błędu MS E za ν podstawiamy Df E 76

NIR oparty na teście t-studenta NIR t α, Df E MS E 1 n i 1 n j t, α - wartość krytyczna z rozkładu Studenta Df E α poziom istotności dla hipotezy globalnej DfE, MSE z tabeli analizy wariancji ni, nj liczby jednostek statystycznych dla i-tego oraz j-tego obiektu 77

Tabela ANOVA dla przykładu Źródła zm. SS Df MS Femp Metody (Czynnik A) wartość p 20,826 3 6,942 3,859 0,017 Błąd losowy E 64,758 36 1,799 Całkowita T 85,584 39 MSE = 1,799, DfE = 36 78

NIR t-studenta dla przykładu NIR t α, Df E MS E 1 n i 1 n j MS E = 1,799, Df E = 36 tα, DfE t 0,05, 36 2,028 ni = nj =10 NIR 1 1 2,028 1,799 10 10 1,216 79

Wyniki doświadczenia Średnie arytmetyczne dla metod ustawiamy w kolejności rosnącej: Średnia arytmet. Metoda 1 9,01 Metoda 2 9,71 Metoda 3 9,94 Metoda 4 11,02 NIR = 1,216 80

Wydzielanie grup jednorodnych Średnia arytmet. Metoda 1 9,01 Metoda 2 9,71 Metoda 3 9,94 Metoda 4 11,02 NIR = 1,216 Czy µ 1, µ 2 różnią się istotnie? x 2 x 9,71 9,01 0, 7 1 NIR 81

Wydzielanie grup jednorodnych Średnia arytmet. Grupa jednorodna 1 Metoda 1 9,01 * Metoda 2 9,71 * Metoda 3 9,94 Metoda 4 11,02 NIR = 1,216 Czy µ 1, µ 2 różnią się istotnie? x 2 x 9,71 9,01 0, 7 1 NIR Średnie µ 1, µ 2 nie różnią się istotnie i można je zaliczyć do tej samej grupy jednorodnej G1. 82

Wydzielanie grup jednorodnych Średnia arytmet. Grupa jednorodna 1 Metoda 1 9,01 * Metoda 2 9,71 * Metoda 3 9,94 Metoda 4 11,02 NIR = 1,216 Czy do tej samej grupy można zaliczyć też µ 3? x 3 x 9,94 9,01 0, 93 1 NIR 83

Wydzielanie grup jednorodnych Średnia arytmet. Grupa jednorodna 1 Metoda 1 9,01 * Metoda 2 9,71 * Metoda 3 9,94 * Metoda 4 11,02 NIR = 1,216 Czy do tej samej grupy można zaliczyć też µ 3? x 3 x 9,94 9,01 0, 93 1 NIR Tak, średnie µ 1, µ 2, µ 3 nie różnią się istotnie. 84

Wydzielanie grup jednorodnych Średnia arytmet. Grupa jednorodna 1 Metoda 1 9,01 * Metoda 2 9,71 * Metoda 3 9,94 * Metoda 4 11,02 NIR = 1,216 Czy do tej samej grupy można zaliczyć też µ 4? x 4 x 11,02 9,01 2, 01 1 NIR 85

Wydzielanie grup jednorodnych Średnia arytmet. Grupa jednorodna 1 Metoda 1 9,01 * Metoda 2 9,71 * Metoda 3 9,94 * Metoda 4 11,02 NIR = 1,216 Czy do tej samej grupy można zaliczyć też µ 4? x 4 x 11,02 9,01 2, 01 1 NIR Nie, średnie µ 1, µ 4 różnią się istotnie. 86

Wydzielanie grup jednorodnych Średnia arytmet. Grupa jednorodna 1 Metoda 1 9,01 * Metoda 2 9,71 * Metoda 3 9,94 * Metoda 4 11,02 NIR = 1,216 Grupa jednorodna 2 Czy µ 2, µ 3, µ 4 mogą być w tej samej grupie? x 4 x 11,02 9,71 1, 31 2 NIR 87

Wydzielanie grup jednorodnych Średnia arytmet. Grupa jednorodna 1 Metoda 1 9,01 * Metoda 2 9,71 * Metoda 3 9,94 * Metoda 4 11,02 NIR = 1,216 Grupa jednorodna 2 Czy µ 2, µ 3, µ 4 mogą być w tej samej grupie? x 4 x 11,02 9,71 1, 31 2 NIR Nie, średnie µ 2, µ 4 różnią się istotnie. 88

Wydzielanie grup jednorodnych Średnia arytmet. Grupa jednorodna 1 Metoda 1 9,01 * Metoda 2 9,71 * Metoda 3 9,94 * Metoda 4 11,02 NIR = 1,216 Grupa jednorodna 2 Czy µ 3, µ 4 mogą być w tej samej grupie? x 4 x 11,02 9,94 1, 08 3 NIR 89

Wydzielanie grup jednorodnych Średnia arytmet. Grupa jednorodna 1 Grupa jednorodna 2 Metoda 1 9,01 * Metoda 2 9,71 * Metoda 3 9,94 * * Metoda 4 11,02 * NIR = 1,216 Czy µ 3, µ 4 mogą być w tej samej grupie? x 4 x 11,02 9,94 1, 08 3 NIR Tak, średnie µ 3, µ 4 nie różnią się istotnie. 90

Grupy jednorodne w przykładzie Średnia arytmet. Grupa jednorodna 1 Grupa jednorodna 2 Metoda 1 9,01 * Metoda 2 9,71 * Metoda 3 9,94 * * Metoda 4 11,02 * NIR = 1,216 Do grupy jednorodnej zaliczamy średnie obiektowe, które nie wykazują istotnego zróżnicowania. W przykładzie wydzielono dwie grupy jednorodne. W jednej są M1, M2, M3, a w drugiej M3, M4. 91

NIR Fishera Sformułowana przez Fishera w 1949 r. (historycznie najwcześniejsza). NIR (Najmniejszej Istotnej Różnicy, LSD Least Significant Difference) oparty na teście t-studenta NIR t α, Df E MS E 1 n i 1 n j Jeżeli x i x NIR to µi, µj różnią się istotnie na poziomie istotności α. j Można stosować do porównywania prób o równej lub różnej liczebności, ale nie jest polecany, bo błąd I rodzaju (odrzucenia H 0 prawdziwej) rośnie wraz ze wzrostem liczby porównań. 92

NIR Tukeya NIR T q α, Df E, a MS n E q - wartość krytyczna studentyzowanego α, DfE, a rozstępu α poziom istotności dla hipotezy globalnej a liczba porównywanych obiektów (średnich obiektowych) DfE, MSE z tabeli analizy wariancji n liczba jednostek statystycznych dla każdego obiektu (musi być jednakowa) 93

NIR Tukeya dla przykładu NIR T q α, Df E, a MS n E MSE = 1,799, DfE = 36 q α, Df E, a n =10 q 0,05, 36, 4 3,809 T NIR 1,799 3,809 10 1,616 94

Grupy jednorodne wg NIR Tukeya Średnia arytmet. Grupa jednorodna 1 Grupa jednorodna 2 Metoda 1 9,01 * Metoda 2 9,71 * * Metoda 3 9,94 * * Metoda 4 11,02 * NIR = 1,216 NIR T = 1,615 Metoda Tukeya rzadziej odrzuca pojedyncze porównania jest bardziej konserwatywna (i wydziela mniej grup niż NIR Fishera). 95

Test Tukeya Test Tukeya HSD test (ang. Honestly Significant Difference, test uczciwie istotnej różnicy) Wymaga prób o równej liczebności dla porównywanych obiektów. Pozwala budować równoczesne przedziały ufności. Niezależnie od liczby wykonanych porównań p-stwo popełnienia błędu I rodzaju dla wszystkich porównań nie przekracza określonego przez badacza poziomu istotności. Najczęściej używana procedura. 96

Procedura Spjotvolla i Stoline'a NIR SS q α, Df, a MS min n i E E, n j q α, DfE, a - wartość krytyczna z tablic Stoline'a α poziom istotności dla hipotezy globalnej a liczba porównywanych obiektów (średnich obiektowych) DfE, MSE z tabeli analizy wariancji ni, nj liczby jednostek statystycznych dla i-tego oraz j-tego obiektu 97

Procedura Spjotvolla i Stoline'a Spjotvoll i Stoline zaproponowali (1973) uogólnienie procedury Tukeya na przypadek nierównych liczebności dla porównywanych obiektów (przy znacznych nierównościach). Rzadko stosowana (tablice?) 98

Procedura Sheffego NIR Sh a 1Fα,, Df A Df E MS E 1 n i 1 n j F α, Df A, Df E - wartość kwantyla z rozkładu F a liczba porównywanych średnich Stosowana do porównywania prób o równych bądź różnych liczebnościach. Niezależnie od liczby porównań mamy zagwarantowany poziom istotności. Najbardziej konserwatywna (rzadziej stwierdzamy istotność, niż w innych testach). Coraz rzadziej stosowana. 99

Metoda Bonferroniego NIR t α /(2p) MS E 1 n i 1 n j p liczba wszystkich porównań a p 0,5a a 1 2 t α /(2p) - wartość odpowiedniego kwantyla z rozkładu t-studenta Poziom istotności dla całego zbioru porównań jest równy α. 100

NIR Newmana-Keulsa NIR NK q α, Df E, k MS n E q α, DfE, k - wartość krytyczna studentyzowanego rozstępu α poziom istotności dla hipotezy globalnej k liczba średnich w grupie DfE, MSE z tabeli analizy wariancji n liczba jednostek statystycznych dla każdego obiektu 101

NIR Newmana-Keulsa dla przykładu NIR NK q α, Df E, k MS n E q 0,05, 36, k - wartość krytyczna studentyzowanego k liczba średnich w grupie MSE = 1,799, n =10 k q0,05, 36, k NIR NK(k) 2 2,865 1,251 3 3,016 1,279 4 3,112 1,320 102

Obliczenia w pakiecie STATISTICA Lista dostępnych testów jest wyświetlona po wybraniu karty Post-hoc w oknie ANOVA- Wyniki. 103

Obliczenia w pakiecie STATISTICA W polu Pokaż wybieramy postać wyników. 104

Obliczenia w pakiecie STATISTICA Wybieramy test Sheffego (najbardziej konserwatywny) i test NIR (najmniej konserwatywny), postać wyników to grupy jednorodne: 105

Obliczenia w pakiecie STATISTICA Wybieramy test Tukeya HSD, postać wyników to istotne różnice: 106

Obliczenia w pakiecie STATISTICA Odczytywanie wartości krytycznych z wybranego rozkładu (tablice statystyczne). Wybieramy z menu głównego opcję Statystyka, z podmenu Kalkulator prawdopodobieństwa, Rozkłady. 107

Obliczenia w pakiecie STATISTICA W okienku Kalkulator prawdopodobieństwa, na liście zaznaczamy rozkład F(Fishera). Pojawiają się domyślne wartości stopni swobody. 108

Obliczenia w pakiecie STATISTICA Odczytamy wartość krytyczną F 0,05; 3; 36. Do okienka wprowadzamy stopnie swobody: df 1 = 3, df 2 = 36, p = 0,05, zaznaczamy pole (1-p), można wyczyścić pole Stałe skalowanie, Oblicz. Odczytujemy pole F: 2,866. 109

Obliczenia w pakiecie STATISTICA Odczytamy wartość krytyczną t 0,05; 36. Zaznaczamy rozkład t (Studenta). Do okienka wprowadzamy stopnie swobody: df = 36, p = 0,05, zaznaczamy pole (1-p), zaznaczamy pole obustronne, można wyczyścić pole Stałe skalowanie, Oblicz. Odczytujemy pole t: 2,028. 110

Założenia ANOVA spr. w STATISICA Założenie o równości wariancji σ1 2 = σ2 2 =... = σa 2 Z lewego dolnego rogu podnosimy okienko analizy ANOVA Wyniki, wybieramy kartę Założenia. 111

Założenia ANOVA spr. w STATISICA Założenie o równości wariancji σ1 2 = σ2 2 =... = σa 2 Wybieramy przycisk Testy C Cochrana, Hartleya, Bartletta. 112

Założenia ANOVA spr. w STATISICA Założenie o równości wariancji σ1 2 = σ2 2 =... = σa 2 Wyniki przedstawiają wartości trzech funkcji testowych i najmniejszą wartość p-value. Ponieważ p-value < 0,05, nie odrzucamy hipotezy o równości wariancji. 113

Założenia ANOVA spr. w STATISICA Założenie o normalności rozkładów czasu krzepnięcia dla każdej z czterech metod. Oglądamy wykresy normalności dla każdej metody. 114

Założenia ANOVA spr. w STATISICA Założenie o normalności rozkładów czasu krzepnięcia dla każdej z czterech metod. Zaznaczamy wszystkie metody, OK. 115

Obliczenia w pakiecie STATISTICA 116

Obliczenia w pakiecie STATISTICA Wykresy normalności wizualizują rozkład normalny - jeżeli punkty układają się na prostej lub blisko niej, mamy prawo sądzić, że rozkład jest normalny. W przykładzie wątpliwości budzi rozkład dla metod 1 i 3, więc można posłużyć się testem Shapiro-Wilka (opcja Statystyki podstawowe i tabele, karta Normalność). Test ten odrzuca hipotezę o normalności tylko dla metody 1. Występuje tu wartość różniąca się od pozostałych w grupie (odstająca?). Test F w analizie wariancji daje dobre wyniki nawet przy naruszeniu założeń. Jest odporny na odchylenia od normalności, bądź jednorodności wariancji zwłaszcza, gdy próby są równoliczne. 117

Obliczenia w pakiecie STATISTICA Test F może dawać wątpliwe wyniki, gdy średnie i odchylenia standardowe są skorelowane. Sprawdzamy to tworząc wykres Odchyleń standardowych względem średnich na karcie Założenia. 118

Obliczenia w pakiecie STATISTICA Na wykresie punkty nie ukladają się wzdłuż prostej, więc korelacja nie występuje. Przeprowadzimy jeszcze test nieparametryczny Kruskala Wallisa. 119

Obliczenia w pakiecie STATISTICA Dla aktywnego arkusza z danymi w kolumnach: Czas, Metody, wybieramy z menu głównego opcję Statystyka, z podmenu Statystyki nieparametryczne. 120

Obliczenia w pakiecie STATISTICA W okienku Statystyki nieparametryczne wybieramy Porównanie wielu prób niezależnych (grup). 121

Obliczenia w pakiecie STATISTICA W okienku Statystyki nieparametryczne przyciskamy Zmienne i wprowadzamy, jak na zrzucie, OK. 122

Obliczenia w pakiecie STATISTICA W okienku Test ANOVA rang Kruskala-Wallisa przyciskamy: 123

Obliczenia w pakiecie STATISTICA Otrzymujemy wynik: Hipoteza o jednakowych medianach (rozkładach) została odrzucona na poziomie istotności p = 0,0092. 124