dr hab. Dariusz Piwczyński, prof. nadzw. UTP
Porównanie większej niż 2 liczby grup (k>2) Zmienna zależna skala przedziałowa Zmienna niezależna skala nominalna lub porządkowa 2
Istota teorii analizy wariancji opiera się na podziale zmienności głównej na pewne frakcje i na analizowaniu tych poszczególnych zmienności. 3
zmienność ogólna zmienność międzygrupowa zmienność wewnątrzgrupowa 4
wyraża się zróżnicowaniem poszczególnych wartości zmiennej w stosunku do ogólnej średniej (obliczonej dla całej zbiorowości). SS T k i y y ij k 1 n j 1 2 5
występuje na skutek różnic powstałych między grupami doświadczalnymi, wywołana jest działaniem czynnika doświadczalnego na poszczególne grupy doświadczalne, wyraża się zróżnicowaniem średnich poszczególnych grup doświadczalnych w stosunku do ogólnej średniej. SS G k y y i k 1 n i j 1 2 6
istnieje między poszczególnymi wartościami zmiennej wewnątrz każdej grupy, wywołana jest czynnikami osobniczymi czyli indywidualnymi cechami poszczególnych osobników, wyraża się zróżnicowaniem poszczególnych wartości zmiennej wewnątrz każdej grupy w stosunku do średniej dla tej grupy. SS G k y y i k 1 n i j 1 2 7
Niezależność zmiennych objaśniających (czynników) Homogeniczność wariancji (test Levene) Normalność rozkładu 8
Rozkład cechy w każdej z grup winien być normalny. W praktyce często badamy czy czynnik losowy, tj. e ij posiada rozkład normalny. W celu sprawdzenia tego założenia, od każdego pomiaru odejmujemy średnią wartość grupy, z której ten pomiar pochodzi, a następnie badamy rozkład tychże różnic. Jeśli reszty nie mają rozkładu normalnego, to zaleca się transformacje zmiennych. 9
10
testów Shapiro-Wilk oraz Kolmogorov-Smirnoff Ocena graficzna: histogram Teoretycznie, rozkład powinien być oceniany oddzielnie dla każdej porównywanej grupy. W praktyce rozkład jest oceniany dla całej objętej badaniami populacji. 11
Porównywane grupy nie powinny różnić się między sobą pod względem zmienności. Jeśli nie ma homogeniczności, to możliwe są logarytmiczne transformacje zmiennych lub też usunięcie grupy, która pod względem zmienności wyraźnie odstaje od pozostałych. 12
wariancje odnoszące się do porównywanych grup powinny być takie same: σ Test Bartlett wykonujemy w odniesieniu do zmiennych o rozkładzie normalnym Test Brown i Forsythe Test Levene 2 σ 2 σ 2... σ 2 1 2 3 k 13
Transformacje zmiennej zależnej w celu zmiany rozkłady zmiennych i skorygowania nierównych wariancji. Test Welch (Analiza wariancji Welch) Nieparametryczna analiza wariancji (rozkład jest silnie skośny lub występują wartości skrajnie odbiegające od pozostałych) 14
Transformacje zmiennych z reguły wpływają jednocześnie na homogeniczność wariancji i rozkład! Oznacza to, że transformacje mające na celu poprawę normalności rozkładu mogą powodować problemy z homogenicznością wariancji i odwrotnie. Ln(Y) 1 Y 1 Y Y 15
Jeśli z populacji o rozkładzie normalnym wybieralibyśmy losowo po dwie próby i badalibyśmy wzajemne relacje ich wariancji (iloraz), to ten stosunek miałby rozkład zgodny z rozkładem F. 16
stosunek kwadratów odchyleń międzygrupowych do wewnątrzgrupowych kształtuje się według określonego rozkładu (rozkład F) lub inaczej stosunek zmienności międzygrupowej do wewnątrzgrupowej kształtuje się według określonego rozkładu (rozkład F) 17
18
H 0 : Wszystkie średnie są równe, tzn. H 0 : 1 = 2 = 3 = 4 = 5 = 6... 19
Zakładamy, że masa ciała samic gatunku kret jest taka sama we wszystkich porach roku 20
H 1 : Istnieje co najmniej jedna para średnich, które różnią się ze sobą. H 1 : 1 2 lub 1 3 lub 2 3 itd... 21
22
Ogólna: N 1 (N liczebność populacji) Międzygrupowa: k 1 (k liczba grup doświadczalnych) Wewnątrzgrupowa: N k 23
24 Zmienność ogólna Zmienność międzygrupowa Zmienność wewnątrzgrupowa: S w = S o - S m N x x S o 2 2 N x n x n x n x n x S i i m 2 2 3 2 3 2 2 2 1 2 1...
Zmienność międzygrupowa: S m 2 = S m / (k 1) Zmienność wewnątrzgrupowa: S w 2 = S w / (N k) 25
F emp S S 2 m 2 w wartość krytyczna 26
Obliczoną wartość statystyki F (tzw. F empiryczne - F emp.) odnosimy do wartości krytycznej z rozkładu F dla założonego poziomu istotności ( ) i określonej liczby stopni swobody ( 1 =k-1 oraz 2 =N-k) (F tabelaryczne - F tab. ). Jeżeli F emp. F tab. to mamy podstawę do odrzucenie hipotezy zerowej i stwierdzenia, iż istnieje co najmniej jedna para średnich, które różnią się ze sobą. Zatem czynnik doświadczalny wpływa statystycznie na cechę. W przeciwnym przypadku, nie mamy podstaw do odrzucenia H 0. 27
Badamy wpływ pory roku, w której zostały odłowione zwierzęta na ich masę ciała! Czy masa ciała jest uzależniona od pory roku? 28
29
30
31
Poukładać dane w kolumnach! Każda kolumna to inna pora roku! 32
33
34
35
Decyzję o odrzuceniu H 0 podejmujemy na podstawie kolumny P r> F na wysokości nazwy czynnika, tj. PoraRoku. P jest mniejsze aniżeli 0,0001 (0,05) zatem mamy podstawę do odrzucenia H 0! 36
37
Czy masa ciała we wszystkich porach jest zróżnicowana? Czy są takie pory roku, w których masa ciała jest podobna? 38
39
W sytuacji, gdy wyniki analizy wariancji dają podstawę do odrzucenia hipotezy zerowej, wykonujemy tzw. testy niezaplanowane, zwane inaczej testami a posteriori. Niedopuszczalne jest stosowanie testu t-studenta w przypadku większej liczby porównywanych średnich (więcej niż 2), gdyż drastycznie rośnie błąd I rodzaju dla całego doświadczenia. Przy jednej parze błąd ten wynosić może 0,05, ale przy 4 średnich (6 możliwych porównań) prawdopodobieństwo, że się pomylimy wynosi: 1-0,95 6 = 1-0,735, czyli aż 0.265. 40
Testy wielokrotnych porównań wykonujemy wtedy, gdy na podstawie analizy wariancji stwierdzimy, iż czynnik wpływa istotnie na badaną cechę!!!! 41
Grupy jednorodne: są to takie grupy średnich, które nie różnią się statystycznie ze sobą. Procedury, które zmierzają do wyróżnienia grup jednorodnych nazywają się procedurami porównań wielokrotnych, procedurami jednoczesnego wnioskowania lub post-hoc. Testy te wykorzystujemy przy analizie wariancji wykonywanej w ramach Modelu I.
[test najmniejszych istotnych różnic] (LSD [least significant differences]). Jest najstarszym historycznie testem wielokrotnych porównań. Zaproponowany przez Fishera w 1949. Jego idea polega na wyznaczeniu tzw. najmniejszych istotnych różnic i porównaniu ich z różnicami średnich. Jest to test najmniej odporny na wzrost liczby wielokrotnych porównań, ponieważ poziom istotności odnosi się do pojedynczego porównania. W takim przypadku bardzo szybko wzrasta poziom istotności całego eksperymentu. Wobec powyższych test NIR stosowany jest jako test towarzyszący innym testom. Jeśli bezwzględna wartość różnicy średnich z próby jest większa aniżeli tzw. najmniejsza istotna różnica (NIR), to możemy stwierdzić, iż jest ona istotna statystycznie.
Służy do porównania grup doświadczalnych z grupą kontrolną. 44
Test Duncana jest oparty na studentyzowanym rozstępie. Poziom istotności dla całego doświadczenia wynosi 1-(1- ) n-1. W sytuacji, gdy n rośnie do nieskończoności poziom ten rośnie do jedności. W związku z czym, przy dużej liczbie porównywanych średnich prawdopodobieństwo popełnienia błędu drastycznie rośnie. Test ten stosowany jest raczej jako test towarzyszący innym testom. Test Duncana umożliwia tworzenie grup jednorodnych, czyli takich, pomiędzy którymi nie występują różnice istotne statystycznie na podstawie prób niezależnych. 45
Porządkujemy rosnąco ciąg uzyskanych średnich arytmetycznych Wybieramy parę średnich do porównania Odczytujemy z tabel testu Duncana wartości krytyczne. Uzależnione są one od poziomu istotności, liczby stopni swobody oraz typu rozstępu. Typ rozstępu - liczba wartości średnich zawartych w jednym ciągu pomiędzy porównywanymi średnimi. Wyliczamy tzw. istotny obszar zmienności: D*Sd D odczytujemy w zależności od liczby stopni swobody (zmienność wewnątrzgrupowa) oraz typu rozstępu.
S S 2 w wariancja dla zmienności wewnątrzgrupowej; n gr przeciętna liczebność grupy k liczba grup doświadczalnych, n i liczebność grupy n gr d 2S n gr 2 w 2 1 ni * ni k 1 ni Jeżeli x i - x j S d *D 0,05 to różnica pomiędzy średnimi jest istotna statystycznie; Jeżeli x i - x j S d *D 0,01 to różnica pomiędzy średnimi jest wysoko istotna statystycznie; Jeżeli x i - x j < S d *D 0,05 to różnica pomiędzy średnimi jest nieistotna statystycznie.
Porównywane grupy uporządkowane są malejąco. Średnie, przy których znajduje się ta sama litera stanowią, tzw. grupę średnich jednorodnych, tzn. które nie różnią się ze sobą.
Jest testem najbardziej konserwatywnym, co oznacza, że rzadziej będziemy odrzucać pojedyncze porównania niż w przypadku innych testów. Test Scheffe zapewnia łączny poziom istotności dla wszystkich porównywanych par. Test ten doskonale nadaje się nie tylko do porównania par cech, ale również uwzględnia wszelkie kontrasty. To test najbardziej zachowawczy, gdyż błąd pierwszego rodzaju jest najmniejszy. 51
Jest oparty o studentyzowany rozkład. Jest to test najbardziej polecany do porównania par średnich. Pozwala on wyznaczać grupy średnich jednorodnych. Występuje w dwóch odmianach: równa liczebność próbek, nierówna liczebność próbek (test Spjotvolla i Stolinea). Test Tukea jest bardziej konserwatywny aniżeli NIR, lecz mniej niż test Scheffé. Błąd pierwszego rodzaju jest przy tym teście mniejszy aniżeli w przypadku NIR, Duncan,a ponadto gwarantuje on jednakowy poziom istotności dla wszystkich porównywanych par. 53
54
Wykazano różnice istotne między średnią masą ciała samic kontrolowanych jesienią a wszystkimi pozostałymi porami roku. Nie stwierdzono jednak różnic istotnych między zwierzętami odłowionymi wiosną, latem i zimą! 55
56
Dopisaliśmy dodatkowe 2 linie pozwalające na porównania przy poziomie istotności równym 0,01 Program zapisujemy i Uruchamiamy 57
EFEKTY 58