Analiza wariancji - ANOVA Analizę wariancji, często określaną skrótem ANOVA (Analysis of Variance), zawdzięczamy angielskiemu biologowi Ronaldowi A. Fisherowi, który opracował ją w 1925 roku dla rozwiązywania problemów w badaniach doświadczalnych w rolnictwie.
Analiza wariancji - ANOVA Analiza wariancji - ANalysis Of VAriance ANOVA jest metodą analityczną pozwalającą porównać ze sobą więcej niż dwie grupy oraz umożliwia zbadanie wpływu kilku czynników na badaną cechę. Zaliczana jest do metod parametrycznych. Dobra znajomość analizy wariancji pozwala zrozumieć zmienność, która jest nieodłączną cechą żywej przyrody. Ponadto metoda ta jest podstawą wielu innych analiz statystycznych.
Analiza wariancji - ANOVA Celem analizy wariancji jest testowanie istotności różnic pomiędzy średnimi. W przypadku porównywania dwóch średnich ANOVA daje takie same wyniki, jak test t-studenta dla prób niezależnych lub test t-studenta dla prób zależnych.
Analiza wariancji - ANOVA Nazwa analizy wzięła się stąd, że ocena istotności różnic między średnimi odbywa się przez porównanie (tj. analizę) wariancji. Najprostsza i zarazem najbardziej popularna jest jednoczynnikowa analiza wariancji, czyli analiza wpływu tylko jednego czynnika na wyniki przeprowadzanego badania.
Jednoczynnikowa analiza wariancji - ANOVA Homogeniczność wariancji (homoskedastyczność) poszczególne grupy nie różnią się zmiennością (wszystkie wariancje są sobie równe) często wykorzystywanym testem jest tutaj test Levene a lub test Browna-Forsytha; Normalność rozkładu reszt (odchyleń od średniej) w poszczególnych grupach cecha w każdej grupie ma rozkład normalny można to sprawdzić na dostępnych wykresach; jeśli wątpliwości nie zostaną rozwiane to należy wykonać test normalności rozkładu
Jednoczynnikowa analiza wariancji - ANOVA Hipoteza zerowa H 0 : Średnie w populacji są równe µ 1 = µ 2 = µ 3 = = µ n Hipoteza alternatywna H 1 : Co najmniej jedna para średnich nie jest sobie równa (wykazuje istotne różnice, średnie różnią się od siebie)
Po wykazaniu, że przynajmniej jedna średnia różni się od pozostałych, należy sprawdzić, między którymi parami średnich występują różnice. Do tego celu wykorzystywana jest specjalna grupa testów, która w programie STATISTICA jest nazywana testami post-hoc (testy po fakcie): - test Najmniejszych Istotnych Różnic (NIR lub z ang. LSD) - test Scheffégo - Duncana - Newmana i Keulsa ANOVA testy post-hoc - test Tukeya - Rozsądnej Istotnej Różnicy (RIR lub ang. HSD). Dzięki tym testom można wyróżniać tzw. grupy homogeniczne.
ANOVA testy post-hoc Uszeregowanie ww. testów od najbardziej do najmniej konserwatywnego przedstawia się następująco: test Scheffégo test Tukeya test Newmana i Keulsa test Duncana test NIR Test Tukeya występuje w dwóch wariantach: dla równej liczebności próbek i dla nierównej liczebności (test Spjotvolla i Stoline'a). Test Tukeya jest również oparty na "studentyzowanym" rozkładzie. Metoda Tukeya jest bardziej konserwatywna niż test NIR, ale mniej niż test Scheffégo.
Do tej pory analizowaliśmy jednoczynnikową analizę wariancji, ale często w przyrodzie jest tak, że mamy do czynienia z wpływem kilku czynników jednocześnie. W takich wypadkach stosuje wieloczynnikową analizę wariancji - MANOVA
Wieloczynnikowa analiza wariancji - MANOVA Kolejne hipotezy zerowe mówią nam, że: poziomy czynnika A nie różnicują średnich, czyli czynnik A nie wpływa różnicująco na wyniki eksperymentu; poziomy czynnika B nie różnicują średnich, czyli czynnik B nie wpływa różnicująco na wyniki eksperymentu; nie występuje współdziałanie między poziomami czynnika A i czynnika B, czyli reakcja badanej zmiennej na jeden czynnik jest jednakowa przy wszystkich poziomach drugiego czynnika.