Analiza wariancji, część 2

Podobne dokumenty
Statystyka i Analiza Danych

Elementy statystyki STA - Wykład 5

ANALIZA WARIANCJI - KLASYFIKACJA WIELOCZYNNIKOWA

ANOVA-ćwiczenia 2 - rozwiązania

Weryfikacja hipotez statystycznych

Testowanie hipotez statystycznych.

Analiza wariancji. dr Janusz Górczyński

Testowanie hipotez statystycznych.

Analiza wariancji - ANOVA

Testowanie hipotez statystycznych. Wnioskowanie statystyczne

ANALIZA WARIANCJI - KLASYFIKACJA JEDNOCZYNNIKOWA

Analizy wariancji ANOVA (analysis of variance)

Jednoczynnikowa analiza wariancji

Szkice rozwiązań z R:

Efekt główny Efekt interakcyjny efekt jednego czynnika zależy od poziomu drugiego czynnika Efekt prosty

Testowanie hipotez. Marcin Zajenkowski. Marcin Zajenkowski () Testowanie hipotez 1 / 25

Statystyczna analiza danych w programie STATISTICA (wykład 2) Dariusz Gozdowski

Zadania ze statystyki cz. 8 I rok socjologii. Zadanie 1.

TESTY NIEPARAMETRYCZNE. 1. Testy równości średnich bez założenia normalności rozkładu zmiennych: Manna-Whitney a i Kruskala-Wallisa.

Analiza wariancji i kowariancji

Testy nieparametryczne

JEDNOCZYNNIKOWA ANOVA

Błędy przy testowaniu hipotez statystycznych. Decyzja H 0 jest prawdziwa H 0 jest faszywa

Metody Statystyczne. Metody Statystyczne. #8 Błąd I i II rodzaju powtórzenie. Dwuczynnikowa analiza wariancji

Jak sprawdzić normalność rozkładu w teście dla prób zależnych?

VI WYKŁAD STATYSTYKA. 9/04/2014 B8 sala 0.10B Godz. 15:15

Wykład 3 Hipotezy statystyczne

STATYSTYKA I DOŚWIADCZALNICTWO. Wykład 2

STATYSTYKA I DOŚWIADCZALNICTWO Wykład 6

Zmienne zależne i niezależne

Analiza wariancji - ANOVA

Księgarnia PWN: George A. Ferguson, Yoshio Takane - Analiza statystyczna w psychologii i pedagogice

Prawdopodobieństwo i rozkład normalny cd.

STATYSTYKA I DOŚWIADCZALNICTWO Wykład 4

Matematyka i statystyka matematyczna dla rolników w SGGW

STATYSTYKA I DOŚWIADCZALNICTWO Wykład 5

Testowanie hipotez dla dwóch zmiennych zależnych. Moc testu. Minimalna liczność próby; Regresja prosta; Korelacja Pearsona;

Copyright by Wydawnictwo Naukowe Scholar, Warszawa 2000, 2008

PDF created with FinePrint pdffactory Pro trial version

Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji

Statystyka matematyczna dla leśników

Testy post-hoc. Wrocław, 6 czerwca 2016

Przykład 1. (A. Łomnicki)

ALGORYTMICZNA I STATYSTYCZNA ANALIZA DANYCH

Zadania ze statystyki cz.8. Zadanie 1.

b) Niech: - wśród trzech wylosowanych opakowań jest co najwyżej jedno o dawce 15 mg. Wówczas:

Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności. dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl

REGRESJA I KORELACJA MODEL REGRESJI LINIOWEJ MODEL REGRESJI WIELORAKIEJ. Analiza regresji i korelacji

166 Wstęp do statystyki matematycznej

LABORATORIUM 8 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI

Stosowana Analiza Regresji

( x) Równanie regresji liniowej ma postać. By obliczyć współczynniki a i b należy posłużyć się następującymi wzorami 1 : Gdzie:

Wykład 9 Wnioskowanie o średnich

Rozdział 8. Regresja. Definiowanie modelu

, a ilość poziomów czynnika A., b ilość poziomów czynnika B. gdzie

Weryfikacja hipotez statystycznych testy dla dwóch zbiorowości

LABORATORIUM 8 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI

weryfikacja hipotez dotyczących parametrów populacji (średnia, wariancja)

Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16

Wykład 9 Testy rangowe w problemie dwóch prób

KORELACJE I REGRESJA LINIOWA

Tablica Wzorów Rachunek Prawdopodobieństwa i Statystyki

Statystyczna analiza danych (molekularnych) analiza wariancji ANOVA

Statystyka. #6 Analiza wariancji. Aneta Dzik-Walczak Małgorzata Kalbarczyk-Stęclik. rok akademicki 2015/ / 14

RÓWNOWAŻNOŚĆ METOD BADAWCZYCH

Testowanie hipotez statystycznych.

Statystyka i opracowanie danych- W 8 Wnioskowanie statystyczne. Testy statystyczne. Weryfikacja hipotez statystycznych.

... i statystyka testowa przyjmuje wartość..., zatem ODRZUCAMY /NIE MA POD- STAW DO ODRZUCENIA HIPOTEZY H 0 (właściwe podkreślić).

Regresja wielokrotna jest metodą statystyczną, w której oceniamy wpływ wielu zmiennych niezależnych (X1, X2, X3,...) na zmienną zależną (Y).

Testowanie hipotez statystycznych

Statystyka matematyczna i ekonometria

weryfikacja hipotez dotyczących parametrów populacji (średnia, wariancja) założenie: znany rozkład populacji (wykorzystuje się dystrybuantę)

Spis treści Wstęp Estymacja Testowanie. Efekty losowe. Bogumiła Koprowska, Elżbieta Kukla

Elementy statystyki wielowymiarowej

LABORATORIUM 3. Jeśli p α, to hipotezę zerową odrzucamy Jeśli p > α, to nie mamy podstaw do odrzucenia hipotezy zerowej

1. Jednoczynnikowa analiza wariancji 2. Porównania szczegółowe

Wykład 5 Teoria eksperymentu

Elementarne metody statystyczne 9

Założenia do analizy wariancji. dr Anna Rajfura Kat. Doświadczalnictwa i Bioinformatyki SGGW

Wprowadzenie do analizy korelacji i regresji

1 Estymacja przedziałowa

), którą będziemy uważać za prawdziwą jeżeli okaże się, że hipoteza H 0

Wykład 12 Testowanie hipotez dla współczynnika korelacji

Ważne rozkłady i twierdzenia c.d.

Współczynnik korelacji. Współczynnik korelacji jest miernikiem zależności między dwiema cechami Oznaczenie: ϱ

TABELKA ANOVA (jednoczynnikowa)

Przedmowa Wykaz symboli Litery alfabetu greckiego wykorzystywane w podręczniku Symbole wykorzystywane w zagadnieniach teorii

Weryfikacja hipotez statystycznych za pomocą testów statystycznych

Statystyka. #5 Testowanie hipotez statystycznych. Aneta Dzik-Walczak Małgorzata Kalbarczyk-Stęclik. rok akademicki 2016/ / 28

STATYSTYKA - PRZYKŁADOWE ZADANIA EGZAMINACYJNE

Analiza autokorelacji

Wykład 12 Testowanie hipotez dla współczynnika korelacji

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 9 i 10 - Weryfikacja hipotez statystycznych

Projekt zaliczeniowy z przedmiotu Statystyka i eksploracja danych (nr 3) Kamil Krzysztof Derkowski

parametrów strukturalnych modelu = Y zmienna objaśniana, X 1,X 2,,X k zmienne objaśniające, k zmiennych objaśniających,

BADANIE POWTARZALNOŚCI PRZYRZĄDU POMIAROWEGO

TEST STATYSTYCZNY. Jeżeli hipotezę zerową odrzucimy na danym poziomie istotności, to odrzucimy ją na każdym większym poziomie istotności.

Testowanie hipotez statystycznych cd.

Hipotezy statystyczne

Transkrypt:

Analiza wariancji, część 2 1 / 74

Analiza kontrastów a priori Testy post hoc porównują wszystkie możliwe pary średnich i wykonuje się je dopiero po stwierdzeniu za pomocą testu F istotności danego czynnika. Kontrasty (porównania) a priori (planowane), to te które planuje się przed przeprowadzeniem eksperymentu. Wynikają one z teorii (merytorycznego uzasadnienia), na której opiera się eksperyment. Na przykład, jeśli badamy wpływ czynnika kontrolowanego na trzech poziomach i chcemy sprawdzić, czy pierwsza z tych grup różni się od pozostałych, to hipoteza zerowa ma postać H 0 : µ 1 = µ 2+µ 3 2, co możemy zapisać w postaci: H 0 : µ 1 1 2 µ 2 1 2 µ 3 = 0 lub H 0 : 2µ 1 µ 2 µ 3 = 0. 2 / 74

Analiza kontrastów a priori Testy post hoc porównują wszystkie możliwe pary średnich i wykonuje się je dopiero po stwierdzeniu za pomocą testu F istotności danego czynnika. Kontrasty (porównania) a priori (planowane), to te które planuje się przed przeprowadzeniem eksperymentu. Wynikają one z teorii (merytorycznego uzasadnienia), na której opiera się eksperyment. Na przykład, jeśli badamy wpływ czynnika kontrolowanego na trzech poziomach i chcemy sprawdzić, czy pierwsza z tych grup różni się od pozostałych, to hipoteza zerowa ma postać H 0 : µ 1 = µ 2+µ 3 2, co możemy zapisać w postaci: H 0 : µ 1 1 2 µ 2 1 2 µ 3 = 0 lub H 0 : 2µ 1 µ 2 µ 3 = 0. 2 / 74

Analiza kontrastów a priori Testy post hoc porównują wszystkie możliwe pary średnich i wykonuje się je dopiero po stwierdzeniu za pomocą testu F istotności danego czynnika. Kontrasty (porównania) a priori (planowane), to te które planuje się przed przeprowadzeniem eksperymentu. Wynikają one z teorii (merytorycznego uzasadnienia), na której opiera się eksperyment. Na przykład, jeśli badamy wpływ czynnika kontrolowanego na trzech poziomach i chcemy sprawdzić, czy pierwsza z tych grup różni się od pozostałych, to hipoteza zerowa ma postać H 0 : µ 1 = µ 2+µ 3 2, co możemy zapisać w postaci: H 0 : µ 1 1 2 µ 2 1 2 µ 3 = 0 lub H 0 : 2µ 1 µ 2 µ 3 = 0. 2 / 74

Aby przetestować tą hipotezę należy przypisać wagi c 1 = 2, c 2 = 1, c 3 = 1 odpowiednim średnim. Kontrastem liniowym dla k średnich w populacji µ 1, µ 2,... µ k nazywamy każdą liniową funkcję K = k c i µ i, gdzie k c i = 0. i=1 i=1 Kontrast jest więc ważoną sumą średnich. K = k c i x i jest oceną z próby tego kontrastu. i=1 3 / 74

Aby przetestować tą hipotezę należy przypisać wagi c 1 = 2, c 2 = 1, c 3 = 1 odpowiednim średnim. Kontrastem liniowym dla k średnich w populacji µ 1, µ 2,... µ k nazywamy każdą liniową funkcję K = k c i µ i, gdzie k c i = 0. i=1 i=1 Kontrast jest więc ważoną sumą średnich. K = k c i x i jest oceną z próby tego kontrastu. i=1 3 / 74

Aby przetestować tą hipotezę należy przypisać wagi c 1 = 2, c 2 = 1, c 3 = 1 odpowiednim średnim. Kontrastem liniowym dla k średnich w populacji µ 1, µ 2,... µ k nazywamy każdą liniową funkcję K = k c i µ i, gdzie k c i = 0. i=1 i=1 Kontrast jest więc ważoną sumą średnich. K = k c i x i jest oceną z próby tego kontrastu. i=1 3 / 74

Suma kwadratów, za które odpowiedzialny jest kontrast dana jest wzorem SS K = K 2, gdzie r jest liczbą powtórzeń. 1 r k c 2 i i=1 Ponieważ kontrast jest różnicą między dwoma zbiorami średnich (jedna z wagami dodatnimi, a druga ujemnymi), to liczba stopni swobody związana z kontrastem wynosi 1. Test F do weryfikacji istotności kontrastu przyjmuje postać: F = MS K MS błąd = SS K SS błąd = SS K(n k) SS błąd. n k 4 / 74

Suma kwadratów, za które odpowiedzialny jest kontrast dana jest wzorem SS K = K 2, gdzie r jest liczbą powtórzeń. 1 r k c 2 i i=1 Ponieważ kontrast jest różnicą między dwoma zbiorami średnich (jedna z wagami dodatnimi, a druga ujemnymi), to liczba stopni swobody związana z kontrastem wynosi 1. Test F do weryfikacji istotności kontrastu przyjmuje postać: F = MS K MS błąd = SS K SS błąd = SS K(n k) SS błąd. n k 4 / 74

Suma kwadratów, za które odpowiedzialny jest kontrast dana jest wzorem SS K = K 2, gdzie r jest liczbą powtórzeń. 1 r k c 2 i i=1 Ponieważ kontrast jest różnicą między dwoma zbiorami średnich (jedna z wagami dodatnimi, a druga ujemnymi), to liczba stopni swobody związana z kontrastem wynosi 1. Test F do weryfikacji istotności kontrastu przyjmuje postać: F = MS K MS błąd = SS K SS błąd = SS K(n k) SS błąd. n k 4 / 74

Istotność pojedynczego kontrastu można weryfikować też za pomocą statystyki t = K MS błąd 1 r k c 2 i i=1, która przy założeniu zerowego kontrastu ma rozkład t Studenta z n k stopniami swobody. Statystyka ta służy też do wyznaczania przedziałów ufności dla kontrastów: K ± t(1 α 2 ; n k) MS błąd 1 r k c 2 i. i=1 5 / 74

Istotność pojedynczego kontrastu można weryfikować też za pomocą statystyki t = K MS błąd 1 r k c 2 i i=1, która przy założeniu zerowego kontrastu ma rozkład t Studenta z n k stopniami swobody. Statystyka ta służy też do wyznaczania przedziałów ufności dla kontrastów: K ± t(1 α 2 ; n k) MS błąd 1 r k c 2 i. i=1 5 / 74

Definiowanie kontrastów 1 Kontrast zawiera zawsze tyle współczynników, ile jest poziomów czynnika (średnich). 2 Średnim, które mają być pominięte w kontraście przypisujemy wartość 0. 3 Średnim, które mają być porównywane nawzajem przypisujemy wartości o przeciwnych znakach. 4 Średnim, które mają być łączone przypisujemy jednakowe wartości. 5 Suma współczynników musi być równa 0. 6 / 74

Definiowanie kontrastów 1 Kontrast zawiera zawsze tyle współczynników, ile jest poziomów czynnika (średnich). 2 Średnim, które mają być pominięte w kontraście przypisujemy wartość 0. 3 Średnim, które mają być porównywane nawzajem przypisujemy wartości o przeciwnych znakach. 4 Średnim, które mają być łączone przypisujemy jednakowe wartości. 5 Suma współczynników musi być równa 0. 6 / 74

Definiowanie kontrastów 1 Kontrast zawiera zawsze tyle współczynników, ile jest poziomów czynnika (średnich). 2 Średnim, które mają być pominięte w kontraście przypisujemy wartość 0. 3 Średnim, które mają być porównywane nawzajem przypisujemy wartości o przeciwnych znakach. 4 Średnim, które mają być łączone przypisujemy jednakowe wartości. 5 Suma współczynników musi być równa 0. 6 / 74

Definiowanie kontrastów 1 Kontrast zawiera zawsze tyle współczynników, ile jest poziomów czynnika (średnich). 2 Średnim, które mają być pominięte w kontraście przypisujemy wartość 0. 3 Średnim, które mają być porównywane nawzajem przypisujemy wartości o przeciwnych znakach. 4 Średnim, które mają być łączone przypisujemy jednakowe wartości. 5 Suma współczynników musi być równa 0. 6 / 74

Definiowanie kontrastów 1 Kontrast zawiera zawsze tyle współczynników, ile jest poziomów czynnika (średnich). 2 Średnim, które mają być pominięte w kontraście przypisujemy wartość 0. 3 Średnim, które mają być porównywane nawzajem przypisujemy wartości o przeciwnych znakach. 4 Średnim, które mają być łączone przypisujemy jednakowe wartości. 5 Suma współczynników musi być równa 0. 6 / 74

Predefiniowane kontrasty W programie Statistica możemy korzystać z pewnych zdefiniowanych kontrastów: Odchylenie - kontrast służący do porównania odchyleń każdej średniej grupowej od średniej ogólnej zmiennej zależnej. Na przykład dla czynnika o trzech poziomach, jeśli chcemy porównać µ 1 z µ 1+µ 2 +µ 3 3, mamy µ 1 µ 1+µ 2 +µ 3 3 = 2µ 1 µ 2 µ 3 = 0, czyli dostajemy kontrast (2, 1, 1). Podobnie, porównując µ 2 ze średnią µ 1+µ 2 +µ 3 3, dostajemy kontrast ( 1, 2, 1). Mamy więc macierz kontrastów (2, 1, 1) ( 1, 2, 1) ( 1, 1, 2) 7 / 74

Predefiniowane kontrasty W programie Statistica możemy korzystać z pewnych zdefiniowanych kontrastów: Odchylenie - kontrast służący do porównania odchyleń każdej średniej grupowej od średniej ogólnej zmiennej zależnej. Na przykład dla czynnika o trzech poziomach, jeśli chcemy porównać µ 1 z µ 1+µ 2 +µ 3 3, mamy µ 1 µ 1+µ 2 +µ 3 3 = 2µ 1 µ 2 µ 3 = 0, czyli dostajemy kontrast (2, 1, 1). Podobnie, porównując µ 2 ze średnią µ 1+µ 2 +µ 3 3, dostajemy kontrast ( 1, 2, 1). Mamy więc macierz kontrastów (2, 1, 1) ( 1, 2, 1) ( 1, 1, 2) 7 / 74

Różnica - kontrast służący do porównywania średniej ze średnią wszystkich poprzednich poziomów. Dla czynnika o trzech poziomach mamy porównania: µ 1 z µ 2 oraz µ 3 z µ 1+µ 2 2, czyli mamy macierz kontrastów ( 1, 1, 0) ( 1, 1, 2) 8 / 74

Helmerta - kontrast porównuje średnią danego poziomu ze średnią wszystkich następnych poziomów badanego czynnika. W przypadku istotności sprawdzamy wkład każdego z kontrastów wyliczając proporcję zmienności, którą możemy przypisać danemu kontrastowi. Dla trzech poziomów macierz kontrastów ma postać: (2, 1, 1) (0, 1, 1) 9 / 74

Prosty - ten kontrast służy do porównywania średniej dla każdego poziomu ze średnią ostatniego poziomu. Dla trzech poziomów otrzymujemy macierz kontrastów (1, 0, 1) (0, 1, 1) Powtarzany - ten kontrast służy do porównywania średnich sąsiednich poziomów czynnika. Dla trzech poziomów mamy macierz kontrastów (1, 1, 0) (0, 1, 1) 10 / 74

Prosty - ten kontrast służy do porównywania średniej dla każdego poziomu ze średnią ostatniego poziomu. Dla trzech poziomów otrzymujemy macierz kontrastów (1, 0, 1) (0, 1, 1) Powtarzany - ten kontrast służy do porównywania średnich sąsiednich poziomów czynnika. Dla trzech poziomów mamy macierz kontrastów (1, 1, 0) (0, 1, 1) 10 / 74

Wykrywanie trendu Za pomocą odpowiednich kontrastów możemy wykryć kształt badanej zależności, czyli trend: liniowy, kwadratowy, sześcienny, itd. Oczywiście, aby mówić o trendzie liniowym, powinniśmy mieć co najmniej trzy średnie (dwa punkty zawsze można połączyć prostą). Aby mówić o trendzie kwadratowym, potrzebujemy mieć co najmniej trzy średnie, a o trendzie sześciennym cztery średnie, itd. 11 / 74

Wykrywanie trendu Za pomocą odpowiednich kontrastów możemy wykryć kształt badanej zależności, czyli trend: liniowy, kwadratowy, sześcienny, itd. Oczywiście, aby mówić o trendzie liniowym, powinniśmy mieć co najmniej trzy średnie (dwa punkty zawsze można połączyć prostą). Aby mówić o trendzie kwadratowym, potrzebujemy mieć co najmniej trzy średnie, a o trendzie sześciennym cztery średnie, itd. 11 / 74

Wykrywanie trendu Liczba średnich Kontrast Wagi kontrastu 2 liniowy (-1,1) 3 liniowy (-1,0,1) kwadratowy (1,-2,1) 4 liniowy (-3,-1,1,3) kwadratowy (1,-1,-1,1) sześcienny (-1,3,-3,1) 5 liniowy (-2,-1,0,1,2) kwadratowy (2,-1,-2,-1,2) sześcienny (-1,2,0,-2,1) 6 liniowy (-5,-3,-1,1,3,5) kwadratowy (5,-1,-4,-4,-1,5) sześcienny (-5,7,4,-4,-7,5) 12 / 74

Analizę kontrastów można przeprowadzać w analogiczny sposób dla doświadczeń wieloczynnikowych (także w planach z powtarzanymi pomiarami). 13 / 74

Kontrasty ortogonalne Kontrasty ortogonalne Dwa kontrasty K 1 = k c 1i µ i i K 2 = k c 2i µ i są względem siebie i=1 ortogonalne, gdy suma iloczynów odpowiadających sobie wag jest równa zero (niezależność wektorów), czyli i=1 k c 1i c 2i = 0. i=1 Zbiór m kontrastów tworzy zbiór kontrastów względem siebie ortogonalny, gdy wszystkie pary kontrastów w tym zbiorze są ortogonalne. 14 / 74

Kontrasty ortogonalne Kontrasty ortogonalne Dwa kontrasty K 1 = k c 1i µ i i K 2 = k c 2i µ i są względem siebie i=1 ortogonalne, gdy suma iloczynów odpowiadających sobie wag jest równa zero (niezależność wektorów), czyli i=1 k c 1i c 2i = 0. i=1 Zbiór m kontrastów tworzy zbiór kontrastów względem siebie ortogonalny, gdy wszystkie pary kontrastów w tym zbiorze są ortogonalne. 14 / 74

1 Dla zbioru k średnich możemy utworzyć maksymalnie k 1 kontrastów ortogonalnych. 2 Suma sum kwadratów k 1 ortogonalnych kontrastów daje sumę kwadratów dla efektu badanego czynnika. 3 Rozkład sumy kwadratów na kontrasty ortogonalne nie jest jednoznaczny (możemy budować różne zbiory kontrastów ortogonalnych). 4 Nie musimy badać wszystkich kontrastów ortogonalnych. Najczęściej mamy konkretne interesujące nas kontrasty badawcze. Pozostałe kontrasty można powiązać w efekt łączny, tworząc kontrast pomiędzy średnimi wykorzystanymi i niewykorzystanymi w dotychczasowych kontrastach. 15 / 74

1 Dla zbioru k średnich możemy utworzyć maksymalnie k 1 kontrastów ortogonalnych. 2 Suma sum kwadratów k 1 ortogonalnych kontrastów daje sumę kwadratów dla efektu badanego czynnika. 3 Rozkład sumy kwadratów na kontrasty ortogonalne nie jest jednoznaczny (możemy budować różne zbiory kontrastów ortogonalnych). 4 Nie musimy badać wszystkich kontrastów ortogonalnych. Najczęściej mamy konkretne interesujące nas kontrasty badawcze. Pozostałe kontrasty można powiązać w efekt łączny, tworząc kontrast pomiędzy średnimi wykorzystanymi i niewykorzystanymi w dotychczasowych kontrastach. 15 / 74

1 Dla zbioru k średnich możemy utworzyć maksymalnie k 1 kontrastów ortogonalnych. 2 Suma sum kwadratów k 1 ortogonalnych kontrastów daje sumę kwadratów dla efektu badanego czynnika. 3 Rozkład sumy kwadratów na kontrasty ortogonalne nie jest jednoznaczny (możemy budować różne zbiory kontrastów ortogonalnych). 4 Nie musimy badać wszystkich kontrastów ortogonalnych. Najczęściej mamy konkretne interesujące nas kontrasty badawcze. Pozostałe kontrasty można powiązać w efekt łączny, tworząc kontrast pomiędzy średnimi wykorzystanymi i niewykorzystanymi w dotychczasowych kontrastach. 15 / 74

1 Dla zbioru k średnich możemy utworzyć maksymalnie k 1 kontrastów ortogonalnych. 2 Suma sum kwadratów k 1 ortogonalnych kontrastów daje sumę kwadratów dla efektu badanego czynnika. 3 Rozkład sumy kwadratów na kontrasty ortogonalne nie jest jednoznaczny (możemy budować różne zbiory kontrastów ortogonalnych). 4 Nie musimy badać wszystkich kontrastów ortogonalnych. Najczęściej mamy konkretne interesujące nas kontrasty badawcze. Pozostałe kontrasty można powiązać w efekt łączny, tworząc kontrast pomiędzy średnimi wykorzystanymi i niewykorzystanymi w dotychczasowych kontrastach. 15 / 74

Miara r 2 = SS K SS efekt, wyrażana w procentach, informuje w jakim procencie dany kontrast wyjaśnia zmienność wśród zmiennych grupowych. 16 / 74

Przykład 1 Badano wpływ czterech dawek pewnego leku na poprawę zdrowia pacjentów z depresją. Ocenę stanu zdrowia przeprowadzono według pewnej umownej skali, przy czym wyższym wartościom tej skali odpowiada większe nasilenie choroby. W badaniu uwzględniono również płeć pacjentów. Eksperyment przeprowadzono dla 32 losowo wybranych pacjentów (4 poziomy dawki x 2 rodzaje płci x 4 powtórzenia). Eksperymentatorów interesowała zależność funkcyjna między wielkością dawki a stanem zdrowia pacjenta. 17 / 74

Obserwacje z eksperymentu zawiera plik depresja.sta. Wykresy normalności nie wykazują istotnych odchyleń rozkładu oceny zdrowia dla poszczególnych poziomów badanych czynników od rozkładu normalnego. Test Levene a nie wykrywa istotnych różnic pomiędzy wariancjami grupowymi. 18 / 74

Obserwacje z eksperymentu zawiera plik depresja.sta. Wykresy normalności nie wykazują istotnych odchyleń rozkładu oceny zdrowia dla poszczególnych poziomów badanych czynników od rozkładu normalnego. Test Levene a nie wykrywa istotnych różnic pomiędzy wariancjami grupowymi. 18 / 74

Obserwacje z eksperymentu zawiera plik depresja.sta. Wykresy normalności nie wykazują istotnych odchyleń rozkładu oceny zdrowia dla poszczególnych poziomów badanych czynników od rozkładu normalnego. Test Levene a nie wykrywa istotnych różnic pomiędzy wariancjami grupowymi. 18 / 74

Wykres interakcji ma następującą postać. Wykres ten wskazuje na istnienie trendu liniowego dla kobiet i trendu kwadratowego dla mężczyzn. 19 / 74

Aby zbadać kontrast liniowy dla kobiet określamy kontrast dla zmiennej PŁEĆ (1,0) i wybieramy ze zdefiniowanych kontrastów kontrast liniowy dla czynnika DAWKA (-3,-1,1,3). Trend liniowy jest wysoce istotny. Zwiększenie dawki powoduje liniowy wzrost średniego stopnia poprawy zdrowia. 20 / 74

Badanie trendu kwadratowego, wykazuje jego nieistotność. 21 / 74

U mężczyzn trend liniowy jest nieistotny (p = 0, 0845), natomiast występuje wysoce istotny trend kwadratowy (p = 0, 000003). Początkowe zwiększanie dawki leku u mężczyzn powoduje szybką poprawę stanu zdrowia. Dalsze zwiększanie dawki powoduje jednak pogorszenia stanu zdrowia pacjentów. 22 / 74

Porównania zaplanowane traktujemy jako alternatywę wobec ogólnego testu F. Oznacza, to, że po wykonaniu analizy kontrastów nie powinniśmy przeprowadzać już tradycyjnej analizy wariancji i testów post-hoc. Dzięki sprawdzaniu istotności konkretnych porównań, mamy większą moc testu niż w testach post-hoc. Jeśli chcemy zweryfikować kilka kontrastów zwykle stosujemy kontrasty ortogonalne. 23 / 74

Porównania zaplanowane traktujemy jako alternatywę wobec ogólnego testu F. Oznacza, to, że po wykonaniu analizy kontrastów nie powinniśmy przeprowadzać już tradycyjnej analizy wariancji i testów post-hoc. Dzięki sprawdzaniu istotności konkretnych porównań, mamy większą moc testu niż w testach post-hoc. Jeśli chcemy zweryfikować kilka kontrastów zwykle stosujemy kontrasty ortogonalne. 23 / 74

Porównania zaplanowane traktujemy jako alternatywę wobec ogólnego testu F. Oznacza, to, że po wykonaniu analizy kontrastów nie powinniśmy przeprowadzać już tradycyjnej analizy wariancji i testów post-hoc. Dzięki sprawdzaniu istotności konkretnych porównań, mamy większą moc testu niż w testach post-hoc. Jeśli chcemy zweryfikować kilka kontrastów zwykle stosujemy kontrasty ortogonalne. 23 / 74

Porównania zaplanowane traktujemy jako alternatywę wobec ogólnego testu F. Oznacza, to, że po wykonaniu analizy kontrastów nie powinniśmy przeprowadzać już tradycyjnej analizy wariancji i testów post-hoc. Dzięki sprawdzaniu istotności konkretnych porównań, mamy większą moc testu niż w testach post-hoc. Jeśli chcemy zweryfikować kilka kontrastów zwykle stosujemy kontrasty ortogonalne. 23 / 74

Hierarchiczna analiza wariancji (układ zagnieżdżony) Układy hierarchiczne umożliwiają analizę planów doświadczalnych, gdy dla różnych poziomów pewnych czynników występują inne poziomy czynników w nich zagnieżdżonych. Układy zagnieżdżone są układami niekompletnymi, w odróżnieniu od układów czynnikowych kompletnych, w których obserwowane były wszystkie kombinacje poziomów badanych czynników. Na przykład rozważmy eksperyment badający trzy leki L 1, L 2 i L 3 stosowane w sześciu klinikach: K 1,..., K 6. Przy czym lek L 1 był stosowany w klinikach K 1 i K 2, lek L 2 w klinikach K 3 i K 4, zaś lek L 3 w klinikach K 5 i K 6. 24 / 74

Hierarchiczna analiza wariancji (układ zagnieżdżony) Układy hierarchiczne umożliwiają analizę planów doświadczalnych, gdy dla różnych poziomów pewnych czynników występują inne poziomy czynników w nich zagnieżdżonych. Układy zagnieżdżone są układami niekompletnymi, w odróżnieniu od układów czynnikowych kompletnych, w których obserwowane były wszystkie kombinacje poziomów badanych czynników. Na przykład rozważmy eksperyment badający trzy leki L 1, L 2 i L 3 stosowane w sześciu klinikach: K 1,..., K 6. Przy czym lek L 1 był stosowany w klinikach K 1 i K 2, lek L 2 w klinikach K 3 i K 4, zaś lek L 3 w klinikach K 5 i K 6. 24 / 74

Hierarchiczna analiza wariancji (układ zagnieżdżony) Układy hierarchiczne umożliwiają analizę planów doświadczalnych, gdy dla różnych poziomów pewnych czynników występują inne poziomy czynników w nich zagnieżdżonych. Układy zagnieżdżone są układami niekompletnymi, w odróżnieniu od układów czynnikowych kompletnych, w których obserwowane były wszystkie kombinacje poziomów badanych czynników. Na przykład rozważmy eksperyment badający trzy leki L 1, L 2 i L 3 stosowane w sześciu klinikach: K 1,..., K 6. Przy czym lek L 1 był stosowany w klinikach K 1 i K 2, lek L 2 w klinikach K 3 i K 4, zaś lek L 3 w klinikach K 5 i K 6. 24 / 74

Plan eksperymentu wyglądałby więc następująco: Lek L 1 Lek L 2 Lek L 3 K 1 K 2 K 3 K 4 K 5 K 6 n osób n osób n osób n osób n osób n osób W tym eksperymencie kliniki są zagnieżdżone w lekach. Kliniki są czynnikiem zagnieżdżonym. W eksperymentach takich nie możemy badać interakcji, gdyż kliniki nie są skrzyżowane z lekami tylko zagnieżdżone i czynnik stopnia niższego działa tylko w obrębie jednego poziomu stopnia wyższego. Nie ma więc możliwości zbadania współdziałania tych czynników. Jeśli czynnik B jest zagnieżdżony w czynniku A, to zapisujemy to symbolicznie B(A). 25 / 74

Plan eksperymentu wyglądałby więc następująco: Lek L 1 Lek L 2 Lek L 3 K 1 K 2 K 3 K 4 K 5 K 6 n osób n osób n osób n osób n osób n osób W tym eksperymencie kliniki są zagnieżdżone w lekach. Kliniki są czynnikiem zagnieżdżonym. W eksperymentach takich nie możemy badać interakcji, gdyż kliniki nie są skrzyżowane z lekami tylko zagnieżdżone i czynnik stopnia niższego działa tylko w obrębie jednego poziomu stopnia wyższego. Nie ma więc możliwości zbadania współdziałania tych czynników. Jeśli czynnik B jest zagnieżdżony w czynniku A, to zapisujemy to symbolicznie B(A). 25 / 74

Plan eksperymentu wyglądałby więc następująco: Lek L 1 Lek L 2 Lek L 3 K 1 K 2 K 3 K 4 K 5 K 6 n osób n osób n osób n osób n osób n osób W tym eksperymencie kliniki są zagnieżdżone w lekach. Kliniki są czynnikiem zagnieżdżonym. W eksperymentach takich nie możemy badać interakcji, gdyż kliniki nie są skrzyżowane z lekami tylko zagnieżdżone i czynnik stopnia niższego działa tylko w obrębie jednego poziomu stopnia wyższego. Nie ma więc możliwości zbadania współdziałania tych czynników. Jeśli czynnik B jest zagnieżdżony w czynniku A, to zapisujemy to symbolicznie B(A). 25 / 74

Plan eksperymentu wyglądałby więc następująco: Lek L 1 Lek L 2 Lek L 3 K 1 K 2 K 3 K 4 K 5 K 6 n osób n osób n osób n osób n osób n osób W tym eksperymencie kliniki są zagnieżdżone w lekach. Kliniki są czynnikiem zagnieżdżonym. W eksperymentach takich nie możemy badać interakcji, gdyż kliniki nie są skrzyżowane z lekami tylko zagnieżdżone i czynnik stopnia niższego działa tylko w obrębie jednego poziomu stopnia wyższego. Nie ma więc możliwości zbadania współdziałania tych czynników. Jeśli czynnik B jest zagnieżdżony w czynniku A, to zapisujemy to symbolicznie B(A). 25 / 74

Model analizy hierarchicznej dwustopniowej Załóżmy, że czynniki A i B są stałe i mają odpowiednio a i b poziomów oraz, że czynnik B jest zagnieżdżony w A. Ponadto, każdy poziom czynnika B ma jednakową liczbę n replikacji. Mamy więc a b n wszystkich obserwacji. X ijk = µ + α i + β j(i) + ε k(ij), gdzie X ijk - k-ta obserwacja w j-tej podgrupie czynnika B i-tego poziomu czynnika A, µ - średnia ogólna, α i - efekt główny i-tego poziomu czynnika A, β j(i) - efekt główny j-tej podgrupy czynnika B w i-tym poziomie czynnika A, ε k(ij) - losowy błąd o rozkładzie normalnym N(0, σ). 26 / 74

Model analizy hierarchicznej dwustopniowej Załóżmy, że czynniki A i B są stałe i mają odpowiednio a i b poziomów oraz, że czynnik B jest zagnieżdżony w A. Ponadto, każdy poziom czynnika B ma jednakową liczbę n replikacji. Mamy więc a b n wszystkich obserwacji. X ijk = µ + α i + β j(i) + ε k(ij), gdzie X ijk - k-ta obserwacja w j-tej podgrupie czynnika B i-tego poziomu czynnika A, µ - średnia ogólna, α i - efekt główny i-tego poziomu czynnika A, β j(i) - efekt główny j-tej podgrupy czynnika B w i-tym poziomie czynnika A, ε k(ij) - losowy błąd o rozkładzie normalnym N(0, σ). 26 / 74

Ponadto zakładamy, że suma wszystkich efektów czynnika A jest równa zero oraz suma wszystkich efektów czynnika B w obrębie każdego poziomu czynnika A jest równa zero, czyli a α i = 0, i=1 b β j(i) = 0. j=1 Za pomocą hierarchicznej analizy wariancji będziemy weryfikować hipotezy: H0 A : α 1 = α 2 =... = α a = 0 (brak istotnego działania czynnika A) wobec hipotezy alternatywnej, że α i 0 dla pewnego i, H0 B : β 1(i) = β 2(i) =... = β b(i) = 0 dla każdego i (brak istotnego działania czynnika B na wszystkich poziomach czynnika A) wobec hipotezy β j(i) 0 dla pewnego j(i). 27 / 74

Ponadto zakładamy, że suma wszystkich efektów czynnika A jest równa zero oraz suma wszystkich efektów czynnika B w obrębie każdego poziomu czynnika A jest równa zero, czyli a α i = 0, i=1 b β j(i) = 0. j=1 Za pomocą hierarchicznej analizy wariancji będziemy weryfikować hipotezy: H0 A : α 1 = α 2 =... = α a = 0 (brak istotnego działania czynnika A) wobec hipotezy alternatywnej, że α i 0 dla pewnego i, H0 B : β 1(i) = β 2(i) =... = β b(i) = 0 dla każdego i (brak istotnego działania czynnika B na wszystkich poziomach czynnika A) wobec hipotezy β j(i) 0 dla pewnego j(i). 27 / 74

Ponadto zakładamy, że suma wszystkich efektów czynnika A jest równa zero oraz suma wszystkich efektów czynnika B w obrębie każdego poziomu czynnika A jest równa zero, czyli a α i = 0, i=1 b β j(i) = 0. j=1 Za pomocą hierarchicznej analizy wariancji będziemy weryfikować hipotezy: H0 A : α 1 = α 2 =... = α a = 0 (brak istotnego działania czynnika A) wobec hipotezy alternatywnej, że α i 0 dla pewnego i, H0 B : β 1(i) = β 2(i) =... = β b(i) = 0 dla każdego i (brak istotnego działania czynnika B na wszystkich poziomach czynnika A) wobec hipotezy β j(i) 0 dla pewnego j(i). 27 / 74

Całkowitą sumę kwadratów rozbijamy na trzy składniki: a b i=1 j=1 k=1 n (x ijk x) 2 = } {{ } SS n a i=1 j=1 b ( x ij x i ) 2 a b i=1 j=1 k=1 n (x ijk x ij ) 2 + bn }{{} SS błąd a ( x i x) 2 + i=1 }{{} SS efekta }{{} SS efektb(a) i analogicznie rozbijamy liczbę stopni swobody na trzy składniki nab 1 }{{} df = a 1 }{{} + a(b 1) + ab(n 1) }{{}}{{} df efekt A df efekt B(A) df błąd. 28 / 74

Całkowitą sumę kwadratów rozbijamy na trzy składniki: a b i=1 j=1 k=1 n (x ijk x) 2 = } {{ } SS n a i=1 j=1 b ( x ij x i ) 2 a b i=1 j=1 k=1 n (x ijk x ij ) 2 + bn }{{} SS błąd a ( x i x) 2 + i=1 }{{} SS efekta }{{} SS efektb(a) i analogicznie rozbijamy liczbę stopni swobody na trzy składniki nab 1 }{{} df = a 1 }{{} + a(b 1) + ab(n 1) }{{}}{{} df efekt A df efekt B(A) df błąd. 28 / 74

Dzieląc sumy kwadratów (SS) przez liczbę stopni swobody (df) otrzymujemy średnie kwadraty odchyleń (M S). Tabela z analizą wariancji dla eksperymentu dwuczynnikowego z jednym czynnikiem zagnieżdżonym ma postać: zmienność SS df MS Statystyka F czynnik A SS efekt A a 1 MS A F A = MS A MS błąd czynnik B(A) SS efekt B(A) a(b 1) MS B(A) F B(A) = MS B(A) MS błąd błąd SS błąd ab(n 1) MS błąd - ogólna SS abn 1 - - 29 / 74

Dzieląc sumy kwadratów (SS) przez liczbę stopni swobody (df) otrzymujemy średnie kwadraty odchyleń (M S). Tabela z analizą wariancji dla eksperymentu dwuczynnikowego z jednym czynnikiem zagnieżdżonym ma postać: zmienność SS df MS Statystyka F czynnik A SS efekt A a 1 MS A F A = MS A MS błąd czynnik B(A) SS efekt B(A) a(b 1) MS B(A) F B(A) = MS B(A) MS błąd błąd SS błąd ab(n 1) MS błąd - ogólna SS abn 1 - - 29 / 74

Współczynnik ω 2 do oceny wpływu czynnika A na wyniki eksperymentu w układzie zagnieżdżonym wyraża się wzorem ω 2 A B(A) = a 1 abn (MS A MS B(A) ) a 1. abn (MS A MS B(A) )+MS błąd Współczynnik ten wyrażany w procentach jest stosunkiem wariancji wyjaśnionej przez dany czynnik do wariancji całkowitej. 30 / 74

Układy hierarchiczne mogą być bardziej złożone. Na przykład w czynniku KLINIKI może być zagnieżdżony kolejny czynnik LEKARZE. Ponadto, jeden czynnik może być zagnieżdżony, a pozostałe skrzyżowane. Na przykład, możemy pacjentów rozdzielić na dwie grupy w zależności od płci i wówczas czynniki LEK i PŁEĆ są skrzyżowane, a czynnik KLINIKA jest zagnieżdżony. Mamy wtedy do czynienia z układem hierarchiczno-czynnikowym (hierarchiczno-krzyżowym). 31 / 74

Układy hierarchiczne mogą być bardziej złożone. Na przykład w czynniku KLINIKI może być zagnieżdżony kolejny czynnik LEKARZE. Ponadto, jeden czynnik może być zagnieżdżony, a pozostałe skrzyżowane. Na przykład, możemy pacjentów rozdzielić na dwie grupy w zależności od płci i wówczas czynniki LEK i PŁEĆ są skrzyżowane, a czynnik KLINIKA jest zagnieżdżony. Mamy wtedy do czynienia z układem hierarchiczno-czynnikowym (hierarchiczno-krzyżowym). 31 / 74

Przykład 2 Doświadczenie z trzema środkami farmakologicznymi (L 1, L 2,L 3 ) stosowanymi w leczeniu depresji przeprowadzono w sześciu klinikach (każdy lek testowały dwie różne kliniki). Oceniano poprawę stanu zdrowia po kuracji tymi środkami (kliniki.sta). Lek L 1 Lek L 2 Lek L 3 K 1 K 2 K 3 K 4 K 5 K 6 18 8 66 62 84 78 8 26 32 20 84 26 24 20 20 36 42 56 14 10 42 48 62 68 12 32 28 28 100 52 22 28 20 38 36 48 32 / 74

Przykład 2 Doświadczenie z trzema środkami farmakologicznymi (L 1, L 2,L 3 ) stosowanymi w leczeniu depresji przeprowadzono w sześciu klinikach (każdy lek testowały dwie różne kliniki). Oceniano poprawę stanu zdrowia po kuracji tymi środkami (kliniki.sta). Lek L 1 Lek L 2 Lek L 3 K 1 K 2 K 3 K 4 K 5 K 6 18 8 66 62 84 78 8 26 32 20 84 26 24 20 20 36 42 56 14 10 42 48 62 68 12 32 28 28 100 52 22 28 20 38 36 48 32 / 74

Sprawdźmy założenia analizy wariancji: Wykresy normalności nie wykazują istotnych odchyleń obserwacji w grupach od rozkładu normalnego, dlatego nie przeprowadzamy już testu Shapiro-Wilka. Testem Levene a sprawdzamy założenie o jednorodności wariancji. 33 / 74

Sprawdźmy założenia analizy wariancji: Wykresy normalności nie wykazują istotnych odchyleń obserwacji w grupach od rozkładu normalnego, dlatego nie przeprowadzamy już testu Shapiro-Wilka. Testem Levene a sprawdzamy założenie o jednorodności wariancji. 33 / 74

Sprawdźmy założenia analizy wariancji: Wykresy normalności nie wykazują istotnych odchyleń obserwacji w grupach od rozkładu normalnego, dlatego nie przeprowadzamy już testu Shapiro-Wilka. Testem Levene a sprawdzamy założenie o jednorodności wariancji. 33 / 74

Wynik hierarchicznej analizy wariancji zawiera tabela. Wyniki leczenia w istotny sposób zależą od zastosowanego leku (p = 0, 000003). Natomiast, poprawa stanu zdrowia nie zależy w istotny sposób od kliniki, w której zastosowano leczenie. 34 / 74

Wynik hierarchicznej analizy wariancji zawiera tabela. Wyniki leczenia w istotny sposób zależą od zastosowanego leku (p = 0, 000003). Natomiast, poprawa stanu zdrowia nie zależy w istotny sposób od kliniki, w której zastosowano leczenie. 34 / 74

Wykres średnich wygląda następująco: 35 / 74

Zastosujmy test post-hoc Scheffe dla zbadania różnic pomiędzy parami średnich. Lek L 3 jest istotnie lepszy od od dwóch pozostałych. 36 / 74

Zastosujmy test post-hoc Scheffe dla zbadania różnic pomiędzy parami średnich. Lek L 3 jest istotnie lepszy od od dwóch pozostałych. 36 / 74

Zastosujmy test post-hoc Scheffe dla zbadania różnic pomiędzy parami średnich. Lek L 3 jest istotnie lepszy od od dwóch pozostałych. 36 / 74

Obliczmy współczynnik ω 2 = 2 36 2 36 (5546,33 212,56) (5546,33 212,56)+272,02 = 52, 14%. Zatem, 52% całkowitej zmienności poprawy zdrowia można wyjaśnić rodzajem zastosowanego leku. 37 / 74

Przykład 3 (eksperyment hierarchiczno-czynnikowy) Losowo wybranym pacjentom z depresją podawano dwa leki zmniejszające stres (Lek 1, Lek 2) oraz placebo. Leczenie przeprowadzono w sześciu klinikach. W dwóch pierwszych podawano lek pierwszy, w dwóch kolejnych drugi i placebo w dwóch ostatnich. Ponadto, w celu sprawdzenia, czy jakiś lek jest lepszy dla kobiet dodano czynnik PŁEĆ. Eksperyment zawiera więc trzy czynniki: LEK (3 poziomy), KLINIKA (czynnik zagnieżdżony, 2 poziomy), PŁEĆ (2 poziomy). Zmienną zależną jest poziom stresu (niepokoju) w 45-stopniowej skali (wyższe wartości oznaczają wyższy poziom stresu). Dla każdego obiektu mamy 5 replikacji, czyli próba obejmuje 3 2 2 5 = 60 pacjentów (hierarchiczno-czynnikowy.sta). 38 / 74

PŁEĆ Lek 1 Lek 2 Placebo K1 K2 K3 K4 K5 K6 K 25 24 23 19 33 37 30 34 27 32 37 39 13 17 15 17 27 23 28 19 31 24 37 35 15 12 14 13 21 29 M 28 21 16 18 27 25 19 23 17 14 33 35 17 23 12 11 19 23 19 17 17 14 30 33 18 13 10 13 22 27 39 / 74

W ten sposób zaplanowany eksperyment pozwoli odpowiedzieć na następujące pytania: 1 Czy istnieje efekt główny czynnika LEK? 2 Czy istnieje efekt główny czynnika zagnieżdżonego KLINIKA? 3 Czy istnieje efekt główny czynnika PŁEĆ? 4 Czy ma miejsce interakcja pomiędzy czynnikami LEK i PŁEĆ? 5 Czy jest interakcja pomiędzy czynnikami KLINIKA i PŁEĆ? 40 / 74

W ten sposób zaplanowany eksperyment pozwoli odpowiedzieć na następujące pytania: 1 Czy istnieje efekt główny czynnika LEK? 2 Czy istnieje efekt główny czynnika zagnieżdżonego KLINIKA? 3 Czy istnieje efekt główny czynnika PŁEĆ? 4 Czy ma miejsce interakcja pomiędzy czynnikami LEK i PŁEĆ? 5 Czy jest interakcja pomiędzy czynnikami KLINIKA i PŁEĆ? 40 / 74

W ten sposób zaplanowany eksperyment pozwoli odpowiedzieć na następujące pytania: 1 Czy istnieje efekt główny czynnika LEK? 2 Czy istnieje efekt główny czynnika zagnieżdżonego KLINIKA? 3 Czy istnieje efekt główny czynnika PŁEĆ? 4 Czy ma miejsce interakcja pomiędzy czynnikami LEK i PŁEĆ? 5 Czy jest interakcja pomiędzy czynnikami KLINIKA i PŁEĆ? 40 / 74

W ten sposób zaplanowany eksperyment pozwoli odpowiedzieć na następujące pytania: 1 Czy istnieje efekt główny czynnika LEK? 2 Czy istnieje efekt główny czynnika zagnieżdżonego KLINIKA? 3 Czy istnieje efekt główny czynnika PŁEĆ? 4 Czy ma miejsce interakcja pomiędzy czynnikami LEK i PŁEĆ? 5 Czy jest interakcja pomiędzy czynnikami KLINIKA i PŁEĆ? 40 / 74

W ten sposób zaplanowany eksperyment pozwoli odpowiedzieć na następujące pytania: 1 Czy istnieje efekt główny czynnika LEK? 2 Czy istnieje efekt główny czynnika zagnieżdżonego KLINIKA? 3 Czy istnieje efekt główny czynnika PŁEĆ? 4 Czy ma miejsce interakcja pomiędzy czynnikami LEK i PŁEĆ? 5 Czy jest interakcja pomiędzy czynnikami KLINIKA i PŁEĆ? 40 / 74

W ten sposób zaplanowany eksperyment pozwoli odpowiedzieć na następujące pytania: 1 Czy istnieje efekt główny czynnika LEK? 2 Czy istnieje efekt główny czynnika zagnieżdżonego KLINIKA? 3 Czy istnieje efekt główny czynnika PŁEĆ? 4 Czy ma miejsce interakcja pomiędzy czynnikami LEK i PŁEĆ? 5 Czy jest interakcja pomiędzy czynnikami KLINIKA i PŁEĆ? 40 / 74

41 / 74

42 / 74

Wynik terapii zależy w sposób istotny od zastosowanego leku (p < 0, 000001). Poziom niepokoju jest uzależniony w sposób istotny od płci pacjenta (p = 0, 005798). Badanie nie potwierdziło przypuszczenia o interakcji pomiędzy lekiem i płcią pacjenta. Nie ma potwierdzenia, że jakiś lek jest lepszy dla kobiet, a jakiś dla mężczyzn. Badanie nie wykazało istotnych różnic dla wyników terapii w różnych klinikach, a także interakcji pomiędzy kliniką i płcią. 43 / 74

Wynik terapii zależy w sposób istotny od zastosowanego leku (p < 0, 000001). Poziom niepokoju jest uzależniony w sposób istotny od płci pacjenta (p = 0, 005798). Badanie nie potwierdziło przypuszczenia o interakcji pomiędzy lekiem i płcią pacjenta. Nie ma potwierdzenia, że jakiś lek jest lepszy dla kobiet, a jakiś dla mężczyzn. Badanie nie wykazało istotnych różnic dla wyników terapii w różnych klinikach, a także interakcji pomiędzy kliniką i płcią. 43 / 74

Wynik terapii zależy w sposób istotny od zastosowanego leku (p < 0, 000001). Poziom niepokoju jest uzależniony w sposób istotny od płci pacjenta (p = 0, 005798). Badanie nie potwierdziło przypuszczenia o interakcji pomiędzy lekiem i płcią pacjenta. Nie ma potwierdzenia, że jakiś lek jest lepszy dla kobiet, a jakiś dla mężczyzn. Badanie nie wykazało istotnych różnic dla wyników terapii w różnych klinikach, a także interakcji pomiędzy kliniką i płcią. 43 / 74

Wynik terapii zależy w sposób istotny od zastosowanego leku (p < 0, 000001). Poziom niepokoju jest uzależniony w sposób istotny od płci pacjenta (p = 0, 005798). Badanie nie potwierdziło przypuszczenia o interakcji pomiędzy lekiem i płcią pacjenta. Nie ma potwierdzenia, że jakiś lek jest lepszy dla kobiet, a jakiś dla mężczyzn. Badanie nie wykazało istotnych różnic dla wyników terapii w różnych klinikach, a także interakcji pomiędzy kliniką i płcią. 43 / 74

Wykres średnich dla czynnika LEK wskazuje, że prawdopodobnie oba leki są skuteczne (istotnie lepiej działają niż placebo) i nie ma istotnych różnic pomiędzy ich działaniem. 44 / 74

Wykres średnich dla czynnika LEK wskazuje, że prawdopodobnie oba leki są skuteczne (istotnie lepiej działają niż placebo) i nie ma istotnych różnic pomiędzy ich działaniem. 44 / 74

Aby zweryfikować tę obserwację przeprowadźmy test post-hoc. Istotnie, oba leki są skuteczniejsze w porównaniu z placebo. Nie ma natomiast istotnej statystycznie różnicy w działaniu obu leków. Zaobserwowana różnica wynika z przypadkowych odchyleń. 45 / 74

Istotnie niższy poziom niepokoju występuje w grupie mężczyzn w porównaniu z grupą kobiet. 46 / 74

ANOVA z powtarzanymi pomiarami Wiele eksperymentów wymaga wielokrotnego dokonywania pomiarów na tych samych jednostkach statystycznych w różnych warunkach. Pomiary powtarzane mogą być stosowane w eksperymentach jedno i wieloczynnikowych. Pomiary powtarzane są ze sobą silnie skorelowane, ponieważ są przeprowadzane na tych samych badanych jednostkach. Korelacje te zmniejszają składnik błędu. Zaletą eksperymentów z powtarzanymi pomiarami jest mała liczba jednostek statystycznych użyta do badania. 47 / 74

ANOVA z powtarzanymi pomiarami Wiele eksperymentów wymaga wielokrotnego dokonywania pomiarów na tych samych jednostkach statystycznych w różnych warunkach. Pomiary powtarzane mogą być stosowane w eksperymentach jedno i wieloczynnikowych. Pomiary powtarzane są ze sobą silnie skorelowane, ponieważ są przeprowadzane na tych samych badanych jednostkach. Korelacje te zmniejszają składnik błędu. Zaletą eksperymentów z powtarzanymi pomiarami jest mała liczba jednostek statystycznych użyta do badania. 47 / 74

ANOVA z powtarzanymi pomiarami Wiele eksperymentów wymaga wielokrotnego dokonywania pomiarów na tych samych jednostkach statystycznych w różnych warunkach. Pomiary powtarzane mogą być stosowane w eksperymentach jedno i wieloczynnikowych. Pomiary powtarzane są ze sobą silnie skorelowane, ponieważ są przeprowadzane na tych samych badanych jednostkach. Korelacje te zmniejszają składnik błędu. Zaletą eksperymentów z powtarzanymi pomiarami jest mała liczba jednostek statystycznych użyta do badania. 47 / 74

ANOVA z powtarzanymi pomiarami Wiele eksperymentów wymaga wielokrotnego dokonywania pomiarów na tych samych jednostkach statystycznych w różnych warunkach. Pomiary powtarzane mogą być stosowane w eksperymentach jedno i wieloczynnikowych. Pomiary powtarzane są ze sobą silnie skorelowane, ponieważ są przeprowadzane na tych samych badanych jednostkach. Korelacje te zmniejszają składnik błędu. Zaletą eksperymentów z powtarzanymi pomiarami jest mała liczba jednostek statystycznych użyta do badania. 47 / 74

Pewne zagadnienia eksperymentalne wymagają bezwzględnie zastosowania planu z powtarzanymi pomiarami. Wadą eksperymentów z powtarzanymi pomiarami jest tzw. efekt przeniesienia, polegający na tym, że przeprowadzenie eksperymentu w jednych warunkach może wpływać na wynik eksperymentu w innych warunkach. Może występować efekt wyćwiczenia, zmęczenia, działania jeszcze wcześniej zastosowanego leku. 48 / 74

Pewne zagadnienia eksperymentalne wymagają bezwzględnie zastosowania planu z powtarzanymi pomiarami. Wadą eksperymentów z powtarzanymi pomiarami jest tzw. efekt przeniesienia, polegający na tym, że przeprowadzenie eksperymentu w jednych warunkach może wpływać na wynik eksperymentu w innych warunkach. Może występować efekt wyćwiczenia, zmęczenia, działania jeszcze wcześniej zastosowanego leku. 48 / 74

Model analizy wariancji jednoczynnikowej z powtarzanymi pomiarami X ij = µ + τ i + π j + ε ij, i = 1, 2,..., k, j = 1, 2,..., n, gdzie: X ij - i-ty pomiar dla j-tej jednostki, µ - średnia ogólna w populacji, τ i - efekt i-tego pomiaru (czynnik powtarzanych pomiarów - czynnik stały, zakładamy dodatkowo,że k τ i = 0, ) i=1 49 / 74

Model analizy wariancji jednoczynnikowej z powtarzanymi pomiarami X ij = µ + τ i + π j + ε ij, i = 1, 2,..., k, j = 1, 2,..., n, gdzie: X ij - i-ty pomiar dla j-tej jednostki, µ - średnia ogólna w populacji, τ i - efekt i-tego pomiaru (czynnik powtarzanych pomiarów - czynnik stały, zakładamy dodatkowo,że k τ i = 0, ) i=1 49 / 74

Model analizy wariancji jednoczynnikowej z powtarzanymi pomiarami X ij = µ + τ i + π j + ε ij, i = 1, 2,..., k, j = 1, 2,..., n, gdzie: X ij - i-ty pomiar dla j-tej jednostki, µ - średnia ogólna w populacji, τ i - efekt i-tego pomiaru (czynnik powtarzanych pomiarów - czynnik stały, zakładamy dodatkowo,że k τ i = 0, ) i=1 49 / 74

Model analizy wariancji jednoczynnikowej z powtarzanymi pomiarami X ij = µ + τ i + π j + ε ij, i = 1, 2,..., k, j = 1, 2,..., n, gdzie: X ij - i-ty pomiar dla j-tej jednostki, µ - średnia ogólna w populacji, τ i - efekt i-tego pomiaru (czynnik powtarzanych pomiarów - czynnik stały, zakładamy dodatkowo,że k τ i = 0, ) i=1 49 / 74

π j - efekt j-tej jednostki (czynnik losowy o rozkładzie normalnym i średniej 0), ε ij - zmienna losowa o rozkładzie normalnym N(0, σ), wyrażająca wpływy losowe. Weryfikujemy hipotezę: H A 0 : τ 1 = τ 2 =... = τ k = 0 o braku efektów powtarzanych pomiarów. 50 / 74

π j - efekt j-tej jednostki (czynnik losowy o rozkładzie normalnym i średniej 0), ε ij - zmienna losowa o rozkładzie normalnym N(0, σ), wyrażająca wpływy losowe. Weryfikujemy hipotezę: H A 0 : τ 1 = τ 2 =... = τ k = 0 o braku efektów powtarzanych pomiarów. 50 / 74

π j - efekt j-tej jednostki (czynnik losowy o rozkładzie normalnym i średniej 0), ε ij - zmienna losowa o rozkładzie normalnym N(0, σ), wyrażająca wpływy losowe. Weryfikujemy hipotezę: H A 0 : τ 1 = τ 2 =... = τ k = 0 o braku efektów powtarzanych pomiarów. 50 / 74

Analizę wariancji jednoczynnikową z powtarzanymi pomiarami możemy schematycznie przedstawić w tabeli: zmienność SS df MS Statystyka F pomiary SS efekt A k 1 MS A F A = MS A MS błąd jednostki SS jedn. n 1 MS jedn. - błąd SS błąd (k 1)(n 1) MS błąd - ogólna SS kn 1 - - Rozkład sumy kwadratów i stopni swobody jest taki sam jak w analizie dwuczynnikowej efektów głównych. 51 / 74

Oprócz założenia normalności i jednorodności wariacji we wszystkich grupach eksperyment z powtarzanymi pomiarami wymaga ponadto założenia jednorodności kowariancji wśród pomiarów tej samej jednostki. Zatem wszystkie warunki pomiarów powinny być w takim samym stopniu skorelowane (zależne). Założenie to nazywa się założeniem symetrii połączonej. Nieco słabszym założeniem, ale w zupełności wystarczającym dla jednowymiarowego testu F jest założenie o sferyczności. Zakłada ono równość wariancji różnic wszystkich par eksperymentalnych. 52 / 74

Oprócz założenia normalności i jednorodności wariacji we wszystkich grupach eksperyment z powtarzanymi pomiarami wymaga ponadto założenia jednorodności kowariancji wśród pomiarów tej samej jednostki. Zatem wszystkie warunki pomiarów powinny być w takim samym stopniu skorelowane (zależne). Założenie to nazywa się założeniem symetrii połączonej. Nieco słabszym założeniem, ale w zupełności wystarczającym dla jednowymiarowego testu F jest założenie o sferyczności. Zakłada ono równość wariancji różnic wszystkich par eksperymentalnych. 52 / 74

Oprócz założenia normalności i jednorodności wariacji we wszystkich grupach eksperyment z powtarzanymi pomiarami wymaga ponadto założenia jednorodności kowariancji wśród pomiarów tej samej jednostki. Zatem wszystkie warunki pomiarów powinny być w takim samym stopniu skorelowane (zależne). Założenie to nazywa się założeniem symetrii połączonej. Nieco słabszym założeniem, ale w zupełności wystarczającym dla jednowymiarowego testu F jest założenie o sferyczności. Zakłada ono równość wariancji różnic wszystkich par eksperymentalnych. 52 / 74

STATISTICA oferuje test Mauchley a, weryfikujący założenie o sferyczności. Statystyka testowa W przyjmuje wartości z przedziału [0, 1] i im mniejsza wartość tej statystyki, tym większe odchylenia od sferyczności. Test ten jest bardzo wrażliwy na odchylenia od wielowymiarowej normalności. W przypadku niespełnienia założenia o sferyczności możemy zastosować czynniki korygujące dla stopni swobody testu F: poprawka Greenhouse a-geissera, poprawka Huynha-Felda, poprawka ograniczenia dolnego. W przypadku niespełnienia założenia o sferyczności bardziej (w stosunku do poprawek) zalecane jest zastosowanie metod wielowymiarowej analizy wariancji (MANOVA), które nie wymagają założenia sferyczności. 53 / 74

STATISTICA oferuje test Mauchley a, weryfikujący założenie o sferyczności. Statystyka testowa W przyjmuje wartości z przedziału [0, 1] i im mniejsza wartość tej statystyki, tym większe odchylenia od sferyczności. Test ten jest bardzo wrażliwy na odchylenia od wielowymiarowej normalności. W przypadku niespełnienia założenia o sferyczności możemy zastosować czynniki korygujące dla stopni swobody testu F: poprawka Greenhouse a-geissera, poprawka Huynha-Felda, poprawka ograniczenia dolnego. W przypadku niespełnienia założenia o sferyczności bardziej (w stosunku do poprawek) zalecane jest zastosowanie metod wielowymiarowej analizy wariancji (MANOVA), które nie wymagają założenia sferyczności. 53 / 74

STATISTICA oferuje test Mauchley a, weryfikujący założenie o sferyczności. Statystyka testowa W przyjmuje wartości z przedziału [0, 1] i im mniejsza wartość tej statystyki, tym większe odchylenia od sferyczności. Test ten jest bardzo wrażliwy na odchylenia od wielowymiarowej normalności. W przypadku niespełnienia założenia o sferyczności możemy zastosować czynniki korygujące dla stopni swobody testu F: poprawka Greenhouse a-geissera, poprawka Huynha-Felda, poprawka ograniczenia dolnego. W przypadku niespełnienia założenia o sferyczności bardziej (w stosunku do poprawek) zalecane jest zastosowanie metod wielowymiarowej analizy wariancji (MANOVA), które nie wymagają założenia sferyczności. 53 / 74

STATISTICA oferuje test Mauchley a, weryfikujący założenie o sferyczności. Statystyka testowa W przyjmuje wartości z przedziału [0, 1] i im mniejsza wartość tej statystyki, tym większe odchylenia od sferyczności. Test ten jest bardzo wrażliwy na odchylenia od wielowymiarowej normalności. W przypadku niespełnienia założenia o sferyczności możemy zastosować czynniki korygujące dla stopni swobody testu F: poprawka Greenhouse a-geissera, poprawka Huynha-Felda, poprawka ograniczenia dolnego. W przypadku niespełnienia założenia o sferyczności bardziej (w stosunku do poprawek) zalecane jest zastosowanie metod wielowymiarowej analizy wariancji (MANOVA), które nie wymagają założenia sferyczności. 53 / 74

STATISTICA oferuje test Mauchley a, weryfikujący założenie o sferyczności. Statystyka testowa W przyjmuje wartości z przedziału [0, 1] i im mniejsza wartość tej statystyki, tym większe odchylenia od sferyczności. Test ten jest bardzo wrażliwy na odchylenia od wielowymiarowej normalności. W przypadku niespełnienia założenia o sferyczności możemy zastosować czynniki korygujące dla stopni swobody testu F: poprawka Greenhouse a-geissera, poprawka Huynha-Felda, poprawka ograniczenia dolnego. W przypadku niespełnienia założenia o sferyczności bardziej (w stosunku do poprawek) zalecane jest zastosowanie metod wielowymiarowej analizy wariancji (MANOVA), które nie wymagają założenia sferyczności. 53 / 74

STATISTICA oferuje test Mauchley a, weryfikujący założenie o sferyczności. Statystyka testowa W przyjmuje wartości z przedziału [0, 1] i im mniejsza wartość tej statystyki, tym większe odchylenia od sferyczności. Test ten jest bardzo wrażliwy na odchylenia od wielowymiarowej normalności. W przypadku niespełnienia założenia o sferyczności możemy zastosować czynniki korygujące dla stopni swobody testu F: poprawka Greenhouse a-geissera, poprawka Huynha-Felda, poprawka ograniczenia dolnego. W przypadku niespełnienia założenia o sferyczności bardziej (w stosunku do poprawek) zalecane jest zastosowanie metod wielowymiarowej analizy wariancji (MANOVA), które nie wymagają założenia sferyczności. 53 / 74

Przykład 4 Z populacji pacjentów z rozpoznaniem depresji o przebiegu psychozy maniakalno-depresyjnej pobrano próbę 20 osób, którym zaordynowano w sposób losowy jeden z dwóch leków antydepresyjnych: amitryptylinę i imipraminę. Leki te podawano pacjentom w równych odstępach. Efekty leczenia oceniano w skali jedenastostopniowej, klinicznej funkcjonowania pacjentów depresyjnych. Ocenę leczenia przeprowadzono pięciokrotnie co pięć dni (plik dwa leki.sta.) 54 / 74

Sprawdzamy założenia analizy wariancji z powtarzanymi pomiarami: Wykresy normalności nie wykrywają istotnych odchyleń od normalności w badanych grupach. Test Levene a jednorodności wariancji wykazuje pewne różnice wariancji rozkładów dla Okresu 2, ale pozostałe testy jednorodności wariancji nie wykrywają tych różnic. Sprawdzamy założenie sferyczności testem Mauchleya. Założenie jest poważnie naruszone (p = 0, 002231) i wartość statystyki jest niewielka W = 0, 208. 55 / 74

Sprawdzamy założenia analizy wariancji z powtarzanymi pomiarami: Wykresy normalności nie wykrywają istotnych odchyleń od normalności w badanych grupach. Test Levene a jednorodności wariancji wykazuje pewne różnice wariancji rozkładów dla Okresu 2, ale pozostałe testy jednorodności wariancji nie wykrywają tych różnic. Sprawdzamy założenie sferyczności testem Mauchleya. Założenie jest poważnie naruszone (p = 0, 002231) i wartość statystyki jest niewielka W = 0, 208. 55 / 74

Sprawdzamy założenia analizy wariancji z powtarzanymi pomiarami: Wykresy normalności nie wykrywają istotnych odchyleń od normalności w badanych grupach. Test Levene a jednorodności wariancji wykazuje pewne różnice wariancji rozkładów dla Okresu 2, ale pozostałe testy jednorodności wariancji nie wykrywają tych różnic. Sprawdzamy założenie sferyczności testem Mauchleya. Założenie jest poważnie naruszone (p = 0, 002231) i wartość statystyki jest niewielka W = 0, 208. 55 / 74

Sprawdzamy założenia analizy wariancji z powtarzanymi pomiarami: Wykresy normalności nie wykrywają istotnych odchyleń od normalności w badanych grupach. Test Levene a jednorodności wariancji wykazuje pewne różnice wariancji rozkładów dla Okresu 2, ale pozostałe testy jednorodności wariancji nie wykrywają tych różnic. Sprawdzamy założenie sferyczności testem Mauchleya. Założenie jest poważnie naruszone (p = 0, 002231) i wartość statystyki jest niewielka W = 0, 208. 55 / 74

Musimy skorzystać ze skorygowanych testów jednowymiarowych (poprawki na df), a najlepiej z ANOVA wielowymiarowa. Widzimy, że poprawka Greenhouse a-geissera, poprawka Huynha-Feldta, jak i poprawka ograniczenia dolnego potwierdzają wynik jednowymiarowy o istotnym wpływie CZASU i interakcji pomiędzy LEKIEM i CZASEM. 56 / 74

Musimy skorzystać ze skorygowanych testów jednowymiarowych (poprawki na df), a najlepiej z ANOVA wielowymiarowa. Widzimy, że poprawka Greenhouse a-geissera, poprawka Huynha-Feldta, jak i poprawka ograniczenia dolnego potwierdzają wynik jednowymiarowy o istotnym wpływie CZASU i interakcji pomiędzy LEKIEM i CZASEM. 56 / 74

Musimy skorzystać ze skorygowanych testów jednowymiarowych (poprawki na df), a najlepiej z ANOVA wielowymiarowa. Widzimy, że poprawka Greenhouse a-geissera, poprawka Huynha-Feldta, jak i poprawka ograniczenia dolnego potwierdzają wynik jednowymiarowy o istotnym wpływie CZASU i interakcji pomiędzy LEKIEM i CZASEM. 56 / 74

Sprawdźmy jeszcze wynik testów wielowymiarowych, nie wymagających spełnienia założenia sferyczności. Testy wielowymiarowe zdecydowanie potwierdzają wynik testu jednowymiarowego. 57 / 74

Sprawdźmy jeszcze wynik testów wielowymiarowych, nie wymagających spełnienia założenia sferyczności. Testy wielowymiarowe zdecydowanie potwierdzają wynik testu jednowymiarowego. 57 / 74

Sprawdźmy jeszcze wynik testów wielowymiarowych, nie wymagających spełnienia założenia sferyczności. Testy wielowymiarowe zdecydowanie potwierdzają wynik testu jednowymiarowego. 57 / 74

Pacjenci depresyjni zażywający lek imipramina funkcjonują istotnie lepiej od pacjentów zażywających lek amitryptylina. 58 / 74

Pacjenci depresyjni zażywający lek imipramina funkcjonują istotnie lepiej od pacjentów zażywających lek amitryptylina. 58 / 74

Stwierdzamy wysoką istotność poprawy funkcjonowania pacjentów w czasie. 59 / 74

Stwierdzamy wysoką istotność poprawy funkcjonowania pacjentów w czasie. 59 / 74

60 / 74

Wykres pokazuje, że interakcja czynnika LEK i CZAS polega na szybszej poprawie funkcjonowania pacjentów szczególnie w początkowym okresie przy zastosowaniu leku imipramina, podczas, gdy poprawa zdrowia przy zastosowaniu amitryptyliny następuje później i trochę słabiej. 61 / 74

Test Friedmana - ANOVA nieparametryczna dla pomiarów powtarzanych Jeśli nie spełnione jest założenie o normalności rozkładów, czy jednorodności wariancji w eksperymencie z powtarzanymi pomiarami przeprowadzamy nieparametryczny test Friedmana. Test ten zakłada, że zmienne są mierzone przynajmniej w skali porządkowej. Dane wprowadzamy kolumnami, tak, że wartości kolejnych pomiarów zapisywane są w kolejnych kolumnach (zmiennych). Najczęściej są to wyniki dla tych samych osób uzyskane w k różnych badaniach. 62 / 74

Test Friedmana - ANOVA nieparametryczna dla pomiarów powtarzanych Jeśli nie spełnione jest założenie o normalności rozkładów, czy jednorodności wariancji w eksperymencie z powtarzanymi pomiarami przeprowadzamy nieparametryczny test Friedmana. Test ten zakłada, że zmienne są mierzone przynajmniej w skali porządkowej. Dane wprowadzamy kolumnami, tak, że wartości kolejnych pomiarów zapisywane są w kolejnych kolumnach (zmiennych). Najczęściej są to wyniki dla tych samych osób uzyskane w k różnych badaniach. 62 / 74

Test Friedmana - ANOVA nieparametryczna dla pomiarów powtarzanych Jeśli nie spełnione jest założenie o normalności rozkładów, czy jednorodności wariancji w eksperymencie z powtarzanymi pomiarami przeprowadzamy nieparametryczny test Friedmana. Test ten zakłada, że zmienne są mierzone przynajmniej w skali porządkowej. Dane wprowadzamy kolumnami, tak, że wartości kolejnych pomiarów zapisywane są w kolejnych kolumnach (zmiennych). Najczęściej są to wyniki dla tych samych osób uzyskane w k różnych badaniach. 62 / 74

Test Friedmana - ANOVA nieparametryczna dla pomiarów powtarzanych Jeśli nie spełnione jest założenie o normalności rozkładów, czy jednorodności wariancji w eksperymencie z powtarzanymi pomiarami przeprowadzamy nieparametryczny test Friedmana. Test ten zakłada, że zmienne są mierzone przynajmniej w skali porządkowej. Dane wprowadzamy kolumnami, tak, że wartości kolejnych pomiarów zapisywane są w kolejnych kolumnach (zmiennych). Najczęściej są to wyniki dla tych samych osób uzyskane w k różnych badaniach. 62 / 74

Weryfikujemy hipotezę zerową, że kolumny danych zawierają próby pobrane z tej samej populacji (populacje, z których pochodzą próby mają takie same rozkłady). Hipoteza alternatywna jest zaprzeczeniem hipotezy zerowej. Rangujemy wartości w wierszach (rangujemy pomiary dla każdej jednostki) i sumujemy rangi w kolumnach (grupach, które porównujemy). 63 / 74

Weryfikujemy hipotezę zerową, że kolumny danych zawierają próby pobrane z tej samej populacji (populacje, z których pochodzą próby mają takie same rozkłady). Hipoteza alternatywna jest zaprzeczeniem hipotezy zerowej. Rangujemy wartości w wierszach (rangujemy pomiary dla każdej jednostki) i sumujemy rangi w kolumnach (grupach, które porównujemy). 63 / 74

Statystyka testowa oparta jest na sumie kwadratów różnic rang obserwowanych z sumą rang oczekiwanych χ 2 = 12 nk(k + 1) 12 nk(k + 1) k i=1 ( R i ) n(k + 1) 2 = 2 k Ri 2 3n(k + 1), i=1 gdzie R i - suma rang i-tego pomiaru, k - liczba pomiarów (grup), n - liczba jednostek statystycznych (liczba obserwacji w grupie). 64 / 74

Statystyka ta przy założeniu prawdziwości hipotezy zerowej ma asymptotyczny rozkład χ 2 z k 1 stopniami swobody. Obszar krytyczny jest prawostronny, gdyż duże różnice sum rang obserwowanych i oczekiwanych, wskazują na fałszywość testowanej hipotezy zerowej. Przybliżenie rozkładem χ 2 jest prawdziwe dla dużych n lub k (n > 15 lub k > 4). Dla mniejszych prób należy korzystać z dokładnego rozkładu statystyki. 65 / 74

Statystyka ta przy założeniu prawdziwości hipotezy zerowej ma asymptotyczny rozkład χ 2 z k 1 stopniami swobody. Obszar krytyczny jest prawostronny, gdyż duże różnice sum rang obserwowanych i oczekiwanych, wskazują na fałszywość testowanej hipotezy zerowej. Przybliżenie rozkładem χ 2 jest prawdziwe dla dużych n lub k (n > 15 lub k > 4). Dla mniejszych prób należy korzystać z dokładnego rozkładu statystyki. 65 / 74

Statystyka ta przy założeniu prawdziwości hipotezy zerowej ma asymptotyczny rozkład χ 2 z k 1 stopniami swobody. Obszar krytyczny jest prawostronny, gdyż duże różnice sum rang obserwowanych i oczekiwanych, wskazują na fałszywość testowanej hipotezy zerowej. Przybliżenie rozkładem χ 2 jest prawdziwe dla dużych n lub k (n > 15 lub k > 4). Dla mniejszych prób należy korzystać z dokładnego rozkładu statystyki. 65 / 74

Wartość statystyki z poprawką na rangi wiązane wyliczamy ze wzoru χ 2 p = χ 2 s n j (t 3 jk t jk ) j=1 k=1 1 n(k 3 k) gdzie s j - liczba rang wiązanych dla j-tej jednostki (w wierszu), t jk - liczba obserwacji w k-tej randze wiązanej w j-tym wierszu., 66 / 74

Wartość statystyki z poprawką na rangi wiązane wyliczamy ze wzoru χ 2 p = χ 2 s n j (t 3 jk t jk ) j=1 k=1 1 n(k 3 k) gdzie s j - liczba rang wiązanych dla j-tej jednostki (w wierszu), t jk - liczba obserwacji w k-tej randze wiązanej w j-tym wierszu., 66 / 74

Współczynnik zgodności W Kendalla Współczynnik zgodności W Kendalla jest unormowaną wersją statystyki Friedmana. Jest on używany do badania zgodności pomiędzy rankingami pochodzącymi z wielu źródeł, na przykład ocenami wielu ekspertów. Przyjmuje on wartości z przedziału [0, 1], gdzie 0 oznacza całkowity brak zgodności, a 1 pełną zgodność. Współczynnik ten jest stosowany często w psychometrii do badania zgodności sędziów kompetentnych. 67 / 74

Współczynnik zgodności W Kendalla Współczynnik zgodności W Kendalla jest unormowaną wersją statystyki Friedmana. Jest on używany do badania zgodności pomiędzy rankingami pochodzącymi z wielu źródeł, na przykład ocenami wielu ekspertów. Przyjmuje on wartości z przedziału [0, 1], gdzie 0 oznacza całkowity brak zgodności, a 1 pełną zgodność. Współczynnik ten jest stosowany często w psychometrii do badania zgodności sędziów kompetentnych. 67 / 74

Współczynnik zgodności W Kendalla Współczynnik zgodności W Kendalla jest unormowaną wersją statystyki Friedmana. Jest on używany do badania zgodności pomiędzy rankingami pochodzącymi z wielu źródeł, na przykład ocenami wielu ekspertów. Przyjmuje on wartości z przedziału [0, 1], gdzie 0 oznacza całkowity brak zgodności, a 1 pełną zgodność. Współczynnik ten jest stosowany często w psychometrii do badania zgodności sędziów kompetentnych. 67 / 74

Współczynnik zgodności W Kendalla Współczynnik zgodności W Kendalla jest unormowaną wersją statystyki Friedmana. Jest on używany do badania zgodności pomiędzy rankingami pochodzącymi z wielu źródeł, na przykład ocenami wielu ekspertów. Przyjmuje on wartości z przedziału [0, 1], gdzie 0 oznacza całkowity brak zgodności, a 1 pełną zgodność. Współczynnik ten jest stosowany często w psychometrii do badania zgodności sędziów kompetentnych. 67 / 74

Współczynnik W Kendalla obliczamy ze wzoru W = χ 2 n(k 1). Aby ocenić jaki procent ogólnej wariancji ocen stanowi wspólna wariancja ocen, wyliczamy kwadrat ( r r ) 2 średniej korelacji rangowej ocen r r = nw 1 n 1. 68 / 74

Współczynnik W Kendalla obliczamy ze wzoru W = χ 2 n(k 1). Aby ocenić jaki procent ogólnej wariancji ocen stanowi wspólna wariancja ocen, wyliczamy kwadrat ( r r ) 2 średniej korelacji rangowej ocen r r = nw 1 n 1. 68 / 74

Przykład 5 Losowa próbę 12 konsumentów poproszono o określenie rankingu preferencji co do czterech nowych zapachów, które producent perfum chce wprowadzić na rynek jesienią. Zapach, który najbardziej się podobał miał rangę 1, a ten który najmniej się podobał miał rangę 4. 69 / 74

70 / 74

Wartość statystyki Friedmana wynosi χ 2 = 20, 4, p = 0, 00014, a więc na podstawie testu nieparametrycznego ANOVA możemy na podstawie ocen badanych respondentów stwierdzić istotne różnice w preferencji badanych zapachów przez konsumentów. 71 / 74

Współczynnik zgodności Kendalla wynosi 0, 57, a średnia korelacja rangowa 0, 53. Zgodność pomiędzy ocenami konsumentów jest znaczna, korelacja pomiędzy ocenami jest silna. 72 / 74

73 / 74

Statystyka jest bardziej sposobem myślenia lub wnioskowania niż pęczkiem recept na młócenie danych w celu odsłonięcia odpowiedzi. C. R. Rao