Analiza wariancji, część 2 1 / 74
Analiza kontrastów a priori Testy post hoc porównują wszystkie możliwe pary średnich i wykonuje się je dopiero po stwierdzeniu za pomocą testu F istotności danego czynnika. Kontrasty (porównania) a priori (planowane), to te które planuje się przed przeprowadzeniem eksperymentu. Wynikają one z teorii (merytorycznego uzasadnienia), na której opiera się eksperyment. Na przykład, jeśli badamy wpływ czynnika kontrolowanego na trzech poziomach i chcemy sprawdzić, czy pierwsza z tych grup różni się od pozostałych, to hipoteza zerowa ma postać H 0 : µ 1 = µ 2+µ 3 2, co możemy zapisać w postaci: H 0 : µ 1 1 2 µ 2 1 2 µ 3 = 0 lub H 0 : 2µ 1 µ 2 µ 3 = 0. 2 / 74
Analiza kontrastów a priori Testy post hoc porównują wszystkie możliwe pary średnich i wykonuje się je dopiero po stwierdzeniu za pomocą testu F istotności danego czynnika. Kontrasty (porównania) a priori (planowane), to te które planuje się przed przeprowadzeniem eksperymentu. Wynikają one z teorii (merytorycznego uzasadnienia), na której opiera się eksperyment. Na przykład, jeśli badamy wpływ czynnika kontrolowanego na trzech poziomach i chcemy sprawdzić, czy pierwsza z tych grup różni się od pozostałych, to hipoteza zerowa ma postać H 0 : µ 1 = µ 2+µ 3 2, co możemy zapisać w postaci: H 0 : µ 1 1 2 µ 2 1 2 µ 3 = 0 lub H 0 : 2µ 1 µ 2 µ 3 = 0. 2 / 74
Analiza kontrastów a priori Testy post hoc porównują wszystkie możliwe pary średnich i wykonuje się je dopiero po stwierdzeniu za pomocą testu F istotności danego czynnika. Kontrasty (porównania) a priori (planowane), to te które planuje się przed przeprowadzeniem eksperymentu. Wynikają one z teorii (merytorycznego uzasadnienia), na której opiera się eksperyment. Na przykład, jeśli badamy wpływ czynnika kontrolowanego na trzech poziomach i chcemy sprawdzić, czy pierwsza z tych grup różni się od pozostałych, to hipoteza zerowa ma postać H 0 : µ 1 = µ 2+µ 3 2, co możemy zapisać w postaci: H 0 : µ 1 1 2 µ 2 1 2 µ 3 = 0 lub H 0 : 2µ 1 µ 2 µ 3 = 0. 2 / 74
Aby przetestować tą hipotezę należy przypisać wagi c 1 = 2, c 2 = 1, c 3 = 1 odpowiednim średnim. Kontrastem liniowym dla k średnich w populacji µ 1, µ 2,... µ k nazywamy każdą liniową funkcję K = k c i µ i, gdzie k c i = 0. i=1 i=1 Kontrast jest więc ważoną sumą średnich. K = k c i x i jest oceną z próby tego kontrastu. i=1 3 / 74
Aby przetestować tą hipotezę należy przypisać wagi c 1 = 2, c 2 = 1, c 3 = 1 odpowiednim średnim. Kontrastem liniowym dla k średnich w populacji µ 1, µ 2,... µ k nazywamy każdą liniową funkcję K = k c i µ i, gdzie k c i = 0. i=1 i=1 Kontrast jest więc ważoną sumą średnich. K = k c i x i jest oceną z próby tego kontrastu. i=1 3 / 74
Aby przetestować tą hipotezę należy przypisać wagi c 1 = 2, c 2 = 1, c 3 = 1 odpowiednim średnim. Kontrastem liniowym dla k średnich w populacji µ 1, µ 2,... µ k nazywamy każdą liniową funkcję K = k c i µ i, gdzie k c i = 0. i=1 i=1 Kontrast jest więc ważoną sumą średnich. K = k c i x i jest oceną z próby tego kontrastu. i=1 3 / 74
Suma kwadratów, za które odpowiedzialny jest kontrast dana jest wzorem SS K = K 2, gdzie r jest liczbą powtórzeń. 1 r k c 2 i i=1 Ponieważ kontrast jest różnicą między dwoma zbiorami średnich (jedna z wagami dodatnimi, a druga ujemnymi), to liczba stopni swobody związana z kontrastem wynosi 1. Test F do weryfikacji istotności kontrastu przyjmuje postać: F = MS K MS błąd = SS K SS błąd = SS K(n k) SS błąd. n k 4 / 74
Suma kwadratów, za które odpowiedzialny jest kontrast dana jest wzorem SS K = K 2, gdzie r jest liczbą powtórzeń. 1 r k c 2 i i=1 Ponieważ kontrast jest różnicą między dwoma zbiorami średnich (jedna z wagami dodatnimi, a druga ujemnymi), to liczba stopni swobody związana z kontrastem wynosi 1. Test F do weryfikacji istotności kontrastu przyjmuje postać: F = MS K MS błąd = SS K SS błąd = SS K(n k) SS błąd. n k 4 / 74
Suma kwadratów, za które odpowiedzialny jest kontrast dana jest wzorem SS K = K 2, gdzie r jest liczbą powtórzeń. 1 r k c 2 i i=1 Ponieważ kontrast jest różnicą między dwoma zbiorami średnich (jedna z wagami dodatnimi, a druga ujemnymi), to liczba stopni swobody związana z kontrastem wynosi 1. Test F do weryfikacji istotności kontrastu przyjmuje postać: F = MS K MS błąd = SS K SS błąd = SS K(n k) SS błąd. n k 4 / 74
Istotność pojedynczego kontrastu można weryfikować też za pomocą statystyki t = K MS błąd 1 r k c 2 i i=1, która przy założeniu zerowego kontrastu ma rozkład t Studenta z n k stopniami swobody. Statystyka ta służy też do wyznaczania przedziałów ufności dla kontrastów: K ± t(1 α 2 ; n k) MS błąd 1 r k c 2 i. i=1 5 / 74
Istotność pojedynczego kontrastu można weryfikować też za pomocą statystyki t = K MS błąd 1 r k c 2 i i=1, która przy założeniu zerowego kontrastu ma rozkład t Studenta z n k stopniami swobody. Statystyka ta służy też do wyznaczania przedziałów ufności dla kontrastów: K ± t(1 α 2 ; n k) MS błąd 1 r k c 2 i. i=1 5 / 74
Definiowanie kontrastów 1 Kontrast zawiera zawsze tyle współczynników, ile jest poziomów czynnika (średnich). 2 Średnim, które mają być pominięte w kontraście przypisujemy wartość 0. 3 Średnim, które mają być porównywane nawzajem przypisujemy wartości o przeciwnych znakach. 4 Średnim, które mają być łączone przypisujemy jednakowe wartości. 5 Suma współczynników musi być równa 0. 6 / 74
Definiowanie kontrastów 1 Kontrast zawiera zawsze tyle współczynników, ile jest poziomów czynnika (średnich). 2 Średnim, które mają być pominięte w kontraście przypisujemy wartość 0. 3 Średnim, które mają być porównywane nawzajem przypisujemy wartości o przeciwnych znakach. 4 Średnim, które mają być łączone przypisujemy jednakowe wartości. 5 Suma współczynników musi być równa 0. 6 / 74
Definiowanie kontrastów 1 Kontrast zawiera zawsze tyle współczynników, ile jest poziomów czynnika (średnich). 2 Średnim, które mają być pominięte w kontraście przypisujemy wartość 0. 3 Średnim, które mają być porównywane nawzajem przypisujemy wartości o przeciwnych znakach. 4 Średnim, które mają być łączone przypisujemy jednakowe wartości. 5 Suma współczynników musi być równa 0. 6 / 74
Definiowanie kontrastów 1 Kontrast zawiera zawsze tyle współczynników, ile jest poziomów czynnika (średnich). 2 Średnim, które mają być pominięte w kontraście przypisujemy wartość 0. 3 Średnim, które mają być porównywane nawzajem przypisujemy wartości o przeciwnych znakach. 4 Średnim, które mają być łączone przypisujemy jednakowe wartości. 5 Suma współczynników musi być równa 0. 6 / 74
Definiowanie kontrastów 1 Kontrast zawiera zawsze tyle współczynników, ile jest poziomów czynnika (średnich). 2 Średnim, które mają być pominięte w kontraście przypisujemy wartość 0. 3 Średnim, które mają być porównywane nawzajem przypisujemy wartości o przeciwnych znakach. 4 Średnim, które mają być łączone przypisujemy jednakowe wartości. 5 Suma współczynników musi być równa 0. 6 / 74
Predefiniowane kontrasty W programie Statistica możemy korzystać z pewnych zdefiniowanych kontrastów: Odchylenie - kontrast służący do porównania odchyleń każdej średniej grupowej od średniej ogólnej zmiennej zależnej. Na przykład dla czynnika o trzech poziomach, jeśli chcemy porównać µ 1 z µ 1+µ 2 +µ 3 3, mamy µ 1 µ 1+µ 2 +µ 3 3 = 2µ 1 µ 2 µ 3 = 0, czyli dostajemy kontrast (2, 1, 1). Podobnie, porównując µ 2 ze średnią µ 1+µ 2 +µ 3 3, dostajemy kontrast ( 1, 2, 1). Mamy więc macierz kontrastów (2, 1, 1) ( 1, 2, 1) ( 1, 1, 2) 7 / 74
Predefiniowane kontrasty W programie Statistica możemy korzystać z pewnych zdefiniowanych kontrastów: Odchylenie - kontrast służący do porównania odchyleń każdej średniej grupowej od średniej ogólnej zmiennej zależnej. Na przykład dla czynnika o trzech poziomach, jeśli chcemy porównać µ 1 z µ 1+µ 2 +µ 3 3, mamy µ 1 µ 1+µ 2 +µ 3 3 = 2µ 1 µ 2 µ 3 = 0, czyli dostajemy kontrast (2, 1, 1). Podobnie, porównując µ 2 ze średnią µ 1+µ 2 +µ 3 3, dostajemy kontrast ( 1, 2, 1). Mamy więc macierz kontrastów (2, 1, 1) ( 1, 2, 1) ( 1, 1, 2) 7 / 74
Różnica - kontrast służący do porównywania średniej ze średnią wszystkich poprzednich poziomów. Dla czynnika o trzech poziomach mamy porównania: µ 1 z µ 2 oraz µ 3 z µ 1+µ 2 2, czyli mamy macierz kontrastów ( 1, 1, 0) ( 1, 1, 2) 8 / 74
Helmerta - kontrast porównuje średnią danego poziomu ze średnią wszystkich następnych poziomów badanego czynnika. W przypadku istotności sprawdzamy wkład każdego z kontrastów wyliczając proporcję zmienności, którą możemy przypisać danemu kontrastowi. Dla trzech poziomów macierz kontrastów ma postać: (2, 1, 1) (0, 1, 1) 9 / 74
Prosty - ten kontrast służy do porównywania średniej dla każdego poziomu ze średnią ostatniego poziomu. Dla trzech poziomów otrzymujemy macierz kontrastów (1, 0, 1) (0, 1, 1) Powtarzany - ten kontrast służy do porównywania średnich sąsiednich poziomów czynnika. Dla trzech poziomów mamy macierz kontrastów (1, 1, 0) (0, 1, 1) 10 / 74
Prosty - ten kontrast służy do porównywania średniej dla każdego poziomu ze średnią ostatniego poziomu. Dla trzech poziomów otrzymujemy macierz kontrastów (1, 0, 1) (0, 1, 1) Powtarzany - ten kontrast służy do porównywania średnich sąsiednich poziomów czynnika. Dla trzech poziomów mamy macierz kontrastów (1, 1, 0) (0, 1, 1) 10 / 74
Wykrywanie trendu Za pomocą odpowiednich kontrastów możemy wykryć kształt badanej zależności, czyli trend: liniowy, kwadratowy, sześcienny, itd. Oczywiście, aby mówić o trendzie liniowym, powinniśmy mieć co najmniej trzy średnie (dwa punkty zawsze można połączyć prostą). Aby mówić o trendzie kwadratowym, potrzebujemy mieć co najmniej trzy średnie, a o trendzie sześciennym cztery średnie, itd. 11 / 74
Wykrywanie trendu Za pomocą odpowiednich kontrastów możemy wykryć kształt badanej zależności, czyli trend: liniowy, kwadratowy, sześcienny, itd. Oczywiście, aby mówić o trendzie liniowym, powinniśmy mieć co najmniej trzy średnie (dwa punkty zawsze można połączyć prostą). Aby mówić o trendzie kwadratowym, potrzebujemy mieć co najmniej trzy średnie, a o trendzie sześciennym cztery średnie, itd. 11 / 74
Wykrywanie trendu Liczba średnich Kontrast Wagi kontrastu 2 liniowy (-1,1) 3 liniowy (-1,0,1) kwadratowy (1,-2,1) 4 liniowy (-3,-1,1,3) kwadratowy (1,-1,-1,1) sześcienny (-1,3,-3,1) 5 liniowy (-2,-1,0,1,2) kwadratowy (2,-1,-2,-1,2) sześcienny (-1,2,0,-2,1) 6 liniowy (-5,-3,-1,1,3,5) kwadratowy (5,-1,-4,-4,-1,5) sześcienny (-5,7,4,-4,-7,5) 12 / 74
Analizę kontrastów można przeprowadzać w analogiczny sposób dla doświadczeń wieloczynnikowych (także w planach z powtarzanymi pomiarami). 13 / 74
Kontrasty ortogonalne Kontrasty ortogonalne Dwa kontrasty K 1 = k c 1i µ i i K 2 = k c 2i µ i są względem siebie i=1 ortogonalne, gdy suma iloczynów odpowiadających sobie wag jest równa zero (niezależność wektorów), czyli i=1 k c 1i c 2i = 0. i=1 Zbiór m kontrastów tworzy zbiór kontrastów względem siebie ortogonalny, gdy wszystkie pary kontrastów w tym zbiorze są ortogonalne. 14 / 74
Kontrasty ortogonalne Kontrasty ortogonalne Dwa kontrasty K 1 = k c 1i µ i i K 2 = k c 2i µ i są względem siebie i=1 ortogonalne, gdy suma iloczynów odpowiadających sobie wag jest równa zero (niezależność wektorów), czyli i=1 k c 1i c 2i = 0. i=1 Zbiór m kontrastów tworzy zbiór kontrastów względem siebie ortogonalny, gdy wszystkie pary kontrastów w tym zbiorze są ortogonalne. 14 / 74
1 Dla zbioru k średnich możemy utworzyć maksymalnie k 1 kontrastów ortogonalnych. 2 Suma sum kwadratów k 1 ortogonalnych kontrastów daje sumę kwadratów dla efektu badanego czynnika. 3 Rozkład sumy kwadratów na kontrasty ortogonalne nie jest jednoznaczny (możemy budować różne zbiory kontrastów ortogonalnych). 4 Nie musimy badać wszystkich kontrastów ortogonalnych. Najczęściej mamy konkretne interesujące nas kontrasty badawcze. Pozostałe kontrasty można powiązać w efekt łączny, tworząc kontrast pomiędzy średnimi wykorzystanymi i niewykorzystanymi w dotychczasowych kontrastach. 15 / 74
1 Dla zbioru k średnich możemy utworzyć maksymalnie k 1 kontrastów ortogonalnych. 2 Suma sum kwadratów k 1 ortogonalnych kontrastów daje sumę kwadratów dla efektu badanego czynnika. 3 Rozkład sumy kwadratów na kontrasty ortogonalne nie jest jednoznaczny (możemy budować różne zbiory kontrastów ortogonalnych). 4 Nie musimy badać wszystkich kontrastów ortogonalnych. Najczęściej mamy konkretne interesujące nas kontrasty badawcze. Pozostałe kontrasty można powiązać w efekt łączny, tworząc kontrast pomiędzy średnimi wykorzystanymi i niewykorzystanymi w dotychczasowych kontrastach. 15 / 74
1 Dla zbioru k średnich możemy utworzyć maksymalnie k 1 kontrastów ortogonalnych. 2 Suma sum kwadratów k 1 ortogonalnych kontrastów daje sumę kwadratów dla efektu badanego czynnika. 3 Rozkład sumy kwadratów na kontrasty ortogonalne nie jest jednoznaczny (możemy budować różne zbiory kontrastów ortogonalnych). 4 Nie musimy badać wszystkich kontrastów ortogonalnych. Najczęściej mamy konkretne interesujące nas kontrasty badawcze. Pozostałe kontrasty można powiązać w efekt łączny, tworząc kontrast pomiędzy średnimi wykorzystanymi i niewykorzystanymi w dotychczasowych kontrastach. 15 / 74
1 Dla zbioru k średnich możemy utworzyć maksymalnie k 1 kontrastów ortogonalnych. 2 Suma sum kwadratów k 1 ortogonalnych kontrastów daje sumę kwadratów dla efektu badanego czynnika. 3 Rozkład sumy kwadratów na kontrasty ortogonalne nie jest jednoznaczny (możemy budować różne zbiory kontrastów ortogonalnych). 4 Nie musimy badać wszystkich kontrastów ortogonalnych. Najczęściej mamy konkretne interesujące nas kontrasty badawcze. Pozostałe kontrasty można powiązać w efekt łączny, tworząc kontrast pomiędzy średnimi wykorzystanymi i niewykorzystanymi w dotychczasowych kontrastach. 15 / 74
Miara r 2 = SS K SS efekt, wyrażana w procentach, informuje w jakim procencie dany kontrast wyjaśnia zmienność wśród zmiennych grupowych. 16 / 74
Przykład 1 Badano wpływ czterech dawek pewnego leku na poprawę zdrowia pacjentów z depresją. Ocenę stanu zdrowia przeprowadzono według pewnej umownej skali, przy czym wyższym wartościom tej skali odpowiada większe nasilenie choroby. W badaniu uwzględniono również płeć pacjentów. Eksperyment przeprowadzono dla 32 losowo wybranych pacjentów (4 poziomy dawki x 2 rodzaje płci x 4 powtórzenia). Eksperymentatorów interesowała zależność funkcyjna między wielkością dawki a stanem zdrowia pacjenta. 17 / 74
Obserwacje z eksperymentu zawiera plik depresja.sta. Wykresy normalności nie wykazują istotnych odchyleń rozkładu oceny zdrowia dla poszczególnych poziomów badanych czynników od rozkładu normalnego. Test Levene a nie wykrywa istotnych różnic pomiędzy wariancjami grupowymi. 18 / 74
Obserwacje z eksperymentu zawiera plik depresja.sta. Wykresy normalności nie wykazują istotnych odchyleń rozkładu oceny zdrowia dla poszczególnych poziomów badanych czynników od rozkładu normalnego. Test Levene a nie wykrywa istotnych różnic pomiędzy wariancjami grupowymi. 18 / 74
Obserwacje z eksperymentu zawiera plik depresja.sta. Wykresy normalności nie wykazują istotnych odchyleń rozkładu oceny zdrowia dla poszczególnych poziomów badanych czynników od rozkładu normalnego. Test Levene a nie wykrywa istotnych różnic pomiędzy wariancjami grupowymi. 18 / 74
Wykres interakcji ma następującą postać. Wykres ten wskazuje na istnienie trendu liniowego dla kobiet i trendu kwadratowego dla mężczyzn. 19 / 74
Aby zbadać kontrast liniowy dla kobiet określamy kontrast dla zmiennej PŁEĆ (1,0) i wybieramy ze zdefiniowanych kontrastów kontrast liniowy dla czynnika DAWKA (-3,-1,1,3). Trend liniowy jest wysoce istotny. Zwiększenie dawki powoduje liniowy wzrost średniego stopnia poprawy zdrowia. 20 / 74
Badanie trendu kwadratowego, wykazuje jego nieistotność. 21 / 74
U mężczyzn trend liniowy jest nieistotny (p = 0, 0845), natomiast występuje wysoce istotny trend kwadratowy (p = 0, 000003). Początkowe zwiększanie dawki leku u mężczyzn powoduje szybką poprawę stanu zdrowia. Dalsze zwiększanie dawki powoduje jednak pogorszenia stanu zdrowia pacjentów. 22 / 74
Porównania zaplanowane traktujemy jako alternatywę wobec ogólnego testu F. Oznacza, to, że po wykonaniu analizy kontrastów nie powinniśmy przeprowadzać już tradycyjnej analizy wariancji i testów post-hoc. Dzięki sprawdzaniu istotności konkretnych porównań, mamy większą moc testu niż w testach post-hoc. Jeśli chcemy zweryfikować kilka kontrastów zwykle stosujemy kontrasty ortogonalne. 23 / 74
Porównania zaplanowane traktujemy jako alternatywę wobec ogólnego testu F. Oznacza, to, że po wykonaniu analizy kontrastów nie powinniśmy przeprowadzać już tradycyjnej analizy wariancji i testów post-hoc. Dzięki sprawdzaniu istotności konkretnych porównań, mamy większą moc testu niż w testach post-hoc. Jeśli chcemy zweryfikować kilka kontrastów zwykle stosujemy kontrasty ortogonalne. 23 / 74
Porównania zaplanowane traktujemy jako alternatywę wobec ogólnego testu F. Oznacza, to, że po wykonaniu analizy kontrastów nie powinniśmy przeprowadzać już tradycyjnej analizy wariancji i testów post-hoc. Dzięki sprawdzaniu istotności konkretnych porównań, mamy większą moc testu niż w testach post-hoc. Jeśli chcemy zweryfikować kilka kontrastów zwykle stosujemy kontrasty ortogonalne. 23 / 74
Porównania zaplanowane traktujemy jako alternatywę wobec ogólnego testu F. Oznacza, to, że po wykonaniu analizy kontrastów nie powinniśmy przeprowadzać już tradycyjnej analizy wariancji i testów post-hoc. Dzięki sprawdzaniu istotności konkretnych porównań, mamy większą moc testu niż w testach post-hoc. Jeśli chcemy zweryfikować kilka kontrastów zwykle stosujemy kontrasty ortogonalne. 23 / 74
Hierarchiczna analiza wariancji (układ zagnieżdżony) Układy hierarchiczne umożliwiają analizę planów doświadczalnych, gdy dla różnych poziomów pewnych czynników występują inne poziomy czynników w nich zagnieżdżonych. Układy zagnieżdżone są układami niekompletnymi, w odróżnieniu od układów czynnikowych kompletnych, w których obserwowane były wszystkie kombinacje poziomów badanych czynników. Na przykład rozważmy eksperyment badający trzy leki L 1, L 2 i L 3 stosowane w sześciu klinikach: K 1,..., K 6. Przy czym lek L 1 był stosowany w klinikach K 1 i K 2, lek L 2 w klinikach K 3 i K 4, zaś lek L 3 w klinikach K 5 i K 6. 24 / 74
Hierarchiczna analiza wariancji (układ zagnieżdżony) Układy hierarchiczne umożliwiają analizę planów doświadczalnych, gdy dla różnych poziomów pewnych czynników występują inne poziomy czynników w nich zagnieżdżonych. Układy zagnieżdżone są układami niekompletnymi, w odróżnieniu od układów czynnikowych kompletnych, w których obserwowane były wszystkie kombinacje poziomów badanych czynników. Na przykład rozważmy eksperyment badający trzy leki L 1, L 2 i L 3 stosowane w sześciu klinikach: K 1,..., K 6. Przy czym lek L 1 był stosowany w klinikach K 1 i K 2, lek L 2 w klinikach K 3 i K 4, zaś lek L 3 w klinikach K 5 i K 6. 24 / 74
Hierarchiczna analiza wariancji (układ zagnieżdżony) Układy hierarchiczne umożliwiają analizę planów doświadczalnych, gdy dla różnych poziomów pewnych czynników występują inne poziomy czynników w nich zagnieżdżonych. Układy zagnieżdżone są układami niekompletnymi, w odróżnieniu od układów czynnikowych kompletnych, w których obserwowane były wszystkie kombinacje poziomów badanych czynników. Na przykład rozważmy eksperyment badający trzy leki L 1, L 2 i L 3 stosowane w sześciu klinikach: K 1,..., K 6. Przy czym lek L 1 był stosowany w klinikach K 1 i K 2, lek L 2 w klinikach K 3 i K 4, zaś lek L 3 w klinikach K 5 i K 6. 24 / 74
Plan eksperymentu wyglądałby więc następująco: Lek L 1 Lek L 2 Lek L 3 K 1 K 2 K 3 K 4 K 5 K 6 n osób n osób n osób n osób n osób n osób W tym eksperymencie kliniki są zagnieżdżone w lekach. Kliniki są czynnikiem zagnieżdżonym. W eksperymentach takich nie możemy badać interakcji, gdyż kliniki nie są skrzyżowane z lekami tylko zagnieżdżone i czynnik stopnia niższego działa tylko w obrębie jednego poziomu stopnia wyższego. Nie ma więc możliwości zbadania współdziałania tych czynników. Jeśli czynnik B jest zagnieżdżony w czynniku A, to zapisujemy to symbolicznie B(A). 25 / 74
Plan eksperymentu wyglądałby więc następująco: Lek L 1 Lek L 2 Lek L 3 K 1 K 2 K 3 K 4 K 5 K 6 n osób n osób n osób n osób n osób n osób W tym eksperymencie kliniki są zagnieżdżone w lekach. Kliniki są czynnikiem zagnieżdżonym. W eksperymentach takich nie możemy badać interakcji, gdyż kliniki nie są skrzyżowane z lekami tylko zagnieżdżone i czynnik stopnia niższego działa tylko w obrębie jednego poziomu stopnia wyższego. Nie ma więc możliwości zbadania współdziałania tych czynników. Jeśli czynnik B jest zagnieżdżony w czynniku A, to zapisujemy to symbolicznie B(A). 25 / 74
Plan eksperymentu wyglądałby więc następująco: Lek L 1 Lek L 2 Lek L 3 K 1 K 2 K 3 K 4 K 5 K 6 n osób n osób n osób n osób n osób n osób W tym eksperymencie kliniki są zagnieżdżone w lekach. Kliniki są czynnikiem zagnieżdżonym. W eksperymentach takich nie możemy badać interakcji, gdyż kliniki nie są skrzyżowane z lekami tylko zagnieżdżone i czynnik stopnia niższego działa tylko w obrębie jednego poziomu stopnia wyższego. Nie ma więc możliwości zbadania współdziałania tych czynników. Jeśli czynnik B jest zagnieżdżony w czynniku A, to zapisujemy to symbolicznie B(A). 25 / 74
Plan eksperymentu wyglądałby więc następująco: Lek L 1 Lek L 2 Lek L 3 K 1 K 2 K 3 K 4 K 5 K 6 n osób n osób n osób n osób n osób n osób W tym eksperymencie kliniki są zagnieżdżone w lekach. Kliniki są czynnikiem zagnieżdżonym. W eksperymentach takich nie możemy badać interakcji, gdyż kliniki nie są skrzyżowane z lekami tylko zagnieżdżone i czynnik stopnia niższego działa tylko w obrębie jednego poziomu stopnia wyższego. Nie ma więc możliwości zbadania współdziałania tych czynników. Jeśli czynnik B jest zagnieżdżony w czynniku A, to zapisujemy to symbolicznie B(A). 25 / 74
Model analizy hierarchicznej dwustopniowej Załóżmy, że czynniki A i B są stałe i mają odpowiednio a i b poziomów oraz, że czynnik B jest zagnieżdżony w A. Ponadto, każdy poziom czynnika B ma jednakową liczbę n replikacji. Mamy więc a b n wszystkich obserwacji. X ijk = µ + α i + β j(i) + ε k(ij), gdzie X ijk - k-ta obserwacja w j-tej podgrupie czynnika B i-tego poziomu czynnika A, µ - średnia ogólna, α i - efekt główny i-tego poziomu czynnika A, β j(i) - efekt główny j-tej podgrupy czynnika B w i-tym poziomie czynnika A, ε k(ij) - losowy błąd o rozkładzie normalnym N(0, σ). 26 / 74
Model analizy hierarchicznej dwustopniowej Załóżmy, że czynniki A i B są stałe i mają odpowiednio a i b poziomów oraz, że czynnik B jest zagnieżdżony w A. Ponadto, każdy poziom czynnika B ma jednakową liczbę n replikacji. Mamy więc a b n wszystkich obserwacji. X ijk = µ + α i + β j(i) + ε k(ij), gdzie X ijk - k-ta obserwacja w j-tej podgrupie czynnika B i-tego poziomu czynnika A, µ - średnia ogólna, α i - efekt główny i-tego poziomu czynnika A, β j(i) - efekt główny j-tej podgrupy czynnika B w i-tym poziomie czynnika A, ε k(ij) - losowy błąd o rozkładzie normalnym N(0, σ). 26 / 74
Ponadto zakładamy, że suma wszystkich efektów czynnika A jest równa zero oraz suma wszystkich efektów czynnika B w obrębie każdego poziomu czynnika A jest równa zero, czyli a α i = 0, i=1 b β j(i) = 0. j=1 Za pomocą hierarchicznej analizy wariancji będziemy weryfikować hipotezy: H0 A : α 1 = α 2 =... = α a = 0 (brak istotnego działania czynnika A) wobec hipotezy alternatywnej, że α i 0 dla pewnego i, H0 B : β 1(i) = β 2(i) =... = β b(i) = 0 dla każdego i (brak istotnego działania czynnika B na wszystkich poziomach czynnika A) wobec hipotezy β j(i) 0 dla pewnego j(i). 27 / 74
Ponadto zakładamy, że suma wszystkich efektów czynnika A jest równa zero oraz suma wszystkich efektów czynnika B w obrębie każdego poziomu czynnika A jest równa zero, czyli a α i = 0, i=1 b β j(i) = 0. j=1 Za pomocą hierarchicznej analizy wariancji będziemy weryfikować hipotezy: H0 A : α 1 = α 2 =... = α a = 0 (brak istotnego działania czynnika A) wobec hipotezy alternatywnej, że α i 0 dla pewnego i, H0 B : β 1(i) = β 2(i) =... = β b(i) = 0 dla każdego i (brak istotnego działania czynnika B na wszystkich poziomach czynnika A) wobec hipotezy β j(i) 0 dla pewnego j(i). 27 / 74
Ponadto zakładamy, że suma wszystkich efektów czynnika A jest równa zero oraz suma wszystkich efektów czynnika B w obrębie każdego poziomu czynnika A jest równa zero, czyli a α i = 0, i=1 b β j(i) = 0. j=1 Za pomocą hierarchicznej analizy wariancji będziemy weryfikować hipotezy: H0 A : α 1 = α 2 =... = α a = 0 (brak istotnego działania czynnika A) wobec hipotezy alternatywnej, że α i 0 dla pewnego i, H0 B : β 1(i) = β 2(i) =... = β b(i) = 0 dla każdego i (brak istotnego działania czynnika B na wszystkich poziomach czynnika A) wobec hipotezy β j(i) 0 dla pewnego j(i). 27 / 74
Całkowitą sumę kwadratów rozbijamy na trzy składniki: a b i=1 j=1 k=1 n (x ijk x) 2 = } {{ } SS n a i=1 j=1 b ( x ij x i ) 2 a b i=1 j=1 k=1 n (x ijk x ij ) 2 + bn }{{} SS błąd a ( x i x) 2 + i=1 }{{} SS efekta }{{} SS efektb(a) i analogicznie rozbijamy liczbę stopni swobody na trzy składniki nab 1 }{{} df = a 1 }{{} + a(b 1) + ab(n 1) }{{}}{{} df efekt A df efekt B(A) df błąd. 28 / 74
Całkowitą sumę kwadratów rozbijamy na trzy składniki: a b i=1 j=1 k=1 n (x ijk x) 2 = } {{ } SS n a i=1 j=1 b ( x ij x i ) 2 a b i=1 j=1 k=1 n (x ijk x ij ) 2 + bn }{{} SS błąd a ( x i x) 2 + i=1 }{{} SS efekta }{{} SS efektb(a) i analogicznie rozbijamy liczbę stopni swobody na trzy składniki nab 1 }{{} df = a 1 }{{} + a(b 1) + ab(n 1) }{{}}{{} df efekt A df efekt B(A) df błąd. 28 / 74
Dzieląc sumy kwadratów (SS) przez liczbę stopni swobody (df) otrzymujemy średnie kwadraty odchyleń (M S). Tabela z analizą wariancji dla eksperymentu dwuczynnikowego z jednym czynnikiem zagnieżdżonym ma postać: zmienność SS df MS Statystyka F czynnik A SS efekt A a 1 MS A F A = MS A MS błąd czynnik B(A) SS efekt B(A) a(b 1) MS B(A) F B(A) = MS B(A) MS błąd błąd SS błąd ab(n 1) MS błąd - ogólna SS abn 1 - - 29 / 74
Dzieląc sumy kwadratów (SS) przez liczbę stopni swobody (df) otrzymujemy średnie kwadraty odchyleń (M S). Tabela z analizą wariancji dla eksperymentu dwuczynnikowego z jednym czynnikiem zagnieżdżonym ma postać: zmienność SS df MS Statystyka F czynnik A SS efekt A a 1 MS A F A = MS A MS błąd czynnik B(A) SS efekt B(A) a(b 1) MS B(A) F B(A) = MS B(A) MS błąd błąd SS błąd ab(n 1) MS błąd - ogólna SS abn 1 - - 29 / 74
Współczynnik ω 2 do oceny wpływu czynnika A na wyniki eksperymentu w układzie zagnieżdżonym wyraża się wzorem ω 2 A B(A) = a 1 abn (MS A MS B(A) ) a 1. abn (MS A MS B(A) )+MS błąd Współczynnik ten wyrażany w procentach jest stosunkiem wariancji wyjaśnionej przez dany czynnik do wariancji całkowitej. 30 / 74
Układy hierarchiczne mogą być bardziej złożone. Na przykład w czynniku KLINIKI może być zagnieżdżony kolejny czynnik LEKARZE. Ponadto, jeden czynnik może być zagnieżdżony, a pozostałe skrzyżowane. Na przykład, możemy pacjentów rozdzielić na dwie grupy w zależności od płci i wówczas czynniki LEK i PŁEĆ są skrzyżowane, a czynnik KLINIKA jest zagnieżdżony. Mamy wtedy do czynienia z układem hierarchiczno-czynnikowym (hierarchiczno-krzyżowym). 31 / 74
Układy hierarchiczne mogą być bardziej złożone. Na przykład w czynniku KLINIKI może być zagnieżdżony kolejny czynnik LEKARZE. Ponadto, jeden czynnik może być zagnieżdżony, a pozostałe skrzyżowane. Na przykład, możemy pacjentów rozdzielić na dwie grupy w zależności od płci i wówczas czynniki LEK i PŁEĆ są skrzyżowane, a czynnik KLINIKA jest zagnieżdżony. Mamy wtedy do czynienia z układem hierarchiczno-czynnikowym (hierarchiczno-krzyżowym). 31 / 74
Przykład 2 Doświadczenie z trzema środkami farmakologicznymi (L 1, L 2,L 3 ) stosowanymi w leczeniu depresji przeprowadzono w sześciu klinikach (każdy lek testowały dwie różne kliniki). Oceniano poprawę stanu zdrowia po kuracji tymi środkami (kliniki.sta). Lek L 1 Lek L 2 Lek L 3 K 1 K 2 K 3 K 4 K 5 K 6 18 8 66 62 84 78 8 26 32 20 84 26 24 20 20 36 42 56 14 10 42 48 62 68 12 32 28 28 100 52 22 28 20 38 36 48 32 / 74
Przykład 2 Doświadczenie z trzema środkami farmakologicznymi (L 1, L 2,L 3 ) stosowanymi w leczeniu depresji przeprowadzono w sześciu klinikach (każdy lek testowały dwie różne kliniki). Oceniano poprawę stanu zdrowia po kuracji tymi środkami (kliniki.sta). Lek L 1 Lek L 2 Lek L 3 K 1 K 2 K 3 K 4 K 5 K 6 18 8 66 62 84 78 8 26 32 20 84 26 24 20 20 36 42 56 14 10 42 48 62 68 12 32 28 28 100 52 22 28 20 38 36 48 32 / 74
Sprawdźmy założenia analizy wariancji: Wykresy normalności nie wykazują istotnych odchyleń obserwacji w grupach od rozkładu normalnego, dlatego nie przeprowadzamy już testu Shapiro-Wilka. Testem Levene a sprawdzamy założenie o jednorodności wariancji. 33 / 74
Sprawdźmy założenia analizy wariancji: Wykresy normalności nie wykazują istotnych odchyleń obserwacji w grupach od rozkładu normalnego, dlatego nie przeprowadzamy już testu Shapiro-Wilka. Testem Levene a sprawdzamy założenie o jednorodności wariancji. 33 / 74
Sprawdźmy założenia analizy wariancji: Wykresy normalności nie wykazują istotnych odchyleń obserwacji w grupach od rozkładu normalnego, dlatego nie przeprowadzamy już testu Shapiro-Wilka. Testem Levene a sprawdzamy założenie o jednorodności wariancji. 33 / 74
Wynik hierarchicznej analizy wariancji zawiera tabela. Wyniki leczenia w istotny sposób zależą od zastosowanego leku (p = 0, 000003). Natomiast, poprawa stanu zdrowia nie zależy w istotny sposób od kliniki, w której zastosowano leczenie. 34 / 74
Wynik hierarchicznej analizy wariancji zawiera tabela. Wyniki leczenia w istotny sposób zależą od zastosowanego leku (p = 0, 000003). Natomiast, poprawa stanu zdrowia nie zależy w istotny sposób od kliniki, w której zastosowano leczenie. 34 / 74
Wykres średnich wygląda następująco: 35 / 74
Zastosujmy test post-hoc Scheffe dla zbadania różnic pomiędzy parami średnich. Lek L 3 jest istotnie lepszy od od dwóch pozostałych. 36 / 74
Zastosujmy test post-hoc Scheffe dla zbadania różnic pomiędzy parami średnich. Lek L 3 jest istotnie lepszy od od dwóch pozostałych. 36 / 74
Zastosujmy test post-hoc Scheffe dla zbadania różnic pomiędzy parami średnich. Lek L 3 jest istotnie lepszy od od dwóch pozostałych. 36 / 74
Obliczmy współczynnik ω 2 = 2 36 2 36 (5546,33 212,56) (5546,33 212,56)+272,02 = 52, 14%. Zatem, 52% całkowitej zmienności poprawy zdrowia można wyjaśnić rodzajem zastosowanego leku. 37 / 74
Przykład 3 (eksperyment hierarchiczno-czynnikowy) Losowo wybranym pacjentom z depresją podawano dwa leki zmniejszające stres (Lek 1, Lek 2) oraz placebo. Leczenie przeprowadzono w sześciu klinikach. W dwóch pierwszych podawano lek pierwszy, w dwóch kolejnych drugi i placebo w dwóch ostatnich. Ponadto, w celu sprawdzenia, czy jakiś lek jest lepszy dla kobiet dodano czynnik PŁEĆ. Eksperyment zawiera więc trzy czynniki: LEK (3 poziomy), KLINIKA (czynnik zagnieżdżony, 2 poziomy), PŁEĆ (2 poziomy). Zmienną zależną jest poziom stresu (niepokoju) w 45-stopniowej skali (wyższe wartości oznaczają wyższy poziom stresu). Dla każdego obiektu mamy 5 replikacji, czyli próba obejmuje 3 2 2 5 = 60 pacjentów (hierarchiczno-czynnikowy.sta). 38 / 74
PŁEĆ Lek 1 Lek 2 Placebo K1 K2 K3 K4 K5 K6 K 25 24 23 19 33 37 30 34 27 32 37 39 13 17 15 17 27 23 28 19 31 24 37 35 15 12 14 13 21 29 M 28 21 16 18 27 25 19 23 17 14 33 35 17 23 12 11 19 23 19 17 17 14 30 33 18 13 10 13 22 27 39 / 74
W ten sposób zaplanowany eksperyment pozwoli odpowiedzieć na następujące pytania: 1 Czy istnieje efekt główny czynnika LEK? 2 Czy istnieje efekt główny czynnika zagnieżdżonego KLINIKA? 3 Czy istnieje efekt główny czynnika PŁEĆ? 4 Czy ma miejsce interakcja pomiędzy czynnikami LEK i PŁEĆ? 5 Czy jest interakcja pomiędzy czynnikami KLINIKA i PŁEĆ? 40 / 74
W ten sposób zaplanowany eksperyment pozwoli odpowiedzieć na następujące pytania: 1 Czy istnieje efekt główny czynnika LEK? 2 Czy istnieje efekt główny czynnika zagnieżdżonego KLINIKA? 3 Czy istnieje efekt główny czynnika PŁEĆ? 4 Czy ma miejsce interakcja pomiędzy czynnikami LEK i PŁEĆ? 5 Czy jest interakcja pomiędzy czynnikami KLINIKA i PŁEĆ? 40 / 74
W ten sposób zaplanowany eksperyment pozwoli odpowiedzieć na następujące pytania: 1 Czy istnieje efekt główny czynnika LEK? 2 Czy istnieje efekt główny czynnika zagnieżdżonego KLINIKA? 3 Czy istnieje efekt główny czynnika PŁEĆ? 4 Czy ma miejsce interakcja pomiędzy czynnikami LEK i PŁEĆ? 5 Czy jest interakcja pomiędzy czynnikami KLINIKA i PŁEĆ? 40 / 74
W ten sposób zaplanowany eksperyment pozwoli odpowiedzieć na następujące pytania: 1 Czy istnieje efekt główny czynnika LEK? 2 Czy istnieje efekt główny czynnika zagnieżdżonego KLINIKA? 3 Czy istnieje efekt główny czynnika PŁEĆ? 4 Czy ma miejsce interakcja pomiędzy czynnikami LEK i PŁEĆ? 5 Czy jest interakcja pomiędzy czynnikami KLINIKA i PŁEĆ? 40 / 74
W ten sposób zaplanowany eksperyment pozwoli odpowiedzieć na następujące pytania: 1 Czy istnieje efekt główny czynnika LEK? 2 Czy istnieje efekt główny czynnika zagnieżdżonego KLINIKA? 3 Czy istnieje efekt główny czynnika PŁEĆ? 4 Czy ma miejsce interakcja pomiędzy czynnikami LEK i PŁEĆ? 5 Czy jest interakcja pomiędzy czynnikami KLINIKA i PŁEĆ? 40 / 74
W ten sposób zaplanowany eksperyment pozwoli odpowiedzieć na następujące pytania: 1 Czy istnieje efekt główny czynnika LEK? 2 Czy istnieje efekt główny czynnika zagnieżdżonego KLINIKA? 3 Czy istnieje efekt główny czynnika PŁEĆ? 4 Czy ma miejsce interakcja pomiędzy czynnikami LEK i PŁEĆ? 5 Czy jest interakcja pomiędzy czynnikami KLINIKA i PŁEĆ? 40 / 74
41 / 74
42 / 74
Wynik terapii zależy w sposób istotny od zastosowanego leku (p < 0, 000001). Poziom niepokoju jest uzależniony w sposób istotny od płci pacjenta (p = 0, 005798). Badanie nie potwierdziło przypuszczenia o interakcji pomiędzy lekiem i płcią pacjenta. Nie ma potwierdzenia, że jakiś lek jest lepszy dla kobiet, a jakiś dla mężczyzn. Badanie nie wykazało istotnych różnic dla wyników terapii w różnych klinikach, a także interakcji pomiędzy kliniką i płcią. 43 / 74
Wynik terapii zależy w sposób istotny od zastosowanego leku (p < 0, 000001). Poziom niepokoju jest uzależniony w sposób istotny od płci pacjenta (p = 0, 005798). Badanie nie potwierdziło przypuszczenia o interakcji pomiędzy lekiem i płcią pacjenta. Nie ma potwierdzenia, że jakiś lek jest lepszy dla kobiet, a jakiś dla mężczyzn. Badanie nie wykazało istotnych różnic dla wyników terapii w różnych klinikach, a także interakcji pomiędzy kliniką i płcią. 43 / 74
Wynik terapii zależy w sposób istotny od zastosowanego leku (p < 0, 000001). Poziom niepokoju jest uzależniony w sposób istotny od płci pacjenta (p = 0, 005798). Badanie nie potwierdziło przypuszczenia o interakcji pomiędzy lekiem i płcią pacjenta. Nie ma potwierdzenia, że jakiś lek jest lepszy dla kobiet, a jakiś dla mężczyzn. Badanie nie wykazało istotnych różnic dla wyników terapii w różnych klinikach, a także interakcji pomiędzy kliniką i płcią. 43 / 74
Wynik terapii zależy w sposób istotny od zastosowanego leku (p < 0, 000001). Poziom niepokoju jest uzależniony w sposób istotny od płci pacjenta (p = 0, 005798). Badanie nie potwierdziło przypuszczenia o interakcji pomiędzy lekiem i płcią pacjenta. Nie ma potwierdzenia, że jakiś lek jest lepszy dla kobiet, a jakiś dla mężczyzn. Badanie nie wykazało istotnych różnic dla wyników terapii w różnych klinikach, a także interakcji pomiędzy kliniką i płcią. 43 / 74
Wykres średnich dla czynnika LEK wskazuje, że prawdopodobnie oba leki są skuteczne (istotnie lepiej działają niż placebo) i nie ma istotnych różnic pomiędzy ich działaniem. 44 / 74
Wykres średnich dla czynnika LEK wskazuje, że prawdopodobnie oba leki są skuteczne (istotnie lepiej działają niż placebo) i nie ma istotnych różnic pomiędzy ich działaniem. 44 / 74
Aby zweryfikować tę obserwację przeprowadźmy test post-hoc. Istotnie, oba leki są skuteczniejsze w porównaniu z placebo. Nie ma natomiast istotnej statystycznie różnicy w działaniu obu leków. Zaobserwowana różnica wynika z przypadkowych odchyleń. 45 / 74
Istotnie niższy poziom niepokoju występuje w grupie mężczyzn w porównaniu z grupą kobiet. 46 / 74
ANOVA z powtarzanymi pomiarami Wiele eksperymentów wymaga wielokrotnego dokonywania pomiarów na tych samych jednostkach statystycznych w różnych warunkach. Pomiary powtarzane mogą być stosowane w eksperymentach jedno i wieloczynnikowych. Pomiary powtarzane są ze sobą silnie skorelowane, ponieważ są przeprowadzane na tych samych badanych jednostkach. Korelacje te zmniejszają składnik błędu. Zaletą eksperymentów z powtarzanymi pomiarami jest mała liczba jednostek statystycznych użyta do badania. 47 / 74
ANOVA z powtarzanymi pomiarami Wiele eksperymentów wymaga wielokrotnego dokonywania pomiarów na tych samych jednostkach statystycznych w różnych warunkach. Pomiary powtarzane mogą być stosowane w eksperymentach jedno i wieloczynnikowych. Pomiary powtarzane są ze sobą silnie skorelowane, ponieważ są przeprowadzane na tych samych badanych jednostkach. Korelacje te zmniejszają składnik błędu. Zaletą eksperymentów z powtarzanymi pomiarami jest mała liczba jednostek statystycznych użyta do badania. 47 / 74
ANOVA z powtarzanymi pomiarami Wiele eksperymentów wymaga wielokrotnego dokonywania pomiarów na tych samych jednostkach statystycznych w różnych warunkach. Pomiary powtarzane mogą być stosowane w eksperymentach jedno i wieloczynnikowych. Pomiary powtarzane są ze sobą silnie skorelowane, ponieważ są przeprowadzane na tych samych badanych jednostkach. Korelacje te zmniejszają składnik błędu. Zaletą eksperymentów z powtarzanymi pomiarami jest mała liczba jednostek statystycznych użyta do badania. 47 / 74
ANOVA z powtarzanymi pomiarami Wiele eksperymentów wymaga wielokrotnego dokonywania pomiarów na tych samych jednostkach statystycznych w różnych warunkach. Pomiary powtarzane mogą być stosowane w eksperymentach jedno i wieloczynnikowych. Pomiary powtarzane są ze sobą silnie skorelowane, ponieważ są przeprowadzane na tych samych badanych jednostkach. Korelacje te zmniejszają składnik błędu. Zaletą eksperymentów z powtarzanymi pomiarami jest mała liczba jednostek statystycznych użyta do badania. 47 / 74
Pewne zagadnienia eksperymentalne wymagają bezwzględnie zastosowania planu z powtarzanymi pomiarami. Wadą eksperymentów z powtarzanymi pomiarami jest tzw. efekt przeniesienia, polegający na tym, że przeprowadzenie eksperymentu w jednych warunkach może wpływać na wynik eksperymentu w innych warunkach. Może występować efekt wyćwiczenia, zmęczenia, działania jeszcze wcześniej zastosowanego leku. 48 / 74
Pewne zagadnienia eksperymentalne wymagają bezwzględnie zastosowania planu z powtarzanymi pomiarami. Wadą eksperymentów z powtarzanymi pomiarami jest tzw. efekt przeniesienia, polegający na tym, że przeprowadzenie eksperymentu w jednych warunkach może wpływać na wynik eksperymentu w innych warunkach. Może występować efekt wyćwiczenia, zmęczenia, działania jeszcze wcześniej zastosowanego leku. 48 / 74
Model analizy wariancji jednoczynnikowej z powtarzanymi pomiarami X ij = µ + τ i + π j + ε ij, i = 1, 2,..., k, j = 1, 2,..., n, gdzie: X ij - i-ty pomiar dla j-tej jednostki, µ - średnia ogólna w populacji, τ i - efekt i-tego pomiaru (czynnik powtarzanych pomiarów - czynnik stały, zakładamy dodatkowo,że k τ i = 0, ) i=1 49 / 74
Model analizy wariancji jednoczynnikowej z powtarzanymi pomiarami X ij = µ + τ i + π j + ε ij, i = 1, 2,..., k, j = 1, 2,..., n, gdzie: X ij - i-ty pomiar dla j-tej jednostki, µ - średnia ogólna w populacji, τ i - efekt i-tego pomiaru (czynnik powtarzanych pomiarów - czynnik stały, zakładamy dodatkowo,że k τ i = 0, ) i=1 49 / 74
Model analizy wariancji jednoczynnikowej z powtarzanymi pomiarami X ij = µ + τ i + π j + ε ij, i = 1, 2,..., k, j = 1, 2,..., n, gdzie: X ij - i-ty pomiar dla j-tej jednostki, µ - średnia ogólna w populacji, τ i - efekt i-tego pomiaru (czynnik powtarzanych pomiarów - czynnik stały, zakładamy dodatkowo,że k τ i = 0, ) i=1 49 / 74
Model analizy wariancji jednoczynnikowej z powtarzanymi pomiarami X ij = µ + τ i + π j + ε ij, i = 1, 2,..., k, j = 1, 2,..., n, gdzie: X ij - i-ty pomiar dla j-tej jednostki, µ - średnia ogólna w populacji, τ i - efekt i-tego pomiaru (czynnik powtarzanych pomiarów - czynnik stały, zakładamy dodatkowo,że k τ i = 0, ) i=1 49 / 74
π j - efekt j-tej jednostki (czynnik losowy o rozkładzie normalnym i średniej 0), ε ij - zmienna losowa o rozkładzie normalnym N(0, σ), wyrażająca wpływy losowe. Weryfikujemy hipotezę: H A 0 : τ 1 = τ 2 =... = τ k = 0 o braku efektów powtarzanych pomiarów. 50 / 74
π j - efekt j-tej jednostki (czynnik losowy o rozkładzie normalnym i średniej 0), ε ij - zmienna losowa o rozkładzie normalnym N(0, σ), wyrażająca wpływy losowe. Weryfikujemy hipotezę: H A 0 : τ 1 = τ 2 =... = τ k = 0 o braku efektów powtarzanych pomiarów. 50 / 74
π j - efekt j-tej jednostki (czynnik losowy o rozkładzie normalnym i średniej 0), ε ij - zmienna losowa o rozkładzie normalnym N(0, σ), wyrażająca wpływy losowe. Weryfikujemy hipotezę: H A 0 : τ 1 = τ 2 =... = τ k = 0 o braku efektów powtarzanych pomiarów. 50 / 74
Analizę wariancji jednoczynnikową z powtarzanymi pomiarami możemy schematycznie przedstawić w tabeli: zmienność SS df MS Statystyka F pomiary SS efekt A k 1 MS A F A = MS A MS błąd jednostki SS jedn. n 1 MS jedn. - błąd SS błąd (k 1)(n 1) MS błąd - ogólna SS kn 1 - - Rozkład sumy kwadratów i stopni swobody jest taki sam jak w analizie dwuczynnikowej efektów głównych. 51 / 74
Oprócz założenia normalności i jednorodności wariacji we wszystkich grupach eksperyment z powtarzanymi pomiarami wymaga ponadto założenia jednorodności kowariancji wśród pomiarów tej samej jednostki. Zatem wszystkie warunki pomiarów powinny być w takim samym stopniu skorelowane (zależne). Założenie to nazywa się założeniem symetrii połączonej. Nieco słabszym założeniem, ale w zupełności wystarczającym dla jednowymiarowego testu F jest założenie o sferyczności. Zakłada ono równość wariancji różnic wszystkich par eksperymentalnych. 52 / 74
Oprócz założenia normalności i jednorodności wariacji we wszystkich grupach eksperyment z powtarzanymi pomiarami wymaga ponadto założenia jednorodności kowariancji wśród pomiarów tej samej jednostki. Zatem wszystkie warunki pomiarów powinny być w takim samym stopniu skorelowane (zależne). Założenie to nazywa się założeniem symetrii połączonej. Nieco słabszym założeniem, ale w zupełności wystarczającym dla jednowymiarowego testu F jest założenie o sferyczności. Zakłada ono równość wariancji różnic wszystkich par eksperymentalnych. 52 / 74
Oprócz założenia normalności i jednorodności wariacji we wszystkich grupach eksperyment z powtarzanymi pomiarami wymaga ponadto założenia jednorodności kowariancji wśród pomiarów tej samej jednostki. Zatem wszystkie warunki pomiarów powinny być w takim samym stopniu skorelowane (zależne). Założenie to nazywa się założeniem symetrii połączonej. Nieco słabszym założeniem, ale w zupełności wystarczającym dla jednowymiarowego testu F jest założenie o sferyczności. Zakłada ono równość wariancji różnic wszystkich par eksperymentalnych. 52 / 74
STATISTICA oferuje test Mauchley a, weryfikujący założenie o sferyczności. Statystyka testowa W przyjmuje wartości z przedziału [0, 1] i im mniejsza wartość tej statystyki, tym większe odchylenia od sferyczności. Test ten jest bardzo wrażliwy na odchylenia od wielowymiarowej normalności. W przypadku niespełnienia założenia o sferyczności możemy zastosować czynniki korygujące dla stopni swobody testu F: poprawka Greenhouse a-geissera, poprawka Huynha-Felda, poprawka ograniczenia dolnego. W przypadku niespełnienia założenia o sferyczności bardziej (w stosunku do poprawek) zalecane jest zastosowanie metod wielowymiarowej analizy wariancji (MANOVA), które nie wymagają założenia sferyczności. 53 / 74
STATISTICA oferuje test Mauchley a, weryfikujący założenie o sferyczności. Statystyka testowa W przyjmuje wartości z przedziału [0, 1] i im mniejsza wartość tej statystyki, tym większe odchylenia od sferyczności. Test ten jest bardzo wrażliwy na odchylenia od wielowymiarowej normalności. W przypadku niespełnienia założenia o sferyczności możemy zastosować czynniki korygujące dla stopni swobody testu F: poprawka Greenhouse a-geissera, poprawka Huynha-Felda, poprawka ograniczenia dolnego. W przypadku niespełnienia założenia o sferyczności bardziej (w stosunku do poprawek) zalecane jest zastosowanie metod wielowymiarowej analizy wariancji (MANOVA), które nie wymagają założenia sferyczności. 53 / 74
STATISTICA oferuje test Mauchley a, weryfikujący założenie o sferyczności. Statystyka testowa W przyjmuje wartości z przedziału [0, 1] i im mniejsza wartość tej statystyki, tym większe odchylenia od sferyczności. Test ten jest bardzo wrażliwy na odchylenia od wielowymiarowej normalności. W przypadku niespełnienia założenia o sferyczności możemy zastosować czynniki korygujące dla stopni swobody testu F: poprawka Greenhouse a-geissera, poprawka Huynha-Felda, poprawka ograniczenia dolnego. W przypadku niespełnienia założenia o sferyczności bardziej (w stosunku do poprawek) zalecane jest zastosowanie metod wielowymiarowej analizy wariancji (MANOVA), które nie wymagają założenia sferyczności. 53 / 74
STATISTICA oferuje test Mauchley a, weryfikujący założenie o sferyczności. Statystyka testowa W przyjmuje wartości z przedziału [0, 1] i im mniejsza wartość tej statystyki, tym większe odchylenia od sferyczności. Test ten jest bardzo wrażliwy na odchylenia od wielowymiarowej normalności. W przypadku niespełnienia założenia o sferyczności możemy zastosować czynniki korygujące dla stopni swobody testu F: poprawka Greenhouse a-geissera, poprawka Huynha-Felda, poprawka ograniczenia dolnego. W przypadku niespełnienia założenia o sferyczności bardziej (w stosunku do poprawek) zalecane jest zastosowanie metod wielowymiarowej analizy wariancji (MANOVA), które nie wymagają założenia sferyczności. 53 / 74
STATISTICA oferuje test Mauchley a, weryfikujący założenie o sferyczności. Statystyka testowa W przyjmuje wartości z przedziału [0, 1] i im mniejsza wartość tej statystyki, tym większe odchylenia od sferyczności. Test ten jest bardzo wrażliwy na odchylenia od wielowymiarowej normalności. W przypadku niespełnienia założenia o sferyczności możemy zastosować czynniki korygujące dla stopni swobody testu F: poprawka Greenhouse a-geissera, poprawka Huynha-Felda, poprawka ograniczenia dolnego. W przypadku niespełnienia założenia o sferyczności bardziej (w stosunku do poprawek) zalecane jest zastosowanie metod wielowymiarowej analizy wariancji (MANOVA), które nie wymagają założenia sferyczności. 53 / 74
STATISTICA oferuje test Mauchley a, weryfikujący założenie o sferyczności. Statystyka testowa W przyjmuje wartości z przedziału [0, 1] i im mniejsza wartość tej statystyki, tym większe odchylenia od sferyczności. Test ten jest bardzo wrażliwy na odchylenia od wielowymiarowej normalności. W przypadku niespełnienia założenia o sferyczności możemy zastosować czynniki korygujące dla stopni swobody testu F: poprawka Greenhouse a-geissera, poprawka Huynha-Felda, poprawka ograniczenia dolnego. W przypadku niespełnienia założenia o sferyczności bardziej (w stosunku do poprawek) zalecane jest zastosowanie metod wielowymiarowej analizy wariancji (MANOVA), które nie wymagają założenia sferyczności. 53 / 74
Przykład 4 Z populacji pacjentów z rozpoznaniem depresji o przebiegu psychozy maniakalno-depresyjnej pobrano próbę 20 osób, którym zaordynowano w sposób losowy jeden z dwóch leków antydepresyjnych: amitryptylinę i imipraminę. Leki te podawano pacjentom w równych odstępach. Efekty leczenia oceniano w skali jedenastostopniowej, klinicznej funkcjonowania pacjentów depresyjnych. Ocenę leczenia przeprowadzono pięciokrotnie co pięć dni (plik dwa leki.sta.) 54 / 74
Sprawdzamy założenia analizy wariancji z powtarzanymi pomiarami: Wykresy normalności nie wykrywają istotnych odchyleń od normalności w badanych grupach. Test Levene a jednorodności wariancji wykazuje pewne różnice wariancji rozkładów dla Okresu 2, ale pozostałe testy jednorodności wariancji nie wykrywają tych różnic. Sprawdzamy założenie sferyczności testem Mauchleya. Założenie jest poważnie naruszone (p = 0, 002231) i wartość statystyki jest niewielka W = 0, 208. 55 / 74
Sprawdzamy założenia analizy wariancji z powtarzanymi pomiarami: Wykresy normalności nie wykrywają istotnych odchyleń od normalności w badanych grupach. Test Levene a jednorodności wariancji wykazuje pewne różnice wariancji rozkładów dla Okresu 2, ale pozostałe testy jednorodności wariancji nie wykrywają tych różnic. Sprawdzamy założenie sferyczności testem Mauchleya. Założenie jest poważnie naruszone (p = 0, 002231) i wartość statystyki jest niewielka W = 0, 208. 55 / 74
Sprawdzamy założenia analizy wariancji z powtarzanymi pomiarami: Wykresy normalności nie wykrywają istotnych odchyleń od normalności w badanych grupach. Test Levene a jednorodności wariancji wykazuje pewne różnice wariancji rozkładów dla Okresu 2, ale pozostałe testy jednorodności wariancji nie wykrywają tych różnic. Sprawdzamy założenie sferyczności testem Mauchleya. Założenie jest poważnie naruszone (p = 0, 002231) i wartość statystyki jest niewielka W = 0, 208. 55 / 74
Sprawdzamy założenia analizy wariancji z powtarzanymi pomiarami: Wykresy normalności nie wykrywają istotnych odchyleń od normalności w badanych grupach. Test Levene a jednorodności wariancji wykazuje pewne różnice wariancji rozkładów dla Okresu 2, ale pozostałe testy jednorodności wariancji nie wykrywają tych różnic. Sprawdzamy założenie sferyczności testem Mauchleya. Założenie jest poważnie naruszone (p = 0, 002231) i wartość statystyki jest niewielka W = 0, 208. 55 / 74
Musimy skorzystać ze skorygowanych testów jednowymiarowych (poprawki na df), a najlepiej z ANOVA wielowymiarowa. Widzimy, że poprawka Greenhouse a-geissera, poprawka Huynha-Feldta, jak i poprawka ograniczenia dolnego potwierdzają wynik jednowymiarowy o istotnym wpływie CZASU i interakcji pomiędzy LEKIEM i CZASEM. 56 / 74
Musimy skorzystać ze skorygowanych testów jednowymiarowych (poprawki na df), a najlepiej z ANOVA wielowymiarowa. Widzimy, że poprawka Greenhouse a-geissera, poprawka Huynha-Feldta, jak i poprawka ograniczenia dolnego potwierdzają wynik jednowymiarowy o istotnym wpływie CZASU i interakcji pomiędzy LEKIEM i CZASEM. 56 / 74
Musimy skorzystać ze skorygowanych testów jednowymiarowych (poprawki na df), a najlepiej z ANOVA wielowymiarowa. Widzimy, że poprawka Greenhouse a-geissera, poprawka Huynha-Feldta, jak i poprawka ograniczenia dolnego potwierdzają wynik jednowymiarowy o istotnym wpływie CZASU i interakcji pomiędzy LEKIEM i CZASEM. 56 / 74
Sprawdźmy jeszcze wynik testów wielowymiarowych, nie wymagających spełnienia założenia sferyczności. Testy wielowymiarowe zdecydowanie potwierdzają wynik testu jednowymiarowego. 57 / 74
Sprawdźmy jeszcze wynik testów wielowymiarowych, nie wymagających spełnienia założenia sferyczności. Testy wielowymiarowe zdecydowanie potwierdzają wynik testu jednowymiarowego. 57 / 74
Sprawdźmy jeszcze wynik testów wielowymiarowych, nie wymagających spełnienia założenia sferyczności. Testy wielowymiarowe zdecydowanie potwierdzają wynik testu jednowymiarowego. 57 / 74
Pacjenci depresyjni zażywający lek imipramina funkcjonują istotnie lepiej od pacjentów zażywających lek amitryptylina. 58 / 74
Pacjenci depresyjni zażywający lek imipramina funkcjonują istotnie lepiej od pacjentów zażywających lek amitryptylina. 58 / 74
Stwierdzamy wysoką istotność poprawy funkcjonowania pacjentów w czasie. 59 / 74
Stwierdzamy wysoką istotność poprawy funkcjonowania pacjentów w czasie. 59 / 74
60 / 74
Wykres pokazuje, że interakcja czynnika LEK i CZAS polega na szybszej poprawie funkcjonowania pacjentów szczególnie w początkowym okresie przy zastosowaniu leku imipramina, podczas, gdy poprawa zdrowia przy zastosowaniu amitryptyliny następuje później i trochę słabiej. 61 / 74
Test Friedmana - ANOVA nieparametryczna dla pomiarów powtarzanych Jeśli nie spełnione jest założenie o normalności rozkładów, czy jednorodności wariancji w eksperymencie z powtarzanymi pomiarami przeprowadzamy nieparametryczny test Friedmana. Test ten zakłada, że zmienne są mierzone przynajmniej w skali porządkowej. Dane wprowadzamy kolumnami, tak, że wartości kolejnych pomiarów zapisywane są w kolejnych kolumnach (zmiennych). Najczęściej są to wyniki dla tych samych osób uzyskane w k różnych badaniach. 62 / 74
Test Friedmana - ANOVA nieparametryczna dla pomiarów powtarzanych Jeśli nie spełnione jest założenie o normalności rozkładów, czy jednorodności wariancji w eksperymencie z powtarzanymi pomiarami przeprowadzamy nieparametryczny test Friedmana. Test ten zakłada, że zmienne są mierzone przynajmniej w skali porządkowej. Dane wprowadzamy kolumnami, tak, że wartości kolejnych pomiarów zapisywane są w kolejnych kolumnach (zmiennych). Najczęściej są to wyniki dla tych samych osób uzyskane w k różnych badaniach. 62 / 74
Test Friedmana - ANOVA nieparametryczna dla pomiarów powtarzanych Jeśli nie spełnione jest założenie o normalności rozkładów, czy jednorodności wariancji w eksperymencie z powtarzanymi pomiarami przeprowadzamy nieparametryczny test Friedmana. Test ten zakłada, że zmienne są mierzone przynajmniej w skali porządkowej. Dane wprowadzamy kolumnami, tak, że wartości kolejnych pomiarów zapisywane są w kolejnych kolumnach (zmiennych). Najczęściej są to wyniki dla tych samych osób uzyskane w k różnych badaniach. 62 / 74
Test Friedmana - ANOVA nieparametryczna dla pomiarów powtarzanych Jeśli nie spełnione jest założenie o normalności rozkładów, czy jednorodności wariancji w eksperymencie z powtarzanymi pomiarami przeprowadzamy nieparametryczny test Friedmana. Test ten zakłada, że zmienne są mierzone przynajmniej w skali porządkowej. Dane wprowadzamy kolumnami, tak, że wartości kolejnych pomiarów zapisywane są w kolejnych kolumnach (zmiennych). Najczęściej są to wyniki dla tych samych osób uzyskane w k różnych badaniach. 62 / 74
Weryfikujemy hipotezę zerową, że kolumny danych zawierają próby pobrane z tej samej populacji (populacje, z których pochodzą próby mają takie same rozkłady). Hipoteza alternatywna jest zaprzeczeniem hipotezy zerowej. Rangujemy wartości w wierszach (rangujemy pomiary dla każdej jednostki) i sumujemy rangi w kolumnach (grupach, które porównujemy). 63 / 74
Weryfikujemy hipotezę zerową, że kolumny danych zawierają próby pobrane z tej samej populacji (populacje, z których pochodzą próby mają takie same rozkłady). Hipoteza alternatywna jest zaprzeczeniem hipotezy zerowej. Rangujemy wartości w wierszach (rangujemy pomiary dla każdej jednostki) i sumujemy rangi w kolumnach (grupach, które porównujemy). 63 / 74
Statystyka testowa oparta jest na sumie kwadratów różnic rang obserwowanych z sumą rang oczekiwanych χ 2 = 12 nk(k + 1) 12 nk(k + 1) k i=1 ( R i ) n(k + 1) 2 = 2 k Ri 2 3n(k + 1), i=1 gdzie R i - suma rang i-tego pomiaru, k - liczba pomiarów (grup), n - liczba jednostek statystycznych (liczba obserwacji w grupie). 64 / 74
Statystyka ta przy założeniu prawdziwości hipotezy zerowej ma asymptotyczny rozkład χ 2 z k 1 stopniami swobody. Obszar krytyczny jest prawostronny, gdyż duże różnice sum rang obserwowanych i oczekiwanych, wskazują na fałszywość testowanej hipotezy zerowej. Przybliżenie rozkładem χ 2 jest prawdziwe dla dużych n lub k (n > 15 lub k > 4). Dla mniejszych prób należy korzystać z dokładnego rozkładu statystyki. 65 / 74
Statystyka ta przy założeniu prawdziwości hipotezy zerowej ma asymptotyczny rozkład χ 2 z k 1 stopniami swobody. Obszar krytyczny jest prawostronny, gdyż duże różnice sum rang obserwowanych i oczekiwanych, wskazują na fałszywość testowanej hipotezy zerowej. Przybliżenie rozkładem χ 2 jest prawdziwe dla dużych n lub k (n > 15 lub k > 4). Dla mniejszych prób należy korzystać z dokładnego rozkładu statystyki. 65 / 74
Statystyka ta przy założeniu prawdziwości hipotezy zerowej ma asymptotyczny rozkład χ 2 z k 1 stopniami swobody. Obszar krytyczny jest prawostronny, gdyż duże różnice sum rang obserwowanych i oczekiwanych, wskazują na fałszywość testowanej hipotezy zerowej. Przybliżenie rozkładem χ 2 jest prawdziwe dla dużych n lub k (n > 15 lub k > 4). Dla mniejszych prób należy korzystać z dokładnego rozkładu statystyki. 65 / 74
Wartość statystyki z poprawką na rangi wiązane wyliczamy ze wzoru χ 2 p = χ 2 s n j (t 3 jk t jk ) j=1 k=1 1 n(k 3 k) gdzie s j - liczba rang wiązanych dla j-tej jednostki (w wierszu), t jk - liczba obserwacji w k-tej randze wiązanej w j-tym wierszu., 66 / 74
Wartość statystyki z poprawką na rangi wiązane wyliczamy ze wzoru χ 2 p = χ 2 s n j (t 3 jk t jk ) j=1 k=1 1 n(k 3 k) gdzie s j - liczba rang wiązanych dla j-tej jednostki (w wierszu), t jk - liczba obserwacji w k-tej randze wiązanej w j-tym wierszu., 66 / 74
Współczynnik zgodności W Kendalla Współczynnik zgodności W Kendalla jest unormowaną wersją statystyki Friedmana. Jest on używany do badania zgodności pomiędzy rankingami pochodzącymi z wielu źródeł, na przykład ocenami wielu ekspertów. Przyjmuje on wartości z przedziału [0, 1], gdzie 0 oznacza całkowity brak zgodności, a 1 pełną zgodność. Współczynnik ten jest stosowany często w psychometrii do badania zgodności sędziów kompetentnych. 67 / 74
Współczynnik zgodności W Kendalla Współczynnik zgodności W Kendalla jest unormowaną wersją statystyki Friedmana. Jest on używany do badania zgodności pomiędzy rankingami pochodzącymi z wielu źródeł, na przykład ocenami wielu ekspertów. Przyjmuje on wartości z przedziału [0, 1], gdzie 0 oznacza całkowity brak zgodności, a 1 pełną zgodność. Współczynnik ten jest stosowany często w psychometrii do badania zgodności sędziów kompetentnych. 67 / 74
Współczynnik zgodności W Kendalla Współczynnik zgodności W Kendalla jest unormowaną wersją statystyki Friedmana. Jest on używany do badania zgodności pomiędzy rankingami pochodzącymi z wielu źródeł, na przykład ocenami wielu ekspertów. Przyjmuje on wartości z przedziału [0, 1], gdzie 0 oznacza całkowity brak zgodności, a 1 pełną zgodność. Współczynnik ten jest stosowany często w psychometrii do badania zgodności sędziów kompetentnych. 67 / 74
Współczynnik zgodności W Kendalla Współczynnik zgodności W Kendalla jest unormowaną wersją statystyki Friedmana. Jest on używany do badania zgodności pomiędzy rankingami pochodzącymi z wielu źródeł, na przykład ocenami wielu ekspertów. Przyjmuje on wartości z przedziału [0, 1], gdzie 0 oznacza całkowity brak zgodności, a 1 pełną zgodność. Współczynnik ten jest stosowany często w psychometrii do badania zgodności sędziów kompetentnych. 67 / 74
Współczynnik W Kendalla obliczamy ze wzoru W = χ 2 n(k 1). Aby ocenić jaki procent ogólnej wariancji ocen stanowi wspólna wariancja ocen, wyliczamy kwadrat ( r r ) 2 średniej korelacji rangowej ocen r r = nw 1 n 1. 68 / 74
Współczynnik W Kendalla obliczamy ze wzoru W = χ 2 n(k 1). Aby ocenić jaki procent ogólnej wariancji ocen stanowi wspólna wariancja ocen, wyliczamy kwadrat ( r r ) 2 średniej korelacji rangowej ocen r r = nw 1 n 1. 68 / 74
Przykład 5 Losowa próbę 12 konsumentów poproszono o określenie rankingu preferencji co do czterech nowych zapachów, które producent perfum chce wprowadzić na rynek jesienią. Zapach, który najbardziej się podobał miał rangę 1, a ten który najmniej się podobał miał rangę 4. 69 / 74
70 / 74
Wartość statystyki Friedmana wynosi χ 2 = 20, 4, p = 0, 00014, a więc na podstawie testu nieparametrycznego ANOVA możemy na podstawie ocen badanych respondentów stwierdzić istotne różnice w preferencji badanych zapachów przez konsumentów. 71 / 74
Współczynnik zgodności Kendalla wynosi 0, 57, a średnia korelacja rangowa 0, 53. Zgodność pomiędzy ocenami konsumentów jest znaczna, korelacja pomiędzy ocenami jest silna. 72 / 74
73 / 74
Statystyka jest bardziej sposobem myślenia lub wnioskowania niż pęczkiem recept na młócenie danych w celu odsłonięcia odpowiedzi. C. R. Rao