TESTY I KORELACJE cz.1 TESTY I KORELACJE - WPROWADZENIE Podstawowe narzędzia statystyki indukcyjnej to testy statystyczne i współczynniki korelacji. Różnice między nimi prezentuje poniższa tabela: TEST STATYSTYCZNY Może być wykonany zarówno dla jednej zmiennej, jak i dla pary zmiennych. Dla jednej zmiennej sprawdza sposób rozkładu zmiennej. Dla dwóch zmiennych sprawdza, czy pomiędzy zmiennymi występuje zależność. Ma dwie hipotezy: H 0 i H 1 Hipoteza H 0 (zazwyczaj) mówi o tym, że zmienne od siebie nie zależą. Hipoteza H 1 (zazwyczaj) mówi o tym, że zmienne od siebie zależą. Dla rozstrzygnięcia testu ważny jest poziom istotności statystycznej. Standardowo przyjmuje się wartość p < 0,05 jako tę, która pozwala odrzucić hipotezę H 0 i w efekcie przyjąć założenie o występowaniu zależności między zmiennymi. WSPÓŁCZYNNIK KORELACJI Może być wyliczony tylko dla pary zmiennych. Sprawdza siłę zależności pomiędzy zmiennymi. Korelacja to współwystępowanie a nie zależność przyczynowo-skutkowa! Nie ma hipotez. Wartość korelacji mówi o jej sile: im bliżej 0 -> tym słabsza im bliżej 1 -> tym silniejsza Znaki +/- to kierunek korelacji: + - korelacja wprost proporcjonalna - - korelacja odwrotnie proporcjonalna Wybór odpowiedniego testu statystycznego i współczynnika korelacji podyktowany nie jest taki oczywisty. Trzeba wziąć pod uwagę kilka rzeczy: poziom pomiaru zmiennej/zmiennych, liczbę ich wartości, to czy ich rozkład jest losowy i zbliżony do normalnego, czy mamy do czynienia z równością wariancji. Wybór testu/współczynnika korelacji słabszego niż wymagany nie jest błędem, ale osłabia wartość informacyjną prowadzonych analiz. Zdecydowanie błędem jest zaś wybór testu/współczynnika silniejszego nad tym musi czuwać analityk, bo SPSS w dość dużej liczbie przypadków nie zaprotestuje i wykona bezsensowne i merytorycznie bzdurne obliczenia. 1
Liczba wartości zmiennej niezależnej 1 wartość 1 grupa lub 1 parametr 2 wartości 2 grupy lub 2 parametry Więcej niż 2 wartości więcej niż 2 grupy lub więcej niż 2 parametry Poziom pomiaru zmiennej zależnej WYJATEK! Niezależna: Ilościowy WYJATEK! Niezależna: Nominalny Rozkład zmiennej zależnej normalny Wariancje homogeniczne Test statystyczny Tak Nie Test t-studenta dla średniej H 0 : μ = μ 0 H 1 : μ μ 0 H 1 : μ < μ 0 H 1 : μ > μ 0 Nie Nie Test chi-kwadrat dla jednej zmiennej H 0 : rozkład jest losowy H 1 : rozkład nie jest losowy Ilościowy Tak Nie Test t-studenta dla dwóch średnich H 0 : μ 1 = μ 2 H 1 : μ 1 μ 2 H 1 : μ 1 < μ 2 H 1 : μ 1 > μ 2 Porządkowy Nie Nie Test Manna-Whitney a H 0 : F 1 (x) = F 2 (x) H 1 : ~ H 0 Nominalny Nie Nie Test niezależności chi-kwadrat H 0 : nie zachodzi zależność H 1 : ~ H 0 Ilościowy Tak Tak Analiza wariancji ANOVA H 0 : μ 1 = μ 2 = = μ k H 1 : ~ H 0 + testy: post-hoc Porządkowy Nie Nie Test Kruskala-Wallisa H 0 : F 1 (x) = F 2 (x) = = F k (x) H 1 : ~ H 0 Nominalny Nie Nie Test niezależności chi-kwadrat H 0 : nie zachodzi zależność H 1 : ~ H 0 Współczynniki korelacji Poziom pomiaru zmiennej niezależnej Nominalny C kontyngencji (n x n) V Cramera (n x n) Phi φ Yulla (2 x 2) Porządkowy C kontyngencji (n x n) V Cramera (n x n) Phi φ Yulla (2 x 2) Ilościowy C kontyngencji (n x n) V Cramera (n x n) Phi φ Yulla (2 x 2) Poziom pomiaru zmiennej zależnej Nominalny Porządkowy Ilościowy C kontyngencji (n x n) V Cramera (n x n) Phi φ Yulla (2 x 2) Rho Spearmana (r s ) Ewentualnie: C kontyngencji (n x n) V Cramera (n x n) Phi φ Yulla (2 x 2) Eta (η) Eta (η) Ewentualnie: Rho Spearmana (r s ) Rho Spearmana (r s ) R Pearsona (r xy ) Interpretacja 0,0-0,1 nikła 0,1-0,3 słaba 0,3-0,5 przeciętna 0,5-0,7 wysoka 0,7-0,9 bardzo wysoka 0,9-1,0 pełna 2
1. TEST NIEZALEŻNOŚCI CHI-KWADRAT I WSPÓLCZYNNIK KONTYNGENCJI C test nieparametryczny najsłabszy przedstawianych, co oznacza z jednej strony, że można go wykonać zawsze, ale z drugiej ma najmniejszą czułość i czasem wykaże istnienie zależności tam, gdzie silniejsze testy by ją wykluczyły Układ hipotez: H 0 : nie zachodzi zależność pomiędzy zmienną niezależną i zależną (zmienna zależna nie różnicuje rozkładu zmiennej zależnej) H 1 : ~ H 0 Ogólna zasada działania: test porównuje ze sobą dwa rozkłady liczebności w tabeli krzyżowej zmienna niezależna x zmienna zależna: obserwowany i oczekiwany rozkład obserwowany uzyskujemy w toku badania, to nasze dane z bazy rozkład oczekiwany to pewien rozkład idealny: tak rozkładałyby się liczebności w tabeli krzyżowej, gdyby między dwiema zmiennymi nie było żadnej zależności jeśli rozkłady obserwowany i oczekiwany są bardzo podobne test orzeka, że nie ma zależności 3
jeśli natomiast rozkłady od siebie odbiegają test orzeka, że zależność jest Przykład: filtr: rok badania to 2010 Czy istnieje zależność pomiędzy wiekiem respondenta a samookreśleniem przez niego swojej religijności? Zmienna niezależna: wiek w przedziałach (zdekodowane q9age) Zmienna zależna: re32 Które z następujących stwierdzeń opisuje Pana(-ią) najlepiej (ważne: odpowiedź trudno powiedzieć ma być brakiem danych) ANALIZA -> OPIS STATYSTYCZNY -> TABELE KRZYŻOWE i dalej: STATYSTYKI -> CHI-KWADRAT oraz WSPÓŁCZYNNIK KONTYNGENCJI KOMÓRKI -> PROCENTY W WIERSZU Należy pamiętać, że zgodnie z konwencją tworzenia tabel zmienną niezależną umieszczamy w wierszach, a zmienną zależną w kolumnach Jeśli chcemy zobaczyć rozkład oczekiwany to w KOMÓRKI należy zaznaczyć również LICZEBNOŚCI OCZEKIWANE Syntax: CROSSTABS /TABLES=q9age_rek BY re32 /FORMAT=AVALUE TABLES /STATISTICS=CHISQ CC /CELLS=COUNT ROW /COUNT ROUND CELL. W linii kodu /TABLES zmienna niezależna wymieniana jest jako pierwsza a zmienna zależna jako druga Aby zobaczyć rozkład oczekiwany w linii /CELLS powinno być /CELLS=COUNT EXPECTED ROW 4
Jeśli chodzi o współczynniki korelacji, które można zastosować po obliczeniu testu chi-kwadrat, to są trzy najpopularniejsze: Współczynnik kontyngencji C (najbardziej uniwersalny, z korektą na kształt tabeli) V Cramera (dla tabel innych niż 2 x 2) Phi φ Yulla (tylko dla tabel 2 x 2) Zalecam stosowanie tego pierwszego właśnie ze względu na jego uniwersalność. Po wydaniu polecenia otrzymujemy 4 tabele: Informacja o analizowanych danych pokazuje, ile obserwacji zostało wykluczonych: to respondenci, którzy przynajmniej w jednym z analizowanych pytań udzielili odpowiedzi zakwalifikowanej jako brak danych. Tabela krzyżowa Testy chi-kwadrat skąd odczytujemy decyzję podaną przez test i tak naprawdę interesuje nas tylko wiersz Chi-kwadrat Pearsona Miary symetryczne skąd odczytujemy wartość współczynniki kontyngencji C (tylko, gdy istnieje zależność). Tabela testu: Testy Chi-kwadrat Wartość df Istotność asymptotyczna (dwustronna) Chi-kwadrat Pearsona 60,792 a 15,000 Iloraz wiarygodności 63,074 15,000 Test związku liniowego 31,270 1,000 N Ważnych obserwacji 1168 a. 0,0% komórek (0) ma liczebność oczekiwaną mniejszą niż 5. Minimalna liczebność oczekiwana wynosi 12,41. 2 (df, N) = [wartość], [istotność] < 0,05 2 (15, N=1168) = 60,792, p<0,05 [ przy braku zależności opis wyglądałby: 2 (15, N=1168) = 60,792, p>0,05 ] Ponieważ istotność statystyczna jest mniejsza niż 0,05, to możemy odrzucić hipotezę o braku zależności między zmiennymi i przyjąć, że zależność jest. Co oznacza taką oto interpretację: W celu sprawdzenia związku pomiędzy wiekiem a samookreśleniem przez respondenta jego religijności wykonano test niezależności chi-kwadrat. Test 2 (15, N=1168) = 60,792, p<0,05 5
wykazał, że istnieje zależność pomiędzy zmiennymi. Analiza rozkładu zmiennych w tabeli krzyżowej ujawniła, że im starszy respondent, tym rzadziej pojawiały się odpowiedzi o niepostępowaniu zgodnie z zasadami religii. Miary symetryczne Wartość Istotność przybliżona Nominalna przez Nominalna Współczynnik kontyngencji,222,000 N Ważnych obserwacji 1168 Wartość współczynnika kontyngencji wynosi C=0,222, co oznacza, że zależność jest słaba. Generalnie do właściwego raportu z badań nie wklejamy SPSS-owych tabel testu i współczynnika, tylko opisujemy ich wyniki. Przy teście chi-kwadrat trzeba pamiętać jeszcze o kilku sprawach. Zobrazuję to na przykładzie. Tym razem przetestujemy parę zmiennych: homepop liczba osób w gospodarstwie domowym re32 samookreślenie religijności Syntax: CROSSTABS /TABLES=hompop BY re32 /FORMAT=AVALUE TABLES /STATISTICS=CHISQ CC /CELLS=COUNT EXPECTED ROW /COUNT ROUND CELL. Wygenerowana tabela krzyżowa ujawnia w swojej końcowej części to, co może być problematyczne (dla zachowania czytelności usunęłam część wierszy, zmieniłam opis w wierszach i pokolorowałam je) 6
Tabela krzyżowa Liczba osób w gospodarstwie domowym JEDNA (RESPONDENT) Postępuję zgodnie z zasadami religii i uważam siebie za osobę uduchowioną, zainteresowaną tym, co święte lub nadprzyrodz najlepiej: * Które z następujących stwierdzeń opisuje Pana(-ią) Które z następujących stwierdzeń opisuje Pana(-ią) najlepiej: Postępuję Nie postępuję zgodnie z zgodnie z zasadami zasadami religii, ale nie religii, ale uważam siebie uważam siebie za osobę za osobę uduchowioną, uduchowioną, zainteresowaną zainteresowaną tym, co święte tym, co święte lub nadp lub nadp Nie postępuję zgodnie z zasadami religii i nie uważam siebie za osobę uduchowioną, zainteresowaną tym, co święte lub nad Ogółem Liczebność 48 131 19 29 227 Liczebność oczekiwana % z Liczba osób w gospodarstwie domowym 43,9 141,9 17,9 23,3 227,0 21,1% 57,7% 8,4% 12,8% 100,0% Liczba osób w gosp. domowym Ogółem SIEDEM OSÓB OSIEM OSÓB DZIEWIĘĆ OSÓB DWANAŚCIE OSÓB Liczebność 2 9 1 0 12 L.oczekiwana 2,3 7,5,9 1,2 12,0 % 16,7% 75,0% 8,3% 0,0% 100,0% Liczebność 2 1 0 0 3 L.oczekiwana,6 1,9,2,3 3,0 % 66,7% 33,3% 0,0% 0,0% 100,0% Liczebność 0 1 0 0 1 L.oczekiwana,2,6,1,1 1,0 % 0,0% 100,0% 0,0% 0,0% 100,0% Liczebność 0 1 0 0 1 L.oczekiwana,2,6,1,1 1,0 % 0,0% 100,0% 0,0% 0,0% 100,0% Liczebność 226 730 92 120 1168 L.oczekiwana 226,0 730,0 92,0 120,0 1168,0 % 19,3% 62,5% 7,9% 10,3% 100,0% Zmienna liczba osób w gospodarstwie domowym wygenerowała 10 kategorii od gospodarstw jednoosobowych do gospodarstwa dwunastoosobowego. Tyle, że od kategorii siedem osób ta i kolejne są bardzo mało liczne. Co powoduje, że końcówka tabeli obfituje w puste komórki. A test chi-kwadrat tego bardzo nie lubi. Jego czułość i wiarygodność jeszcze bardziej spada. 7
Drugi problem jest powiązany z pierwszym i sygnalizuje go sam SPSS. Pod tabelą testu wyświetla się taki oto komunikat: Testy Chi-kwadrat Wartość df Istotność asymptotyczna (dwustronna) Chi-kwadrat Pearsona 24,604 a 27,597 Iloraz wiarygodności 26,444 27,494 Test związku liniowego 4,699 1,030 N Ważnych obserwacji 1168 a. 42,5% komórek (17) ma liczebność oczekiwaną mniejszą niż 5. Minimalna liczebność oczekiwana wynosi,08. Dużego odsetka komórek z małymi liczebnościami oczekiwanymi też chi-kwadrat nie lubi. I to też obniża jego czułość i wiarygodność. Dlatego, gdy mamy do czynienia z taką sytuacją należy zastanowić się nad rekodowaniem problematycznych zmiennych. W tym przypadku można by zrobić coś takiego: liczba osób w gosp dom Częstość Procent Procent ważnych Procent skumulowany JEDNA (RESPONDENT) 248 19,6 19,6 19,6 DWIE OSOBY 336 26,6 26,6 46,2 Ważne TRZY OSOBY 273 21,6 21,6 67,8 CZTERY OSOBY 243 19,2 19,2 87,1 PIĘĆ OSÓB I WIĘCEJ 164 12,9 12,9 100,0 Ogółem 1263 100,0 100,0 Test chi-kwadrat co prawda ponownie wskazał na brak zależności (można sprawdzić samemu ), ale przynajmniej wiemy, że nie wynika to z nierównomiernego rozkładu zmiennych. 8
2. TEST CHI-KWADRAT DLA 1 ZMIENNEJ Test chi-kwadrat można też wykorzystać, aby sprawdzić, czy rozkład danej zmiennej nominalnej lub porządkowej: albo jest losowy tzn. czy poszczególne kategorie osób wyznaczone przez wartości tej zmiennej wypełniają się w sposób losowy. albo odzwierciedla strukturę populacji (np. 20% niewierzących i 80% wierzących) Układ hipotez: H 0 : nie ma różnic w rozkładzie liczebności pomiędzy kategoriami (rozkład jest losowy / odzwierciedla strukturę populacji) H 1 : ~ H 0 Przykład: filtr: rok badania 2010 testowana zmienna q5 kobiety nie nadają się do polityki zmienną potraktujemy jako dwuwartościową (odpowiedź nie jestem pewien/pewna ma być brakiem danych) przetestujemy losowość rozkładu czy każda z dwóch ważnych odpowiedzi (zgadzam się / nie zgadzam się) to 50% respondentów ANALIZA -> TESTY NIEPARAMETRYCZNE -> TESTY TRADYCYJNE -> CHI-KWADRAT W polu Wartości oczekiwane pozostawić Wszystkie kategorie są równe. Gdybyśmy chcieli testować rozkład populacyjny, który nie byłby tak równy, to należałoby wybrać opcję wartości i wprowadzić ręcznie proporcje kolejnych kategorii w takiej samej kolejności jak idą w wartościach testowanej zmiennej! Syntax NPAR TESTS /CHISQUARE=q5 /EXPECTED=EQUAL /MISSING ANALYSIS. 9
Po wykonaniu polecenia otrzymujemy dwie tabele. Pierwsza to rozkład zmiennej: Kobiety nie nadają się do polityki Obserwowane Oczekiwane N Reszty N Zgadzam się 612 602,0 10,0 Nie zgadzam się 592 602,0-10,0 Ogółem 1204 Kolumna Obserwowane informuje nas jak wygląda uzyskany w badaniu rozkład zmiennej. Kolumna Oczekiwane informuje jaki byłby rozkład, gdyby każda z kategorii miała 50%. Kolumna reszty to różnica Obserwowane - Oczekiwane ; reszta większa od zera pokazuje, czego mamy za dużo w rozkładzie faktycznym, a reszta mniejsza od zera: czego za mało. O tym, czy różnica między obserwowanym i oczekiwanym wpływa lub nie wpływa na losowość rozkładu informuje tabela testu. Statystyki testu Kobiety nie nadają się do polityki Chi-kwadrat,332 a df 1 Istotność asymptotyczna,564 a. 0 komórek (0,0%) ma liczebność oczekiwaną mniejszą od 5. Minimalna liczebność oczekiwana w komórce wynosi 602,0. 2 (df, N) = [wartość], [istotność] > 0,05 2 (1, N=1204) = 0,332, p>0,05 [ przy braku zależności opis wyglądałby: 2 (1, N=1204) = 0,332, p>0,05 ] Interpretacja: Dla zbadania losowości rozkładu zmiennej Kobiety nie nadają się do polityki zgadzam się lub nie zgadzam ze stwierdzeniem, wykonano test chi-kwadrat dla jednej zmiennej. Test 2 (1, N=1204) = 0,332, p>0,05 nie jest istotny statystycznie, co nie daje podstaw do odrzucenia hipotezy zerowej: rozkład zmiennej jest losowy. 10
3. TEST T-STUDENTA I WSPÓŁCZYNNIK KORELACJI ETA Test parametryczny Porównywanym parametrem jest średnia; Test t-studenta porównuje średnie z dwóch grup. Grupy te można wyznaczyć na trzy różne sposoby: a) Zmienna niezależna jest oryginalnie dwuwartościowa Np. płeć: kobieta / mężczyzna b) Zmienna niezależna jest oryginalnie wielowartościowa, ale dla celów analitycznych sprowadzamy poprzez rekodowanie ją do dwóch wartości, np. Wiek: 1: <= 25 lat 2: 26 35 lat 3: 36 45 lat 4: 46 55 lat 5: 56 65 lat 6: 66+ lat Wiek: 1: <=45 lat 2: 45+ lat c) Zmienna niezależna jest oryginalnie wielowartościowa, ale dla celów analitycznych wybieramy do porównania tylko dwie z jej wartości, np. Wiek: 1: <= 25 lat 2: 26 35 lat 3: 36 45 lat 4: 46 55 lat 5: 56 65 lat 6: 66+ lat Wiek: 2: 26-35 lat 4: 46-55 lat Układ hipotez: Hipoteza zerowa: nie różnic pomiędzy średnimi w porównywanych grupach; zmienna niezależna nie różnicuje średnich; nie ma związku pomiędzy zmiennymi H 0 : μ 1 = μ 2 Hipoteza alternatywna: jest różnica pomiędzy średnimi w porównywanych grupach; zmienna niezależna różnicuje średnie; jest związek pomiędzy zmiennymi; Trzy możliwe postacie: H 1 : μ 1 μ 2 => średnie różnią się, bez orzekania która jest większa H 1 : μ 1 < μ 2 => średnia w drugiej grupie większa od średniej w pierwszej grupie H 1 : μ 1 > μ 2 => średnia w pierwszej grupie większa od średniej w drugiej grupie 11
Test t-studenta ma też swoje wymagania, których niespełnienie obniża jego wiarygodność: W miarę równoliczne porównywane grupy (w praktyce nie musi być co do osoby, ale ważne, by unikać wielkich dysproporcji); Równe wariancje w porównywanych grupach (w praktyce: test ma wbudowaną poprawkę na okoliczność niehomogenicznych wariancji); Rozkład zmiennej zależnej w każdej z porównywanych grup jest normalny (w praktyce: często się to pomija). Niespełnienie jednego, dwóch lub wszystkich powyższych założeń może/powinno być wskazówką do tego, by parametryczny test t-studenta zastąpić jego nieparametrycznym odpowiednikiem: testem Manna- Whitneya. Przykład: Filtr: rok badania 2010 Zmienna niezależna: q8 płeć Zmienna zależna: re6 Mężczyzna zarabiać, kobieta w domu o Potraktujemy ją jako zmienną ilościową ze względu na zastosowaną tam kafeterię likertowską; o By utrzymać poziom ilościowych należy do braków danych dopisać odpowiedź trudno powiedzieć ; o Przypominam: gdyby to była kafeteria czwórelementowa, to można by ją zmienić w likertowską umieszczając trudno powiedzieć jako item środkowy; ANALIZA -> PORÓWNANIE ŚREDNICH -> TEST T DLA PRÓB NIEZALEŻNYCH Zmienna testowana -> zależna Zmienna grupująca -> niezależna o Przy wybraniu punktu podziału, będzie on stanowił dolną granicę drugiego przedziału (będzie np. < 3 oraz >=3) Syntax: T-TEST GROUPS=q8(1 2) /MISSING=ANALYSIS /VARIABLES=re6 /CRITERIA=CI(.95). w linii kodu T-TEST GROUPS=q8(1 2) jest zmienna niezależna w kody dwóch porównywanych grup w linii kodu /VARIABLES=re6 jest zmienna zależna 12
Wykonanie polecenia generuje dwie tabele: Statystyki dla grup Test dla prób niezależnych Interpretuje się obie tabele. Tabela statystyki dla grup Statystyki dla grup Mężczyz zarabiać, kobieta w domu Płeć respondenta: 1=M, 2=KOB N Średnia Odchylenie standardowe Błąd standardowy średniej MĘŻCZYZNA 584 2,73 1,169,048 KOBIETA 646 3,04 1,208,048 Interpretujemy podobne dane jak przy prostym porównywaniu średnich: Wartość średniej Wartość odchylenia standardowego Liczebność grup Ta ostatnia informacja o liczebności grup jest dla nas ważna ze względu na wymogi testu (jak pamiętamy: test woli grupy równoliczne). Tu nie ma równoliczności, ale dysproporcja nie jest jakaś bardzo duża. To znaczy, że (na razie) możemy ufać testowi. Interpretacja drugiej tabeli test dla prób niezależnych Test dla prób niezależnych Mężczyz zarabiać, kobieta w domu Założono równość wariancji Nie założono równości wariancji Test Levene'a Test t równości średnich jednorodności wariancji F Istotność t df Istotność (dwustronna) Różnica średnich Błąd standardowy różnicy 95% przedział ufności dla różnicy średnich Dolna granica Górna granica,047,829-4,575 1228,000 -,311,068 -,444 -,177-4,583 1222,760,000 -,311,068 -,444 -,178 13
Tabela składa się z wyników dwóch testów: Testu Levene a (zaznaczony na szaro) Testu t-studenta Po co test Levene a? Jednym z warunków testu t-studenta jest homogeniczność wariancji. Test na szczęście nie wymaga tego bezwzględnie i ma wbudowaną poprawkę właśnie na okoliczność braku równości wariancji. Kłopot polega na tym, że SPSS jednocześnie liczy obie wersje testu: tę bez poprawki i tę z poprawką. Byśmy jednak wiedzieli, który wynik jest ten nasz dostajemy podpowiedź w postaci testu Levene a. Test ten sprawdza właśnie homogeniczność wariancji (jego H o zakłada równość wariancji): Gdy istotność testu Levene a jest mniejsza niż 0,05 -> test jest istotny, odrzucamy jego hipotezę zerową -> wariancje nie są homogeniczne i czytamy w tabeli 2 wiersz w części test t równości średnich ; Gdy istotność testu Levene a jest większa niż 0,05 -> test jest nieistotny, przyjmujemy jego hipotezę zerową -> wariancje są homogeniczne i czytamy w tabeli 1 wiersz w części test t równości średnich ; W naszym przypadku istotność testu Levene a jest większa niż 0,05, co oznacza, że wariancje są homogeniczne i dalej będziemy zajmować się pierwszym wierszem tabeli. Test dla prób niezależnych Mężczyz zarabiać, kobieta w domu Założono równość wariancji Nie założono równości wariancji Test Levene'a Test t równości średnich jednorodności wariancji F Istotność t df Istotność (dwustronna) Różnica średnich Błąd standardowy różnicy 95% przedział ufności dla różnicy średnich Dolna granica Górna granica,047,829-4,575 1228,000 -,311,068 -,444 -,177-4,583 1222,760,000 -,311,068 -,444 -,178 t(df) = [wartość]; [istotność] < 0,05 t(1228) = -4,575; p<0,05 [ przy braku zależności opis wyglądałby: t(1228) = -4,575, p>0,05 ] 14
Interpretacja: Aby sprawdzić, czy odpowiedzi respondentów na pytanie Mężczyzna powinien zarabiać, a kobieta powinna siedzieć w domu są zróżnicowane ze względu na płeć, wykonano test t-studenta. Test t(1228) = -4,575; p<0,05 wykazał, że płeć różnicuje opinie. Kobiety częściej niż mężczyźni wykazywały tendencję do odrzucania wskazanej w pytaniu tezy. Ponieważ test t-studenta wykazała istnienie zależności można obliczyć współczynnik korelacji, który pokaże siłę zależności. Będzie to Eta, którą stosujemy przy układzie zmiennych: Nominalna x ilościowa Porządkowa x ilościowa Etę można policzyć na dwa sposoby: 1) ANALIZA -> PORÓWNYWANIE ŚREDNICH -> SREDNIE w OPCJE zaznaczyć tabela ANOVA i eta Syntax: MEANS TABLES=re6 BY q8 /CELLS MEAN COUNT STDDEV /STATISTICS ANOVA. Przy okazji policzy się Anova, którą tutaj ignorujemy. Interesuje nas tylko tabela: Miara związku Eta Eta kwadrat Mężczyz zarabiać, kobieta w domu * Płeć respondenta: 1=M, 2=KOB,129,017 2) ANALIZA -> OPIS STATYSTYCZNY -> TABELE KRZYŻOWE w STATYSTYKI zaznaczyć Eta Syntax: CROSSTABS /TABLES=q8 BY re6 /FORMAT=AVALUE TABLES /STATISTICS=ETA /CELLS=COUNT ROW /COUNT ROUND CELL. 15
Tabelę krzyżową można zignorować i przejść od razu do tabelki: Miary kierunkowe Wartość Zmienna zależna: Płeć,155 Nominalna przez respondenta: 1=M, 2=KOB Eta Przedziałowa Zmienna zależna: Mężczyz zarabiać, kobieta w domu,130 Przy tej tabeli ważne jest, by odczytać właściwy wiersz ten, gdzie jest wskazana zmienna zależna. Niezależnie od sposobu liczenia współczynnik korelacji Eta ( = 0,129 / = 0,13) informuje, że zależność jest słaba. Do tej pory nie zwracaliśmy uwagi na trzeci warunek testu t-studenta, czyli wymóg rozkładu normalnego zmiennej zależnej w każdej z porównywanych grup. Tak jak pisałam wcześniej, warunek ten najczęściej się ignoruje. Gdybyśmy jednak chcieli sprawdzić, czy i pod tym względem możemy ufać testowi t-studenta, to mamy do dyspozycji odpowiednie testy: Test Kołmogorow-Smirnowa dla grup N>100 Test Shapiro-Wilka dla grup N<100 Ponieważ nasza próba jest zdecydowanie ponad stuosobowa, to zrobimy test Kołmogorow-Smirnowa. ANALIZA -> OPIS STATYSTYCZNY -> EKSPLORACJA w WYKRESY zaznaczyć histogram oraz wykresy normalności z testami ; można odznaczyć łodyga-i-liście ; zmienna niezależna będzie czynnikiem, co oznacza, że normalność rozkładu będziemy testować osobno dla każdej z jej grup: osobno dla mężczyzn i osobno dla kobiet; Syntax: EXAMINE VARIABLES=re6 BY q8 /PLOT BOXPLOT HISTOGRAM NPPLOT /COMPARE GROUPS /STATISTICS DESCRIPTIVES /CINTERVAL 95 /MISSING LISTWISE /NOTOTAL. W linii kodu EXAMINE VARIABLES=re6 BY q8 zmienna niezależna (czynnik) podawana jest jako druga 16
W tabeli statystyki opisowe mamy dobrze nam znane miary. Do oceny normalności rozkładu przydadzą nam się szczególnie dwie: kurtoza i błąd standardowy kurtozy skośność i błąd standardowy skośności Wiemy, że kurtoza opisuje dopasowanie rozkładu zmiennej do rozkładu normalnego wzwyż / wszerz, a skośność przesunięcie rozkładu zmiennej w prawo lub w lewo. Ponadto, jeśli podzielimy obie miary przez ich błędy standardowe, to: wynik w granicach -2 do 2 wskazuje na rozkład normalny zmiennej wynik poniżej -2 lub powyżej 2 wskazuje na nienormalność rozkładu Dalej mamy test normalności rozkładu u nas: test Kołmogorow-Smirnowa. Jego hipoteza zerowa zakłada, że rozkład zmiennej zależnej jest normalny. Dlatego p < 0,05 oznacza istotność testu, odrzucenie H 0 i uznanie, że rozkład nie jest normalny p > 0,05 oznacza nieistotność testu, przyjęcie H 0 i uznanie, że rozkład jest normalny Wynik testu Kołmogorowa-Smirnowa jest opisany przez poniższą tabelę. Testy normalności rozkładu Płeć respondenta: 1=M, Kołmogorow-Smirnow a 2=KOB Statystyka df Istotność Mężczyz zarabiać, kobieta w MĘŻCZYZNA,223 584,000 domu KOBIETA,224 646,000 a. Z poprawką istotności Lillieforsa W naszym przypadku istotność w obu grupach jest mniejsza niż 0,05. Oznacza to, że mamy podstawy do odrzucenia hipotezy zerowej o normalności rozkładu zmiennej. Gdybyśmy teraz chcieli być bardzo rygorystyczni, to wynik testu Kołmogorowa-Smirnowa powinien nas zniechęcić do wykonania testu t-studenta. Zamiast tego powinniśmy sięgnąć po jego nieparametryczny odpowiednik, czyli test Manna-Whitneya. Przy teście Kołmogorowa-Smirnowa pokazane są również wykresy można spojrzeć na histogramy, które powinny potwierdzić wnioski dot. kształtu rozkładu zmiennej z analizy kurtozy i skośności. Resztę wykresów można pominąć. 17
4. TEST MANNA-WHITNEYA Test nieparametryczny Porównuje rozkłady rang dla dwóch grup (wyznaczonych przez zmienną niezależną) Traktowany jako nieparametryczny odpowiednik testu t-studenta Układ hipotez: H 0 : F 1 (x) = F 2 (x) => rozkłady rang są równe, zmienna niezależna nie różnicuje rozkładów rang, nie ma zależności między zmiennymi H 1 : ~ H 0 Zasada działania na przykładzie: Przeprowadzono pomiar czasu nauki do egzaminu w minutach i uzyskano wyniki: Kobiety: 171, 194, 162, 210, 171, 160, 176, 185, 203, 222, 129, 167, 168 Mężczyźni: 152, 114, 151, 174, 149, 161, 153, 163, 156 Pomiary z obu grup są szeregowane od najmniejszego do największego (każda grupa osobno), a potem rangowane (obie grupy razem). Następnie rangi dla każdej z grup są sumowane. K 129 160 162 167 168 171 171 176 185 194 203 210 222 Ranga 2 8 10 12 13 14,5 14,5 17 18 19 20 21 22 191 M 114 149 151 152 153 156 161 163 174 Ranga 1 3 4 5 6 7 9 11 16 62 Dalsze obliczenia związane są ze statystyką U i jej rozkładem. Te wszystkie działania SPSS wykonuje w trakcie obliczania testu. Nam udostępnia jedynie wynik końcowy. Przykład: Filtr: rok badania 2010 Zmienna niezależna: q8 płeć Zmienna zależna: re6 Mężczyzna zarabiać, kobieta w domu o Dla jasności interpretacji do braków danych zostaje zaliczona odpowiedź trudno powiedzieć ANALIZA -> TESTY NIEPARAMETRYCZNE -> TESTY TRADYCYJNE -> DWIE PRÓBY NIEZALEŻNE Zmienna grupująca -> niezależna Zmienna testowana -> zależna 18
Syntax: NPAR TESTS /M-W= re6 BY q8(1 2) /MISSING ANALYSIS. w linii kodu /M-W= re6 BY q8(1 2) zmienna zależna podawana jest jako pierwsza a zmienna niezależna jako druga (wraz z kodami porównywanych grup) Wykonanie polecenia generuje dwie tabele. Pierwsza z tabel: rangi, informuje nas ile osób było w każdej z porównywanych grup. Do tego, dla każdej z grup podane są średnie rangi. Można te liczby, lekko naginając rzeczywistość, interpretować tak jak zwykłą średnią: im wyższa wartość, tym częściej padały odpowiedzi wysoko kodowane w kafeterii (u nas: wskazujące na niezgodę z prezentowanym twierdzeniem). Rangi Mężczyz zarabiać, kobieta w domu Płeć respondenta: 1=M, 2=KOB N Średnia ranga Suma rang MĘŻCZYZNA 591 585,94 346288,50 KOBIETA 696 693,30 482539,50 Ogółem 1287 Druga tabela jest tabelą właściwą testu: Statystyki testu a Mężczyz zarabiać, kobieta w domu U Manna-Whitneya 171352,500 W Wilcoxona 346288,500 Z -5,326 Istotność asymptotyczna,000 (dwustronna) a. Zmienna grupująca: Płeć respondenta: 1=M, 2=KOB U=[wartość]; [istotność] < 0,05 U=171352,5; p<0,05 [ przy braku zależności opis wyglądałby: U=171352,5, p>0,05 ] Interpretacja: Aby sprawdzić, czy odpowiedzi respondentów na pytanie Mężczyzna powinien zarabiać, a kobieta powinna siedzieć w domu są zróżnicowane ze względu na płeć, wykonano test Manna-Whitenya. Test U=171352,5; p<0,05 wykazał, że płeć różnicuje opinie. Kobiety częściej niż mężczyźni wykazywały tendencję do odrzucania wskazanej w pytaniu tezy. 19
5. TEST KRUSKALA-WALLISA Test nieparametryczny Porównuje rozkłady rang dla więcej niż dwóch grup (wyznaczonych przez zmienną niezależną) Traktowany jako nieparametryczny odpowiednik jednoczynnikowej analizy wariancji ANOVA Układ hipotez: H 0 : F 1 (x) = F 2 (x) = = F k (x) => rozkłady rang są równe, zmienna niezależna nie różnicuje rozkładów rang, nie ma zależności między zmiennymi H 1 : ~ H 0 Zasada działania testu jest taka sama jak w przypadku testu Manna-Whitneya, z tą różnicą, że test Kruskala- Wallisa oparty jest na statystyce chi-kwadrat. Przykład: Filtr: rok badania 2010 Zmienna niezależna: rekodowany do przedziałów wiek Zmienna zależna: re6 Mężczyzna zarabiać, kobieta w domu o Dla jasności interpretacji do braków danych zostaje zaliczona odpowiedź trudno powiedzieć ANALIZA -> TESTY NIEPARAMETRYCZNE -> TESTY TRADYCYJNE -> K PRÓB NIEZALEŻNYCH Zmienna grupująca -> niezależna Zmienna testowana -> zależna Syntax: NPAR TESTS /K-W=re6 BY q9age_rek(1 6) /MISSING ANALYSIS. w linii kodu K-W=re6 BY q9age_rek(1 6) zmienna zależna podawana jest jako pierwsza a zmienna niezależna jako druga (wraz z kodami porównywanych grup pierwszym i ostatnim kodem z listy wszystkich wartości zmiennej bez braków danych) 20
Wykonanie polecenia generuje dwie tabele. Pierwsza z tabel: rangi, informuje nas ile osób było w każdej z porównywanych grup. Do tego, dla każdej z grup podane są średnie rangi. Można te liczby, lekko naginając rzeczywistość, interpretować tak jak zwykłą średnią: im wyższa wartość, tym częściej padały odpowiedzi wysoko kodowane w kafeterii (u nas: wskazujące na niezgodę z prezentowanym twierdzeniem). Rangi Mężczyz zarabiać, kobieta w domu Wiek respondenta (Podzielone) N Średnia ranga <= 25 184 718,14 26-35 248 739,73 36-45 207 712,39 46-55 231 616,64 56-65 231 574,92 66+ 186 486,70 Ogółem 1287 Druga tabela jest tabelą właściwą testu: Statystyki testu a,b Mężczyz zarabiać, kobieta w domu Chi-kwadrat 77,985 df 5 Istotność asymptotyczna,000 a. Test Kruskala-Wallisa b. Zmienna grupująca: Wiek respondenta (Podzielone) H=[wartość]; [istotność] < 0,05 H=77,985; p<0,05 [ przy braku zależności opis wyglądałby: H=77,985, p>0,05 ] Interpretacja: Aby sprawdzić, czy odpowiedzi respondentów na pytanie Mężczyzna powinien zarabiać, a kobieta powinna siedzieć w domu są zróżnicowane ze względu na wiek, wykonano test Kruskala-Wallisa. Test H=77,985; p<0,05 wykazał, że wiek różnicuje opinie. Osoby młodsze częściej niż starsi respondenci wykazywały tendencję do odrzucania wskazanej w pytaniu tezy. 21