Agnieszka Nowak - Brzezińska

Podobne dokumenty
Testy nieparametryczne

Testowanie hipotez statystycznych. Wnioskowanie statystyczne

Wnioskowanie statystyczne Weryfikacja hipotez. Statystyka

Statystyka matematyczna dla leśników

Statystyka. Rozkład prawdopodobieństwa Testowanie hipotez. Wykład III ( )

Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji

Błędy przy testowaniu hipotez statystycznych. Decyzja H 0 jest prawdziwa H 0 jest faszywa

TESTY NIEPARAMETRYCZNE. 1. Testy równości średnich bez założenia normalności rozkładu zmiennych: Manna-Whitney a i Kruskala-Wallisa.

W2. Zmienne losowe i ich rozkłady. Wnioskowanie statystyczne.

Zadania ze statystyki, cz.6

Statystyka. #5 Testowanie hipotez statystycznych. Aneta Dzik-Walczak Małgorzata Kalbarczyk-Stęclik. rok akademicki 2016/ / 28

RÓWNOWAŻNOŚĆ METOD BADAWCZYCH

Statystyka matematyczna. Wykład IV. Weryfikacja hipotez statystycznych

S t a t y s t y k a, część 3. Michał Żmihorski

LABORATORIUM 3. Jeśli p α, to hipotezę zerową odrzucamy Jeśli p > α, to nie mamy podstaw do odrzucenia hipotezy zerowej

Weryfikacja hipotez statystycznych

Założenia do analizy wariancji. dr Anna Rajfura Kat. Doświadczalnictwa i Bioinformatyki SGGW

STATYSTYKA I DOŚWIADCZALNICTWO. Wykład 2

Testowanie hipotez statystycznych

Statystyczna analiza danych w programie STATISTICA (wykład 2) Dariusz Gozdowski

LABORATORIUM 8 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI

STATYSTYKA wykład 8. Wnioskowanie. Weryfikacja hipotez. Wanda Olech

STATYSTYKA I DOŚWIADCZALNICTWO Wykład 6

VI WYKŁAD STATYSTYKA. 9/04/2014 B8 sala 0.10B Godz. 15:15

Testowanie hipotez statystycznych

Wydział Matematyki. Testy zgodności. Wykład 03

Wykład 3 Hipotezy statystyczne

LABORATORIUM 8 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI

Modele i wnioskowanie statystyczne (MWS), sprawozdanie z laboratorium 4

Spis treści. Laboratorium III: Testy statystyczne. Inżynieria biomedyczna, I rok, semestr letni 2013/2014 Analiza danych pomiarowych

ODRZUCANIE WYNIKÓW POJEDYNCZYCH POMIARÓW

166 Wstęp do statystyki matematycznej

Analizy wariancji ANOVA (analysis of variance)

SIGMA KWADRAT. Weryfikacja hipotez statystycznych. Statystyka i demografia CZWARTY LUBELSKI KONKURS STATYSTYCZNO-DEMOGRAFICZNY

Testowanie hipotez statystycznych.

Szczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć)

Wykład 9 Testy rangowe w problemie dwóch prób

Idea. θ = θ 0, Hipoteza statystyczna Obszary krytyczne Błąd pierwszego i drugiego rodzaju p-wartość

Wykład 10 ( ). Testowanie hipotez w rodzinie rozkładów normalnych przypadek nieznanego odchylenia standardowego

Hipotezy statystyczne

Statystyka matematyczna. Wykład VI. Zesty zgodności

WNIOSKOWANIE STATYSTYCZNE

Hipotezy statystyczne

Rozkład zmiennej losowej Polega na przyporządkowaniu każdej wartości zmiennej losowej prawdopodobieństwo jej wystąpienia.

Testowanie hipotez. Hipoteza prosta zawiera jeden element, np. H 0 : θ = 2, hipoteza złożona zawiera więcej niż jeden element, np. H 0 : θ > 4.

Zadania ze statystyki cz. 8 I rok socjologii. Zadanie 1.

Przedmowa Wykaz symboli Litery alfabetu greckiego wykorzystywane w podręczniku Symbole wykorzystywane w zagadnieniach teorii

Statystyka i opracowanie danych- W 8 Wnioskowanie statystyczne. Testy statystyczne. Weryfikacja hipotez statystycznych.

Wnioskowanie statystyczne i weryfikacja hipotez statystycznych

Wprowadzenie do analizy korelacji i regresji

Wykład 5 Problem dwóch prób - testowanie hipotez dla równości średnich

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Modele i wnioskowanie statystyczne (MWS), sprawozdanie z laboratorium 3

Statystyka od podstaw Janina Jóźwiak, Jarosław Podgórski

Rozkłady statystyk z próby

STATYSTYKA I DOŚWIADCZALNICTWO Wykład 4

Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1

Zawartość. Zawartość

ANALIZA STATYSTYCZNA WYNIKÓW BADAŃ

Populacja generalna (zbiorowość generalna) zbiór obejmujący wszystkie elementy będące przedmiotem badań Próba (podzbiór zbiorowości generalnej) część

Przykład 1. (A. Łomnicki)

P: Czy studiujący i niestudiujący preferują inne sklepy internetowe?

7. Estymacja parametrów w modelu normalnym( ) Pojęcie losowej próby prostej

Wykład 9 Wnioskowanie o średnich

Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności. dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl

Statystyka matematyczna Testowanie hipotez i estymacja parametrów. Wrocław, r

Testowanie hipotez dla dwóch zmiennych zależnych. Moc testu. Minimalna liczność próby; Regresja prosta; Korelacja Pearsona;

Zad. 4 Należy określić rodzaj testu (jedno czy dwustronny) oraz wartości krytyczne z lub t dla określonych hipotez i ich poziomów istotności:

weryfikacja hipotez dotyczących parametrów populacji (średnia, wariancja)

VII WYKŁAD STATYSTYKA. 30/04/2014 B8 sala 0.10B Godz. 15:15

Testy dla dwóch prób w rodzinie rozkładów normalnych

Wykład 12 ( ): Testy dla dwóch prób w rodzinie rozkładów normalnych

Doświadczalnictwo leśne. Wydział Leśny SGGW Studia II stopnia

Tablica Wzorów Rachunek Prawdopodobieństwa i Statystyki

b) Niech: - wśród trzech wylosowanych opakowań jest co najwyżej jedno o dawce 15 mg. Wówczas:

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 9 i 10 - Weryfikacja hipotez statystycznych

STATYSTYKA MATEMATYCZNA WYKŁAD 4. WERYFIKACJA HIPOTEZ PARAMETRYCZNYCH X - cecha populacji, θ parametr rozkładu cechy X.

ALGORYTMICZNA I STATYSTYCZNA ANALIZA DANYCH

Jak sprawdzić normalność rozkładu w teście dla prób zależnych?

ZMIENNE LOSOWE. Zmienna losowa (ZL) X( ) jest funkcją przekształcającą przestrzeń zdarzeń elementarnych w zbiór liczb rzeczywistych R 1 tzn. X: R 1.

Statystyka matematyczna i ekonometria

1 Podstawy rachunku prawdopodobieństwa

Rachunek prawdopodobieństwa i statystyka - W 9 Testy statystyczne testy zgodności. Dr Anna ADRIAN Paw B5, pok407

Statystyka matematyczna i ekonometria

1. Opis tabelaryczny. 2. Graficzna prezentacja wyników. Do technik statystyki opisowej można zaliczyć:

Wnioskowanie statystyczne. Statystyka w 5

Statystyki: miary opisujące rozkład! np. : średnia, frakcja (procent), odchylenie standardowe, wariancja, mediana itd.

Szczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć)

Zadanie 1. Analiza Analiza rozkładu

Statystyczna analiza danych

STATYSTYKA MATEMATYCZNA WYKŁAD 4. Testowanie hipotez Estymacja parametrów

Zadania ze statystyki, cz.7 - hipotezy statystyczne, błąd standardowy, testowanie hipotez statystycznych

TESTOWANIE HIPOTEZ STATYSTYCZNYCH

12/30/2018. Biostatystyka, 2018/2019 dla Fizyki Medycznej, studia magisterskie. Estymacja Testowanie hipotez

dr hab. Dariusz Piwczyński, prof. nadzw. UTP

Zadanie 1 Zakładając liniową relację między wydatkami na obuwie a dochodem oszacować MNK parametry modelu: y t. X 1 t. Tabela 1.

WIELKA SGH-OWA POWTÓRKA ZE STATYSTYKI. Test zgodności i analiza wariancji Analiza wariancji

Odchudzamy serię danych, czyli jak wykryć i usunąć wyniki obarczone błędami grubymi

dr hab. Dariusz Piwczyński, prof. nadzw. UTP

Importowanie danych do SPSS Eksportowanie rezultatów do formatu MS Word... 22

Transkrypt:

Agnieszka Nowak - Brzezińska

Gdy zbiór zdarzeń elementarnych jest skończony, odwzorowywanie go w zbiór liczb (czyli tworzenie zmiennej losowej) może być mniej użyteczne niż w przypadku zmiennej losowej ciągłej.

Jeśli zbiór zdarzeń elementarnych nie wykazuje naturalnego uporządkowania, mówimy o skali nominalnej Przykłady: grupa krwi (0,A,B,AB), rozpoznanie, czynnik etiologiczny, sympatie polityczne (PO,PiS,PSL,...), wyznanie, narodowość, rasa...

Gdy w zbiorze zdarzeń istnieje naturalne uporządkowanie, ale wprowadzanie odległości nie ma sensu, mamy do czynienia ze skalą porządkową. Przykłady: wynik leczenia (pogorszenie,b.z., poprawa), wykształcenie (brak, podst., średnie, wyższe), WBC (poniżej, w normie, powyżej)

Gdy w skończonym zbiorze zdarzeń elementarnych istnieje odległość, prezentacja wyników w postaci zmiennej losowej jest w pełni uzasadniona. Przykłady: tętno, WBC (tys./mm 3 ), liczba dzieci Gdy liczba możliwych wartości jest duża, traktujemy taką zmienną jako ciągłą.

Pojęcie skali pomiarowej ma zastosowanie nie tylko do zmiennych losowych (wyników pomiarów), ale także w odniesieniu do wielkości kontrolowanych w eksperymencie (czynników).

Pojecie hipotezy statystycznej ewoluowało przez setki lat. Pierwsze zachowane wzmianki o koncepcie hipotezy można znaleźć w pracy Teoria Matematyki greckiego filozofa Geminus a (pierwsze dziesięciolecia naszej ery). Termin hipoteza był przez wieki używany w astrologii oraz fizyce. Przykładami sa prace Gottfrieda Wilhelma Leibniz a ( Nowe hipotezy fizyczne, 1671) oraz Isaaca Newtona ( Hipotezy o świetle, 1675). Wzmianki o pierwszej hipotezie zweryfikowanej na gruncie analizy statystycznej dotyczą pracy medyka Johna Arbuthnota (1667 1735), który w roku 1710 opublikował w Royal Society pracę An argument for Divine Providence, taken from the constant regularity observ d in the births of both sexes. W pracy tej przedstawił roczne liczby urodzeń chłopców oraz dziewcząt w Londynie z lat 1625-1710 oraz zauważył, że w każdym roku rodziło sie więcej chłopców niż dziewcząt. Obliczając stosowne prawdopodobieństwa na ich podstawie stwierdził, że częstość urodzin chłopców jest statystycznie istotnie większa niż częstość urodzin dziewcząt.

Przez kolejny wiek uczeni stawiając i weryfikując hipotezy statystyczne kierowali się intuicją. Dopiero w latach dwudziestych XX wieku aksjomatyczne podstawy dla zagadnienia testowania opracowali Jerzy Spława-Neyman (matematyk polskiego pochodzenia) i Egon Pearson (syn znakomitego statystyka Karla Pearsona).

hipotezy proste hipotezy złożone hipotezy parametryczne hipotezy nieparametryczne

Hipoteza statystyczna: każdy sąd o populacji generalnej wydany na podstawie badań częściowych, dający się zweryfikować metodami statystycznymi, czyli na podstawie wyników badań próby. Hipoteza parametryczna: hipoteza dotycząca parametrów rozkładu statystycznego. Hipotezy weryfikujemy za pomocą testów statystycznych. Test statystyczny: metoda postępowania, która każdej próbce x 1, x 2,...,x n przyporządkowuje z ustalonym prawdopodobieństwem decyzje odrzucenia lub przyjęcia sprawdzanej hipotezy.

Test statystyczny to procedura pozwalająca oszacować prawdopodobieństwo spełnienia pewnej hipotezy statystycznej w populacji na podstawie danych pochodzących z próby losowej

Testy parametryczne weryfikują hipotezy dotyczące wartości parametrów rozkładu badanej populacji (najczęściej średnie, wariancje, odsetki). W większości przypadków statystyki testowe obliczane są przy wykorzystaniu bezpośrednich danych pochodzących z próby, a ich rozkład zależy od rozkładu analizowanych zmiennych. Testy nieparametryczne służą do weryfikacji różnorakich hipotez, lecz nie są one bezpośrednio powiązane z parametrami rozkładu (bywają wyjątki). Dotyczą one raczej samej postaci rozkładu (kształtu), podobieństwa pomiędzy rozkładami, losowości. Testy te operują na danych przekształconych najczęściej rang, wobec czego rozkład statystyki z próby nie zależy bezpośrednio od rozkładu danych.

wartości badanych zmiennych: średnia wzrost mężczyzn w wieku 30 lat wynosi 179 cm różnicy między grupami osobników w zakresie rozpatrywanej cechy: lek A skuteczniej zwiększa krzepliwość krwi niż lek B zależności między badanymi cechami: istnieje silna zależność pomiędzy ilością wypalanych papierosów a zachorowalnością na nowotwór płuc porównania rozkładu zmiennych: zmienna masa ciała ma rozkład normalny

Weryfikacja hipotez statystycznych polega na zastosowaniu określonego schematu postępowania zwanego testem statystycznym, który rozstrzyga, przy jakich wynikach z próby sprawdzoną hipotezę należy odrzucić, a przy jakich nie ma podstaw do jej odrzucenia.

parametryczne (służą do weryfikacji hipotez parametrycznych) i testy nieparametryczne weryfikacja hipotez nieparametrycznych. Hipoteza, która podlega sprawdzeniu zwana jest hipotezą zerową (H0). Konkurencyjną dla niej hipotezą jest hipoteza alternatywna (HA). Hipoteza zerowa - ma najczęściej miejsce wówczas, gdy domniemamy, że pomiędzy rozpatrywanymi parametrami lub rozkładami dwóch czy też kilku populacji nie ma różnic.

1. Sformułowanie tezy rzeczowej i ustaleniu hipotez H 0 i H a ; 2. Wyboru właściwej funkcji testowej (statystyki z próby); 3. Przyjęciu stosownego poziomu istotności ; 4. Odczytaniu wartości krytycznych w tablicach dystrybuanty właściwego rozkładu i ustaleniu obszaru krytycznego; 5. Odrzuceniu hipotezy zerowej na korzyść hipotezy alternatywnej, gdy funkcja testowa obliczona z próby znajduje się w obszarze krytycznym i nie odrzucenie jej, gdy funkcja testowa jest poza obszarem krytycznym.

Najpierw trzeba dysponowad modelami, które mogą opisywad badaną zbiorowośd. Takim bardzo ogólnym modelem, który może byd zastosowany do opisu zachowania się cechy w populacji, jest tzw. Zmienna losowa. Jest to wielkośd, która w wyniku doświadczenia przyjmuje różne wartości, przy czym przed doświadczeniem nie jesteśmy w stanie określid z absolutną pewnością, jaka wartośd właśnie się pojawi (zrealizuje). Co najwyżej potrafimy określid zbiór możliwych wartości, jakie mogą pojawid się, oraz odpowiadające im prawdopodobieostwa.

Prawdopodobieostwa te muszą sumowad się do jedności. Funkcja, która opisuje sposób przyporządkowania prawdopodobieostw poszczególnym wartościom zmiennej losowej, nazywa się rozkładem prawdopodobieostwa. Zmienne losowe dzielą się na skokowe i ciągłe. Rozkład prawdopodobieostwa może byd przedstawiany przy użyciu różnych funkcji. Najbardziej uniwersalna jest dystrybuanta, która podaje prawdopodobieostwo tego, że zmienna losowa przyjmie wartości mniejszą od zadanej liczby. Przy zmiennych skokowych korzystamy z funkcji rozkładu prawdopodobieostwa, która przyporządkowuje prawdopodobieostwo konkretnym wartościom.

Przy zmiennych losowych ciągłych stosujemy funkcję gęstości prawdopodobieostwa. Pokazuje ona jak prawdopodobieostwo rozkłada się w przedziale zmienności danej zmiennej losowej. Wśród rozkładów prawdopodobieostwa zmiennej ciągłej najczęściej mówi się o rozkładzie normalnym. Funkcja gęstości tego rozkładu ma kształt dzwonowaty, symetryczny. Większośd zjawisk kształtowanych przez naturę czy zakłóceo czysto losowych rozkłada się wg tej funkcji. Dodatkowo wiele zmiennych losowych po prostych przekształceniach da się sprowadzid do rozkładu normalnego.

f(x) b a f ( x) dx a b x

f(x) krzywa Gaussa f x x 1 2 2 e 2 2 Parametry: wartość oczekiwana odchylenie standardowe x

f(t) 0.0 0.1 0.2 0.3 0.4 Rozklad t-studenta 30 st. swob. 3 st. swob. 1 st. swob normalny -4-2 0 2 4 t

f(chi^2) 0.0 0.1 0.2 0.3 0.4 Rozklad chi-kwadrat 10 st. swob. 3 st. swob. 1 st. swob normalny 0 5 10 15 20 chi^2

f(x) 0.00 0.05 0.10 0.15 eksponencjalny log-normalny logistyczny normalny 0 5 10 15 20 x

Zmienna losowa może byd również opisana przy pomocy pewnych charakterystyk liczbowych, z których wiele jest jednocześnie parametrami funkcji opisujących rozkład prawdopodobieostwa. Najczęściej mowa tu o miarach położenia (wartośd przeciętna, modalna, mediana, kwantyle) oraz miarach zmienności (wariancja, odchylenie standardowe, współczynnik zmienności, odchylenie dwiartkowe). Kształt rozkładu jest charakteryzowany przez miary asymetrii, spłaszczenia i koncentracji.

O wiele częściej jest jednak tak, ze nie znamy typu rozkładu ani wartości parametrów. I wtedy przychodzi z pomocą wspomniane wcześniej wnioskowanie statystyczne. Wnioskujemy o zbiorowości (populacji) na podstawie próby. Poprawnośd wnioskowania zależy przede wszystkim od tego, czy próba dobrze reprezentuje analizowaną populację, czy struktura próby jest jak najbardziej zbliżona do struktury populacji. Reprezentatywnośd próby jest zapewniona, gdy próba jest losowa. Jednak losowośd nie zawsze jest oczywista.

Obejmuje 2 grupy metod: Estymację oraz Weryfikację hipotez statystycznych.

Szacowanie, odgadywanie rozkładu lub wartości parametrów w populacji na podstawie próby. Estymacja rozkładu to estymacja nieparametryczna. Najprostszą metodą jest tu obliczanie częstości oraz rysowanie histogramu, który pozwala wstępnie określid typ rozkładu. Estymacja parametryczna wykorzystuje pewne charakterystyki liczbowe wyliczane z próby.

Ponieważ próba jest losowa, to i estymator jest zmienną losową posiadającą własny rozkład prawdopodobieostwa. Wymaga się, aby estymatory były zgodne (czyli w miarę wzrostu liczebności próby coraz precyzyjniej odgadywały szacowany parametr), nieobciążone (średnio trafiające w nieznany parametr), efektywne (zapewniające mały błąd estymacji) oraz odporne (mało wrażliwe na błędy w danych).

Jeżeli przyjmujemy, ze nieznana wartośd parametru jest równa ocenie (wartości estymatora) otrzymanej w próbie, to mamy do czynienia z estymacją punktową. Można też wykorzystywad informacje o rozkładzie estymatora i konstruowad tzw. Przedziały ufności, czyli przedziały liczbowe, o których z dużą ufnością (zazwyczaj 95 %) możemy powiedzied, że zawierają w sobie nieznaną, szukaną wartośd parametru.

Pozwala przy pomocy testów statystycznych (TS) zweryfikować hipotezę (sąd) o rozkładzie lub parametrze populacji. TS to procedura pozwalająca odrzucić badaną hipotezę z małym ryzykiem popełnienia błędu polegającego na odrzuceniu hipotezy prawdziwej. Ryzyko to mierzone jest tzw. poziomem istotności, który przez większość badaczy przyjmowany jest na poziomie 0,05.

Przy korzystaniu z TS badacz musi sformułowad hipotezę zerową (rozkład jest określonego typu, parametr jest równy konkretnej liczbie, parametry w dwóch populacjach są równe, itp.) oraz hipotezę alternatywą.

Niezmiernie ważnym jest wybór właściwego testu statystycznego i sprawdzenie założeo przez niego wymaganych. Testy parametryczne wymagają, aby rozkład badanej cechy był określonego typu (zazwyczaj normalny), a testy nieparametryczne wolne są odtakich założeo. Dawniej oceniało się to poprzez odczytywanie z tablic tzw. Wartości krytycznych i porównywanie z nimi empirycznej wartości statystyki testowej. Obecnie wszystkie statystyczne pakiety komputerowe podają wartośd p, która jest prawdopodobieostwem otrzymania wyniku bardziej przeczącą hipotezie zerowej niż ten rezultat, który właśnie otrzymaliśmy.

Hipotezę zerową należy odrzucid, gdy wartośd p jest mniejsza od przyjętego poziomu istotności. Jeżeli natomiast wartośd p jest większa od poziomu istotności, nie oznacza to udowodnienia prawdziwości hipotezy zerowej. Mówimy wtedy po prostu, ze nie ma podstaw do odrzucenia tej hipotezy, a więc potwierdzamy hipotezę alternatywną i tylko tyle, i aż tyle.

Przy weryfikacji hipotez statystycznych można podjąd poprawną decyzję lub można popełnid jeden z dwóch błędów: błąd I rodzaju polegający na odrzuceniu testowanej hipotezy H0, gdy jest ona prawdziwa; błąd II rodzaju polegający na przyjęciu hipotezy H0, gdy jest ona fałszywa (tzn. prawdziwa jest hipoteza alternatywna HA).

Decyzja Przyjąć H0 Odrzucić H0 H0 jest prawdziwa Decyzja poprawna Decyzja błędna (błąd I rodzaju) H0 jest fałszywa Decyzja błędna (błąd II rodzaju) Decyzja poprawna

Aby skonstruowad test statystyczny pozwalający weryfikowad hipotezę H0, należy określid następujące elementy: wybrad statystykę testową stosownie do treści postawionej hipotezy H0; ustalid dopuszczalne prawdopodobieostwo błędu pierwszego rodzaju, tzn. ustalid poziom istotności testu; określid hipotezę alternatywną; wyznaczyd zbiór krytyczny tak, aby przy danym poziomie istotności zminimalizowad prawdopodobieostwo błędu drugiego rodzaju.

Testem istotności nazywamy test, którego celem jest jedynie zweryfikowanie jednej wysuniętej hipotezy pod kątem jej fałszywości z pominięciem innych hipotez. Testy istotności uwzględniają jedynie prawdopodobieostwo popełnienia błędu I rodzaju. Należy pamiętad, że nieodrzucenie weryfikowanej hipotezy H0 nie oznacza jej przyjęcia.

W badaniach medycznych najczęściej spotykanym problemem statystycznym jest porównanie dwóch populacji pod względem jednej cechy lub dwóch cech. Metody takich porównao można podzielid na dwie grupy: porównywanie pewnych parametrów populacji (średnie, odchylenia standardowe) - wówczas stosuje się najczęściej testy parametryczne; porównanie pewnych cech, które nie są parametrami (np. kształt rozkładu) - w takich przypadkach zwykle stosuje się testy nieparametryczne.

Wprawdzie parametr jest bardziej poszukiwaną i ważniejszą charakterystyką, zarówno populacji, jak i pojedynczego człowieka, jednakże jego brak nie zmusza do rezygnacji z badao statystycznych. W medycynie i biologii bardzo często przeprowadza się badania porównujące wartości dwóch lub kilku średnich.

Należy zapamiętać, że w procesie weryfikacji hipotez przez błąd nie rozumie się typowego błędu obliczeniowego, lecz tzw. błąd wnioskowania Wyróżnia się dwa podstawowe rodzaje błędów w testach statystycznych Błąd I rodzaju (poziom istotności α) polega na tym, że odrzucamy badaną hipotezę H0 podczas gdy jest ona prawdziwa Błąd II rodzaju (β) polega na tym, że przyjmujemy badaną hipotezę H0 podczas gdy jest ona fałszywa Pożądane jest aby oba te błędy były jak najmniejsze, jednakże w praktyce jest tak, że obniżenie jednego z nich powoduje wzrost drugiego Jedynym wyjściem jest minimalizowanie błędu II rodzaju, przy ustalonej wielkości błędu I rodzaju (poziomu istotności).

Przez pojęcie mocy testu rozumie się prawdopodobieństwo odrzucenia hipotezy zerowej kiedy jest ona fałszywa. Innymi słowy moc testu = 1 β (1-prawdop.błędu II rodzaju). Test statystyczny może być mocny gdy w większości przypadków jest w stanie odrzucić fałszywą H0. Test statystyczny może być słaby gdy istnieje duże prawdopodobieństwo przyjęcia H0 pomimo jej fałszywości. W badaniach klinicznych, badaniach nad nowymi lekami, etc. minimalna moc testu powinna wynosić 0,8.

Testy normalności rozkładu są specyficznymi testami badającymi zgodność danego rozkładu z rozkładem normalnym Rozkład normalny jest najczęściej wykorzystywanym rozkładem w statystyce, gdyż wiele cech ma właśnie rozkład zbliżony do niego Ma specyficzne własności (m.in.): Jest symetryczny (obserwacje rozkładają się równomiernie wokół średniej: średnia=mediana=dominanta) 68,27 % wyników jest w przedziale (m -σ, m + σ) 95,45 % wyników jest w przedziale (m -2σ, m +2σ) 99,73 % wyników jest w przedziale (m -3σ, m + 3σ) Założenie o normalności rozkładu wymagane jest często w przypadku testów parametrycznych

Wśród licznych rozkładów ciągłych największe znaczenie w statystyce posiada rozkład normalny. W przyrodzie bowiem istnieje silna tendencja rozkładania zbiorów wokół średnich w pewien charakterystyczny sposób, zwany rozkładem normalnym (Gaussa). Kształt krzywej rozkładu normalnego (krzywa o kształcie dzwonu, biegnąca do nieskończoności w obu kierunkach) zależy od 2 parametrów: oraz µ.

Parametr µ to wartość średnia populacji, względem której rozkład jest symetryczny. Parametr to odchylenie standardowe stanowiące miarę rozrzutu, zmienność wokół średniej µ. Najczęściej nie znamy prawdziwej wartości µ, lecz oceniamy (szacujemy ją) na podstawie średniej obliczonej z próby x Podobnie jeśli nie znamy, estymujemy odchylenie populacji na podstawie odchylenia w próbie (s). W rozkładzie normalnym: średnia, mediana i moda są sobie równe.

O zmiennej losowej X mówimy, że ma rozkład normalny, jeżeli jej gęstość prawdopodobieństwa określa równanie: f 1 x 1 ( i ) ( x ) e 2 i 2 2 f(x i )- gęstość =3.14159 (stosunek obwodu koła do średnicy e=2,71828 x i - wartości z przedziału (-,+ )

Równanie to pozwala m.in. określić pole obszaru pod krzywą pomiędzy dwoma punktami (x1 i x2) na osi poziomej, jeżeli znane są: średnia i odchylenie standardowe. Pole to równa się prawdopodobieństwu (P) tego, że zmienna losowa X posiadająca taki rozkład ciągły przyjmie wartość określonego przedziału w granicach wyznaczonych przez te wartości (x1,x2). Powierzchnia ta równa się: P( x 1 X x 2 1 ) 2 x 2 x 1 e ( x ) 2 2 2 dx

f(x) b a f ( x) dx a b x

Można dokonać transformacji dowolnego rozkładu normalnego do standaryzowanego rozkładu normalnego ze średnią równą 0 i odchyleniem standardowym 1. Standaryzacji dokonujemy odejmując (x) od wartości x i i dzieląc różnicę przez (s). Jeżeli zmienna X ma rozkład normalny ze średnią µ i wariancją 2, wówczas zmienna ma również rozkład normalny ze średnią 0 i odchyleniem standardowym 1. X

Prawdopodobieństwo pod krzywą normalną odpowiadające całkowitej liczbie obserwacji (N) jest równe jedności. Przyjmując krzywą standaryzowaną, gdzie N=100, możemy w określaniu powierzchni pod krzywą operować procentami.

ok. 68% wszystkich wartości zmiennej odbiega od średniej oczekiwanej nie bardziej niż o jedno odchylenie standardowe, ok. 95 % wszystkich wartości nie bardziej niż o dwa odchylenia, a w zasadzie wszystkie wartości (99.8%) zmiennej nie odbiegają od oczekiwanej wartości średniej bardziej niż o trzy odchylenia standardowe. Tak więc w przedziale (µ-,µ) i (µ,µ+ ) znajduje się ~34% pomiarów (razem ~68%). Na powierzchnię środkową krzywej (µ ) przypada 2/3 całej powierzchni, tj. 68% (p=0,68). W przedziale (µ-2,µ) i (µ,µ+ 2 ) powierzchnia pod krzywą stanowi 47,72% (razem ~95,5%). Poza dwoma odchyleniami od średniej pozostaje po ~2,25% pola pod krzywą normalną.

Kiedy cecha X ma rozkład normalny, wspomniane 95,5% odpowiada prawdopodobieństwu, że 95,5% wyników losowo wybranych zawiera się w przedziale o końcach µ 2. W granicach µ 3 powinno się znaleźć 99,74% obserwacji.

Wynik z przedziału x 1s i x 2s Oraz x 1s i x 2s nazywamy w medycynie wynikiem klinicznodiagnostycznie ostrzegawczym. Wynik pomiędzy x 2s i x 3s jest diagnostycznie wątpliwy. Wynik powyżej wartości x 3s lub poniżej x 3s wskazuje na stan patologiczny.

Zmiana wartości średniej powoduje przesunięcie krzywej rozkładu w lewo lub w prawo, podczas gdy zmiana odchylenia std. Zmienia wysokość lub szerokość krzywej, a więc wpływa na kształt rozkładu. Parametrami kształtu rozkładu są: skośność i kurtoza

Charakteryzuje odchylenie rozkładu od symetrii. Jeśli wartość standaryzowana skośności po standaryzacji jest wyraźnie różna od zera, wówczas dany rozkład jest asymetryczny, odstaje od charakterystyki rozkładu normalnego, który jest doskonale symetryczny. Dla rozkładu lewoskośnego: 1 < 0 Dla rozkładu prawoskośnego: 1 > 0 ( K 3 ) ( x i N ) 3 K 1 3 3

Dla rozkładu normalnego: średnia, mediana i moda są identyczne Dla rozkładu lewoskośnego: średnia < mediana < moda Dla rozkładu prawoskośnego: średnia > mediana > moda

A normalny B dwumodalny C prawoskośny D - lewoskośny

Wyliczana jest z wzoru: ( K ) ( x i ) 4 4 N K4 2 3 4 Po standaryzacji: Kurtoza mierzy spiczastość rozkładu.

Jeżeli kurtoza jest wyraźnie < 0, wówczas rozkład jest albo bardziej spłaszczony od normalnego albo bardziej wysmukły. Dla rozkładu normalnego kurtoza wynosi dokładnie 0. Wartości 2 > 0 charakteryzują rozkład leptokurtyczny (wysmukły). Wartości 2 < 0 charakteryzują rozkład platykurtyczny (spłaszczony). a) Rozkład mezokurtyczny (normalny) b) Złożony rozkład 2 populacji, dla których średnie są w przybliżeniu równe, ale wariancje jednej są sporo większe od drugiej. c) Rozkład leptokurtyczny (wysmukły) d) Rozkład platykurtyczny (spłaszczony) szczegolny przypadek dwumodalnego.

Najczęściej świadczy o występowaniu dwóch niezależnych subpopulacji normalnych o zbliżonych średnich i różnych wariancjach.

Jest szczególnym przypadkiem rozkładu dwumodalnego, czyli takiego, który posiada 2 maksima. Taki objaw wskazuje, że próba nie jest jednorodna i jej obserwacje pochodzą z 2 różnych populacji, z których każda ma rozkład normalny. Takie próby powinno się rozdzielić i osobno analizować każdą.

Wnioski statystyczne, u podstawy których leży pewność wynosząca co najmniej 95% (p<0,05), nazywamy istotnymi. Kiedy podstawą odrzucenia hipotezy jest prawdopodobieństwo błędu mniejsze niż 0,1% (np. przy =0,001), to wnioski takie określamy jako wysoce (bardzo) istotne (p<0,001). Kiedy otrzymane w wyniku doświadczenia wartości zmiennej X mieszczą się w przedziale ustalonym na poziomie istotności, wówczas hipotezę zerową odrzucamy. Z tego powodu przedział ten nazywa się przedziałem krytycznym.

Gdy mamy standardowy rozkład normalny N(0,1) to każda wartość cechy x i oddalona jest od średniej 0 o określoną liczbę odchyleń standardowych (z). Prawdopodobieństwo (skumulowane częstości powierzchnia) dla wartości z mniejszych niż z=-1.96 wynosi 0,025 (2,5%). Dla wartości mniejszych niż z=-2.58 to prawdopodobieństwo wynosi 0,005, a prawdopodobieństwu 0,0005 odpowiada wartość z = -3.29.

Pobierając losowo z rozkładu normalnego pojedynczy element, mamy szansę 2.5% ze pierwszym wylosowanym elementem będzie liczba mniejsza od wartości średniej o więcej niż 1.96 odchyleń standardowych oraz szansę 2.5% ze będzie to wartość większa od wartości średniej o więcej niż 1.96 odchyleń standardowych. Kiedy dla pojedynczego pomiaru a wartość z >1.96, czyli z<- 1.96 lub z>1.96 to hipotezę H0, iż nasz pojedynczy pomiar pobrano losowo z rozkładu normalnego odrzucamy (p<0,05, wnioskowanie ze słusznością większą od 95%). Kiedy dla pojedynczego pomiaru a wartość z >2.58 to hipotezę H0 odrzucamy z jeszcze większą pewnością, tzn. na poziomie istotności =0,01 (p<0,01, wnioskowanie ze słusznością większą od 99%). Kiedy dla pojedynczego pomiaru a wartość z >3.29 to hipotezę H0 odrzucamy z jeszcze większą pewnością, tzn. na poziomie istotności =0,001 (p<0,001, wnioskowanie ze słusznością większą od 99,9%).

W wybranej losowo grupie studentów oznaczono zawartość hemoglobiny Hb we krwi (g/100ml), otrzymując następujące dane: 14.0, 15.4, 13.7, 15.8, 15.2, 15.7. Zweryfikować hipotezę, że średnia zawartość Hb w populacji mającej rozkład normalny, o nieznanej wariancji równa się 15g/100ml, do alternatywnej. Rozwiązanie: inaczej testujemy, czy losową próbę o liczności n=6, pobrano z populacji o rozkładzie normalnym ze średnią µ=15g/100 ml. Ponieważ nie znamy wariancji z populacji 2 i mamy małą próbę a więc do testowania powyższej hipotezy użyć możemy tylko rozkładu t. Wobec tego: H0:µ=15 Ha:µ 15 Obliczone wartości średniej, odchylenia standardowego, i wariancji wynoszą odpowiednio Średnia µ=14.97, wariancja S2 = 0,804, odchylenie standardowe s=0,36. 15 14.97 t Wyliczamy wartość doświadczalną t d : d 0,08 0.36 Dla testu dwustronnego przy =0,05 odczytana wartość tabelaryczna t t /2 (n-1)=t(0,025;5) = 2,57. Ponieważ td=0,08 < t t < 2.57, nie ma podstaw do odrzucenia hipotezy zerowej, że µ = 15g/100 ml (p>0,05).

rozkład populacji nie różni się istotnie od rozkładu normalnego, wartość oczekiwana (średnia) badanej cechy nie różni się istotnie od 20, wartości oczekiwane (średnie) badanej cechy w dwóch grupach nie różnią się istotnie, nie ma istotnej zależności pomiędzy dwoma badanymi cechami.

rozkład populacji różni się istotnie od rozkładu normalnego, Wartość oczekiwana (średnia) badanej cechy jest istotnie większa od 20, wartości oczekiwane (średnie) badanej cechy w dwóch grupach różnią się istotnie, istnieje istotna zależność pomiędzy dwoma badanymi cechami.

1. Próby niezależne - obserwacje w poszczególnych grupach dokonywane są na różnych obiektach. 2. Próby zależne - obserwacje dokonywane są dwukrotnie na tych samych obiektach.

1. Porównanie poziomów parametrów medycznych dla dwóch grup sprowadza się z reguły do porównania przeciętnych poziomów zmiennych lub też porównania rozkładów analizowanego parametru 2. Należy ustalić czy próby są niezależne czy też zależne 3. Czy znane są rozkłady cech w populacji, w próbkach? 4. Jeżeli spełnione są wszystkie założenia (głównie normalność, ewentualnie równość wariancji, liczebność prób) należy wykonać test parametryczny: Test t dla prób niezależnych Test t dla prób zależnych (założenie: rozkład różnic ma być zbliżony do normalnego) 5. W przypadku naruszenia jakiegokolwiek z założeń (np. jedna z grup ma rozkład cechy istotnie różny od normalnego lub jest bardzo mała) wówczas wykonuje się test nieparametryczny: Dla prób niezależnych: test Manna-Whitneya-Wilcoxona Dla prób zależnych: test kolejności par Wilcoxona (rangowanych znaków) Alternatywa: normalizacja danych, wykonywanie testów parametrycznych na danych rangowanych.

Liczba grup do porównania nie powinna być za duża (teoretycznie kilkanaście, praktycznie najlepiej kilka). Jeżeli porównanie ma być reprezentatywne to próby powinny być raczej liczne oraz mieć zbliżone liczności (nie powinna występować sytuacja, w której np. dwie grupy liczą po 40 obserwacji, a trzecie 8). Większość medycznych porównań wielu grup dotyczy poziomów analizowanych parametrów medycznych (głównie średnie). W przypadku zmiennych jakościowych porównuje się po prostu odsetki w kilku grupach (k>2). Najczęściej mamy też do czynienia z analizą jednoczynnikową (jeden czynnik grupujący/efekt/zmienna zależna). W przypadku wielu czynników można badać interakcje pomiędzy czynnikami (jeżeli jest to uzasadnione).

Wcześniejsze procedury testowe wykrywają tylko czy istnieje różnica w poziomach/rozkładach przynajmniej jednej z grup, tj. czy przynajmniej jedna z grup się różni od pozostałych. Nie podają ile grup się różni i które z nich. W celu wykrycia różnic wykonuje się tzw. testy porównań wielokrotnych (testy post-hoc/testy po fakcie). Testy post-hoc pokazują, które z grup mogą różnić się istotnie pomiędzy sobą. Ich konstrukcja jest podobna do testu t dla dwóch grup, jednakże co ważne biorą one pod uwagę poprawkę na ilość wykonywanych porównań na tych samych danych ( korekcja poziomu p). Nieuzasadnione jest stosowanie testu t lub Manna- Whitneya dla porównań wielokrotnych (są wyjątki).

p wartość jest najmniejszym poziomem istotności testu, przy którym odrzucamy hipotezę zerową, zatem jeżeli p wartość, to odrzucamy H0, jeżeli p wartość>, to nie ma podstaw do odrzucenia H0.

prawostronny obszar krytyczny: P0(T T(x)), lewostronny obszar krytyczny: P0(T T(x)), dwustronny obszar krytyczny: 2 min{ P0(T T(x)), P0(T T(x)) }.

Wynikiem testowania hipotez statystycznych jest jedna z dwóch decyzji: 1. "odrzucamy hipotezę zerową" tzn. Stwierdzamy występowanie istotnych statystycznie różnic (zależności), na poziomie istotności, 2. "nie ma podstaw do odrzucenia hipotezy zerowej", tzn. stwierdzamy brak istotnych statystycznie różnic (zależności), na poziomie istotności.

Testy najmocniejsze testy minimalizujące prawdopodobieństwo popełnienia błędu II rodzaju przy ustalonym z góry poziomie prawdopodobieństwa popełnienia błędu I rodzaju. Moc testu M (w) prawdopodobieństwo odrzucenia fałszywej hipotezy H 0 i przyjęcia w to miejsce prawdziwej hipotezy alternatywnej: M w P W w/ H n 1 Związek między mocą testu i prawdopodobieństwem błędu II rodzaju: w 1 M w

Służą one do weryfikacji hipotez parametrycznych, odnoszących się do parametrów rozkładu badanej cechy w populacji generalnej. Najczęściej weryfikują sądy o takich parametrach populacji jak średnia arytmetyczna, wskaźnik struktury i wariancja. Testy te konstruowane są przy założeniu znajomości postaci dystrybuanty w populacji generalnej. Biorąc pod uwagę zakres ich zastosowań, testy te można podzielić na dwie grupy: 1. Testy parametryczne służące do weryfikacji własności populacji jednowymiarowych, 2. Testy parametryczne służące do porównania własności dwóch populacji.

Testy parametryczne służące do weryfikacji własności populacji jednowymiarowych, a wśród nich wyróżnia się: testy dla średniej test dla proporcji (wskaźnika struktury) test dla wariancji W testach tych oceny parametrów uzyskane z próby losowej są porównywane z hipotetycznymi wielkościami parametrów, traktowanymi jako pewien wzorzec. Testy parametryczne służące do porównania własności dwóch populacji, do których należą: test dla dwóch średnich test dla dwóch proporcji test dla dwóch wariancji Testy te porównują oceny parametrów, uzyskane z dwóch prób losowych.

Służą do weryfikacji różnorodnych hipotez, dotyczących m.in. zgodności rozkładu cechy w populacji z określonym rozkładem teoretycznym, zgodności rozkładów w dwóch populacjach, a także losowości doboru próby. Biorąc pod uwagę zakres ich zastosowań, testy te można podzielić na dwie grupy: 1. Testy nieparametryczne służące do porównania własności dwóch populacji, 2. Testy nieparametryczne służące do weryfikacji własności populacji jednowymiarowych

test zgodności chi-kwadrat test zgodności λ Kołmogorowa test normalności Shapiro-Wilka test serii Dwa pierwsze testy zgodności oceniają zgodność rozkładu empirycznego z teoretycznym, natomiast test serii (losowości) weryfikuje hipotezę o losowym pochodzeniu obserwacji badanej cechy w próbie.

test Kołmogorowa-Smirnowa test jednorodności chi-kwadrat test mediany test serii test znaków Budowa tych testów sprowadza się do oceny zgodności dwóch rozkładów empirycznych, otrzymanych z prób niezależnych (test Kołmogorowa- Smirnowa, jednorodności chi-kwadrat, test mediany, test serii), a także zgodności rozkładów w próbach połączonych (test znaków).

Test na wykrycie wyniku obarczonego błędem grubym. Przed wykonaniem testu zbiór wyników eksperymentalnych (próbka statystyczna) zostaje uszeregowany według wzrastających wartości. Błędem grubym może być obarczona największa lub najmniejsza wartość wyniku w próbce. Dla tych wyników obliczane są odpowiednio parametry T max i T min. Parametr o większej wartości porównywany jest następnie z parametrem krytycznym testu Grubbsa, odpowiadającym rozmiarowi próbki statystycznej i wybranemu poziomowi ufności. Wartość krytyczna statystyki tego testu obliczana jest na podstawie paramtetru t rozkładu Studenta dla zadanego poziomu ufności i liczby stopni swobody (n - 2, n - liczba pomiarów w serii). Jeśli wartość eksperymentalna jest większa od wartości krytycznej, wówczas podejrzany wynik obarczony jest błędem grubym i można go odrzucić z zadanym poziomem ufności.

Dla sprawdzenia, czy dwa pomiary różnią się między sobą stosujemy: test znaków lub test Wilcoxona. Pierwszy z nich wybieramy, gdy dane mają rozkład normalny, drugi, gdy nie. Oba te testy dotyczą zmiennych zależnych, najczęściej są to pomiary pochodzące od tych samych osób. Hipoteza zerowa mówi, że wyniki obu próbek są jednakowe.

Test znaków oparty jest na znakach różnic pomiędzy parami wyników. Liczba plusów i minusów jest zliczana i porównywana z wartością teoretyczną umieszczoną w odpowiednich tabelach. Tracimy informację niesioną przez liczbowe wartości różnic.

Test kolejności par Wilcoxona uwzględnia zarówno znak różnic, ich wielkość, jak i kolejność. Po uporządkowaniu różnic w sposób rosnący są im przypisywane rangi, a następnie sumowane osobno rangi różnic dodatnich i ujemnych. Ich suma po porównaniu z tabelą wartości teoretycznych decyduje o przyjęciu lub nie hipotezy zerowej.

1. Pierwszą rzeczą, jaką musimy zrobić, jest sprawdzenie, czy dane mają rozkład normalny, wykonując testy normalności rozkładu. 2. Następnie wybieramy Analiza / Testy nieparameryczne / Dwie próby zależne... i w oknie dialogowym zaznaczamy Wilcoxon lub Test znaków oraz przerzucamy zmienne, które chcemy poddać analizie.

Wiele testów parametrycznych wymaga, by dane pochodziły z rozkładu zbliżonego do normalnego. Dlatego testy badające normalność rozkładów są tak istotne. W testach tych zawsze przyjmuje się H 0 - rozkład zmiennej jest normalny. Odrzucenie H 0 jest wiec równoznaczne z przyjęciem hipotezy, że rozkład zmiennej nie jest normalny. Brak podstaw do odrzucenia nie oznacza przyjęcia hipotezy o normalności rozkładu. Musimy to jeszcze sprawdzić i w tym celu sporządzane są wykresy prawdopodobieństwo - prawdopodobieństwo.

W pakiecie SPSS testy badające normalność rozkładu dostępne są w Analiza / Opis statystyczny / Eksploracja i tam wybierając opcję Wykresy... należy zaznaczyć Wykresy normalności z testami. SPSS dla małych próbek wykonuje dwa testy: Test Kołmogorowa - Smirnowa z poprawką Lilleforsa, która jest obliczana, gdy nie znamy średniej lub odchylenia standardowego całej populacji. Test Shapiro - Wilka - najbardziej polecany, ale może dawać błędne wyniki dla próbek większych niż 2 tys. Jeżeli komputer wskaże istotność mniejszą niż zadeklarowany poziom istotności, to hipotezę o normalności rozkładu odrzucamy, jeżeli większą - nie mamy podstaw do odrzucenia. Należy wówczas ocenić normalność na podstawie wykresów prawdopodobieństwo - prawdopodobieństwo.

Test chi-kwadrat (χ 2 ) - każdy test statystyczny, w którym statystyka testowa ma rozkład chikwadrat, jeśli teoretyczna zależność jest prawdziwa. Test chi kwadrat służy sprawdzaniu hipotez. Innymi słowy wartość testu oceniana jest przy pomocy rozkładu chi kwadrat. Test najczęściej wykorzystywany w praktyce. Możemy go wykorzystywać do badania zgodności zarówno cech mierzalnych, jak i niemierzalnych. Jest to jedyny test do badania zgodności cech niemierzalnych.

W ogólności zachodzi: gdzie: O i - wartość mierzona, E i - odpowiadająca wartość teoretyczna (oczekiwana), wynikająca z hipotezy σ i - odchylenie standardowe, n - liczba pomiarów. Zliczenia W szczególności gdy wartościami są zliczenia wtedy ich odchylenie standardowe wynosi i równanie przechodzi na: Uwagi: przyjmuje się że wartość E i powinna być większa lub równa 5 (spotyka się też 10 - nie ma ścisłego wyprowadzenia, minimalnej wielkości). czasem z tego powodu przy pomiarach wartości dyskretnych łączy się te wartości w jeden przedział (patrz przykład). przy pomiarze wartości ciągłej wartość teoretyczna to całka z rozkładu prawdopodobieństwa po odpowiednim przedziale z którego zliczane były wyniki.

test nieparametryczny używany do porównywania rozkładów jednowymiarowych cech statystycznych. Istnieją dwie główne wersje tego testu dla jednej próby i dla dwóch prób. Test dla jednej próby (zwany też testem zgodności λ Kołmogorowa) sprawdza, czy rozkład w populacji dla pewnej zmiennej losowej, różni się od założonego rozkładu teoretycznego, gdy znana jest jedynie pewna skończona liczba obserwacji tej zmiennej (próba statystyczna). Często wykorzystywany jest on w celu sprawdzenia, czy zmienna ma rozkład normalny. Dla celów testowania normalności zostały dokonane w teście drobne usprawnienia, znane jako test Lillieforsa. Istnieje też wersja testu dla dwóch prób, pozwalająca na porównanie rozkładów dwóch zmiennych losowych. Jego zaletą jest wrażliwość zarówno na różnice w położeniu, jak i w kształcie dystrybuanty empirycznej porównywanych próbek.

Testy dla średniej to grupa testów statystycznych, służących do wnioskowania o wartości średniej w populacji, z której pochodzi próba losowa. Hipotezę zerową i alternatywną oznaczamy w następujący sposób: H 0 : μ = μ 0 Zakłada ona, że nieznana średnia w populacji μ jest równa średniej hipotetycznej μ 0 H 1 : μ μ 0 lub H 1 : μ > μ 0 lub H 1 : μ < μ 0 Jest ona zaprzeczeniem H 0, występuje w trzech wersjach w zależności od sformułowania badanego problemu. Sprawdzianem hipotezy jest statystyka testowa, która jest funkcją wyników próby losowej. Postać funkcji testowej (tzw. statystyki) zależy od trzech okoliczności: rozkładu cechy w populacji znajomości wartości odchylenia standardowego w populacji liczebności próby Biorąc pod uwagę powyższe okoliczności, założoną przez nas hipotezę możemy sprawdzić za pomocą trzech testów:

Jeżeli populacja ma rozkład normalny N(μ,σ) o nieznanej średniej μ i znanym odchyleniu standardowym σ, natomiast liczebność próby n jest dowolna, wtedy statystyka ma postać: gdzie: m - średnia z próby Jeżeli H 0 jest prawdziwa, to statystyka rozkład asymptotycznie normalny. testowa Z ma Wartość statystyki, którą obliczymy korzystając z powyższego wzoru, oznaczamy jako z. Następnie porównujemy ją z wartością krytyczną testu z α, którą możemy odczytać z tablic standaryzowanego rozkładu normalnego, uwzględniając poziom istotności α. Decyzję o odrzuceniu H 0 podejmujemy, jeżeli wartość statystyki znajduje się w obszarze krytycznym. Jeżeli natomiast wartość ta znajdzie się poza obszarem krytycznym, nie ma wtedy podstaw do odrzucenia H 0.

Znane odchylenie Jeżeli populacja ma rozkład normalny N(μ,σ) o nieznanej średniej μ i znanym odchyleniu standardowym σ, natomiast liczebność próby n jest dowolna, wtedy statystyka ma postać: gdzie: m - średnia z próby Jeżeli H 0 jest prawdziwa, to statystyka testowa Z ma rozkład asymptotycznie normalny. Wartość statystyki, którą obliczymy korzystając z powyższego wzoru, oznaczamy jako z. Następnie porównujemy ją z wartością krytyczną testu z α, którą możemy odczytać z tablic standaryzowanego rozkładu normalnego, uwzględniając poziom istotności α. Decyzję o odrzuceniu H 0 podejmujemy, jeżeli wartość statystyki znajduje się w obszarze krytycznym. Jeżeli natomiast wartość ta znajdzie się poza obszarem krytycznym, nie ma wtedy podstaw do odrzucenia H 0.

Jeżeli rozkład populacji jest normalny N(μ,σ), o nieznanej średniej μ i nieznanym odchyleniu standardowym σ, natomiast liczebność próby jest mała (np. n<30), wtedy statystyka ma postać: Jeżeli H 0 jest prawdziwa, to statystyka testowa ma rozkład t-studenta o liczbie stopni swobody ν = n-1. Wartość statystyki, którą obliczymy korzystając z powyższego wzoru, oznaczamy jako t. Następnie porównujemy ją z wartością krytyczną testu t α, którą odczytujemy z tablic rozkładu t-studenta przy założonym poziomie istotności α oraz liczbie stopni swobody ν = n- 1. Decyzję o odrzuceniu H 0 podejmujemy, jeżeli wartość statystyki znajduje się w obszarze krytycznym. Jeżeli natomiast wartość ta znajdzie się poza obszarem krytycznym, nie ma wtedy podstaw do odrzucenia H 0.

Obszar krytyczny to obszar odrzucenia hipotezy zerowej. Położenie (postać obszaru krytycznego) wyznacza postać hipotezy alternatywnej. Wielkość obszaru krytycznego jest równa poziomowi istotności.

Z tablic rozkładu statystyki odczytujemy wartość krytyczną (graniczną wartość obszaru krytycznego oddzielającą go od reszty rozkładu)

Obliczamy wartość statystyki z próby w

1. Test chi-kwadrat 2. Test Kołmogorowa - Smirnowa dla jednej próbki 3. Test Kuipera (opracowana przez Kuipera jest modyfikacją testu Kołmogorowa Smirnowa poprawiającą jego właściwości w krańcowych obszarach rozkładu) 4. Test Cramera-von Mises a - Statystyka Cramera-von Mises a porównuje obserwacje w próbce (traktowane jako próba losowa) z próbą losową pobraną z hipotetycznego rozkładu. 5. Test Watsona - Jest to kolejna modyfikowana statystyka Cramera-von Mises a. 6. Test Andersona-Darlinga - Ocena stopnia dopasowania dystrybuanty testowanego rozkładu z obliczoną na podstawie próby dystrybuantą empiryczną. Test ten może być stosowany tylko dla kompletnych danych (bez w jakikolwiek sposób brakujących obserwacji).

1. Test normalności Lillieforsa. Jeżeli parametry rozkładu hipotetycznego są nieznane, to jak już wspomniano test K- S może dawać błędne wyniki. Jednak w przypadku rozkładu normalnego można w takiej sytuacji zastosować tę samą statystykę zmodyfikowaną przez Lilleforsa. Dlatego też test ten stosowany jest najczęściej do weryfikacji normalności rozkładu. 2. Test normalności Shapiro-Wilka. W odróżnieniu od wcześniej opisanych testów zgodności w tym przypadku wzrost wartości statystyki oznacza większą zgodność wyników z rozkładem normalnym. Jednak poziom prawdopodobieństwa odpowiadający tej statystyce testowej podawany jest w programach statystycznych w ten sam sposób, jak w innych testach tzn., jeżeli wartość spadnie poniżej ustalonego poziomu istotności testu, to hipotezę o zgodności z rozkładem normalnym odrzucamy.

1. Kołmogorowa-Smirnowa (tzw. test K-S2), 2. Mann-Whitneya, 3. Walda Wolfowitza, 4. test znaków, 5. Wilkoxona. Testy K-S2, Mann-Whitneya, Walda Wolfowitza stosowane są w przypadku zmiennych niezależnych. Pozostałe dwa testy są alternatywą testu t dla zmiennych zależnych (parowanych). Test Kołmogorowa-Smirnowa (dla dwóch próbek) Test Kołmogorowa-Smirnowa (K-S2) pozwala określić, czy dwie próbki (niezależne) pochodzą z populacji o takim samym rozkładzie. W odróżnieniu od testów parametrycznych test K-S2 jest nie tylko czuły na położenie środka rozkładu czy jego szerokość, ale również na kształt rozkładu.

Do najczęściej stosowanych testów statystycznych operujących na jednym zbiorze danych należą: test t-studenta dla jednej średniej (sprawdzający, czy wyniki pochodzą z populacji o danej średniej), test Shapiro-Wilka na rozkład normalny (sprawdzający, czy próba pochodzi z populacji o rozkładzie normalnym) oraz test z (sprawdzający, czy próba pochodzi z populacji o rozkładzie normalnym, gdy znane jest _ tej populacji). Przy wnioskowaniu dla jednej średniej, w razie stwierdzenia rozkładu innego niż normalny, zamiast testu t stosuje sie test rang Wilcoxona.

Rozważmy np. wyniki np. 6 analiz chemicznych test posłuży do sprawdzenia, czy mogą pochodzić z populacji o średniej równej 100: 96.19 98.07 103.53 99.81 101.60 103.44

> dane = c(96.19,98.07,103.53,99.81,101.60,103.44) > shapiro.test(dane) # czy rozkład jest normalny? Shapiro-Wilk normality test data: dane W = 0.9271, p-value = 0.5581 > t.test(dane,mu=100) # tak, a zatem sprawdzamy testem Studenta One Sample t-test data: dane t = 0.3634, df = 5, p-value = 0.7311 alternative hypothesis: true mean is not equal to 100 95 percent confidence interval: 97.32793 103.55207 sample estimates: mean of x 100.44 wilcox.test(dane,mu=100) # tak byśmy sprawdzali, gdyby nie był Wilcoxon signed rank test data: dane V = 11, p-value = 1 alternative hypothesis: true mu is not equal to 100

przedział ufności można bardzo prosto obliczyć ręcznie dla dowolnego. Załóżmy, że = 3, zas = 0.05: > ci = qnorm(1-0.05/2) > ci [1] 1.959964 > s = 3/sqrt(length(dane)) > s [1] 1.224745 > mean(dane) + c(-s*ci,s*ci) [1] 98.03954 102.84046

Podstawowymi testami dla dwóch zbiorów danych są: test F-Snedecora na jednorodność wariancji (sprawdzający, czy wariancje obu prób różnią się istotnie między sobą), test t-studenta dla dwóch średnich (porównujący, czy próby pochodzą z tej samej populacji; wykonywany w razie jednorodnej wariancji) oraz test U-Manna-Whitneya, będący odmianą testu Wilcoxona, służący do stwierdzenia równości średnich w razie uprzedniego wykrycia niejednorodności wariancji.

Do poprzedniego zbioru danych dodamy drugi zbiór dane2 i przeprowadzimy te testy: > dane2 = c(99.70,99.79,101.14,99.32,99.27,101.29) > var.test(dane,dane2) # czy jest jednorodność wariancji? F test to compare two variances data: dane and dane2 F = 10.8575, num df = 5, denom df = 5, p-value = 0.02045 alternative hypothesis: true ratio of variances is not equal to 1 95 percent confidence interval: 1.519295 77.591557 sample estimates: ratio of variances 10.85746 > wilcox.test(dane,dane2) # jednak różnice wariancji, wiec test Wilcoxona Wilcoxon rank sum test data: dane and dane2 W = 22, p-value = 0.5887 # dane sie istotnie nie różnią alternative hypothesis: true mu is not equal to 0 > t.test(dane,dane2) # a tak byśmy zrobili, gdyby różnic nie było Welch Two Sample t-test data: dane and dane2 t = 0.2806, df = 5.913, p-value = 0.7886 alternative hypothesis: true difference in means is not equal to 0 95 percent confidence interval: -2.751801 3.461801 sample estimates: mean of x mean of y 100.440 100.085

> dane2 = c(99.70,99.79,101.14,99.32,99.27,101.29) > var.test(dane,dane2) # czy jest jednorodność wariancji? F test to compare two variances data: dane and dane2 F = 10.8575, num df = 5, denom df = 5, p-value = 0.02045 alternative hypothesis: true ratio of variances is not equal to 1 95 percent confidence interval: 1.519295 77.591557 sample estimates: ratio of variances 10.85746

> wilcox.test(dane,dane2) # jednak różnice wariancji, wiec test Wilcoxona Wilcoxon rank sum test data: dane and dane2 W = 22, p-value = 0.5887 # dane sie istotnie nie różnią alternative hypothesis: true mu is not equal to 0 > t.test(dane,dane2) # a tak byśmy zrobili, gdyby różnic nie było Welch Two Sample t-test data: dane and dane2 t = 0.2806, df = 5.913, p-value = 0.7886 alternative hypothesis: true difference in means is not equal to 0 95 percent confidence interval: -2.751801 3.461801 sample estimates: mean of x mean of y 100.440 100.085

Jeśli zachodzi potrzeba wykonania testu z innym niż 0.05, korzystamy z opcji conf.level każdego testu (standardowo jest to 0.95). W funkcji t.test można również ustawić paired=true i w ten sposób policzyć test dla danych powiązanych parami. Warto też zwrócić uwagę na parametr conf.int w funkcji wilcox.test, który pozwala na obliczenie przedziału ufności dla mediany.

W przypadku analizy statystycznej większej grupy danych, np. wyników analizy chemicznej wykonanej trzema metodami, konieczne jest umieszczenie wszystkich danych w jednej ramce (dataframe).

Dołóżmy jeszcze kolejne 6 wyników do wektora dane3 i umieśćmy wszystko w ramce: > dane3 = c(91.50,96.74,108.17,94.22,99.18,105.48) > danex = data.frame(wyniki=c(dane,dane2,dane3),metoda=rep(1:3,each=6)) > danex wyniki metoda 1 96.19 1 2 98.07 1 3 103.53 1 4 99.81 1 5 101.60 1 6 103.44 1 7 99.70 2 8 99.79 2 9 101.14 2 10 99.32 2 11 99.27 2 12 101.29 2 13 91.50 3 14 96.74 3 15 108.17 3 16 94.22 3 17 99.18 3 18 105.48 3

Na tak wykonanej ramce możemy wykonać już poszczególne testy. Do porównania jednorodności wariancji służy tutaj test Bartletta, który jest rozwinięciem testu F-Snedecora na większą liczbę prób. W razie stwierdzenia istotnych różnic w wariancji badamy istotne różnice pomiędzy grupami wyników testem Kruskala-Wallisa. Jeśli nie ma podstaw do odrzucenia hipotezy o jednorodności wariancji, rekomendowanym testem jest najprostszy wariant ANOVA.

> bartlett.test(wyniki ~ metoda,danex) # czy jest niejednorodność? Bartlett test for homogeneity of variances data: wyniki by metoda Bartlett s K-squared = 13.0145, df = 2, p-value = 0.001493 > kruskal.test(wyniki~metoda,danex) # jest, wiec Kruskar-Wallis Kruskal-Wallis rank sum test data: wyniki by metoda Kruskal-Wallis chi-squared = 0.7836, df = 2, p-value = 0.6758 > anova(aov(wyniki~metoda,danex)) # a tak, gdyby nie było Analysis of Variance Table Response: wyniki Df Sum Sq Mean Sq F value Pr(>F) metoda 1 4.502 4.502 0.2788 0.6047 Residuals 16 258.325 16.145

Załóżmy, ze oznaczyliśmy w 4 próbkach zawartość jakiejś substancji, każda próbkę badaliśmy 4 metodami (w sumie 16 wyników). Stosując dwuczynnikowy test ANOVA można sprawdzić, czy wyniki różnią sie istotnie miedzy próbkami i miedzy metodami. W tym celu znów tworzymy ramkę zawierającą wyniki oraz odpowiadające im próbki i metody:

> dane wynik probka metoda 1 46.37278 1 1 2 48.49733 1 2 3 46.30928 1 3 4 43.56900 1 4 5 46.57548 2 1 6 42.92014 2 2 7 47.22845 2 3 8 42.46036 2 4 9 43.71306 3 1 10 47.35283 3 2 11 44.87579 3 3 12 46.06378 3 4 13 47.29096 4 1 14 44.50382 4 2 15 44.26496 4 3 16 45.35748 4 4

> anova(aov(wynik ~ probka + metoda,dane)) # test bez interakcji Analysis of Variance Table Response: wynik Df Sum Sq Mean Sq F value Pr(>F) probka 1 0.643 0.643 0.2013 0.6611 metoda 1 5.050 5.050 1.5810 0.2307 Residuals 13 41.528 3.194 > anova(aov(wynik ~ probka * metoda,dane)) # test z~interakcjami Analysis of Variance Table Response: wynik Df Sum Sq Mean Sq F value Pr(>F) probka 1 0.643 0.643 0.1939 0.6675 metoda 1 5.050 5.050 1.5227 0.2408 probka:metoda 1 1.728 1.728 0.5211 0.4842 Residuals 12 39.800 3.317 Podany powyżej test z interakcjami nie ma sensu merytorycznego w tym przypadku, pokazano go tylko przykładowo

Załóżmy np. ze wśród 300 ankietowanych osób odpowiedz tak padła w 30 przypadkach. Daje to 10% ankietowanych. Czy można powiedzieć, że wśród ogółu populacji tylko 7% tak odpowiada? Jaki jest przedział ufności dla tego prawdopodobieństwa? > prop.test(30,300,p=0.07) 1-sample proportions test with continuity correction data: 30 out of 300, null probability 0.07 X-squared = 3.6994, df = 1, p-value = 0.05443 alternative hypothesis: true p is not equal to 0.07 95 percent confidence interval: 0.0695477 0.1410547 sample estimates: p 0.1

Jak widać, przedział ufności zawiera sie w granicy 6.9 14.1%, zatem 7% zawiera sie w nim (p nieznacznie większe niż 0.05). Innym przykładem jest porównanie kilku takich wyników. Załóżmy, ze w innej 200-osobowej grupie odpowiedz padła u 25 osób, a w trzeciej, 500-osobowej, u 40 osób. Czy próby te pochodzą z tej samej populacji? > prop.test(c(30,25,40),c(300,200,500)) 3-sample test for equality of proportions without continuity correction data: c(30, 25, 40) out of c(300, 200, 500) X-squared = 3.4894, df = 2, p-value = 0.1747 alternative hypothesis: two.sided sample estimates: prop 1 prop 2 prop 3 0.100 0.125 0.080 Jak widać, test nie wykazał istotnych różnic. Jeśli chcielibyśmy wprowadzić do testu poprawkę Yates a, dodajemy parametr cont=true.

Test 2 na zgodność rozkładu jest wbudowany w R pod funkcja chisq.test. W przypadku wnioskowania zgodności rozkładu pierwszy wektor zawiera dane, a drugi prawdopodobieństwa ich wystąpienia w testowanym rozkładzie. Załóżmy, że w wyniku 60 rzutów kostka otrzymaliśmy następujące ilości poszczególnych wyników 1 6: 6,12,9,11,15,7. Czy różnice pomiędzy wynikami świadczą o tym, ze kostka jest nieprawidłowo skonstruowana, czy są przypadkowe? > kostka=c(6,12,9,11,15,7) > pr=rep(1/6,6) # prawdopodobieństwo każdego rzutu wynosi 1/6 > pr [1] 0.1666667 0.1666667 0.1666667 0.1666667 0.1666667 0.1666667 > chisq.test(kostka,p=pr) Chi-squared test for given probabilities data: kostka X-squared = 5.6, df = 5, p-value = 0.3471

Jeśli parametrem funkcji chisq.test jest ramka, funkcja przeprowadza test 2 na niezależność. Załóżmy, ze w grupie pacjentów badanych nowym lekiem 19 pozostało bez poprawy, 41 odnotowało wyraźną poprawę, 60 osób całkowicie wyzdrowiało. W grupie kontrolnej (leczonej dotychczasowymi lekami) wartości te wynosiły odpowiednio 46,19,15. Czy nowy lek faktycznie jest lepszy? Jeśli tak, dane powinny być zależne, i tak tez jest: > lek=c(19,41,60) > ctl=c(46,19,15) > chisq.test(cbind(lek,ctl)) # cbind tworzy ramke! Pearson s Chi-squared test data: cbind(lek, ctl) X-squared = 39.8771, df = 2, p-value = 2.192e-09

Pakiet R posiada wbudowane algorytmy pozwalające na obliczanie gęstości, dystrybuanty i kwantyli najczęściej stosowanych rozkładów. Może również pracować jako precyzyjny generator liczb losowych. Standardowo dostępne są następujące rozkłady: beta, binom, cauchy, chisq, exp, f, gamma, geom, hyper, lnorm, logis, nbinom, norm, pois, t, unif, weibull, wilcox. Poprzedzając nazwę rozkładu literą d uzyskujemy funkcję gęstości rozkładu. Analogicznie poprzedzając nazwę literą p uzyskujemy wartości dystrybuanty. Funkcja kwantylowa (poprzedzona q) podaje taki kwantyl, który po lewej stronie wykresu gęstości zawiera określone prawdopodobieństwo. Generator liczb losowych dostępny jest przy poprzedzeniu nazwy litera r. Funkcje te pozwalają na traktowanie pakietu R jako zestawu bardzo dokładnych tablic statystycznych.

> dnorm(0) # gęstość rozkładu normalnego w zerze [1] 0.3989423 > pnorm(1)-pnorm(-1) # ile wartości mieści sie w N(0,1) w przedziale (0,1)? [1] 0.6826895 > qt(0.995,5) # wartość krytyczna t-studenta dla 99% i 5 stopni swobody [1] 4.032143 > qchisq(0.01,5) # wartość krytyczna chi-kwadrat dla 5 st. swobody i 99% [1] 0.5542981 > dpois(0,0.1) # wartość prawdop. Poissona dla lambda 0.1 i n=0 [1] 0.9048374 > qf(0.99,5,6) # wartość krytyczna testu F dla n1=5, n2=6 [1] 8.745895

Kilku słów wymaga wartość 0.995 (nie 0.99) w wywołaniu funkcji rozkładu t-studenta. Rozkład ten jest zwykle stosowany w kontekście dwustronnym, dlatego obszar krytyczny dzielimy równomiernie na obu końcach rozkładu. 99% ufności oznacza, ze krytyczny 1% jest podzielony na 2 końce i zawiera sie w przedziałach (0, 0.05) oraz (0.995, 1). Wartość tablicowa jest kwantylem obliczonym dla takiego właśnie prawdopodobieństwa. Analogicznie np. dla 95% będzie to 0.975, a dla 99.9% 0.9995.

Korzystając z funkcji generatora losowego można generować dowolne ciągi danych do późniejszej analizy. Wygenerujmy przykładowy zestaw 30 liczb o średniej 50 i odchyleniu standardowym 5, posiadających rozkład normalny: > rnorm(30,50,5) [1] 53.43194 58.74333 53.27320 46.42251 53.93869 44.80035 55.57112 43.65090 [9] 46.78265 55.88207 49.68947 52.65945 55.72740 48.75954 48.16239 50.89369 [17] 51.23270 47.14778 57.83292 45.67989 45.98016 50.45368 44.41436 44.24023 [25] 50.98059 48.69967 53.32837 48.09720 52.57135 49.64967

Oczywiście funkcja ta wygeneruje za każdym razem całkowicie inne wartości, dlatego też prowadząc analizy należy je zapamiętać w zmiennej, a potem używać tej zmiennej w dalszych operacjach. Warto przy okazji wspomnieć o funkcji sample, generującej wektor danych wylosowanych z innego wektora. Np. funkcja sample(1:6,10,replace=t) symuluje 10 rzutów kostka (losowanie ze zbioru 1:6), a dane mogą sie powtarzać. Jeśli nie jest podana liczba losowanych danych (np. sample(1:6)), funkcja generuje losowa permutacje wektora podanego jako parametr.

cudowne lekarstwo na wolne rodniki

rozstęp zmiennej

http://www.mini.pw.edu.pl/~mwojtys/ sar/dane/coagulation.txt

Szukamy: - obserwacji odstających, - skośności rozkładów (niesymetryczne skrzynki) - nierówności wariancji (nierówne wielkości skrzynek) Dla zbioru coagulation nieregularności na wykresie skrzynkowym wynikają raczej z malej liczby obserwacji.

Test równości wariancji w grupach (Używamy poziomu istotności 0.01, bo procedury związane z ANOVA są w miarę odporne na odstępstwo od założenia o równych wariancjach w grupach) # TEST BARTLETTA (nie jest najlepszy, bo nieodporny na odstępstwo od założenia o normalności rozkładu w grupach) bartlett.test(coag~diet)

TEST LEVENE'A (odporny na odstępstwo od założenia o normalności rozkładu w grupach) # Liczymy wartości bezwzględne rezyduów i używamy ich jako zmiennej odpowiedzi w analizie wariancji:

Na podstawie wyniku testu F stwierdzamy, ze istnieją różnice w średnich miedzy grupami

Zatem dieta jest poziomem odniesienia. średnia na poziomie dieta: 61 średnia na poziomie dietb: 61+5 średnia na poziomie dietc: 61+7 średnia na poziomie dietd: 61-0