Spis treści. Zadania i biostatystyki. Zbieranie danych

Podobne dokumenty
Statystyka matematyczna dla leśników

Statystyka. Rozkład prawdopodobieństwa Testowanie hipotez. Wykład III ( )

Zmienna bazowa. 100(1 α)% przedział ufności dla µ: 100(α)% test hipotezy dla µ = µ 0; odrzucić, jeżeli Ȳ nie jest w przedziale

Prawdopodobieństwo i rozkład normalny cd.

Testowanie hipotez statystycznych. Wnioskowanie statystyczne

Błędy przy testowaniu hipotez statystycznych. Decyzja H 0 jest prawdziwa H 0 jest faszywa

Statystyka matematyczna Testowanie hipotez i estymacja parametrów. Wrocław, r

Statystyka matematyczna i ekonometria

Wnioskowanie statystyczne. Statystyka w 5

Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji

VI WYKŁAD STATYSTYKA. 9/04/2014 B8 sala 0.10B Godz. 15:15

Zadania ze statystyki, cz.7 - hipotezy statystyczne, błąd standardowy, testowanie hipotez statystycznych

Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1

166 Wstęp do statystyki matematycznej

WYKŁAD 8 TESTOWANIE HIPOTEZ STATYSTYCZNYCH

Statystyka matematyczna. Wykład IV. Weryfikacja hipotez statystycznych

Testowanie hipotez statystycznych.

Testowanie hipotez. Marcin Zajenkowski. Marcin Zajenkowski () Testowanie hipotez 1 / 25

Statystyka matematyczna i ekonometria

Statystyka i opracowanie danych- W 8 Wnioskowanie statystyczne. Testy statystyczne. Weryfikacja hipotez statystycznych.

Idea. θ = θ 0, Hipoteza statystyczna Obszary krytyczne Błąd pierwszego i drugiego rodzaju p-wartość

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 9 i 10 - Weryfikacja hipotez statystycznych

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Testowanie hipotez. Hipoteza prosta zawiera jeden element, np. H 0 : θ = 2, hipoteza złożona zawiera więcej niż jeden element, np. H 0 : θ > 4.

Hipotezy statystyczne

STATYSTYKA MATEMATYCZNA WYKŁAD 4. Testowanie hipotez Estymacja parametrów

Hipotezy statystyczne

STATYSTYKA I DOŚWIADCZALNICTWO. Wykład 2

STATYSTYKA MATEMATYCZNA

Weryfikacja hipotez statystycznych

Wnioskowanie statystyczne i weryfikacja hipotez statystycznych

Testowanie hipotez statystycznych cd.

Testowanie hipotez statystycznych

ALGORYTMICZNA I STATYSTYCZNA ANALIZA DANYCH

LABORATORIUM Populacja Generalna (PG) 2. Próba (P n ) 3. Kryterium 3σ 4. Błąd Średniej Arytmetycznej 5. Estymatory 6. Teoria Estymacji (cz.

Statystyka. #5 Testowanie hipotez statystycznych. Aneta Dzik-Walczak Małgorzata Kalbarczyk-Stęclik. rok akademicki 2016/ / 28

Statystyki: miary opisujące rozkład! np. : średnia, frakcja (procent), odchylenie standardowe, wariancja, mediana itd.

LABORATORIUM 8 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI

Wykład 10 Estymacja przedziałowa - przedziały ufności dla średn

Wstęp do probabilistyki i statystyki. Wykład 4. Statystyki i estymacja parametrów

Testowanie hipotez statystycznych

Statystyki: miary opisujące rozkład! np. : średnia, frakcja (procent), odchylenie standardowe, wariancja, mediana itd.

Rozkłady statystyk z próby. Statystyka

Rozkład Gaussa i test χ2

Wykład 3 Hipotezy statystyczne

Testowanie hipotez statystycznych

Rozkłady statystyk z próby

VII WYKŁAD STATYSTYKA. 30/04/2014 B8 sala 0.10B Godz. 15:15

Weryfikacja przypuszczeń odnoszących się do określonego poziomu cechy w zbiorowości (grupach) lub jej rozkładu w populacji generalnej,

Weryfikacja hipotez statystycznych za pomocą testów statystycznych

Porównanie modeli statystycznych. Monika Wawrzyniak Katarzyna Kociałkowska

Wykład 2 Hipoteza statystyczna, test statystyczny, poziom istotn. istotności, p-wartość i moc testu

Zad. 4 Należy określić rodzaj testu (jedno czy dwustronny) oraz wartości krytyczne z lub t dla określonych hipotez i ich poziomów istotności:

W2. Zmienne losowe i ich rozkłady. Wnioskowanie statystyczne.

Wykład Centralne twierdzenie graniczne. Statystyka matematyczna: Estymacja parametrów rozkładu

Estymacja przedziałowa - przedziały ufności dla średnich. Wrocław, 5 grudnia 2014

12/30/2018. Biostatystyka, 2018/2019 dla Fizyki Medycznej, studia magisterskie. Estymacja Testowanie hipotez

Estymacja punktowa i przedziałowa

Oszacowanie i rozkład t

TESTOWANIE HIPOTEZ STATYSTYCZNYCH

RÓWNOWAŻNOŚĆ METOD BADAWCZYCH

Wyniki badań reprezentatywnych są zawsze stwierdzeniami hipotetycznymi, o określonych granicach niepewności

Zadania ze statystyki, cz.6

Statystyczna analiza danych w programie STATISTICA (wykład 2) Dariusz Gozdowski

Wykład 9 Wnioskowanie o średnich

ZMIENNE LOSOWE. Zmienna losowa (ZL) X( ) jest funkcją przekształcającą przestrzeń zdarzeń elementarnych w zbiór liczb rzeczywistych R 1 tzn. X: R 1.

LABORATORIUM 8 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI

Metody Statystyczne. Metody Statystyczne.

LABORATORIUM 3. Jeśli p α, to hipotezę zerową odrzucamy Jeśli p > α, to nie mamy podstaw do odrzucenia hipotezy zerowej

Pobieranie prób i rozkład z próby

Testowanie hipotez statystycznych. Wprowadzenie

TEST STATYSTYCZNY. Jeżeli hipotezę zerową odrzucimy na danym poziomie istotności, to odrzucimy ją na każdym większym poziomie istotności.

Założenia do analizy wariancji. dr Anna Rajfura Kat. Doświadczalnictwa i Bioinformatyki SGGW

Tablica Wzorów Rachunek Prawdopodobieństwa i Statystyki

Uwaga. Decyzje brzmią różnie! Testy parametryczne dotyczące nieznanej wartości

WNIOSKOWANIE STATYSTYCZNE

Analiza niepewności pomiarów

Rachunek prawdopodobieństwa i statystyka - W 9 Testy statystyczne testy zgodności. Dr Anna ADRIAN Paw B5, pok407

Zadania ze statystyki cz. 8 I rok socjologii. Zadanie 1.

dr hab. Dariusz Piwczyński, prof. nadzw. UTP

Szczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć)

Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/

WYKŁAD 5 TEORIA ESTYMACJI II

Zadania ze statystyki cz.8. Zadanie 1.

Weryfikacja przypuszczeń odnoszących się do określonego poziomu cechy w zbiorowości (grupach) lub jej rozkładu w populacji generalnej,

Testowanie hipotez statystycznych.

Weryfikacja hipotez statystycznych

Wyniki badań reprezentatywnych są zawsze stwierdzeniami hipotetycznymi, o określonych granicach niepewności

STATYSTYKA MATEMATYCZNA WYKŁAD 4. WERYFIKACJA HIPOTEZ PARAMETRYCZNYCH X - cecha populacji, θ parametr rozkładu cechy X.

HISTOGRAM. Dr Adam Michczyński - METODY ANALIZY DANYCH POMIAROWYCH Liczba pomiarów - n. Liczba pomiarów - n k 0.5 N = N =

ODRZUCANIE WYNIKÓW POJEDYNCZYCH POMIARÓW

Estymacja przedziałowa. Przedział ufności

Matematyka i statystyka matematyczna dla rolników w SGGW WYKŁAD 9. TESTOWANIE HIPOTEZ STATYSTYCZNYCH cd.

IV WYKŁAD STATYSTYKA. 26/03/2014 B8 sala 0.10B Godz. 15:15

), którą będziemy uważać za prawdziwą jeżeli okaże się, że hipoteza H 0

Na podstawie dokonanych obserwacji:

METODY STATYSTYCZNE W BIOLOGII

Szczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć)

WIELKA SGH-OWA POWTÓRKA ZE STATYSTYKI TESTOWANIE HIPOTEZ PARAMETRYCZNYCH

TESTOWANIE HIPOTEZ Przez hipotezę statystyczną rozumiemy, najogólniej mówiąc, pewną wypowiedź na temat rozkładu interesującej nas cechy.

Transkrypt:

Zadania i biostatystyki Jarosław Piskorski 1 Zadania i biostatystyki 2 Zbieranie danych 3 Interpretacja wyników badań IF UZ Jarosław Piskorski (IF UZ) 1 / 122 Jarosław Piskorski (IF UZ) Zadania i biostatystyki 2 / 122 Zadania i biostatystyki Po co nam biostatystyka? Rodzice dziecka z defektem genetycznych zastanawiają się nad tym, czy starać się o drugie dziecko. Podobne przyczyny nie zawsze mają takie same skutki we wszystkich powyższych przykładach podstawowym elementem decyzji jest niepewność. Lekarz, wybierający terapię musi zastanowić się nad prognozą dla pacjenta w zależności od wybranej terapii. W eksperymencie badającym kancerogenność składnika pożywienia FDA testuje ten składnik w (przynajmniej) dwóch grupach ze składnikiem i bez. Nowotwory pojawią się w obu grupach Czy palenie powoduje raka? Skąd wątpliwości? Zadaniem (bio)statystyki jest radzenie sobie ze zmiennością i niepewnością. Podczas budowy nowego centrum ochrony zdrowia (szpitala, przychodni specjalistycznej itp.) trzeba wziąć pod uwagę zarówno obecny stan zdrowia populacji jak i szacowane zmiany w przyszłości oraz dostępność nowych terapii. Jarosław Piskorski (IF UZ) 3 / 122 Jarosław Piskorski (IF UZ) Zadania i biostatystyki 4 / 122 Zadania i biostatystyki Na jakie pytania odpowiada (bio)statystyka? Aby odpowiedzieć na pytanie należy zaprojektować badanie JAK? CZY? Jarosław Piskorski (IF UZ) 5 / 122 Jarosław Piskorski (IF UZ) Zadania i biostatystyki 6 / 122 Zadania i biostatystyki Definicje podstawowych typów badań Badanie obserwacyjne Eksperyment Badanie obserwacyjne Sparowane badanie case-control Badanie case-control z dopasowaniem charakterystyki próby Laboratoryjny Porównawczy Skrzyżowany Badanie podłużne Badanie kliniczne Badanie prospektywne Badanie przekrojowe Badanie obserwacyjne zbiera dane na temat istniejącej sytuacji. W założeniu zbieranie danych nie powinno wpływać na obserwowany system i jego działanie. ALE... Badanie retrospektywne Badanie typu case-control Jarosław Piskorski (IF UZ) 7 / 122 Jarosław Piskorski (IF UZ) 8 / 122

Zbieranie danych Zbieranie danych Zbieranie danych 1 Zadania i biostatystyki 2 Zbieranie danych 3 Interpretacja wyników badań badania laboratoryjne, badania kliniczne, badania ankietowe itd. notatki prowadzone przez badaczy zbieranie zbyt dużej lub zbyt małej ilości danych testowanie procedury zbierania danych decyzja dotycząca metod statystycznych powinna być podjęta przed rozpoczęciem badania i powinna być pomocna przy wybieraniu typu danych zbieranych w badaniu (częściowa) replikacja innych badań Jarosław Piskorski (IF UZ) 9 / 122 Jarosław Piskorski (IF UZ) 10 / 122 Zbieranie danych Edycja i weryfikacja danych Interpretacja wyników badań Sprawdzenie spójności i poprawności Brakujące dane Logistyka obsługi danych Koszty obsługi i analizy danych 1 Zadania i biostatystyki 2 Zbieranie danych 15% 3 Interpretacja wyników badań Jarosław Piskorski (IF UZ) 11 / 122 Jarosław Piskorski (IF UZ) 12 / 122 Wnioski z badania Interpretacja wyników badań Obciążenie Podobieństwo w badaniach porównawczych Randomizacja Rozszerzenie interpretacji do większej populacji Precyzja i prawdziwość pomiarów projekt (np. układ bloków losowanych) 4 Statystyki oparte o momenty zmiennej losowej 5 Populacja i próba Jarosław Piskorski (IF UZ) 13 / 122 Jarosław Piskorski (IF UZ) 14 / 122 Statystyka to numeryczna charakterystyka próby. Jednym z podstawowych zadań statystyki jest opisanie próby przy pomocy tak niewielkiej liczby parametrów jak to tylko możliwe. Percentyl ma intuicyjne i jasne znaczenie na przykład 25-ty percentyl to taka wartość, że 25% obserwacji znajduje się poniżej tej wartości a 75% powyżej. Przy stosowaniu tej defnincji do faktycznej, istniejącej próby napotykamy na następujące problemy małe grupy równe wartości (ties) niejednoznaczność percentyli Jarosław Piskorski (IF UZ) 15 / 122 Jarosław Piskorski (IF UZ) 16 / 122

Problemy z percentylami percentyla (bez problemów) Mając do dyspozycji próbę 22, 22, 24, 27 jak można zdefniniować 25-ty percentyl? W zbiorze nie ma takiej liczby! Która (jaka?) liczba jest 75-tym percentylem? Jest ich nieskończona liczba! np. 24.5, 25, 26.9378.... P-ty percentyl P-ty percentyl z próby liczącej n obserwacji to wartość o randze P (1 + n) 100 Jeżeli ta ranga nie jest całkowita, to zaokrąglić ją należy do najbliższej rangi połówkowej. Ranga połówkowa to wartość w połowie pomiędzy dwiema liczbami (średnia). Jarosław Piskorski (IF UZ) 17 / 122 Jarosław Piskorski (IF UZ) 18 / 122 Percentyle aflatoksyna w orzeszkach ziemnych Wyróżnione percentyle Około 560g zmielonych orzeszków zostało podzielonych na 16 próbek, które odwirowano i przeanalizowano. Jedna próbka uległa zniszczeniu. Wyniki dla pozostałych 15 to: 30, 26, 26, 36, 48, 50, 16, 31, 22, 27, 23, 35, 52, 28, 37 Znaleźć 50-ty percentyl. szeregujemy 16, 22, 23, 26, 26, 27, 28, 30, 31, 35, 36, 37, 48, 50, 52 Znaleźć 90-ty percentyl. 50/100)(1 + 15) = 8 (90/100)(1 + 15) = 14.4 co zaokrąglamy do 14.5 i obliczamy 1/2(50 + 52) = 51. Percentyl Nazwa 50 mediana (m) 25 dolny kwartyl (Q1) 75 górny kwartyl (Q3) IQR Odstęp międzykwartylowy (interquartile range - IQR) to różnica pomiędzy górnym i dolnym kwartylem. Zadanie: wyliczyć IQR dla przykładu z aflatoksynami. Jarosław Piskorski (IF UZ) 19 / 122 Jarosław Piskorski (IF UZ) 20 / 122 Pudełko z wąsami (wykres pudełkowy lub skrzynkowy) Podstawowe momenty Statystyki oparte o momenty zmiennej losowej Średnia arytmetyczna ȳ = yi n, ȳ = py i Odchylenie standardowe s = (ȳ yi) 2 n 1 Jarosław Piskorski (IF UZ) 21 / 122 Jarosław Piskorski (IF UZ) 22 / 122 Statystyki oparte o momenty zmiennej losowej Statystyki oparte o momenty zmiennej losowej Kilka własności odchylenia standardowego Stopnie swobody 1 Odchylenie standardowe jest wyrażone w takich samych jednostkach co zmienna 2 Wartość odchylenia standardowego nie zmienia się po dodaniu tej samej stałej do wszystkich wartości. 3 Jeżeli wszystkie wartości pomnożymy przez tę samą stałą, to odchylenie standardowe też zostanie przez nią pomnożone. 4 Kwadrat odchylenia standardowego nazywa się wariancją. 5 W wielu przypadkach zachodzi s IQR 1.35 6 W wielu przypadkach około 68% przypadków skupionych jest w odległości jednego odchylenia standardowego od średniej, 95% skupionych jest w odległości 2 odchyleń standardowych od średniej. Jarosław Piskorski (IF UZ) 23 / 122 Przykład: zliczamy dzieci w rodzinie X to chłopcy, Y to dziewczęta. W tej sytuacji mamy 2 stopnie swobody. Jeżeli zliczamy chłopców i dziewczęta w rodzinach, które mają 8 dzieci, to jest tu tylko jeden stopień swobody. M liczba więzów liniowych. df = N M Jarosław Piskorski (IF UZ) 24 / 122

Populacja i próba Populacja i próba Populacja i próba 4 Statystyki oparte o momenty zmiennej losowej 5 Populacja i próba Populacja: pełny zbiór obiektów, którego dotyczy procedura statystyczna (nawet jeżeli zbiór ten nie istnieje). Próba: skończony podzbiór populacji. Parametr: numeryczna charakterystyka populacji. Statystyka: numeryczna charakterystyka próby. Jarosław Piskorski (IF UZ) 25 / 122 Jarosław Piskorski (IF UZ) 26 / 122 Populacja i próba Populacja i próba Populacja i próba Dobór próby i wnioskowanie Przykład 1: ciśnienie skurczowe u 2232 mężczyzn żyjących w Japonii reprezentuje wszystkich mężczyzn w Japonii. Przykład 2: PKU powoduje opóźnienie umysłowe. Wprowadzamy dietę i badamy IQ u czterolatków, a następnie porównujemy (w odpowiedni sposób) ze zdrowymi dziećmi. Co jest tutaj populacją? populacja Tutaj populacja nie istnieje! Jest nią zbiór wszystkich dzieci które mogłyby być leczone dietą dobór próby wnioskowanie Wyniki badania próby rozszerzamy na (nieistniejącą) populację próba Jarosław Piskorski (IF UZ) 27 / 122 Jarosław Piskorski (IF UZ) 28 / 122 Zadanie doboru próby Populacja i próba Populacja i próba Praktyczne zagadnienia związane z doborem próby Zadanie doboru próby to sytuacja mająca następujące elementy: zdefiniowana jest populacja wykonany jest pomiar obliczana jest (w odpowiedni sposób) statystyka czy populacja jest zdefiniowana jednoznacznie? czy mierzona zmienna jest obserwowalna? czy procedura doboru próby jest odpowiednia? czy próba jest wystarczająco duża? Jarosław Piskorski (IF UZ) 29 / 122 Jarosław Piskorski (IF UZ) 30 / 122 Estymacja i testowanie hipotez Estymacja i testowanie hipotez Estymacja i testowanie hipotez 6 Estymacja i testowanie hipotez 7 8 Estymacja: to szacowanie wartości parametrów populacji (np. średnie ciśnienie skurczowe). : procedura przyjmowania hipotez (domysłów) na temat parametrów populacji i testowanie czy zaobserwowane dane są zgodne z tymi hipotezami. W przypadku PKU hipotezą jest: IQ dzieci na diecie jest takie samo jak dzieci zdrowych. Rozróżnienie pomiędzy estymacją a testowaniem hipotez jest zwykle kwestą rozłożenia akcentów. Jarosław Piskorski (IF UZ) 31 / 122 Jarosław Piskorski (IF UZ) 32 / 122

Populacja i próba powrót do definicji 6 Estymacja i testowanie hipotez 7 8 Populacja to zbiór wszystkich możliwych wartości zmiennej losowej. Losowy dobór elementów do próby zapewnia, że zmienna jest zmienną losową. Populacja jest opisana w sposób pełny (zamodelowana), jeżeli znana jest funkcja rozkładu prawdopodobieństwa lub funkcja gęstości rozkładu prawdopodobieństwa Jarosław Piskorski (IF UZ) 33 / 122 Jarosław Piskorski (IF UZ) 34 / 122 Rozkład Gaussa : przykład [Golubjatnikov et. al. (1978)] modeluje szeroką grupę zbiorów danych w sposób satysfakcjonujący. Centralne Twierdzenie Graniczne mówi, że z przyczyn matematycznych rozkład ten ma bardziej uniwersalne zastosowanie niż inne rozkłady. Jarosław Piskorski (IF UZ) 35 / 122 Jarosław Piskorski (IF UZ) 36 / 122 : przykład [Kato et. al. (1973)] f(x) = 1 σ (x µ) 2 2π e 2σ 2 Jarosław Piskorski (IF UZ) 37 / 122 Jarosław Piskorski (IF UZ) 38 / 122 Parametry rozkładu normalnego Parametr położenia f(x) = Parametr kształtu (x µ ) 2 1 σ 2π e 2 σ 2 gęstość prawdopodobieństwa 0.0 0.1 0.2 0.3 0.4 0.5 15 10 5 0 5 10 15 Jarosław Piskorski (IF UZ) 39 / 122 x Jarosław Piskorski (IF UZ) 40 / 122

Parametry rozkładu normalnego Parametry rozkładu normalnego gęstość prawdopodobieństwa 0.0 0.1 0.2 0.3 0.4 0.5 µ =0, σ =1 µ = 12, σ =0.8 gęstość prawdopodobieństwa 0.0 0.1 0.2 0.3 0.4 0.5 µ =0, σ =1 µ = 12, σ =0.8 µ =2, σ =5 15 10 5 0 5 10 15 15 10 5 0 5 10 15 x Jarosław Piskorski (IF UZ) 41 / 122 x Jarosław Piskorski (IF UZ) 42 / 122 Parametry rozkładu normalnego Parametry rozkładu normalnego gęstość prawdopodobieństwa 0.0 0.1 0.2 0.3 0.4 0.5 µ =0, σ =1 µ = 12, σ =0.8 µ =2, σ =5 µ = 8, σ =7 gęstość prawdopodobieństwa 0.0 0.1 0.2 0.3 0.4 0.5 µ =0, σ =1 µ = 12, σ =0.8 µ =2, σ =5 µ = 8, σ =7 µ =4, σ =2 15 10 5 0 5 10 15 15 10 5 0 5 10 15 x Jarosław Piskorski (IF UZ) 43 / 122 x Jarosław Piskorski (IF UZ) 44 / 122 T-shirts Dla zmiennej losowej X o średniej µ i wariancji σ 2 zmienna Z (Z-score) zdefiniowana jest jako X µ σ. f(x) = 1 σ 2π e 1 2 ( ) 2 x µ σ Jarosław Piskorski (IF UZ) 45 / 122 Jarosław Piskorski (IF UZ) 46 / 122 Standardowy rozkład normalny Po normalizacji X µ σ rozkład prawdopodobieństwa dla każdego przypadku jest identyczny. Pomiar prawdopodobieństwa Standardowy rozkład normalny gęstość prawdopodobieństwa 0.0 0.1 0.2 0.3 0.4 Standardowy rozkład normalny P=1 4 2 0 2 4 0.0 0.1 0.2 0.3 0.4 68 % 4 2 σ 0 σ 2 4 Jarosław Piskorski (IF UZ) 47 / 122 Jarosław Piskorski (IF UZ) 48 / 122

Standardowy rozkład normalny 60 80 100 120 140 160 Standardowy rozkład normalny 4 σ 0 σ 4 Pomiar prawdopodobieństwa Pomiar prawdopodobieństwa Standardowy rozkład normalny Standardowy ozkład normalny 0.0 0.1 0.2 0.3 0.4 95 % 0.0 0.1 0.2 0.3 0.4 5 % 4 σ 0 σ 4 4 σ 0 σ 4 Jarosław Piskorski (IF UZ) 49 / 122 Jarosław Piskorski (IF UZ) 50 / 122 Pomiar prawdopodobieństwa Pomiar prawdopodobieństwa przykład 0.0 0.1 0.2 0.3 0.4 Standardowy rozkład normalny 5 % 4 σ 0 σ 4 Załóżmy, że iloraz inteligencji (IQ) jest rozłożony normalnie ze średnią µ = 100 i odchyleniem standardowym σ = 15. IQ > 115 oznacza wysoki iloraz inteligencji. Jaka część populacji ma wysoki iloraz inteligencji? Z = 115 100 15 = 1 P [Z > 1] = 1 P [Z 1] = 1 0.8413 = 0.1587 (15.87%) 40 0.000 0.005 0.010 0.015 0.020 0.025 0.0 0.1 0.2 0.3 0.4 16 % 16 % Jarosław Piskorski (IF UZ) 51 / 122 Jarosław Piskorski (IF UZ) 52 / 122 Pomiar prawdopodobieństwa przykład 2 Wróćmy do przykładu poziomu cholesterolu u dzieci z Wisconsin. Załóżmy µ = 175mg/(100mL) i σ = 30mg/(100mL). Załóżmy, że normalny cholesterol jest w odległości 2σ od średniej (pomiędzy 115 a 235). Z 1 = 115 175 30 = 2 235 175 Z 2 = = 2 30 P [Z 1 Z Z 2] = 1 2P [Z > 2] P [Z > 2] = 1 P [Z 2] 6 Estymacja i testowanie hipotez 7 8 Jarosław Piskorski (IF UZ) 53 / 122 Jarosław Piskorski (IF UZ) 54 / 122 Rozkład statystyki Wszystkie poprzednie przykłady dotyczyły obliczeń na podstawie parametrów populacji. Rozważmy przykład wielkośrodowego badania nad przeżyciem chorych na nowotwór. Średni czas przeżycia (lub wzrost tego czasu względem terapii standardowej) będzie różnił się pomiędzy ośrodkami. STATYSTYKI ZMIENIAJĄ SIĘ Z PRÓBY NA PRÓBĘ Funkcja (gęstości) rozkładu prawdopodobieństwa statystyki nazywa się rozkładem próby statystyki. Twierdzenie Jeżeli zmienna losowa ma średnią w populacji µ i wariancję σ 2, to rozkład próby średniej z próby ma średnią µ i wariancję σ2 n. Powyższe twierdzenie nie zakłada normalności rozkładu populacji, z której pochodzi próba! σ Odchylenie standardowe rozkładu próby ( 2 n ) nazywa się błędem standardowym. Jarosław Piskorski (IF UZ) 55 / 122 Jarosław Piskorski (IF UZ) 56 / 122

Przykład - IQ Błąd standardowy µ = 100, σ = 15. populacja średnia wariancja odchylenie standardowe pojedyncza obserwacja, Y 100 15 2 = 225 15=σ średnia z 25 obserwacji, Ȳ 100 152 /25 = 9 3 = σ/ n σ n aby k-krotnie zmniejszyć błąd, próbę musimy zwiększyć k 2 krotnie (np. 2 vs 4). σ/ 100 100 σ/ 110 = = 0.95 110 czyli 10% wzrost liczebności próby prowadzi do 5% wzrostu precyzji Jarosław Piskorski (IF UZ) 57 / 122 Jarosław Piskorski (IF UZ) 58 / 122 Centralne twierdzenie graniczne Przykład IQ Twierdzenie Jeżeli Y ma rozkład normalny o średniej µ i wariancji σ 2, to Ȳ, oparta o próbę losową n obserwacji rozkład normalny o średniej µ i wariancji σ 2 /n. Jakie jest prawdopodobieństwo, że średnia IQ grupy 25 osobowej przekroczy 106? µ = 100, σ/sqrtn = 15/ 25 = 3 [ ] P [Ȳ > 106] = P 106 100 Z > 3 = P [Z > 2] = 1 0.9772 = 0.0228 Jakie jest prawdopodobieństwo, że IQ pojedynczej osoby przekroczy 106? P [Y > 106] = P [Z > 6 ] = P [Z > 0.4] = 0.3446 15 Jarosław Piskorski (IF UZ) 59 / 122 Jarosław Piskorski (IF UZ) 60 / 122 Centralne twierdzenie graniczne 2 Estymacja punktowa i przedziałowa Twierdzenie Jeżeli zmienna losowa Y ma zmienną populacyjną µ i wariancję populacyjną σ 2, to średnia (statystyka) Ȳ oparta na próbie n obserwacji ma rozkład w przybliżeniu normalny ze średnią µ i wariancją σ 2 /n, dla wystarczająco dużego n. 9 Estymacja punktowa i przedziałowa 10 Jarosław Piskorski (IF UZ) 61 / 122 Jarosław Piskorski (IF UZ) 62 / 122 Uwagi wstępne Estymacja punktowa i przedziałowa Estymacja punktowa i przedziałowa Jak oszacować precyzję oszacowania? UWAGA: w poniższych przykładach wnioskować będziemy o średniej, zakładając, że wariancja jest znana. Czyli: Dla zmiennej losowej Y o nieznanej średniej populacyjnej µ i znanej wariancji σ 2 wybieramy próbę o liczebności n i chcemy na tej podstawie wyciągnąć wniosek o µ. Naturalnym oszacowaniem µ jest Ȳ. Jak np. odróżnić próbę n = 25 od próby n = 100? obie dają to samo oszacowanie µ? Jedna z możliwości to podanie zarówno Ȳ jak i błąd standardowy. Takie podejście jest dobre przy porównywaniu dwóch prób, jednak nie jest zbyt przydatne w opisywaniu pojedynczej próby Ȳ jest estymatą punktową µ. Jarosław Piskorski (IF UZ) 63 / 122 Jarosław Piskorski (IF UZ) 64 / 122

Estymacja punktowa i przedziałowa Estymacja przedziałowa Przedział ufności Estymacja punktowa i przedziałowa Rozważmy wielkość µ ± 1.96σ n. 95% średnich z prób n elementowych zawartych będzie w przedziale [µ 1.96σ/ n, µ + 1.96σ/ n] gdy n rośnie, przedział staje się węższy. Zastąpmy µ przez Ȳ [Ȳ 1.96σ/ n, Ȳ + 1.96σ/ n]. Tutaj nie możemy już mówić o wpadaniu w przedział, bo Ȳ zmienia się z próby na próbę. Interpretacja: mamy 95% prawdopodobieństwa (0.95), że ten przedział zawiera w sobie µ. Przedział [Ȳ 1.96σ/ n, Ȳ + 1.96σ/ n] nazywa się 95% przedziałem ufności. (100 α)% przedziałem ufności dla średniej µ populacji o rozkładzie normalnym i znanej wariancji σ 2, opartym na próbie wielkości n nazywamy α Ȳ ± z 1 α/2 n gdzie z 1 α/2 jest wartością normalnej zmiennej standardowej, dla której 100(1 α)% powierzchni pod krzywą normalną zawiera się pomiędzy ±z 1 α/2. Ściśle rzecz biorąc, powinniśmy napisać ( ) σ Ȳ + z α/2 n, Ȳ + z σ 1 α/2 n ale z α/2 = z 1 α Jarosław Piskorski (IF UZ) 65 / 122 Jarosław Piskorski (IF UZ) 66 / 122 Estymacja punktowa i przedziałowa Przedział ufności przykład Estymacja punktowa i przedziałowa Przedział ufności przykład Wróćmy do przykładu z danymi o nagłej śmierci łóżeczkowej. 78 przypadków SIDS w King County, Washington, 1976-1977. Y masa urodzeniowa w gramach. Dla tych 78 przypadków (dla tej próby) Ȳ = 2993.6g 2994g. Z zestawienia wszystkich urodzeń w tym okresie obliczono σ 800g. 95% przedział ufności dla średniej masy urodzeniowej w przypadku SIDS ( ) 800 2994 ± (1.96) lub 2994 ± (1.96)(90.6) lub 2994 ± 178 87 dolna granica 2816g, górna granica 3172 g. Na podstawie tej próby mamy 95% pewności, że przedział (2816, 3172) zawiera w sobie prawdziwą średnią populacyjną µ dla populacji SIDS. Obliczając w ten sam sposób, ale stosując 99% przedział ufności otrzymamy (2760, 3228) Ten przedział jest szerszy jest to cena za większą pewność. Jak zmniejszyć tę cenę? NIE DA SIĘ! Zawsze trzeba zapłacić Jarosław Piskorski (IF UZ) 67 / 122 Jarosław Piskorski (IF UZ) 68 / 122 Interpretacja CI Estymacja punktowa i przedziałowa Demonstracja Przedziału Ufności (CI) CI: [ x z 1 α 2σ n, x + z1 α 2σ n ] 0.6 0.4 0.2 0.0 0.2 0.4 0.6 coverage rate (pokrycie): 0.950 5 95 9 Estymacja punktowa i przedziałowa 10 0 20 40 60 80 100 Próby Jarosław Piskorski (IF UZ) 69 / 122 Jarosław Piskorski (IF UZ) 70 / 122 przykład SIDS W estymacji przedziałowej tworzyliśmy CI, który z pewnym prawdopodobieństwem zawierał szacowany parametr (np. średnią) populacji. W testowaniu hipotez zajmujemy się odległością statystyki od założonej wielkości parametru. Odległość tę mierzymy w σ. odległość Wracamy do przykładu 78 przypadków SIDS w Wisconsin. Ȳ = 2994g, σ = 800g, σ/ n = 800/ 78 = 90.6g. Pytanie: czy przypadki SIDS mają niższą masę urodzeniową niż w ogólnej populacji, µ = 3300g. odległość = 306 g, czyli 306/90.6 = 3.38 błędu standardowego wartość hipotetyczna wartość zaobserwowana 2994 g 3300 g Jarosław Piskorski (IF UZ) 71 / 122 Jarosław Piskorski (IF UZ) 72 / 122

2 błędy standardowe zgodne z wartością hipotetyczną 2 błędy standardowe Ȳ Zamiast podawać odległości przy pomocy liczby odchyleń standardowych, możemy podawać prawdopodobieństwa w ogonach rozkładu normalnego. Wielkość tę nazywamy wartością p (p-value). Dla 2σ będzie to około 0.05. (Ściśle dla 1.96σ mamy 0.05.) niezgodne z wartością hipotetyczną Ȳ wartość hipotetyczna niezgodne z wartością hipotetyczną W ten sposób moglibyśmy przed dokonaniem pomiaru postawić hipotezę i stwierdzić, że przyjmiemy hipotezę, jeżeli wartość p będzie mniejsza niż nasza ustalona wielkość graniczna (np. 0.05). Jarosław Piskorski (IF UZ) 73 / 122 Jarosław Piskorski (IF UZ) 74 / 122 kilka definicji kilka definicji Hipoteza zerowa H 0 podaje zakładaną wartość parametru(ów). Obszar krytyczny (obszar odrzucenia) zawiera wartości statystyk dla których hipoteza zerowa jest odrzucana. Wartości na krańcach tego obszaru nazywają się wartościami krytycznymi. Błąd I rodzaju następuje wtedy, gdy odrzucamy hipotezę zerową, podczas gdy w rzeczywistości jest ona prawdziwa. Poziom istotności to prawdopodobieństwo błędu typu I przy założeniu, że H 0 jest prawdziwa. Hipoteza alternatywna podaje prawdziwą wartość (wartości) parametru (ów), która będzie przyjęta gdy odrzucona zostanie H 0. Jarosław Piskorski (IF UZ) 75 / 122 Jarosław Piskorski (IF UZ) 76 / 122 kilka definicji przykład SIDS Błąd typu II występuje, gdy hipoteza zerowa nie zostanie odrzucona, podczas gdy w rzeczywistości jest ona prawdziwa. Moc testu to prawdopodobieństwo odrzucenia H 0 gdy jest ona fałszywa. Prawdopodobieństwo błędu typu I oznacza się przez α, prawdopodobieństwo błędu typu II przez β. Prawda o masie urodzeniowej Decyzja o masie urodzeniowej równa różna równa poprawna (1 α) błąd typu II (β) różna błąd typu I (α) poprawna (1 β) moc testu = 1 β Jarosław Piskorski (IF UZ) 77 / 122 Jarosław Piskorski (IF UZ) 78 / 122 przykład SIDS przykład SIDS H 0 : µ = 3300g, H A : µ 3300g, (µ 2σ/ n) = 3119g, (µ + 2σ/ n) = 3481g Ȳ = 2994g odrzucamy H 0 nie odrzucamy H 0 odrzucamy H 0 (µ 2σ/ 3119g n) = 3119g H 0 : µ = 3300g (µ + 2σ/ n) = 3481g zaobserwowana wartość 2994g Prawdopodobieństwo popełnienia błędu typu I to prawdopodobieństwo, że średnia próby 78 osobowej z populacji o średniej 3300g jest mniejsza niż 3481 g. [ ] 3119 3300 P [3119 Ȳ 3481] = P 3481 3300 Z 90.6 90.6 = P [ 2 Z 2] z tabel P [Z 2] = 0.9772 1 P [ 2 Z 2] = (2)(0.0228) = 0.0456 czyli w naszym podejściu prawdopodobieństwo popełnienia błędu typu I wynosi 0.0456 Jarosław Piskorski (IF UZ) 79 / 122 Jarosław Piskorski (IF UZ) 80 / 122

Błąd typu II Błąd typu II Prawdopodobieństwo błędu typu II obliczyć można wyłącznie gdy podana jest wartość parametru dla H A. Załóżmy H A : µ = 3000g wartość ta wynika z wcześniejszych badań. Jarosław Piskorski (IF UZ) 81 / 122 Jarosław Piskorski (IF UZ) 82 / 122 Błąd typu II Testy dwustronne i jednostronne Prawdopodobieństwo błędu typu II obliczyć można wyłącznie gdy podana jest wartość parametru dla H A. Załóżmy H A : µ = 3000g wartość ta wynika z wcześniejszych badań. Zastosowanie testu dwustronnego lub jednostronnego zależy od hipotezy alternatywnej (H A ). Do tej pory mieliśmy H 0 : µ = 3300; H A : µ 3300 P [B.t.II] = P [3119 Ȳ 3481] [ 3119 3000 = P Z 90.6 = P [1.31 Z 5.31] = 0.095 z czego wynika, β = 0.905 i moc testu 1 β = 0, 905. Czym różni się α od β? ] 3481 3000 90.6 α 2 α 2 Jarosław Piskorski (IF UZ) 83 / 122 Jarosław Piskorski (IF UZ) 84 / 122 Testy dwustronne i jednostronne Test jednostronny przykład Jeżeli z doświadczenia wiemy, że masa urodzeniowa nie może być większa może być jedynie taka sama lub mniejsza, po przyjmiemy. H 0 : µ = 3300; H A : µ < 3300 Przyjmując α = 0.05 tak jak poprzednio, z tablic odczytujemy Z = 1.64, co daje dolną granicę przedziału: 3300 (1.63) 800 78 = 3300 1.64 90.6 = 3151 Poprzednio mieliśmy (3122, 3478). α Jarosław Piskorski (IF UZ) 85 / 122 Jarosław Piskorski (IF UZ) 86 / 122 Test jednostronny przykład Porównanie estymacji i testowania hipotez α Wybierz poziom ufności (1 α). Odczytaj z 1 α/2 z tabeli. Wylicz Ȳ ± z 1 α/2. Wybierz hipotezę zerową (H 0 : µ = µ 0). Określ α, czyli prawdopodobieństwo błędu typu I. Odczytaj z 1 α/2 z tabeli. Oblicz Ȳ ; odrzuć lub przyjmij H 0. 3151 3122 3300 3478 Jarosław Piskorski (IF UZ) 87 / 122 Jarosław Piskorski (IF UZ) 88 / 122

Przedział ufności vs. test hipotezy Porównanie estymacji i testowania hipotez Przedział ufności Test hipotezy µ 0 ( Ȳ z 1 α/2σ0 n Ȳ ) Ȳ + z 1 α/2σ0 n Czy zawsze te przedziały się przecinają? [ P z 1 α/2 Ȳ µ ] σ/ n z 1 α/2 = 1 α ] P [ µ z 1 α/2σ Ȳ µ + z 1 α/2σ n n = 1 α ( µ 0 z 1 α/2σ0 n µ 0 ) µ 0 + z 1 α/2σ0 n Ȳ [ P Ȳ z 1 α/2σ µ Ȳ + z ] 1 α/2σ = 1 α n n Jarosław Piskorski (IF UZ) 89 / 122 Jarosław Piskorski (IF UZ) 90 / 122 Porównanie estymacji i testowania hipotez Wnioskowanie o wariancji Estymacja przedziałowa kładzie nacisk na precyzję oszacowania. kładzie nacisk na sprawdzenie zgodności zebranych danych z postawioną hipotezą. Daje możliwość wyliczenia prawdopodobieństwa otrzymania takiego lub bardziej skrajnego wyniku. Dodatkow pozwala liczyć niezbędną wielkość próby do przeprowadzenia testu oraz moc testu. Do tej pory wszystkie wnioski dotyczyły średniej, a wariancję uznawaliśmy za znaną. Zmienna Ȳ µ σ/ n ma rozkład normalny. Zmienna ma rozkład χ 2 (n 1)s 2 σ 2 Wybranie podejścia zależy od charakterystyki problemu i obszaru w którym się poruszamy. Jarosław Piskorski (IF UZ) 91 / 122 Jarosław Piskorski (IF UZ) 92 / 122 Rozkład χ 2 Rozkład χ 2 Jeżeli zmienna losowa Y ma rozkład normalny o średniej µ i wariancji σ 2, to dla n-elementowej próby losowej wielkość (n 1)s 2 σ 2 ma rozkład χ 2 z n 1 stopniami swobody. [ ] (n 1)s 2 E σ 2 = n 1 [ ] (n 1)s 2 var σ 2 = 2(n 1) Przy wielokrotnym losowaniu próby wariancja będzie się zmieniała z próby na próbę, a rozkład χ 2 będzie opisywał tę zmienność w zależności od prawdziwej wariancji i liczebności próby. Jarosław Piskorski (IF UZ) 93 / 122 Jarosław Piskorski (IF UZ) 94 / 122 Rozkład χ 2 Wnioskowanie o wariancji w populacji gęstość prawdopodobieństwa 0.0 0.1 0.2 0.3 0.4 0.5 df=1 df=2 df=4 df=10 Załóżmy, że mamy próbę wielkości n z populacji o rozkładzie normalnym. Wariancja z próby wynosi s 2. Chcemy dowiedzieć się, czy wynik ten jest zgodny z hipotetyczną wartością σ 0. χ 2 = (n 1)s2 σ 2 Ta wielkość jest bliska 1 gdy s 2 jest podobne do σ 2 i bliskie 0 lub bardzo duże w przeciwnym wypadku. 0 5 10 15 x Jarosław Piskorski (IF UZ) 95 / 122 Jarosław Piskorski (IF UZ) 96 / 122

Wnioskowanie o wariancji przykład SIDS Wnioskowanie o wariancji przykład SIDS Zakładaliśmy, że σ 2 = (800g) 2. Dla pierwszych 11 przypadków s 2 = (574.3126g) 2. χ 2 = z ν = 10 stopni swobody. (11 1)(574.3126g)2 (800) 2 = 5.15 gęstość prawdopodobieństwa 0.00 0.02 0.04 0.06 0.08 0.10 P(χ 2 10 <3.25)=0.025 P(χ 2 10 >20.48)=0.025 0 5 10 15 20 25 30 Jarosław Piskorski (IF UZ) 97 / 122 2 χ 10 Jarosław Piskorski (IF UZ) 98 / 122 95% przedział ufności dla wariancji przykład SIDS 95% przedział ufności dla wariancji przykład SIDS gdzie ν = (n 1) P [χ 2 α/2 χ2 χ 2 1 α/2 = 1 α [ ] P χ 2 (n 1)s2 α/2 σ 2 χ 2 1 α/2 = 1 α [ (n 1)s 2 P χ 2 σ 2 1 α/2 ] (n 1)s2 χ 2 = 1 α α/2 χ 2 0.025 = 3.25, χ 2 0.975 = 20.48 P [3.25 χ 2 20.48] = 0.95 (10)(574.3126) 2 20.48 σ 2 (10)(574.3126)2 3.25 161052 σ 2 1014877 401g σ 1007g Jarosław Piskorski (IF UZ) 99 / 122 Jarosław Piskorski (IF UZ) 100 / 122 1920-1930, początki współczesnej statystyki Różnica zdań 1920-1930, początki współczesnej statystyki 11 1920-1930, początki współczesnej statystyki 12 Podejście Fishera 13 Podejście Neymana-Pearsona 14 Jarosław Piskorski (IF UZ) 101 / 122 Jarosław Piskorski (IF UZ) 102 / 122 1973, Wembley 1920-1930, początki współczesnej statystyki 1920-1930, początki współczesnej statystyki Czym NIE są wyniki procedur statystycznych prawdopodobieństwo, że hipoteza zerowa jest prawdziwa prawdopodobieństwo, że prawdziwa jest hipoteza alternatywna prawdopodobieństwo, że w kolejnych badaniach otrzymany wynik będzie potwierdzony informacja o tym, czy wynik jest istotny (w sensie ważny) informacja o tym, czy otrzymany wynik można generalizować Jarosław Piskorski (IF UZ) 103 / 122 Jarosław Piskorski (IF UZ) 104 / 122

Podejście Fishera Podejście Fishera Wartość p podejście Fishera 11 1920-1930, początki współczesnej statystyki 12 Podejście Fishera 13 Podejście Neymana-Pearsona 14 wnioskowanie indukcyjne hipoteza zerowa, H 0 P (x H) vs. P (H x) test istotności: prawdopodobieństwo otrzymania wyniku oraz wyników bardziej skrajnych, pod warunkiem, że hipoteza zerowa jest prawdziwa Jarosław Piskorski (IF UZ) 105 / 122 Jarosław Piskorski (IF UZ) 106 / 122 Podejście Fishera Wartość p podejście Fishera Podejście Fishera Wartość p podejście Fishera badacz zakłada H 0: próba pochodzi z hipotetycznej, nieskończonej populacji o znanym rozkładzie próbkowania mówimy, że hipoteza zostaje obalona (wsp. odrzucona) [ disproved, cont. rejected], jeżeli oszacowanie z próby różni się od średniej rozkładu w ten sposób, że wartość p jest mniejsza niż pewna liczba (kryterium), zwana poziomem istotności Fisher stwierdza, że tym kryterium najczęściej jest p 0.05, ale nie przywiązuje do tej liczby nadmiernej wagi Każdy eksperyment to szansa dana rzeczywistości na obalenie hipotezy zerowej, Fisher, 1966 fakt naukowy powinien być uznany za udowodniony doświadczalnie, jeżeli prawidłowo zaplanowany eksperyment rzadko nie wygeneruje wystarczająco wysokiej wartości p jeżeli jeden na dwadzieścia nie wydaje się wystarczająco małą liczbą, to możemy, jeżeli tylko chcemy, narysować linię na poziomie jeden na pięćdziesiąt lub jeden na sto Fisher, 1926 Jarosław Piskorski (IF UZ) 107 / 122 Jarosław Piskorski (IF UZ) 108 / 122 Podejście Fishera Przesłanki indukcyjne inductive evidence Podejście Neymana-Pearsona Fisher uznawał wartości p za przesłanki indukcyjne przeciwko hipotezie zerowej: im mniejsza wartość p, tym większy ciężar dowodu. Albo wydarzył się wyjątkowo rzadki przypadek, albo teoria jest nieprawdziwa, Fisher, 1959 11 1920-1930, początki współczesnej statystyki 12 Podejście Fishera 13 Podejście Neymana-Pearsona 14 Jarosław Piskorski (IF UZ) 109 / 122 Jarosław Piskorski (IF UZ) 110 / 122 Podejście Neymana-Pearsona Podejście Neymana-Pearsona zakładana jest hipoteza alternatywna (H 1) badacz wybiera (najczęściej) punktową hipotezę zerową i testuje względem hipotezy alternatywnej wprowadza się dwa rodzaje błędu: nieprawidłowe odrzucenie (Typ I) i nieprawidłowa akceptacja (Typ II), których wielkość oparta jest na kryterium decyzyjnym, wielkości próby i wielkości efektu Jarosław Piskorski (IF UZ) 111 / 122 Podejście Neymana-Pearsona Podejście Neymana-Pearsona rezultaty w podejściu Neymana-Pearsona oparte są na wielokrotnym wybieraniu próby ze zdefiniowanej populacji podejście to najbardziej odpowiada sytuacji powtarzanego próbkowania, jak np. w kontroli jakości: wtedy α to częstość (prawdopodobieństwo) błędu typu I, a β jest tym samym dla błędu typu II moc testu: (1 β): prawdopodobieństwo odrzucenia fałszywej hipotezy zerowej Jarosław Piskorski (IF UZ) 112 / 122

W podejściu Fishera nie było hipotezy alternatywnej oraz błędu typu II. 11 1920-1930, początki współczesnej statystyki 12 Podejście Fishera 13 Podejście Neymana-Pearsona 14 W rzeczy samej [... ] błędy drugiego rodzaju popełniane są jedynie przez osoby, które nie rozumieją Rozważanie mocy (testu) jest czasem niejawnie obecne w tekstach Fishera. Wolałby, żeby pojęcie to wprowadził otwarcie Fisher, 1935 Neyman, 1967 Neymanowskie pojęcie mocy i Fisherowskie pojęcie czułości są bardzo bliskie. Jarosław Piskorski (IF UZ) 113 / 122 Jarosław Piskorski (IF UZ) 114 / 122 Neyman i Fisher odrzucali całkowicie Fisherowskie pojęcie przesłanek indukcyjnych, wprowadzając w zamian indukcyjne zachowanie Akceptacja hipotezy H oznacza jedynie decyzję o podjęciu czynności A a nie czynności B. To wcale nie znaczy, że wierzymy, iż hipoteza H jest prawdziwa [... ] podczas gdy odrzucenie hipotezy H oznacza decyzję o podjęciu czynności B i nie implikuje wiary, że H jest fałszywa Neyman, 1950 Wprowadzono różne nazwy dla teorii statystycznej zawierającej odniesienie do zachowania, np. statystyka behawioralna. Ja wolę mówić o indukcyjnym zachowaniu, a nie o indukcyjnym rozumowaniu poziom istotności Decyzja o tym czy przyjąć, czy odrzucić hipotezę w podejściu Neymana-Pearsona zależy od ceny, którą trzeba zapłacić za popełnienie błędu typu I i błędu typu II. Cena ta nie ma związku z teorią statystyczną. W późniejszych pracach Neyman stwierdził, że unikanie błędu typu I jest ważniejsze niż unikanie błędu typu II. Neyman nazwał prawdopodobieństwo popełnienia błędu typu I (α) poziomem istotności testu Neyman, 1971 Jarosław Piskorski (IF UZ) 115 / 122 Jarosław Piskorski (IF UZ) 116 / 122 α i p Powtarzanie eksperymentu kontrola jakości α jest ustalane przed rozpoczęciem zbierania danych, więc procedura Neymana-Pearsona nazywana jest procedurą o ustalonym α lub o ustalonej wielkości powyższe jest w jawnej sprzeczności z Fisherowskim pojęciem wartości p, która jest zmienną losową o rozkładzie jednorodnym (pod H 0) α i β ustalają przedziały odrzucenia i akceptacji na tej podstawie odrzuca się H 0 i przyjmuje H A bądź nie odrzuca się H 0 Fisherowskie podejście stosowalne jest do pojedynczych eksperymentów podejście Neymana-Pearsona (testowanie hipotez) na to nie pozwala badacz może podjąć decyzję o hipotezie jeżeli test poddany był wielokrotnym i identycznym replikacjom warunek ten nie zachodzi w normalnych badaniach naukowych, Fisher, 1956 Nie krytykuję procedur akceptacji w kontroli jakości i jestem wdzięczny, ilekroć podróżuję samolotem, za wysoką precyzję i wiarygodność, która może być uzyskana jedynie w ten sposób Fisher, 1955 Jarosław Piskorski (IF UZ) 117 / 122 Jarosław Piskorski (IF UZ) 118 / 122 Fisher, czy Neyman? testowanie statystyczne zwykle formalnie używa narzędzi Neymana-Pearsona, jednak przyjmuje filozofię Fishera, Johnstone, 1986 Fisherowska filozofia obalania hipotezy zerowej jest prawie zawsze wykładana równocześnie z podejściem Neymana-Pearsona, odnoszącym się do hipotez zerowych, błędów I i II rodzaju oraz mocy testu statystycznego. Wartość p jest podawana (i często interpretowana) w odniesieniu do α, czyli prawdopodobieństwa błędu typu I, czyli z wielkością niewspółmierną (niekompatybilną). Ostatnio wyjaśnienia testu istotności podawane przez J. Neymana, autora, który nie był związany z powstaniem tych testów, może sprowadzić czytelników o przygotowaniu matematycznym na manowce, poprzez aksjomatyczny zapis czegoś, co nie jest ani ogólnie przyjęte, ani prawdziwe, a mianowicie, że poziom istotności musi być równy częstości z którą hipoteza jest odrzucana w powtarzanym eksperymencie przeprowadzonym w ustalonej populacji dozwolonej przez hipotezę. Ten natrętny aksjomat, który obcy jest rozumowaniu na którym testy istotności zostały oparte wydaje się być poważną przeszkodą w dalszym postępie. Fisher, 1945 Jarosław Piskorski (IF UZ) 119 / 122 Jarosław Piskorski (IF UZ) 120 / 122

Nieprawidłowe interpretacje wartości p i α Jeden z powodów zamieszania p to prawdopodobieństwo I rodzaju p to maksymalne tolerowalne prawdopodobieństwo błędu typu pierwszego miara możliwości wystąpienia błędu I rodzaju α to ustalone przed eksperymentem prawdopodobieństwo błędu typu I używane do kontrolowania prawdopodobieństwa odrzucenia H 0 rozszerzenie klasycznej (frequentist) interpretacji przedziału ufności na wartość p używanie p < α jako miary dowodów przeciwko H 0 Karl Pearson zabronił Fisherowi reprodukcji table z Biometriki, więc Fisher stworzył swoją, uboższą wersję. Jarosław Piskorski (IF UZ) 121 / 122 Jarosław Piskorski (IF UZ) 122 / 122