Komputerowa analiza danych doświadczalnych Wykład.5.9 dr inż. Łukasz Graczykowski lukasz.graczykowski@pw.edu.pl Semestr letni 8/9
Weryfikacja hipotez statystycznych - ponownie Metoda najmniejszych kwadratów
Weryfikacja hipotez statystycznych Przykład: rozważamy zmienną losową X opisaną standardowym rozkładem Gaussa (średnia, odchylenie ). Pobieramy elementową próbę, uzyskaliśmy średnią arytmetyczną: X =,5 Jak na podstawie tej jednej realizacji próby (np. wyniku eksperymentu) możemy stwierdzić, czy pochodzi ona z takiej populacji? Innymi słowy, naszą hipotezą jest: próba losowa pochodzi z rozkładu Gaussa o średniej i odchyleniu Procedura weryfikacji hipotezy nazywana jest testem statystycznym Jeżeli hipoteza jest słuszna (nasze założenie) to wartość średnia (będąca również zmienną losową) X ma rozkład normalny ze średnią i odchyleniem std. / σ ( X )= σ ( X )= σ ( X )= n KADD 9, Wykład 3 / 38
Weryfikacja hipotez statystycznych Jak na podstawie konkretnej realizacji próby sprawdzić, czy założona hipoteza jest prawdziwa? I: musimy ustalić pewną wartość prawdopodobieństwa α (zwanego poziomem istotności,z reguły mała wartość, np.,, albo,3, czy,5) II: pytamy, czy prawdopodobieństwo zaobserwowania określonych wartości próby jest mniejsze niż α: P ( X,5)<α nierówność spełniona jest mało prawdopodobne, aby próba pochodziła z rozkładu określonego przez testowaną hipotezę możemy ją odrzucić prawdopodobieństwo zaobserwowania tego, że X jest duże, jest bardzo małe, ale takie nam się trafiło więc prawdopodobnie (z prawdodobieństwem -α) nasza hipoteza nie jest słuszna III: jeśli prawdopodobieństwo jest mniejsze niż przyjęta wartość prawdopodobieństwa (poziom istotności) α, odrzucamy hipotezę na zadanym poziomie istotności KADD 9, Wykład 4 / 38
Weryfikacja hipotez statystycznych Rozkład wartości średniej X Test dwustronny P ( X x ' α )<α np. x ' α =,5 Test jednostronny P ( X x ' α )<α Jeśli (w naszym przykładzie) wartość średnia znajduje się w zaznaczonym obszarze (nazywamy go obszarem krytycznym), to hipotezę odrzucamy jeśli oczekujemy rozkładu normalnego o średniej i małym odchyleniu (np. ), a z próby losowej (konkretny eksperyment) mamy średnią, to lądujemy w ogonie rozkładu średniej i na podstawie tej konkretnej próby odrzucamy hipotezę (ale na podstawie innej próby moglibyśmy zaakceptować) KADD 9, Wykład 5 / 38
Weryfikacja hipotez statystycznych W ogólnym przypadku używamy innych wielkości niż średnia: definiujemy jakąś (wygodną dla nas) statystykę testową T (np. różnicę między wynikiem eksperymentu a krzywą teoretyczną) ustalamy poziom istotności α wyznaczamy taki zbiór U, który określa obszar zmienności statystyki testowej T, taki że prawdopodobieństwo znalezienia się w nim jest ograniczone wartością α: P (T U )=α z pobranej próby wyznaczamy konkretną wartość statystyki testowej T': jeżeli znajduje się ona wewnątrz obszaru krytycznego U, odrzucamy hipotezę (mówimy: krzywa teoretyczna nie opisuje wyniku eksperymentu), czyli odrzucamy hipotezę, jeżeli T ' U KADD 9, Wykład 6 / 38
Test dobroci χ dopasowania
Test χ dobroci dopasowania Mamy N pomiarów gi, i=,,, N oraz ich niepewności σ i Wartości f i, i=,,..., N określają nam prawdziwy rozkład danej wielkości mierzonej (np. znaleziony poprzez estymację) g f Dla każdego pomiaru liczymy wielkość ui: ui= iσ i, i=,,..., N i Jeśli nasza teoria (wartości fi) jest prawdziwa, to rozkłady różnic ui mają postać standardowego rozkładu normalnego nasza hipoteza Jeśli tak, to rozkład χ o N stopniach swobody będzie miała wielkość: N N T = ui = i= i= ( gi f i σi ) (Subiektywnie) oczekujemy małej wartości wielkości T Gdy hipoteza jest fałszywa, wówczas poszczególne różnice ui przyjmują duże wartości (wartość T jest duża) Jak określić granicę zmienności T? Można zauważyć, że granica ta jest określona kwantylem χ α, czyli: P (T >χ α F ( x q )=P( X x q )=q )=α P( X > x q )= q KADD 9, Wykład 8 / 38
Test χ dobroci dopasowania Podsumowując, w naszym przypadku musimy dla danej realizacji próby (wyniku eksperymentu) wyznaczyć wartość testową T i porównać ją z odpowiednim kwantylem rozkładu χ o odpowiedniej liczbie stopni swobody: T >χ α Jeżeli ten warunek jest spełniony, to hipotezę odrzucamy (punkty teoretyczne nie opisują danych eksperymentalnych na zadanym poziomie istotności) Skąd wziąć kwantyl? Z tablic lub z dystrybuanty: KADD 9, Wykład 9 / 38
Hipotezy zerowa i alternatywna Błędy I i II rodzaju Na podstawie: https://www.statystyczny.pl/hipotezy-statystyczne/
Hipoteza zerowa i alternatywna Hipoteza może być różna, przykłady hipotez: średni wzrost Polaków to 75 cm % dzieci w wieku szkolnym nie lubi czekolady poziom szczęścia dwie minuty po zjedzeniu dużej porcji lodów jest wyższy niż przed zjedzeniem tejże dużej porcji lodów Hipoteza zerowa (H) to w uproszczeniu taka, gdy nie widzimy różnicy np. czujemy się tak samo po zjedzeniu lodów jak przed w przypadku pomiarów, np. wartość chi jest mała teoria opisuje dane Hipoteza alternatywa (HA) to przeciwieństwo hipotezy zerowej, którą możemy zdefiniować na kilka sposobów, np.: np. jest różnica w szczęściu w zjedzeniu lodów (test dwustronny) poziom szczęścia po zjedzeniu lodów jest mniejszy (test jednostronny) poziom szczęścia po zjedzeniu lodów jest większy (test jednostronny) w przypadku pomiarów chi jest duże teoria nie opisuje danych (test jednostronny rozkład chi jest niesymetryczny) Statystyka testowa - to funkcja próby, na podstawie której wnioskuje się o odrzuceniu lub nie hipotezy statystycznej wielkość mająca swój rozkład prawd. KADD 9, Wykład / 38
Statystyka testowa Statystyka testowa - to funkcja próby, na podstawie której wnioskuje się o odrzuceniu lub nie hipotezy statystycznej wielkość mająca swój rozkład prawdopodobieństwa Z naszej próby losowej (eksperymentu) dostajemy jedną wartość ona znajduje się gdzieś w tym rozkładzie Obszar krytyczny (obszar odrzuceń) jest zawsze na końcu rozkładu jeśli hipoteza mówi, że coś jest różne dwustronny mniejsze lub większe jednostronny Statystyka testowa ma swój (różny) rozkład zarówno dla H jak i HA!!! KADD 9, Wykład / 38
Błąd I rodzaju Błąd I rodzaju to taki, gdzie odrzucamy hipotezę zerową a była ona prawdziwa jeśli poziom szczęścia po zjedzeniu dużej porcji lodów zupełnie się nie zmienia i (średnio w populacji) jesteśmy tak samo szczęśliwi jak przed, a my odrzucimy tę hipotezę na rzecz hipotezy alternatywnej (na podstawie próby losowej), że poziom szczęścia się zmniejsza (np. przez te okropne wyrzuty sumienia, że znowu za dużo kalorii i będzie trzeba teraz dwie godziny ćwiczyć :) ), to popełnimy właśnie błąd pierwszego rodzaju bo odrzuciliśmy hipotezę zerową, która była prawdziwa Prawdopodobieństwo popełnienia błędu I rodzaju określa poziom istotności α, stąd oczekujemy, by był jak najmniejszy KADD 9, Wykład 3 / 38
Błąd II rodzaju Błąd II rodzaju to taki, gdy nie odrzucimy hipotezy fałszywej ma on miejsce w sytuacji, kiedy jednak ten poziom szczęścia przed zjedzeniem lodów i po zjedzeniu się różni. Jeśli te wyrzuty sumienia z powodu przyswojenia dużej dawki kalorii są na tyle poważne, że pomimo zjedzenia czegoś dobrego i smacznego, wcale nie czujemy się lepiej. I jeśli poziom szczęścia zdecydowanie spada nam po zjedzeniu lodów, a my stwierdzimy, że nie ma żadnej różnicy, to wtedy popełniamy błąd II rodzaju. Nie odrzucamy hipotezy zerowej, mimo że jest ona fałszywa. Prawdopodobieństwo popełnienia błędu II rodzaju określamy jako β KADD 9, Wykład 4 / 38
Moc testu Moc testu (prawdopodobieństwo, że prawidłowo odrzucimy hipotezę zerową) to -β. Inaczej mówiąc jest to prawdopodobieństwo niepopełnienia błędu II rodzaju. Moc testu zależy od kilku czynników: Wielkości próby użytej w badaniu (im większa próba, tym większa moc testu). Rzeczywistej wielkości efektu na tle losowej zmienności w populacji. Przyjętego poziomu istotności α (między błędem I i II rodzaju jest taka zależność, że jeżeli zwiększamy prawdopodobieństwo popełnienia danego błędu, jednocześnie zmniejszamy je dla drugiego). KADD 9, Wykład 5 / 38
Moc testu KADD 9, Wykład 6 / 38
Przykład: winny czy inny Przykład działanie sądów może pomóc zrozumieć nam, kiedy przyjmujemy hipotezę alternatywną i dlaczego nieprzyjęcie hipotezy alternatywnej nie oznacza, że przyjmujemy hipotezę zerową. Wyobraźmy sobie Pana X oskarżonego o kradzież diamentu Pani Y. Pan X staje przed sądem. Hipotezą zerową w tym przypadku jest niewinność Pana X. Zakładamy, że Pan X wcale tych diamentów nie ukradł, że zrobiła to sprzątaczka, kucharka albo Pani Y schowała je w innej szufladzie i zupełnie o tym zapomniała. Hipoteza alternatywna, to oczywiście wina Pana X. Skoro nie jest niewinny, to znaczy, że jednak ukradł diamenty i powinien zostać przez sąd skazany. Założeniem jednak podstawowym jest brak winy sąd musi znaleźć przekonujące argumenty, żeby móc Pana X oskarżyć. Jeśli je znajdzie to znaczy, że odrzuca hipotezę zerową (tą o niewinności) na rzecz hipotezy alternatywnej (że Pan X jest winny przestępstwa). Jeśli ich nie znajdzie, to (nawet jeśli sąd wciąż będzie podejrzewać, że coś się w zachowaniu Pana X nie zgadza i że ta niewinność wcale nie jest zbyt pewna) nie ma podstaw do odrzucenia hipotezy zerowej. To wcale nie znaczy, że Pan X nie ukradł diamentów. To tylko oznacza, że sąd nie znalazł wystarczającego dowodu. A gdzie tu błędy? Jeśli Pan X ukradł diamenty i został skazany to sąd się nie pomylił. Jeśli diamentów nie ukradł i nie został uznany winnym, to również nie ma żadnego błędu. Jeśli nie ukradł, a poszedł do więzienia, mamy do czynienia z błędem pierwszego rodzaju. Natomiast jeśli Pan X ukradł diamenty i został uniewinniony, to mamy do czynienia z błędem drugiego rodzaju. KADD 9, Wykład 7 / 38
Błąd II rodzaju Ograniczenie błędów drugiego rodzaju jest bardzo istotne w niektórych testach. Np. w przypadku medycyny lepiej powiedzieć zdrowemu pacjentowi, żeby zrobił dodatkowe badanie (kiedy w przypadku zerowej hipotezy pacjent jest zdrowy wyszło nam błędnie podejrzenie choroby) niż chorego pacjenta odesłać do domu bez leczenia z informacją, że jest zdrowy (błąd drugiego rodzaju). KADD 9, Wykład 8 / 38
Metoda najmniejszych kwadratów KADD 9, Wykład 9 / 38
Metoda najmniejszych kwadratów KADD 9, Wykład / 38
Dalsza lektura Polecam poniższe strony: https://www.statystyczny.pl/hipotezy-statystyczne/ http://pogotowiestatystyczne.pl/istotnosc-statystyczna/ http://coin.wne.uw.edu.pl/azylicz/sm/sm9_6.pdf KADD 9, Wykład / 38
Metoda najmniejszych kwadratów (least squares method)
Metoda najmniejszych kwadratów Jedną z najważniejszych metod estymacji parametrów jest zaproponowana przez Legendre'a i Gaussa Metoda ta jest szczególnym przypadkiem ogólniejszej metody największej wiarygodności (można ją z niej wyprowadzić) Założenia: wynik pomiaru yj przedstawiamy jako sumę nieznanej wielkości x oraz niepewności pomiarowej εj: y j = x+ϵ j dobieramy wielkości εj tak, aby ich suma kwadratów była najmniejsza: ϵj = ( x y j ) =min j j Metoda ta może być również użyta, gdy wielkości yj nie są wprost związane z x, lecz są to na przykład kombinacje liniowe (lub nieliniowe) wielu zmiennych x, x,, xn Warto przejrzeć rozdział o MNK w podręczniku Brandta, gdzie jest to wszystko bardzo dokładnie omówione KADD 9, Wykład 3 / 38
Pomiary bezpośrednie Przedstawione wyżej założenia to najprostszy przypadek pomiaru bezpośredniego o równej dokładności Wykonujemy n pomiarów nieznanej wielkości x (np. długość stołu). Wyniki pomiarów obarczone są niepewnościami εj o których zakładamy, że opisane są rozkładem normalnym z wartością średnią równą zeru: y j = x+ϵ j E (ϵ j )= E (ϵ j )=σ Zatem prawdopodobieństwo uzyskania wartości yj jako wyniku pojedynczego pomiaru (wewnątrz małego przedziału dy) wynosi: ( y j x) f j dy= exp dy σ π σ ( ) Logarytmiczna funkcja wiarygodności (dla n pomiarów): n l '= ( y j x) +const σ j= Oczywiście, szukamy maksimum funkcji (warunek wiarygodności): l=max KADD 9, Wykład 4 / 38
Pomiary bezpośrednie Możemy zauważyć, że warunek ten jest równoważny warunkowi (najmniejszych kwadratów): n n M = ( y j x ) = ϵj =min j= W tym przypadku estymatory: n ~ x = y = y j n j= σ ( y )=σ /n W ogólniejszym przypadku, gdy mamy różne dokładności wyników pomiaru σj: y j = x+ϵ j j= E (ϵ j )=σ j = / g j E (ϵ j )= Wówczas warunek najmniejszych kwadratów wymaga n n n dodatkowej wagi: ( y j x) M = j= σ j = g j ( y j x) = g j ϵ j =min j= j= n Wtedy estymatory: gj y j ~ x = j=n gj ( σ (~ x )= n j = σ j n ) ( ) = j= gj ~ ϵ j= y j ~ x j= KADD 9, Wykład 5 / 38
Pomiary bezpośrednie ϵ j=y j ~ x ma rozkład normalny z Spodziewamy się, że wielkość ~ wartością średnią i wariancją σj: Oczywiście wtedy wielkość Co to oznacza już dobrze wiemy, suma: ~ ϵj/σ j Ma znany już nam rozkład χ o n- stopniach swobody ma standardowy rozkład Gaussa n M = j= n n ~ ϵj Y j ~ x ~ = = g (Y x ) j j σj σ j j= j = ( ) Przykład: średnia ważona z pomiarów o różnej dokładności obliczamy wartość stałej ficzycznej (np. masy neutralnej cząstki K) poprzez średnią ważoną otrzymaną w różnych grupach eksperymentalnych 4 Y g ~ x = j j =497,9 j gj j = u (~ x )= σ (~ x )= / 4 ( ) = j = gj =, 3 4 KADD 9, Wykład M =7,, liczba st. swob. n=4 =3, α=.5, χ,95 =7,8 yj σj gj= /σj yjgj 498. 497.4 498.9 497.4.4.33.5.5 6.3 4 4 4.3 338. 4974.4 995.6 989.8 997.8 y j x y j x g j. -.46. -.46.3. 4..8 7. 6 / 38
Średnia ważona z pomiarów o różnej dokł. nr pomiaru 3 4 5 6 7 8 9 Ilość pomiarów Yj 99,3 89,8 5,4, 7,4 95,6 99,4, 97, sigma_j,7,,9,6 3,5,5 3,3,7,7,3 sigma_j^,89 4,84 3,6 6,76,5 6,5,89 7,9 7,9,69 sum(g_j) sum(x_j g_j) tilde x tilde epsilon g_j g_j x_j,35 34,6,,4,8 4,88,5 5,59,8 8,6,6 7,8,9 8,78,4 3,64,4 3,88,59 57,5,8 5, 98,8,46 Y_j tilde x,9 3,49-9, 6,59,39 8,59-3,,59,39 -,6 e^,4,9 8,5 43,45 5,7 73,8,9,35 5,7,59 M 47, Przeprowadzając test χ na M widzimy, że hipotezę należy odrzucić: Kwantyle: χ,9 (9)=4,7 χ,95 (9)=6,9 χ,99 (9)=,7 KADD 9, Wykład e^*g_j,,5,48 6,43,47,8,95,5,78,53
Przykład odrzucenie pomiarów nr pomiaru 3 4 5 6 7 8 9 Ilość pomiarów Yj 99,3 sigma_j,7, sigma_j^,89 4,84 g_j,35, g_j x_j 34,6,4 Y_j tilde x,9 3,49 e^,4,9 e^*g_j,,5 5,4,,6 3,5 6,76,5,5,8 5,59 8,6 6,59,39 43,45 5,7 6,43,47 95,6 99,4, 97, 3,3,7,7,3,9,4,4,59,74 73,6 99,45,57 8,78 3,64 3,88 57,5-3,,59,39 -,6,9,35 5,7,59,95,5,78,53,89 7,9 7,9,69 sum(g_j) sum(x_j g_j) tilde x tilde epsilon x M Odrzucając pomiary najbardziej odbiegające od średniej mamy wynik spełniający test χ: Kwantyle: x KADD 9, Wykład,73 χ,9 (7)=, χ,95 (7)=4,7 χ,99 (7)=8,47
Pomiary pośrednie przypadek liniowy Rozważymy teraz bardziej ogólny przypadek wielu (r) nieznanych wielkości xi (i=,,,r) mierzonych pośrednio Interesujące nas wielkości fizyczne x nie podlegają pomiarom bezpośrednim, mierzymy natomiast liniowe kombinacje wielkości xi mierzonych już bezpośrednio wielkości ηj: η j= p j + p j x + p j x +...+ p jr x r j=,,..., n Dla uproszczenia rachunków, można to zapisać inaczej: f j =η j +a j +a j x +a j x +...+a jr x r = wielkości mierzonych bezpośrednio W postaci wektorowej: a j a a j = j... a jr () T f j =η j +a j + a j x= j=,,..., n Jeśli wszystko zdefiniujemy wektorowo: ηj η η= j... η jr () a a a =... an a a a a A=...... an an () ( KADD 9, Wykład... ar... ar......... anr ) f =η+ a + A x= 9 / 38
Pomiary pośrednie przypadek liniowy Oczywiście nadal zakładamy, że każdy pomiar obarczony jest niepewnością o rozkładzie normalnym: y j =η j +ϵ j, E (ϵ j )=, E (ϵ j )=σ j = / g j Ponieważ zmienne yj są zmiennymi niezależnymi, możemy wariancje przedstawić w postaci diagonalnej macierzy kowariancji: ( σ... C y =C ϵ=... y=η+ϵ σ............... σ n Wstawiając y=η+ϵ g g G y =G ϵ=c y =C ϵ =...... ) ( do wzoru f =η+ a + A x=............... gn ) otrzymujemy: y ϵ+ a + A x= Rozwiązujemy ten układ ze względu na x stosując metodę największej wiarygodności (zakładając rozkład normalny pomiarów n n yj). Wtedy: ϵ ( y j +atj x+a j ) M = j= KADD 9, Wykład σ j j = j = σ j =ϵ T G y ϵ=( y +a + A x)t G y ( y +a + A x)=min 3 / 38
Pomiary pośrednie przypadek liniowy Jeśli wprowadzimy: Wówczas: Można to dalej uprościć: c= y +a T M =(c+ A x) G y (c+ A x)=min T G y =H H / σ / σ H =H T =...... (............... / σ n ) Jeśli teraz wprowadzimy: Wówczas warunek nam się upraszcza: M =( A ' x +c ')=min Po rozwiązaniu dostajemy: c '= H c A '= H A +' ~ x = A c ' T T T T ~ x= ( A ' A' ) A c ' = ( A G A) A Gyc W praktyce używamy wzoru: y Żeby wyznaczyć niepewności pomiarowe musimy policzyć macierz T T kowariancji: G ~ x =( A G y A) =( A ' A' ) Pierwiaski kwadratowe z elementów diagonalnych to niepewności x (mimo, że x nie podlegało bezpośredniemu pomiarowi) pomiarowe ~ KADD 9, Wykład 3 / 38
Pomiary pośrednie przypadek liniowy Dla pomiarów bezpośrednich ηj: T T ~ ϵ= A~ x +c= A ( A G y A ) A G y c +c T T ~ η= y ~ ϵ = y+ A ( A G y A ) A G y c c - pomiary poprawione T T ~ η= A ( A G A ) A G c a y T y T G~η = A ( A G y A ) A = A G ~x A T Wzór η j= p j + p j x + p j x +...+ p jr x r będzie również prawdziwy dla estymatorów KADD 9, Wykład 3 / 38
Pomiary pośrednie przypadek liniowy Przykład: dopasowanie prostej do zbioru pomiarów mamy pomiary yj zależne od pewnej zmiennej kontrolnej tj (np. czasu) zakładamy, że wartości zmiennej kontrolnej są dokładnie znane (zaniedbywane niepewności) inaczej przypadek nieliniowy zakładamy liniową postać: i szukamy wielkości x mierzonych pośrednio posługując się notacją macierzową: η x x t= czyli szukamy ostatecznie wektor: x= wyniki pomiarów: j tj yj σj..4.5 KADD 9, Wykład..5.. 3.7. η j= y j ϵ j= x + x t j a = x x () 3 3. 4..5 33 / 38
Pomiary pośrednie przypadek liniowy Obliczenia: A= t t = t3 3 t4 4 Gy= 5 4.4.5 y =c= 3.7 4. 5 H= 5 5 A '= 6 KADD 9, Wykład.8 7.5 c '= 3.7 8. 6. 94. A ' T c '= 34 / 38
Pomiary pośrednie przypadek liniowy Obliczenia c.d.: T A ' A ' = 34 39 39 65 = 65 39.943.556 = 689 39 34.556.493 ~ x= ( A ' T A' ) AT c ' = ( AT G y A) AT G y c.943.556 63..636 ~ x= =.556.493 94..66 ( C x = )( ) (.943.556.556.493.636.7 = A x =.768 3.834 u(~ x )=.37 Zminimalizowana suma kwadr.: n ( M= j= y j ~ ηj =4.57 σj ) KADD 9, Wykład ) u(~ x )=. N= 4 pomiary, parametry, co daje n- = r = stopnie swobody. Zakładając poziom istotności 5% z tabel X: X.95 = 5.99. Nie ma podstaw do odrzucenia hipotezy. 35 / 38
Pomiary pośrednie przypadek liniowy Wykresy: ~ η= y ~ ϵ elipsa kowariancji z macierzy kowariancji C ~x KADD 9, Wykład 36 / 38
Dopasowanie wielomianu Poprzedni przykład można uogólnić na wielomian wyższego rzędu: j =h j =x x t j x 3 t j... x r t r j t t... t r r t t... t A=............... r t n t n... t n a=... Pomiary: j 3 4 5 6 7 8 9 t_j -,9 -,7 -,5 -,3 -,,,3,5,7,9 y_j 8 5 35 7 6 6 6 89 38 5 Wynik: r 3 4 5 6 ~x_ 57,85 8,66 47,7 37,95 39,6 39,88 ~x_ ~x_3 ~x_4 99, 85,96 6,55 9,,38 73,6 3, 37,59 76,49 5,9 73,9 36,57 KADD 9, Wykład ~x_5 ~x_6 f 9 8 7 6 5,6 5 56,9 6,73 4 M 833,55 585,45 36,4,85,69,66 37 / 38
KADD 9, Wykład 38 / 38
KONIEC
Test t-studenta Mamy zmienną losową X o rozkładzie normalnym. Pobieramy próbę losową o liczebności N i wartości średniej X Wariancja wartości średniej: σ ( X )=σ ( X )/ N Dla dostatecznie dużych prób wartość średnia z próby (na mocy centralnego twierdzenia granicznego) ma rozkład normalny ( x^, σ ( X )) y= X x^ σ ( X ) Zmienna Na ogół nie znamy jednak odchylenia standardowego σ ( X ) Posługujemy się estymatorem wariancji: N s = ( X j ^x ) N j= X ma standardowy rozkład normalny N s = ( x j x ) N ( N ) j = X Pytanie: jak bardzo będziemy odbiegać od rozkładu Gaussa, jeżeli we wzorze na y zastąpimy odchylenie estymatorem? Dla uproszczenia, przyjmiemy, że x^ = (każdy rozkład Gaussa możemy przesunąć o wartość średnią) KADD 9, Wykład 4 / 38
Test t-studenta Rozpatrzmy zmienną losową T zdefiniowaną następująco: T = X / s X = X N / S X Wielkość ( N ) s X = fsx ma rozkład χ o liczbie stopni swobody f = N Wzór na zmienną T zmieni się nam zatem następująco: T = X / s X = X N f / χ Dystrybuanta zmiennej T będzie określona wzorem: ( f +) ( ) t + ) ( f) Γ( f ) π f X N f F (t )=P (T <t )=P <t = χ ( Γ t ( f +) dt A odpowiadająca jej funkcja gęstości, nosząca nazwę rozkładu tstudenta: Γ ( f +) f (t )= ( Γ f ( ) KADD 9, Wykład ) t + f ( ) π f ( f +) 4 / 38
Rozkład t-studenta f= 3 4 5 6 7 8 9 Jak widać, rozkład tstudenta jest symetryczny względem Rozkład dąży do rozkładu Gaussa gdy f Z symetrii względem mamy związek (analogicznie jak dla Gaussa): P ( t t )= F ( t ) ' Możemy wyznaczyć graniczne wartości ±t α odpowiadające poziomowi istotności α poprzez całkę: t 'α f (t ) dt= ( α), gdzie t ' α =t α t ' =t Kwantyle α są stablicowane α α oraz liczby stopni swobody f dla różnych poziomów istotności Jest to dwustronny test t-studenta (jednostronny analogicznie) KADD 9, Wykład 4 / 38
Zastosowanie testu t-studenta Hipoteza: zakładamy, że nasza populacja przewiduje wartość oczekiwaną z populacji mającej rozkład normalny równą λ Pobieramy próbę o liczebności N i wyznaczamy wartość średnią X s oraz wariancję X Jeżeli przy założonym poziomie istotności α zachodzi nierówność: X λ N ' t = sx >t α =t α Wtedy odrzucamy naszą hipotezę ( X ±λ ) N 'testu jednostronnego W przypadku t= sx >t α =t α KADD 9, Wykład 43 / 38
Zastosowanie testu t-studenta Powyższe rozważania możemy uogólnić na porównanie wartości średnich dwóch prób losowych z populacji X oraz Y o liczebnościach N i N Hipoteza: równość wartości średnich z obu populacji: x^ = ^y Zakładamy (z centralnego twierdzenia granicznego), że wartości średnie z prób mają rozkład normalny z wariancjami: σ ( X )=σ ( X )/ N, σ ( Y )=σ (Y )/ N Wariancje są estymowane przez estymatory: N s = ( X X ) N ( N ) j= X N s = (Y Y ) N ( N ) j= Y Różnica wartości średnich z próby również ma rozkład zbliżony do normalnego: Δ= X Y σ (Δ)=σ ( X )+σ (Y ) Jeśli hipoteza jest prawdziwa, wówczas oczywiste jest, że oraz iloraz Δ /σ (Δ) powinien podlegać rozkładowi Gaussa ^ Δ= Tak postawiona hipoteza cicho zakłada, że X i Y to te same populacje KADD 9, Wykład 44 / 38
Test różnic t-studenta Skoro tak, to oczywiście σ ( X )=σ (Y ), zatem można je estymować za pomocą jednego estymatora jako średnią ważoną z dwóch prób: ( N )s X +( N ) sy s = ( N )+( N ) Wtedy możemy zdefiniować estymatory: N +N s =s / N, s =s / N, s =s + s = s N N Można udowodnić, że zmienna Δ /s(δ) z liczbą stopni swobody f = N + N X Y Δ X Y podlega rozkładowi t-studenta Równość wartości średnich można więc weryfikować posługując się testem różnic Studenta obliczana jest na podstawie wyników dwóch prób. Jej wartość bezwzględną porównujemy z kwantylem rozkładu Studenta o liczbie stopni swobody f dla ustalonego poziomu istotności α. Sprawdzamy nierówność (spełniona odrzucamy hipotezę): Δ /s(δ) X Y t = Δ = >t ' α =t sδ KADD 9, Wykład SΔ α 45 / 38
Rozkład t-studenta f= 3 4 5 6 7 8 9 Jak widać, rozkład tstudenta jest symetryczny względem Rozkład dąży do rozkładu Gaussa gdy f Z symetrii względem mamy związek (analogicznie jak dla Gaussa): P ( t t )= F ( t ) ' Możemy wyznaczyć graniczne wartości ±t α odpowiadające poziomowi istotności α poprzez całkę: t 'α f (t ) dt= ( α), gdzie t ' α =t α t ' =t Kwantyle α są stablicowane α α oraz liczby stopni swobody f dla różnych poziomów istotności Jest to dwustronny test t-studenta (jednostronny analogicznie) KADD 9, Wykład 46 / 38
Test różnic t-studenta - przykład Numer pomiaru Przyrząd Przyrząd 97 3 4 99 5 98 6 97 8 7 8 9 99 96 98 3 4 5 3 6 7 99 8 9 Ilość pomiarów 9 Średnia,,8 Stopnie swobody 8 9 S^ 43,6 95,6 S^/f,4,6 S^ 49, S^ Delta 8,8 -,,4,79,6,79 3, -,,4 -, 4,89-3,,3 -,,4,79,6 -,,47 -,,4 -, 4,89,79,6 -,,4,79 3,,79 7,78,79,6 -,,47 -,,4,79 3, -,59 KADD 9, Wykład -3,8 4,44,,4,,44 -,8 3,4,,4 7, 5,84,,4,,44-4,8 3,4,,4 Mamy kwantyle: t ', 7 =t,9 7 =.7 t ', 7 =t,95 7 =,5 ' t, 7 =t,99 7 =,77 t ', 7 =t,995 7 =3,5 t ',4 7 =t,998 7 =3,43 t ', 7 =t,999 7 =3,69 Hipotezy nie można odrzucić 47 / 38