Problem dwóch prób: porównywanie średnich i wariancji z populacji o rozkładach normalnych. Wrocław, 23 marca 2015
Problem dwóch prób X = (X 1, X 2,..., X n ) - próba z rozkładu normalnego N (µ, σ 2 X ), Y = (Y 1, Y 2,..., Y m ) - próba z rozkładu normalnego N (µ, σ 2 Y ).
Problem dwóch prób X = (X 1, X 2,..., X n ) - próba z rozkładu normalnego N (µ, σ 2 X ), Y = (Y 1, Y 2,..., Y m ) - próba z rozkładu normalnego N (µ, σ 2 Y ). próby zależne próby niezależne
Test studenta dla prób niezależnych Niech X = (X 1, X 2,..., X n ) oznacza próbę z rozkładu normalnego N (µ, σx 2 ), a Y = (Y 1, Y 2,..., Y m ) będzie próbą z rozkładu normalnego N (µ, σy 2 ), że wariancje są nieznane oraz są sobie równe: σ1 2 = σ2 2
Test studenta dla prób niezależnych Niech X = (X 1, X 2,..., X n ) oznacza próbę z rozkładu normalnego N (µ, σx 2 ), a Y = (Y 1, Y 2,..., Y m ) będzie próbą z rozkładu normalnego N (µ, σy 2 ), że wariancje są nieznane oraz są sobie równe: σ1 2 = σ2 2 Testujemy hipotezę: Przy możliwych alternatywach: H 0 : µ X = µ Y H 1 : µ X µ Y H 2 : µ X < µ Y H 3 : µ X > µ Y
Test studenta dla prób niezależnych Statystyka testowa postaci: X Ȳ T = nsx 2 + ms Y 2 nm n + m (n + m 2) przy prawdziwości H 0 ma rozkład t-studenta z n + m 2 storniami swobody.
Test studenta dla prób niezależnych Obszar odrzucenia hipotezy zerowej Zbiór krytyczny przyjmuje postać (w zależności od alternatywy): C 1 : (, t 1 α 2 (n + m 2)] [t 1 α 2 (n + m 2), ) dla alternatywy H 1 C 2 : (, t 1 α (n + m 2)] dla alternatywy H 2 C 3 : [t 1 α (n + m 2), ) dla alternatywy H 3
Test studenta dla prób niezależnych Przykład W celu sprawdzenia czy sportowcy trenujący według nowej formy treningu osiągają lepsze wyniki w skoku w dal zmierzono wyniki w grupie sportowców trenujących standardowo i tych, którzy zostali poddani nowemu treningowi. Wyniki w obu grupach przedstawiają się następująco 6.20, 5.95, 6.30, 6.90, 6.15, 6.25 w grupie trenującej po staremu oraz 6.15, 7.05, 6.10, 6.40, 6.05 w drugiej grupie. Czy na poziomie istotności 0.01 możemy uznać, że sportowcy trenujący według nowatorskiego podejścia osiągają lepsze wyniki.
Test studenta dla prób niezależnych Przykład W celu sprawdzenia czy sportowcy trenujący według nowej formy treningu osiągają lepsze wyniki w skoku w dal zmierzono wyniki w grupie sportowców trenujących standardowo i tych, którzy zostali poddani nowemu treningowi. Wyniki w obu grupach przedstawiają się następująco 6.20, 5.95, 6.30, 6.90, 6.15, 6.25 w grupie trenującej po staremu oraz 6.15, 7.05, 6.10, 6.40, 6.05 w drugiej grupie. Czy na poziomie istotności 0.01 możemy uznać, że sportowcy trenujący według nowatorskiego podejścia osiągają lepsze wyniki. Testujemy hipotezę: H 0 : H 1 : µ X = µ Y µ X < µ Y
Test studenta dla prób niezależnych Obliczamy: X = 6.29 Ȳ = 6.35 SX 2 = 0.08 S Y 2 = 0.13
Test studenta dla prób niezależnych Obliczamy: X = 6.29 Ȳ = 6.35 S 2 X = 0.08 S 2 Y = 0.13 Statystyka testowa jest postaci: T = 6.29 6.35 5 6 6 0.08 + 5 0.13 5 + 6 (5 + 6 2) = 0.05 24.54 = 0.26
Test studenta dla prób niezależnych Obliczamy: X = 6.29 Ȳ = 6.35 S 2 X = 0.08 S 2 Y = 0.13 Statystyka testowa jest postaci: T = 6.29 6.35 5 6 6 0.08 + 5 0.13 5 + 6 (5 + 6 2) = 0.05 24.54 = 0.26 Zbiór krytyczny przyjmuje postać: C : (, t 0.99 (9)] = (, 2.82] T = 0.26 > 2.82, a zatem nie mamy podstaw do odrzucenia hipotezy zerowej, nie możemy powiedzieć, że sportowcy z drugiej grupy osiągają lepsze wyniki.
Pakiet R x <-c (6.20, 5.95, 6.30, 6.90, 6.15, 6.25) y <-c (6.15, 7.05, 6.10, 6.40, 6.05) t. test (x,y, alternative = less,var. equal =T)
Pakiet R x <-c (6.20, 5.95, 6.30, 6.90, 6.15, 6.25) y <-c (6.15, 7.05, 6.10, 6.40, 6.05) t. test (x,y, alternative = less,var. equal =T) Two Sample t-test data: a and b t = -0.2636, df = 9, p-value = 0.399 alternative hypothesis: true difference in means is less than 0 95 percent confidence interval: -Inf 0.3473349 sample estimates: mean of x mean of y 6.291667 6.350000
Pakiet R x <-c (6.20, 5.95, 6.30, 6.90, 6.15, 6.25) y <-c (6.15, 7.05, 6.10, 6.40, 6.05) t. test (x,y, alternative = less,var. equal =T) Two Sample t-test data: a and b t = -0.2636, df = 9, p-value = 0.399 alternative hypothesis: true difference in means is less than 0 95 percent confidence interval: -Inf 0.3473349 sample estimates: mean of x mean of y 6.291667 6.350000 Zatem wartość statystyki testowej to T = 0.2636,
Pakiet R x <-c (6.20, 5.95, 6.30, 6.90, 6.15, 6.25) y <-c (6.15, 7.05, 6.10, 6.40, 6.05) t. test (x,y, alternative = less,var. equal =T) Two Sample t-test data: a and b t = -0.2636, df = 9, p-value = 0.399 alternative hypothesis: true difference in means is less than 0 95 percent confidence interval: -Inf 0.3473349 sample estimates: mean of x mean of y 6.291667 6.350000 Zatem wartość statystyki testowej to T = 0.2636, p = 0.399 > 0.01 = α, a zatem nie mamy podstaw do odrzucenia hipotezy zerowej.
Test studenta dla prób zależnych Niech (X 1, Y 1 ), (X 2, Y 2 ),..., (X n, Y n ) będą parami obserwacji z rozkładu normalnego, wzajemnie niezależnych, przy czym zmienne w parze mogą być zależne
Test studenta dla prób zależnych Zmienne losowe postaci D i = X i Y i tworzą próbę niezależnych zmiennych losowych o rozkładzie normalnym N(µ D, σ 2 D ) z nieznaną średnią i wariancją.
Test studenta dla prób zależnych Zmienne losowe postaci D i = X i Y i tworzą próbę niezależnych zmiennych losowych o rozkładzie normalnym N(µ D, σ 2 D ) z nieznaną średnią i wariancją. Testujemy hipotezę: Przy możliwych alternatywach: µ D = 0 H 1 : µ D 0 H 2 : µ D < 0 H 3 : µ D > 0
Test studenta dla prób zależnych Statystyka testowa postaci: T = D S D n przy prawdziwości H 0 ma rozkład t-studenta z n 1 storniami swobody.
Test studenta dla prób zależnych Obszar odrzucenia hipotezy zerowej Zbiór krytyczny przyjmuje postać (w zależności od alternatywy): C 1 : (, t 1 α 2 (n 1)] [t 1 α 2 (n 1), ) dla alternatywy H 1 C 2 : (, t 1 α (n 1)] dla alternatywy H 2 C 3 : [t 1 α (n 1), ) dla alternatywy H 3
Przykład Autor nowej diety odchudzającej twierdzi, że jego metoda jest idealna dla chcących szybko zrzucić zbędne kilogramy. W celu sprawdzenia skuteczności diety zważono 8 ochotników przed i po zastosowaniu diety otrzymując następujące wyniki: przed dietą 61 73 59 89 94 68 78 115 93 69 po diecie 60 69 57 82 95 65 74 107 87 63 Czy na poziomie istotności 0.05 możemy wnioskować, że dieta jest skuteczna?
Przykład Autor nowej diety odchudzającej twierdzi, że jego metoda jest idealna dla chcących szybko zrzucić zbędne kilogramy. W celu sprawdzenia skuteczności diety zważono 8 ochotników przed i po zastosowaniu diety otrzymując następujące wyniki: przed dietą 61 73 59 89 94 68 78 115 93 69 po diecie 60 69 57 82 95 65 74 107 87 63 Czy na poziomie istotności 0.05 możemy wnioskować, że dieta jest skuteczna? Testujemy hipotezę H 0 : µ D = 0 H 1 : µ D > 0
Przykład Wektor różnic jest postaci D = (1, 4, 2, 7, 1, 3, 4, 8, 6, 6).
Przykład Wektor różnic jest postaci D = (1, 4, 2, 7, 1, 3, 4, 8, 6, 6). Statystyka testowa jest postaci: T = D n = 4 10 = 4.47 S D 2.82
Przykład Wektor różnic jest postaci D = (1, 4, 2, 7, 1, 3, 4, 8, 6, 6). Statystyka testowa jest postaci: T = D n = 4 10 = 4.47 S D 2.82 Zbiór krytyczny jest postaci: C : [t 0.95 (9), ) = [1.83, ). Odrzucamy hipotezę zerową, a zatem dietę można uznać za skuteczną.
Pakiet R x <-c(61, 73, 59, 89, 94, 68, 78, 115, 93, 69) y <-c(60, 69, 57, 82, 95, 65, 74, 107, 87, 63) t. test (x,y, paired =T, alternative = greater )
Pakiet R x <-c(61, 73, 59, 89, 94, 68, 78, 115, 93, 69) y <-c(60, 69, 57, 82, 95, 65, 74, 107, 87, 63) t. test (x,y, paired =T, alternative = greater ) Paired t-test data: x and y t = 4.4721, df = 9, p-value = 0.0007749 alternative hypothesis: true difference in means is greater than 0 95 percent confidence interval: 2.360414 Inf sample estimates: mean of the differences 4
Pakiet R x <-c(61, 73, 59, 89, 94, 68, 78, 115, 93, 69) y <-c(60, 69, 57, 82, 95, 65, 74, 107, 87, 63) t. test (x,y, paired =T, alternative = greater ) Paired t-test data: x and y t = 4.4721, df = 9, p-value = 0.0007749 alternative hypothesis: true difference in means is greater than 0 95 percent confidence interval: 2.360414 Inf sample estimates: mean of the differences 4 Zatem wartość statystyki testowej to T = 4.4721,
Pakiet R x <-c(61, 73, 59, 89, 94, 68, 78, 115, 93, 69) y <-c(60, 69, 57, 82, 95, 65, 74, 107, 87, 63) t. test (x,y, paired =T, alternative = greater ) Paired t-test data: x and y t = 4.4721, df = 9, p-value = 0.0007749 alternative hypothesis: true difference in means is greater than 0 95 percent confidence interval: 2.360414 Inf sample estimates: mean of the differences 4 Zatem wartość statystyki testowej to T = 4.4721, p = 0.0007749 < 0.05 = α, a zatem dieta działa.
Test jednorodności wariancji Niech X = (X 1, X 2,..., X n ) oznacza próbę z rozkładu normalnego N (µ, σ 2 X ), a Y = (Y 1, Y 2,..., Y m ) będzie próbą z rozkładu normalnego N (µ, σ 2 Y ).
Test jednorodności wariancji Niech X = (X 1, X 2,..., X n ) oznacza próbę z rozkładu normalnego N (µ, σ 2 X ), a Y = (Y 1, Y 2,..., Y m ) będzie próbą z rozkładu normalnego N (µ, σ 2 Y ). Testujemy hipotezę: Przy możliwych alternatywach: H 0 : σ X = σ Y H 1 : σ X σ Y H 2 : σ X < σ Y H 3 : σ X > σ Y
Test jednorodności wariancji Statystyka testowa postaci: F = S 2 X S 2 Y przy prawdziwości H 0 ma rozkład F - Snedecora z n 1 i m 1 stopniami swobody.
Test jednorodności wariancji Obszar odrzucenia hipotezy zerowej Zbiór krytyczny przyjmuje postać (w zależności od alternatywy): C 1 : (, f α 2 (n 1, m 1)] [f 1 α 2 (n 1, m 1), ) dla alternatywy H 1 C 2 : (, f α (n 1, m 1)] dla alternatywy H 2 C 3 : [f 1 α (n 1, m 1), ) dla alternatywy H 3
Literatura: Bartoszewicz J.,Wykłady ze statystyki matematycznej, PWN, Warszawa 1989. Koronacki J. i Mielniczuk J., Statystyka, dla studentów kierunków technicznych i przyrodniczych, WNT, 2001