WPROWADZENIE 1 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski
PROGRAMY KOMPUTEROWE DO ANALIZ STATYSTYCZNYCH Darmowe oprogramowanie R-project- www.r-project.org, gretl- www.gretl.eu, bogata lista darmowych programów- http://statpages.org/javasta.html. Komercyjne oprogramowanie STATISTICA- www.statsoft.pl, SAS- www.sas.com, SPSS- www.spss.com, Statgraphics Plus- www.statgraphics.com. 3 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski CIEKAWE STRONY http://davidmlane.com/hyperstat/index.html, http://www.sportsci.org/resource/stats/index.html, http://www.statsoft.pl/textbook/glosfra.html, http://www.visualstatistics.net, http://statweb.calpoly.edu/chance/applets/applets.html, http://www.bettycjung.net/statpgms.htm, http://www.dartmouth.edu/ chance/chancelecture/audiovideo.html, http://ideal.stat.wvu.edu:8080/ideal/browsemodule.do, http://www.anu.edu.au/nceph/surfstat/surfstat-home, http://www.scs.unr.edu/ richmon4/richmondstats.htm Pozycje powyższej listy, oprócz własnych poszukiwań, zaczerpnięte z opracowania Ireny Kasperowicz-Ruki- Internetowe wspomaganie statystyki wykładanej na studiach dziennych i zaocznych SGH 4 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski
Rozdział 1 MODEL STATYSTYCZNY 5 Populacja składa się z obiektów Obiekt posiada jedną lub kilka cech Cecha obiektu zmienna losowa Przedmiotem statystyki matematycznej jest wnioskowanie statystyczne na podstawie próby o populacji generalnej 6 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski
UWAGA! CIĘŻKA ARTYLERIA PRZESTRZEŃ PROBABILISTYCZNA (Ω, F,P θ ), (1.1) gdzie: Ω- przestrzeń zdarzeń elementarnych, F - σ-ciało podzbiorów zbioru Ω, P θ -miaraprobabilistyczna. gdzie: PRZESTRZEŃ STATYSTYCZNA X - zbiór wartości obserwowalnej zmiennej losowej(cechy) X, A- σ-ciałopodzbiorówzbioru X, (X, A, P), (1.) P = {P θ }-rodzinamiarprobabilistycznychindeksowanychparametrem θ Θ, Θ- przestrzeń parametrów. 7 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski Model probabilistyczny Przykład 1. Model statystyczny Rzucamy n-razy idealną kostką do gry. Interesuje nas liczba wyrzuconych szóstek. Wtedy zmienna losowa X określa liczbę wyrzuconych szóstek. Łatwo zauważyć, że to doświadczenie daje się opisać rozkładem binomialnym B(n, 1/6). Zatem Ω = {0, 1,...,n}, Rzucamy n-razy jakąś kostką do gry. Interesuje nas liczba wyrzuconych szóstek. Wtedy zmienna losowa X określa liczbę wyrzuconych szóstek. Łatwo zauważyć, że to doświadczenie daje się opisać rozkładem binomialnym B(n, θ). Zauważmy, że tym razem nie znamy rzeczywistej wartości prawdopodobieństwa pojawienia się szóstki w jednym rzucie. Zatem θ = 1 6, P θ = B(n, 1 6 ) i ostatecznie ({0, 1,...,n}, F,B(n, 1 6 ) ). i ostatecznie X = {0, 1,...,n}, θ =?(nieznane), P θ = B(n,θ) ({0, 1,...,n}, A,B(n,θ)). 8 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski
Definicja1.1.Mówimy,żeprzestrzeństatystyczna (X, A,P)jestproduktemprzestrzeni (X i, A i,p i ), i = 1,,...,n,jeżeli X = X 1 X... X n, A = A 1 A... A n (σ-ciałoproduktowe)oraz P = {P 1 P... P n : P i P i, i = 1,,...,n}. Jeżelizmiennelosowe X i, i = 1,,...,n,sąniezależnymikopiamitejsamejzmiennejlosowej Xindukującejprzestrzeń (X, A, P),toprzestrzeństatystycznąindukowanąprzezwektorlosowy X = (X 1,X,...,X n ) oznaczamy (X, A, P) n. Definicja1..Wektorlosowy X = (X 1,X,...,X n ),gdzie X i dla i = 1,,...,nsąniezależnymizmiennymi losowymiojednakowymrozkładzieprawdopodobieństwa P θ, θ Θ,nazywamy n-elementowąpróbązrozkładu P θ. Uwaga! Będziemyrównieżużywalizapisu: X 1,X,...,X n jestpróbązrozkładu P θ. UFF! WYCOFAĆ CIĘŻKĄ ARTYLERIĘ 9 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski Ciągwartości x 1, x,...,x n próbylosowej X 1, X,...,X n będziemynazywaćrealizacjąpróbylosowej. Definicja1.3.Zmiennąlosową T(X) = (T 1 (X),T (X),...,T k (X)),gdzie X = (X 1, X,...,X n ) losową, nazywać będziemy statystyką. jestpróbą Uwaga! Statystykaniemożezależećodparametru θindeksującegorodzinęrozkładów P = (P θ : θ Θ). Przykład. Niech X 1, X,...,X n będziepróbązrozkładu P θ,gdzie θ = (µ,σ) Θ. Wtedy statystykami są statystykami nie są X = (X 1, X,...,X n ) X = 1 n X i n s 1 n ( = Xi X ) n 1 X i X i = 1,,...,n s X i µ s X i µ σ i = 1,,...,n i = 1,,...,n 10 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski
1.1 ESTYMATORY Model statystyczny (X, A, {P θ, θ Θ}) Pytanie: Ile wynosi θ? Definicja1.4.Niech X = (X 1, X,...,X n ) będziepróbąlosowązrozkładu P θ, θ Θ.Estymatorembędziemy nazywać statystykę T(X), której rozkład zależy od parametru θ. estymacja ocena, oszacowanie 11 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski Estymacja punktowa Statystykę T(X) służącą do oszacowania wartości nieznanego parametru populacji nazywamy estymatorem punktowym. Zatem estymator punktowy jest odwzorowaniem T : X Θ. Dlakonkretnychwartościpróby X 1 = x 1,X = x,...,x n = x n,liczbę T(x 1,x,...,x n )nazywamywartością estymatora. Przykład 3. Niech X 1,X,...,X n będziepróbązrozkładunormalnego N(µ,σ ), µ R, σ > 0.Wartościparametrów µiσ są nieznane. Estymatorem parametru µ jest statystyka X = 1 n X i. (1.3) n Estymatorem σ jeststatystyka s = 1 n 1 a stąd estymatorem parametru σ jest statystyka n ( Xi X ), (1.4) s = s = 1 n 1 n ( Xi X ). (1.5) 1 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski
Własności estymatorów Załóżmy,że θjestnieznanymparametremrozkładu P θ, θ Θ,którychcemyestymowaćnapodstawiepróby. Jakiej statystyki użyć do oceny θ? Czy istnieje najlepszy estymator? Jednązocendokładnościestymatora Tjestbłądśredniokwadratowy,ozn. BSK θ (T) BSK θ (T) = E θ [ (T θ) ] = E θ [ (T Eθ (T)) ] + [E θ (T) θ] Definicja1.5.Estymator T 1 jestlepszyodestymatora T,jeżeli = var θ (T) + b θ(t). (1.6) BSK θ (T 1 ) BSK θ (T ) dlakażdego θ Θ i chociażby dla jednej wartości θ spełniona jest nierówność ostra BSK θ (T 1 ) < BSK θ (T ). Definicja 1.6. Estymator T nazywa się dopuszczalny, jeżeli nie istnieje estymator lepszy niż T. W przeciwnym razie estymator T nazywa się niedopuszczalny. 13 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski BSK θ (T) BSK θ (T 1 ) BSK θ (T ) θ 1 θ Θ Zpowyższegorysunkuwynika,żeestymator T 1 jestlepszydlaparametrów θzprzedziału (θ 1,θ ),natomiast estymator T jestlepszydla θ < θ 1 lub θ > θ. 14 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski
Definicja 1.7. Estymator T(X) parametru θ jest nieobciążony, jeżeli E θ [T(X)] = θ, dlakażdego θ Θ. (1.7) Definicja 1.8. Obciążeniem estymatora T parametru θ nazywać będziemy różnicę E θ [T(X)] θ. (1.8) Przypomnijmy, że statystyka T zależy od n elementowej próby. Często pożądaną własnością estymatora T jest, by wraz ze wzrostem liczebności próby, jego wartość dążyła coraz bliżej do prawdziwej wartości parametru θ, tzn gdy n,to Tdążydo θ. Definicja 1.9. Estymator T parametru θ nazywamy zgodnym, jeżeli jest on zbieżny według prawdopodobieństwa doparametru θ,tzn.gdy dlakażdego ε > 0 lim P( T θ > ε) = 0. (1.9) n Definicja 1.10. Estymator T parametru θ nazywamy asymptotycznie nieobciążonym estymatorem parametru θ, jeżeli lim E(T) = θ. (1.10) n 15 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski Zauważmy. Jeżeli Tjestestymatoremnieobciążonymparametru θ,tojegobłądbsk θ (T)zależytylkood wariancji. Definicja 1.11. Nieobciążony estymator T parametru θ nazywamy estymatorem nieobciążonym o minimalnej wariancji (NMW), jeżeli wśród wszystkich estymatorów nieobciążonych parametru θ nie istnieje estymator, którego wariancja byłaby mniejsza dla dowolnej wartości θ Θ. Definicja 1.1. Błędem standardowym estymatora T parametru θ nazywamy dowolny estymator jego odchylenia standardowegoioznaczamy SE T. Definicja 1.13. Niech T będzie nieobciążonym estymatorem parametru θ. Wówczas studentyzowanym estymatorem θ nazywamy wielkość T θ SE T. (1.11) 16 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski
17 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski 1. WYBRANEROZKŁADY Rozkład binomialny Definicja1.14.Zmiennalosowamarozkładbinomialnyzparametrami n Ni p (0, 1) (b(n,p)),jeżelijej gęstość jest postaci ( ) n f(x) = p x (1 p) n x, x = 1,,...,n. (1.1) x Jeżeli X b(n,p),to E(X) = np, var(x) = np(1 p). (1.13) Własności. Jeżeli X b(n,p)iy b(k,p)orazzmiennetesąniezależne,to X + Y b(n + k,p). 18 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski
Gęstości rozkładu binomialnego b(n, p) 0.3 b(4, 0.5) 0.3 b(1, 0.5) 0. 0. 0.1 0.1 0 0 1 3 4 0 0 1 3 4 5 6 7 8 9 10 11 1 13 0.15 0.10 b(50, 0.5) 0.15 0.10 b(50, 0.8) 0.05 0.05 0 0 5 10 15 0 5 30 35 40 45 50 0 0 5 10 15 0 5 30 35 40 45 50 19 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski Rozkład normalny Definicja1.15.Zmiennalosowamarozkładnormalnyzparametrami µ Riσ>0(N(µ,σ )),jeżelijej gęstość ma postać f(x) = 1 ) (x µ) exp (. (1.14) πσ σ Jeżeli X N(µ,σ ),to E(X) = µ, var(x) = σ. (1.15) Własności. Jeżeli X N(µ,σ )oraz a,b R,to a X + b N(aµ + b,a σ ). Jeżeli X 1,X,...,X n jestciągiemniezależnychzmiennychlosowychorozkładach N(µ i,σi ),dla i = 1,,...,n,to ( n n ) n X i N µ i,. σi 0 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski
Gęstościrozkładunormalnego N(µ,σ ) Abraham de Moivre 1667-1754 (1733) 0.4 N(0, 1) 0.3 N(1, 1) Pierre-Simon Laplace 1749-187 (1778) www-history.mcs.st-andrews.ac.uk N(0, ) 0. 0.1 Carl Friedrich Gauss 1777-1855 (1809) www-history.mcs.st-andrews.ac.uk 5 4 3 1 0 1 3 4 5 1 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski Rozkład chi-kwadrat Definicja1.16.Rozkłademchi-kwadratonstopniachswobody(χ n)nazywamyrozkładprawdopodobieństwa sumy Y = X 1 + X +... + X n, (1.16) gdzie X 1,X,...,X n sąniezależnymizmiennymilosowymiorozkładzie N(0, 1)każda. Funkcja gęstości zmiennej losowej Y ma postać f(x) = ( 1 n Γ ( )x n 1 exp n ) I n (0, ) (x). (1.17) Jeżeli Y χ n,to E(Y ) = n, var(y ) = n. (1.18) Własności. Jeżeli Y 1,Y,...,Y k jestciągiemniezależnychzmiennychlosowychorozkładach χ n i, i = 1,,...,k,to k k Y i χ n, n = n i. Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski
Gęstościrozkładuchi-kwadrat χ n 0.5 n = 1 0.4 0.3 0. n = n = 3 Karl Pearson 1857 1936 (1900) www-history.mcs.st-andrews.ac.uk 0.1 n = 6 n = 14 0 0 1 3 4 5 6 7 8 9 10 11 1 13 14 15 16 17 18 19 3 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski Rozkład t Studenta Definicja1.17.RozkłademtStudentaznstopniamiswobody (t n )nazywamyrozkładprawdopodobieństwailorazu Z = X 1 Y, (1.19) n gdzie Xi Y sąniezależnymizmiennymilosowymioraz X N(0, 1), Y χ n. Funkcja gęstości zmiennej losowej Z ma postać f(x) = 1 Γ ( ) n+1 ( nπ Γ ( ) n 1 + x n ) n+1. (1.0) Jeżeli Z t n,to E(Z) = 0 (dla n > 1), var(z) = n (dla n > ). (1.1) n Uwaga. Dla n = 1rozkładtStudentajestrozkłademCauchy egozparametrami0i1. Własności. Jeżeli Z t n,to Z F 1,n. 4 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski
GęstościrozkładutStudenta t n 0.4 n = 14 n = 0.3 n = 1 William Sealy Gosset 1876 1937 (1908) www-history.mcs.st-andrews.ac.uk 0. 0.1 7 6 5 4 3 1 0 1 3 4 5 6 7 5 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski Rozkład F Snedecora Definicja1.18.Rozkładem FSnedecoraznikstopniamiswobody (F n,k )nazywamyrozkładprawdopodobieństwa ilorazu 1 n Z = X 1 Y, (1.) k gdzie Xi Y sąniezależnymizmiennymilosowymioraz X χ n, Y χ k. Funkcja gęstości zmiennej losowej Z ma postać f(x) = Γ ( ) n+k Γ ( n ) Γ ( k ) ( ) k k x n 1 ( ) n+k n x + k n I (0, ) (x). (1.3) E(Z) = k k (dla k > ), var(z) = k (n + k ) n(k ) (k 4) (dla k > 4). (1.4) Własności. Jeżeli Z F n,k,to 1/Z F k,n. 6 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski
Gęstościrozkładu F-Snedecora F n,k 0.8 0.7 0.6 n = 1, k = 5 n = 10, k = 5 n = 9, k = 4 0.5 0.4 0.3 0. 0.1 Sir Ronald Aylmer Fisher 1890-196 www-history.mcs.st-andrews.ac.uk George W Snedecor 1881-1974 www.umass.edu/wsp/statistics/tales/snedecor.html 0 1 3 4 5 6 7 7 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski 1.3 ESTYMATORYC.D. Twierdzenia graniczne i rozkłady wybranych statystyk i funkcji statystyk Definicja1.19.Dystrybuantąempirycznązpróby X = (X 1,X,...,X n ) nazywamyfunkcję F n : R R n [0, 1] określoną wzorem F n (t;x) = 1 n I (,t] (X i ), t R,X R n. (1.5) n Własności. Niech X = (X 1,X,...,X n ) będziepróbązrozkładu P θ zdystrybuantą F,wtedydlakażdego t Rzachodzi ( EF n (t) = F(t), ) (1.6) P lim n(t) = F(t) n = 1, (1.7) F n (t) F(t) n F(t)(1 F(t)) N(0, 1),gdy n. (1.8) Twierdzenie1.1.(Gliwienki-Canteliego).Jeśli X 1, X,...,X n sąniezależnymizmiennymilosowymiojednakowychdystrybuantach F,natomiast F n jestdystrybuantąempiryczną,to P ( lim sup n <t< F n (t) F(t) = 0 ) = 1. 8 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski
Twierdzenie1..(PrawoWielkichLiczbBernoulliego).Jeżeli X = (X 1,X,...,X n ) jestpróbązrozkładuośredniej µiskończonejwariancji σ,todladowolniemałejdodatniej liczby ε P ( X µ ε ) 1,gdy n. (1.9) Jacob Bernoulli 1654-1705 (1689) Twierdzenie1.3.(CentralneTwierdzenieGraniczne).Jeżeli X = (X 1,X,...,X n ) ośredniej µiskończonejwariancji σ,to jestpróbązrozkładu X µ σ n N(0, 1),gdy n. (1.30) Równoważnie. Rozkład Xjestwprzybliżeniurównyrozkładowi N(µ,σ /n). 9 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski Twierdzenie1.4.(Fishera).Jeżeli X = (X 1,X,...,X n ) jestpróbązrozkładunormalnego N(µ,σ ),tostatystyki X = 1 n X i, i s = 1 n (X i X) n n 1 są stochastycznie niezależne. Ponadto X N (µ, 1 ) n σ oraz (n 1)s σ χ n 1. (1.31) Stwierdzenie1.1.Jeżeli X = (X 1,X,...,X n ) jestpróbązrozkładunormalnego N(µ,σ ),tozmiennalosowa X µ n tn 1. (1.3) s Stwierdzenie1..Jeżeli X = (X 1,X,...,X n ) i Y = (Y 1,Y,...,Y k ) sąniezależnymipróbamizrozkładów N(µ X,σX)oraz N(µ Y,σY ),to s X σx F n 1,k 1. (1.33) s Y σy 30 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski
Stwierdzenie1.3.Jeżeli X = (X 1,X,...,X n ) i Y = (Y 1,Y,...,Y k ) sąniezależnymipróbamizrozkładów N(µ X,σ )oraz N(µ Y,σ ),to X Y σ nk n + k N(0, 1), (1.34) (n 1)s X + (k 1)s Y σ χ n+k, (1.35) X Y nk(n + k ) (n 1)s X + (k 1)s n + k Y t n+k. (1.36) 31 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski Rozdział Wybrane metody otrzymywania estymatorów 3
Metoda momentów([5, str. 16]) Definicja.1.Momentemzwykłymrzędu kzmiennejlosowej Xnazywamy EX k. Definicja..Momentemcentralnymrzędu kzmiennejlosowej Xnazywamy E (X EX) k. Definicja.3.Niech X = (X 1,X,...,X n ) będziepróbązrozkładuogęstości P θ.momentemzpróbyzwykłym rzędu k nazywamy statystykę X k = 1 n Xi k. n Uwaga. Moment z próby zwykły rzędu k jest nieobciążonym estymatorem momentu zwykłego rzędu k. Definicja.4.Niech X = (X 1,X,...,X n ) będziepróbązrozkładuogęstości P θ.momentemzpróbycentralnym rzędu k nazywamy statystykę S0 k = 1 n ( Xi X ) k. n Uwaga. Moment z próby centralny rzędu k jest obciążonym estymatorem momentu centralnego rzędu k. 33 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski Niech X = (X 1,X,...,X n ) będziepróbązrozkładuogęstości P θ,gdzie θ = (θ 1,θ,...,θ k ). Momentyrozkładu (µ i )sązazwyczajfunkcjamiparametrów θ 1,θ,...,θ k (µ i (θ 1,θ,...,θ k )). Estymatory metodą momentów uzyskuje się przez przyrównanie pierwszych k momentów z próby do odpowiednich k momentów rozkładu i rozwiązaniu powstałego układu równań. X = µ 1 (θ 1,θ,...,θ k ) X = µ (θ 1,θ,...,θ k )...... X k = µ k (θ 1,θ,...,θ k ). Przykład 4. Niech Xbędziezmiennąlosowązeskończonąwartościąoczekiwaną µiwariancją σ. Otrzymujemyukładrównań { X = µ którego rozwiązaniem jest X = µ + σ, µ = X, σ = X X = 1 n ( Xi X ). n 34 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski
Uwaga. Estymatory wyznaczone metodą momentów często nie są wyznaczone jednoznacznie. Przykład 5. Niech XbędziepróbązrozkładuPoissonazparametrem λ > 0.Ponieważ E(X) = var(x) = λ,tometoda momentów daje dwa różne estymatory parametru λ λ 1 = X, λ = X X. 35 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski Metoda największej wiarogodności Definicja.5.Niechzmiennalosowa Xmagęstość P θ (x), θ Θ R k iniech X = (X 1,X,...,X n ) będzie próbą z rozkładu prawdopodobieństwa tej zmiennej. Łączna gęstość próby X rozpatrywana jako funkcja parametru θ nazywa się funkcją wiarogności i jest oznaczana przez L(θ); n L(θ;x 1,x,...,x n ) = P θ (x i ). Definicja.6. Estymatorem największej wiarogności parametru θ (ENW(θ)) nazywamy statystykę, która maksymalizuje funkcję wiarogności L(θ), θ = arg maxl(θ). θ Uwaga. Często, dla uproszczenia rachunków, funkcję wiarogności L(θ) zastępujemy przez ln L(θ). 36 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski
Przykład 6. Niech X 1,X,...,X n będziepróbązrozkładunormalnego N(µ,σ ), µ R, σ > 0.Wartościparametrów µiσsąnieznane. Funkcja wiarogności ( ) ( ) n L(µ,σ 1 ;x 1,x...,x n ) = exp (x i µ) 1 πσ σ = ( ) n exp 1 n (x i µ). πσ σ Jej logarytm lnl(µ,σ ;x 1,x...,x n ) = 1 σ Wyznaczamypochodnewzględem µiσ iprzyrównujemydo0 n (x i µ) n lnσ n ln π. lnl µ lnl σ = 1 n σ (x i µ) = 0 = 1 σ 4 n (x i µ) n σ = 0. Rozwiązaniem powyższego układu równań jest µ = 1 n n x i = x, σ = 1 n n (x i x). Należyjeszczesprawdzić,żefunkcja lnl(µ,σ )wpunkcie µi σ osiągaistotniemaksimum. Ostatecznie µi σ sąestymatoraminajwiększejwiarogodnościparametrów µiσ wrozkładzienormalnym N(µ,σ ). 37 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski Uwaga. Estymatory największej wiarogności nie zawsze istnieją. Własności. Jeżeli θjestestymatoremnajwiększejwiarognościparametru θifunkcja g : Θ Rjestróżnowartościowa, to g( θ)jest ENW(g(θ)), ENW(θ) jest zgodny, ENW(θ) jest asymptotycznie nieobciążony. 38 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski
Rozdział 3 Estymacja przedziałowa 39 Niech X = (X 1,X,...,X n ) będziepróbązrozkładuogęstości P θ należącegodorodzinyrozkładów P = {P θ : θ Θ}. Definicja3.1.Jeżeli [T 1 (X),T (X)],gdzie P θ (T 1 < T ) = 1,jestprzedziałemlosowymtakim,że P θ (T 1 θ T ) = 1 α,dlakażdego θ Θ izadanego α (0, 1),to [T 1,T ]nazywasię 100(1 α)%przedziałemufnościdlaparametru θ Θ. Wartość współczynnika 1 α nazywa się poziomem ufności. Pozaobserwowaniudanych x = (x 1,x,...,x n ) przedział [T 1 (x),t (x)]jest 100(1 α)%ocenąprzedziałową nieznanego parametru θ Θ. 40 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski
Konstrukcja przedziałów ufności Definicja3..Niech X = (X 1,X,...,X n ) będziepróbązrozkładu P θ, θ Θ.Funkcja Q(X,θ)nazywasię funkcja centralną lub wiodącą dla parametru θ Θ, jeżeli jej rozkład prawdopodobieństwa nie zależy od θ. Przykład 7. Niech X = (X 1,X,...,X n ) będziepróbązrozkładunormalnego N(µ,σ0),gdzie µ Rjestnieznanymparametrem,aσ0znanąliczbądodatnią. Niech Q(X,µ) = X µ n. σ 0 Funkcja Q(X, µ) ma rozkład normalny N(0, 1) niezależny od µ. Jest to funkcja centralna dla parametru µ. Załóżmy, że dysponujemy funkcją centralną Q(X, θ) parametru θ. Wybieramy liczby a i b tak, by spełniały nierówność P θ [a Q(X,θ) b] = 1 α, dlakażdego θ Θizadanego α (0, 1). Gdy Q(X,θ)jestfunkcjąciągłąiściślemonotonicznąparametru θ,tonierówność a Q bjestrównoważna nierówności L(X,a,b) θ U(X,a,b). Stąd L(X,a,b)oraz U(X,a,b)sąodpowiedniodolnymigórnymkońcem 100(1 α)%przedziałuufnoscidla parametru θ Θ. 41 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski Przedział [L(x,a,b),U(x,a,b)]jest 100(1 α)%ocenąprzedziałowąparametru θ Θ. Przykład 8. Niech X = (X 1,X,...,X n ) będziepróbązrozkładunormalnego N(µ,σ 0),gdzie µjestnieznanymparametrem a σ 0znanąliczbądodatnią.Chcemyznaleźć 100(1 α)%przedziałufnościdla µ.funkcjacentralna Q(X,µ) = X µ n σ 0 marozkładnormalny N(0, 1).Nierówność a Q bjestrównoważnanierówności X b σ 0 n µ X a σ 0 n. Obierzmy a = z α/, b = z 1 α/,gdzie z α/ i z 1 α/ sąkwantylamirzędu α/i1 α/1zmiennejlosowejo rozkładzie N(0, 1).Zauważmy,że z α/ = z 1 α/.wówczas P ( X z 1 α/ σ 0 n µ X + z 1 α/ σ 0 n ) = 1 α. Zatem przedział [ ] σ 0 σ [L,U] = X z 1 α/ 0,X + z 1 α/ n n jest 100(1 α)% przedziałem ufności dla µ. 4 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski
Przykład 9. Niech X = (X 1,X,...,X n ) będziepróbązrozkładunormalnego N(µ,σ ),gdzie µiσ sąnieznanymiparametrami. Chcemy znaleźć 100(1 α)% przedział ufności dla µ. Funkcja centralna Q(X,µ) = X µ n s ma rozkład t-studenta z n 1 stopniami swobody. Po prostych przekształceniach otrzymujemy przedział [ [L,U] = X s t n 1,1 α,x + s ] t n n 1,1 α n Przykład 10. Niech X = (X 1,X,...,X n ) będziepróbązrozkładunormalnego N(µ,σ ),gdzie µiσ sąnieznanymiparametrami.chcemyznaleźć 100(1 α)%przedziałufnościdla σ.funkcjacentralna marozkład χ n 1. Po prostych przekształceniach otrzymujemy przedział [ [L,U] = Q(X,σ ) = (n 1) s σ (n 1) s χ n 1,1 α, (n 1) s χ n 1, α ] 43 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski Przykład 11. Niech X = (X 1,X,...,X n ) i Y = (Y 1,Y,...,Y k ) będąniezależnymipróbamizrozkładów N(µ X,σ0)oraz N(µ Y,σ0),gdzie µ X i µ Y sąnieznanymiparametramiaσ0znanąliczbądodatnią.chcemyznaleźć 100(1 α)% przedziałufnościróżnicyśrednich µ X µ Y. Funkcja centralna Q(X,µ X µ Y ) = X Y (µ X µ Y ) nk σ 0 n + k marrozkład N(0, 1). Po prostych przekształceniach otrzymujemy przedział [L,U] = X Y z 1 α n + k n + k nk σ 0,X Y + z 1 α nk σ 0. Przykład 1. Niech X = (X 1,X,...,X n ) i Y = (Y 1,Y,...,Y k ) będąniezależnymipróbamizrozkładów N(µ X,σ0)oraz N(µ Y,σ0),gdzie µ X, µ Y oraz σ0 > 0sąnieznanymiparametrami.Chcemyznaleźć 100(1 α)%przedziałufności różnicyśrednich µ X µ Y. Funkcja centralna Q(X,µ X µ Y ) = X Y (µ X µ Y ) nk(n + k ) (n 1)s X + (k 1)s n + k Y marrozkład t n+k. 44 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski
Po prostych przekształceniach otrzymujemy przedział [L,U] = [ X Y t n+k,1 α X Y + t n+k,1 α n + k nk(n + k ) n + k nk(n + k ) (n 1)s X + (k 1)s Y, (n 1)s X + (k 1)s Y ]. Przykład 13. Niech X = (X 1,X,...,X n ) i Y = (Y 1,Y,...,Y k ) będąniezależnymipróbamizrozkładów N(µ X,σX)oraz N(µ Y,σY ),gdzie µ X, µ Y, σx > 0oraz σy > 0sąnieznanymiparametrami.Chcemyznaleźć 100(1 α)% przedziałufnościilorazuwariancji σx/σ Y. Funkcja centralna s X σ X marozkład F n 1,k 1. Jakoćwiczenie,wyznaczyćprzedziałufnościdla σ X/σ Y. s Y σy F n 1,k 1 45 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski Rozdział 4 TESTOWANIE HIPOTEZ 46
Definicja 4.1. Każde założenie dotyczące rodziny rozkładów prawdopodobieństwa(związanej z pewnym eksperymentem) nazywamy hipotezą statystyczną. Rozkładyrodziny P θ możnawięcpodzielićnatakie,dlaktórychhipotezajestprawdziwaitakie,dlaktórych jest on fałszywa. PRZESTRZEŃ PARAMETRÓW Θ PRZESTRZEŃ PRÓBY X Θ 1 Θ 0 X 1 X 0 Θ 0 Θ 1 = Θ X 0 X 1 = X H 0 : θ Θ 0, H 1 : θ Θ 1 47 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski Jeżelizbiór Θ 0 składasiędokładniezjednegopunktu,tohipotezę H 0 nazywamyhipoteząprostą.wprzeciwnym razie jest hipotezą złożoną. Testem hipotezy statystycznej nazywamy regułę, która precyzuje: 1.Dlajakichwartościpróby Xpodejmowanajestdecyzjaoprzyjęciuhipotezy H 0 jakoprawdziwej..dlajakichwartościpróby Xhipoteza H 0 jestodrzucanaiprzyjmowanajesthipoteza H 1 jakoprawdziawa. Definicja4..Podzbiór X 1 przestrzenipróby X,dlaktóregohipoteza H 0 jestodrzucananazywasięobszarem odrzucenia lub obszarem krytycznym. Dopełnienieobszarukrytycznego X 0 = X \ X 1 nazywasięobszaremprzyjęcia. Definicja4.3.Testemhipotezy H 0 przeciwkohipotezie H 1 nazywamyfunkcję ϕ : X 0, 1zdefiniowaną następująco { 1, jeżeli x X1, ϕ(x) = 0, jeżeli x X 0. 48 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski
Dwa rodzaje błędów w testowaniu hipotez decyzja Przyjąć H 0 Odrzucić H 0 rzeczywistość H 0 Decyzjapoprawna BłądIRodzaju H 1 BłądIIRodzaju Decyzjapoprawna Jeżeli θ Θ 0,aletestodrzuca H 0,topopełniamyBłądIRodzaju. Jeżelinatomiast θ Θ 1,atestdecydujeoprzyjęciu H 1,topopełniamyBłądIIRodzaju. P θ (X X 1 ) = { prawdopodobieństwobłęduirodzaju, jeżeli θ Θ0, jedenminusprawdopodobieństwobłęduiirodzaju, jeżeli θ Θ 1. 49 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski Definicja4.4.Funkcję β : Θ [0, 1]owartościach β(θ) = P θ (X X 1 ) nazywamy funkcja mocy testu z obszarem odrzucenia X. Definicja4.5.Dla 0 α 1testzfunkcjąmocy β(θ)jesttestemrozmiaru α,jeżeli sup β(θ) = α. θ Θ 0 Definicja4.6.Dla 0 α 1,testzfunkcjąmocy β(θ)jesttestemnapoziomieistotności α,jeżeli supβ(θ) α θ Θ 50 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski
Jerzy Spława-Neyman Egon Sharpe Pearson 1894-1981 1895-1980 Lemat Neymana-Pearsona[5, strona 174]. Hipotezie zerowej przypisujemy inną wagę niż hipotezie alternatywnej Z reguły, za hipotezę zerową przyjmujemy tę, której prawdziwość poddajemy w wątpliwość i którą chcemy odrzucić, jeśli tylko znajdziemy do tego podstawę. 51 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski Nieodrzucenie hipotezy zerowej nie dowodzi jej prawdziwości, a jedynie wynika z braku podstaw do jej odrzucenia. Przykład 14. Niech X = (X 1,X,...,X n ) będziepróbązrozkładunormalnego N(µ,σ0),gdzie µ Rjestnieznanymparametrem,aσ0znanąliczbądodatnią. Stawiamyhipotezę,że prawdziwa wartośćnieznanegoparametru µjestrówna µ 0 przy hipotezie alternatywnej Statystyka testowa H 0 : µ = µ 0 a) b) c) H 1 : µ µ 0 H 1 : µ < µ 0 H 1 : µ > µ 0 u s = X µ 0 n, σ 0 któraprzyprawdziwościhipotezyzerowej(h 0 )marozkład N(0, 1). Wprzypadkuzachodzeniajednejzhipotezalternatywnych(a),b)lubc))statystykatestowa u s marozkład ( ) µ µ0 N n, 1. σ 0 Zapiszmy statystykę testową w następujący sposób u s = X µ 0 σ 0 n = X µ σ 0 n + µ µ 0 σ 0 n. 5 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski
Zatemwprzypadkuzachodzeniahipotezyalternatywnej(H 1 )statystykatestowa u s marozkładnormalnyprzesunięty względem rozkładu standardowego o µ µ 0 σ 0 n. Stądmożnaokreślić nietypowe wartościstatystykitestowej u s podwarunkiemzachodzenia H 0 przyalternatywie H 1 : a) b) c) duże duże wartości ujemne duże wartości dodatnie wartości ujemne lub dodatnie Naturalnympostępowaniemjestbyprzy nietypowych wartościach u s odrzucaćhipotezę H 0.Oczywiście, możliwymjest,że nietypowe wartościwystąpiąnawetprzyzachodzeniuhipotezy H 0.Jednakchcielibyśmy aby takie zdarzenia zachodziły z małym prawdopodobieństem. Ustalmy to prawdopodobieństwo na poziomie α. a) b) c) α α α α u 1 α/ 0 u 1 α/ u 1 α 0 0 u 1 α P H0 ( us u 1 α/ ) = α PH0 (u s u 1 α ) = α P H0 (u s u 1 α ) = α gdzie u 1 α/ i u 1 α sąkwantylamirozkładunormalnegostandaryzowanegoodpowiedniorzędów 1 α/, 1 α. 53 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski Ostateczniepodejmujemydecyzjęoodrzuceniuhipotezy H 0 przyhipoteziealternatywnej H 1,gdy a) b) c) u s u 1 α/ u s u 1 α u s u 1 α Poziomem istotności nazywać będziemy prawdopodobieństwo popełnienia Błędu I Rodzaju. Definicja 4.7. Najmniejszy poziom istotności, przy którym zaobserwowana wartość statystyki testowej prowadzi do odrzucenia hipotezy zerowej, nazywamy p-wartością przeprowadzonego testu. Im mniejsza jest p-wartość, tym mocniejsze staje się przekonanie testującego o fałszywości hipotezy zerowej. 54 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski
Testy dla wartości średniej w rodzinie rozkładów normalnych będziepróbązrozkładunormalnego N(µ,σ ),gdzie µiσ sąnieznanymipara- Niech X = (X 1,X,...,X n ) metrami. Testujemy hipotezę przeciwko hipotezie alternatywnej H 0 : µ = µ 0 a) b) c) H 1 : µ µ 0 H 1 : µ < µ 0 H 1 : µ > µ 0 Statystyka testowa t s = X µ0 n. s Przyprawdziwościhipotezyzerowej t s marozkładt-studentazn 1stopniamiswobody. Hipotezę H 0 odrzucamy,gdy a) b) c) t s t n 1,1 α/ t s t n 1,1 α t s t n 1,1 α 55 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski Testy o równości wartości średnich dla dwóch prób w rodzinie rozkładów normalnych Niezależne próby Niech X = (X 1,X,...,X n ) i Y = (Y 1,Y,...,Y k ) będąniezależnymipróbamizrozkładów N(µ X,σ )oraz N(µ Y,σ ),gdzie µ X, µ Y oraz σ > 0sąnieznanymiparametrami. Testujemy hipotezę przeciwko hipotezie alternatywnej H 0 : µ X = µ Y a) b) c) H 1 : µ X µ Y H 1 : µ X < µ Y H 1 : µ X > µ Y Statystyka testowa t s = X Y nk(n + k ). (n 1)s X + (k 1)s n + k Y Przyprawdziwościhipotezyzerowej t s marozkładt-studentazn + k stopniamiswobody.hipotezę H 0 odrzucamy, gdy a) b) c) t s t n+k,1 α/ t s t n+k,1 α t s t n+k,1 α 56 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski
Testy dla wariancji w rodzinie rozkładów normalnych będziepróbązrozkładunormalnego N(µ,σ ),gdzie µiσ sąnieznanymipara- Niech X = (X 1,X,...,X n ) metrami. Testujemy hipotezę przeciwko hipotezie alternatywnej H 0 : σ = σ 0 Statystyka testowa a) b) c) H 1 : σ σ0 H 1 : σ < σ0 H 1 : σ > σ0 χ s = (n 1)s. σ0 Przyprawdziwościhipotezyzerowej χ smarozkład χ z n 1stopniamiswobody. Hipotezę H 0 odrzucamy,gdy a) b) c) χ s χ n 1,α/ lub χ s χ n 1,1 α/ χ s χ n 1,α χ s χ n 1,1 α 57 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski Porównanie dwóch populacji Niech X = (X 1,X,...,X n ) i Y = (Y 1,Y,...,Y k ) będąniezależnymipróbamizrozkładów N(µ X,σ X)oraz N(µ Y,σ Y ),gdzie µ X, µ Y, σ X > 0oraz σ Y > 0sąnieznanymiparametrami. Testujemy hipotezę H 0 : σ X = σ Y przeciwko hipotezie alternatywnej Statystyka testowa a) b) c) H 1 : σx σy H 1 : σx < σy H 1 : σx > σy F s = s X s Y Przyprawdziwościhipotezyzerowej F s marozkładf-snedecorazn 1ik 1stopniamiswobody. Hipotezę H 0 odrzucamy,gdy a) b) c) F s F n 1,k 1,α/ lub F s F n 1,k 1,1 α/ F s F n 1,k 1,α F s F n 1,k 1,1 α 58 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski
Rozdział 5 Testy zgodności [6]Testem zgodności nazywamy test do weryfikacji hipotezy(prostej albo złożonej) dotyczącej zgodności (dopasowania) rozkładu zbioru wartości w próbie z rozkładem teoretycznym, tzn. hipotezy postaci H 0 :dystrybuantą F(x)badanejcechy Xpopulacjijestdystrybuanta F 0 (x), H 1 :dystrybuantą F(x)badanejcechy Xpopulacjiniejestdystrybuanta F 0 (x). 59 Wykresy [7] Graficzne przedstawienie rozkładu cechy(na podstawie próby) nie są testami w ścisłym sensie, nie można bowiem obliczyć p-wartość czy też powziąć decyzji na zadanym poziomie istotności. Wykresy dostarczają jedynie wizualnej informacji o badanej próbie losowej. Jednak taka dobrze zinterpretowana informacja jakościowa okazuje się mieć bardzo duże znaczenie praktyczne. HISTOGRAM Histogram jest graficznym przedstawieniem szeregu rozdzielczego. 36 3 8 4 0 16 1 8 4 0 0 1 3 4 5 6 7 8 9 10 11 60 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski
WYKRES KWANTYLOWY kwantyle empiryczne 3 1 0 1 3 3 1 0 1 3 kwantyle teoretyczne kwantyle empiryczne 3 1 0 1 3 3 1 0 1 3 kwantyle teoretyczne Niech x 1,x,...,x n będązaobserwowanymielementamipróbylosowej.uporządkujmyelementypróbyodnajmniejszegodonajwiększego: x 1:n,x :n,...,x n:n.wtedy x i:n jestprzybliżeniemkwantylarzędu i 0.5. n Niech F(x) będzie odwracalną dystrybuantą pewnego rozkład(teoretycznego). Wtedy z i 0.5 n ( ) i 0.5 = F 1 n i = 1,,...,n są kwantylami teoretycznymi rozkładu o dystrybuancie F. Nanosimy na wykres punkty o współrzędnych ( ) xi:n,z i 0.5 i = 1,,...,n. n 61 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski Testzgodności χ -Pearsona Niech X = (X 1,X,...,X n ) będziepróbązrozkładuonieznanejdystrybuancie F.Niech F 0 będziezadaną dystrybuanta. Testujemy hipotezę H 0 : F = F 0 vs. H 1 : F F 0. Danegrupujemywkrozłącznychklasacholicznościach n 1,...,n k,gdzie n 1 +... + n k = n.niech p i, i = 1,...,k,oznaczateoretyczneprawdopodobieństwo,przyprawdziwejhipotezie H 0,żeobserwowanazmienna losowa przyjmie wartość z i-tej klasy. Statystyka testowa k χ (n i np i ) s =. np i Przyprawdziwościhipotezyzerowej χ smarozkład χ k 1 r,gdzie rliczbaestymowanychparametrówrozkładu F 0.Estymacjęnależywykonaćmetodąnajwiększejwiarogodności.Przyjmujesię,że np i,dlakażdego ipowinno byćniemniejszaniż5. Hipotezę odrzucamy, gdy χ s χ k 1 r,1 α. 6 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski
Test zgodności Kołmogorowa Niech X = (X 1,X,...,X n ) będziepróbązrozkładutypuciągłegoonieznanejdystrybuancie F.Niech F 0 będzie zadaną dystrybuantą. Testujemy hipotezę Statystyka testowa(kołmogorowa) gdzie F n jestdystrybuantąempiryczną. H 0 : F = F 0 vs. H 1 : F F 0. D n = sup F n (x) F 0 (x), <x< Hipotezę H 0 odrzucamy,gdy D n d 1 α, gdzie d 1 α jestkwantylemrzędu 1 αrozkładustatystyki D n. Andriej Nikołajewicz Kołmogorow 1903-1987 63 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski 5.1 Test zgodności z rozkładem normalnym Shapiro-Wilka Niech X = (X 1,X,...,X n ) będziepróbązrozkładuonieznanejdystrybuancie F.Testujemyhipotezę H 0 : Fjestdystrybuantąrozkładunormalnego, H 1 : Fniejestdystrybuantąrozkładunormalnego. Statystyka testowa W = [ [n/] a i (n) ( X (n i+1):n X i:n )] n ( Xi X ), gdzie X 1:n,...,X n:n jestuporządkowanąpróbą, a i (n)sąwartościamistablicowanymi. Hipotezę H 0 odrzucamy,gdy W < w(α),gdzie w(α)jestkwantylemrzędu αrozkładustatystyki W. 64 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski
Rozdział 6 Jedno i dwukierunkowa analiza wariancji Celem jednokierunkowej(dwukierunkowej) analizy wariancji jest stwierdzenie istnienia wpływu jednego (dwóch) czynnika na interesującą nas cechę. 65 ANOVA- jednokierunkowa analiza wariancji (jednoczynnikowa analiza wariancji) gdzie µ jest średnią ogólną(stała), poziomy czynnika replikacje- wyniki przeprowadzonego badania dla danego poziomu czynnika 1 x 11 x 1... x 1J x 1 x... x J.... I x I1 x I... x IJ Model α i jestefektem i-tegopoziomubadanegoczynnika(stałe), X ij = µ + α i + ε ij, i = 1,...,I,j = 1,...,J, (6.1) ε ij sąniezależnymizmiennymilosowymiorozkładach N(0,σ )(błądlosowyobserwacji). Łatwozauważyć,że X ij N(µ + α i,σ ). Możnarównieżzapisać X ij N(µ i,σ ),gdzie µ i = µ + α i.wtedy µ i jestśredniądla i-tegopoziomuczynnika. 66 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski
Niech danych będzie I prób X 1 = (X 11,X 1,...,X 1J ) X = (X 1,X,...,X J ). =. X I = (X I1,X I,...,X IJ ) pochodzącychodpowiedniozrozkładów N(µ 1,σ ),...,N(µ 1,σ ),gdzie µ i = µ + α i. Zakładamy,żezmienne X ij mająreprezentacjęzmodelu(6.1). Testujemy hipotezę postaci H 0 : µ 1 = µ =... = µ I przeciwalternatywnejhipotezie H 1 orzekającej,żeistniejąconajmniejdwiespośród Iśrednich,któresąróżne. Równoważną formą jest hipoteza H 0 : α 1 = α =... = α I = 0 przeciwalternatywnejhipotezie H 1 orzekającej,żeistniejeconajmniejjedenspośród Iefektów,któryjest różny od zera. 67 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski Przyjmijmy następujące oznaczenia: X i = 1 J X ij średnia i-tegopoziomuczynnika, J j=1 X = 1 I J X ij średniaogólna, IJ j=1 I J ( ) SST = Xij X zmiennośćcałkowita, j=1 I ( ) SSA = J Xi X zmiennośćmiędzypoziomamiczynnika, I J ( ) SSE = Xij X i zmiennośćwewnątrzgrup. j=1 Statystyka s = SSE I(J 1) jestestymatoremwariancji σ.możnawykazaćtożsamość SST = SSA + SSE. Statystyka testowa I(J 1)SSA F s = (I 1)SSE. Przyprawdziwościhipotezyzerowej F s marozkład F-Snedecorazliczbamistopniswobody I 1iI(J 1). Hipotezę H 0 odrzucamy,gdy F s F I 1,I(J 1),1 α. 68 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski
Opisana metoda analizy wariancji wymaga założenia równości wariancji w badanych grupach. Hipoteza o jednorodnosci wariancji przyjmuje postać H 0 : σ 1 = σ =... = σ I, gdzie σi jestwariancjąwi-tejgrupie.hipotezaalternatywnaorzeka,żeistniejąconajmniejdwiegrupyo różnych wariancjach. W praktycznych zastosowaniach najbardziej popularnym testem jest test Bartletta. Niech s i = 1 J ( ) Xij X i J 1 będzieestymatoremwariancji σ iw i-tejgrupie, i = 1,,...,I. j=1 Statystyka testowa M s = I(J 1) ln ( 1 I ) I I s i (J 1) ln s i. Dla dużych J przy prawdziwości hipotezy zerowej zmienna losowa M s = M s 1 + I J 1 1 I(J 1) 3(I 1) mawprzybliżeniurozkład χ z I 1stopniamiswobody. Hipotezę H 0 odrzucamy,gdy M s χ I 1,1 α. 69 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski MANOVA- wielokierunkowa analiza wariancji wieloczynnikowa analiza wariancji Poniżej ograniczymy się do modelu w dwukierunkowej analizie wariancji. gdzie µ jest średnią ogólną(stała), Model X ijk = µ + α i + β j + γ ij + ε ijk, i = 1,...,I, j = 1,...,J, k = 1,...,K, (6.) α i jestefektem i-tegopoziomupierwszegoczynnika(stałe), β j jestefektem j-tegopoziomudrugiegoczynnika(stałe), γ ij jestinterakcjąpomiędzy i-tympoziomempierwszegoczynnikaaj-tympoziomemdrugiegoczynnika (stałe), ε ijk sąniezależnymizmiennymilosowymiorozkładach N(0,σ )(błądlosowyobserwacji). 70 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski
Niech danych będzie IJ prób X 11 = (X 111,X 11,...,X 11K ) X 1 = (X 11,X 1,...,X 1K ). =. X I1 = (X I11,X I1,...,X I1K ) X 1 = (X 11,X 1,...,X 1K ) X = (X 1,X,...,X K ). =. X I = (X I1,X I,...,X IK )............ X 1J = (X 1J1,X 1J,...,X 1JK ) X J = (X J1,X J,...,X JK ). =. X IJ = (X IJ1,X IJ,...,X IJK ) Pochodzącychodpowiedniozrozkładów N(µ 11,σ ),...N(µ 1J ), N(µ 1,σ ),...,N(µ IJ,σ ),gdzie µ ij = µ+α i + β j + γ ij. Zakładamy,żezmienne X ijk mająreprezentacjęzmodelu(6.). Testujemy trzy następujące hipotezy H 10 : α 1 = α =... = α I = 0 vs. K 10 : istniejeconajmniejjedno α i 0, H 0 : β 1 = β =... = β J = 0 vs. K 0 : istniejeconajmniejjedno β J 0, H 30 : γ 11 = γ 1 =... = γ IJ = 0 vs. K 30 : istniejeconajmniejjedno γ ij 0. 71 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski Przyjmijmy następujące oznaczenia: X ij = 1 K X ijk średnia i-tegopoziomupierwszegoczynnikaij-tegopoziomudrugiego K k=1 czynnika, X i = 1 J K X ijk średniadla i-tegopoziomupierwszegoczynnika, JK j=1 k=1 X j = 1 I K X ijk średniadla j-tegopoziomudrugiegoczynnika, IK k=1 1 I J K X = X ijk średniaogólna, IJK j=1 k=1 I J K ( ) SST = Xijk X zmiennośćcałkowita, j=1 k=1 I K ( ) SSA = JK Xi X zmiennośćmiędzypoziomamipierwszegoczynnika, k=1 I K ( ) SSB = IK X j X zmiennośćmiędzypoziomamidrugiegoczynnika, k=1 I J ( ) SSAB = K Xij X i X j X zmiennośćwynikającazewspółdziałaniaczynników, j=1 SSE = SST SSA SSB SSAB zmienność wewnątrz grup. 7 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski
Statystyka s = Statystyki testowe SSE jestestymatoremwariancji IJ(K 1) σ. F 1s F s = = F 3s = IJ(K 1)SSA (I 1)SSE, IJ(K 1)SSB (J 1)SSE, IJ(K 1)SSAB (I 1)(J 1)SSE. Przyprawdziwości H 10 F 1s F I 1,IJ(K 1), Przyprawdziwości H 0 F s F J 1,IJ(K 1), Przyprawdziwości H 30 F 3s F (I 1)(J 1),IJ(K 1). Hipotezęzerową H i0 odrzucamyjeżeliodpowiadającajejwartośćstatystykitestowejprzekraczakwantylrozkładu F-Snedecora(z odpowiednimi stopniami swobody) rzędu 1 α. Uwaga. Testem Bartletta należy sprawdzić równość wariancji w każdej z grup. 73 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski 74 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski
Bibliografia [1] E. Babbie. Badania społeczne w praktyce. Wydawnictwo Naukowe PWN, Warszawa 004. [] J. Brzeziński. Badania eksperymentalne w psychologii i pedagogice. Scholar, Warszawa 000. [3] A. Dąbrowski, S. Gnot, A. Michalski, and J. Srzednicka. STATYSTYKA, 15 godzin z pakietem statgraphics. Akademia Rolnicz we Wrocławiu, Wrocław 1994. [4] C. Domański. Testy statystyczne. Państwowe Wydawnictwo Ekonomiczne, Warszawa 1990. [5] M. Krzyśko. Statystyka Matematyczna. Wydawnictwo Naukowe UAM, Poznań 004. [6] R. Mageria. Modele i metody statystyki matematycznej. GiS, Wrocław 00. [7] J. Mielniczuk and J. Koronacki. Statystyka dla studentów kierunków technicznych i przyrodniczych. Wydawnictwo Naukowo-Techniczne, Warszawa 004. [8] A. Plucińska and E. Pluciński. Rachunek prawdopodobieństwa, Statystyka matematyczna, Procesy stochastyczne. WNT, Warszawa 000. 75 [9] Y. Takane and G. Ferguson. Analiza statytyczna w psychologii i pedagogice. Wydawnictwo Naukowe PWN SA, Warszawa 003. [10] M. Walesiak, E. Gatnar, and inni. Statystyczna analiza danych z wykorzystaniem programu R. Wydawnictwo Naukowe PWN, 009. 76 Jacek Bojarski: www.wmie.uz.zgora.pl/pracownicy/jbojarski