Wpływ korelacji statystyk testowych na współczynniki FDR i FWER
|
|
- Mirosław Szydłowski
- 8 lat temu
- Przeglądów:
Transkrypt
1 Wpływ korelacji statystyk testowych na współczynniki FDR i FWER Statystyka w medycynie 2008/09
2 Plan wykładu Wstęp 1 Wstęp 2 3
3 Przypomnienie Wstęp Możliwe wyniki, gdy testujemy m hipotez, wśród których m 0 jest prawdziwych: Nieodrzucone Odrzucone Razem H 0 prawdziwa U V m 0 H A prawdziwa T S m 1 W R m FWER = Pr(V 1) ( V ) FDR = E R R > 0 Pr(R > 0) ( V ) pfdr = E R R > 0 Fakt Zawsze FDR FWER oraz FDR pfdr.
4 Przykład Wstęp Dla m lotnisk niech: H0 i : na i - tym lotniku złapany człowiek nie jest terrorystą HA i : na i - tym lotniku złapany człowiek jest terrorystą. Wówczas: FWER to prawdopodobieństwo, że co najmniej jeden niewinny zostanie uznany za terrorystę FDR to średni procent niewinnych wśród uznanych za terrorystów (gdzie brak uznanych za terrorystów oznacza procent = 0) pfdr to średni procent niewinnych wśród uznanych za terrorystów, gdzie średnia jest liczona tylko po tych przypadkach, gdy kogoś uznano za terrorystę.
5 Przykład Wstęp Dla m lotnisk niech: H0 i : na i - tym lotniku złapany człowiek nie jest terrorystą HA i : na i - tym lotniku złapany człowiek jest terrorystą. Wówczas: FWER to prawdopodobieństwo, że co najmniej jeden niewinny zostanie uznany za terrorystę FDR to średni procent niewinnych wśród uznanych za terrorystów (gdzie brak uznanych za terrorystów oznacza procent = 0) pfdr to średni procent niewinnych wśród uznanych za terrorystów, gdzie średnia jest liczona tylko po tych przypadkach, gdy kogoś uznano za terrorystę.
6 Przykład Wstęp Dla m lotnisk niech: H0 i : na i - tym lotniku złapany człowiek nie jest terrorystą HA i : na i - tym lotniku złapany człowiek jest terrorystą. Wówczas: FWER to prawdopodobieństwo, że co najmniej jeden niewinny zostanie uznany za terrorystę FDR to średni procent niewinnych wśród uznanych za terrorystów (gdzie brak uznanych za terrorystów oznacza procent = 0) pfdr to średni procent niewinnych wśród uznanych za terrorystów, gdzie średnia jest liczona tylko po tych przypadkach, gdy kogoś uznano za terrorystę.
7 Przykład Wstęp Dla m lotnisk niech: H0 i : na i - tym lotniku złapany człowiek nie jest terrorystą HA i : na i - tym lotniku złapany człowiek jest terrorystą. Wówczas: FWER to prawdopodobieństwo, że co najmniej jeden niewinny zostanie uznany za terrorystę FDR to średni procent niewinnych wśród uznanych za terrorystów (gdzie brak uznanych za terrorystów oznacza procent = 0) pfdr to średni procent niewinnych wśród uznanych za terrorystów, gdzie średnia jest liczona tylko po tych przypadkach, gdy kogoś uznano za terrorystę.
8 Motywacje Wstęp Rozważmy następujący przykład: Testujemy m hipotez, gdzie H 0 : X N(0, 1), H A : X N(1, 1) przy użuciu testu T(x) = x, gdzie obszar krytyczny jest postaci {x : x t}. Wówczas p - wartość dla przykładu x wynosi p(x) = 1 Φ(x), gdzie Φ to dystrybuanta rozkładu N(0, 1). Mamy zatem wektor statystyk testowych (T 1,..., T m ) o rozkładzie N(µ, Σ), gdzie wektor średnich µ spełnia µ(i) {0, 1} dla i 1,..., m, zaś Σ jest macierzą kowariancji, która na diagonali ma same jedynki. Wiemy już, że w przypadku pozytywnie skorelowanych (T 1,..., T m ) procedura Benjaminiego - Hochberga doboru poziomu istotności gwarantuje nam kontrolę FDR na ustalonym poziomie α. Pytanie co się stanie, gdy wprowadzimy skorelowanie ujemne.
9 Motywacje Wstęp Przeprowadziliśmy eksperyment, w którym dla różnych parametrów m, m 0, Σ, α losowałem it razy statystyki (T 1,..., T m ) z rozkładu N(µ, Σ), po uśrednieniu wyników otrzymując przybliżony FWER w sytuacji zastosowania procedury Bonferroniego, a także Hochberga, oraz przybliżony FDR gdy zastosuje się metodę Benjaminiego - Hochberga. Na najbliższym slajdzie m = 30, m 0 = 1, α = 0.05, it = 10000, zaś parametr k przebiega od 0 do 19, wyznaczając macierz Σ w postaci: Σ = AA T, gdzie A jest macierzą ( k)N + ( k)Id po unormowaniu wierszami, przy czym N[i, ] = e 1 i (a zatem wraz ze wzrostem k przechodzimy od statystyk prawie niezależnych do statystyk bardzo mocno skorelowanych pozytywnie). Na drugim slajdzie m = 10, m 0 = 0, α = 0.05, it = , zaś parametr k biegnący od 0 do 8 wyznacza macierz Σ w postaci: Σ = AA T, gdzie A jest macierzą ( k)S + ( k)Id po unormowaniu wierszami, przy czym S to macierz, której wiersze tworzą zestaw wektorów najmocniej rozstrzelonych (a zatem wraz ze wzrostem k przechodzimy od statystyk prawie niezależnych do sytuacji, gdy każde dwie statystyki T i, T j, i j są negatywnie skorelowane).
10 Eksperyment 1 Wstęp FWER Bonferroni FWER Hochberg FDR Benj. Hochb k
11 Eksperyment 2 Wstęp FWER Bonferroni FWER Hochberg FDR Benj. Hochb k
12 Konkluzje Wstęp otrzymany FWER jest zawsze w przypadku metody Hochberga, w porównaniu z metodą Bonferroniego (co jest ogólną własnością) widzimy, że w przypadku eksperymentu I FWER otrzymywany stosując procedurę Bonferroniego spada wraz ze wzrostem zależności statystyk do poziomu α m (wynika to z tego, że dla największych k zmienne losowe (T 1,..., T m ) są prawie sobie równe, zatem P(V 1) P(X Γ α ) = α m m, gdzie X N(0, 1), zaś Γ α to obszar m α krytyczny odpowiadający poziomowi istotności m ) w przypadku eksperymentu II zobaczyliśmy, że w przypadku ogólnej zależności procedura Benjaminiego - Hochberga przestaje gwarantować utrzymawanie FDR na poziomie α.
13 Konkluzje Wstęp otrzymany FWER jest zawsze w przypadku metody Hochberga, w porównaniu z metodą Bonferroniego (co jest ogólną własnością) widzimy, że w przypadku eksperymentu I FWER otrzymywany stosując procedurę Bonferroniego spada wraz ze wzrostem zależności statystyk do poziomu α m (wynika to z tego, że dla największych k zmienne losowe (T 1,..., T m ) są prawie sobie równe, zatem P(V 1) P(X Γ α ) = α m m, gdzie X N(0, 1), zaś Γ α to obszar m α krytyczny odpowiadający poziomowi istotności m ) w przypadku eksperymentu II zobaczyliśmy, że w przypadku ogólnej zależności procedura Benjaminiego - Hochberga przestaje gwarantować utrzymawanie FDR na poziomie α.
14 Konkluzje Wstęp otrzymany FWER jest zawsze w przypadku metody Hochberga, w porównaniu z metodą Bonferroniego (co jest ogólną własnością) widzimy, że w przypadku eksperymentu I FWER otrzymywany stosując procedurę Bonferroniego spada wraz ze wzrostem zależności statystyk do poziomu α m (wynika to z tego, że dla największych k zmienne losowe (T 1,..., T m ) są prawie sobie równe, zatem P(V 1) P(X Γ α ) = α m m, gdzie X N(0, 1), zaś Γ α to obszar m α krytyczny odpowiadający poziomowi istotności m ) w przypadku eksperymentu II zobaczyliśmy, że w przypadku ogólnej zależności procedura Benjaminiego - Hochberga przestaje gwarantować utrzymawanie FDR na poziomie α.
15 Cele estymacji FDR i pfdr estymator FDR jest fundamentalnym składnikiem algorytmu wykorzystującego q - wartości, pozwalającego na kontrolę FDR w przypadku tzw. słabej zależności nie da się stworzyć metody pozwalającej na kontrolę pfdr na ustalonym poziomie α < 1 (bo w przypadku, gdy m 0 = m cokolwiek byśmy zrobili pfdr = 1). Mając jednak konserwatywny estymator pfdr jesteśmy w stanie kontrolować ten współczynnik na tyle, na ile wyestymowana wartość nam pozwoli.
16 Cele estymacji FDR i pfdr estymator FDR jest fundamentalnym składnikiem algorytmu wykorzystującego q - wartości, pozwalającego na kontrolę FDR w przypadku tzw. słabej zależności nie da się stworzyć metody pozwalającej na kontrolę pfdr na ustalonym poziomie α < 1 (bo w przypadku, gdy m 0 = m cokolwiek byśmy zrobili pfdr = 1). Mając jednak konserwatywny estymator pfdr jesteśmy w stanie kontrolować ten współczynnik na tyle, na ile wyestymowana wartość nam pozwoli.
17 Wyprowadzenie estymatorów FDR i pfdr Wprowadźmy oznaczenia: Γ α - obszar krytyczny dla testu na poziomie istotności α V (Γ), W (Γ), R(Γ) - to nasze zmienne losowe V, W i R w sytuacji gdy testujemy wszystkie m hipotez dla obszaru krytycznego Γ (zajmujemy się sytuacją, gdy mamy m identycznych testów, a zatem wspólny obszar krytyczny oznacza wspólny poziom istotności) V 0 (Γ), W 0 (Γ), R 0 (Γ) - jak wyżej, tylko przy założeniu, że m 0 = m FDR(Γ α ), pfdr(γ α ) - odpowiednio FDR i pfdr gdy testujemy wszystkie m hipotez na poziomie istotności α. Na kolejnych slajdach znajdują się następujące 3 podejścia prowadzące do tych samych estymatorów FDR(Γ α ) i pfdr(γ α ): intuicujne histogramowe bayesowskiege.
18 Wyprowadzenie estymatorów FDR i pfdr Wprowadźmy oznaczenia: Γ α - obszar krytyczny dla testu na poziomie istotności α V (Γ), W (Γ), R(Γ) - to nasze zmienne losowe V, W i R w sytuacji gdy testujemy wszystkie m hipotez dla obszaru krytycznego Γ (zajmujemy się sytuacją, gdy mamy m identycznych testów, a zatem wspólny obszar krytyczny oznacza wspólny poziom istotności) V 0 (Γ), W 0 (Γ), R 0 (Γ) - jak wyżej, tylko przy założeniu, że m 0 = m FDR(Γ α ), pfdr(γ α ) - odpowiednio FDR i pfdr gdy testujemy wszystkie m hipotez na poziomie istotności α. Na kolejnych slajdach znajdują się następujące 3 podejścia prowadzące do tych samych estymatorów FDR(Γ α ) i pfdr(γ α ): intuicujne histogramowe bayesowskiege.
19 Wyprowadzenie estymatorów FDR i pfdr Wprowadźmy oznaczenia: Γ α - obszar krytyczny dla testu na poziomie istotności α V (Γ), W (Γ), R(Γ) - to nasze zmienne losowe V, W i R w sytuacji gdy testujemy wszystkie m hipotez dla obszaru krytycznego Γ (zajmujemy się sytuacją, gdy mamy m identycznych testów, a zatem wspólny obszar krytyczny oznacza wspólny poziom istotności) V 0 (Γ), W 0 (Γ), R 0 (Γ) - jak wyżej, tylko przy założeniu, że m 0 = m FDR(Γ α ), pfdr(γ α ) - odpowiednio FDR i pfdr gdy testujemy wszystkie m hipotez na poziomie istotności α. Na kolejnych slajdach znajdują się następujące 3 podejścia prowadzące do tych samych estymatorów FDR(Γ α ) i pfdr(γ α ): intuicujne histogramowe bayesowskiege.
20 Wyprowadzenie estymatorów FDR i pfdr Wprowadźmy oznaczenia: Γ α - obszar krytyczny dla testu na poziomie istotności α V (Γ), W (Γ), R(Γ) - to nasze zmienne losowe V, W i R w sytuacji gdy testujemy wszystkie m hipotez dla obszaru krytycznego Γ (zajmujemy się sytuacją, gdy mamy m identycznych testów, a zatem wspólny obszar krytyczny oznacza wspólny poziom istotności) V 0 (Γ), W 0 (Γ), R 0 (Γ) - jak wyżej, tylko przy założeniu, że m 0 = m FDR(Γ α ), pfdr(γ α ) - odpowiednio FDR i pfdr gdy testujemy wszystkie m hipotez na poziomie istotności α. Na kolejnych slajdach znajdują się następujące 3 podejścia prowadzące do tych samych estymatorów FDR(Γ α ) i pfdr(γ α ): intuicujne histogramowe bayesowskiege.
21 Wyprowadzenie estymatorów FDR i pfdr Wprowadźmy oznaczenia: Γ α - obszar krytyczny dla testu na poziomie istotności α V (Γ), W (Γ), R(Γ) - to nasze zmienne losowe V, W i R w sytuacji gdy testujemy wszystkie m hipotez dla obszaru krytycznego Γ (zajmujemy się sytuacją, gdy mamy m identycznych testów, a zatem wspólny obszar krytyczny oznacza wspólny poziom istotności) V 0 (Γ), W 0 (Γ), R 0 (Γ) - jak wyżej, tylko przy założeniu, że m 0 = m FDR(Γ α ), pfdr(γ α ) - odpowiednio FDR i pfdr gdy testujemy wszystkie m hipotez na poziomie istotności α. Na kolejnych slajdach znajdują się następujące 3 podejścia prowadzące do tych samych estymatorów FDR(Γ α ) i pfdr(γ α ): intuicujne histogramowe bayesowskiege.
22 Podejście intuicyjne przyjmując V R = 0 dla R = 0 mamy, że FDR(Γ α) = E [ ] dla dużych m mamy E V (Γα) R(Γ α) E[V (Γα)] E[R(Γ α)] [ V (Γα) R(Γ α) kładąc jako estymator E[R(Γ α )] obserwowalną zmienną R(Γ α ), robiąc konieczną korektę, mamy na razie formułę przybliżającą FDR: E[V oraz formułę przybliżającą pfdr: E[V (Γ α)] R(Γ α) 1 oznaczając π 0 = m0 m zauważmy, że intuicyjnie: E[V (Γ α )] π 0 E[R 0 (Γ α )] = π 0 mα, E[V (Γ α)] E[R 0 (Γ α)] Pr(R 0 (Γ = α)>0) π 0mα Pr(R 0 (Γ α)>0) ] (Γ α)] (R(Γ α) 1)Pr(R(Γ α)>0) Pr(R(Γ π α)>0) 0 dla odpowiednio dużego λ [0, 1] możnaby się spodziewać, że: π 0 = W (Γ λ) E(W 0 (Γ λ )), zatem kładziemy π 0 = W (Γ λ) m(1 λ) (obserwowalne) składając wszystko razem dostajemy sparametryzowane estymatory: W (Γ FDR λ (Γ α ) = λ )α (1 λ)[r(γ, α) 1] pfdr λ (Γ α ) = FDR λ (Γ α) Pr(R 0 (Γ α)>0) Pr(R 0 (Γ α ) > 0) otrzymujemy metodą Monte Carlo, o ile umiemy sensownie symulować m hipotez zerowych
23 Podejście intuicyjne przyjmując V R = 0 dla R = 0 mamy, że FDR(Γ α) = E [ ] dla dużych m mamy E V (Γα) R(Γ α) E[V (Γα)] E[R(Γ α)] [ V (Γα) R(Γ α) kładąc jako estymator E[R(Γ α )] obserwowalną zmienną R(Γ α ), robiąc konieczną korektę, mamy na razie formułę przybliżającą FDR: E[V oraz formułę przybliżającą pfdr: E[V (Γ α)] R(Γ α) 1 oznaczając π 0 = m0 m zauważmy, że intuicyjnie: E[V (Γ α )] π 0 E[R 0 (Γ α )] = π 0 mα, E[V (Γ α)] E[R 0 (Γ α)] Pr(R 0 (Γ = α)>0) π 0mα Pr(R 0 (Γ α)>0) ] (Γ α)] (R(Γ α) 1)Pr(R(Γ α)>0) Pr(R(Γ π α)>0) 0 dla odpowiednio dużego λ [0, 1] możnaby się spodziewać, że: π 0 = W (Γ λ) E(W 0 (Γ λ )), zatem kładziemy π 0 = W (Γ λ) m(1 λ) (obserwowalne) składając wszystko razem dostajemy sparametryzowane estymatory: W (Γ FDR λ (Γ α ) = λ )α (1 λ)[r(γ, α) 1] pfdr λ (Γ α ) = FDR λ (Γ α) Pr(R 0 (Γ α)>0) Pr(R 0 (Γ α ) > 0) otrzymujemy metodą Monte Carlo, o ile umiemy sensownie symulować m hipotez zerowych
24 Podejście intuicyjne przyjmując V R = 0 dla R = 0 mamy, że FDR(Γ α) = E [ ] dla dużych m mamy E V (Γα) R(Γ α) E[V (Γα)] E[R(Γ α)] [ V (Γα) R(Γ α) kładąc jako estymator E[R(Γ α )] obserwowalną zmienną R(Γ α ), robiąc konieczną korektę, mamy na razie formułę przybliżającą FDR: E[V oraz formułę przybliżającą pfdr: E[V (Γ α)] R(Γ α) 1 oznaczając π 0 = m0 m zauważmy, że intuicyjnie: E[V (Γ α )] π 0 E[R 0 (Γ α )] = π 0 mα, E[V (Γ α)] E[R 0 (Γ α)] Pr(R 0 (Γ = α)>0) π 0mα Pr(R 0 (Γ α)>0) ] (Γ α)] (R(Γ α) 1)Pr(R(Γ α)>0) Pr(R(Γ π α)>0) 0 dla odpowiednio dużego λ [0, 1] możnaby się spodziewać, że: π 0 = W (Γ λ) E(W 0 (Γ λ )), zatem kładziemy π 0 = W (Γ λ) m(1 λ) (obserwowalne) składając wszystko razem dostajemy sparametryzowane estymatory: W (Γ FDR λ (Γ α ) = λ )α (1 λ)[r(γ, α) 1] pfdr λ (Γ α ) = FDR λ (Γ α) Pr(R 0 (Γ α)>0) Pr(R 0 (Γ α ) > 0) otrzymujemy metodą Monte Carlo, o ile umiemy sensownie symulować m hipotez zerowych
25 Podejście intuicyjne przyjmując V R = 0 dla R = 0 mamy, że FDR(Γ α) = E [ ] dla dużych m mamy E V (Γα) R(Γ α) E[V (Γα)] E[R(Γ α)] [ V (Γα) R(Γ α) kładąc jako estymator E[R(Γ α )] obserwowalną zmienną R(Γ α ), robiąc konieczną korektę, mamy na razie formułę przybliżającą FDR: E[V oraz formułę przybliżającą pfdr: E[V (Γ α)] R(Γ α) 1 oznaczając π 0 = m0 m zauważmy, że intuicyjnie: E[V (Γ α )] π 0 E[R 0 (Γ α )] = π 0 mα, E[V (Γ α)] E[R 0 (Γ α)] Pr(R 0 (Γ = α)>0) π 0mα Pr(R 0 (Γ α)>0) ] (Γ α)] (R(Γ α) 1)Pr(R(Γ α)>0) Pr(R(Γ π α)>0) 0 dla odpowiednio dużego λ [0, 1] możnaby się spodziewać, że: π 0 = W (Γ λ) E(W 0 (Γ λ )), zatem kładziemy π 0 = W (Γ λ) m(1 λ) (obserwowalne) składając wszystko razem dostajemy sparametryzowane estymatory: W (Γ FDR λ (Γ α ) = λ )α (1 λ)[r(γ, α) 1] pfdr λ (Γ α ) = FDR λ (Γ α) Pr(R 0 (Γ α)>0) Pr(R 0 (Γ α ) > 0) otrzymujemy metodą Monte Carlo, o ile umiemy sensownie symulować m hipotez zerowych
26 Podejście intuicyjne przyjmując V R = 0 dla R = 0 mamy, że FDR(Γ α) = E [ ] dla dużych m mamy E V (Γα) R(Γ α) E[V (Γα)] E[R(Γ α)] [ V (Γα) R(Γ α) kładąc jako estymator E[R(Γ α )] obserwowalną zmienną R(Γ α ), robiąc konieczną korektę, mamy na razie formułę przybliżającą FDR: E[V oraz formułę przybliżającą pfdr: E[V (Γ α)] R(Γ α) 1 oznaczając π 0 = m0 m zauważmy, że intuicyjnie: E[V (Γ α )] π 0 E[R 0 (Γ α )] = π 0 mα, E[V (Γ α)] E[R 0 (Γ α)] Pr(R 0 (Γ = α)>0) π 0mα Pr(R 0 (Γ α)>0) ] (Γ α)] (R(Γ α) 1)Pr(R(Γ α)>0) Pr(R(Γ π α)>0) 0 dla odpowiednio dużego λ [0, 1] możnaby się spodziewać, że: π 0 = W (Γ λ) E(W 0 (Γ λ )), zatem kładziemy π 0 = W (Γ λ) m(1 λ) (obserwowalne) składając wszystko razem dostajemy sparametryzowane estymatory: W (Γ FDR λ (Γ α ) = λ )α (1 λ)[r(γ, α) 1] pfdr λ (Γ α ) = FDR λ (Γ α) Pr(R 0 (Γ α)>0) Pr(R 0 (Γ α ) > 0) otrzymujemy metodą Monte Carlo, o ile umiemy sensownie symulować m hipotez zerowych
27 Podejście intuicyjne przyjmując V R = 0 dla R = 0 mamy, że FDR(Γ α) = E [ ] dla dużych m mamy E V (Γα) R(Γ α) E[V (Γα)] E[R(Γ α)] [ V (Γα) R(Γ α) kładąc jako estymator E[R(Γ α )] obserwowalną zmienną R(Γ α ), robiąc konieczną korektę, mamy na razie formułę przybliżającą FDR: E[V oraz formułę przybliżającą pfdr: E[V (Γ α)] R(Γ α) 1 oznaczając π 0 = m0 m zauważmy, że intuicyjnie: E[V (Γ α )] π 0 E[R 0 (Γ α )] = π 0 mα, E[V (Γ α)] E[R 0 (Γ α)] Pr(R 0 (Γ = α)>0) π 0mα Pr(R 0 (Γ α)>0) ] (Γ α)] (R(Γ α) 1)Pr(R(Γ α)>0) Pr(R(Γ π α)>0) 0 dla odpowiednio dużego λ [0, 1] możnaby się spodziewać, że: π 0 = W (Γ λ) E(W 0 (Γ λ )), zatem kładziemy π 0 = W (Γ λ) m(1 λ) (obserwowalne) składając wszystko razem dostajemy sparametryzowane estymatory: W (Γ FDR λ (Γ α ) = λ )α (1 λ)[r(γ, α) 1] pfdr λ (Γ α ) = FDR λ (Γ α) Pr(R 0 (Γ α)>0) Pr(R 0 (Γ α ) > 0) otrzymujemy metodą Monte Carlo, o ile umiemy sensownie symulować m hipotez zerowych
28 Podejście intuicyjne przyjmując V R = 0 dla R = 0 mamy, że FDR(Γ α) = E [ ] dla dużych m mamy E V (Γα) R(Γ α) E[V (Γα)] E[R(Γ α)] [ V (Γα) R(Γ α) kładąc jako estymator E[R(Γ α )] obserwowalną zmienną R(Γ α ), robiąc konieczną korektę, mamy na razie formułę przybliżającą FDR: E[V oraz formułę przybliżającą pfdr: E[V (Γ α)] R(Γ α) 1 oznaczając π 0 = m0 m zauważmy, że intuicyjnie: E[V (Γ α )] π 0 E[R 0 (Γ α )] = π 0 mα, E[V (Γ α)] E[R 0 (Γ α)] Pr(R 0 (Γ = α)>0) π 0mα Pr(R 0 (Γ α)>0) ] (Γ α)] (R(Γ α) 1)Pr(R(Γ α)>0) Pr(R(Γ π α)>0) 0 dla odpowiednio dużego λ [0, 1] możnaby się spodziewać, że: π 0 = W (Γ λ) E(W 0 (Γ λ )), zatem kładziemy π 0 = W (Γ λ) m(1 λ) (obserwowalne) składając wszystko razem dostajemy sparametryzowane estymatory: W (Γ FDR λ (Γ α ) = λ )α (1 λ)[r(γ, α) 1] pfdr λ (Γ α ) = FDR λ (Γ α) Pr(R 0 (Γ α)>0) Pr(R 0 (Γ α ) > 0) otrzymujemy metodą Monte Carlo, o ile umiemy sensownie symulować m hipotez zerowych
29 Podejście histogramowe Przykładowy histogram gęstości p - wartości dla ok testów: Density of observed p values
30 Podejście histogramowe Kluczowy w tym podejściu jest: Fakt p - wartości odpowiadające hipotezom zerowym mają rozkład U(0, 1). Wnioski z niego są takie: E[V (Γ α )] = m 0 α = π 0 mα skoro p - wartości odpowiadające hipotezom zerowym mają rozkład U(0, 1), zaś p - wartości odpowiadające hipotezom alternatywnym są przede wszystkim skupione w okolicach 0, to należy się spodziewać, że pole pod kropkowaną kreską na obrazku odpowiada mniej więcej proporcji hipotez zerowych wśród wszystkich, a więc wysokość tej kreski jest etymatorem π 0 to na jakiej wysokości umieścimy kreskę zależy od naszego postrzegania, od którego miejsca histogram się wypłaszczył. Jeśli uznamy, że tym miejscem jest pewne λ, to wówczas krótka analiza obrazka prowadzi nas do estymatora: π 0 (λ) = #{pi >λ;i=1,...,m} m(1 λ) = W (Γ λ) m(1 λ)
31 Podejście histogramowe Kluczowy w tym podejściu jest: Fakt p - wartości odpowiadające hipotezom zerowym mają rozkład U(0, 1). Wnioski z niego są takie: E[V (Γ α )] = m 0 α = π 0 mα skoro p - wartości odpowiadające hipotezom zerowym mają rozkład U(0, 1), zaś p - wartości odpowiadające hipotezom alternatywnym są przede wszystkim skupione w okolicach 0, to należy się spodziewać, że pole pod kropkowaną kreską na obrazku odpowiada mniej więcej proporcji hipotez zerowych wśród wszystkich, a więc wysokość tej kreski jest etymatorem π 0 to na jakiej wysokości umieścimy kreskę zależy od naszego postrzegania, od którego miejsca histogram się wypłaszczył. Jeśli uznamy, że tym miejscem jest pewne λ, to wówczas krótka analiza obrazka prowadzi nas do estymatora: π 0 (λ) = #{pi >λ;i=1,...,m} m(1 λ) = W (Γ λ) m(1 λ)
32 Podejście histogramowe Kluczowy w tym podejściu jest: Fakt p - wartości odpowiadające hipotezom zerowym mają rozkład U(0, 1). Wnioski z niego są takie: E[V (Γ α )] = m 0 α = π 0 mα skoro p - wartości odpowiadające hipotezom zerowym mają rozkład U(0, 1), zaś p - wartości odpowiadające hipotezom alternatywnym są przede wszystkim skupione w okolicach 0, to należy się spodziewać, że pole pod kropkowaną kreską na obrazku odpowiada mniej więcej proporcji hipotez zerowych wśród wszystkich, a więc wysokość tej kreski jest etymatorem π 0 to na jakiej wysokości umieścimy kreskę zależy od naszego postrzegania, od którego miejsca histogram się wypłaszczył. Jeśli uznamy, że tym miejscem jest pewne λ, to wówczas krótka analiza obrazka prowadzi nas do estymatora: π 0 (λ) = #{pi >λ;i=1,...,m} m(1 λ) = W (Γ λ) m(1 λ)
33 Podejście histogramowe Kluczowy w tym podejściu jest: Fakt p - wartości odpowiadające hipotezom zerowym mają rozkład U(0, 1). Wnioski z niego są takie: E[V (Γ α )] = m 0 α = π 0 mα skoro p - wartości odpowiadające hipotezom zerowym mają rozkład U(0, 1), zaś p - wartości odpowiadające hipotezom alternatywnym są przede wszystkim skupione w okolicach 0, to należy się spodziewać, że pole pod kropkowaną kreską na obrazku odpowiada mniej więcej proporcji hipotez zerowych wśród wszystkich, a więc wysokość tej kreski jest etymatorem π 0 to na jakiej wysokości umieścimy kreskę zależy od naszego postrzegania, od którego miejsca histogram się wypłaszczył. Jeśli uznamy, że tym miejscem jest pewne λ, to wówczas krótka analiza obrazka prowadzi nas do estymatora: π 0 (λ) = #{pi >λ;i=1,...,m} m(1 λ) = W (Γ λ) m(1 λ)
34 Podejście histogramowe Dalej [ tak] jak poprzednio korzystamy z tego, że dla dużych m: E V (Γα) E[V (Γα)] R(Γ α) E[R(Γ, E[R(Γ α)] α)] estymujemy poprzez R(Γ α ) 1, zaś na mocy poprzedniego slajdu E[V (Γ α )] estymujemy jako π 0 (λ)mα dostając łącznie te same estymatory: FDR λ (Γ α ) = W (Γ λ )α (1 λ)[r(γ α ) 1], FDR λ (Γ α ) pfdr λ (Γ α ) = Pr(R 0 (Γ α ) > 0) Parametr λ wymaga optymalizacji, o czym będzie mowa jeszcze później.
35 Podejście bayesowskie Na poprzednich zajęciach pojawiło się: Twierdzenie Załóżmy, że wykonujemy m identycznych testów przy użyciu statystyk T 1,..., T m dla obszaru krytycznego Γ. Niech H 1,..., H n będą zmiennymi losowymi, t. że H i = 0 oznacza prawdziwość i - tej hipotezy, zaś H i = 1 - nieprawdziwość. Załóżmy, że (T i, H i ) są i.i.d., oraz że dla każdego i: (T i H i = 0) F 0, (T i H i = 1) F 1. Dalej załóżmy, że dla wszystkich i H i Bernoulli(1 π 0 ). Wówczas:. pfdr(γ) = π 0Pr(T Γ H = 0) Pr(T Γ) = Pr(H = 0 T Γ)
36 Podejście bayesowskie Okazuje się, że można dokonać w pewnym stopniu uogólnienia tego faktu na sytuację gdy nie zakładamy niezależności (T i, H i ), za to wprowadzamy luźniejsze założenie, że zachodzi tzw. słaba zależność, tzn: m 1(Ti Γ)(1 Hi ) P i=1 m Pr(T Γ H = 0) i i=1 (1 Hi ) m 1(Ti Γ)Hi i=1 m i=1 Hi Wówczas zachodzi: Twierdzenie P Pr(T Γ H = 1) gdy m. Przy powyższym poluźnieniu założeń: pfdr m (Γ) p.n. π 0Pr(T Γ H = 0) Pr(T Γ) gdzie pfdr m (Γ) oznacza pfdr(γ) dla pierwszych m statystyk.
37 Podejście bayesowskie w przypadku niezależności (T i, H i ) luźna zależność wynika z MPWL z luźną zależnością mamy do czynienia w sytuacji, gdy zależności występują lokalnie w grupach wzajemnie niezależnych w praktycznych zastosowaniach mamy często do czynienia właśnie z taką luźną zależnością, sensowne wydaje się więc budowanie estymatora pfdr(γ α ) na bazie formuły π0pr(t Γα H=0) Pr(T Γ α) kładąc w miejsce π 0 nasz estymator π 0 (λ) = W (Γ λ) m(1 λ), w miejsce Pr(T Γ α ) po prostu R(Γα) 1 m i mając Pr(T Γ α H = 0) = α, dostajemy estymator: pfdr λ (Γ α ) = W (Γ λ )α (1 λ)[r(γ α) 1] ponieważ jednak przy m FDR i pfdr są tym samym, zaś w praktyce nie mamy m, tylko jakieś ustalone m, skłonni jesteśmy przydzielić powyższy wzór jako estymator FDR(Γ α ), zaś jako estymator pfdr(γ α ) położyć na tej samej zasadzie co w poprzednich podejściach: pfdr λ (Γ α ) = FDR λ (Γ α) Pr(R 0 (Γ α)>0).
38 Podejście bayesowskie w przypadku niezależności (T i, H i ) luźna zależność wynika z MPWL z luźną zależnością mamy do czynienia w sytuacji, gdy zależności występują lokalnie w grupach wzajemnie niezależnych w praktycznych zastosowaniach mamy często do czynienia właśnie z taką luźną zależnością, sensowne wydaje się więc budowanie estymatora pfdr(γ α ) na bazie formuły π0pr(t Γα H=0) Pr(T Γ α) kładąc w miejsce π 0 nasz estymator π 0 (λ) = W (Γ λ) m(1 λ), w miejsce Pr(T Γ α ) po prostu R(Γα) 1 m i mając Pr(T Γ α H = 0) = α, dostajemy estymator: pfdr λ (Γ α ) = W (Γ λ )α (1 λ)[r(γ α) 1] ponieważ jednak przy m FDR i pfdr są tym samym, zaś w praktyce nie mamy m, tylko jakieś ustalone m, skłonni jesteśmy przydzielić powyższy wzór jako estymator FDR(Γ α ), zaś jako estymator pfdr(γ α ) położyć na tej samej zasadzie co w poprzednich podejściach: pfdr λ (Γ α ) = FDR λ (Γ α) Pr(R 0 (Γ α)>0).
39 Podejście bayesowskie w przypadku niezależności (T i, H i ) luźna zależność wynika z MPWL z luźną zależnością mamy do czynienia w sytuacji, gdy zależności występują lokalnie w grupach wzajemnie niezależnych w praktycznych zastosowaniach mamy często do czynienia właśnie z taką luźną zależnością, sensowne wydaje się więc budowanie estymatora pfdr(γ α ) na bazie formuły π0pr(t Γα H=0) Pr(T Γ α) kładąc w miejsce π 0 nasz estymator π 0 (λ) = W (Γ λ) m(1 λ), w miejsce Pr(T Γ α ) po prostu R(Γα) 1 m i mając Pr(T Γ α H = 0) = α, dostajemy estymator: pfdr λ (Γ α ) = W (Γ λ )α (1 λ)[r(γ α) 1] ponieważ jednak przy m FDR i pfdr są tym samym, zaś w praktyce nie mamy m, tylko jakieś ustalone m, skłonni jesteśmy przydzielić powyższy wzór jako estymator FDR(Γ α ), zaś jako estymator pfdr(γ α ) położyć na tej samej zasadzie co w poprzednich podejściach: pfdr λ (Γ α ) = FDR λ (Γ α) Pr(R 0 (Γ α)>0).
40 Podejście bayesowskie w przypadku niezależności (T i, H i ) luźna zależność wynika z MPWL z luźną zależnością mamy do czynienia w sytuacji, gdy zależności występują lokalnie w grupach wzajemnie niezależnych w praktycznych zastosowaniach mamy często do czynienia właśnie z taką luźną zależnością, sensowne wydaje się więc budowanie estymatora pfdr(γ α ) na bazie formuły π0pr(t Γα H=0) Pr(T Γ α) kładąc w miejsce π 0 nasz estymator π 0 (λ) = W (Γ λ) m(1 λ), w miejsce Pr(T Γ α ) po prostu R(Γα) 1 m i mając Pr(T Γ α H = 0) = α, dostajemy estymator: pfdr λ (Γ α ) = W (Γ λ )α (1 λ)[r(γ α) 1] ponieważ jednak przy m FDR i pfdr są tym samym, zaś w praktyce nie mamy m, tylko jakieś ustalone m, skłonni jesteśmy przydzielić powyższy wzór jako estymator FDR(Γ α ), zaś jako estymator pfdr(γ α ) położyć na tej samej zasadzie co w poprzednich podejściach: pfdr λ (Γ α ) = FDR λ (Γ α) Pr(R 0 (Γ α)>0).
41 Podejście bayesowskie w przypadku niezależności (T i, H i ) luźna zależność wynika z MPWL z luźną zależnością mamy do czynienia w sytuacji, gdy zależności występują lokalnie w grupach wzajemnie niezależnych w praktycznych zastosowaniach mamy często do czynienia właśnie z taką luźną zależnością, sensowne wydaje się więc budowanie estymatora pfdr(γ α ) na bazie formuły π0pr(t Γα H=0) Pr(T Γ α) kładąc w miejsce π 0 nasz estymator π 0 (λ) = W (Γ λ) m(1 λ), w miejsce Pr(T Γ α ) po prostu R(Γα) 1 m i mając Pr(T Γ α H = 0) = α, dostajemy estymator: pfdr λ (Γ α ) = W (Γ λ )α (1 λ)[r(γ α) 1] ponieważ jednak przy m FDR i pfdr są tym samym, zaś w praktyce nie mamy m, tylko jakieś ustalone m, skłonni jesteśmy przydzielić powyższy wzór jako estymator FDR(Γ α ), zaś jako estymator pfdr(γ α ) położyć na tej samej zasadzie co w poprzednich podejściach: pfdr λ (Γ α ) = FDR λ (Γ α) Pr(R 0 (Γ α)>0).
42 Najważniejsze własności FDR λ i pfdr λ 1 Jeśli statystyki testowe są niezależne, to niezależnie od λ: E[ FDR λ (Γ α )] FDR(Γ α ), E[ pfdr λ (Γ α )] pfdr(γ α ). Własność prawdziwa również w sytuacji ogólnej zależności, jeśli: E[R(Γ λ ) R(Γ α )] E[R(Γ λ)] E[R(Γ R(Γ α)] α) oraz E[V (Γα)] E[V (Γ α ) R(Γ α )] E[R(Γ R(Γ α)] α). 2 Jeśli (T i, H i ) są niezależne, to: lim pfdr λ (Γ α ) p.n. = π g(λ) 1 λ π 1 pfdr(γ α ) pfdr(γ α ), m π 0 gdzie π 1 = 1 π 0, a g(λ) to moc testu T i dla poziomu istotności λ. W sytuacji luźnej zależności prawdziwy jest analogiczny wzór: lim m pfdr λ (Γ α ) P = π g(λ) 1 λ π 1 π 0 lim pfdr m(γ α ). m
43 Najważniejsze własności FDR λ i pfdr λ 1 Jeśli statystyki testowe są niezależne, to niezależnie od λ: E[ FDR λ (Γ α )] FDR(Γ α ), E[ pfdr λ (Γ α )] pfdr(γ α ). Własność prawdziwa również w sytuacji ogólnej zależności, jeśli: E[R(Γ λ ) R(Γ α )] E[R(Γ λ)] E[R(Γ R(Γ α)] α) oraz E[V (Γα)] E[V (Γ α ) R(Γ α )] E[R(Γ R(Γ α)] α). 2 Jeśli (T i, H i ) są niezależne, to: lim pfdr λ (Γ α ) p.n. = π g(λ) 1 λ π 1 pfdr(γ α ) pfdr(γ α ), m π 0 gdzie π 1 = 1 π 0, a g(λ) to moc testu T i dla poziomu istotności λ. W sytuacji luźnej zależności prawdziwy jest analogiczny wzór: lim m pfdr λ (Γ α ) P = π g(λ) 1 λ π 1 π 0 lim pfdr m(γ α ). m
44 Uwagi odnośnie własności własność 1 daje nam gwarancję konserwatywności estymatorów nawet w przypadku zależności, o ile zachodzą pewne specyficzne własności nasuwające na myśl martyngały. Niemniej w praktyce bardzo rzadko się zdarza, aby konserwatywność nie zadziałała własność 2 daje niestety tylko złudzenie tego, że w przypadku niezależności bądź słabej zależności i dużych m estymator pfdr jest dokładnym, blisko trzymającym się prawdy przybliżeniem, czego przykłady zobaczymy niebawem. Niemniej własność ta może pozwolić sensownie dostroić parametr λ, o ile znamy wykres g(λ) (wybieramy wówczas takie λ, aby wartość 1 g(λ) 1 λ była jak najmniejsza) poza tym druga własność budzi w nas domysły, że im mniejsze π 0, tym mniej dokładny będzie nasz estymator - co również potwierdzi się w dalszych przykładach.
45 Uwagi odnośnie własności własność 1 daje nam gwarancję konserwatywności estymatorów nawet w przypadku zależności, o ile zachodzą pewne specyficzne własności nasuwające na myśl martyngały. Niemniej w praktyce bardzo rzadko się zdarza, aby konserwatywność nie zadziałała własność 2 daje niestety tylko złudzenie tego, że w przypadku niezależności bądź słabej zależności i dużych m estymator pfdr jest dokładnym, blisko trzymającym się prawdy przybliżeniem, czego przykłady zobaczymy niebawem. Niemniej własność ta może pozwolić sensownie dostroić parametr λ, o ile znamy wykres g(λ) (wybieramy wówczas takie λ, aby wartość 1 g(λ) 1 λ była jak najmniejsza) poza tym druga własność budzi w nas domysły, że im mniejsze π 0, tym mniej dokładny będzie nasz estymator - co również potwierdzi się w dalszych przykładach.
46 Uwagi odnośnie własności własność 1 daje nam gwarancję konserwatywności estymatorów nawet w przypadku zależności, o ile zachodzą pewne specyficzne własności nasuwające na myśl martyngały. Niemniej w praktyce bardzo rzadko się zdarza, aby konserwatywność nie zadziałała własność 2 daje niestety tylko złudzenie tego, że w przypadku niezależności bądź słabej zależności i dużych m estymator pfdr jest dokładnym, blisko trzymającym się prawdy przybliżeniem, czego przykłady zobaczymy niebawem. Niemniej własność ta może pozwolić sensownie dostroić parametr λ, o ile znamy wykres g(λ) (wybieramy wówczas takie λ, aby wartość 1 g(λ) 1 λ była jak najmniejsza) poza tym druga własność budzi w nas domysły, że im mniejsze π 0, tym mniej dokładny będzie nasz estymator - co również potwierdzi się w dalszych przykładach.
47 Przykład g(λ) Wstęp Tak wygląda wykres g(λ) w przypadku omawianego eksperymentu: g(t) poziom istotnosci t Spodziewalibyśmy się więc, że im większe λ, tym lepszy dostaniemy estymator w tym eksperymencie.
48 Przykłady estymacji FDR Kontynuując omawiany już eksperyment, postanowiliśmy zweryfikować zachowanie FDR λ gdy testujemy przy różnych poziomach istotności i w sytuacji różnych rodzajów zależności statystyk (T 1,..., T m ). Podobnie więc jak poprzednio dla ustalonych wartości m, m 0, α, Σ przeprowadziliśmy it = losowań statystyk (T 1,..., T m ) z rozkładu N(µ, Σ), po uśrednieniu dostając empirycznie wartość FDR w sytuacji gdy testujemy na poziomie istotności α. Skupiliśmy się na 3 rodzajach zależności: niezależność, tj. Σ = Id słaba zależność - tu zasymulowaliśmy silne zależności w kolejnych czwórkach statystyk, tzn. Σ = AA T, gdzie A jest macierzą 0.9N + 0.1Id po unormowaniu wierszami, przy czym N jest macierzą, w której kolejnych wierszach znajdują się kolejno 4 razy e 1, potem 4 razy e 2,... aż do 4 razy e m 4 ekstremalnie silna zależność - czyli Σ = AA T, gdzie A jest macierzą 0.9N + 0.1Id po unormowaniu wierszami, przy czym N[i, ] = e 1 i.
49 Przykłady estymacji FDR Dla każdego z tych trzech rodzajów zależności przeprowadziliśmy 2 eksperymenty - jeden dla m = 100 i m 0 = 10, a drugi dla m = 100 i m 0 = 90. W wyniku każdego takiego eksperymentu otrzymaliśmy dwa wykresy. Na obu wykresach parametr k przebiega od 1 do 20 wyznaczając stosowany w testach poziom istotności α k = (21 k). Dla danego k pierwszy wykres przedstawia odpowiednio: empiryczny FDR(Γ αk ) oraz empiryczną E[ FDR λ (Γ αk )] dla λ = 0.3, 0.6 oraz 0.9, zaś drugi wykres przedstawia dla poszczególnych k iloraz E[ FDR 0.9(Γ αk )] FDR(Γ αk ).
50 Niezależność, m = 100, m 0 = FDR estymator, lambda = 0.3 estymator, lambda = 0.6 estymator, lambda = k
51 Niezależność, m = 100, m 0 = k
52 Niezależność, m = 100, m 0 = FDR estymator, lambda = 0.3 estymator, lambda = 0.6 estymator, lambda = k
53 Niezależność, m = 100, m 0 = k
54 Słaba zależność, m = 100, m 0 = FDR estymator, lambda = 0.3 estymator, lambda = 0.6 estymator, lambda = k
55 Słaba zależność, m = 100, m 0 = k
56 Słaba zależność, m = 100, m 0 = FDR estymator, lambda = 0.3 estymator, lambda = 0.6 estymator, lambda = k
57 Słaba zależność, m = 100, m 0 = k
58 Silna zależność, m = 100, m 0 = FDR estymator, lambda = 0.3 estymator, lambda = 0.6 estymator, lambda = k
59 Silna zależność, m = 100, m 0 = k
60 Silna zależność, m = 100, m 0 = FDR estymator, lambda = 0.3 estymator, lambda = 0.6 estymator, lambda = k
61 Silna zależność, m = 100, m 0 = k
62 Wnioski Wstęp im większa zależność tym estymacja jest mniej dokładna w naszym eksperymencie im większe λ tym dokładność większa (bo funkcja mocy g(λ) jest wklęsła) potwierdza się konserwatywność estymatora, tzn. że E[ FDR λ (Γ α )] FDR λ (Γ α ) zauważmy, że niezależnie od rodzaju zależności, w sytuacji gdy m = 100 a m 0 = 90, czyli gdy π 0 = 0.9 estymacja jest dużo dokładniejsza niż wtedy, gdy m = 100 a m 0 = 10, czyli gdy π 0 = 0.1. Takie obserwacje są logiczne w kontekście wzoru: lim pfdr λ (Γ α ) p.n. = π g(λ) 1 λ π 1 pfdr(γ α ) m π 0 działającego dla niezależności i w analogicznej wersji dla słabej zależności. Generalnie im większe π 0, tym większej można się spodziewać dokładności.
63 Wnioski Wstęp im większa zależność tym estymacja jest mniej dokładna w naszym eksperymencie im większe λ tym dokładność większa (bo funkcja mocy g(λ) jest wklęsła) potwierdza się konserwatywność estymatora, tzn. że E[ FDR λ (Γ α )] FDR λ (Γ α ) zauważmy, że niezależnie od rodzaju zależności, w sytuacji gdy m = 100 a m 0 = 90, czyli gdy π 0 = 0.9 estymacja jest dużo dokładniejsza niż wtedy, gdy m = 100 a m 0 = 10, czyli gdy π 0 = 0.1. Takie obserwacje są logiczne w kontekście wzoru: lim pfdr λ (Γ α ) p.n. = π g(λ) 1 λ π 1 pfdr(γ α ) m π 0 działającego dla niezależności i w analogicznej wersji dla słabej zależności. Generalnie im większe π 0, tym większej można się spodziewać dokładności.
64 Wnioski Wstęp im większa zależność tym estymacja jest mniej dokładna w naszym eksperymencie im większe λ tym dokładność większa (bo funkcja mocy g(λ) jest wklęsła) potwierdza się konserwatywność estymatora, tzn. że E[ FDR λ (Γ α )] FDR λ (Γ α ) zauważmy, że niezależnie od rodzaju zależności, w sytuacji gdy m = 100 a m 0 = 90, czyli gdy π 0 = 0.9 estymacja jest dużo dokładniejsza niż wtedy, gdy m = 100 a m 0 = 10, czyli gdy π 0 = 0.1. Takie obserwacje są logiczne w kontekście wzoru: lim pfdr λ (Γ α ) p.n. = π g(λ) 1 λ π 1 pfdr(γ α ) m π 0 działającego dla niezależności i w analogicznej wersji dla słabej zależności. Generalnie im większe π 0, tym większej można się spodziewać dokładności.
65 Wnioski Wstęp im większa zależność tym estymacja jest mniej dokładna w naszym eksperymencie im większe λ tym dokładność większa (bo funkcja mocy g(λ) jest wklęsła) potwierdza się konserwatywność estymatora, tzn. że E[ FDR λ (Γ α )] FDR λ (Γ α ) zauważmy, że niezależnie od rodzaju zależności, w sytuacji gdy m = 100 a m 0 = 90, czyli gdy π 0 = 0.9 estymacja jest dużo dokładniejsza niż wtedy, gdy m = 100 a m 0 = 10, czyli gdy π 0 = 0.1. Takie obserwacje są logiczne w kontekście wzoru: lim pfdr λ (Γ α ) p.n. = π g(λ) 1 λ π 1 pfdr(γ α ) m π 0 działającego dla niezależności i w analogicznej wersji dla słabej zależności. Generalnie im większe π 0, tym większej można się spodziewać dokładności.
66 Przykłady estymacji pfdr Znów odwołaliśmy się do naszego bazowego eksperymentu. Przeprowadziliśmy w przypadku niezależności dla m = 100, m 0 = 10 oraz m = 100, m 0 = 90 analogiczną procedurę co dla estymacji FDR, tym razem porównując empiryczny pfdr z estymatorem, dokonując it = iteracji. Parametr k przebiega od 1 do 40 zadając poziom istotności α = (40 k). Potrzebne Pr(R 0 (Γ αk ) > 0) dla estymatora pfdr otrzymaliśmy symulując m hipotez zerowych w następujący sposób: jeśli X oznacza macierz it m rezultatów otrzymanych z powyższych iteracji, to it - krotną symulację m hipotez zerowych dostajemy automatycznie po wycentrowaniu po kolumnach macierzy X.
67 Niezależność, m = 100, m 0 = pfdr estymator, lambda = 0.3 estymator, lambda = 0.6 estymator, lambda = k
68 Niezależność, m = 100, m 0 = k
69 Niezależność, m = 100, m 0 = pfdr estymator, lambda = 0.3 estymator, lambda = 0.6 estymator, lambda = k
70 Niezależność, m = 100, m 0 = k
71 Wnioski Wstęp Fakt konserwatywność, wzrost dokładności wraz ze wzrostem π 0 ale dla α dostatecznie małych estymator zaczyna dziwnie uciekać. Nie jest to jednak przypadek. Przypomnijmy zachodzący w przypadku niezależności wzór: lim pfdr λ (Γ α ) p.n. = π g(λ) 1 λ π 1 pfdr(γ α ) m π 0 który mówi o sytuacji, gdy α noże być nawet bardzo małe ale ustalone, zaś m. Tu mamy do czynienia z sytuacją odwrotną: m choćby bardzo duże - jest ustalone, zaś α 0. Okazuje się, że w takiej sytuacji zachodzi: lim α 0 FDR λ (Γ α ) = 0, a jeśli założyć (co jest sensowne), że Pr(R 0 (Γ α ) > 0) 1 B, gdzie B to ilość iteracji służących do wyestymowania Pr(R 0 (Γ α ) > 0), to wtedy: lim α 0 pfdr λ (Γ α ) = π 0.
72 Mikromacierz DNA Rozpatrzmy macierz X rozmiaru m n, gdzie pierwsze n 0 kolumn odpowiada przypadkom typu A, zaś pozostałe n 1 kolumn - przypadkom typu B. Wiersz i - ty odpowiada ekspresji i - tego genu dla poszczególnych n przypadków. Naszym zadaniem jest wychwycić te geny, których ekspresja jest istotnie różna w zależności od typu przypadku. Dokonujemy więc dla każdego z m genów testu t - studenta przy ustalonym obszarze krytycznym Γ dla przypadku nieznanych wariancji i hipotezy zerowej: równe średnie, przeciwko alternatywie: nierówne. Możemy też zastosować nasz estymator pfdr λ. Stają przed nami wówczas następujące pytania: skąd wziąć sensowne symulacje m hipotez zerowych w celu wyliczenia Pr(R 0 (Γ) > 0)? w jaki sposób wybrać λ? Skupimy się na razie na drugim problemie.
73 Wybór optymalnego λ Interesuje nas λ best = arg min λ [0,1] E[( pfdr λ (Γ α ) pfdr(γ α )) 2 ] = arg min λ [0,1] [wariancja( pfdr λ (Γ α )) + (obciazenie( pfdr λ (Γ α ))) 2 ]. W przypadku naszej mikromacierzy DNA: X spodziewamy się, że kolumny - przypadki są od siebie niezależne, podczas gdy być może silne zależności występują pomiędzy wierszami, czyli ekspresjami poszczególnych genów. W takiej sytuacji sensownym estymatorem wariancji jest tzw. estymator scyzorykowy : var λ = n i=1 ( pfdr ( i) ) 2 λ (Γ α ) pfdr λ (Γ α ) gdzie pfdr ( i) λ (Γ α ) to wyestymowany pfdr na bazie naszej tabeli X z wyrzuconą i - tą kolumną. n
74 Wybór optymalnego λ Interesuje nas λ best = arg min λ [0,1] E[( pfdr λ (Γ α ) pfdr(γ α )) 2 ] = arg min λ [0,1] [wariancja( pfdr λ (Γ α )) + (obciazenie( pfdr λ (Γ α ))) 2 ]. W przypadku naszej mikromacierzy DNA: X spodziewamy się, że kolumny - przypadki są od siebie niezależne, podczas gdy być może silne zależności występują pomiędzy wierszami, czyli ekspresjami poszczególnych genów. W takiej sytuacji sensownym estymatorem wariancji jest tzw. estymator scyzorykowy : var λ = n i=1 ( pfdr ( i) ) 2 λ (Γ α ) pfdr λ (Γ α ) gdzie pfdr ( i) λ (Γ α ) to wyestymowany pfdr na bazie naszej tabeli X z wyrzuconą i - tą kolumną. n
75 Wybór optymalnego λ Dla wyestymowania obciążenia, wobec braku wiedzy ile wynosi rzeczywiste pfdr(γ α ), musimy je czymś zastąpić. Ponieważ nasz estymator spełnia min λ E[( pfdr λ (Γ α )] pfdr(γ α ), to najsensowniej zastąpić pfdr(γ α ) przez min λ [0,1]( pfdr λ (Γ α ). Dostajemy więc estymator obciążenia w kwadracie: bias 2 ) 2 λ = ( pfdr λ (Γ α ) min ( pfdr λ (Γ α ) λ [0,1] następnie dla uwspólnienia skali tworzymy: bias 2 λ = bias 2 λ median λ [0,1] ( bias 2 λ ), var λ = var λ median λ [0,1] ( var λ ) 2 oznaczając MSE(λ) = biasλ + var λ, zadajemy estymator optymalnego λ jako: λ = arg min λ [0,1] MSE(λ), który w praktyce możemy wyznaczyć zastępując przedział [0, 1] siatką, np. {0, 0.05, 0.10,..., 0.95}.
76 Wybór optymalnego λ Dla wyestymowania obciążenia, wobec braku wiedzy ile wynosi rzeczywiste pfdr(γ α ), musimy je czymś zastąpić. Ponieważ nasz estymator spełnia min λ E[( pfdr λ (Γ α )] pfdr(γ α ), to najsensowniej zastąpić pfdr(γ α ) przez min λ [0,1]( pfdr λ (Γ α ). Dostajemy więc estymator obciążenia w kwadracie: bias 2 ) 2 λ = ( pfdr λ (Γ α ) min ( pfdr λ (Γ α ) λ [0,1] następnie dla uwspólnienia skali tworzymy: bias 2 λ = bias 2 λ median λ [0,1] ( bias 2 λ ), var λ = var λ median λ [0,1] ( var λ ) 2 oznaczając MSE(λ) = biasλ + var λ, zadajemy estymator optymalnego λ jako: λ = arg min λ [0,1] MSE(λ), który w praktyce możemy wyznaczyć zastępując przedział [0, 1] siatką, np. {0, 0.05, 0.10,..., 0.95}.
77 Wybór optymalnego λ Dla wyestymowania obciążenia, wobec braku wiedzy ile wynosi rzeczywiste pfdr(γ α ), musimy je czymś zastąpić. Ponieważ nasz estymator spełnia min λ E[( pfdr λ (Γ α )] pfdr(γ α ), to najsensowniej zastąpić pfdr(γ α ) przez min λ [0,1]( pfdr λ (Γ α ). Dostajemy więc estymator obciążenia w kwadracie: bias 2 ) 2 λ = ( pfdr λ (Γ α ) min ( pfdr λ (Γ α ) λ [0,1] następnie dla uwspólnienia skali tworzymy: bias 2 λ = bias 2 λ median λ [0,1] ( bias 2 λ ), var λ = var λ median λ [0,1] ( var λ ) 2 oznaczając MSE(λ) = biasλ + var λ, zadajemy estymator optymalnego λ jako: λ = arg min λ [0,1] MSE(λ), który w praktyce możemy wyznaczyć zastępując przedział [0, 1] siatką, np. {0, 0.05, 0.10,..., 0.95}.
78 Definicja Wstęp p-wartość minimalny poziom istotności, przy którym zaobserwowana wartość t statystyki testowej T spowoduje podjęcie decyzji o odrzuceniu H 0 Wprowadzamy indeksowaną parametrem α rodzinę obszarów krytycznych (obszarów odrzuceń) Γ α taką, że: P(T Γ α H 0 jest prawdziwa) = α Wtedy p-wartość definiujemy następująco: p(t) := inf P(T Γ α H 0 jest prawdziwa) {α:t Γ α} Im mniejsza jest p-wartość, tym mocniejsze staje się przekonanie testującego o fałszywości hipotezy zerowej, a prawdziwości hipotezy alternatywnej.
79 Definicja Wstęp p-wartość minimalny poziom istotności, przy którym zaobserwowana wartość t statystyki testowej T spowoduje podjęcie decyzji o odrzuceniu H 0 Wprowadzamy indeksowaną parametrem α rodzinę obszarów krytycznych (obszarów odrzuceń) Γ α taką, że: P(T Γ α H 0 jest prawdziwa) = α Wtedy p-wartość definiujemy następująco: p(t) := inf P(T Γ α H 0 jest prawdziwa) {α:t Γ α} Im mniejsza jest p-wartość, tym mocniejsze staje się przekonanie testującego o fałszywości hipotezy zerowej, a prawdziwości hipotezy alternatywnej.
80 Definicja Wstęp p-wartość minimalny poziom istotności, przy którym zaobserwowana wartość t statystyki testowej T spowoduje podjęcie decyzji o odrzuceniu H 0 Wprowadzamy indeksowaną parametrem α rodzinę obszarów krytycznych (obszarów odrzuceń) Γ α taką, że: P(T Γ α H 0 jest prawdziwa) = α Wtedy p-wartość definiujemy następująco: p(t) := inf P(T Γ α H 0 jest prawdziwa) {α:t Γ α} Im mniejsza jest p-wartość, tym mocniejsze staje się przekonanie testującego o fałszywości hipotezy zerowej, a prawdziwości hipotezy alternatywnej.
81 Definicja Wstęp q-wartość Dla ustalonej wartości t statystyki testowej T q-wartość definiujemy następująco: q-wartość(t) = inf pfdr(γ α) {α:t Γ α} Z powyższej definicji wynika, że q-wartość to najmniejsza wartość miary pfdr, przy której zobserwowana wartość statystyki testowej prowadzi do odrzucenia hipotezy zerowej H 0. Czasem q-wartość definuje się jako: q-wartość(t) = inf P(H = 0 T Γ α) {α:t Γ α} Definicja ta jest równoważna poprzedniej w sytuacji, gdy statystyki testowe są niezależne, a zbliżona dla dużych m i słabej zależności.
82 Definicja Wstęp q-wartość Dla ustalonej wartości t statystyki testowej T q-wartość definiujemy następująco: q-wartość(t) = inf pfdr(γ α) {α:t Γ α} Z powyższej definicji wynika, że q-wartość to najmniejsza wartość miary pfdr, przy której zobserwowana wartość statystyki testowej prowadzi do odrzucenia hipotezy zerowej H 0. Czasem q-wartość definuje się jako: q-wartość(t) = inf P(H = 0 T Γ α) {α:t Γ α} Definicja ta jest równoważna poprzedniej w sytuacji, gdy statystyki testowe są niezależne, a zbliżona dla dużych m i słabej zależności.
83 Definicja Wstęp q-wartość Dla ustalonej wartości t statystyki testowej T q-wartość definiujemy następująco: q-wartość(t) = inf pfdr(γ α) {α:t Γ α} Z powyższej definicji wynika, że q-wartość to najmniejsza wartość miary pfdr, przy której zobserwowana wartość statystyki testowej prowadzi do odrzucenia hipotezy zerowej H 0. Czasem q-wartość definuje się jako: q-wartość(t) = inf P(H = 0 T Γ α) {α:t Γ α} Definicja ta jest równoważna poprzedniej w sytuacji, gdy statystyki testowe są niezależne, a zbliżona dla dużych m i słabej zależności.
84 Definicja cd. Wstęp m hipotez m statystyk testowych odpowiadających każdej hipotezie: T 1,..., T m m p-wartości odpowiadających każdej hipotezie: p 1,..., p m p-wartości porządkujemy w kolejności niemalejącej: p (1)... p (m) Wtedy, ponieważ dla dużych m FDR pfdr, określamy: q(p (i) ) = min FDR(t) {t p (i) } co przy znajomości FDR(t) możemy zapisać jako: ˆq(p (i) ) = min FDR(t) {t p (i) }
85 Wykres zależności q-wartości od p-wartości b q values p values Uwaga! ˆq jest funkcją niemalejącą ze względu na niemalejące wartości p (i)
86 Algorytm estymacji q-wartości 1 Porządkujemy p-wartości w kolejności niemalejącej: p (1)... p (m) 2 Dla wartości parametru λ = 0, 01; 0, 02;...; 0, 99 obliczamy wartość: ˆπ 0 (λ) = #(p (i)>λ) m(1 λ) i rysujemy wykres zależności ˆπ 0 od λ:
87 Wykres zależności ˆπ 0 od λ π^0(λ) λ
88 Algorytm estymacji q-wartości cd. 3 Używając interpolacji wielomianami trzeciego stopnia (cubic splane) szukam ˆf - najlepszego przybliżenia funkcji ˆπ 0 zależnej od λ 4 Przyjmujemy, że: ˆπ 0 =ˆf (1) 5 Liczymy: ˆπ 0 m t ˆq(p (m) ) = min t p (m) #(j : p j t) = ˆπ 0 p (m) 6 Dla i = m 1, m 2,..., 1 liczymy: ˆq(p (i) ) = min t p (i) ˆπ 0 m t #(j : p j t) = min( ˆπ 0 m p (i), ˆq(p (i+1) )) i 7 Wyestymowaną q-wartością dla i ej hipotezy będzie ˆq(p (i) ).
89 Przykład Wstęp Mamy dwie grupy pacjentów: Pierwsza grupa Chorzy na nowotwór typu A Liczebność n 1 =7 Druga grupa Chorzy na nowotwór typu B Liczebność n 2 =8 Cel Chcemy znaleźć jak największą liczbę genów o istotnie różnych poziomach aktywności (ekspresji) (oczywiście używając FDR i związane z nim q-wartości)
90 Będziemy korzystać z testu t Studenta dla równoważnych dwóch populacji o niejednorodnych wariancjach. Testujemy istotność różnic w poziomach ekspresji dla każdego spośród m = 3170 genów. X i -poziom ekspresji i-tego genu w pierwszej grupie pacjentów Y i -poziom ekspresji i-tego genu w drugiej grupie pacjentów i {1,..., 3170} Niech: X i N(m i1, σ i1 ) Y i N(m i2, σ i2 )
91 Testujemy m hipotez: wobec H i 0 : m i1 m i2 = 0 H i 1 : m i1 m i2 0 Transformujemy wartości tych poziomów ekspresji za pomocą funkcji log 2 ( )i stosujemy statystykę testową. Statystyka testowa ma postać: s 2 i1 n 1 T i = x i2 x i1, + s2 i2 n 2 gdzie: x i1, x i2 -próbkowa średnia odpowiednio dla pierwszej i drugiej populacji si1 2, s2 i2-próbkowa wariancja odpowiednio dla pierwszej i drugiej populacji
92 Szacowanie p-wartości Przy założeniu prawdziwości hipotezy zerowej rozkład statystyki T i nie jest do końca jasny, dlatego odpowiednie p-wartości oszacujemy za pomocą metody permutacyjnej. W naszym przypaku p i = P( T i t i H i = 0), więc przydałyby się nam symulacje hipotez zerowych, w celu empirycznego wyliczenia p-wartości. Jeśli X oznacza macierz, której kolejne wiersze dla i {1,..., 3170} to (X i, Y i ), to wówczas możemy zasymulować m = 3170 hipotez zerowych poprzez permutację kolumn tej macierzy (zachowując strukturę zależności). Wykonując takie permutacje B razy, otrzymamy mb przykładów hipotezy zerowej.
93 Szacowanie p-wartości Przy założeniu prawdziwości hipotezy zerowej rozkład statystyki T i nie jest do końca jasny, dlatego odpowiednie p-wartości oszacujemy za pomocą metody permutacyjnej. W naszym przypaku p i = P( T i t i H i = 0), więc przydałyby się nam symulacje hipotez zerowych, w celu empirycznego wyliczenia p-wartości. Jeśli X oznacza macierz, której kolejne wiersze dla i {1,..., 3170} to (X i, Y i ), to wówczas możemy zasymulować m = 3170 hipotez zerowych poprzez permutację kolumn tej macierzy (zachowując strukturę zależności). Wykonując takie permutacje B razy, otrzymamy mb przykładów hipotezy zerowej.
94 Szacowanie p-wartości Przy założeniu prawdziwości hipotezy zerowej rozkład statystyki T i nie jest do końca jasny, dlatego odpowiednie p-wartości oszacujemy za pomocą metody permutacyjnej. W naszym przypaku p i = P( T i t i H i = 0), więc przydałyby się nam symulacje hipotez zerowych, w celu empirycznego wyliczenia p-wartości. Jeśli X oznacza macierz, której kolejne wiersze dla i {1,..., 3170} to (X i, Y i ), to wówczas możemy zasymulować m = 3170 hipotez zerowych poprzez permutację kolumn tej macierzy (zachowując strukturę zależności). Wykonując takie permutacje B razy, otrzymamy mb przykładów hipotezy zerowej.
Testowanie hipotez statystycznych
9 października 2008 ...czyli definicje na rozgrzewkę n-elementowa próba losowa - wektor n zmiennych losowych (X 1,..., X n ); intuicyjnie: wynik n eksperymentów realizacja próby (X 1,..., X n ) w ω Ω :
Testowanie hipotez. Hipoteza prosta zawiera jeden element, np. H 0 : θ = 2, hipoteza złożona zawiera więcej niż jeden element, np. H 0 : θ > 4.
Testowanie hipotez Niech X = (X 1... X n ) będzie próbą losową na przestrzeni X zaś P = {P θ θ Θ} rodziną rozkładów prawdopodobieństwa określonych na przestrzeni próby X. Definicja 1. Hipotezą zerową Θ
Idea. θ = θ 0, Hipoteza statystyczna Obszary krytyczne Błąd pierwszego i drugiego rodzaju p-wartość
Idea Niech θ oznacza parametr modelu statystycznego. Dotychczasowe rozważania dotyczyły metod estymacji tego parametru. Teraz zamiast szacować nieznaną wartość parametru będziemy weryfikowali hipotezę
Testowanie hipotez statystycznych.
Bioinformatyka Wykład 4 Wrocław, 17 października 2011 Temat. Weryfikacja hipotez statystycznych dotyczących wartości oczekiwanej w dwóch populacjach o rozkładach normalnych. Model 3. Porównanie średnich
WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 9 i 10 - Weryfikacja hipotez statystycznych
WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 9 i 10 - Weryfikacja hipotez statystycznych Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 9 i 10 1 / 30 TESTOWANIE HIPOTEZ STATYSTYCZNYCH
Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1
Weryfikacja hipotez statystycznych KG (CC) Statystyka 26 V 2009 1 / 1 Sformułowanie problemu Weryfikacja hipotez statystycznych jest drugą (po estymacji) metodą uogólniania wyników uzyskanych w próbie
Statystyka matematyczna Testowanie hipotez i estymacja parametrów. Wrocław, r
Statystyka matematyczna Testowanie hipotez i estymacja parametrów Wrocław, 18.03.2016r Plan wykładu: 1. Testowanie hipotez 2. Etapy testowania hipotez 3. Błędy 4. Testowanie wielokrotne 5. Estymacja parametrów
Wykład 2 Hipoteza statystyczna, test statystyczny, poziom istotn. istotności, p-wartość i moc testu
Wykład 2 Hipoteza statystyczna, test statystyczny, poziom istotności, p-wartość i moc testu Wrocław, 01.03.2017r Przykład 2.1 Właściciel firmy produkującej telefony komórkowe twierdzi, że wśród jego produktów
Prawdopodobieństwo i statystyka
Wykład XI: Testowanie hipotez statystycznych 12 stycznia 2015 Przykład Motywacja X 1, X 2,..., X N N (µ, σ 2 ), Y 1, Y 2,..., Y M N (ν, δ 2 ). Chcemy sprawdzić, czy µ = ν i σ 2 = δ 2, czyli że w obu populacjach
Wykład 1 Próba i populacja. Estymacja parametrów z wykorzystaniem metody bootstrap
Wykład 1 Próba i populacja. Estymacja parametrów z wykorzystaniem metody bootstrap Magdalena Frąszczak Wrocław, 21.02.2018r Tematyka Wykładów: Próba i populacja. Estymacja parametrów z wykorzystaniem metody
Testowanie hipotez statystycznych.
Bioinformatyka Wykład 6 Wrocław, 7 listopada 2011 Temat. Weryfikacja hipotez statystycznych dotyczących proporcji. Test dla proporcji. Niech X 1,..., X n będzie próbą statystyczną z 0-1. Oznaczmy odpowiednio
Statystyka Matematyczna Anna Janicka
Statystyka Matematyczna Anna Janicka wykład X, 9.05.206 TESTOWANIE HIPOTEZ STATYSTYCZNYCH II: PORÓWNYWANIE TESTÓW Plan na dzisiaj 0. Przypomnienie potrzebnych definicji. Porównywanie testów 2. Test jednostajnie
STATYSTYKA
Wykład 1 20.02.2008r. 1. ROZKŁADY PRAWDOPODOBIEŃSTWA 1.1 Rozkład dwumianowy Rozkład dwumianowy, 0 1 Uwaga: 1, rozkład zero jedynkowy. 1 ; 1,2,, Fakt: Niech,, będą niezależnymi zmiennymi losowymi o jednakowym
Testowanie hipotez statystycznych.
Statystyka Wykład 10 Wrocław, 22 grudnia 2011 Testowanie hipotez statystycznych Definicja. Hipotezą statystyczną nazywamy stwierdzenie dotyczące parametrów populacji. Definicja. Dwie komplementarne w problemie
Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/
Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/ Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Głęboka 28, bud. CIW, p. 221 e-mail: zdzislaw.otachel@up.lublin.pl
Kolokwium ze statystyki matematycznej
Kolokwium ze statystyki matematycznej 28.05.2011 Zadanie 1 Niech X będzie zmienną losową z rozkładu o gęstości dla, gdzie 0 jest nieznanym parametrem. Na podstawie pojedynczej obserwacji weryfikujemy hipotezę
Własności statystyczne regresji liniowej. Wykład 4
Własności statystyczne regresji liniowej Wykład 4 Plan Własności zmiennych losowych Normalna regresja liniowa Własności regresji liniowej Literatura B. Hansen (2017+) Econometrics, Rozdział 5 Własności
Wykład 12 Testowanie hipotez dla współczynnika korelacji
Wykład 12 Testowanie hipotez dla współczynnika korelacji Wrocław, 23 maja 2018 Współczynnik korelacji Niech będą dane dwie próby danych X = (X 1, X 2,..., X n ) oraz Y = (Y 1, Y 2,..., Y n ). Współczynnikiem
Statystyka Matematyczna Anna Janicka
Statystyka Matematyczna Anna Janicka wykład IX, 25.04.2016 TESTOWANIE HIPOTEZ STATYSTYCZNYCH Plan na dzisiaj 1. Hipoteza statystyczna 2. Test statystyczny 3. Błędy I-go i II-go rodzaju 4. Poziom istotności,
Statystyka matematyczna dla leśników
Statystyka matematyczna dla leśników Wydział Leśny Kierunek leśnictwo Studia Stacjonarne I Stopnia Rok akademicki 03/04 Wykład 5 Testy statystyczne Ogólne zasady testowania hipotez statystycznych, rodzaje
Wykład 12 Testowanie hipotez dla współczynnika korelacji
Wykład 12 Testowanie hipotez dla współczynnika korelacji Wrocław, 24 maja 2017 Współczynnik korelacji Niech będą dane dwie próby danych X = (X 1, X 2,..., X n ) oraz Y = (Y 1, Y 2,..., Y n ). Współczynnikiem
Stanisław Cichocki Natalia Nehrebecka. Wykład 7
Stanisław Cichocki Natalia Nehrebecka Wykład 7 1 1. Metoda Największej Wiarygodności MNW 2. Założenia MNW 3. Własności estymatorów MNW 4. Testowanie hipotez w MNW 2 1. Metoda Największej Wiarygodności
Testowanie hipotez statystycznych.
Bioinformatyka Wykład 9 Wrocław, 5 grudnia 2011 Temat. Test zgodności χ 2 Pearsona. Statystyka χ 2 Pearsona Rozpatrzmy ciąg niezależnych zmiennych losowych X 1,..., X n o jednakowym dyskretnym rozkładzie
Monte Carlo, bootstrap, jacknife
Monte Carlo, bootstrap, jacknife Literatura Bruce Hansen (2012 +) Econometrics, ze strony internetowej: http://www.ssc.wisc.edu/~bhansen/econometrics/ Monte Carlo: rozdział 8.8, 8.9 Bootstrap: rozdział
Wnioskowanie statystyczne i weryfikacja hipotez statystycznych
Wnioskowanie statystyczne i weryfikacja hipotez statystycznych Wnioskowanie statystyczne Wnioskowanie statystyczne obejmuje następujące czynności: Sformułowanie hipotezy zerowej i hipotezy alternatywnej.
Statystyczna analiza danych
Statystyczna analiza danych Testowanie wielu hipotez statystycznych na raz Ewa Szczurek szczurek@mimuw.edu.pl Instytut Informatyki Uniwersytet Warszawski 1/31 Zdechła ryba i emocje http://www.wired.com/2009/09/fmrisalmon/
Statystyka matematyczna. Wykład IV. Weryfikacja hipotez statystycznych
Statystyka matematyczna. Wykład IV. e-mail:e.kozlovski@pollub.pl Spis treści 1 2 3 Definicja 1 Hipoteza statystyczna jest to przypuszczenie dotyczące rozkładu (wielkości parametru lub rodzaju) zmiennej
Zadanie 1 Zakładając liniową relację między wydatkami na obuwie a dochodem oszacować MNK parametry modelu: y t. X 1 t. Tabela 1.
tel. 44 683 1 55 tel. kom. 64 566 811 e-mail: biuro@wszechwiedza.pl Zadanie 1 Zakładając liniową relację między wydatkami na obuwie a dochodem oszacować MNK parametry modelu: gdzie: y t X t y t = 1 X 1
166 Wstęp do statystyki matematycznej
166 Wstęp do statystyki matematycznej Etap trzeci realizacji procesu analizy danych statystycznych w zasadzie powinien rozwiązać nasz zasadniczy problem związany z identyfikacją cechy populacji generalnej
Prawdopodobieństwo i statystyka r.
Prawdopodobieństwo i statystyka 9.06.999 r. Zadanie. Rzucamy pięcioma kośćmi do gry. Następnie rzucamy ponownie tymi kośćmi, na których nie wypadły szóstki. W trzeciej rundzie rzucamy tymi kośćmi, na których
HISTOGRAM. Dr Adam Michczyński - METODY ANALIZY DANYCH POMIAROWYCH Liczba pomiarów - n. Liczba pomiarów - n k 0.5 N = N =
HISTOGRAM W pewnych przypadkach interesuje nas nie tylko określenie prawdziwej wartości mierzonej wielkości, ale także zbadanie całego rozkład prawdopodobieństwa wyników pomiarów. W takim przypadku wyniki
WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 7 i 8 - Efektywność estymatorów, przedziały ufności
WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 7 i 8 - Efektywność estymatorów, przedziały ufności Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 7 i 8 1 / 9 EFEKTYWNOŚĆ ESTYMATORÓW, próba
Wydział Matematyki. Testy zgodności. Wykład 03
Wydział Matematyki Testy zgodności Wykład 03 Testy zgodności W testach zgodności badamy postać rozkładu teoretycznego zmiennej losowej skokowej lub ciągłej. Weryfikują one stawiane przez badaczy hipotezy
WNIOSKOWANIE W MODELU REGRESJI LINIOWEJ
WNIOSKOWANIE W MODELU REGRESJI LINIOWEJ Dana jest populacja generalna, w której dwuwymiarowa cecha (zmienna losowa) (X, Y ) ma pewien dwuwymiarowy rozk lad. Miara korelacji liniowej dla zmiennych (X, Y
Ważne rozkłady i twierdzenia c.d.
Ważne rozkłady i twierdzenia c.d. Funkcja charakterystyczna rozkładu Wielowymiarowy rozkład normalny Elipsa kowariacji Sploty rozkładów Rozkłady jednostajne Sploty z rozkładem normalnym Pobieranie próby
Błędy przy testowaniu hipotez statystycznych. Decyzja H 0 jest prawdziwa H 0 jest faszywa
Weryfikacja hipotez statystycznych Hipotezą statystyczną nazywamy każde przypuszczenie dotyczące nieznanego rozkładu badanej cechy populacji, o prawdziwości lub fałszywości którego wnioskuje się na podstawie
Wykład 3 Momenty zmiennych losowych.
Wykład 3 Momenty zmiennych losowych. Wrocław, 19 października 2016r Momenty zmiennych losowych Wartość oczekiwana - przypomnienie Definicja 3.1: 1 Niech X będzie daną zmienną losową. Jeżeli X jest zmienną
Wykład 3 Momenty zmiennych losowych.
Wykład 3 Momenty zmiennych losowych. Wrocław, 18 października 2017r Momenty zmiennych losowych Wartość oczekiwana - przypomnienie Definicja 3.1: 1 Niech X będzie daną zmienną losową. Jeżeli X jest zmienną
Wykład 3 Testowanie hipotez statystycznych o wartości średniej. średniej i wariancji z populacji o rozkładzie normalnym
Wykład 3 Testowanie hipotez statystycznych o wartości średniej i wariancji z populacji o rozkładzie normalnym Wrocław, 08.03.2017r Model 1 Testowanie hipotez dla średniej w rozkładzie normalnym ze znaną
STATYSTYKA MATEMATYCZNA WYKŁAD 4. WERYFIKACJA HIPOTEZ PARAMETRYCZNYCH X - cecha populacji, θ parametr rozkładu cechy X.
STATYSTYKA MATEMATYCZNA WYKŁAD 4 WERYFIKACJA HIPOTEZ PARAMETRYCZNYCH X - cecha populacji, θ parametr rozkładu cechy X. Wysuwamy hipotezy: zerową (podstawową H ( θ = θ i alternatywną H, która ma jedną z
Statystyka. Rozkład prawdopodobieństwa Testowanie hipotez. Wykład III ( )
Statystyka Rozkład prawdopodobieństwa Testowanie hipotez Wykład III (04.01.2016) Rozkład t-studenta Rozkład T jest rozkładem pomocniczym we wnioskowaniu statystycznym; stosuje się go wyznaczenia przedziału
Rachunek prawdopodobieństwa i statystyka - W 9 Testy statystyczne testy zgodności. Dr Anna ADRIAN Paw B5, pok407
Rachunek prawdopodobieństwa i statystyka - W 9 Testy statystyczne testy zgodności Dr Anna ADRIAN Paw B5, pok407 adan@agh.edu.pl Weryfikacja hipotez dotyczących postaci nieznanego rozkładu -Testy zgodności.
Uwaga. Decyzje brzmią różnie! Testy parametryczne dotyczące nieznanej wartości
TESTOWANIE HIPOTEZ Przez hipotezę statystyczną rozumiemy, najogólniej mówiąc, pewną wypowiedź na temat rozkładu, z którego pochodzi próbka. Hipotezy dzielimy na parametryczne i nieparametryczne. Parametrycznymi
Testowanie hipotez statystycznych. Wnioskowanie statystyczne
Testowanie hipotez statystycznych Wnioskowanie statystyczne Hipoteza statystyczna to dowolne przypuszczenie co do rozkładu populacji generalnej (jego postaci funkcyjnej lub wartości parametrów). Hipotezy
Weryfikacja hipotez statystycznych
Weryfikacja hipotez statystycznych Hipoteza Test statystyczny Poziom istotności Testy jednostronne i dwustronne Testowanie równości wariancji test F-Fishera Testowanie równości wartości średnich test t-studenta
... i statystyka testowa przyjmuje wartość..., zatem ODRZUCAMY /NIE MA POD- STAW DO ODRZUCENIA HIPOTEZY H 0 (właściwe podkreślić).
Egzamin ze Statystyki Matematycznej, WNE UW, wrzesień 016, zestaw B Odpowiedzi i szkice rozwiązań 1. Zbadano koszt 7 noclegów dla 4-osobowej rodziny (kwatery) nad morzem w sezonie letnim 014 i 015. Wylosowano
Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału
Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału Magdalena Frąszczak Wrocław, 22.02.2017r Zasady oceniania Ćwiczenia 2 kolokwia (20 punktów każde) 05.04.2017 oraz 31.05.2017 2 kartkówki
Stanisław Cichocki. Natalia Nehrebecka. Wykład 9
Stanisław Cichocki Natalia Nehrebecka Wykład 9 1 1. Dodatkowe założenie KMRL 2. Testowanie hipotez prostych Rozkład estymatora b Testowanie hipotez prostych przy użyciu statystyki t 3. Przedziały ufności
WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 4 - zagadnienie estymacji, metody wyznaczania estymatorów
WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 4 - zagadnienie estymacji, metody wyznaczania estymatorów Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 4 1 / 23 ZAGADNIENIE ESTYMACJI Zagadnienie
PDF created with FinePrint pdffactory Pro trial version http://www.fineprint.com
Analiza korelacji i regresji KORELACJA zależność liniowa Obserwujemy parę cech ilościowych (X,Y). Doświadczenie jest tak pomyślane, aby obserwowane pary cech X i Y (tzn i ta para x i i y i dla różnych
Statystyki: miary opisujące rozkład! np. : średnia, frakcja (procent), odchylenie standardowe, wariancja, mediana itd.
Wnioskowanie statystyczne obejmujące metody pozwalające na uogólnianie wyników z próby na nieznane wartości parametrów oraz szacowanie błędów tego uogólnienia. Przewidujemy nieznaną wartości parametru
Założenia do analizy wariancji. dr Anna Rajfura Kat. Doświadczalnictwa i Bioinformatyki SGGW
Założenia do analizy wariancji dr Anna Rajfura Kat. Doświadczalnictwa i Bioinformatyki SGGW anna_rajfura@sggw.pl Zagadnienia 1. Normalność rozkładu cechy Testy: chi-kwadrat zgodności, Shapiro-Wilka, Kołmogorowa-Smirnowa
Estymacja punktowa i przedziałowa
Temat: Estymacja punktowa i przedziałowa Kody znaków: żółte wyróżnienie nowe pojęcie czerwony uwaga kursywa komentarz 1 Zagadnienia 1. Statystyczny opis próby. Idea estymacji punktowej pojęcie estymatora
b) Niech: - wśród trzech wylosowanych opakowań jest co najwyżej jedno o dawce 15 mg. Wówczas:
ROZWIĄZANIA I ODPOWIEDZI Zadanie A1. Można założyć, że przy losowaniu trzech kul jednocześnie kolejność ich wylosowania nie jest istotna. A więc: Ω = 20 3. a) Niech: - wśród trzech wylosowanych opakowań
Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji
Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Inteligencji i Metod Matematycznych Wydział Informatyki Politechniki
Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory
Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory Dr Anna ADRIAN Paw B5, pok 407 adrian@tempus.metal.agh.edu.pl
Wykład Centralne twierdzenie graniczne. Statystyka matematyczna: Estymacja parametrów rozkładu
Wykład 11-12 Centralne twierdzenie graniczne Statystyka matematyczna: Estymacja parametrów rozkładu Centralne twierdzenie graniczne (CTG) (Central Limit Theorem - CLT) Centralne twierdzenie graniczne (Lindenberga-Levy'ego)
Zmienne losowe, statystyki próbkowe. Wrocław, 2 marca 2015
Zmienne losowe, statystyki próbkowe Wrocław, 2 marca 2015 Zasady zaliczenia 2 kolokwia (każde po 20 punktów) projekt (20 punktów) aktywność Zasady zaliczenia 2 kolokwia (każde po 20 punktów) projekt (20
Wykład 4. Plan: 1. Aproksymacja rozkładu dwumianowego rozkładem normalnym. 2. Rozkłady próbkowe. 3. Centralne twierdzenie graniczne
Wykład 4 Plan: 1. Aproksymacja rozkładu dwumianowego rozkładem normalnym 2. Rozkłady próbkowe 3. Centralne twierdzenie graniczne Przybliżenie rozkładu dwumianowego rozkładem normalnym Niech Y ma rozkład
WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 11 i 12 - Weryfikacja hipotez statystycznych
WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 11 i 12 - Weryfikacja hipotez statystycznych Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 11 i 12 1 / 41 TESTOWANIE HIPOTEZ - PORÓWNANIE
LABORATORIUM 8 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI
LABORATORIUM 8 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI WERYFIKACJA HIPOTEZ Hipoteza statystyczna jakiekolwiek przypuszczenie dotyczące populacji generalnej- jej poszczególnych
Statystyki: miary opisujące rozkład! np. : średnia, frakcja (procent), odchylenie standardowe, wariancja, mediana itd.
Wnioskowanie statystyczne obejmujące metody pozwalające na uogólnianie wyników z próby na nieznane wartości parametrów oraz szacowanie błędów tego uogólnienia. Przewidujemy nieznaną wartości parametru
Wykład 9 Testy rangowe w problemie dwóch prób
Wykład 9 Testy rangowe w problemie dwóch prób Wrocław, 18 kwietnia 2018 Test rangowy Testem rangowym nazywamy test, w którym statystyka testowa jest konstruowana w oparciu o rangi współrzędnych wektora
Ekonometria. Zajęcia
Ekonometria Zajęcia 16.05.2018 Wstęp hipoteza itp. Model gęstości zaludnienia ( model gradientu gęstości ) zakłada, że gęstość zaludnienia zależy od odległości od okręgu centralnego: y t = Ae βx t (1)
Hipotezy statystyczne
Hipotezą statystyczną nazywamy każde przypuszczenie dotyczące nieznanego rozkładu badanej cechy populacji, o którego prawdziwości lub fałszywości wnioskuje się na podstawie pobranej próbki losowej. Hipotezy
Weryfikacja hipotez statystycznych
Weryfikacja hipotez statystycznych Przykład (wstępny). Producent twierdzi, że wadliwość produkcji wynosi 5%. My podejrzewamy, że rzeczywista wadliwość produkcji wynosi 15%. Pobieramy próbę stuelementową
Hipotezy statystyczne
Hipotezy statystyczne Hipotezą statystyczną nazywamy każde przypuszczenie dotyczące nieznanego rozkładu badanej cechy populacji, o którego prawdziwości lub fałszywości wnioskuje się na podstawie pobranej
Spis treści 3 SPIS TREŚCI
Spis treści 3 SPIS TREŚCI PRZEDMOWA... 1. WNIOSKOWANIE STATYSTYCZNE JAKO DYSCYPLINA MATEMATYCZNA... Metody statystyczne w analizie i prognozowaniu zjawisk ekonomicznych... Badania statystyczne podstawowe
Ekonometria. Weryfikacja modelu. Paweł Cibis 12 maja 2007
Weryfikacja modelu Paweł Cibis pawel@cibis.pl 12 maja 2007 1 Badanie normalności rozkładu elementu losowego Test Hellwiga dla małej próby Test Kołmogorowa dla dużej próby 2 Testy Pakiet Analiza Danych
WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 3 - model statystyczny, podstawowe zadania statystyki matematycznej
WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 3 - model statystyczny, podstawowe zadania statystyki matematycznej Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 3 1 / 8 ZADANIE z rachunku
Statystyka. #5 Testowanie hipotez statystycznych. Aneta Dzik-Walczak Małgorzata Kalbarczyk-Stęclik. rok akademicki 2016/ / 28
Statystyka #5 Testowanie hipotez statystycznych Aneta Dzik-Walczak Małgorzata Kalbarczyk-Stęclik rok akademicki 2016/2017 1 / 28 Testowanie hipotez statystycznych 2 / 28 Testowanie hipotez statystycznych
VI WYKŁAD STATYSTYKA. 9/04/2014 B8 sala 0.10B Godz. 15:15
VI WYKŁAD STATYSTYKA 9/04/2014 B8 sala 0.10B Godz. 15:15 WYKŁAD 6 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI Weryfikacja hipotez ( błędy I i II rodzaju, poziom istotności, zasady
Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności. dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl
Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl Statystyczna teoria korelacji i regresji (1) Jest to dział statystyki zajmujący
Gdy n jest duże, statystyka ta (zwana statystyką chikwadrat), przy założeniu prawdziwości hipotezy H 0, ma w przybliżeniu rozkład χ 2 (k 1).
PRZYKŁADY TESTÓW NIEPARAMETRYCZNYCH. Test zgodności χ 2. Ten test służy testowaniu hipotezy, czy rozważana zmienna ma pewien ustalony rozkład, czy też jej rozkład różni się od tego ustalonego. Tym testem
Wykład 9 Wnioskowanie o średnich
Wykład 9 Wnioskowanie o średnich Rozkład t (Studenta) Wnioskowanie dla jednej populacji: Test i przedziały ufności dla jednej próby Test i przedziały ufności dla par Porównanie dwóch populacji: Test i
Testy adaptacyjne dla problemu k prób
Instytut Matematyczny Polskiej Akademii Nauk Oddział Wrocław Problem testowania Problem Testowania Weryfikacja hipotezy Notacja Pomocnicza statystyka rangowa Załóżmy, że X l1,..., X lnl, l = 1,..., k,
Testowanie hipotez statystycznych cd.
Temat Testowanie hipotez statystycznych cd. Kody znaków: żółte wyróżnienie nowe pojęcie pomarańczowy uwaga kursywa komentarz 1 Zagadnienia omawiane na zajęciach 1. Przykłady testowania hipotez dotyczących:
Prawdopodobieństwo i rozkład normalny cd.
# # Prawdopodobieństwo i rozkład normalny cd. Michał Daszykowski, Ivana Stanimirova Instytut Chemii Uniwersytet Śląski w Katowicach Ul. Szkolna 9 40-006 Katowice E-mail: www: mdaszyk@us.edu.pl istanimi@us.edu.pl
Wykład 10 Testy jednorodności rozkładów
Wykład 10 Testy jednorodności rozkładów Wrocław, 16 maja 2018 Test Znaków test jednorodności rozkładów nieparametryczny odpowiednik testu t-studenta dla prób zależnych brak normalności rozkładów Test Znaków
Wykład 5 Estymatory nieobciążone z jednostajnie minimalną war
Wykład 5 Estymatory nieobciążone z jednostajnie minimalną wariancją Wrocław, 25 października 2017r Statystyki próbkowe - Przypomnienie Niech X = (X 1, X 2,... X n ) będzie n elementowym wektorem losowym.
), którą będziemy uważać za prawdziwą jeżeli okaże się, że hipoteza H 0
Testowanie hipotez Każde przypuszczenie dotyczące nieznanego rozkładu badanej cechy nazywamy hipotezą statystyczną. Hipoteza określająca jedynie wartości nieznanych parametrów liczbowych badanej cechy
Temat: BADANIE ZGODNOŚCI ROZKŁADU CECHY (EMPIRYCZNEGO) Z ROZKŁADEM TEORETYCZNYM TEST CHI-KWADRAT. Anna Rajfura 1
Temat: BADANIE ZGODNOŚCI ROZKŁADU CECHY (EMPIRYCZNEGO) Z ROZKŁADEM TEORETYCZNYM TEST CHI-KWADRAT Anna Rajfura 1 Przykład wprowadzający Wiadomo, Ŝe 40% owoców ulega uszkodzeniu podczas pakowania automatycznego.
Temat: BADANIE ZGODNOŚCI ROZKŁADU CECHY (EMPIRYCZNEGO) Z ROZKŁADEM TEORETYCZNYM TEST CHI-KWADRAT. Anna Rajfura 1
Temat: BADANIE ZGODNOŚCI ROZKŁADU CECHY (EMPIRYCZNEGO) Z ROZKŁADEM TEORETYCZNYM TEST CHI-KWADRAT Anna Rajfura 1 Przykład wprowadzający Wiadomo, że 40% owoców ulega uszkodzeniu podczas pakowania automatycznego.
Testowanie hipotez statystycznych. Wprowadzenie
Wrocław University of Technology Testowanie hipotez statystycznych. Wprowadzenie Jakub Tomczak Politechnika Wrocławska jakub.tomczak@pwr.edu.pl 10.04.2014 Pojęcia wstępne Populacja (statystyczna) zbiór,
2.1 Przykład wstępny Określenie i konstrukcja Model dwupunktowy Model gaussowski... 7
Spis treści Spis treści 1 Przedziały ufności 1 1.1 Przykład wstępny.......................... 1 1.2 Określenie i konstrukcja...................... 3 1.3 Model dwupunktowy........................ 5 1.4
Metody probabilistyczne
Metody probabilistyczne 13. Elementy statystki matematycznej I Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 17.01.2019 1 / 30 Zagadnienia statystki Przeprowadzamy
Statystyka w przykładach
w przykładach Tomasz Mostowski Zajęcia 10.04.2008 Plan Estymatory 1 Estymatory 2 Plan Estymatory 1 Estymatory 2 Własności estymatorów Zazwyczaj w badaniach potrzebujemy oszacować pewne parametry na podstawie
Wprowadzenie do analizy korelacji i regresji
Statystyka dla jakości produktów i usług Six sigma i inne strategie Wprowadzenie do analizy korelacji i regresji StatSoft Polska Wybrane zagadnienia analizy korelacji Przy analizie zjawisk i procesów stanowiących
SIGMA KWADRAT. Weryfikacja hipotez statystycznych. Statystyka i demografia CZWARTY LUBELSKI KONKURS STATYSTYCZNO-DEMOGRAFICZNY
SIGMA KWADRAT CZWARTY LUBELSKI KONKURS STATYSTYCZNO-DEMOGRAFICZNY Weryfikacja hipotez statystycznych Statystyka i demografia PROJEKT DOFINANSOWANY ZE ŚRODKÓW NARODOWEGO BANKU POLSKIEGO URZĄD STATYSTYCZNY
Estymacja parametrów w modelu normalnym
Estymacja parametrów w modelu normalnym dr Mariusz Grządziel 6 kwietnia 2009 Model normalny Przez model normalny będziemy rozumieć rodzine rozkładów normalnych N(µ, σ), µ R, σ > 0. Z Centralnego Twierdzenia
12/30/2018. Biostatystyka, 2018/2019 dla Fizyki Medycznej, studia magisterskie. Estymacja Testowanie hipotez
Biostatystyka, 2018/2019 dla Fizyki Medycznej, studia magisterskie Wyznaczanie przedziału 95%CI oznaczającego, że dla 95% prób losowych następujące nierówności są prawdziwe: X t s 0.025 n < μ < X + t s
Zawansowane modele wyborów dyskretnych
Zawansowane modele wyborów dyskretnych Jerzy Mycielski Uniwersytet Warszawski grudzien 2013 Jerzy Mycielski (Uniwersytet Warszawski) Zawansowane modele wyborów dyskretnych grudzien 2013 1 / 16 Model efektów
Testowanie hipotez. Marcin Zajenkowski. Marcin Zajenkowski () Testowanie hipotez 1 / 25
Testowanie hipotez Marcin Zajenkowski Marcin Zajenkowski () Testowanie hipotez 1 / 25 Testowanie hipotez Aby porównać ze sobą dwie statystyki z próby stosuje się testy istotności. Mówią one o tym czy uzyskane
TESTY NIEPARAMETRYCZNE. 1. Testy równości średnich bez założenia normalności rozkładu zmiennych: Manna-Whitney a i Kruskala-Wallisa.
TESTY NIEPARAMETRYCZNE 1. Testy równości średnich bez założenia normalności rozkładu zmiennych: Manna-Whitney a i Kruskala-Wallisa. Standardowe testy równości średnich wymagają aby badane zmienne losowe
Testowanie hipotez statystycznych
Agenda Instytut Matematyki Politechniki Łódzkiej 2 stycznia 2012 Agenda Agenda 1 Wprowadzenie Agenda 2 Hipoteza oraz błędy I i II rodzaju Hipoteza alternatywna Statystyka testowa Zbiór krytyczny Poziom
SIMR 2017/18, Statystyka, Przykładowe zadania do kolokwium - Rozwiązania
SIMR 7/8, Statystyka, Przykładowe zadania do kolokwium - Rozwiązania. Dana jest gęstość prawdopodobieństwa zmiennej losowej ciągłej X : { a( x) dla x [, ] f(x) = dla pozostałych x Znaleźć: i) Wartość parametru
Prawdopodobieństwo i statystyka
Wykład XIV: Metody Monte Carlo 19 stycznia 2016 Przybliżone obliczanie całki oznaczonej Rozważmy całkowalną funkcję f : [0, 1] R. Chcemy znaleźć przybliżoną wartość liczbową całki 1 f (x) dx. 0 Jeden ze
Statystyka matematyczna i ekonometria
Statystyka matematyczna i ekonometria Wykład 5 Anna Skowrońska-Szmer lato 2016/2017 Hipotezy 2 Hipoteza zerowa (H 0 )- hipoteza o wartości jednego (lub wielu) parametru populacji. Traktujemy ją jako prawdziwą
Wykład 3 Hipotezy statystyczne
Wykład 3 Hipotezy statystyczne Hipotezą statystyczną nazywamy każde przypuszczenie dotyczące nieznanego rozkładu obserwowanej zmiennej losowej (cechy populacji generalnej) Hipoteza zerowa (H 0 ) jest hipoteza
LABORATORIUM 8 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI
LABORATORIUM 8 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI WERYFIKACJA HIPOTEZ Hipoteza statystyczna jakiekolwiek przypuszczenie dotyczące populacji generalnej- jej poszczególnych