1 Gaussowskie zmienne losowe

Podobne dokumenty
i=7 X i. Zachodzi EX i = P(X i = 1) = 1 2, i {1, 2,..., 11} oraz EX ix j = P(X i = 1, X j = 1) = 1 7 VarS 2 2 = 14 3 ( 5 2 =

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

Prawdopodobieństwo i statystyka r.

1 Warunkowe wartości oczekiwane

i=7 X i. Zachodzi EX i = P(X i = 1) = 1 2, i {1, 2,..., 11} oraz EX ix j = P(X i = 1, X j = 1) = 1 7 VarS 2 2 = 14 3 ( 5 2 =

Wykład 3 Momenty zmiennych losowych.

Wykład 3 Momenty zmiennych losowych.

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX = 4 i EY = 6. Rozważamy zmienną losową Z =.

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty

Wstęp do Rachunku Prawdopodobieństwa, IIr. WMS

Hipotezy proste. (1 + a)x a, dla 0 < x < 1, 0, poza tym.

Metoda momentów i kwantyli próbkowych. Wrocław, 7 listopada 2014

Zestaw 2: Zmienne losowe. 0, x < 1, 2, 2 x, 1 1 x, 1 x, F 9 (x) =

Idea. θ = θ 0, Hipoteza statystyczna Obszary krytyczne Błąd pierwszego i drugiego rodzaju p-wartość

Prawdopodobieństwo i statystyka

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 7 i 8 - Efektywność estymatorów, przedziały ufności

Współczynnik korelacji. Współczynnik korelacji jest miernikiem zależności między dwiema cechami Oznaczenie: ϱ

Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe.

SIMR 2017/18, Statystyka, Przykładowe zadania do kolokwium - Rozwiązania

Spis treści 3 SPIS TREŚCI

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski

Oznacza to, że chcemy znaleźć minimum, a właściwie wartość najmniejszą funkcji

Wartość oczekiwana Mediana i dominanta Wariancja Nierówności związane z momentami. Momenty zmiennych losowych Momenty wektorów losowych

Weryfikacja hipotez statystycznych

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka

12DRAP - parametry rozkładów wielowymiarowych

Prawdopodobieństwo i statystyka

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne

Wykład 3 Jednowymiarowe zmienne losowe

WNIOSKOWANIE W MODELU REGRESJI LINIOWEJ

... i statystyka testowa przyjmuje wartość..., zatem ODRZUCAMY /NIE MA POD- STAW DO ODRZUCENIA HIPOTEZY H 0 (właściwe podkreślić).

Statystyka Matematyczna Anna Janicka

Zmienne losowe, statystyki próbkowe. Wrocław, 2 marca 2015

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie

Błędy przy testowaniu hipotez statystycznych. Decyzja H 0 jest prawdziwa H 0 jest faszywa

Wykład 5 Estymatory nieobciążone z jednostajnie minimalną war

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014

Rachunek prawdopodobieństwa 1B; zadania egzaminacyjne.

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 9 i 10 - Weryfikacja hipotez statystycznych

Funkcje charakterystyczne zmiennych losowych, linie regresji 1-go i 2-go rodzaju

Prawdopodobieństwo i statystyka r.

Statystyka i eksploracja danych

Prawdopodobieństwo i statystyka

Powtórzenie wiadomości z rachunku prawdopodobieństwa i statystyki.

Estymacja przedziałowa - przedziały ufności dla średnich. Wrocław, 5 grudnia 2014

Agata Boratyńska Statystyka aktuarialna... 1

Ważne rozkłady i twierdzenia

2.1 Przykład wstępny Określenie i konstrukcja Model dwupunktowy Model gaussowski... 7

Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału

MATEMATYKA Z ELEMENTAMI STATYSTYKI LABORATORIUM KOMPUTEROWE DLA II ROKU KIERUNKU ZARZĄDZANIE I INŻYNIERIA PRODUKCJI ZESTAWY ZADAŃ

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 13 i 14 - Statystyka bayesowska

Metody systemowe i decyzyjne w informatyce

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Wykład 10 Estymacja przedziałowa - przedziały ufności dla średn

PDF created with FinePrint pdffactory Pro trial version

Metody systemowe i decyzyjne w informatyce

Rachunek prawdopodobieństwa i statystyka

PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA

Centralne twierdzenie graniczne

STATYSTYKA

Weryfikacja hipotez statystycznych

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Statystyka aktuarialna i teoria ryzyka, model indywidualny i zespołowy, rozkłady złożone

Rozkłady prawdopodobieństwa zmiennych losowych

METODY ESTYMACJI PUNKTOWEJ. nieznanym parametrem (lub wektorem parametrów). Przez X będziemy też oznaczać zmienną losową o rozkładzie

Ważne rozkłady i twierdzenia c.d.

Własności statystyczne regresji liniowej. Wykład 4

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 4 - zagadnienie estymacji, metody wyznaczania estymatorów

Prognozowanie i Symulacje. Wykład I. Matematyczne metody prognozowania

Funkcja tworząca Funkcja charakterystyczna. Definicja i własności Funkcja tworząca momenty

1. Pokaż, że estymator MNW parametru β ma postać β = nieobciążony. Znajdź estymator parametru σ 2.

Wykład 12 Testowanie hipotez dla współczynnika korelacji

Statystyka. Wykład 2. Krzysztof Topolski. Wrocław, 11 października 2012

Testowanie hipotez statystycznych.

Testowanie hipotez. Hipoteza prosta zawiera jeden element, np. H 0 : θ = 2, hipoteza złożona zawiera więcej niż jeden element, np. H 0 : θ > 4.

STATYSTYKA MATEMATYCZNA WYKŁAD listopada 2009

Wykład 12 Testowanie hipotez dla współczynnika korelacji

Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1

Metoda najmniejszych kwadratów

STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA

Stosowana Analiza Regresji

Testowanie hipotez statystycznych.

WSTĘP. Tematy: Regresja liniowa: model regresji liniowej, estymacja nieznanych parametrów. Wykład:30godz., ćwiczenia:15godz., laboratorium:30godz.

Statystyka matematyczna Testowanie hipotez i estymacja parametrów. Wrocław, r

STATYSTYKA I DOŚWIADCZALNICTWO Wykład 7

), którą będziemy uważać za prawdziwą jeżeli okaże się, że hipoteza H 0

Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/

Statystyka matematyczna. Wykład III. Estymacja przedziałowa

Losowe zmienne objaśniające. Rozszerzenia KMRL. Rozszerzenia KMRL

Prawdopodobieństwo i statystyka

Kwantyle. Kwantyl rzędu p rozkładu prawdopodobieństwa to taka liczba x p. , że. Możemy go obliczyć z dystrybuanty: P(X x p.

Metody systemowe i decyzyjne w informatyce

Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu.

Transkrypt:

Gaussowskie zmienne losowe W tej serii rozwiążemy zadania dotyczące zmiennych o rozkładzie normalny. Wymagana jest wiedza na temat własności rozkładu normalnego, CTG oraz warunkowych wartości oczekiwanych.. (Eg 48/6) Niech X, X,..., X n,... będą niezależnymi zmiennymi losowymi o identycznym rozkładzie o gęstości f(x) = x (0,)(x). Niech U n = (X...X n ) n. Wtedy: (asymptotyka U n e )? Odp: B-> lim P((U n e ) n < 4e ) = 0, 977. Rozwiązanie. Zadanie polega na umiejętnym zastosowaniu CTG. Zauważmy, że Y i = log X i, i {,..., n} oraz P(Y i > t) = P(X i < e t ) = e t, t 0. Czyli Y i ma rozkład Exp( ), w szczególności EY i =, VarY i = 4. (U n e ) n = e (exp( n (Y i ) ) n. Z mocnego prawa wielkich liczb wynika, że lim n n i= (Y i ) = 0. (exp( n Czyli w sensie rozkładu (Y i ) ) n = n i= gdzie Z ma rozkład N (0, ). Stąd n i= lim (U n e ) n = e lim i= (Y i )( + O( n n n i= (Y i )). i= (Y i ) = e Z, lim P((U n e ) n < 4e ) = P(Z < ) 0, 977.. (Eg 50/6) Rozważmy następujące zagadnienie testowania hipotez statystycznych. Dysponujemy próbką X,..., X n z rozkładu normalnego o nieznanej średniej µ i znanej wariancji równej 4. Przeprowadzamy najmocniejszy test hipotezy H 0 : µ = 0 przeciwko alternatywie H : µ = na poziomie istotności α = /. Niech β n oznacza prawdopodobieństwo błędu drugiego rodzaju, dla rozmiaru próbki n. Wybierz poprawne stwierdzenie: (asymptotyka β n ) Odp: D-> lim β n e n 8 πn =. Rozwiązanie. Najpierw znajdujemy błąd drugiego rodzaju czyli akceptacja hipotezy H 0 w sytuacji gdy zachodzi H. Test najmocniejszy oparty jest na konstrukcji obszaru krytycznego wynikającej z Twierdzenia Neymana-Pearsona (o porównywaniu gęstości). Niech µ 0 = 0, µ = oraz niech f µ0, f µ będą gęstościami rozkładu wektora (X,..., X n ) niezależnych zmiennych losowych o tym samym rozkładzie co zmienna X, odpowiednio X N (µ 0, 4), X N (µ, 4). W metodzie Neymana-Pearsona badamy iloraz wiarygodności, to znaczy f µ (x,..., x n )/f µ0 (x,..., X n ). W przypadku rozkładów ciągłych nie potrzeba randomizacji, a obszar krytyczny ma postać K = {(x,..., x n ) R n : f µ (x,..., x n )/f µ0 (x,..., x n ) > C} dla stałej C dobranej tak aby P µ0 ((X,..., X n ) K) = α. W naszym przypadku oznacza to konieczność znalezienia stałej C takiej, że P µ0 (X +... + X n < C) =.

Oczywiście C = 0. Błąd drugiego rodzaju wynosi β n = P µ (X +... + X n > C) = P( n + nz > 0), gdzie Z ma rozkład N (0, ). zostaje zbadać asymptmpotykę n β n = P(Z > ). Oczywiście P(Z > t) πt e t stąd πn lim β n e n 8 =. 3. (Eg 5/4) Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach normalnych, przy tym EX = EY = 0, VarX = 3 i VarY =. Oblicz P( X < Y ). Odp: A-> P( X < Y ) = 0, 3333. Rozwiązanie. To zadanie ma czysto geometryczne rozwiązanie. Wystarczy wykorzystać rotacyjną niezmienniczość standardowego rozkładu normalnego nadto zauważyć, że X = 3 X, gdzie X ma rozkład N (0, ). ( X, Y ) ma standardowy rozkład normalny na R oraz P( X < Y ) = P( 3 X < Y ) = µ S ({α S : tg α < 3 }), gdzie µ S jest miarą Lebesgue a na okręgu jednostkowym unormowaną do. Oczywiście {α S : tg α < 3 } = {α S : α π 6 lub π α π 6 } µ S ({α S : tg α < 3 }) = 3. 4. (Eg 5/5) Załóżmy, że X, Y są zmiennymi o łącznym rozkładzie normalnym, EX = EY = 0, VarX =, VarY = 4 i Cov(X, Y ) =. Oblicz E(XY X Y = t), Odp: C-> 7 4 3 6 t. Rozwiązanie. Potrzebujemy metody znajdowania bazy niezależnych liniowych funkcji od X, Y zawierającej X Y. Szukamy α takiego, że X αy będzie niezależne od X Y. Wystarczy sprawdzić kowariancję Cov(X Y, X αy ) = α + 4α = + 3α. Stąd α = 3. Wystarczy teraz rozpisać X, Y w znalezionej bazie. Mamy { X = 4 [(X Y ) + 3(X + 3 Y )] Y = 3 4 [ (X Y ) + (X + 3 Y )] Niech Z = (X + 3Y ), zmienną X Y możemy traktować jako parametr t przy wyliczaniu warunkowej wartości oczekiwanej (bo jest niezależna od Z). E(XY X Y = t) = E( 4 (t + 3Z)3 3 ( t + Z)) = 4 6 ( t + 3tEZ + 3EZ ). Oczywiście EZ = 0. Natomiast z dwuliniowości kowariancji i EZ = VarZ = + 3 + 4 9 = 8 9. Czyli E(XY X Y = t) = 3 6 t + 7 4.

5. (Eg 53/9) Mamy próbą prostą ((X, Y ), (X, Y ),..., (X 0, Y 0 )) z rozkładu normalnego dwuwymiarowego o nieznanych parametrach Niech EX i = EY i = µ, VarX i = VarY i = σ, Cov(X i, Y i ) = σ ρ. Z i = X i + Y i, R i = X i Y i, S Z = 9 0 i= (Z i Z), S R = 9 0 i= (R i R), gdzie Z oraz R to odpowiednie średnie z próbki. Do testowania hipotezy H 0 : ρ = 3 przeciwko alternatywie H : ρ 3 możemy użyć testu o obszarze krytycznym postaci: SZ SR < k, lub S Z SR > k, przy czym liczby k i k dobrane są tak, aby przy założeniu, że H 0 jest prawdziwa Liczby k i k są równe:? Odp: D-> k = 0, 69 i k = 6, 358. P( S Z SR < k ) = P( S Z SR > k ) = 0, 05. Rozwiązanie. Zauważmy, że (X i + Y i ) jest niezależne od (X i Y i ), istotnie Cov(X i + Y i, X i Y i ) = VarX i Cov(X i, Y i ) + Cov(Y i, X i ) Var(Y i ) = 0. To oznacza, że SZ i S R są niezależne. Wystarczy wyznaczyć ich rozkłady. Mamy Analogicznie Var(X i + Y i ) = σ + ρσ = ( + ρ)σ. Var(X i Y i ) = σ ρσ = ( ρ)σ. To oznacza, że Z i = [( + ρ)] σẑi, R i = [( ρ)] ˆRi, gdzie Ẑi, ˆR i są niezależne z rozkładu N (0, ). SZ SR = + ρ ŜZ. ρ Ŝ R To oznacza, że aby wyznaczyć k, k należy wziąć wartości dla F 9,9 i pomnożyć je przez +ρ ρ, które przy H 0 wynosi. Czyli k = 3, 789 6, 358 oraz k = (/3, 789) 0, 69 6. (Eg 54/9) Zmienne losowe X i Y są niezależne i zmienna X ma rozkład logarytmiczno-normalny LN(µ, σ ), gdzie µ = i σ =, a zmienna Y ma rozkład wykładniczy o wartości oczekiwanej. Niech S = X + Y. Wtedy E(S X > e) jest równa? Odp: E-> 4, 6. Rozwiązanie. Przypomnijmy definicję E(S X > e) = ES X>e P(X > e). Teraz zauważmy, że X = e Y, gdzie Y ma rozkład N (, 4), czyli Y = + Z, gdzie Z N (0, ). P(X > e) = P( + Z > ) = P(Z > 0) =. 3

Obliczamy Należy obliczyć ES X>e = EX X>e + P(X > e)ey = Ee +Z Z>0 + = + eeez Z>0. Ostatecznie Ee Z Z>0 = Ee Z Z>0 = e 0 e x e x dx = e e (x ). π π π e x dx = e P(Z > ). E(S X > e) = + e 3 P(Z > ) 4, 6. 0 7. (Eg 55/4) Załóżmy, że zmienne losowe X, Y mają łączny rozkład normalny taki, że Oblicz Cov(X, Y ). Odp: D-> 8. EX =, EY = 0, Var(X) =, Var(Y ) = 9, i Cov(X, Y ) = 3. Rozwiązanie. Przypomnijmy, że ogólny wzór na k-ty moment zmiennej V rozkładzie N (0, σ ) ma postać EV k = σ k (k )(k 3)...3, EV k+ = 0 Aby obliczyć Cov(X, Y ) potrzebujemy policzyć EX Y. Po raz kolejny należy posłużyć się bazą złożoną z liniowych względem X, Y zmiennych niezależnych. Ściślej szukamy α takiego, że X αy jest nieskorelowane z Y, a przez to niezależne bo (X, Y ) tworzą wektor gaussowski. Mamy Cov(Y, X αy ) = 3 9α, stąd α = 3. Niech Z = X 3 Y, zachodzi EZ =, VarZ = 3 3 + 99 =. Dalej mamy rozkład X = Z + 3 Y, stąd EX Y = E(Z + 3 Y ) Y = EZ EY + 3 EZEY 3 + 9 EY 4. Drugi składnik powyżej jest zerem bo EY = 0, a stąd EY 3 = 0. Zauważmy jeszcze, że podobnie EX EY = (EZ + 9 EY )EY. Dlatego Cov(X, Y ) = 9 (EY 4 (EY ) ). Pozostaje zauważyć, że EY 4 = 3 9 oraz EY = 9. Cov(X, Y ) = 9 (3 9 9 ) = 9 = 8. 4

8. (Eg 57/3) Niech X, X,..., X n będą niezależnymi zmiennymi losowymi z rozkładu normalnego o wartości oczekiwanej 0 i nieznanej wariancji σ. Rozważmy estymatory odchylenia standardowego σ postaci ˆσ c = c n i= X i. Niech ˆσ c oznacza estymator o najmniejszym błędzie średniokwadratowym w klasie rozważanych estymatorów. Wtedy c jest równe? Odp: D-> π π+n. Rozwiązanie. Niech X ma rozkład N (0, σ ). Oczywiście E X = π σ, zatem f(c) = E(ˆσ c σ) = Var(ˆσ) + (Eˆσ σ) = nc Var( X ) + (cn ) σ = π = nc ( π )σ + (cn ). π Aby obliczyć punkt minimum znajdujemy z równania f (c) = 0. Zachodzi f (c) = nc( π )σ + (n c π n π )σ. stąd f (c) = 0 dla n( π π (n ) + )c = n czyli c = π π + n. 9. (Eg 58/4) Niech X, X,..., X n,..., N będą zmiennymi losowymi. Zmienne X, X,..., X n,... mają rozkład logarytmiczno-normalny LN(µ, σ ), gdzie µ =, σ = 4. Zmienna N ma rozkład Poissona o wartości oczekiwanej. Niech S N = N i= X i dla N > 0 oraz S N = 0 dla N = 0. Wtedy współczynnik asymetrii E(S N ES N ) 3 (VarS N jest równy? ) 3/ Odp: D-> e6. Rozwiązanie. Niech X ma rozkład LN(µ, σ ), najpierw zauważmy, że E(S N ES N ) 3 = EE[(S N ES N ) 3 N] = EE[(S N NEX + (N EN)EX) 3 N] = Zauważmy, że = ENE(X EX) 3 + 3EN(N EN)EXE(X EX) + E(N EN) 3 (EX) 3. = EN = VarN = E(N EN) = EN(N EN) = E(N EN) 3 (scentrowane momenty drugi i trzeci dla rozkładu Poissona są równe wartości oczekiwanej). E(S N ES N ) 3 = (E(X EX) 3 + 3EXE(X EX) + (EX) 3 ) = EX 3. Z definicji X = exp(y ), gdzie Y ma rozkład N (µ, σ ), a dalej Y = σz + µ, gdzie Z ma rozkład N (0, ). Przypomnijmy wzór n transformatę Laplace cea dla rozkładu N (0, ) Stąd E exp(λz) = exp( λ ). EX 3 = E exp(3σz + 3µ) = e 9σ +3µ = e 4. E(S N ES N ) 3 = e 4. Analogicznie pokazujemy VarS N = E(S N ES N ) = ENE(X EX) + VarN(EX) = EX. 5

Mamy EX = E exp(σz + µ) = e σ +µ = e. czyli VarS N = E(S N ES N ) = e. Obliczamy E(S N ES N ) 3 (VarS N ) 3/ = e4 (e ) 3 = e6. 0. (Eg 59/) Zmienna losowa X rozkład logarytmiczno-normalny LN(µ, σ ), gdzie µ = i σ = 4. Wyznacz E(X e X>e) EX. Odp: C->, 8. Rozwiązanie. Zauważmy, że X = e Y, gdzie Y ma rozkład N (µ, σ ), nadto Y = σz +µ = Z +, gdzie Z pochodzi z rozkładu N (0, ). Z definicji E(X e X > e) = E X>e(X e). P(X > e) Obliczamy P(X > e) = P(Z + > ) = P(Z > 0) =. E X>e (X e) = ee Z>0 (e Z ) = e(e Z>0 e Z ). Nadto a stąd Otrzymujemy E Z>0 e Z = 0 e x e x E Z>0 e Z = e z drugiej strony z transformaty Laplace a dx = e π e x 0 e (x ) π dx = e P(Z > ). E(X e X > e) = e 3 P(Z > ) e EX = E exp(z + ) = e 3. π dx Czyli E(X e X > e) EX = P(Z > ) e, 8.. (Eg 60/6) Zmienne losowe X, X,..., X 0 są niezależne o jednakowym rozkładzie normalnym o wartości oczekiwanej i wariancji 4. Niech S 5 = 5 i= X i i E(S5 S 0 = 4) jest równa? Odp: D-> 5. Rozwiązanie. Niech S 5 = 0 i=6 X i. Z jednej strony S 0 = S 5 + S 5 nadto szukamy α takiego, że 0 = Cov(S 5 + S 5, S 5 αs 5 ) = Var(S 5 ) αvar(s 5 ) = 5 4 α5 4 = 0( α3). Stąd α = 3. Oczywiście S 5 = 4 [(S 5 + S 5 ) + 3(S 5 3 S 5)] = 4 [S 0 + 3(S 5 3 S 5)]. 6

Sprawdzamy E(S 5 S 0 = 4) = E ( 6 [ ) S 0 + 3(S 5 5)] 3 S S 0 = = 6 S 0 + 3 8 S 0E(S 5 3 S 5) + 9 6 E(S 5 3 S 5). E(S 5 3 S 5) = 0, E(S 5 3 S 5) = 5 4 + 5 9 4 = 80 3. E(S5 S 0 = 4) = 6 S 0 + 9 80 6 3 = 36 + 5 = 5.. (Eg 6/6) Rozważmy następujące zagadnienie testowania hipotez statystycznych. Dysponujemy próbką X,..., X n z rozkładu normalnego o nieznanej średniej µ i znanej wariancji równej. Przeprowadzamy najmocniejszy test hipotezy H 0 : µ = 0 przeciwko alternatywie H : µ = na poziomie istotności α =. Niech β n oznacza prawdopodobieństwo błędu drugiego rodzaju, dla rozmiaru próbki n. Wybierz poprawne stwierdzenie: (asymptotyka β n ). β Odp: E-> lim n e n / =. 4πn Rozwiązanie. Niech f 0, f będą gęstościami odpowiednio N (0, ), N (, ). Przypomnijmy, że test najmocniejszy Neymana Pearsona polega na porównaniu gęstości, czyli zbiór krytyczny ma postać K = {(x,..., x n ) R n : f (x,..., x n ) f 0 (x,..., x n ) > C}, gdzie C jest stałą taką, że P µ=0 ((X,..., X n ) K) =. Łatwo zauważyć, że Stąd szukamy stałej C takiej, że K = {(x,..., x n ) : x i > C}. i= P µ=0 (X +... + X n > C) = stąd C = 0. Błąd drugiego rodzaju to akceptacja hipotezy H 0 podczas, gdy zachodzi H. Oznacza to, że β n = P µ= (X +... + X n 0). Przy µ = zachodzi X i = Z i +, gdzie Z, Z i, i =,,... będą niezależne z rozkładu N (0, ). Stąd β n = P( (Z +... + Z n ) n) = P( nz n) = P(Z n). Ponieważ P(Z > t) πt e t, więc lim β n e n / 4πn =. 7

3. (Eg 6/) Niech X, X, X 3,... będą niezależnymi zmiennymi losowymi o tym samym rozkładzie logarytmiczno normalnym parametrami µ R i σ > 0. Niech T n oznacza estymator największej wiarygodności wariancji V w tym modelu w oparciu o próbę X, X,..., X n. Niech µ = 0, 5 i σ =. Wtedy P( T n V n > 0, 73) =? Odp: A-> 0, 34. Rozwiązanie. Zachodzi X i = e Yi, i =,,..., n, gdzie Y, Y, Y,..., Y n są niezależne i pochodzą z rozkładu N (µ, σ ). Trzeba przypomnieć estymatory największej wiarygodności dla rozkładu normalnego µ n = Ȳ = n (Y +... + Y n ), σ n = Y (Ȳ ) = n (Y i Ȳ ). Powyższe estymatory wykorzystujemy aby znaleźć estymator wariancji V. Mamy Nadto z powyższego wzory wynika, że i= V = VarY = EY (EY ) = e σ +µ e σ +µ = e. T n = e µn (e σ n e σ n ). Należy pamiętać, że µ n i σ n są niezależne. Mamy T n V = (e µn e )(e σ n e σ n )+ + e (e σ n e e σ n e). Z mocnego prawa wielkich liczb wynika, że µ n µ, σ n σ prawie na pewno. Nadto n(e µ n e ) = ne (e µn+ ) = ne ( µ n + )( + O( µ n + )). Oczywiście w sensie słabej zbieżności Stąd lim n( µn + ) = N (0, 4). lim n(e µ n e )(e σ n e σ n ) = A N (0, [(e )] ) Ściślej korzystając z σ n σ lim n(e µ n e )(e σ n e σ n ) = lim n(e µ n e )(e e) = A. Analogicznie W sensie słabej zbieżności e σ n e + e σ n e = (e e) n( σ n )( + O( σ n )). lim n( σ n ) = N (0, ). lim e (e σ n e e σ n e) = B N (0, [e ] ). Ostatecznie korzystając z niezależności µ n oraz σ n dostajemy dla niezależnych A i B n(tn V ) = A + B N (0, [(e ) ] + [e )] ). lim Niech Z będzie z N (0, ) otrzymujemy lim P( T n V 0, 73 n > 0, 73) = P( Z > ) = 0, 34. [(e ) ] + [(e )] Przedstawiona metoda ma swoją nazwę jako metoda delta. Powyższy przypadek szczególny można zebrać w ogólne twierdzenie. 8

Twierdzenie (Metoda delta) Jeżeli dla ciągu zmiennych T n mamy n(t n µ) N (0, σ ) przy n i h : R R jest funkcją różniczkowalną w punkcie µ, to n(h(tn ) h(µ)) N (0, σ (h (µ)) ), w sensie zbieżności według rozkładu. 4. (Eg 63/7) Zmienna losowa (X, Y, Z) ma rozkład normalny z wartością oczekiwaną EX = 0, EY = EZ = i macierzą kowariancji 0 4. 0 4 Obliczyć Var(X(Y + Z)). Odp: D-> 7. Rozwiązanie. Stosujemy metodę z uniezależnianiem zmiennych. Z założenia wynika, że Cov(X, Y ) = oraz Cov(X, Z) = 0, Cov(Y, Z) =. zmienne X i Z są niezależne, Wystarczy dobrać α i β tak aby Y αx βz było niezależne (czyli równoważnie nieskorelowane) ze zmiennymi X i Z. Sprawdzamy, że Cov(Y αx βz, X) = α, czyli α = nadto Cov(Y αx βz, Z) = 4β, czyli β =. baza liniowa składa się ze zmiennych niezależnych X, Ȳ = Y X Z, Z, gdzie X ma rozkład N (0, ), zmienna Ȳ ma rozkład N (, ), a zmienna Z rozkład N (, 4). Obliczamy Var(X(Y + Z)) = Var(XY ) + Cov(XY, XZ) + Var(XZ) = = Var(XȲ ) + Cov(XȲ, X(X + Z)) + Var(X(X + Z))+ + Cov(XȲ, XZ) + Cov(X(X + Z), XZ) + Var(XZ) = = EX EȲ + EX EȲ EZ + EX4 (EX ) + 4 EX EZ + + EX EȲ EZ + EX EZ = ( + 4 ) + + + 5 + + 0 = 7. 4 5. (Eg 64/9) Niech Y, Y,..., Y n będą niezależnymi zmiennymi losowymi, przy czym zmienna Y i, i =,,..., n, ma rozkład logarytmiczno-normalny LN(bx i, ), gdzie x, x,..., x n są znanymi liczbami, a b jest nieznanym parametrem. Załóżmy, że n i= x i = 4. Niech b będzie estymatorem największej wiarogodności parametru b, a ḡ = exp(b) estymatorem funkcji g(b) = exp(b). Wtedy obciążenie estymatora ḡ E b ḡ g(b) jest równe Odp: B-> e b ( e ). Rozwiązanie. Najpierw obliczamy wiarygodność dla zmiennych Z, Z,..., Z n, gdzie Z i = ln Y i, czyli Z i ma postać N (bx i, ). Obliczamy wiarygodność dla Z,..., Z n L(b, z) = (π) n exp( 9 (z i bx i ) ). i=

Rozwiązujemy równanie f (b) = 0 dla f(b) = ln L(b, z). Wówczas Stąd x, z (z i bx i )x i = 0, czyli b = x, x = x, z. 4 i= b = 4 x i Z i. i= Pozostaje zauważyć, że b ma rozkład N (b, 4 ). Stąd E b ḡ g(b) = E b exp( b) e b = e b (e ). 0