i=7 X i. Zachodzi EX i = P(X i = 1) = 1 2, i {1, 2,..., 11} oraz EX ix j = P(X i = 1, X j = 1) = 1 7 VarS 2 2 = 14 3 ( 5 2 =

Podobne dokumenty
1 Gaussowskie zmienne losowe

i=7 X i. Zachodzi EX i = P(X i = 1) = 1 2, i {1, 2,..., 11} oraz EX ix j = P(X i = 1, X j = 1) = 1 7 VarS 2 2 = 14 3 ( 5 2 =

1 Warunkowe wartości oczekiwane

Prawdopodobieństwo i statystyka r.

Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX = 4 i EY = 6. Rozważamy zmienną losową Z =.

Hipotezy proste. (1 + a)x a, dla 0 < x < 1, 0, poza tym.

Wykład 3 Momenty zmiennych losowych.

Wykład 3 Momenty zmiennych losowych.

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty

Wstęp do Rachunku Prawdopodobieństwa, IIr. WMS

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 9 i 10 - Weryfikacja hipotez statystycznych

2.1 Przykład wstępny Określenie i konstrukcja Model dwupunktowy Model gaussowski... 7

Prawdopodobieństwo i statystyka r.

Wykład 3 Jednowymiarowe zmienne losowe

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 7 i 8 - Efektywność estymatorów, przedziały ufności

Prawdopodobieństwo i statystyka

METODY ESTYMACJI PUNKTOWEJ. nieznanym parametrem (lub wektorem parametrów). Przez X będziemy też oznaczać zmienną losową o rozkładzie

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 4 - zagadnienie estymacji, metody wyznaczania estymatorów

Prawdopodobieństwo i statystyka

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

... i statystyka testowa przyjmuje wartość..., zatem ODRZUCAMY /NIE MA POD- STAW DO ODRZUCENIA HIPOTEZY H 0 (właściwe podkreślić).

Ważne rozkłady i twierdzenia

Weryfikacja hipotez statystycznych

Idea. θ = θ 0, Hipoteza statystyczna Obszary krytyczne Błąd pierwszego i drugiego rodzaju p-wartość

Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału

PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe

12DRAP - parametry rozkładów wielowymiarowych

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa

Statystyka Matematyczna Anna Janicka

Przestrzeń probabilistyczna

Zestaw 2: Zmienne losowe. 0, x < 1, 2, 2 x, 1 1 x, 1 x, F 9 (x) =

Oznacza to, że chcemy znaleźć minimum, a właściwie wartość najmniejszą funkcji

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie

Prawdopodobieństwo i statystyka

Błędy przy testowaniu hipotez statystycznych. Decyzja H 0 jest prawdziwa H 0 jest faszywa

Rozkłady statystyk z próby

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Statystyka. Wykład 2. Krzysztof Topolski. Wrocław, 11 października 2012

Laboratorium nr 7. Zmienne losowe typu skokowego.

Rozkłady prawdopodobieństwa zmiennych losowych

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 11 i 12 - Weryfikacja hipotez statystycznych

Metoda momentów i kwantyli próbkowych. Wrocław, 7 listopada 2014

Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe.

Statystyka aktuarialna i teoria ryzyka, model indywidualny i zespołowy, rozkłady złożone

Weryfikacja hipotez statystycznych

Prawdopodobieństwo i statystyka

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 13 i 14 - Statystyka bayesowska

Agata Boratyńska Statystyka aktuarialna... 1

Statystyka matematyczna

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014

Zadania z Rachunku Prawdopodobieństwa II Podaj przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,

Definicja 1 Statystyką nazywamy (mierzalną) funkcję obserwowalnego wektora losowego

Testowanie hipotez statystycznych.

Matematyka z el. statystyki, # 3 /Geodezja i kartografia II/

Estymatory nieobciążone

Zadanie 5. Niech N będzie zmienną losową o rozkładzie Poissona taką, że P (N 1) = 8 9P (N = 2). Obliczyć EN. Odp. 3. p0, dla k = 0, e λ 1 λk

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Rachunek prawdopodobieństwa i statystyka

Wykład 1 Próba i populacja. Estymacja parametrów z wykorzystaniem metody bootstrap

Statystyka i eksploracja danych

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski

Ważne rozkłady i twierdzenia c.d.

WYKŁAD 3. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

STATYSTYKA

Zmienne losowe, statystyki próbkowe. Wrocław, 2 marca 2015

Prawdopodobieństwo i statystyka

Wybrane rozkłady zmiennych losowych. Statystyka

WSTĘP. Tematy: Regresja liniowa: model regresji liniowej, estymacja nieznanych parametrów. Wykład:30godz., ćwiczenia:15godz., laboratorium:30godz.

Wybrane rozkłady zmiennych losowych. Statystyka

Prawa wielkich liczb, centralne twierdzenia graniczne

Wykład 4. Plan: 1. Aproksymacja rozkładu dwumianowego rozkładem normalnym. 2. Rozkłady próbkowe. 3. Centralne twierdzenie graniczne

Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu.

Statystyka. Wydział Zarządzania Uniwersytetu Łódzkiego

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów

Wykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa

3. Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,

Testowanie hipotez statystycznych.

SIMR 2017/18, Statystyka, Przykładowe zadania do kolokwium - Rozwiązania

Statystyka. Wydział Zarządzania Uniwersytetu Łódzkiego

Testowanie hipotez. Hipoteza prosta zawiera jeden element, np. H 0 : θ = 2, hipoteza złożona zawiera więcej niż jeden element, np. H 0 : θ > 4.

Rozkłady prawdopodobieństwa

Seria 1. Zbieżność rozkładów

Współczynnik korelacji. Współczynnik korelacji jest miernikiem zależności między dwiema cechami Oznaczenie: ϱ

Spis treści 3 SPIS TREŚCI

Estymacja przedziałowa - przedziały ufności dla średnich. Wrocław, 5 grudnia 2014

Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/

Matematyka ubezpieczeń majątkowych r.

Powtórzenie wiadomości z rachunku prawdopodobieństwa i statystyki.

Biostatystyka, # 3 /Weterynaria I/

Wartość oczekiwana Mediana i dominanta Wariancja Nierówności związane z momentami. Momenty zmiennych losowych Momenty wektorów losowych

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa

5 Przegląd najważniejszych rozkładów

P (A B) = P (A), P (B) = P (A), skąd P (A B) = P (A) P (B). P (A)

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

WYKŁAD 2. Zdarzenia losowe i prawdopodobieństwo Zmienna losowa i jej rozkłady

Transkrypt:

Kombinatoryka W tej serii zadań można znaleźć pojawiające się na egzaminach zadania dotyczące problemu wyznaczania prostych parametrów rozkładu w przypadku zgadnień kombinatorycznych. Zadania te wymagają podstawowej wiedzy kombinatorycznej oraz dyskretnych zmiennych losowych.. (Eg 8/) W urnie znajduje się 6 kul, z których 8 jest białych i 8 czarnych. Losujemy bez zwracania 6 kul, a następnie 5 z pozostałych kul. Niech S oznacza liczbę kul białych uzyskaną w drugim losowaniu. Oblicz VarS. Odp: B->. Rozwiązanie. Stosujemy zmienne włączeniowe, X i {, }, i {,,..., }, gdzie X i = jeśli w i-tym losowaniu wyciągnięto białą kulę i w przeciwnym przypadku. Oczywiście S = i=7 X i. Zachodzi EX i = P(X i = ) =, i {,,..., } oraz EX ix j = P(X i =, X j = ) = 7 5 = 7, i j, i, j {,,..., }. Zatem Czyli ES = 5 =, ES = 5P(X = ) + 5 P(X =, X = ) = 5 + = 6. VarS = ( 5 ) = 86 75 =.. (Eg 9/6) Dysponujemy dwiema urnami: A i B. W urnie A są kule białe i czarne, w urnie B są kule białe i czarna. Wykonujemy trzy etapowe losowanie: (a) losujemy urnę; (b) z wylosowanej urny ciągniemy kule bez zwracania, a następnie wrzucamy do tej urny kule białe i czarne; (c) z urny, do której wrzuciliśmy kule, losujemy jedną kulę. Okazało się, że wylosowana w trzecim etapie kula jest biała. Obliczyć p-stwo, że w drugim wylosowano kule tego samego koloru. Odp: C->, 5. Rozwiązanie. Mamy drzewo prawdopodobieństw przejścia do poszczególnych stanów Stan P-p Stan P-p Stan P-p (, ) (, 5) biała 7 6 (, ) (, ) biała 7 (, ) (, ) biała 7 6 (, ) (, ) biała 7 5 (, ) (5, ) biała 7. Niech P(, b) będzie prawdopodobieństwem uzyskania białej kuli w losowaniu, P(, b) = 7 + 6 7 + 7 + 6 7 + 5 7 = 76. Z drugiej strony prawdopodobieństwo, że w drugim losowaniu pojawiły się kule biała i czarna, a w trzecim losowaniu biała P(, (b, c);, b) wynosi P(, (b, c);, b) = 6 7 + 5 7 = 8. Zatem P(, (b, c), b) = P(, (b, c);, b)/p(, b) = 8 76.

. (Eg 5/7) W urnie znajduje się kul białych, kul czarnych i kul niebieskich. Losujemy bez zwracania kule. Niech (a) X oznacza liczbę wylosowanych kul białych; (b) Y oznacza liczbę wylosowanych kul czarnych; (c) Z oznacza liczbę wylosowanych kul niebieskich. Współczynnik korelacji zmiennych losowych X + Y i Z, Corr(X + Y, Z) jest równy? Odp: B->. Rozwiązanie. Przypomnijmy, że Corr(X + Y, Z) = Cov(X, Z) = Cov(Y, Z), Var(X) = Var(Y ) = Var(Z), zatem Podobnie Cov(X+Y,Z) Var(X+Y ) Var(Z). Łatwo zauważyć, że Cov(X + Y, Z) = Cov(X, Z) + Cov(Y, Z) = Cov(X, Z). Var(X + Y ) = Cov(X + Y, X + Y ) = 5Var(X, X) + Cov(X, Y ). Korzystamy zmiennych włączeniowych, żeby obliczyć Cov(X, Z). Niech X = X, gdzie X i = jeśli w i tym losowaniu pojawiła się biała kula. Analogicznie definiujemy Y i, Z i, i {,,..., }. Zachodzi Wreszcie EX = P(X = ) = = 8, EX = P(X = ) + P(X =, X = ) = 8 + czyli Cov(X, Y ) = 8 ( 6 a = 8 59, mamy EXY = P(X =, Y = ) = 59 7 59 9 59 59 = 8 59. ) = 8 59 oraz Var(X) = 8 ( 96 59 7 59 = 8 96 59. Cov(X + Y, Z) = a, Var(X + Y ) = a a = 6a, Var(Z) = a. ) = 8 59. Niech zatem Ostatecznie Corr(X + Y, Z) = a = 6a a =.. (Eg 5/) Pan A przeznaczył 5 zł na pewną grę. W pojedynczej kolejce gry pan A wygrywa zł z p-stwem / przegrywa zł z p-stwem /. Pan A kończy grę, gdy wszystko przegra lub gdy będzie miał zł. P-stwo, że A wszystko przegra jest równe? Odp: D->, 97. Rozwiązanie. Zadanie dotyczy prawdopodobieństwa ruiny. W celu rozwiązania budujemy niezależne zmienne losowe X k, k takie, że X k = jeśli A wygrywa oraz X k = jeśli A przegrywa. Definiujemy S n = X +... + X n, n oraz S =. Okazuje się, że zmienne M n = Sn, n tworzą martyngał względem naturalnej filtracji. Rzeczywiście ( E(M n F n ) = M n E Xn = M n + ) = M n. Zauważmy, że gracz kończy grę w momencie τ = inf{n : S n { 5, 5}}. Zatem z twierdzenia Dooba (moment τ nie jest ograniczony ale nietrudno pokazać, że w tym przypadku również to

twierdzenie działa) wynika, że = EM τ. Niech teraz a = P(S τ = 5), b = P(S τ= 5 ). Ponieważ jak łatwo sprawdzić P(τ < ) =, więc a + b =, nadto = EM τ = a 5 + b 5. Mamy zatem układ równań { a + b = a 5 + b 5 = Stąd a = 5, b = 5. Szukana wartość to b, 97. 5. (Eg 5/) W urnie znajduje się ponumerowanych kul o numerach,...,. Losujemy bez zwracania kul, zapisujemy numery, kule zwracamy do urny. Czynność te powtarzamy razy. Oblicz wartość oczekiwaną liczby kul, które zostały wylosowane dokładnie dwa razy. Odp: D-> 9, 7. Rozwiązanie. Zadanie staje się proste jeśli zastosujemy zmienne włączeniowe, X, i {,,..., }, gdzie X i = jeśli dokładnie dwa razy kula z numerem i została wylosowana. Należy wyznaczyć E X = P(X = ), gdyż P(X i = ) są identyczne. Pozostaje zauważyć, że P(X i = ) = ( ) ( ) ( 9 ) 8. Stąd E X = 5 ( 9 ) 8 9, 7. 6. (Eg 5/) Z urny, w której jest 6 kul czarnych i białe losujemy kolejno bez zwracania po jednej kuli, tak długo aż wylosujemy kulę czarną. Wartość oczekiwana liczby wylosowanych kul białych jest równa? Odp: B-> 7. Rozwiązanie. Przypomnijmy wzór EX = k= P(X > k), dla zmiennych X o watotściach całkowitych dodatnich. Sprawdzamy, że P(X > ) =, P(X > ) = =, P(X > ) = 5 9 = 5, P(X > ) = 9 8 =, P(X > ) = 9 8 7 =, nadto P(X > k) = dla k >. Stąd EX = 5 + 5 + + = = 7. 7. (Eg 5/7) mamy dwie urny: I i II. Na początku doświadczenia w każdej z urn znajdują się kule białe i czarne. Losujemy po jednej kuli z każdej urny - po czym kulę wylosowaną z urny I wrzucamy do urny II, a te wylosowana z urny II wrzucamy do urny I. Czynność tę powtarzamy wielokrotnie. Granica (przy n ) p-stwa, iż obie kule wylosowane w n-tym kroku są jednakowego koloru, wynosi:? Odp: C-> 7. Rozwiązanie. Zadanie rozwiązuje się metoda łańcuchów Markowa. Jest możliwych 5 stanów na liczbę kul białych w urnie I. Należy znaleźć prawdopodobieństwa przejścia w jednym kroku. Mamy S 6 9 P = 6 6 6 9 6 6 6 6

należy wyznaczyć rozkład stabilny z równania πm = π oraz warunku, że k= π k =. Nietrudno zauważyć symetrię macierzy skąd wynika, że π = π, π = π. Nadto natychmiast zauważamy, że π = 6 π. Wystarczą zatem równania (w terminach π i π ) { π = 7 6 π + π = 8 π + π + π Skąd wynika, że π = π = 7, π = π = 8 5, π = 8 5. Obliczamy prawdopodobieństwa warunkowe wylosowania kul różnego koloru w zależności od stanu liczby kul białych w I urnie P((b, c) ) = P((b, c) ) =, P((b, c) ) = P((b, c) ) = 5 8, P((b, c) ) =. Dostajemy ze wzoru Bayesa dla stanów rozłożonych według π (czyli w granicy n ) P((b, c)) = 7 + 5 8 Zatem prawdopodobieństwo zdarzenia przeciwnego wynosi 7. 8 5 + 8 5 = 7. 8. (Eg 55/) Wylosowano niezależnie 5 liczb z rozkładu symetrycznego ciągłego i ustawiono je w ciąg według kolejności losowania. Otrzymano 8 liczb dodatnich (każda z nich oznaczamy symbolem a) i 7 ujemnych (każdą z nich oznaczamy symbolem b). Obliczyć p-stwo, że otrzymano 6 serii, gdzie serią nazywamy ciąg elementów jednego typu, przed i za którym występuje element drugiego typu, na przykład w ciągu: aaabbbbaabbbbba jest 5 serii ( serie elementów typu a i serie elementów typu b). Odp: C-> Rozwiązanie. Należy zauważyć, że zbiór Ω złożony ze wszystkich możliwych podzbiorów 8 elementowych w zbiorze 5 elementowym ma ( 5 8 ) elementów. Teraz należy zauważyć, że seria będzie jednoznacznie wyznaczonym podzbiorem jeśli podamy od jakiego symbolu zaczynamy, a następnie długości ścieżek k, k, k dla serii symbolu a oraz l, l, l dla serii symbolu b. Oczywiście ścieżki muszą mieć długość dodatnią nadto k + k + k = 8, l + l + l = 7. Ogólnie liczba rozwiązań równania x +... + x k = n w liczbach naturalnych (bez zera) wynosi ( n k ). Zatem liczność zbioru A 6 złożonego z serii długości 6 wynosi Ostatecznie A 6 = ( 7 )( ) 6. P(A 6 ) = A 6 Ω =. 9. (Eg 56/) Dysponujemy 5 identycznymi urnami. Każda z nich zawiera kule. Liczba kul białych w i-tej urnie jest równa i, gdzie i =,,..., 5, pozostałe kule są czarne. Losujemy urnę, a następnie ciągniemy z niej jedną kulę i okazuje się, że otrzymana kula jest biała. Oblicz p-stwo, że ciągnąc drugą kule z tej samej urny (bez zwracania pierwszej) również otrzymamy kulę białą. Odp: D->. Rozwiązanie. Ze symetrii zadania jest jasne, że szansa wylosowania białej kuli w pierwszej rundzie wynosi. Aby obliczyć szansę wyciągnięcia dwóch kul białych stosujemy wzór Bayesa ( 5 i ) P((b, b)) = ( ) 5. Zachodzi wzór kombinatoryczny 5 ( i ) ( = 5 ) ( (trójkąt Pascala). Nadto 5 ) ( / ) = 5, stąd P((b, b)) =. To oznacza, że P((b, b) b) =.

. (Eg 57/) Urna zawiera 5 kul o numerach:,,,,. Z urny ciągniemy kulę, zapisujemy numer i kulę wrzucamy z powrotem do urny. Czynność tę powtarzamy, aż kula z każdym numerem zostanie wyciągnięta co najmniej raz. Oblicz wartość oczekiwaną liczby powtórzeń. Odp: C-> 5. Rozwiązanie. Tutaj łatwo zauważyć, że jeśli T,..., T 5 będą czasami oczekiwania na kolejny nowy symbol, to T = nadto T k+ T k, k {,,, } ma rozkład geometryczny z prawdopodobieństwem sukcesu p k = 5 k 5 (i wartości oczekiwanej /p k ). Zatem ET 5 = + E(T k+ T k ) = + k= k= 5 5 k = 5.. (Eg 58/7) W urnie znajduje się kul: białych i czerwonych. Losujemy bez zwracania 8 kul, a następnie z pozostałych w urnie kul losujemy kolejne 6 kul. Niech S 8 oznacza liczbę wylosowanych kul białych wśród pierwszych 8 wylosowanych kul, a S 6 liczbę kul białych wśród następnych 6 kul. Oblicz Cov(S 8, S 8 + S 6 ). Odp: C-> 9. Rozwiązanie. Oczywiście skorzystamy ze zmiennych włączeniowych. Niech X i, i {,..., } oznacza jeśli w i tej rundzie pojawiła się biała kula i w przeciwnym przypadku. Mamy S 8 = 8 X i oraz S 6 = 6 i=9 X i. Zachodzi Teraz Stąd Z drugiej strony Co daje Ostatecznie ES 8 = 8P(X = ) =, E(S 6 ) = 6P(X = ) =. ES8 = 8P(X = ) + 8 7P(X =, X = ) = + 56 9 9 = 8 9. VarS 8 = 8 9 9 = 9. ES 8 S 6 = 8P(X =, X = ) = 8 9 9. Cov(S 8, S 6 ) = 6 9 8 9 = 9. Cov(S 8, S 8 + S 6 ) = VarS 8 + Cov(S 8, S 6 ) = 9 9 = 9.. (Eg 6/9) W urnie znajduje się kul, na każdej narysowana jest litera i cyfra. Mamy: (a) kul oznaczonych X; (b) 6 kul oznaczonych Y ; (c) 8 kul oznaczonych X; (d) 6 kul oznaczone Y. Losujemy bez zwracania 5 kul. Niech N X oznacza liczbę kul oznaczonych literą X wśród kul wylosowanych,a N liczbę kul z cyfrą wśród kul wylosowanych. Obliczyć Var(N X N = 5). Odp: A-> 5 6. Rozwiązanie. Dokonujemy uproszczenia, mamy pięć kul wylosowanych z cyfrą. Zatem de facto losujemy typu X lub X, czyli ze zbioru 8 elementowego. W tym modelu probabilistycznym 5

musimy policzyć wariancję zmiennej NX co robimy przez zmienne włączeniowe. Niech X i, i {,..., } będzie zmienną przyjmującą jeśli na i-tej pozycji stoi X oraz jeśli X. Oczywiście N X = X. Wyznaczamy Nadto Stąd E N X = P(X = ) = 5 8 = 5. E N X = P(X = ) + 9P(X =, X = ) = 5 8 + 9 5 8 9 5 = 8 =. Var N X = 6 6 65 6 = 5 6.. (Eg 6/5) W urnie znajduje się kul ponumerowanych od do. Losujemy bez zwracania 5 kul i zapisujemy numery, a następnie wrzucamy kule z powrotem do urny. Czynność powtarzamy 5 razy. Oblicz wartość oczekiwaną liczby kul, które zostały wylosowane co najmniej razy. Odp: D-> 6, 7. Rozwiązanie. Zadanie rozwiązujemy przez zmienne włączeniowe. Niech X i, i {,..., } przyjmuje wartość jeśli kula z numerem i pojawiła się co najmniej razy w losowaniu i w przeciwnym przypadku. Oczywiście szukana odpowiedź to E X i = P(X = ). Żeby policzyć P(X = ) zauważmy, że w każdym z 5 losowań kula i miała prawdopodobieństwo, że się pojawi. Zatem P(X = ) = 5 k= ( 5 k ) ( ) k ( ) 5 k = ( ) 5 5 ( ) = 7 8. Czyli wynik to 7 8 6, 7.. (Eg 6/6) Z urny, w której są kule białe i czarne, wylosowane jedną kulę a następnie wrzucono ja z powrotem dorzucając kulę w tym samym kolorze co wylosowana. Następnie z urny wylosowano kule, wrzucono je z powrotem dorzucając kule identyczne jak wylosowane. Następnie wylosowano kule. Okazało się, że są to kule białe. Oblicz p-stwo, że w drugim losowaniu wylosowane kule różnych kolorów. Odp: A-> 5 9. Rozwiązanie. Potrzebujemy struktury drzewa aby opisać kolejne losowania Wyznaczamy Stan P-p Stan P-p Stan P-p 5 (, ) 5 (5, ) 5 (b, b, b) 8 (, ) 5 (, ) 5 (b, b, b) (, ) 5 (, 5) 5 (b, b, b) 56 (, ) 5 (, ) 5 (b, b, b) 8 (, ) 5 (, 5) 5 (b, b, b) 56 P(, (b, b, b)) = 5 5 5 8 + 5 5 + + 5 5 56 + 5 5 + 5 8 5 56 = 9 5 8. 6

Teraz wyznaczamy Stąd P(, (b, c);, (b, b, b)) = 5 5 + 5 8 5 56 = 6 5 8. P(, (b, c);, (b, b, b)) = 6 9. 5. (Eg 6/)W urnie znajdują się kule, z których każda jest oznaczona jedną z liter alfabetu: kul oznaczonych literą A. kul oznaczonych literą B. kul oznaczonych literą C. x kul oznaczonych innymi literami alfabetu. Losujemy bez zwracania 9 kul z urny. Zmienne losowe N A, N B, N C oznaczają, odpowiednio, liczbę wylosowanych kul z literami A, B, C. Jakie musi być x, aby zmienne losowe N A +N B oraz N B +N C były nieskorelowane. Odp: C-> x = 5. Rozwiązanie. Korzystamy ze zmiennych A i, B i, C i, X i, i 9 gdzie zmienne przyjmują wartości lub, przy czym jeśli na pozycji w i-tym losowaniu wybrano odpowiednio A, B, C oraz inną literę. Zachodzi N A = 9 A i, N B = 9 B i N C = 9 C i. Należy wyliczyć Cov(N A, N B ), Cov(N B, N C ), Cov(N C, N A ). Zachodzi nadto Stąd EN A = 9 6 + x, EN B = 9 6 + x, EN C = 9 6 + x, EN A N B = 7EA B = 7 6 + x 59 + x, EN B N C = 7EB C = 7 6 + x 59 + x, EN C N A = 7EC A = 7 6 + x 59 + x, ENB = 7EB B + 9EB 9 = 7 6 + x 59 + x + 9 6 + x. Cov(N A, N B ) = Cov(N B, N C ) = Cov(N B, N C ) = 9 6 + x ( 8 59 + x 9 6 + x ) = 9 c ( x 5) (6 + x) (59 + x), 9 6 + x ( 8 59 + x 9 9 ( x 5) ) = 6 + x (6 + x) (59 + x), 9 6 + x ( 8 59 + x 9 9 ( x 5) ) = 6 + x (6 + x) (59 + x), Cov(N B, N B ) = 9 6 + x ( 8 9 59 + x + 9 6 + x ) = 9 (x + 9x + 6) (6 + x). (59 + x) Zatem N A + N B i N B + N C są nieskorelowane jeśli = Cov(N A + N B, N B + N C ) = Cov(N A, N B ) + Cov(N C, N A ) + Cov(N B, N B ) + Cov(N B, N C ) 7

co jest równoważne Przekształcając to równanie (x + 5) + (x + 9x + 6) =. x + 6x 765 =. Rozwiązaniami tego równanie są x = 6±66, czyli x = 5 i x = 5. Interesują nas wyłącznie rozwiązania dodatnie zatem x = 5. 8

Gaussowskie zmienne losowe W tej serii rozwiążemy zadania dotyczące zmiennych o rozkładzie normalny. Wymagana jest wiedza na temat własności rozkładu normalnego, CTG oraz warunkowych wartości oczekiwanych.. (Eg 8/6) Niech X, X,..., X n,... będą niezależnymi zmiennymi losowymi o identycznym rozkładzie o gęstości f(x) = x (,)(x). Niech U n = (X...X n ) n. Wtedy: (asymptotyka U n e )? Odp: B-> lim n P((U n e ) n < e ) =, 977. Rozwiązanie. Zadanie polega na umiejętnym zastosowaniu CTG. Zauważmy, że Y i = log X i, i {,..., n} oraz P(Y i > t) = P(X i < e t ) = e t, t. Czyli Y i ma rozkład Exp( ), w szczególności EY i =, VarY i =. Zatem (U n e ) n = e (exp( n (Y i ) ) n. Z mocnego prawa wielkich liczb wynika, że lim n n n (Y i ) =. Zatem (exp( n Czyli w sensie rozkładu (Y i ) ) n = n gdzie Z ma rozkład N (, ). Stąd n lim (U n e ) n = e lim n n (Y i )( + O( n n n (Y i )). (Y i ) = e Z, lim P((U n e ) n < e ) = P(Z < ), 977. n. (Eg 5/6) Rozważmy następujące zagadnienie testowania hipotez statystycznych. Dysponujemy próbką X,..., X n z rozkładu normalnego o nieznanej średniej µ i znanej wariancji równej. Przeprowadzamy najmocniejszy test hipotezy H : µ = przeciwko alternatywie H : µ = na poziomie istotności α = /. Niech β n oznacza prawdopodobieństwo błędu drugiego rodzaju, dla rozmiaru próbki n. Wybierz poprawne stwierdzenie: (asymptotyka β n ) Odp: D-> lim n β n e n 8 πn =. Rozwiązanie. Najpierw znajdujemy błąd drugiego rodzaju czyli akceptacja hipotezy H w sytuacji gdy zachodzi H. Test najmocniejszy oparty jest na konstrukcji obszaru krytycznego wynikającej z Twierdzenia Neymana-Pearsona (o porównywaniu gęstości). Niech µ =, µ = oraz niech f µ, f µ będą gęstościami rozkładu wektora (X,..., X n ) niezależnych zmiennych losowych o tym samym rozkładzie co zmienna X, odpowiednio X N (µ, ), X N (µ, ). W metodzie Neymana-Pearsona badamy iloraz wiarygodności, to znaczy f µ (x,..., x n )/f µ (x,..., X n ). W przypadku rozkładów ciągłych nie potrzeba randomizacji, a obszar krytyczny ma postać K = {(x,..., x n ) R n : f µ (x,..., x n )/f µ (x,..., x n ) > C} dla stałej C dobranej tak aby P µ ((X,..., X n ) K) = α. W naszym przypadku oznacza to konieczność znalezienia stałej C takiej, że P µ (X +... + X n < C) =.

Oczywiście C =. Błąd drugiego rodzaju wynosi β n = P µ (X +... + X n > C) = P( n + nz > ), gdzie Z ma rozkład N (, ). Zatem zostaje zbadać asymptmpotykę n β n = P(Z > ). Oczywiście P(Z > t) πt e t stąd πn lim β n e n 8 =. n. (Eg 5/) Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach normalnych, przy tym EX = EY =, VarX = i VarY =. Oblicz P( X < Y ). Odp: A-> P( X < Y ) =,. Rozwiązanie. To zadanie ma czysto geometryczne rozwiązanie. Wystarczy wykorzystać rotacyjną niezmienniczość standardowego rozkładu normalnego nadto zauważyć, że X = X, gdzie X ma rozkład N (, ). Zatem ( X, Y ) ma standardowy rozkład normalny na R oraz P( X < Y ) = P( X < Y ) = µ S ({α S : tg α < }), gdzie µ S jest miarą Lebesgue a na okręgu jednostkowym unormowaną do. Oczywiście {α S : tg α < } = {α S : α π 6 lub π α π 6 } Zatem µ S ({α S : tg α < }) =.. (Eg 5/5) Załóżmy, że X, Y są zmiennymi o łącznym rozkładzie normalnym, EX = EY =, VarX =, VarY = i Cov(X, Y ) =. Oblicz E(XY X Y = t), Odp: C-> 7 6 t. Rozwiązanie. Potrzebujemy metody znajdowania bazy niezależnych liniowych funkcji od X, Y zawierającej X Y. Szukamy α takiego, że X αy będzie niezależne od X Y. Wystarczy sprawdzić kowariancję Cov(X Y, X αy ) = α + α = + α. Stąd α =. Wystarczy teraz rozpisać X, Y w znalezionej bazie. Mamy { X = [(X Y ) + (X + Y )] Y = [ (X Y ) + (X + Y )] Niech Z = (X + Y ), zmienną X Y możemy traktować jako parametr t przy wyliczaniu warunkowej wartości oczekiwanej (bo jest niezależna od Z). Zatem E(XY X Y = t) = E( (t + Z) ( t + Z)) = 6 ( t + tez + EZ ). Oczywiście EZ =. Natomiast z dwuliniowości kowariancji i EZ = VarZ = + + 9 = 8 9. Czyli E(XY X Y = t) = 6 t + 7.

5. (Eg 5/9) Mamy próbą prostą ((X, Y ), (X, Y ),..., (X, Y )) z rozkładu normalnego dwuwymiarowego o nieznanych parametrach Niech EX i = EY i = µ, VarX i = VarY i = σ, Cov(X i, Y i ) = σ ρ. Z i = X i + Y i, R i = X i Y i, S Z = 9 (Z i Z), S R = 9 (R i R), gdzie Z oraz R to odpowiednie średnie z próbki. Do testowania hipotezy H : ρ = przeciwko alternatywie H : ρ możemy użyć testu o obszarze krytycznym postaci: SZ SR < k, lub S Z SR > k, przy czym liczby k i k dobrane są tak, aby przy założeniu, że H jest prawdziwa Liczby k i k są równe:? Odp: D-> k =, 69 i k = 6, 58. P( S Z SR < k ) = P( S Z SR > k ) =, 5. Rozwiązanie. Zauważmy, że (X i + Y i ) jest niezależne od (X i Y i ), istotnie Cov(X i + Y i, X i Y i ) = VarX i Cov(X i, Y i ) + Cov(Y i, X i ) Var(Y i ) =. To oznacza, że SZ i S R są niezależne. Wystarczy wyznaczyć ich rozkłady. Mamy Analogicznie Var(X i + Y i ) = σ + ρσ = ( + ρ)σ. Var(X i Y i ) = σ ρσ = ( ρ)σ. To oznacza, że Z i = [( + ρ)] σẑi, R i = [( ρ)] ˆRi, gdzie Ẑi, ˆR i są niezależne z rozkładu N (, ). Zatem SZ SR = + ρ ŜZ. ρ Ŝ R To oznacza, że aby wyznaczyć k, k należy wziąć wartości dla F 9,9 i pomnożyć je przez +ρ ρ, które przy H wynosi. Czyli k =, 789 6, 58 oraz k = (/, 789), 69 6. (Eg 5/9) Zmienne losowe X i Y są niezależne i zmienna X ma rozkład logarytmiczno-normalny LN(µ, σ ), gdzie µ = i σ =, a zmienna Y ma rozkład wykładniczy o wartości oczekiwanej. Niech S = X + Y. Wtedy E(S X > e) jest równa? Odp: E->, 6. Rozwiązanie. Przypomnijmy definicję E(S X > e) = ES X>e P(X > e). Teraz zauważmy, że X = e Y, gdzie Y ma rozkład N (, ), czyli Y = + Z, gdzie Z N (, ). Zatem P(X > e) = P( + Z > ) = P(Z > ) =.

Obliczamy Należy obliczyć ES X>e = EX X>e + P(X > e)ey = Ee +Z Z> + = + eeez Z>. Zatem Ostatecznie Ee Z Z> = Ee Z Z> = e e x e x dx = e e (x ). π π π e x dx = e P(Z > ). E(S X > e) = + e P(Z > ), 6. 7. (Eg 55/) Załóżmy, że zmienne losowe X, Y mają łączny rozkład normalny taki, że Oblicz Cov(X, Y ). Odp: D-> 8. EX =, EY =, Var(X) =, Var(Y ) = 9, i Cov(X, Y ) =. Rozwiązanie. Przypomnijmy, że ogólny wzór na k-ty moment zmiennej V rozkładzie N (, σ ) ma postać EV k = σ k (k )(k )..., EV k+ = Aby obliczyć Cov(X, Y ) potrzebujemy policzyć EX Y. Po raz kolejny należy posłużyć się bazą złożoną z liniowych względem X, Y zmiennych niezależnych. Ściślej szukamy α takiego, że X αy jest nieskorelowane z Y, a przez to niezależne bo (X, Y ) tworzą wektor gaussowski. Mamy Cov(Y, X αy ) = 9α, stąd α =. Niech Z = X Y, zachodzi EZ =, VarZ = + 99 =. Dalej mamy rozkład X = Z + Y, stąd EX Y = E(Z + Y ) Y = EZ EY + EZEY + 9 EY. Drugi składnik powyżej jest zerem bo EY =, a stąd EY =. Zauważmy jeszcze, że podobnie EX EY = (EZ + 9 EY )EY. Dlatego Cov(X, Y ) = 9 (EY (EY ) ). Pozostaje zauważyć, że EY = 9 oraz EY = 9. Zatem Cov(X, Y ) = 9 ( 9 9 ) = 9 = 8.

8. (Eg 57/) Niech X, X,..., X n będą niezależnymi zmiennymi losowymi z rozkładu normalnego o wartości oczekiwanej i nieznanej wariancji σ. Rozważmy estymatory odchylenia standardowego σ postaci ˆσ c = c n X i. Niech ˆσ c oznacza estymator o najmniejszym błędzie średniokwadratowym w klasie rozważanych estymatorów. Wtedy c jest równe? Odp: D-> π π+n. Rozwiązanie. Niech X ma rozkład N (, σ ). Oczywiście E X = π σ, zatem f(c) = E(ˆσ c σ) = Var(ˆσ) + (Eˆσ σ) = nc Var( X ) + (cn ) σ = π = nc ( π )σ + (cn ). π Aby obliczyć punkt minimum znajdujemy z równania f (c) =. Zachodzi f (c) = nc( π )σ + (n c π n π )σ. stąd f (c) = dla n( π π (n ) + )c = n czyli c = π π + n. 9. (Eg 58/) Niech X, X,..., X n,..., N będą zmiennymi losowymi. Zmienne X, X,..., X n,... mają rozkład logarytmiczno-normalny LN(µ, σ ), gdzie µ =, σ =. Zmienna N ma rozkład Poissona o wartości oczekiwanej. Niech S N = N X i dla N > oraz S N = dla N =. Wtedy współczynnik asymetrii E(S N ES N ) (VarS N jest równy? ) / Odp: D-> e6. Rozwiązanie. Niech X ma rozkład LN(µ, σ ), najpierw zauważmy, że E(S N ES N ) = EE[(S N ES N ) N] = EE[(S N NEX + (N EN)EX) N] = Zauważmy, że = ENE(X EX) + EN(N EN)EXE(X EX) + E(N EN) (EX). = EN = VarN = E(N EN) = EN(N EN) = E(N EN) (scentrowane momenty drugi i trzeci dla rozkładu Poissona są równe wartości oczekiwanej). Zatem E(S N ES N ) = (E(X EX) + EXE(X EX) + (EX) ) = EX. Z definicji X = exp(y ), gdzie Y ma rozkład N (µ, σ ), a dalej Y = σz + µ, gdzie Z ma rozkład N (, ). Przypomnijmy wzór n transformatę Laplace cea dla rozkładu N (, ) Stąd E exp(λz) = exp( λ ). EX = E exp(σz + µ) = e 9σ +µ = e. Zatem E(S N ES N ) = e. Analogicznie pokazujemy VarS N = E(S N ES N ) = ENE(X EX) + VarN(EX) = EX. 5

Mamy EX = E exp(σz + µ) = e σ +µ = e. czyli VarS N = E(S N ES N ) = e. Obliczamy E(S N ES N ) (VarS N ) / = e (e ) = e6.. (Eg 59/) Zmienna losowa X rozkład logarytmiczno-normalny LN(µ, σ ), gdzie µ = i σ =. Wyznacz E(X e X>e) EX. Odp: C->, 8. Rozwiązanie. Zauważmy, że X = e Y, gdzie Y ma rozkład N (µ, σ ), nadto Y = σz +µ = Z +, gdzie Z pochodzi z rozkładu N (, ). Z definicji E(X e X > e) = E X>e(X e). P(X > e) Obliczamy Zatem P(X > e) = P(Z + > ) = P(Z > ) =. E X>e (X e) = ee Z> (e Z ) = e(e Z> e Z ). Nadto a stąd Otrzymujemy E Z> e Z = e x e x E Z> e Z = e z drugiej strony z transformaty Laplace a dx = e π e x e (x ) π dx = e P(Z > ). E(X e X > e) = e P(Z > ) e EX = E exp(z + ) = e. π dx Czyli E(X e X > e) EX = P(Z > ) e, 8.. (Eg 6/6) Zmienne losowe X, X,..., X są niezależne o jednakowym rozkładzie normalnym o wartości oczekiwanej i wariancji. Niech S 5 = 5 X i i E(S5 S = ) jest równa? Odp: D-> 5. Rozwiązanie. Niech S 5 = i=6 X i. Z jednej strony S = S 5 + S 5 nadto szukamy α takiego, że = Cov(S 5 + S 5, S 5 αs 5 ) = Var(S 5 ) αvar(s 5 ) = 5 α5 = ( α). Stąd α =. Oczywiście S 5 = [(S 5 + S 5 ) + (S 5 S 5)] = [S + (S 5 S 5)]. 6

Zatem Sprawdzamy Zatem E(S 5 S = ) = E ( 6 [ ) S + (S 5 5)] S S = = 6 S + 8 S E(S 5 S 5) + 9 6 E(S 5 S 5). E(S 5 S 5) =, E(S 5 S 5) = 5 + 5 9 = 8. E(S5 S = ) = 6 S + 9 8 6 = 6 + 5 = 5.. (Eg 6/6) Rozważmy następujące zagadnienie testowania hipotez statystycznych. Dysponujemy próbką X,..., X n z rozkładu normalnego o nieznanej średniej µ i znanej wariancji równej. Przeprowadzamy najmocniejszy test hipotezy H : µ = przeciwko alternatywie H : µ = na poziomie istotności α =. Niech β n oznacza prawdopodobieństwo błędu drugiego rodzaju, dla rozmiaru próbki n. Wybierz poprawne stwierdzenie: (asymptotyka β n ). β Odp: E-> lim n n e n / =. πn Rozwiązanie. Niech f, f będą gęstościami odpowiednio N (, ), N (, ). Przypomnijmy, że test najmocniejszy Neymana Pearsona polega na porównaniu gęstości, czyli zbiór krytyczny ma postać K = {(x,..., x n ) R n : f (x,..., x n ) f (x,..., x n ) > C}, gdzie C jest stałą taką, że P µ= ((X,..., X n ) K) =. Łatwo zauważyć, że Stąd szukamy stałej C takiej, że K = {(x,..., x n ) : x i > C}. P µ= (X +... + X n > C) = stąd C =. Błąd drugiego rodzaju to akceptacja hipotezy H podczas, gdy zachodzi H. Oznacza to, że β n = P µ= (X +... + X n ). Przy µ = zachodzi X i = Z i +, gdzie Z, Z i, i =,,... będą niezależne z rozkładu N (, ). Stąd β n = P( (Z +... + Z n ) n) = P( nz n) = P(Z n). Ponieważ P(Z > t) πt e t, więc lim n β n e n / πn =. 7

. (Eg 6/) Niech X, X, X,... będą niezależnymi zmiennymi losowymi o tym samym rozkładzie logarytmiczno normalnym parametrami µ R i σ >. Niech T n oznacza estymator największej wiarygodności wariancji V w tym modelu w oparciu o próbę X, X,..., X n. Niech µ =, 5 i σ =. Wtedy P( T n V n >, 7) =? Odp: A->,. Rozwiązanie. Zachodzi X i = e Yi, i =,,..., n, gdzie Y, Y, Y,..., Y n są niezależne i pochodzą z rozkładu N (µ, σ ). Trzeba przypomnieć estymatory największej wiarygodności dla rozkładu normalnego µ n = Ȳ = n (Y +... + Y n ), σ n = Y (Ȳ ) = n (Y i Ȳ ). Powyższe estymatory wykorzystujemy aby znaleźć estymator wariancji V. Mamy Nadto z powyższego wzory wynika, że V = VarY = EY (EY ) = e σ +µ e σ +µ = e. T n = e µn (e σ n e σ n ). Należy pamiętać, że µ n i σ n są niezależne. Mamy T n V = (e µn e )(e σ n e σ n )+ + e (e σ n e e σ n e). Z mocnego prawa wielkich liczb wynika, że µ n µ, σ n σ prawie na pewno. Nadto n(e µ n e ) = ne (e µn+ ) = ne ( µ n + )( + O( µ n + )). Oczywiście w sensie słabej zbieżności Stąd lim n n( µn + ) = N (, ). lim n(e µ n e )(e σ n e σ n ) = A N (, [(e )] ) n Ściślej korzystając z σ n σ lim n(e µ n e )(e σ n e σ n ) = lim n(e µ n e )(e e) = A. n n Analogicznie W sensie słabej zbieżności Zatem e σ n e + e σ n e = (e e) n( σ n )( + O( σ n )). lim n( σ n ) = N (, ). n lim n e (e σ n e e σ n e) = B N (, [e ] ). Ostatecznie korzystając z niezależności µ n oraz σ n dostajemy dla niezależnych A i B n(tn V ) = A + B N (, [(e ) ] + [e )] ). lim n Niech Z będzie z N (, ) otrzymujemy lim P( T n V, 7 n >, 7) = P( Z > ) =,. n [(e ) ] + [(e )] Przedstawiona metoda ma swoją nazwę jako metoda delta. Powyższy przypadek szczególny można zebrać w ogólne twierdzenie. 8

Twierdzenie (Metoda delta) Jeżeli dla ciągu zmiennych T n mamy n(t n µ) N (, σ ) przy n i h : R R jest funkcją różniczkowalną w punkcie µ, to n(h(tn ) h(µ)) N (, σ (h (µ)) ), w sensie zbieżności według rozkładu.. (Eg 6/7) Zmienna losowa (X, Y, Z) ma rozkład normalny z wartością oczekiwaną EX =, EY = EZ = i macierzą kowariancji. Obliczyć Var(X(Y + Z)). Odp: D-> 7. Rozwiązanie. Stosujemy metodę z uniezależnianiem zmiennych. Z założenia wynika, że Cov(X, Y ) = oraz Cov(X, Z) =, Cov(Y, Z) =. Zatem zmienne X i Z są niezależne, Wystarczy dobrać α i β tak aby Y αx βz było niezależne (czyli równoważnie nieskorelowane) ze zmiennymi X i Z. Sprawdzamy, że Cov(Y αx βz, X) = α, czyli α = nadto Cov(Y αx βz, Z) = β, czyli β =. Zatem baza liniowa składa się ze zmiennych niezależnych X, Ȳ = Y X Z, Z, gdzie X ma rozkład N (, ), zmienna Ȳ ma rozkład N (, ), a zmienna Z rozkład N (, ). Obliczamy Var(X(Y + Z)) = Var(XY ) + Cov(XY, XZ) + Var(XZ) = = Var(XȲ ) + Cov(XȲ, X(X + Z)) + Var(X(X + Z))+ + Cov(XȲ, XZ) + Cov(X(X + Z), XZ) + Var(XZ) = = EX EȲ + EX EȲ EZ + EX (EX ) + EX EZ + + EX EȲ EZ + EX EZ = ( + ) + + + 5 + + = 7. 5. (Eg 6/9) Niech Y, Y,..., Y n będą niezależnymi zmiennymi losowymi, przy czym zmienna Y i, i =,,..., n, ma rozkład logarytmiczno-normalny LN(bx i, ), gdzie x, x,..., x n są znanymi liczbami, a b jest nieznanym parametrem. Załóżmy, że n x i =. Niech b będzie estymatorem największej wiarogodności parametru b, a ḡ = exp(b) estymatorem funkcji g(b) = exp(b). Wtedy obciążenie estymatora ḡ E b ḡ g(b) jest równe Odp: B-> e b ( e ). Rozwiązanie. Najpierw obliczamy wiarygodność dla zmiennych Z, Z,..., Z n, gdzie Z i = ln Y i, czyli Z i ma postać N (bx i, ). Obliczamy wiarygodność dla Z,..., Z n L(b, z) = (π) n exp( 9 (z i bx i ) ).

Rozwiązujemy równanie f (b) = dla f(b) = ln L(b, z). Wówczas Stąd x, z (z i bx i )x i =, czyli b = x, x = x, z. b = x i Z i. Pozostaje zauważyć, że b ma rozkład N (b, ). Stąd E b ḡ g(b) = E b exp( b) e b = e b (e ).

Parametry rozkładów W tej serii będziemy obliczać różne parametry zmiennych losowych. Wymagana jest znajomość własności rozkładów probabilistycznych oraz umiejętne korzystanie z niezależności zmiennych losowych.. (Eg 8/7) Niech X, X,..., X n,... będą niezależnymi zmiennymi losowymi o jednakowym rozkładzie wykładniczym o gęstości f(x) = e x gdyx > oraz f(x) = gdy x. Niech N będzie zmienną losową, niezależną od X, X,..., X n,..., o rozkładzie ujemnym dwumianowym P(N = n) = Γ(r+n) Γ(r)n! pr ( p) n dla n =,,,..., gdzie r > i p (, ) są ustalonymi parametrami. Niech Z N = min(x, X,..., X N ), gdy N > oraz Z N =, gdy N =. Oblicz E(NZ N ) i Var(NZ N ). Odp: C-> E(NZ N ) = pr i Var(NZ N ) = pr. Rozwiązanie. Dla zmiennej Z z rozkładu wykładniczego Exp(λ) zachodzi EZ = k!, k = λ k,,,.... Przypomnijmy, ze minimum z niezależnych zmiennych wykładniczych ma rozkład wykładniczy o parametrze będącym sumą parametrów dodawanych zmiennych. To znaczy rozkład Z ma postać Exp(n). W szczególności EZ n = n oraz EZ n = n oraz EZ = EZ =. Obliczamy E(NZ N ) = P(N = n)nez n = P(N = n) = ( pr ), Stąd n= E(NZ N ) = P(N = n)n EZn = = P(N = n) = ( pr ). n= n= n= n= Var(NZ N ) = ( pr + p r p r ) = ( pr ).. (Eg 9/) Niech X, X,..., X n,... I, I,..., I n,..., N będą niezależnymi zmiennymi losowymi. Zmienne X, X,..., X n,... mają rozkład o wartości oczekiwanej i wariancji. Zmienne I, I,..., I n,... mają rozkład jednostajny na przedziale (, ). Zmienna N ma rozkład ujemny dwumianowy P(N = n) Γ(+n) n! ( ) ( )n dla n =,,,... Niech S N =, gdy N = oraz S N = N I ix i, gdy N >. Wtedy Var(S N ) jest równa:? Odp: C-> VarS N =. Rozwiązanie. Przypomnijmy własności rozkładu ujemnego dwumianowego EN = ( ) ( ) = oraz VarN = ( ) = 8 9 i EN =. Niech X ma rozkład taki jak X, X,... nadto I ma rozkład taki jak I, I,... Mamy ES N = P(N = n)es n = P(N = n)neiex = P(N = n)n = EN. Nadto Czyli n= n= n= ESN = P(N = n)esn = P(N = n)(nex EI + n(n )(EXEI) ) = = n= P(N = n)(n(n + )) = EN(N + ). n= n= VarS N = EN + EN (EN) = + 9 9 =.

. (Eg 5/) Niech X, X,..., X n,... będą niezależnymi zmiennymi losowymi z rozkładu gamma o gęstości p(x) = 6xe x, gdy x >, oraz p(x) = gdyx. Niech N będzie zmienną losową niezależna od zmiennych X, X,..., X n,... spełniającą P(N = ) =, i P(N = ) = P(N = ) = P(N = ) = 6. Niech S =, gdy N = oraz S = N X i, gdy N >. Wtedy E(S ES) jest równe?. Odp: B-> 7 6. Rozwiązanie. Przypomnijmy momenty dla zmiennej Z z rozkładu Gamma(α, β) zachodzi W przypadku zadania α =, β =, stąd Podobnie wyznaczamy Zatem EZ = α β, E(Z EZ) = α β, E(Z EZ) = α β. EX =, E(X EX) = 8, E(X EX) = 6. EN =, E(N EN) =, E(N EN) =. E(S ES) = E(S NEX + NEX ES) = EE[(S NEX + NEX ES) N] = = ENE(X EX) + E(N EN) EXE(X EX) + E(N EN) (EX) = = 6 + 8 + 8 = 7 6.. (Eg 5/7) Załóżmy, że X, X,..., X n,... są niezależnymi zmiennymi losowymi o jednakowym rozkładzie wykładniczym o gęstości f(x) = exp( x) dla x >. Zmienna losowa N jest niezależna od X, X,..., X n,... i ma rozkład Poissona o wartości oczekiwanej λ. Niech Oblicz Cov(S (Y ), S (Z) ). Odp: A-> Cov(S (Y ), S (Z) ) = λe. Y i = min(x i, ), Z i = X i Y i, N N S (Y ) = Y i, S (Z) = Z i. Rozwiązanie. Niech Y, Z będą miały rozkład odpowiednio jak X, X,..., Y, Y,.... Wyznaczamy ES (Y ) = ENEY = λey oraz ES (Z) = EN(EX EY ) = λez.

Wyznaczamy ES (Y ) S (Z) = P(N = n)e( Y i, Z i ) = P(N = n)(ne(y Z) + n(n )EY EZ) = n= n= = ENE(Y Z) + E(N(N ))EY EZ = λe(y Z) + λ EY EZ. Mamy Stąd E(Y Z) = E(X ) + = P(X > + t)dt = e. t= Cov(S (Y ), S (Z) ) = λe 5. (Eg 5/8) Załóżmy, że X, X,..., X n,... są niezależnymi zmiennymi losowymi o tym samym rozkładzie jednostajnym na przedziale [, ], zaś N jest zmienną losową o rozkładzie ujemnym dwumianowym: ( ) n + P(N = n) = p ( p) n dla n =,,,... n niezależną od zmiennych losowych X, X,..., X n,... Niech M N = max{x, X,..., X N }, gdy N > oraz M N =, gdy N =. Statystyk otrzymał trzy niezależne obserwacje zmiennej losowej M N równe,,. Wartość estymatora największej wiarogodności dla parametru p otrzymana na podstawie tych danych jest równa? Odp: B->, 877. Rozwiązanie. Zadanie należy rozwiązać przez wyznaczenie wiarygodności, skoro wśród obserwacji pojawiły się dwa zera to znaczy, że dwukrotnie pojawiło się zdarzenie o prawdopodobieństwie p. Z drugiej strony szansa otrzymania wartości < t wynosi P(N = n)p(max(x,..., X n ) t) = P(N = n)t n p = ( t( p)), n= gdzie ostatnia równość bierze się ze zmiany parametru w rozkładzie ujemnym dwumianowym. Zatem warunkowo na N > zmienna M N ma rozkład ciągły o gęstości Stąd wiarygodność będzie miała postać Znajdujemy maksimum f(p) = log L(p, (,, )), n= p ( p) ( t( p)). L(p, (,, ))) = 8p9 ( p) ( + p). = f (p) = 9 p p + p. Stąd równanie 6p + 5p + 9 =, p = 5 + 6, 877.

6. (Eg 5/) Niech X, X,..., X n,... będą niezależnymi zmiennymi losowymi o rozkładzie jednostajnym na przedziale (, ). Niech zmienna losowa N oznacza numer pierwszej ze zmiennych losowych X,..., X n,... o wartości większej niż X, zatem Wtedy EX N jest równa? Odp: C->. N = inf{n : X n > X }. Rozwiązanie. Dla ustalonego X = x (, ) rozkład N x = inf{n : X n > x} jest rozkładem geometrycznym z prawdopodobieństwem sukcesu ( x). Dalej rozkład X N dla ustalonego N i X ma rozkład jednostajny na (x, ) ze średnią x+. Zatem EX N = EE(X N X, N) = E X + 7. (Eg 5/) Zmienna losowa N ma rozkład geometryczny postaci =. P(N = k) = ( )k dla k =,,,... Rozważamy losową liczbę zmiennych losowych X, X,..., X N przy czym zmienne losowe X, X,..., X N są niezależne wzajemnie i niezależne od zmiennej losowej N. Każda ze zmiennych X i ma ten sam rozkład o parametrach EX =, E(X ) =, E(X ) =. Niech S N = N X i, gdy N > oraz S N =, gdy N =. Współczynnik skośności E(S N ES N ) (VarS N ) Odp: B->, 58. Rozwiązanie. Przypomnijmy, że E(S ES) = E(S NEX + NEX ES) = EE[(S NEX + NEX ES) N] = = ENE(X EX) + E(N EN) EXE(X EX) + E(N EN) (EX). Dla rozkładu geometrycznego (startującego z ) z parametrem p EN = p p, E(N ( p) EN) = p, E(N EN) ( p)( p) = p. Stad Dalej Dostajemy Podobnie EN =, E(N EN) = 9, E(N EN) = 7. EX =, E(X EX) =, E(X EX) =. E(S ES) = + + 7 E(S ES) = ENE(X EX) + E(N EN) (EX) = + 9 = 7 9. Współczynnik skośności E(S N ES N ) (VarS N ) = 7 (7), 58.

8. (Eg 55/7) Zmienna losowa N ma rozkład geometryczny P(N = n) = p n ( p), dla n =,,,..., gdzie p (, ) jest nieznanym parametrem. Rozważamy losową liczbę zmiennych losowych X, X,..., X N, przy czym zmienne losowe X, X,..., X N są niezależne wzajemnie i niezależne od zmiennej losowej N. Każda ze zmiennych X i ma rozkład jednostajny o gęstości danej wzorem: f θ (x) = /θ, dla x θ oraz w przeciwnym przypadku, gdzie θ > jest nieznanym parametrem. Obserwujemy tylko te spośród zmiennych X, X,..., X N, które są większe od 5. Nie wiemy ile jest pozostałych zmiennych ani jakie są ich wartości. Przypuśćmy, że zaobserwowaliśmy następujące wartości 8.5,, 6, 7., 9, 5.. Na podstawie tych danych wyznacz wartości estymatorów największej wiarogodności parametrów θ i p. Odp: C-> ˆθ = i ˆp =. Rozwiązanie. Niech X ma rozkład taki jak X, X,.... Znajdujemy wiarygodność, szansa że wylosujemy 6 zmiennych większych niż 5 wynosi (P(X > 5)) 6 n= P(X 5) n P(N = n + 6) = (P(X > 5)) 6 ( p)p 6 n= ( ) n + 6 ( 5p 6 θ )n. Warunkowo względem wymagania, że 6 zmiennych przekroczyło 5 ma gęstość postaci (P(X > 5)) 6 ( 5 θ )6 Nadto z własności rozkładu ujemnego dwumianowego Stąd wiarygodność ma postać n= 6 xi<θ. ( ) n + 6 ( 5p 6 θ )n = ( 5p θ ) 7 L(θ, p; x, x, x, x, x 5, x 6 ) = ( p)( 5p θ )6 6 xi<θ( 5p θ ) 7. Najpierw zauważamy, że θ (w przeciwnym razie dostajemy ) nadto dla θ funkcja L jest malejąca czyli zatem ˆθ =. Wówczas wystarczy znaleźć p dla którego maksimum osiąga funkcja L(, p; x, x, x, x, x 5, x 6 ). To oznacza, że trzeba znaleźć punkt maksimum funkcji Warunek f (p) = jest równoważny f(p) = ( p)p 6 ( p) 7. (6p 5 7p 6 )( p) + 7 p6 7 p7. Stąd p =. 5

9. (Eg 56/6) Załóżmy, że X, X,..., X n,... są niezależnymi zmiennymi losowymi o tym samym rozkładzie jednostajnym na przedziale [, ], zaś N jest zmienną losową o rozkładzie geometrycznym, P(N = k) = p( p) k, gdy k =,,,... niezależną od zmiennych losowych X, X,..., X n,... Liczba p (, ) jest ustalona. Niech Y N = min{x,..., X N }, gdy N > oraz Y N =, gdy N = i Z N = max{x,..., X N }, gdy N =. Obliczyć P(Z N Y N > ). Odp: B-> p (+p). Rozwiązanie. Zacznijmy od prostszego zadania, rozkład (Y n, Z n ) ma gęstość n(n )(z y) n <y<z<. Zatem P(Z n Y n > ) = Stąd z n(n )(z y) n dydz = n(z n ( )n )dz = n n n. P(Z N Y N > ) = EP(Z N Y N > N) = E( N N N ) = ( + k)p[( p) ] k = p p( p) + p ( + p) = p ( + p). k=. (Eg 57/) Niech X, X,..., X n,... I, I,..., I n,..., N będą niezależnymi zmiennymi losowymi. Zmienne X, X,..., X n,... mają rozkład wykładniczy o wartości oczekiwanej. Zmienne I, I,..., I n,... mają rozkład dwupunktowy P(I i = ) = P(I i = ) =. Zmienna N ma rozkład ujemny dwumianowy P(N = n) = ( ) n+ n ( ) ( )n dla n =,,,... Niech S N =, gdy N = oraz S N = N I Var(SN ) ix i, gdy N >. Wtedy współczynnik zmienności ES N jest równy:? Odp: C->. Rozwiązanie. Niech X, I mają rozkład taki jak odpowiednio X, X,..., I, I,.... Obliczamy EN = /, VarN = 8/9 (rozkład ujemny dwumianowy B (α, p) ma wartość oczekiwana α p p i wariancję α p p ), EI =, EX =, VarX = (rozkład wykładniczy Exp(λ) ma wartość oczekiwaną λ i wariancję /λ ). Zatem Z drugiej strony ES N = ENEIEX = ( / ) =. VarS N = ENVar(IX) + VarN(EIX) = EN(EI EX (EIEX) ) + VarN(EIEX) = = ( ( ) ) + 8 9 ( ) = + 9 = 8. Czyli Var(SN ) =. ES N. (Eg 59/8) Załóżmy, że X, X,..., X n,... są dodatnimi niezależnymi zmiennymi losowymi o jednakowym ciągłym rozkładzie prawdopodobieństwa. Niech R = i R n = max{x,..., X n }, gdy n >. Niech N i M będą niezależnymi zmiennymi losowymi o rozkładach Poissona, przy czym 6

EN = i EM =. Wtedy P(R N+M > R N ) jest równe? Odp: C-> ( e ). Rozwiązanie. Zauważmy, że dla n + m > P(R n+m > R n ) = m n + m, bo szanse, że któraś ze zmiennych jest największa są równe a szansa, że dwie zmienne przyjmują tę samą wartość jest zerowa. Zatem P(R N+M > R N ) = EP(R N+M > R N N, M) = E M N + M N+M>. Przypomnijmy, że rozkład warunkowy M pod warunkiem N + M ma postać B( EN+EM, N + M) nadto N + M ma rozkład P oiss(en + EM). Czyli EM E M N + M N+M> = E N + M N+M>E(M N + M) = E N+M> = ( e ).. (Eg 6/) Zmienne losowe X, X,..., X n są warunkowo niezależne przy znanej wartości zmiennej losowej θ i mają rozkłady o wartości oczekiwanej E(X i θ) = θ i wariancji Var(X i θ) = θ. Niech N będzie zmienną losową warunkowo niezależną od X, X,..., X n przy znanym θ i o warunkowym rozkładzie P(N = n θ) = n( θ) n θ, dla n =,,,... Zmienna losowa θ ma rozkład Beta o gęstości p(θ) = 6θ( θ), gdy θ (, ). Niech S N = N X i. Wtedy wariancja Var( S N N ) jest równa? Odp: C-> 5. Rozwiązanie. Zauważmy, że E(N θ) = θ n= ( θ)n = θ, zatem E( S N N ES N N ) = EE[( S N NE(X θ) + E(X θ) E S N N N ) θ] = = E[E(N θ)var(x θ)] + Var(E(X θ)) = Eθ + Var(θ) = Dalej Eθ = 6 θ ( θ)dθ = 5, Eθ = 6 θ ( θ)dθ =, Eθ = 6 θ ( θ) =, stąd VarX = α. Ogólnie można pamiętać wzór że dla rozkładu Beta(α, β), EX = α+β, VarX = αβ (α+β) (α+β+), w zadaniu α =, β =. Czyli Var S N N = + 5 = 5. (Eg 6/) Niech X, X,..., X n,... będą niezależnymi zmiennymi losowymi o rozkładzie wykładniczym o wartości oczekiwanej. Niech N będzie zmienną losową o rozkładzie geometrycznym o funkcji p-stwa P(N = k) = 5 ( 5 )k dla k =,,,..., niezależną od zmiennych X, X,..., X n,... Niech S n = N X i, gdy N > oraz S N = gdy N =. Wtedy P(S N < 5) jest równe:? Odp: C->, e. 7

Rozwiązanie. Przypomnijmy, że S n, n ma rozkład Gamma(n, ) Obliczamy P(S N 5) = EP(S N 5 N) = P(S n 5)P(N = n) = = 5 5 n= n= x n ( (n )!() n )e x dx = 5 n=5 n= e ( )x dx = 5 e. 5 (n )! n xn e x dx = Stąd P(S N < 5) =, e.. (Eg 6/9) Niech X,..., X n,... będą niezależnymi zmiennymi losowymi z rozkładu jednostajnego na przedziale [, ]. Niech N będzie zmienną losową o rozkładzie ujemnym dwumianowym niezależną od zmiennych X,..., X n,... o funkcji p-stwa P(N = n) = (n + )(n + ) p ( p) n, dla n =,,,... Niech Y N = min{x,..., X N }, gdy N > oraz Y N =, gdy N = i Z N = max{x,..., X N }, oraz Z N = gdy N =. Wyznacz E(Y N Z N ). Odp: E-> p( p ). Rozwiązanie. Przypomnijmy, że (Y n, Z n ) ma rozkład o gęstości n(n )(z y) n y<z. Nadto z rozkładu beta wiemy, że xα ( x) β dx = Γ(a)Γ(b) Γ(a+b) Zatem podstawiając y = zw EY n Z n = Stąd z n(n )yz(z y) n dydz = n(n ) E(Y N Z N ) = EE(Y N Z N N) = E N + N> = z n+ dz n= w( w) n dw = n +. (n + ) p ( p) n. Z ujemnego rozkładu dwumianowego wiemy, że n= (n + )p ( p) n =. Zatem E(Y N Z N ) = p + p = p( p ). 5. (Eg 6/6) Niech X będzie zmienną losową o rozkładzie jednostajnym na przedziale (, ), X zmienną losową o rozkładzie jednostajnym na przedziale (, X ), X zmienną losową o rozkładzie jednostajnym na przedziale (, X ) i tak dalej. Niech N oznacza zmienną losową, taką że P(N = n) = λ n n!(e λ, gdy n =,,,..., ) gdzie λ > jest ustaloną liczbą. Zmienna N jest niezależna od zmiennych X, X, X,... Wtedy E(N!X X... X N ) jest równa Odp: D-> eλ λ λ(e λ ). Rozwiązanie. Zaważmy, że E(X...X n ) = E(X...X n )E(X n X,..., X n ) = E(X...X n ) X n = E(X...X n )E( X n X,..., X n ) =... = (n + )!. = 8

Zatem EN!(X...X N ) = = n= λ n n!(e λ ) n + = n= λ n (n + )!(e λ ) = eλ λ λ(e λ ). 9

Testowanie hipotez W tej części rozwiązane zostaną zadania dotyczące testowania hipotez. Wymagana jest wiedza z zakresu najmocniejszych testów, ilorazu wiarygodności, parametrów testów statystycznych.. (Eg 5/) Niech X, X,..., X 8 będzie próbką z rozkładu prawdopodobieństwa Pareto o dystrybuancie F θ (x) = x θ dla x oraz F θ(x) = dla x <, gdzie θ > jest nieznanym parametrem. Rozpatrzmy zadanie testowania hipotezy H : θ = przeciwko alternatywie H : θ =. Zbudowano taki test, dla którego suma prawdopodobieństw błędów I i II rodzaju, oznaczanych odpowiednio przez α i β, jest najmniejsza. Oblicz tę najmniejszą wartość α + β. Odp: B->, 6. Rozwiązanie. Niech f θ (x) = θx θ+ będzie gęstością rozkładu Pareto. Testem który dla ustalonego błędu pierwszego rodzaju (równego α) minimalizuje błąd drugiego rodzaju jest test Neymana- Pearsona, którego obszar krytyczny ma postać K = {(x,.., x 8 ) : 8 f (x i ) 8 f (x i ) > C}, gdzie C jest dobrane tak aby P θ= (X K) = α. Nietrudno zauważyć, że K = {(x,.., x 8 ) : 8 log x i < C} dla pewnego C. Zauważmy, że log X i ma rozkład Exp(θ) zatem 8 log X i ma rozkład Gamma(8, θ). Stąd C musi być tak dobrane, że P θ= ( 8 log X i < C) = Z kolei błąd drugiego rodzaju to P θ= ( 8 log X i C) = C C 8 7! x7 e x dx = α( C). 8 7! x7 e x dx = β( C). Wystarczy znaleźć punkt minimum funkcji α( C) + β( C). Zauważmy, że α ( C) + β ( C) = jeśli 8 e C + 8 e C = stąd C = log. Pozostaje albo skorzystać z tablic rozkładu χ, wtedy dostajemy, 6. Z przybliżenia rozkładem normalnym. Niech Z będzie z rozkładu N (, ) 8 α( C) = P θ= ( log X i < C ( log ) ) P(Z < ), 97. oraz 8 β( C) = P θ= ( log X i C (8 log ) ) P(Z > ), 7. / / Zatem α( C) + β( C),.. (Eg 5/) Niech X, X,..., X n będą niezależnymi zmiennymi losowymi z rozkładu normalnego N (m + θ, ), Y, Y,..., Y n będą niezależnymi zmiennymi losowymi z rozkładu normalnego N (m θ, ). Wszystkie zmienne są niezależne. Parametry m i θ są nieznane. Weryfikujemy hipotezę H : θ = przy alternatywie H : θ =, 5 za pomocą testu opartego na ilorazie wiarogodności na

poziomie istotności, 5. Moc tego testu przy n = 8 jest równa:? Odp: C->, 9. Rozwiązanie. Testy oparte na ilorazie i wiarygodności polegają na tym, że porównuje się L K (x) = sup θ ΘK L(θ, x z L H (x) = sup θ ΘH L(θ, x). Obszar krytyczny ma zatem postać dla pewnego λ spełniającego warunek K = {x R n : L K(x) L H (x) > λ } P θ ( L K(X) L H (X) > λ ) α, gdy θ Θ H, dla zadanej istotności α. W przypadku tego zadania są tylko dwie hipotezy i dlatego test oparty na ilorazie wiarygodności redukuje się do testu Neymana Pearsona. Najlepiej zapamiętać, że w przypadku rozwiązywanego zadania obszar krytyczny będzie miał postać K = {(x, y) R n R n : n (x i y i ) > C}. Oczywiście wynik ten można potwierdzić rachunkiem zauważmy, że L K (x, y) L H (x, y) = exp( ( n [(x i m )) + (y i m + ) ]) exp( ( n [(x = i m)) + (y i m) ]) = exp( n ( [(x i y i ) ])). Stąd natychmiast szukana postać obszaru krytycznego. Znajdujemy właściwe C ze wzoru P θ= (K) = P( (X i Y i ) > C) =, 5. Niech Z będzie z rozkładu N (, ) oczywiście w sensie rozkładu n (X i Y i ) (przy założeniu θ = ) ma postać nz. Stad C = 6, 6 nadto dla θ = w sensie rozkładu n (X i Y i ) ma postać n + nz P θ= (K) = P(n + nz > n, 6) = P(Z >, 6 n n ). Dla n = 8 dostajemy P(Z >, 6 ) = P(Z >, 6), 9.. (Eg 5/) Niech X, X, X, X, X 5 będą niezależnymi zmiennymi losowymi z rozkładu o gęstości p λ (x) = λe λx, gdy x, oraz p λ (x) = gdyx <, gdzie λ > jest nieznanym parametrem. Niestety nie obserwujemy zmiennych X, X, X, X, X 5 ale zmienne Y i = [X i ], i =,,,, 5, gdzie symbol [x] oznacza część całkowitą liczby x. Dysponując próbą Y, Y, Y, Y, Y 5 weryfikujemy hipotezę H : λ =, przy alternatywie H : λ = za pomocą testu o obszarze krytycznym K = {ˆλ >, 79}, gdzie ˆλ oznacza estymator największej wiarygodności parametru λ otrzymany na podstawie próby losowej Y, Y, Y, Y, Y 5. Rozmiar tego testu jest równy (wybierz najlepsze przybliżenie). Odp: C->, 86. Rozwiązanie. Rozkład zmiennych Y k ma postać P λ (Y k = n) = P λ (X k [k, k + )) = e λk e λ(k+) = ( e λ )e λk, dla k,

czyli jest rozkładem geometrycznym z prawdopodobieństwem sukcesu p = ( e λ ). Wiarygodność dla rozkładów geometrycznych o prawdopodobieństwie sukcesu p ma postać L(p, k) = 5 p( p) ki = p 5 ( p) k+...+k5, gdzie k = (k,..., k 5 ). Dla ustalonego k niech f(p) = log L(p, k). Szukamy p takiego, że f (p) =, czyli f (p) = 5 p (k +... + k 5 ) p =. 5 Czyli ˆp = 5+k +...+k 5. Stąd natychmiast ˆλ = log( ˆp). Ponieważ jest to rosnąca funkcja ˆp, więc obszar krytyczny ma postać K = {k N 5 5 : 5+k +...+k 5 > exp(, 79)}. Obliczamy rozmiar testu 5 P λ= ( > exp(, 79)). 5 + Y +... + Y 5 Oczywiście przy założeniu λ = zmienna Y +...Y 5 ma rozkład B (5, p), gdzie p = e. Zatem P λ= (Y +... + Y 5 < 5[( exp(, 79)) ]) = P λ= (Y +... + Y 5 ) Przypomnijmy, że p = e λ. Otrzymujemy P λ= (Y +... + Y 5 = ) = p 5, P λ= (Y +... + Y 5 = ) = 5p 5 ( p). Zatem odpowiedź to p 5 + 5p 5 ( p), gdzie p = e, która w przybliżeniu wynosi, 86.. (Eg 55/5) Niech X będzie pojedynczą obserwacją z rozkładu o gęstości p θ (x) = θ (θ x ) gdy x [ θ, θ ] oraz p θ(x) = gdy x > θ, gdzie θ > jest nieznanym parametrem. Weryfikujemy hipotezę H : θ = przy alternatywie H : θ za pomocą testu opartego na ilorazie wiarogodności na poziomie istotności.. Moc tego testu przy alternatywie θ = 6 jest równa:? Odp: B->, 76. Rozwiązanie. Ponownie należy skorzystać z testu opartego na ilorazie wiarygodności. Zauważmy, że w tym przypadku L K (x) L H (x) = sup θ p θ (x). p (x) Zauważmy, że x musi należeć do przedziału [, ] w przeciwnym przypadku iloraz będzie nieskończony. Zatem sup θ p θ (x) = sup θ θ (θ x ) przyjmuje maksimum dla p θ(x) θ = czyli θ (θ x ) + θ = stąd θ = x. Zatem To oznacza, że Obliczamy C takie, że L K (x) = x. L H (x) L K (x) = 8 x ( x ). P θ= ( C) =,. 8 x ( x )

Warunek jest równoważny temu, że x ( x ) (8C). Niech d = C czyli x d = a lub x +d = b. Zauważmy, że P θ (X t) = [θ x ] < t θ [θ x ] θ < t. Stąd P θ ( X a) = [θ a ] θ, jeśli a θ, a w przeciwnym razie nadto P θ( X > b) = [θ b ] θ jeśli b θ, a w przeciwnym razie. Zatem P θ= (X K) = [ b ] + [ a ] = + d d(/) =,. 8 Pozostaje zauważyć, że b a = C nadto b a 8 = C. Niech d = 8 C. Zachodzi P θ= (X K) = [ a ] + [ b ] = d + d = d Stąd d = 5 a dalej a =, b = 9. Obliczamy moc testu dla θ = 6 P θ=6 ( x a, x b) = (6 ) 6 + (6 9 ) 6, 76. 5. (Eg 56/5) Obserwujemy niezależne zmienne losowe X, X, X, X, Y, Y, Y, Y, Y 5. Zmienne losowe X, X, X, X mają ten sam rozkład o dystrybuancie F µ. Dystrybuanta F µ spełnia warunek F µ (x) = F (x µ) dla pewnej ustalonej, nieznanej, ciągłej, ściśle rosnącej dystrybuanty F. Weryfikujemy hipotezę H : µ = µ przy alternatywie H : µ < µ stosując test o obszarze krytycznym K = {S : S < 6}, gdzie S jest sumą rang zmiennych losowych X, X, X, X w próbce złożonej ze wszystkich obserwacji ustawionych w ciąg rosnący. Wyznaczyć rozmiar testu. Odp: A-> 8 6. Rozwiązanie. Test rangi oparty jest o spostrzeżenie, że gdyby µ = µ wtedy zmienne X i Y powinny być losowo wymieszane. W związku z tym wystarczy obliczyć prawdopodobieństwo wszystkich układów sprzyjających temu że S < 6 przy założeniu losowego położenia zmiennych X,..., X po ustawieniu w ciąg rosnący w całej próbce. Sprawdzamy, że jest dokładnie 8 możliwych układów nadto wyborów zbiorów elementowych w 9 elementowym jest ( 9 ) = 6. Stąd rozmiar testu wynosi 8 6. 6. (Eg 56/) Niech X, X, X, X będą niezależnymi zmiennymi losowymi o identycznym rozkładzie geometrycznym postaci P(X = k) = p( p) k gdy k =,,,..., gdzie p (, ) jest nieznanym parametrem. Hipotezę H : p = przy alternatywie H : p > weryfikujemy testem jednostajnie najmocniejszym na poziomie istotności, 875. Moc tego testu przy alternatywie p = 5 jest równa:? Odp: E->, 778. Rozwiązanie. Test jednostajnie najmocniejszy oparty jest o statystykę T (x) przy której dla dowolnego p > p funkcja L(p,k) L(p,k) jest rosnącą funkcją T (k). Obliczamy L(p, k) L(p, k) = ( p ) k+...+k ( p) k+...+k = ( ) p k+...+k. p

Zatem szukaną statystyką jest T (k) = (k +... + k ). W przypadku rozkładów zawsze trzeba liczyć się z problemem randomizacji testu. To znaczy test ma postać gdy T (k) > C ϕ(k) = γ gdy T (k) = C gdy T (k) < C Stałe C i γ wyznacza się z warunku E p= ϕ(x) =, 875. Zauważmy, że przy p =, X +... + X ma rozkład ujemny dwumianowy B (, ). Należy znaleźć C N takie, że P p= (X +... + X < C), 875 oraz P(X +... + X ) >, 875. Okazuje się, że C =, a test szczęśliwie nie jest zrandomizowany. Obliczamy moc testu dla p = 5. P p= 5 (X +... + X < ) =, 78. 7. (Eg 57/6) Niech X, X,..., X 8 będzie próbką z rozkładu prawdopodobieństwa Pareto o dystrybuancie F θ (x) = x θ dla x oraz F θ(x) = dla x <, gdzie θ > jest nieznanym parametrem. Rozpatrzmy zadanie testowania hipotezy H : θ = przeciwko alternatywie H : θ =. Zbudowano taki test, dla którego suma prawdopodobieństw błędów I i II rodzaju, oznaczanych odpowiednio przez α i β, jest najmniejsza. Oblicz tę najmniejszą wartość α + β. Odp: B->, 6. Rozwiązanie. Zauważmy, że gęstość ma postać f θ (x) = θ 8 8 x i θ+. Stosujemy test Neymana Pearsona, w tym obliczy iloraz wiarygodności L(, x) L(, x) = 8 8 x i = 8 exp( 8 log x i ). Zatem obszar krytyczny K = {x R 8 : L(,x) L(,x) > C} można zapisać jako K = {x R 8 : 8 log x i > C} Należy zauważyć, że log X i ma rozkład Exp(θ) stąd 8 log X i ma przy zadanym θ rozkład Γ(8, θ). Stąd α( C) + β( C) = P θ= (K) + P θ= (K) = = C 8 7! exp( x)dx + C 8 exp( x)dx = f( C). 7! Poszukujemy C takiego, że f ( C) = Równanie f ( C) = jest równoważna e C = 8 e C. Czyli C = log. Pozostaje obliczyć α( C)+β( C). Można skorzystać z tablic rozkładu chi-kwadrat, wtedy odpowiedzią jest, 6. Alternatywnie korzystając z rozkładu normalnego dla zmiennej Z z rozkładu N (, ) 8 α( C) = P θ= ( log X i C (8 log ) ) P(Z > ), 7 / / 5