i=7 X i. Zachodzi EX i = P(X i = 1) = 1 2, i {1, 2,..., 11} oraz EX ix j = P(X i = 1, X j = 1) = 1 7 VarS 2 2 = 14 3 ( 5 2 =

Wielkość: px
Rozpocząć pokaz od strony:

Download "i=7 X i. Zachodzi EX i = P(X i = 1) = 1 2, i {1, 2,..., 11} oraz EX ix j = P(X i = 1, X j = 1) = 1 7 VarS 2 2 = 14 3 ( 5 2 ="

Transkrypt

1 Kombinatoryka W tej serii zadań można znaleźć pojawiające się na egzaminach zadania dotyczące problemu wyznaczania prostych parametrów rozkładu w przypadku zgadnień kombinatorycznych. Zadania te wymagają podstawowej wiedzy kombinatorycznej oraz dyskretnych zmiennych losowych.. (Eg 8/) W urnie znajduje się 6 kul, z których 8 jest białych i 8 czarnych. Losujemy bez zwracania 6 kul, a następnie 5 z pozostałych kul. Niech S oznacza liczbę kul białych uzyskaną w drugim losowaniu. Oblicz VarS. Odp: B->. Rozwiązanie. Stosujemy zmienne włączeniowe, X i {, }, i {,,..., }, gdzie X i = jeśli w i-tym losowaniu wyciągnięto białą kulę i w przeciwnym przypadku. Oczywiście S = i=7 X i. Zachodzi EX i = P(X i = ) =, i {,,..., } oraz EX ix j = P(X i =, X j = ) = 7 5 = 7, i j, i, j {,,..., }. Zatem Czyli ES = 5 =, ES = 5P(X = ) + 5 P(X =, X = ) = 5 + = 6. VarS = ( 5 ) = =.. (Eg 9/6) Dysponujemy dwiema urnami: A i B. W urnie A są kule białe i czarne, w urnie B są kule białe i czarna. Wykonujemy trzy etapowe losowanie: (a) losujemy urnę; (b) z wylosowanej urny ciągniemy kule bez zwracania, a następnie wrzucamy do tej urny kule białe i czarne; (c) z urny, do której wrzuciliśmy kule, losujemy jedną kulę. Okazało się, że wylosowana w trzecim etapie kula jest biała. Obliczyć p-stwo, że w drugim wylosowano kule tego samego koloru. Odp: C->, 5. Rozwiązanie. Mamy drzewo prawdopodobieństw przejścia do poszczególnych stanów Stan P-p Stan P-p Stan P-p (, ) (, 5) biała 7 6 (, ) (, ) biała 7 (, ) (, ) biała 7 6 (, ) (, ) biała 7 5 (, ) (5, ) biała 7. Niech P(, b) będzie prawdopodobieństwem uzyskania białej kuli w losowaniu, P(, b) = = 76. Z drugiej strony prawdopodobieństwo, że w drugim losowaniu pojawiły się kule biała i czarna, a w trzecim losowaniu biała P(, (b, c);, b) wynosi P(, (b, c);, b) = = 8. Zatem P(, (b, c), b) = P(, (b, c);, b)/p(, b) = 8 76.

2 . (Eg 5/7) W urnie znajduje się kul białych, kul czarnych i kul niebieskich. Losujemy bez zwracania kule. Niech (a) X oznacza liczbę wylosowanych kul białych; (b) Y oznacza liczbę wylosowanych kul czarnych; (c) Z oznacza liczbę wylosowanych kul niebieskich. Współczynnik korelacji zmiennych losowych X + Y i Z, Corr(X + Y, Z) jest równy? Odp: B->. Rozwiązanie. Przypomnijmy, że Corr(X + Y, Z) = Cov(X, Z) = Cov(Y, Z), Var(X) = Var(Y ) = Var(Z), zatem Podobnie Cov(X+Y,Z) Var(X+Y ) Var(Z). Łatwo zauważyć, że Cov(X + Y, Z) = Cov(X, Z) + Cov(Y, Z) = Cov(X, Z). Var(X + Y ) = Cov(X + Y, X + Y ) = 5Var(X, X) + Cov(X, Y ). Korzystamy zmiennych włączeniowych, żeby obliczyć Cov(X, Z). Niech X = X, gdzie X i = jeśli w i tym losowaniu pojawiła się biała kula. Analogicznie definiujemy Y i, Z i, i {,,..., }. Zachodzi Wreszcie EX = P(X = ) = = 8, EX = P(X = ) + P(X =, X = ) = 8 + czyli Cov(X, Y ) = 8 ( 6 a = 8 59, mamy EXY = P(X =, Y = ) = = ) = 8 59 oraz Var(X) = 8 ( = Cov(X + Y, Z) = a, Var(X + Y ) = a a = 6a, Var(Z) = a. ) = Niech zatem Ostatecznie Corr(X + Y, Z) = a = 6a a =.. (Eg 5/) Pan A przeznaczył 5 zł na pewną grę. W pojedynczej kolejce gry pan A wygrywa zł z p-stwem / przegrywa zł z p-stwem /. Pan A kończy grę, gdy wszystko przegra lub gdy będzie miał zł. P-stwo, że A wszystko przegra jest równe? Odp: D->, 97. Rozwiązanie. Zadanie dotyczy prawdopodobieństwa ruiny. W celu rozwiązania budujemy niezależne zmienne losowe X k, k takie, że X k = jeśli A wygrywa oraz X k = jeśli A przegrywa. Definiujemy S n = X X n, n oraz S =. Okazuje się, że zmienne M n = Sn, n tworzą martyngał względem naturalnej filtracji. Rzeczywiście ( E(M n F n ) = M n E Xn = M n + ) = M n. Zauważmy, że gracz kończy grę w momencie τ = inf{n : S n { 5, 5}}. Zatem z twierdzenia Dooba (moment τ nie jest ograniczony ale nietrudno pokazać, że w tym przypadku również to

3 twierdzenie działa) wynika, że = EM τ. Niech teraz a = P(S τ = 5), b = P(S τ= 5 ). Ponieważ jak łatwo sprawdzić P(τ < ) =, więc a + b =, nadto = EM τ = a 5 + b 5. Mamy zatem układ równań { a + b = a 5 + b 5 = Stąd a = 5, b = 5. Szukana wartość to b, (Eg 5/) W urnie znajduje się ponumerowanych kul o numerach,...,. Losujemy bez zwracania kul, zapisujemy numery, kule zwracamy do urny. Czynność te powtarzamy razy. Oblicz wartość oczekiwaną liczby kul, które zostały wylosowane dokładnie dwa razy. Odp: D-> 9, 7. Rozwiązanie. Zadanie staje się proste jeśli zastosujemy zmienne włączeniowe, X, i {,,..., }, gdzie X i = jeśli dokładnie dwa razy kula z numerem i została wylosowana. Należy wyznaczyć E X = P(X = ), gdyż P(X i = ) są identyczne. Pozostaje zauważyć, że P(X i = ) = ( ) ( ) ( 9 ) 8. Stąd E X = 5 ( 9 ) 8 9, (Eg 5/) Z urny, w której jest 6 kul czarnych i białe losujemy kolejno bez zwracania po jednej kuli, tak długo aż wylosujemy kulę czarną. Wartość oczekiwana liczby wylosowanych kul białych jest równa? Odp: B-> 7. Rozwiązanie. Przypomnijmy wzór EX = k= P(X > k), dla zmiennych X o watotściach całkowitych dodatnich. Sprawdzamy, że P(X > ) =, P(X > ) = =, P(X > ) = 5 9 = 5, P(X > ) = 9 8 =, P(X > ) = =, nadto P(X > k) = dla k >. Stąd EX = = = (Eg 5/7) mamy dwie urny: I i II. Na początku doświadczenia w każdej z urn znajdują się kule białe i czarne. Losujemy po jednej kuli z każdej urny - po czym kulę wylosowaną z urny I wrzucamy do urny II, a te wylosowana z urny II wrzucamy do urny I. Czynność tę powtarzamy wielokrotnie. Granica (przy n ) p-stwa, iż obie kule wylosowane w n-tym kroku są jednakowego koloru, wynosi:? Odp: C-> 7. Rozwiązanie. Zadanie rozwiązuje się metoda łańcuchów Markowa. Jest możliwych 5 stanów na liczbę kul białych w urnie I. Należy znaleźć prawdopodobieństwa przejścia w jednym kroku. Mamy S 6 9 P =

4 należy wyznaczyć rozkład stabilny z równania πm = π oraz warunku, że k= π k =. Nietrudno zauważyć symetrię macierzy skąd wynika, że π = π, π = π. Nadto natychmiast zauważamy, że π = 6 π. Wystarczą zatem równania (w terminach π i π ) { π = 7 6 π + π = 8 π + π + π Skąd wynika, że π = π = 7, π = π = 8 5, π = 8 5. Obliczamy prawdopodobieństwa warunkowe wylosowania kul różnego koloru w zależności od stanu liczby kul białych w I urnie P((b, c) ) = P((b, c) ) =, P((b, c) ) = P((b, c) ) = 5 8, P((b, c) ) =. Dostajemy ze wzoru Bayesa dla stanów rozłożonych według π (czyli w granicy n ) P((b, c)) = Zatem prawdopodobieństwo zdarzenia przeciwnego wynosi = (Eg 55/) Wylosowano niezależnie 5 liczb z rozkładu symetrycznego ciągłego i ustawiono je w ciąg według kolejności losowania. Otrzymano 8 liczb dodatnich (każda z nich oznaczamy symbolem a) i 7 ujemnych (każdą z nich oznaczamy symbolem b). Obliczyć p-stwo, że otrzymano 6 serii, gdzie serią nazywamy ciąg elementów jednego typu, przed i za którym występuje element drugiego typu, na przykład w ciągu: aaabbbbaabbbbba jest 5 serii ( serie elementów typu a i serie elementów typu b). Odp: C-> Rozwiązanie. Należy zauważyć, że zbiór Ω złożony ze wszystkich możliwych podzbiorów 8 elementowych w zbiorze 5 elementowym ma ( 5 8 ) elementów. Teraz należy zauważyć, że seria będzie jednoznacznie wyznaczonym podzbiorem jeśli podamy od jakiego symbolu zaczynamy, a następnie długości ścieżek k, k, k dla serii symbolu a oraz l, l, l dla serii symbolu b. Oczywiście ścieżki muszą mieć długość dodatnią nadto k + k + k = 8, l + l + l = 7. Ogólnie liczba rozwiązań równania x x k = n w liczbach naturalnych (bez zera) wynosi ( n k ). Zatem liczność zbioru A 6 złożonego z serii długości 6 wynosi Ostatecznie A 6 = ( 7 )( ) 6. P(A 6 ) = A 6 Ω =. 9. (Eg 56/) Dysponujemy 5 identycznymi urnami. Każda z nich zawiera kule. Liczba kul białych w i-tej urnie jest równa i, gdzie i =,,..., 5, pozostałe kule są czarne. Losujemy urnę, a następnie ciągniemy z niej jedną kulę i okazuje się, że otrzymana kula jest biała. Oblicz p-stwo, że ciągnąc drugą kule z tej samej urny (bez zwracania pierwszej) również otrzymamy kulę białą. Odp: D->. Rozwiązanie. Ze symetrii zadania jest jasne, że szansa wylosowania białej kuli w pierwszej rundzie wynosi. Aby obliczyć szansę wyciągnięcia dwóch kul białych stosujemy wzór Bayesa ( 5 i ) P((b, b)) = ( ) 5. Zachodzi wzór kombinatoryczny 5 ( i ) ( = 5 ) ( (trójkąt Pascala). Nadto 5 ) ( / ) = 5, stąd P((b, b)) =. To oznacza, że P((b, b) b) =.

5 . (Eg 57/) Urna zawiera 5 kul o numerach:,,,,. Z urny ciągniemy kulę, zapisujemy numer i kulę wrzucamy z powrotem do urny. Czynność tę powtarzamy, aż kula z każdym numerem zostanie wyciągnięta co najmniej raz. Oblicz wartość oczekiwaną liczby powtórzeń. Odp: C-> 5. Rozwiązanie. Tutaj łatwo zauważyć, że jeśli T,..., T 5 będą czasami oczekiwania na kolejny nowy symbol, to T = nadto T k+ T k, k {,,, } ma rozkład geometryczny z prawdopodobieństwem sukcesu p k = 5 k 5 (i wartości oczekiwanej /p k ). Zatem ET 5 = + E(T k+ T k ) = + k= k= 5 5 k = 5.. (Eg 58/7) W urnie znajduje się kul: białych i czerwonych. Losujemy bez zwracania 8 kul, a następnie z pozostałych w urnie kul losujemy kolejne 6 kul. Niech S 8 oznacza liczbę wylosowanych kul białych wśród pierwszych 8 wylosowanych kul, a S 6 liczbę kul białych wśród następnych 6 kul. Oblicz Cov(S 8, S 8 + S 6 ). Odp: C-> 9. Rozwiązanie. Oczywiście skorzystamy ze zmiennych włączeniowych. Niech X i, i {,..., } oznacza jeśli w i tej rundzie pojawiła się biała kula i w przeciwnym przypadku. Mamy S 8 = 8 X i oraz S 6 = 6 i=9 X i. Zachodzi Teraz Stąd Z drugiej strony Co daje Ostatecznie ES 8 = 8P(X = ) =, E(S 6 ) = 6P(X = ) =. ES8 = 8P(X = ) + 8 7P(X =, X = ) = = 8 9. VarS 8 = = 9. ES 8 S 6 = 8P(X =, X = ) = Cov(S 8, S 6 ) = = 9. Cov(S 8, S 8 + S 6 ) = VarS 8 + Cov(S 8, S 6 ) = 9 9 = 9.. (Eg 6/9) W urnie znajduje się kul, na każdej narysowana jest litera i cyfra. Mamy: (a) kul oznaczonych X; (b) 6 kul oznaczonych Y ; (c) 8 kul oznaczonych X; (d) 6 kul oznaczone Y. Losujemy bez zwracania 5 kul. Niech N X oznacza liczbę kul oznaczonych literą X wśród kul wylosowanych,a N liczbę kul z cyfrą wśród kul wylosowanych. Obliczyć Var(N X N = 5). Odp: A-> 5 6. Rozwiązanie. Dokonujemy uproszczenia, mamy pięć kul wylosowanych z cyfrą. Zatem de facto losujemy typu X lub X, czyli ze zbioru 8 elementowego. W tym modelu probabilistycznym 5

6 musimy policzyć wariancję zmiennej NX co robimy przez zmienne włączeniowe. Niech X i, i {,..., } będzie zmienną przyjmującą jeśli na i-tej pozycji stoi X oraz jeśli X. Oczywiście N X = X. Wyznaczamy Nadto Stąd E N X = P(X = ) = 5 8 = 5. E N X = P(X = ) + 9P(X =, X = ) = = 8 =. Var N X = = (Eg 6/5) W urnie znajduje się kul ponumerowanych od do. Losujemy bez zwracania 5 kul i zapisujemy numery, a następnie wrzucamy kule z powrotem do urny. Czynność powtarzamy 5 razy. Oblicz wartość oczekiwaną liczby kul, które zostały wylosowane co najmniej razy. Odp: D-> 6, 7. Rozwiązanie. Zadanie rozwiązujemy przez zmienne włączeniowe. Niech X i, i {,..., } przyjmuje wartość jeśli kula z numerem i pojawiła się co najmniej razy w losowaniu i w przeciwnym przypadku. Oczywiście szukana odpowiedź to E X i = P(X = ). Żeby policzyć P(X = ) zauważmy, że w każdym z 5 losowań kula i miała prawdopodobieństwo, że się pojawi. Zatem P(X = ) = 5 k= ( 5 k ) ( ) k ( ) 5 k = ( ) 5 5 ( ) = 7 8. Czyli wynik to 7 8 6, 7.. (Eg 6/6) Z urny, w której są kule białe i czarne, wylosowane jedną kulę a następnie wrzucono ja z powrotem dorzucając kulę w tym samym kolorze co wylosowana. Następnie z urny wylosowano kule, wrzucono je z powrotem dorzucając kule identyczne jak wylosowane. Następnie wylosowano kule. Okazało się, że są to kule białe. Oblicz p-stwo, że w drugim losowaniu wylosowane kule różnych kolorów. Odp: A-> 5 9. Rozwiązanie. Potrzebujemy struktury drzewa aby opisać kolejne losowania Wyznaczamy Stan P-p Stan P-p Stan P-p 5 (, ) 5 (5, ) 5 (b, b, b) 8 (, ) 5 (, ) 5 (b, b, b) (, ) 5 (, 5) 5 (b, b, b) 56 (, ) 5 (, ) 5 (b, b, b) 8 (, ) 5 (, 5) 5 (b, b, b) 56 P(, (b, b, b)) = =

7 Teraz wyznaczamy Stąd P(, (b, c);, (b, b, b)) = = P(, (b, c);, (b, b, b)) = (Eg 6/)W urnie znajdują się kule, z których każda jest oznaczona jedną z liter alfabetu: kul oznaczonych literą A. kul oznaczonych literą B. kul oznaczonych literą C. x kul oznaczonych innymi literami alfabetu. Losujemy bez zwracania 9 kul z urny. Zmienne losowe N A, N B, N C oznaczają, odpowiednio, liczbę wylosowanych kul z literami A, B, C. Jakie musi być x, aby zmienne losowe N A +N B oraz N B +N C były nieskorelowane. Odp: C-> x = 5. Rozwiązanie. Korzystamy ze zmiennych A i, B i, C i, X i, i 9 gdzie zmienne przyjmują wartości lub, przy czym jeśli na pozycji w i-tym losowaniu wybrano odpowiednio A, B, C oraz inną literę. Zachodzi N A = 9 A i, N B = 9 B i N C = 9 C i. Należy wyliczyć Cov(N A, N B ), Cov(N B, N C ), Cov(N C, N A ). Zachodzi nadto Stąd EN A = x, EN B = x, EN C = x, EN A N B = 7EA B = x 59 + x, EN B N C = 7EB C = x 59 + x, EN C N A = 7EC A = x 59 + x, ENB = 7EB B + 9EB 9 = x 59 + x x. Cov(N A, N B ) = Cov(N B, N C ) = Cov(N B, N C ) = x ( x x ) = 9 c ( x 5) (6 + x) (59 + x), x ( x 9 9 ( x 5) ) = 6 + x (6 + x) (59 + x), x ( x 9 9 ( x 5) ) = 6 + x (6 + x) (59 + x), Cov(N B, N B ) = x ( x x ) = 9 (x + 9x + 6) (6 + x). (59 + x) Zatem N A + N B i N B + N C są nieskorelowane jeśli = Cov(N A + N B, N B + N C ) = Cov(N A, N B ) + Cov(N C, N A ) + Cov(N B, N B ) + Cov(N B, N C ) 7

8 co jest równoważne Przekształcając to równanie (x + 5) + (x + 9x + 6) =. x + 6x 765 =. Rozwiązaniami tego równanie są x = 6±66, czyli x = 5 i x = 5. Interesują nas wyłącznie rozwiązania dodatnie zatem x = 5. 8

9 Gaussowskie zmienne losowe W tej serii rozwiążemy zadania dotyczące zmiennych o rozkładzie normalny. Wymagana jest wiedza na temat własności rozkładu normalnego, CTG oraz warunkowych wartości oczekiwanych.. (Eg 8/6) Niech X, X,..., X n,... będą niezależnymi zmiennymi losowymi o identycznym rozkładzie o gęstości f(x) = x (,)(x). Niech U n = (X...X n ) n. Wtedy: (asymptotyka U n e )? Odp: B-> lim n P((U n e ) n < e ) =, 977. Rozwiązanie. Zadanie polega na umiejętnym zastosowaniu CTG. Zauważmy, że Y i = log X i, i {,..., n} oraz P(Y i > t) = P(X i < e t ) = e t, t. Czyli Y i ma rozkład Exp( ), w szczególności EY i =, VarY i =. Zatem (U n e ) n = e (exp( n (Y i ) ) n. Z mocnego prawa wielkich liczb wynika, że lim n n n (Y i ) =. Zatem (exp( n Czyli w sensie rozkładu (Y i ) ) n = n gdzie Z ma rozkład N (, ). Stąd n lim (U n e ) n = e lim n n (Y i )( + O( n n n (Y i )). (Y i ) = e Z, lim P((U n e ) n < e ) = P(Z < ), 977. n. (Eg 5/6) Rozważmy następujące zagadnienie testowania hipotez statystycznych. Dysponujemy próbką X,..., X n z rozkładu normalnego o nieznanej średniej µ i znanej wariancji równej. Przeprowadzamy najmocniejszy test hipotezy H : µ = przeciwko alternatywie H : µ = na poziomie istotności α = /. Niech β n oznacza prawdopodobieństwo błędu drugiego rodzaju, dla rozmiaru próbki n. Wybierz poprawne stwierdzenie: (asymptotyka β n ) Odp: D-> lim n β n e n 8 πn =. Rozwiązanie. Najpierw znajdujemy błąd drugiego rodzaju czyli akceptacja hipotezy H w sytuacji gdy zachodzi H. Test najmocniejszy oparty jest na konstrukcji obszaru krytycznego wynikającej z Twierdzenia Neymana-Pearsona (o porównywaniu gęstości). Niech µ =, µ = oraz niech f µ, f µ będą gęstościami rozkładu wektora (X,..., X n ) niezależnych zmiennych losowych o tym samym rozkładzie co zmienna X, odpowiednio X N (µ, ), X N (µ, ). W metodzie Neymana-Pearsona badamy iloraz wiarygodności, to znaczy f µ (x,..., x n )/f µ (x,..., X n ). W przypadku rozkładów ciągłych nie potrzeba randomizacji, a obszar krytyczny ma postać K = {(x,..., x n ) R n : f µ (x,..., x n )/f µ (x,..., x n ) > C} dla stałej C dobranej tak aby P µ ((X,..., X n ) K) = α. W naszym przypadku oznacza to konieczność znalezienia stałej C takiej, że P µ (X X n < C) =.

10 Oczywiście C =. Błąd drugiego rodzaju wynosi β n = P µ (X X n > C) = P( n + nz > ), gdzie Z ma rozkład N (, ). Zatem zostaje zbadać asymptmpotykę n β n = P(Z > ). Oczywiście P(Z > t) πt e t stąd πn lim β n e n 8 =. n. (Eg 5/) Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach normalnych, przy tym EX = EY =, VarX = i VarY =. Oblicz P( X < Y ). Odp: A-> P( X < Y ) =,. Rozwiązanie. To zadanie ma czysto geometryczne rozwiązanie. Wystarczy wykorzystać rotacyjną niezmienniczość standardowego rozkładu normalnego nadto zauważyć, że X = X, gdzie X ma rozkład N (, ). Zatem ( X, Y ) ma standardowy rozkład normalny na R oraz P( X < Y ) = P( X < Y ) = µ S ({α S : tg α < }), gdzie µ S jest miarą Lebesgue a na okręgu jednostkowym unormowaną do. Oczywiście {α S : tg α < } = {α S : α π 6 lub π α π 6 } Zatem µ S ({α S : tg α < }) =.. (Eg 5/5) Załóżmy, że X, Y są zmiennymi o łącznym rozkładzie normalnym, EX = EY =, VarX =, VarY = i Cov(X, Y ) =. Oblicz E(XY X Y = t), Odp: C-> 7 6 t. Rozwiązanie. Potrzebujemy metody znajdowania bazy niezależnych liniowych funkcji od X, Y zawierającej X Y. Szukamy α takiego, że X αy będzie niezależne od X Y. Wystarczy sprawdzić kowariancję Cov(X Y, X αy ) = α + α = + α. Stąd α =. Wystarczy teraz rozpisać X, Y w znalezionej bazie. Mamy { X = [(X Y ) + (X + Y )] Y = [ (X Y ) + (X + Y )] Niech Z = (X + Y ), zmienną X Y możemy traktować jako parametr t przy wyliczaniu warunkowej wartości oczekiwanej (bo jest niezależna od Z). Zatem E(XY X Y = t) = E( (t + Z) ( t + Z)) = 6 ( t + tez + EZ ). Oczywiście EZ =. Natomiast z dwuliniowości kowariancji i EZ = VarZ = = 8 9. Czyli E(XY X Y = t) = 6 t + 7.

11 5. (Eg 5/9) Mamy próbą prostą ((X, Y ), (X, Y ),..., (X, Y )) z rozkładu normalnego dwuwymiarowego o nieznanych parametrach Niech EX i = EY i = µ, VarX i = VarY i = σ, Cov(X i, Y i ) = σ ρ. Z i = X i + Y i, R i = X i Y i, S Z = 9 (Z i Z), S R = 9 (R i R), gdzie Z oraz R to odpowiednie średnie z próbki. Do testowania hipotezy H : ρ = przeciwko alternatywie H : ρ możemy użyć testu o obszarze krytycznym postaci: SZ SR < k, lub S Z SR > k, przy czym liczby k i k dobrane są tak, aby przy założeniu, że H jest prawdziwa Liczby k i k są równe:? Odp: D-> k =, 69 i k = 6, 58. P( S Z SR < k ) = P( S Z SR > k ) =, 5. Rozwiązanie. Zauważmy, że (X i + Y i ) jest niezależne od (X i Y i ), istotnie Cov(X i + Y i, X i Y i ) = VarX i Cov(X i, Y i ) + Cov(Y i, X i ) Var(Y i ) =. To oznacza, że SZ i S R są niezależne. Wystarczy wyznaczyć ich rozkłady. Mamy Analogicznie Var(X i + Y i ) = σ + ρσ = ( + ρ)σ. Var(X i Y i ) = σ ρσ = ( ρ)σ. To oznacza, że Z i = [( + ρ)] σẑi, R i = [( ρ)] ˆRi, gdzie Ẑi, ˆR i są niezależne z rozkładu N (, ). Zatem SZ SR = + ρ ŜZ. ρ Ŝ R To oznacza, że aby wyznaczyć k, k należy wziąć wartości dla F 9,9 i pomnożyć je przez +ρ ρ, które przy H wynosi. Czyli k =, 789 6, 58 oraz k = (/, 789), (Eg 5/9) Zmienne losowe X i Y są niezależne i zmienna X ma rozkład logarytmiczno-normalny LN(µ, σ ), gdzie µ = i σ =, a zmienna Y ma rozkład wykładniczy o wartości oczekiwanej. Niech S = X + Y. Wtedy E(S X > e) jest równa? Odp: E->, 6. Rozwiązanie. Przypomnijmy definicję E(S X > e) = ES X>e P(X > e). Teraz zauważmy, że X = e Y, gdzie Y ma rozkład N (, ), czyli Y = + Z, gdzie Z N (, ). Zatem P(X > e) = P( + Z > ) = P(Z > ) =.

12 Obliczamy Należy obliczyć ES X>e = EX X>e + P(X > e)ey = Ee +Z Z> + = + eeez Z>. Zatem Ostatecznie Ee Z Z> = Ee Z Z> = e e x e x dx = e e (x ). π π π e x dx = e P(Z > ). E(S X > e) = + e P(Z > ), (Eg 55/) Załóżmy, że zmienne losowe X, Y mają łączny rozkład normalny taki, że Oblicz Cov(X, Y ). Odp: D-> 8. EX =, EY =, Var(X) =, Var(Y ) = 9, i Cov(X, Y ) =. Rozwiązanie. Przypomnijmy, że ogólny wzór na k-ty moment zmiennej V rozkładzie N (, σ ) ma postać EV k = σ k (k )(k )..., EV k+ = Aby obliczyć Cov(X, Y ) potrzebujemy policzyć EX Y. Po raz kolejny należy posłużyć się bazą złożoną z liniowych względem X, Y zmiennych niezależnych. Ściślej szukamy α takiego, że X αy jest nieskorelowane z Y, a przez to niezależne bo (X, Y ) tworzą wektor gaussowski. Mamy Cov(Y, X αy ) = 9α, stąd α =. Niech Z = X Y, zachodzi EZ =, VarZ = + 99 =. Dalej mamy rozkład X = Z + Y, stąd EX Y = E(Z + Y ) Y = EZ EY + EZEY + 9 EY. Drugi składnik powyżej jest zerem bo EY =, a stąd EY =. Zauważmy jeszcze, że podobnie EX EY = (EZ + 9 EY )EY. Dlatego Cov(X, Y ) = 9 (EY (EY ) ). Pozostaje zauważyć, że EY = 9 oraz EY = 9. Zatem Cov(X, Y ) = 9 ( 9 9 ) = 9 = 8.

13 8. (Eg 57/) Niech X, X,..., X n będą niezależnymi zmiennymi losowymi z rozkładu normalnego o wartości oczekiwanej i nieznanej wariancji σ. Rozważmy estymatory odchylenia standardowego σ postaci ˆσ c = c n X i. Niech ˆσ c oznacza estymator o najmniejszym błędzie średniokwadratowym w klasie rozważanych estymatorów. Wtedy c jest równe? Odp: D-> π π+n. Rozwiązanie. Niech X ma rozkład N (, σ ). Oczywiście E X = π σ, zatem f(c) = E(ˆσ c σ) = Var(ˆσ) + (Eˆσ σ) = nc Var( X ) + (cn ) σ = π = nc ( π )σ + (cn ). π Aby obliczyć punkt minimum znajdujemy z równania f (c) =. Zachodzi f (c) = nc( π )σ + (n c π n π )σ. stąd f (c) = dla n( π π (n ) + )c = n czyli c = π π + n. 9. (Eg 58/) Niech X, X,..., X n,..., N będą zmiennymi losowymi. Zmienne X, X,..., X n,... mają rozkład logarytmiczno-normalny LN(µ, σ ), gdzie µ =, σ =. Zmienna N ma rozkład Poissona o wartości oczekiwanej. Niech S N = N X i dla N > oraz S N = dla N =. Wtedy współczynnik asymetrii E(S N ES N ) (VarS N jest równy? ) / Odp: D-> e6. Rozwiązanie. Niech X ma rozkład LN(µ, σ ), najpierw zauważmy, że E(S N ES N ) = EE[(S N ES N ) N] = EE[(S N NEX + (N EN)EX) N] = Zauważmy, że = ENE(X EX) + EN(N EN)EXE(X EX) + E(N EN) (EX). = EN = VarN = E(N EN) = EN(N EN) = E(N EN) (scentrowane momenty drugi i trzeci dla rozkładu Poissona są równe wartości oczekiwanej). Zatem E(S N ES N ) = (E(X EX) + EXE(X EX) + (EX) ) = EX. Z definicji X = exp(y ), gdzie Y ma rozkład N (µ, σ ), a dalej Y = σz + µ, gdzie Z ma rozkład N (, ). Przypomnijmy wzór n transformatę Laplace cea dla rozkładu N (, ) Stąd E exp(λz) = exp( λ ). EX = E exp(σz + µ) = e 9σ +µ = e. Zatem E(S N ES N ) = e. Analogicznie pokazujemy VarS N = E(S N ES N ) = ENE(X EX) + VarN(EX) = EX. 5

14 Mamy EX = E exp(σz + µ) = e σ +µ = e. czyli VarS N = E(S N ES N ) = e. Obliczamy E(S N ES N ) (VarS N ) / = e (e ) = e6.. (Eg 59/) Zmienna losowa X rozkład logarytmiczno-normalny LN(µ, σ ), gdzie µ = i σ =. Wyznacz E(X e X>e) EX. Odp: C->, 8. Rozwiązanie. Zauważmy, że X = e Y, gdzie Y ma rozkład N (µ, σ ), nadto Y = σz +µ = Z +, gdzie Z pochodzi z rozkładu N (, ). Z definicji E(X e X > e) = E X>e(X e). P(X > e) Obliczamy Zatem P(X > e) = P(Z + > ) = P(Z > ) =. E X>e (X e) = ee Z> (e Z ) = e(e Z> e Z ). Nadto a stąd Otrzymujemy E Z> e Z = e x e x E Z> e Z = e z drugiej strony z transformaty Laplace a dx = e π e x e (x ) π dx = e P(Z > ). E(X e X > e) = e P(Z > ) e EX = E exp(z + ) = e. π dx Czyli E(X e X > e) EX = P(Z > ) e, 8.. (Eg 6/6) Zmienne losowe X, X,..., X są niezależne o jednakowym rozkładzie normalnym o wartości oczekiwanej i wariancji. Niech S 5 = 5 X i i E(S5 S = ) jest równa? Odp: D-> 5. Rozwiązanie. Niech S 5 = i=6 X i. Z jednej strony S = S 5 + S 5 nadto szukamy α takiego, że = Cov(S 5 + S 5, S 5 αs 5 ) = Var(S 5 ) αvar(s 5 ) = 5 α5 = ( α). Stąd α =. Oczywiście S 5 = [(S 5 + S 5 ) + (S 5 S 5)] = [S + (S 5 S 5)]. 6

15 Zatem Sprawdzamy Zatem E(S 5 S = ) = E ( 6 [ ) S + (S 5 5)] S S = = 6 S + 8 S E(S 5 S 5) E(S 5 S 5). E(S 5 S 5) =, E(S 5 S 5) = = 8. E(S5 S = ) = 6 S = = 5.. (Eg 6/6) Rozważmy następujące zagadnienie testowania hipotez statystycznych. Dysponujemy próbką X,..., X n z rozkładu normalnego o nieznanej średniej µ i znanej wariancji równej. Przeprowadzamy najmocniejszy test hipotezy H : µ = przeciwko alternatywie H : µ = na poziomie istotności α =. Niech β n oznacza prawdopodobieństwo błędu drugiego rodzaju, dla rozmiaru próbki n. Wybierz poprawne stwierdzenie: (asymptotyka β n ). β Odp: E-> lim n n e n / =. πn Rozwiązanie. Niech f, f będą gęstościami odpowiednio N (, ), N (, ). Przypomnijmy, że test najmocniejszy Neymana Pearsona polega na porównaniu gęstości, czyli zbiór krytyczny ma postać K = {(x,..., x n ) R n : f (x,..., x n ) f (x,..., x n ) > C}, gdzie C jest stałą taką, że P µ= ((X,..., X n ) K) =. Łatwo zauważyć, że Stąd szukamy stałej C takiej, że K = {(x,..., x n ) : x i > C}. P µ= (X X n > C) = stąd C =. Błąd drugiego rodzaju to akceptacja hipotezy H podczas, gdy zachodzi H. Oznacza to, że β n = P µ= (X X n ). Przy µ = zachodzi X i = Z i +, gdzie Z, Z i, i =,,... będą niezależne z rozkładu N (, ). Stąd β n = P( (Z Z n ) n) = P( nz n) = P(Z n). Ponieważ P(Z > t) πt e t, więc lim n β n e n / πn =. 7

16 . (Eg 6/) Niech X, X, X,... będą niezależnymi zmiennymi losowymi o tym samym rozkładzie logarytmiczno normalnym parametrami µ R i σ >. Niech T n oznacza estymator największej wiarygodności wariancji V w tym modelu w oparciu o próbę X, X,..., X n. Niech µ =, 5 i σ =. Wtedy P( T n V n >, 7) =? Odp: A->,. Rozwiązanie. Zachodzi X i = e Yi, i =,,..., n, gdzie Y, Y, Y,..., Y n są niezależne i pochodzą z rozkładu N (µ, σ ). Trzeba przypomnieć estymatory największej wiarygodności dla rozkładu normalnego µ n = Ȳ = n (Y Y n ), σ n = Y (Ȳ ) = n (Y i Ȳ ). Powyższe estymatory wykorzystujemy aby znaleźć estymator wariancji V. Mamy Nadto z powyższego wzory wynika, że V = VarY = EY (EY ) = e σ +µ e σ +µ = e. T n = e µn (e σ n e σ n ). Należy pamiętać, że µ n i σ n są niezależne. Mamy T n V = (e µn e )(e σ n e σ n )+ + e (e σ n e e σ n e). Z mocnego prawa wielkich liczb wynika, że µ n µ, σ n σ prawie na pewno. Nadto n(e µ n e ) = ne (e µn+ ) = ne ( µ n + )( + O( µ n + )). Oczywiście w sensie słabej zbieżności Stąd lim n n( µn + ) = N (, ). lim n(e µ n e )(e σ n e σ n ) = A N (, [(e )] ) n Ściślej korzystając z σ n σ lim n(e µ n e )(e σ n e σ n ) = lim n(e µ n e )(e e) = A. n n Analogicznie W sensie słabej zbieżności Zatem e σ n e + e σ n e = (e e) n( σ n )( + O( σ n )). lim n( σ n ) = N (, ). n lim n e (e σ n e e σ n e) = B N (, [e ] ). Ostatecznie korzystając z niezależności µ n oraz σ n dostajemy dla niezależnych A i B n(tn V ) = A + B N (, [(e ) ] + [e )] ). lim n Niech Z będzie z N (, ) otrzymujemy lim P( T n V, 7 n >, 7) = P( Z > ) =,. n [(e ) ] + [(e )] Przedstawiona metoda ma swoją nazwę jako metoda delta. Powyższy przypadek szczególny można zebrać w ogólne twierdzenie. 8

17 Twierdzenie (Metoda delta) Jeżeli dla ciągu zmiennych T n mamy n(t n µ) N (, σ ) przy n i h : R R jest funkcją różniczkowalną w punkcie µ, to n(h(tn ) h(µ)) N (, σ (h (µ)) ), w sensie zbieżności według rozkładu.. (Eg 6/7) Zmienna losowa (X, Y, Z) ma rozkład normalny z wartością oczekiwaną EX =, EY = EZ = i macierzą kowariancji. Obliczyć Var(X(Y + Z)). Odp: D-> 7. Rozwiązanie. Stosujemy metodę z uniezależnianiem zmiennych. Z założenia wynika, że Cov(X, Y ) = oraz Cov(X, Z) =, Cov(Y, Z) =. Zatem zmienne X i Z są niezależne, Wystarczy dobrać α i β tak aby Y αx βz było niezależne (czyli równoważnie nieskorelowane) ze zmiennymi X i Z. Sprawdzamy, że Cov(Y αx βz, X) = α, czyli α = nadto Cov(Y αx βz, Z) = β, czyli β =. Zatem baza liniowa składa się ze zmiennych niezależnych X, Ȳ = Y X Z, Z, gdzie X ma rozkład N (, ), zmienna Ȳ ma rozkład N (, ), a zmienna Z rozkład N (, ). Obliczamy Var(X(Y + Z)) = Var(XY ) + Cov(XY, XZ) + Var(XZ) = = Var(XȲ ) + Cov(XȲ, X(X + Z)) + Var(X(X + Z))+ + Cov(XȲ, XZ) + Cov(X(X + Z), XZ) + Var(XZ) = = EX EȲ + EX EȲ EZ + EX (EX ) + EX EZ + + EX EȲ EZ + EX EZ = ( + ) = (Eg 6/9) Niech Y, Y,..., Y n będą niezależnymi zmiennymi losowymi, przy czym zmienna Y i, i =,,..., n, ma rozkład logarytmiczno-normalny LN(bx i, ), gdzie x, x,..., x n są znanymi liczbami, a b jest nieznanym parametrem. Załóżmy, że n x i =. Niech b będzie estymatorem największej wiarogodności parametru b, a ḡ = exp(b) estymatorem funkcji g(b) = exp(b). Wtedy obciążenie estymatora ḡ E b ḡ g(b) jest równe Odp: B-> e b ( e ). Rozwiązanie. Najpierw obliczamy wiarygodność dla zmiennych Z, Z,..., Z n, gdzie Z i = ln Y i, czyli Z i ma postać N (bx i, ). Obliczamy wiarygodność dla Z,..., Z n L(b, z) = (π) n exp( 9 (z i bx i ) ).

18 Rozwiązujemy równanie f (b) = dla f(b) = ln L(b, z). Wówczas Stąd x, z (z i bx i )x i =, czyli b = x, x = x, z. b = x i Z i. Pozostaje zauważyć, że b ma rozkład N (b, ). Stąd E b ḡ g(b) = E b exp( b) e b = e b (e ).

19 Parametry rozkładów W tej serii będziemy obliczać różne parametry zmiennych losowych. Wymagana jest znajomość własności rozkładów probabilistycznych oraz umiejętne korzystanie z niezależności zmiennych losowych.. (Eg 8/7) Niech X, X,..., X n,... będą niezależnymi zmiennymi losowymi o jednakowym rozkładzie wykładniczym o gęstości f(x) = e x gdyx > oraz f(x) = gdy x. Niech N będzie zmienną losową, niezależną od X, X,..., X n,..., o rozkładzie ujemnym dwumianowym P(N = n) = Γ(r+n) Γ(r)n! pr ( p) n dla n =,,,..., gdzie r > i p (, ) są ustalonymi parametrami. Niech Z N = min(x, X,..., X N ), gdy N > oraz Z N =, gdy N =. Oblicz E(NZ N ) i Var(NZ N ). Odp: C-> E(NZ N ) = pr i Var(NZ N ) = pr. Rozwiązanie. Dla zmiennej Z z rozkładu wykładniczego Exp(λ) zachodzi EZ = k!, k = λ k,,,.... Przypomnijmy, ze minimum z niezależnych zmiennych wykładniczych ma rozkład wykładniczy o parametrze będącym sumą parametrów dodawanych zmiennych. To znaczy rozkład Z ma postać Exp(n). W szczególności EZ n = n oraz EZ n = n oraz EZ = EZ =. Obliczamy E(NZ N ) = P(N = n)nez n = P(N = n) = ( pr ), Stąd n= E(NZ N ) = P(N = n)n EZn = = P(N = n) = ( pr ). n= n= n= n= Var(NZ N ) = ( pr + p r p r ) = ( pr ).. (Eg 9/) Niech X, X,..., X n,... I, I,..., I n,..., N będą niezależnymi zmiennymi losowymi. Zmienne X, X,..., X n,... mają rozkład o wartości oczekiwanej i wariancji. Zmienne I, I,..., I n,... mają rozkład jednostajny na przedziale (, ). Zmienna N ma rozkład ujemny dwumianowy P(N = n) Γ(+n) n! ( ) ( )n dla n =,,,... Niech S N =, gdy N = oraz S N = N I ix i, gdy N >. Wtedy Var(S N ) jest równa:? Odp: C-> VarS N =. Rozwiązanie. Przypomnijmy własności rozkładu ujemnego dwumianowego EN = ( ) ( ) = oraz VarN = ( ) = 8 9 i EN =. Niech X ma rozkład taki jak X, X,... nadto I ma rozkład taki jak I, I,... Mamy ES N = P(N = n)es n = P(N = n)neiex = P(N = n)n = EN. Nadto Czyli n= n= n= ESN = P(N = n)esn = P(N = n)(nex EI + n(n )(EXEI) ) = = n= P(N = n)(n(n + )) = EN(N + ). n= n= VarS N = EN + EN (EN) = =.

20 . (Eg 5/) Niech X, X,..., X n,... będą niezależnymi zmiennymi losowymi z rozkładu gamma o gęstości p(x) = 6xe x, gdy x >, oraz p(x) = gdyx. Niech N będzie zmienną losową niezależna od zmiennych X, X,..., X n,... spełniającą P(N = ) =, i P(N = ) = P(N = ) = P(N = ) = 6. Niech S =, gdy N = oraz S = N X i, gdy N >. Wtedy E(S ES) jest równe?. Odp: B-> 7 6. Rozwiązanie. Przypomnijmy momenty dla zmiennej Z z rozkładu Gamma(α, β) zachodzi W przypadku zadania α =, β =, stąd Podobnie wyznaczamy Zatem EZ = α β, E(Z EZ) = α β, E(Z EZ) = α β. EX =, E(X EX) = 8, E(X EX) = 6. EN =, E(N EN) =, E(N EN) =. E(S ES) = E(S NEX + NEX ES) = EE[(S NEX + NEX ES) N] = = ENE(X EX) + E(N EN) EXE(X EX) + E(N EN) (EX) = = = (Eg 5/7) Załóżmy, że X, X,..., X n,... są niezależnymi zmiennymi losowymi o jednakowym rozkładzie wykładniczym o gęstości f(x) = exp( x) dla x >. Zmienna losowa N jest niezależna od X, X,..., X n,... i ma rozkład Poissona o wartości oczekiwanej λ. Niech Oblicz Cov(S (Y ), S (Z) ). Odp: A-> Cov(S (Y ), S (Z) ) = λe. Y i = min(x i, ), Z i = X i Y i, N N S (Y ) = Y i, S (Z) = Z i. Rozwiązanie. Niech Y, Z będą miały rozkład odpowiednio jak X, X,..., Y, Y,.... Wyznaczamy ES (Y ) = ENEY = λey oraz ES (Z) = EN(EX EY ) = λez.

21 Wyznaczamy ES (Y ) S (Z) = P(N = n)e( Y i, Z i ) = P(N = n)(ne(y Z) + n(n )EY EZ) = n= n= = ENE(Y Z) + E(N(N ))EY EZ = λe(y Z) + λ EY EZ. Mamy Stąd E(Y Z) = E(X ) + = P(X > + t)dt = e. t= Cov(S (Y ), S (Z) ) = λe 5. (Eg 5/8) Załóżmy, że X, X,..., X n,... są niezależnymi zmiennymi losowymi o tym samym rozkładzie jednostajnym na przedziale [, ], zaś N jest zmienną losową o rozkładzie ujemnym dwumianowym: ( ) n + P(N = n) = p ( p) n dla n =,,,... n niezależną od zmiennych losowych X, X,..., X n,... Niech M N = max{x, X,..., X N }, gdy N > oraz M N =, gdy N =. Statystyk otrzymał trzy niezależne obserwacje zmiennej losowej M N równe,,. Wartość estymatora największej wiarogodności dla parametru p otrzymana na podstawie tych danych jest równa? Odp: B->, 877. Rozwiązanie. Zadanie należy rozwiązać przez wyznaczenie wiarygodności, skoro wśród obserwacji pojawiły się dwa zera to znaczy, że dwukrotnie pojawiło się zdarzenie o prawdopodobieństwie p. Z drugiej strony szansa otrzymania wartości < t wynosi P(N = n)p(max(x,..., X n ) t) = P(N = n)t n p = ( t( p)), n= gdzie ostatnia równość bierze się ze zmiany parametru w rozkładzie ujemnym dwumianowym. Zatem warunkowo na N > zmienna M N ma rozkład ciągły o gęstości Stąd wiarygodność będzie miała postać Znajdujemy maksimum f(p) = log L(p, (,, )), n= p ( p) ( t( p)). L(p, (,, ))) = 8p9 ( p) ( + p). = f (p) = 9 p p + p. Stąd równanie 6p + 5p + 9 =, p = 5 + 6, 877.

22 6. (Eg 5/) Niech X, X,..., X n,... będą niezależnymi zmiennymi losowymi o rozkładzie jednostajnym na przedziale (, ). Niech zmienna losowa N oznacza numer pierwszej ze zmiennych losowych X,..., X n,... o wartości większej niż X, zatem Wtedy EX N jest równa? Odp: C->. N = inf{n : X n > X }. Rozwiązanie. Dla ustalonego X = x (, ) rozkład N x = inf{n : X n > x} jest rozkładem geometrycznym z prawdopodobieństwem sukcesu ( x). Dalej rozkład X N dla ustalonego N i X ma rozkład jednostajny na (x, ) ze średnią x+. Zatem EX N = EE(X N X, N) = E X + 7. (Eg 5/) Zmienna losowa N ma rozkład geometryczny postaci =. P(N = k) = ( )k dla k =,,,... Rozważamy losową liczbę zmiennych losowych X, X,..., X N przy czym zmienne losowe X, X,..., X N są niezależne wzajemnie i niezależne od zmiennej losowej N. Każda ze zmiennych X i ma ten sam rozkład o parametrach EX =, E(X ) =, E(X ) =. Niech S N = N X i, gdy N > oraz S N =, gdy N =. Współczynnik skośności E(S N ES N ) (VarS N ) Odp: B->, 58. Rozwiązanie. Przypomnijmy, że E(S ES) = E(S NEX + NEX ES) = EE[(S NEX + NEX ES) N] = = ENE(X EX) + E(N EN) EXE(X EX) + E(N EN) (EX). Dla rozkładu geometrycznego (startującego z ) z parametrem p EN = p p, E(N ( p) EN) = p, E(N EN) ( p)( p) = p. Stad Dalej Dostajemy Podobnie EN =, E(N EN) = 9, E(N EN) = 7. EX =, E(X EX) =, E(X EX) =. E(S ES) = E(S ES) = ENE(X EX) + E(N EN) (EX) = + 9 = 7 9. Współczynnik skośności E(S N ES N ) (VarS N ) = 7 (7), 58.

23 8. (Eg 55/7) Zmienna losowa N ma rozkład geometryczny P(N = n) = p n ( p), dla n =,,,..., gdzie p (, ) jest nieznanym parametrem. Rozważamy losową liczbę zmiennych losowych X, X,..., X N, przy czym zmienne losowe X, X,..., X N są niezależne wzajemnie i niezależne od zmiennej losowej N. Każda ze zmiennych X i ma rozkład jednostajny o gęstości danej wzorem: f θ (x) = /θ, dla x θ oraz w przeciwnym przypadku, gdzie θ > jest nieznanym parametrem. Obserwujemy tylko te spośród zmiennych X, X,..., X N, które są większe od 5. Nie wiemy ile jest pozostałych zmiennych ani jakie są ich wartości. Przypuśćmy, że zaobserwowaliśmy następujące wartości 8.5,, 6, 7., 9, 5.. Na podstawie tych danych wyznacz wartości estymatorów największej wiarogodności parametrów θ i p. Odp: C-> ˆθ = i ˆp =. Rozwiązanie. Niech X ma rozkład taki jak X, X,.... Znajdujemy wiarygodność, szansa że wylosujemy 6 zmiennych większych niż 5 wynosi (P(X > 5)) 6 n= P(X 5) n P(N = n + 6) = (P(X > 5)) 6 ( p)p 6 n= ( ) n + 6 ( 5p 6 θ )n. Warunkowo względem wymagania, że 6 zmiennych przekroczyło 5 ma gęstość postaci (P(X > 5)) 6 ( 5 θ )6 Nadto z własności rozkładu ujemnego dwumianowego Stąd wiarygodność ma postać n= 6 xi<θ. ( ) n + 6 ( 5p 6 θ )n = ( 5p θ ) 7 L(θ, p; x, x, x, x, x 5, x 6 ) = ( p)( 5p θ )6 6 xi<θ( 5p θ ) 7. Najpierw zauważamy, że θ (w przeciwnym razie dostajemy ) nadto dla θ funkcja L jest malejąca czyli zatem ˆθ =. Wówczas wystarczy znaleźć p dla którego maksimum osiąga funkcja L(, p; x, x, x, x, x 5, x 6 ). To oznacza, że trzeba znaleźć punkt maksimum funkcji Warunek f (p) = jest równoważny f(p) = ( p)p 6 ( p) 7. (6p 5 7p 6 )( p) + 7 p6 7 p7. Stąd p =. 5

24 9. (Eg 56/6) Załóżmy, że X, X,..., X n,... są niezależnymi zmiennymi losowymi o tym samym rozkładzie jednostajnym na przedziale [, ], zaś N jest zmienną losową o rozkładzie geometrycznym, P(N = k) = p( p) k, gdy k =,,,... niezależną od zmiennych losowych X, X,..., X n,... Liczba p (, ) jest ustalona. Niech Y N = min{x,..., X N }, gdy N > oraz Y N =, gdy N = i Z N = max{x,..., X N }, gdy N =. Obliczyć P(Z N Y N > ). Odp: B-> p (+p). Rozwiązanie. Zacznijmy od prostszego zadania, rozkład (Y n, Z n ) ma gęstość n(n )(z y) n <y<z<. Zatem P(Z n Y n > ) = Stąd z n(n )(z y) n dydz = n(z n ( )n )dz = n n n. P(Z N Y N > ) = EP(Z N Y N > N) = E( N N N ) = ( + k)p[( p) ] k = p p( p) + p ( + p) = p ( + p). k=. (Eg 57/) Niech X, X,..., X n,... I, I,..., I n,..., N będą niezależnymi zmiennymi losowymi. Zmienne X, X,..., X n,... mają rozkład wykładniczy o wartości oczekiwanej. Zmienne I, I,..., I n,... mają rozkład dwupunktowy P(I i = ) = P(I i = ) =. Zmienna N ma rozkład ujemny dwumianowy P(N = n) = ( ) n+ n ( ) ( )n dla n =,,,... Niech S N =, gdy N = oraz S N = N I Var(SN ) ix i, gdy N >. Wtedy współczynnik zmienności ES N jest równy:? Odp: C->. Rozwiązanie. Niech X, I mają rozkład taki jak odpowiednio X, X,..., I, I,.... Obliczamy EN = /, VarN = 8/9 (rozkład ujemny dwumianowy B (α, p) ma wartość oczekiwana α p p i wariancję α p p ), EI =, EX =, VarX = (rozkład wykładniczy Exp(λ) ma wartość oczekiwaną λ i wariancję /λ ). Zatem Z drugiej strony ES N = ENEIEX = ( / ) =. VarS N = ENVar(IX) + VarN(EIX) = EN(EI EX (EIEX) ) + VarN(EIEX) = = ( ( ) ) ( ) = + 9 = 8. Czyli Var(SN ) =. ES N. (Eg 59/8) Załóżmy, że X, X,..., X n,... są dodatnimi niezależnymi zmiennymi losowymi o jednakowym ciągłym rozkładzie prawdopodobieństwa. Niech R = i R n = max{x,..., X n }, gdy n >. Niech N i M będą niezależnymi zmiennymi losowymi o rozkładach Poissona, przy czym 6

25 EN = i EM =. Wtedy P(R N+M > R N ) jest równe? Odp: C-> ( e ). Rozwiązanie. Zauważmy, że dla n + m > P(R n+m > R n ) = m n + m, bo szanse, że któraś ze zmiennych jest największa są równe a szansa, że dwie zmienne przyjmują tę samą wartość jest zerowa. Zatem P(R N+M > R N ) = EP(R N+M > R N N, M) = E M N + M N+M>. Przypomnijmy, że rozkład warunkowy M pod warunkiem N + M ma postać B( EN+EM, N + M) nadto N + M ma rozkład P oiss(en + EM). Czyli EM E M N + M N+M> = E N + M N+M>E(M N + M) = E N+M> = ( e ).. (Eg 6/) Zmienne losowe X, X,..., X n są warunkowo niezależne przy znanej wartości zmiennej losowej θ i mają rozkłady o wartości oczekiwanej E(X i θ) = θ i wariancji Var(X i θ) = θ. Niech N będzie zmienną losową warunkowo niezależną od X, X,..., X n przy znanym θ i o warunkowym rozkładzie P(N = n θ) = n( θ) n θ, dla n =,,,... Zmienna losowa θ ma rozkład Beta o gęstości p(θ) = 6θ( θ), gdy θ (, ). Niech S N = N X i. Wtedy wariancja Var( S N N ) jest równa? Odp: C-> 5. Rozwiązanie. Zauważmy, że E(N θ) = θ n= ( θ)n = θ, zatem E( S N N ES N N ) = EE[( S N NE(X θ) + E(X θ) E S N N N ) θ] = = E[E(N θ)var(x θ)] + Var(E(X θ)) = Eθ + Var(θ) = Dalej Eθ = 6 θ ( θ)dθ = 5, Eθ = 6 θ ( θ)dθ =, Eθ = 6 θ ( θ) =, stąd VarX = α. Ogólnie można pamiętać wzór że dla rozkładu Beta(α, β), EX = α+β, VarX = αβ (α+β) (α+β+), w zadaniu α =, β =. Czyli Var S N N = + 5 = 5. (Eg 6/) Niech X, X,..., X n,... będą niezależnymi zmiennymi losowymi o rozkładzie wykładniczym o wartości oczekiwanej. Niech N będzie zmienną losową o rozkładzie geometrycznym o funkcji p-stwa P(N = k) = 5 ( 5 )k dla k =,,,..., niezależną od zmiennych X, X,..., X n,... Niech S n = N X i, gdy N > oraz S N = gdy N =. Wtedy P(S N < 5) jest równe:? Odp: C->, e. 7

26 Rozwiązanie. Przypomnijmy, że S n, n ma rozkład Gamma(n, ) Obliczamy P(S N 5) = EP(S N 5 N) = P(S n 5)P(N = n) = = 5 5 n= n= x n ( (n )!() n )e x dx = 5 n=5 n= e ( )x dx = 5 e. 5 (n )! n xn e x dx = Stąd P(S N < 5) =, e.. (Eg 6/9) Niech X,..., X n,... będą niezależnymi zmiennymi losowymi z rozkładu jednostajnego na przedziale [, ]. Niech N będzie zmienną losową o rozkładzie ujemnym dwumianowym niezależną od zmiennych X,..., X n,... o funkcji p-stwa P(N = n) = (n + )(n + ) p ( p) n, dla n =,,,... Niech Y N = min{x,..., X N }, gdy N > oraz Y N =, gdy N = i Z N = max{x,..., X N }, oraz Z N = gdy N =. Wyznacz E(Y N Z N ). Odp: E-> p( p ). Rozwiązanie. Przypomnijmy, że (Y n, Z n ) ma rozkład o gęstości n(n )(z y) n y<z. Nadto z rozkładu beta wiemy, że xα ( x) β dx = Γ(a)Γ(b) Γ(a+b) Zatem podstawiając y = zw EY n Z n = Stąd z n(n )yz(z y) n dydz = n(n ) E(Y N Z N ) = EE(Y N Z N N) = E N + N> = z n+ dz n= w( w) n dw = n +. (n + ) p ( p) n. Z ujemnego rozkładu dwumianowego wiemy, że n= (n + )p ( p) n =. Zatem E(Y N Z N ) = p + p = p( p ). 5. (Eg 6/6) Niech X będzie zmienną losową o rozkładzie jednostajnym na przedziale (, ), X zmienną losową o rozkładzie jednostajnym na przedziale (, X ), X zmienną losową o rozkładzie jednostajnym na przedziale (, X ) i tak dalej. Niech N oznacza zmienną losową, taką że P(N = n) = λ n n!(e λ, gdy n =,,,..., ) gdzie λ > jest ustaloną liczbą. Zmienna N jest niezależna od zmiennych X, X, X,... Wtedy E(N!X X... X N ) jest równa Odp: D-> eλ λ λ(e λ ). Rozwiązanie. Zaważmy, że E(X...X n ) = E(X...X n )E(X n X,..., X n ) = E(X...X n ) X n = E(X...X n )E( X n X,..., X n ) =... = (n + )!. = 8

27 Zatem EN!(X...X N ) = = n= λ n n!(e λ ) n + = n= λ n (n + )!(e λ ) = eλ λ λ(e λ ). 9

28 Testowanie hipotez W tej części rozwiązane zostaną zadania dotyczące testowania hipotez. Wymagana jest wiedza z zakresu najmocniejszych testów, ilorazu wiarygodności, parametrów testów statystycznych.. (Eg 5/) Niech X, X,..., X 8 będzie próbką z rozkładu prawdopodobieństwa Pareto o dystrybuancie F θ (x) = x θ dla x oraz F θ(x) = dla x <, gdzie θ > jest nieznanym parametrem. Rozpatrzmy zadanie testowania hipotezy H : θ = przeciwko alternatywie H : θ =. Zbudowano taki test, dla którego suma prawdopodobieństw błędów I i II rodzaju, oznaczanych odpowiednio przez α i β, jest najmniejsza. Oblicz tę najmniejszą wartość α + β. Odp: B->, 6. Rozwiązanie. Niech f θ (x) = θx θ+ będzie gęstością rozkładu Pareto. Testem który dla ustalonego błędu pierwszego rodzaju (równego α) minimalizuje błąd drugiego rodzaju jest test Neymana- Pearsona, którego obszar krytyczny ma postać K = {(x,.., x 8 ) : 8 f (x i ) 8 f (x i ) > C}, gdzie C jest dobrane tak aby P θ= (X K) = α. Nietrudno zauważyć, że K = {(x,.., x 8 ) : 8 log x i < C} dla pewnego C. Zauważmy, że log X i ma rozkład Exp(θ) zatem 8 log X i ma rozkład Gamma(8, θ). Stąd C musi być tak dobrane, że P θ= ( 8 log X i < C) = Z kolei błąd drugiego rodzaju to P θ= ( 8 log X i C) = C C 8 7! x7 e x dx = α( C). 8 7! x7 e x dx = β( C). Wystarczy znaleźć punkt minimum funkcji α( C) + β( C). Zauważmy, że α ( C) + β ( C) = jeśli 8 e C + 8 e C = stąd C = log. Pozostaje albo skorzystać z tablic rozkładu χ, wtedy dostajemy, 6. Z przybliżenia rozkładem normalnym. Niech Z będzie z rozkładu N (, ) 8 α( C) = P θ= ( log X i < C ( log ) ) P(Z < ), 97. oraz 8 β( C) = P θ= ( log X i C (8 log ) ) P(Z > ), 7. / / Zatem α( C) + β( C),.. (Eg 5/) Niech X, X,..., X n będą niezależnymi zmiennymi losowymi z rozkładu normalnego N (m + θ, ), Y, Y,..., Y n będą niezależnymi zmiennymi losowymi z rozkładu normalnego N (m θ, ). Wszystkie zmienne są niezależne. Parametry m i θ są nieznane. Weryfikujemy hipotezę H : θ = przy alternatywie H : θ =, 5 za pomocą testu opartego na ilorazie wiarogodności na

29 poziomie istotności, 5. Moc tego testu przy n = 8 jest równa:? Odp: C->, 9. Rozwiązanie. Testy oparte na ilorazie i wiarygodności polegają na tym, że porównuje się L K (x) = sup θ ΘK L(θ, x z L H (x) = sup θ ΘH L(θ, x). Obszar krytyczny ma zatem postać dla pewnego λ spełniającego warunek K = {x R n : L K(x) L H (x) > λ } P θ ( L K(X) L H (X) > λ ) α, gdy θ Θ H, dla zadanej istotności α. W przypadku tego zadania są tylko dwie hipotezy i dlatego test oparty na ilorazie wiarygodności redukuje się do testu Neymana Pearsona. Najlepiej zapamiętać, że w przypadku rozwiązywanego zadania obszar krytyczny będzie miał postać K = {(x, y) R n R n : n (x i y i ) > C}. Oczywiście wynik ten można potwierdzić rachunkiem zauważmy, że L K (x, y) L H (x, y) = exp( ( n [(x i m )) + (y i m + ) ]) exp( ( n [(x = i m)) + (y i m) ]) = exp( n ( [(x i y i ) ])). Stąd natychmiast szukana postać obszaru krytycznego. Znajdujemy właściwe C ze wzoru P θ= (K) = P( (X i Y i ) > C) =, 5. Niech Z będzie z rozkładu N (, ) oczywiście w sensie rozkładu n (X i Y i ) (przy założeniu θ = ) ma postać nz. Stad C = 6, 6 nadto dla θ = w sensie rozkładu n (X i Y i ) ma postać n + nz P θ= (K) = P(n + nz > n, 6) = P(Z >, 6 n n ). Dla n = 8 dostajemy P(Z >, 6 ) = P(Z >, 6), 9.. (Eg 5/) Niech X, X, X, X, X 5 będą niezależnymi zmiennymi losowymi z rozkładu o gęstości p λ (x) = λe λx, gdy x, oraz p λ (x) = gdyx <, gdzie λ > jest nieznanym parametrem. Niestety nie obserwujemy zmiennych X, X, X, X, X 5 ale zmienne Y i = [X i ], i =,,,, 5, gdzie symbol [x] oznacza część całkowitą liczby x. Dysponując próbą Y, Y, Y, Y, Y 5 weryfikujemy hipotezę H : λ =, przy alternatywie H : λ = za pomocą testu o obszarze krytycznym K = {ˆλ >, 79}, gdzie ˆλ oznacza estymator największej wiarygodności parametru λ otrzymany na podstawie próby losowej Y, Y, Y, Y, Y 5. Rozmiar tego testu jest równy (wybierz najlepsze przybliżenie). Odp: C->, 86. Rozwiązanie. Rozkład zmiennych Y k ma postać P λ (Y k = n) = P λ (X k [k, k + )) = e λk e λ(k+) = ( e λ )e λk, dla k,

30 czyli jest rozkładem geometrycznym z prawdopodobieństwem sukcesu p = ( e λ ). Wiarygodność dla rozkładów geometrycznych o prawdopodobieństwie sukcesu p ma postać L(p, k) = 5 p( p) ki = p 5 ( p) k+...+k5, gdzie k = (k,..., k 5 ). Dla ustalonego k niech f(p) = log L(p, k). Szukamy p takiego, że f (p) =, czyli f (p) = 5 p (k k 5 ) p =. 5 Czyli ˆp = 5+k +...+k 5. Stąd natychmiast ˆλ = log( ˆp). Ponieważ jest to rosnąca funkcja ˆp, więc obszar krytyczny ma postać K = {k N 5 5 : 5+k +...+k 5 > exp(, 79)}. Obliczamy rozmiar testu 5 P λ= ( > exp(, 79)). 5 + Y Y 5 Oczywiście przy założeniu λ = zmienna Y +...Y 5 ma rozkład B (5, p), gdzie p = e. Zatem P λ= (Y Y 5 < 5[( exp(, 79)) ]) = P λ= (Y Y 5 ) Przypomnijmy, że p = e λ. Otrzymujemy P λ= (Y Y 5 = ) = p 5, P λ= (Y Y 5 = ) = 5p 5 ( p). Zatem odpowiedź to p 5 + 5p 5 ( p), gdzie p = e, która w przybliżeniu wynosi, 86.. (Eg 55/5) Niech X będzie pojedynczą obserwacją z rozkładu o gęstości p θ (x) = θ (θ x ) gdy x [ θ, θ ] oraz p θ(x) = gdy x > θ, gdzie θ > jest nieznanym parametrem. Weryfikujemy hipotezę H : θ = przy alternatywie H : θ za pomocą testu opartego na ilorazie wiarogodności na poziomie istotności.. Moc tego testu przy alternatywie θ = 6 jest równa:? Odp: B->, 76. Rozwiązanie. Ponownie należy skorzystać z testu opartego na ilorazie wiarygodności. Zauważmy, że w tym przypadku L K (x) L H (x) = sup θ p θ (x). p (x) Zauważmy, że x musi należeć do przedziału [, ] w przeciwnym przypadku iloraz będzie nieskończony. Zatem sup θ p θ (x) = sup θ θ (θ x ) przyjmuje maksimum dla p θ(x) θ = czyli θ (θ x ) + θ = stąd θ = x. Zatem To oznacza, że Obliczamy C takie, że L K (x) = x. L H (x) L K (x) = 8 x ( x ). P θ= ( C) =,. 8 x ( x )

31 Warunek jest równoważny temu, że x ( x ) (8C). Niech d = C czyli x d = a lub x +d = b. Zauważmy, że P θ (X t) = [θ x ] < t θ [θ x ] θ < t. Stąd P θ ( X a) = [θ a ] θ, jeśli a θ, a w przeciwnym razie nadto P θ( X > b) = [θ b ] θ jeśli b θ, a w przeciwnym razie. Zatem P θ= (X K) = [ b ] + [ a ] = + d d(/) =,. 8 Pozostaje zauważyć, że b a = C nadto b a 8 = C. Niech d = 8 C. Zachodzi P θ= (X K) = [ a ] + [ b ] = d + d = d Stąd d = 5 a dalej a =, b = 9. Obliczamy moc testu dla θ = 6 P θ=6 ( x a, x b) = (6 ) 6 + (6 9 ) 6, (Eg 56/5) Obserwujemy niezależne zmienne losowe X, X, X, X, Y, Y, Y, Y, Y 5. Zmienne losowe X, X, X, X mają ten sam rozkład o dystrybuancie F µ. Dystrybuanta F µ spełnia warunek F µ (x) = F (x µ) dla pewnej ustalonej, nieznanej, ciągłej, ściśle rosnącej dystrybuanty F. Weryfikujemy hipotezę H : µ = µ przy alternatywie H : µ < µ stosując test o obszarze krytycznym K = {S : S < 6}, gdzie S jest sumą rang zmiennych losowych X, X, X, X w próbce złożonej ze wszystkich obserwacji ustawionych w ciąg rosnący. Wyznaczyć rozmiar testu. Odp: A-> 8 6. Rozwiązanie. Test rangi oparty jest o spostrzeżenie, że gdyby µ = µ wtedy zmienne X i Y powinny być losowo wymieszane. W związku z tym wystarczy obliczyć prawdopodobieństwo wszystkich układów sprzyjających temu że S < 6 przy założeniu losowego położenia zmiennych X,..., X po ustawieniu w ciąg rosnący w całej próbce. Sprawdzamy, że jest dokładnie 8 możliwych układów nadto wyborów zbiorów elementowych w 9 elementowym jest ( 9 ) = 6. Stąd rozmiar testu wynosi (Eg 56/) Niech X, X, X, X będą niezależnymi zmiennymi losowymi o identycznym rozkładzie geometrycznym postaci P(X = k) = p( p) k gdy k =,,,..., gdzie p (, ) jest nieznanym parametrem. Hipotezę H : p = przy alternatywie H : p > weryfikujemy testem jednostajnie najmocniejszym na poziomie istotności, 875. Moc tego testu przy alternatywie p = 5 jest równa:? Odp: E->, 778. Rozwiązanie. Test jednostajnie najmocniejszy oparty jest o statystykę T (x) przy której dla dowolnego p > p funkcja L(p,k) L(p,k) jest rosnącą funkcją T (k). Obliczamy L(p, k) L(p, k) = ( p ) k+...+k ( p) k+...+k = ( ) p k+...+k. p

32 Zatem szukaną statystyką jest T (k) = (k k ). W przypadku rozkładów zawsze trzeba liczyć się z problemem randomizacji testu. To znaczy test ma postać gdy T (k) > C ϕ(k) = γ gdy T (k) = C gdy T (k) < C Stałe C i γ wyznacza się z warunku E p= ϕ(x) =, 875. Zauważmy, że przy p =, X X ma rozkład ujemny dwumianowy B (, ). Należy znaleźć C N takie, że P p= (X X < C), 875 oraz P(X X ) >, 875. Okazuje się, że C =, a test szczęśliwie nie jest zrandomizowany. Obliczamy moc testu dla p = 5. P p= 5 (X X < ) =, (Eg 57/6) Niech X, X,..., X 8 będzie próbką z rozkładu prawdopodobieństwa Pareto o dystrybuancie F θ (x) = x θ dla x oraz F θ(x) = dla x <, gdzie θ > jest nieznanym parametrem. Rozpatrzmy zadanie testowania hipotezy H : θ = przeciwko alternatywie H : θ =. Zbudowano taki test, dla którego suma prawdopodobieństw błędów I i II rodzaju, oznaczanych odpowiednio przez α i β, jest najmniejsza. Oblicz tę najmniejszą wartość α + β. Odp: B->, 6. Rozwiązanie. Zauważmy, że gęstość ma postać f θ (x) = θ 8 8 x i θ+. Stosujemy test Neymana Pearsona, w tym obliczy iloraz wiarygodności L(, x) L(, x) = 8 8 x i = 8 exp( 8 log x i ). Zatem obszar krytyczny K = {x R 8 : L(,x) L(,x) > C} można zapisać jako K = {x R 8 : 8 log x i > C} Należy zauważyć, że log X i ma rozkład Exp(θ) stąd 8 log X i ma przy zadanym θ rozkład Γ(8, θ). Stąd α( C) + β( C) = P θ= (K) + P θ= (K) = = C 8 7! exp( x)dx + C 8 exp( x)dx = f( C). 7! Poszukujemy C takiego, że f ( C) = Równanie f ( C) = jest równoważna e C = 8 e C. Czyli C = log. Pozostaje obliczyć α( C)+β( C). Można skorzystać z tablic rozkładu chi-kwadrat, wtedy odpowiedzią jest, 6. Alternatywnie korzystając z rozkładu normalnego dla zmiennej Z z rozkładu N (, ) 8 α( C) = P θ= ( log X i C (8 log ) ) P(Z > ), 7 / / 5

1 Gaussowskie zmienne losowe

1 Gaussowskie zmienne losowe Gaussowskie zmienne losowe W tej serii rozwiążemy zadania dotyczące zmiennych o rozkładzie normalny. Wymagana jest wiedza na temat własności rozkładu normalnego, CTG oraz warunkowych wartości oczekiwanych..

Bardziej szczegółowo

i=7 X i. Zachodzi EX i = P(X i = 1) = 1 2, i {1, 2,..., 11} oraz EX ix j = P(X i = 1, X j = 1) = 1 7 VarS 2 2 = 14 3 ( 5 2 =

i=7 X i. Zachodzi EX i = P(X i = 1) = 1 2, i {1, 2,..., 11} oraz EX ix j = P(X i = 1, X j = 1) = 1 7 VarS 2 2 = 14 3 ( 5 2 = Kombinatoryka W tej serii zadań można znaleźć pojawiające się na egzaminach zadania dotyczące problemu wyznaczania prostych parametrów rozkładu w przypadku zgadnień kombinatorycznych. Zadania te wymagają

Bardziej szczegółowo

1 Warunkowe wartości oczekiwane

1 Warunkowe wartości oczekiwane Warunkowe wartości oczekiwane W tej serii zadań rozwiążemy różne zadania związane z problemem warunkowania.. (Eg 48/) Załóżmy, że X, X, X 3, X 4 są niezależnymi zmiennymi losowymi o jednakowym rozkładzie

Bardziej szczegółowo

Prawdopodobieństwo i statystyka r.

Prawdopodobieństwo i statystyka r. Zadanie. Niech (X, Y) ) będzie dwuwymiarową zmienną losową, o wartości oczekiwanej (μ, μ, wariancji każdej ze współrzędnych równej σ oraz kowariancji równej X Y ρσ. Staramy się obserwować niezależne realizacje

Bardziej szczegółowo

Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX = 4 i EY = 6. Rozważamy zmienną losową Z =.

Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX = 4 i EY = 6. Rozważamy zmienną losową Z =. Prawdopodobieństwo i statystyka 3..00 r. Zadanie Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX 4 i EY 6. Rozważamy zmienną losową Z. X + Y Wtedy (A) EZ 0,

Bardziej szczegółowo

Hipotezy proste. (1 + a)x a, dla 0 < x < 1, 0, poza tym.

Hipotezy proste. (1 + a)x a, dla 0 < x < 1, 0, poza tym. Hipotezy proste Zadanie 1. Niech X ma funkcję gęstości f a (x) = (1 + a)x a, dla 0 < x < 1, Testujemy H 0 : a = 1 przeciwko H 1 : a = 2. Dysponujemy pojedynczą obserwacją X. Wyznaczyć obszar krytyczny

Bardziej szczegółowo

Wykład 3 Momenty zmiennych losowych.

Wykład 3 Momenty zmiennych losowych. Wykład 3 Momenty zmiennych losowych. Wrocław, 19 października 2016r Momenty zmiennych losowych Wartość oczekiwana - przypomnienie Definicja 3.1: 1 Niech X będzie daną zmienną losową. Jeżeli X jest zmienną

Bardziej szczegółowo

Wykład 3 Momenty zmiennych losowych.

Wykład 3 Momenty zmiennych losowych. Wykład 3 Momenty zmiennych losowych. Wrocław, 18 października 2017r Momenty zmiennych losowych Wartość oczekiwana - przypomnienie Definicja 3.1: 1 Niech X będzie daną zmienną losową. Jeżeli X jest zmienną

Bardziej szczegółowo

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych 1. [E.A 5.10.1996/zad.4] Funkcja gęstości dana jest wzorem { 3 x + 2xy + 1 y dla (x y) (0 1) (0 1) 4 4 P (X > 1 2 Y > 1 2 ) wynosi:

Bardziej szczegółowo

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki WYKŁAD 6 Witold Bednorz, Paweł Wolff 1 Instytut Matematyki Uniwersytet Warszawski Rachunek Prawdopodobieństwa, WNE, 2010-2011 Własności Wariancji Przypomnijmy, że VarX = E(X EX) 2 = EX 2 (EX) 2. Własności

Bardziej szczegółowo

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty Agata Boratyńska Agata Boratyńska Rachunek prawdopodobieństwa, wykład 4 / 9 Przekształcenia zmiennej losowej X

Bardziej szczegółowo

Wstęp do Rachunku Prawdopodobieństwa, IIr. WMS

Wstęp do Rachunku Prawdopodobieństwa, IIr. WMS Wstęp do Rachunku Prawdopodobieństwa, IIr. WMS przykładowe zadania na. kolokwium czerwca 6r. Poniżej podany jest przykładowy zestaw zadań. Podczas kolokwium na ich rozwiązanie przeznaczone będzie ok. 85

Bardziej szczegółowo

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 9 i 10 - Weryfikacja hipotez statystycznych

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 9 i 10 - Weryfikacja hipotez statystycznych WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 9 i 10 - Weryfikacja hipotez statystycznych Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 9 i 10 1 / 30 TESTOWANIE HIPOTEZ STATYSTYCZNYCH

Bardziej szczegółowo

2.1 Przykład wstępny Określenie i konstrukcja Model dwupunktowy Model gaussowski... 7

2.1 Przykład wstępny Określenie i konstrukcja Model dwupunktowy Model gaussowski... 7 Spis treści Spis treści 1 Przedziały ufności 1 1.1 Przykład wstępny.......................... 1 1.2 Określenie i konstrukcja...................... 3 1.3 Model dwupunktowy........................ 5 1.4

Bardziej szczegółowo

Prawdopodobieństwo i statystyka r.

Prawdopodobieństwo i statystyka r. Prawdopodobieństwo i statystyka 9.06.999 r. Zadanie. Rzucamy pięcioma kośćmi do gry. Następnie rzucamy ponownie tymi kośćmi, na których nie wypadły szóstki. W trzeciej rundzie rzucamy tymi kośćmi, na których

Bardziej szczegółowo

Wykład 3 Jednowymiarowe zmienne losowe

Wykład 3 Jednowymiarowe zmienne losowe Wykład 3 Jednowymiarowe zmienne losowe Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną Definicja 1 Jednowymiarowa zmienna losowa (o wartościach rzeczywistych), określoną na przestrzeni probabilistycznej

Bardziej szczegółowo

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 7 i 8 - Efektywność estymatorów, przedziały ufności

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 7 i 8 - Efektywność estymatorów, przedziały ufności WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 7 i 8 - Efektywność estymatorów, przedziały ufności Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 7 i 8 1 / 9 EFEKTYWNOŚĆ ESTYMATORÓW, próba

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład VII: Rozkład i jego charakterystyki 22 listopada 2016 Uprzednio wprowadzone pojęcia i ich własności Definicja zmiennej losowej Zmienna losowa na przestrzeni probabilistycznej (Ω, F, P) to funkcja

Bardziej szczegółowo

METODY ESTYMACJI PUNKTOWEJ. nieznanym parametrem (lub wektorem parametrów). Przez X będziemy też oznaczać zmienną losową o rozkładzie

METODY ESTYMACJI PUNKTOWEJ. nieznanym parametrem (lub wektorem parametrów). Przez X będziemy też oznaczać zmienną losową o rozkładzie METODY ESTYMACJI PUNKTOWEJ X 1,..., X n - próbka z rozkładu P θ, θ Θ, θ jest nieznanym parametrem (lub wektorem parametrów). Przez X będziemy też oznaczać zmienną losową o rozkładzie P θ. Definicja. Estymatorem

Bardziej szczegółowo

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 4 - zagadnienie estymacji, metody wyznaczania estymatorów

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 4 - zagadnienie estymacji, metody wyznaczania estymatorów WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 4 - zagadnienie estymacji, metody wyznaczania estymatorów Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 4 1 / 23 ZAGADNIENIE ESTYMACJI Zagadnienie

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład II: Zmienne losowe i charakterystyki ich rozkładów 13 października 2014 Zmienne losowe Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Definicja zmiennej losowej i jej

Bardziej szczegółowo

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład Rozdział 1 Wektory losowe 1.1 Wektor losowy i jego rozkład Definicja 1 Wektor X = (X 1,..., X n ), którego każda współrzędna jest zmienną losową, nazywamy n-wymiarowym wektorem losowym (krótko wektorem

Bardziej szczegółowo

... i statystyka testowa przyjmuje wartość..., zatem ODRZUCAMY /NIE MA POD- STAW DO ODRZUCENIA HIPOTEZY H 0 (właściwe podkreślić).

... i statystyka testowa przyjmuje wartość..., zatem ODRZUCAMY /NIE MA POD- STAW DO ODRZUCENIA HIPOTEZY H 0 (właściwe podkreślić). Egzamin ze Statystyki Matematycznej, WNE UW, wrzesień 016, zestaw B Odpowiedzi i szkice rozwiązań 1. Zbadano koszt 7 noclegów dla 4-osobowej rodziny (kwatery) nad morzem w sezonie letnim 014 i 015. Wylosowano

Bardziej szczegółowo

Ważne rozkłady i twierdzenia

Ważne rozkłady i twierdzenia Ważne rozkłady i twierdzenia Rozkład dwumianowy i wielomianowy Częstość. Prawo wielkich liczb Rozkład hipergeometryczny Rozkład Poissona Rozkład normalny i rozkład Gaussa Centralne twierdzenie graniczne

Bardziej szczegółowo

Weryfikacja hipotez statystycznych

Weryfikacja hipotez statystycznych Weryfikacja hipotez statystycznych Przykład (wstępny). Producent twierdzi, że wadliwość produkcji wynosi 5%. My podejrzewamy, że rzeczywista wadliwość produkcji wynosi 15%. Pobieramy próbę stuelementową

Bardziej szczegółowo

Idea. θ = θ 0, Hipoteza statystyczna Obszary krytyczne Błąd pierwszego i drugiego rodzaju p-wartość

Idea. θ = θ 0, Hipoteza statystyczna Obszary krytyczne Błąd pierwszego i drugiego rodzaju p-wartość Idea Niech θ oznacza parametr modelu statystycznego. Dotychczasowe rozważania dotyczyły metod estymacji tego parametru. Teraz zamiast szacować nieznaną wartość parametru będziemy weryfikowali hipotezę

Bardziej szczegółowo

Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału

Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału Magdalena Frąszczak Wrocław, 22.02.2017r Zasady oceniania Ćwiczenia 2 kolokwia (20 punktów każde) 05.04.2017 oraz 31.05.2017 2 kartkówki

Bardziej szczegółowo

PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA

PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA 1. Trójkę (Ω, F, P ), gdzie Ω, F jest σ-ciałem podzbiorów Ω, a P jest prawdopodobieństwem określonym na F, nazywamy przestrzenią probabilistyczną. 2. Rodzinę F

Bardziej szczegółowo

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe Nierówność Czebyszewa Niech X będzie zmienną losową o skończonej wariancji V ar(x). Wtedy wartość oczekiwana E(X) też jest skończona i

Bardziej szczegółowo

12DRAP - parametry rozkładów wielowymiarowych

12DRAP - parametry rozkładów wielowymiarowych DRAP - parametry rozkładów wielowymiarowych Definicja.. Jeśli h : R R, a X, Y ) jest wektorem losowym o gęstości fx, y) to EhX, Y ) = hx, y)fx, y)dxdy. Jeśli natomiast X, Y ) ma rozkład dyskretny skupiony

Bardziej szczegółowo

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa Agata Boratyńska Agata Boratyńska Rachunek prawdopodobieństwa, wykład 2 i 3 1 / 19 Zmienna losowa Definicja Dana jest przestrzeń probabilistyczna

Bardziej szczegółowo

Statystyka Matematyczna Anna Janicka

Statystyka Matematyczna Anna Janicka Statystyka Matematyczna Anna Janicka wykład X, 9.05.206 TESTOWANIE HIPOTEZ STATYSTYCZNYCH II: PORÓWNYWANIE TESTÓW Plan na dzisiaj 0. Przypomnienie potrzebnych definicji. Porównywanie testów 2. Test jednostajnie

Bardziej szczegółowo

Przestrzeń probabilistyczna

Przestrzeń probabilistyczna Przestrzeń probabilistyczna (Ω, Σ, P) Ω pewien niepusty zbiór Σ rodzina podzbiorów tego zbioru P funkcja określona na Σ, zwana prawdopodobieństwem. Przestrzeń probabilistyczna (Ω, Σ, P) Ω pewien niepusty

Bardziej szczegółowo

Zestaw 2: Zmienne losowe. 0, x < 1, 2, 2 x, 1 1 x, 1 x, F 9 (x) =

Zestaw 2: Zmienne losowe. 0, x < 1, 2, 2 x, 1 1 x, 1 x, F 9 (x) = Zestaw : Zmienne losowe. Które z poniższych funkcji są dystrybuantami? Odpowiedź uzasadnij. Wskazówka: naszkicuj wykres. 0, x 0,, x 0, F (x) = x, F (x) = x, 0 x

Bardziej szczegółowo

Oznacza to, że chcemy znaleźć minimum, a właściwie wartość najmniejszą funkcji

Oznacza to, że chcemy znaleźć minimum, a właściwie wartość najmniejszą funkcji Wykład 11. Metoda najmniejszych kwadratów Szukamy zależności Dane są wyniki pomiarów dwóch wielkości x i y: (x 1, y 1 ), (x 2, y 2 ),..., (x n, y n ). Przypuśćmy, że nanieśliśmy je na wykres w układzie

Bardziej szczegółowo

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie Jarosław Kotowicz Instytut Matematyki Uniwersytet w

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład VIII: Przestrzenie statystyczne. Estymatory 1 grudnia 2014 Wprowadzenie Przykład: pomiar z błędem Współczynnik korelacji r(x, Z) = 0, 986 Wprowadzenie Przykład: pomiar z błędem Współczynnik korelacji

Bardziej szczegółowo

Błędy przy testowaniu hipotez statystycznych. Decyzja H 0 jest prawdziwa H 0 jest faszywa

Błędy przy testowaniu hipotez statystycznych. Decyzja H 0 jest prawdziwa H 0 jest faszywa Weryfikacja hipotez statystycznych Hipotezą statystyczną nazywamy każde przypuszczenie dotyczące nieznanego rozkładu badanej cechy populacji, o prawdziwości lub fałszywości którego wnioskuje się na podstawie

Bardziej szczegółowo

Rozkłady statystyk z próby

Rozkłady statystyk z próby Rozkłady statystyk z próby Rozkłady statystyk z próby Przypuśćmy, że wykonujemy serię doświadczeń polegających na 4 krotnym rzucie symetryczną kostką do gry, obserwując liczbę wyrzuconych oczek Nr kolejny

Bardziej szczegółowo

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory Dr Anna ADRIAN Paw B5, pok 407 adrian@tempus.metal.agh.edu.pl

Bardziej szczegółowo

Statystyka. Wykład 2. Krzysztof Topolski. Wrocław, 11 października 2012

Statystyka. Wykład 2. Krzysztof Topolski. Wrocław, 11 października 2012 Wykład 2 Wrocław, 11 października 2012 Próba losowa Definicja. Zmienne losowe X 1, X 2,..., X n nazywamy próba losową rozmiaru n z rozkładu o gęstości f (x) (o dystrybuancie F (x)) jeśli X 1, X 2,...,

Bardziej szczegółowo

Laboratorium nr 7. Zmienne losowe typu skokowego.

Laboratorium nr 7. Zmienne losowe typu skokowego. Laboratorium nr 7. Zmienne losowe typu skokowego.. Zmienna losowa X ma rozkład dany tabelką: - 0 3 0, 0,3 0, 0,3 0, Naszkicować dystrybuantę zmiennej X. Obliczyć EX oraz VarX.. Zmienna losowa ma rozkład

Bardziej szczegółowo

Rozkłady prawdopodobieństwa zmiennych losowych

Rozkłady prawdopodobieństwa zmiennych losowych Rozkłady prawdopodobieństwa zmiennych losowych Rozkład dwumianowy Rozkład normalny Marta Zalewska Zmienna losowa dyskretna (skokowa) jest to zmienna, której zbór wartości jest skończony lub przeliczalny.

Bardziej szczegółowo

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 11 i 12 - Weryfikacja hipotez statystycznych

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 11 i 12 - Weryfikacja hipotez statystycznych WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 11 i 12 - Weryfikacja hipotez statystycznych Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 11 i 12 1 / 41 TESTOWANIE HIPOTEZ - PORÓWNANIE

Bardziej szczegółowo

Metoda momentów i kwantyli próbkowych. Wrocław, 7 listopada 2014

Metoda momentów i kwantyli próbkowych. Wrocław, 7 listopada 2014 Metoda momentów i kwantyli próbkowych Wrocław, 7 listopada 2014 Metoda momentów Momenty zmiennych losowych X 1, X 2,..., X n - próba losowa. Momenty zmiennych losowych X 1, X 2,..., X n - próba losowa.

Bardziej szczegółowo

Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe.

Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Rachunek prawdopodobieństwa MAP3040 WPPT FT, rok akad. 2010/11, sem. zimowy Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Warunkowa wartość oczekiwana.

Bardziej szczegółowo

Statystyka aktuarialna i teoria ryzyka, model indywidualny i zespołowy, rozkłady złożone

Statystyka aktuarialna i teoria ryzyka, model indywidualny i zespołowy, rozkłady złożone Statystyka aktuarialna i teoria ryzyka, model indywidualny i zespołowy, rozkłady złożone Agata Boratyńska SGH, Warszawa Agata Boratyńska (SGH) SAiTR wykład 3 i 4 1 / 25 MODEL RYZYKA INDYWIDUALNEGO X wielkość

Bardziej szczegółowo

Weryfikacja hipotez statystycznych

Weryfikacja hipotez statystycznych Weryfikacja hipotez statystycznych Hipoteza Test statystyczny Poziom istotności Testy jednostronne i dwustronne Testowanie równości wariancji test F-Fishera Testowanie równości wartości średnich test t-studenta

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład XI: Testowanie hipotez statystycznych 12 stycznia 2015 Przykład Motywacja X 1, X 2,..., X N N (µ, σ 2 ), Y 1, Y 2,..., Y M N (ν, δ 2 ). Chcemy sprawdzić, czy µ = ν i σ 2 = δ 2, czyli że w obu populacjach

Bardziej szczegółowo

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 13 i 14 - Statystyka bayesowska

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 13 i 14 - Statystyka bayesowska WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 13 i 14 - Statystyka bayesowska Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 13 i 14 1 / 15 MODEL BAYESOWSKI, przykład wstępny Statystyka

Bardziej szczegółowo

Agata Boratyńska Statystyka aktuarialna... 1

Agata Boratyńska Statystyka aktuarialna... 1 Agata Boratyńska Statystyka aktuarialna... 1 ZADANIA NA ĆWICZENIA Z TEORII WIAROGODNOŚCI Zad. 1. Niech X 1, X 2,..., X n będą niezależnymi zmiennymi losowymi z rozkładu wykładniczego o wartości oczekiwanej

Bardziej szczegółowo

Statystyka matematyczna

Statystyka matematyczna Statystyka matematyczna Wykład 6 Magdalena Alama-Bućko 8 kwietnia 019 Magdalena Alama-Bućko Statystyka matematyczna 8 kwietnia 019 1 / 1 Rozkłady ciagłe Magdalena Alama-Bućko Statystyka matematyczna 8

Bardziej szczegółowo

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014 Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014 Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe

Bardziej szczegółowo

Zadania z Rachunku Prawdopodobieństwa II Podaj przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,

Zadania z Rachunku Prawdopodobieństwa II Podaj przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ, Zadania z Rachunku Prawdopodobieństwa II -. Udowodnij, że dla dowolnych liczb x n, x, δ xn δ x wtedy i tylko wtedy, gdy x n x.. Wykaż, że n n k= δ k/n λ, gdzie λ jest miarą Lebesgue a na [, ].. Podaj przykład

Bardziej szczegółowo

Definicja 1 Statystyką nazywamy (mierzalną) funkcję obserwowalnego wektora losowego

Definicja 1 Statystyką nazywamy (mierzalną) funkcję obserwowalnego wektora losowego Rozdział 1 Statystyki Definicja 1 Statystyką nazywamy (mierzalną) funkcję obserwowalnego wektora losowego X = (X 1,..., X n ). Uwaga 1 Statystyka jako funkcja wektora zmiennych losowych jest zmienną losową

Bardziej szczegółowo

Testowanie hipotez statystycznych.

Testowanie hipotez statystycznych. Statystyka Wykład 10 Wrocław, 22 grudnia 2011 Testowanie hipotez statystycznych Definicja. Hipotezą statystyczną nazywamy stwierdzenie dotyczące parametrów populacji. Definicja. Dwie komplementarne w problemie

Bardziej szczegółowo

Matematyka z el. statystyki, # 3 /Geodezja i kartografia II/

Matematyka z el. statystyki, # 3 /Geodezja i kartografia II/ Matematyka z el. statystyki, # 3 /Geodezja i kartografia II/ Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Akademicka 15, p.211a bud. Agro II, e-mail: zdzislaw.otachel@up.lublin.pl

Bardziej szczegółowo

Estymatory nieobciążone

Estymatory nieobciążone Estymatory nieobciążone Zadanie 1. Pobieramy próbkę X 1,..., X n niezależnych obserwacji z rozkładu Poissona o nieznanym parametrze λ. Szacujemy p 0 = e λ za pomocą estymatora ˆp 0 = e X, gdzie X jest

Bardziej szczegółowo

Zadanie 5. Niech N będzie zmienną losową o rozkładzie Poissona taką, że P (N 1) = 8 9P (N = 2). Obliczyć EN. Odp. 3. p0, dla k = 0, e λ 1 λk

Zadanie 5. Niech N będzie zmienną losową o rozkładzie Poissona taką, że P (N 1) = 8 9P (N = 2). Obliczyć EN. Odp. 3. p0, dla k = 0, e λ 1 λk Zadanie 1. W urnie znajduje się dziesięć kul białych i dziesięć i czarnych. Wybieramy z urny kolejno bez zwracania po jednej kuli aż do momentu wyciągnięcia po raz pierwszy kuli czarnej. Wyznaczyć wartość

Bardziej szczegółowo

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności RAP 412 14.01.2009 Wykład 11: Martyngały: definicja, twierdzenia o zbieżności Wykładowca: Andrzej Ruciński Pisarz:Mirosława Jańczak 1 Wstęp Do tej pory zajmowaliśmy się ciągami zmiennych losowych (X n

Bardziej szczegółowo

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Niech Ω będzie przestrzenią zdarzeń elementarnych. Definicja 1 Rodzinę S zdarzeń losowych (zbiór S podzbiorów zbioru

Bardziej szczegółowo

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów. Rachunek prawdopodobieństwa MAP1181 Wydział PPT, MS, rok akad. 213/14, sem. zimowy Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Bardziej szczegółowo

Rachunek prawdopodobieństwa i statystyka

Rachunek prawdopodobieństwa i statystyka Rachunek prawdopodobieństwa i statystyka Momenty Zmienna losowa jest wystarczająco dokładnie opisana przez jej rozkład prawdopodobieństwa. Względy praktyczne dyktują jednak potrzebę znalezienia charakterystyk

Bardziej szczegółowo

Wykład 1 Próba i populacja. Estymacja parametrów z wykorzystaniem metody bootstrap

Wykład 1 Próba i populacja. Estymacja parametrów z wykorzystaniem metody bootstrap Wykład 1 Próba i populacja. Estymacja parametrów z wykorzystaniem metody bootstrap Magdalena Frąszczak Wrocław, 21.02.2018r Tematyka Wykładów: Próba i populacja. Estymacja parametrów z wykorzystaniem metody

Bardziej szczegółowo

Statystyka i eksploracja danych

Statystyka i eksploracja danych Wykład II: i charakterystyki ich rozkładów 24 lutego 2014 Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa,

Bardziej szczegółowo

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski Modelowanie zależności pomiędzy zmiennymi losowymi Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski P Zmienne losowe niezależne - przypomnienie Dwie rzeczywiste zmienne losowe X i Y

Bardziej szczegółowo

Ważne rozkłady i twierdzenia c.d.

Ważne rozkłady i twierdzenia c.d. Ważne rozkłady i twierdzenia c.d. Funkcja charakterystyczna rozkładu Wielowymiarowy rozkład normalny Elipsa kowariacji Sploty rozkładów Rozkłady jednostajne Sploty z rozkładem normalnym Pobieranie próby

Bardziej szczegółowo

WYKŁAD 3. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

WYKŁAD 3. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki WYKŁAD 3 Witold Bednorz, Paweł Wolff 1 Instytut Matematyki Uniwersytet Warszawski Rachunek Prawdopodobieństwa, WNE, 2010-2011 Schemmat Bernouliego Rzucamy 10 razy moneta, próba Bernouliego jest pojedynczy

Bardziej szczegółowo

STATYSTYKA

STATYSTYKA Wykład 1 20.02.2008r. 1. ROZKŁADY PRAWDOPODOBIEŃSTWA 1.1 Rozkład dwumianowy Rozkład dwumianowy, 0 1 Uwaga: 1, rozkład zero jedynkowy. 1 ; 1,2,, Fakt: Niech,, będą niezależnymi zmiennymi losowymi o jednakowym

Bardziej szczegółowo

Zmienne losowe, statystyki próbkowe. Wrocław, 2 marca 2015

Zmienne losowe, statystyki próbkowe. Wrocław, 2 marca 2015 Zmienne losowe, statystyki próbkowe Wrocław, 2 marca 2015 Zasady zaliczenia 2 kolokwia (każde po 20 punktów) projekt (20 punktów) aktywność Zasady zaliczenia 2 kolokwia (każde po 20 punktów) projekt (20

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Zadanie Rozważmy następujący model strzelania do tarczy. Współrzędne puntu trafienia (, Y ) są niezależnymi zmiennymi losowymi o jednaowym rozładzie normalnym N ( 0, σ ). Punt (0,0) uznajemy za środe tarczy,

Bardziej szczegółowo

Wybrane rozkłady zmiennych losowych. Statystyka

Wybrane rozkłady zmiennych losowych. Statystyka Wybrane rozkłady zmiennych losowych Statystyka Rozkład dwupunktowy Zmienna losowa przyjmuje tylko dwie wartości: wartość 1 z prawdopodobieństwem p i wartość 0 z prawdopodobieństwem 1- p x i p i 0 1-p 1

Bardziej szczegółowo

WSTĘP. Tematy: Regresja liniowa: model regresji liniowej, estymacja nieznanych parametrów. Wykład:30godz., ćwiczenia:15godz., laboratorium:30godz.

WSTĘP. Tematy: Regresja liniowa: model regresji liniowej, estymacja nieznanych parametrów. Wykład:30godz., ćwiczenia:15godz., laboratorium:30godz. Tematy: WSTĘP 1. Wprowadzenie do przedmiotu. Próbkowe odpowiedniki wielkości populacyjnych. Modele statystyczne i przykładowe zadania wnioskowania statystycznego. Statystyki i ich rozkłady. 2. Estymacja

Bardziej szczegółowo

Wybrane rozkłady zmiennych losowych. Statystyka

Wybrane rozkłady zmiennych losowych. Statystyka Wybrane rozkłady zmiennych losowych Statystyka Rozkład dwupunktowy Zmienna losowa przyjmuje tylko dwie wartości: wartość 1 z prawdopodobieństwem p i wartość 0 z prawdopodobieństwem 1- p x i p i 0 1-p 1

Bardziej szczegółowo

Prawa wielkich liczb, centralne twierdzenia graniczne

Prawa wielkich liczb, centralne twierdzenia graniczne , centralne twierdzenia graniczne Katedra matematyki i ekonomii matematycznej 17 maja 2012, centralne twierdzenia graniczne Rodzaje zbieżności ciągów zmiennych losowych, centralne twierdzenia graniczne

Bardziej szczegółowo

Wykład 4. Plan: 1. Aproksymacja rozkładu dwumianowego rozkładem normalnym. 2. Rozkłady próbkowe. 3. Centralne twierdzenie graniczne

Wykład 4. Plan: 1. Aproksymacja rozkładu dwumianowego rozkładem normalnym. 2. Rozkłady próbkowe. 3. Centralne twierdzenie graniczne Wykład 4 Plan: 1. Aproksymacja rozkładu dwumianowego rozkładem normalnym 2. Rozkłady próbkowe 3. Centralne twierdzenie graniczne Przybliżenie rozkładu dwumianowego rozkładem normalnym Niech Y ma rozkład

Bardziej szczegółowo

Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu.

Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu. Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu. A Teoria Definicja A.1. Niech (Ω, F, P) będzie przestrzenią probabilistyczną. Zmienną losową określoną na przestrzeni Ω nazywamy dowolną

Bardziej szczegółowo

Statystyka. Wydział Zarządzania Uniwersytetu Łódzkiego

Statystyka. Wydział Zarządzania Uniwersytetu Łódzkiego Statystyka Wydział Zarządzania Uniwersytetu Łódzkiego 2017 Zmienna losowa i jej rozkład Mając daną przestrzeń probabilistyczną, czyli parę (&, P) stanowiącą model pewnego doświadczenia losowego (gdzie

Bardziej szczegółowo

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów Rozdział : Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów W tym rozdziale omówione zostaną dwie najpopularniejsze metody estymacji parametrów w ekonometrycznych modelach nieliniowych,

Bardziej szczegółowo

Wykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa

Wykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa Wykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa Marek Kubiak Instytut Informatyki Politechnika Poznańska Plan wykładu Podstawowe pojęcia rachunku prawdopodobieństwa Rozkład

Bardziej szczegółowo

3. Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ,

3. Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n µ, Zadania z Rachunku Prawdopodobieństwa II - Mówimy, że i) ciąg miar probabilistycznych µ n zbiega słabo do miary probabilistycznej µ (ozn. µ n µ), jeśli fdµ n fdµ dla dowolnej funkcji ciągłej ograniczonej

Bardziej szczegółowo

Testowanie hipotez statystycznych.

Testowanie hipotez statystycznych. Bioinformatyka Wykład 9 Wrocław, 5 grudnia 2011 Temat. Test zgodności χ 2 Pearsona. Statystyka χ 2 Pearsona Rozpatrzmy ciąg niezależnych zmiennych losowych X 1,..., X n o jednakowym dyskretnym rozkładzie

Bardziej szczegółowo

SIMR 2017/18, Statystyka, Przykładowe zadania do kolokwium - Rozwiązania

SIMR 2017/18, Statystyka, Przykładowe zadania do kolokwium - Rozwiązania SIMR 7/8, Statystyka, Przykładowe zadania do kolokwium - Rozwiązania. Dana jest gęstość prawdopodobieństwa zmiennej losowej ciągłej X : { a( x) dla x [, ] f(x) = dla pozostałych x Znaleźć: i) Wartość parametru

Bardziej szczegółowo

Statystyka. Wydział Zarządzania Uniwersytetu Łódzkiego

Statystyka. Wydział Zarządzania Uniwersytetu Łódzkiego Statystyka Wydział Zarządzania Uniwersytetu Łódzkiego 2017 Podstawowe rozkłady zmiennych losowych Rozkłady zmiennych skokowych Rozkład zero-jedynkowy Rozpatrujemy doświadczenie, którego rezultatem może

Bardziej szczegółowo

Testowanie hipotez. Hipoteza prosta zawiera jeden element, np. H 0 : θ = 2, hipoteza złożona zawiera więcej niż jeden element, np. H 0 : θ > 4.

Testowanie hipotez. Hipoteza prosta zawiera jeden element, np. H 0 : θ = 2, hipoteza złożona zawiera więcej niż jeden element, np. H 0 : θ > 4. Testowanie hipotez Niech X = (X 1... X n ) będzie próbą losową na przestrzeni X zaś P = {P θ θ Θ} rodziną rozkładów prawdopodobieństwa określonych na przestrzeni próby X. Definicja 1. Hipotezą zerową Θ

Bardziej szczegółowo

Rozkłady prawdopodobieństwa

Rozkłady prawdopodobieństwa Tytuł Spis treści Wersje dokumentu Instytut Matematyki Politechniki Łódzkiej 10 grudnia 2011 Spis treści Tytuł Spis treści Wersje dokumentu 1 Wartość oczekiwana Wariancja i odchylenie standardowe Rozkład

Bardziej szczegółowo

Seria 1. Zbieżność rozkładów

Seria 1. Zbieżność rozkładów Seria Zbieżność rozkładów We wszystkich poniższych zadaniach (E, ρ) jest przestrzenią metryczną Wykazać, że dla dowolnych x, x n, δ xn δ x wtedy i tylko wtedy, gdy x n x Sprawdzić, że n nk= δ k n λ, gdzie

Bardziej szczegółowo

Współczynnik korelacji. Współczynnik korelacji jest miernikiem zależności między dwiema cechami Oznaczenie: ϱ

Współczynnik korelacji. Współczynnik korelacji jest miernikiem zależności między dwiema cechami Oznaczenie: ϱ Współczynnik korelacji Współczynnik korelacji jest miernikiem zależności między dwiema cechami Oznaczenie: ϱ Własności współczynnika korelacji 1. Współczynnik korelacji jest liczbą niemianowaną 2. ϱ 1,

Bardziej szczegółowo

Spis treści 3 SPIS TREŚCI

Spis treści 3 SPIS TREŚCI Spis treści 3 SPIS TREŚCI PRZEDMOWA... 1. WNIOSKOWANIE STATYSTYCZNE JAKO DYSCYPLINA MATEMATYCZNA... Metody statystyczne w analizie i prognozowaniu zjawisk ekonomicznych... Badania statystyczne podstawowe

Bardziej szczegółowo

Estymacja przedziałowa - przedziały ufności dla średnich. Wrocław, 5 grudnia 2014

Estymacja przedziałowa - przedziały ufności dla średnich. Wrocław, 5 grudnia 2014 Estymacja przedziałowa - przedziały ufności dla średnich Wrocław, 5 grudnia 2014 Przedział ufności Niech będzie dana próba X 1, X 2,..., X n z rozkładu P θ, θ Θ. Definicja Przedziałem ufności dla paramertu

Bardziej szczegółowo

Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/

Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/ Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/ Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Głęboka 28, bud. CIW, p. 221 e-mail: zdzislaw.otachel@up.lublin.pl

Bardziej szczegółowo

Matematyka ubezpieczeń majątkowych r.

Matematyka ubezpieczeń majątkowych r. Matematyka ubezpieczeń majątkowych 3..007 r. Zadanie. Każde z ryzyk pochodzących z pewnej populacji charakteryzuje się tym że przy danej wartości λ parametru ryzyka Λ rozkład wartości szkód z tego ryzyka

Bardziej szczegółowo

Powtórzenie wiadomości z rachunku prawdopodobieństwa i statystyki.

Powtórzenie wiadomości z rachunku prawdopodobieństwa i statystyki. Powtórzenie wiadomości z rachunku prawdopodobieństwa i statystyki. Zaj ecia 5 Natalia Nehrebeceka 04 maja, 2010 Plan zaj eć 1 Rachunek prawdopodobieństwa Wektor losowy Wartość oczekiwana Wariancja Odchylenie

Bardziej szczegółowo

Biostatystyka, # 3 /Weterynaria I/

Biostatystyka, # 3 /Weterynaria I/ Biostatystyka, # 3 /Weterynaria I/ dr n. mat. Zdzisław Otachel Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Głęboka 28, p. 221 bud. CIW, e-mail: zdzislaw.otachel@up.lublin.pl

Bardziej szczegółowo

Wartość oczekiwana Mediana i dominanta Wariancja Nierówności związane z momentami. Momenty zmiennych losowych Momenty wektorów losowych

Wartość oczekiwana Mediana i dominanta Wariancja Nierówności związane z momentami. Momenty zmiennych losowych Momenty wektorów losowych Przykład(Wartość średnia) Otrzymaliśmy propozycję udziału w grze polegającej na jednokrotnym rzucie symetryczną kostką. Jeśli wypadnie 1 wygrywamy2zł,;jeśliwypadnie2,płacimy1zł;za3wygrywamy 4zł;za4płacimy5zł;za5wygrywamy3złiwreszcieza6

Bardziej szczegółowo

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa Spis treści Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa Romuald Kotowski Katedra Informatyki Stosowanej PJWSTK 2009 Spis treści Spis treści 1 Wstęp Bardzo często interesujący

Bardziej szczegółowo

5 Przegląd najważniejszych rozkładów

5 Przegląd najważniejszych rozkładów 5 Przegląd najważniejszych rozkładów 5. Rozkład Bernoulliego W niezmieniających się warunkach wykonujemy n razy pewne doświadczenie. W wyniku każdego doświadczenia może nastąpić zdarzenie A lub A. Zakładamy,

Bardziej szczegółowo

P (A B) = P (A), P (B) = P (A), skąd P (A B) = P (A) P (B). P (A)

P (A B) = P (A), P (B) = P (A), skąd P (A B) = P (A) P (B). P (A) Wykład 3 Niezależność zdarzeń, schemat Bernoulliego Kiedy dwa zdarzenia są niezależne? Gdy wiedza o tym, czy B zaszło, czy nie, NIE MA WPŁYWU na oszacowanie prawdopodobieństwa zdarzenia A: P (A B) = P

Bardziej szczegółowo

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów. Rachunek prawdopodobieństwa MAT1332 Wydział Matematyki, Matematyka Stosowana Wykładowca: dr hab. Agnieszka Jurlewicz Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów. Warunkowa

Bardziej szczegółowo

WYKŁAD 2. Zdarzenia losowe i prawdopodobieństwo Zmienna losowa i jej rozkłady

WYKŁAD 2. Zdarzenia losowe i prawdopodobieństwo Zmienna losowa i jej rozkłady WYKŁAD 2 Zdarzenia losowe i prawdopodobieństwo Zmienna losowa i jej rozkłady Metody statystyczne metody opisu metody wnioskowania statystycznego syntetyczny liczbowy opis właściwości zbioru danych ocena

Bardziej szczegółowo