6 Metody konstruowania estymatorów

Wielkość: px
Rozpocząć pokaz od strony:

Download "6 Metody konstruowania estymatorów"

Transkrypt

1 Marek Beśka, Statystyka matematyczna, wykład Metody konstruowania estymatorów 6.1 Metoda momentów Niech (X, B, P) będzie przestrzenią statystyczną, gdzie P = {µ θ } θ Θ, (Θ IR) jest rodziną rozkładów cechy X. Niech X = (X 1,..., X n ) będzie próbą losową prostą. Załóżmy, że h jest mierzalną funkcją taką, że E θ h(x) istnieje (jest skończona) dla każdego θ Θ. Oznaczmy η(θ) = E θ h(x) = h(x) dµ θ (x). Funkcję h dobieramy tak aby η była np. ściśle monotoniczna i ciągła. Wtedy Ponieważ całkę możemy estymować całkami postaci Zatem estymator X θ = η 1( X X X ) h(x) dµ θ (x). h(x) dµ θ (x) h(x) df n (x; X) = 1 n θ(x) = η 1( 1 n h(x i ). ) h(x i ) nazywamy estymatorem otrzymanym metodą momentów. Przykład 6.1 Niech X = (X 1,..., X n ) będzie próbą z populacji w której cecha X ma rozkład wykładniczy z parametrem θ > 0 tj. o gęstości f θ (x) = θe θx I (0, ) (x), x IR, gdzie θ Θ = (0 ). Rozważmy funkcje h 1 (x) = x i h 2 (x) = x 2. Wówczas E θ h 1 (X) = E θ (X) = θ 0 xe θx dx = θ Γ(2) θ 2 = 1 θ. Zatem E θ h 2 (X) = E θ (X 2 ) = θ 1 θ = X, 2 θ 2 = 1 n 0 x 2 e θx dx = θ Γ(3) θ 3 = 2 θ 2. Xi 2.

2 Marek Beśka, Statystyka matematyczna, wykład 6 75 Stąd θ 1 (X) = 1 X, θ 2n 2(X) = n. X2 i Mamy dwa estymatory parametru θ otrzymane metodą momentów. Łatwo zauważyć, że metodę momentów można uogólnić na przypadek wielowymiarowy tj. gdy θ = (θ 1,..., θ k ) Θ IR k. Dobieramy funkcje h 1,..., h k tak aby układ równań ( ) η(θ) = (η 1 (θ),..., η k (θ)) = h 1 (x) dµ θ (x),..., h k (x) dµ θ (x), θ = (θ 1,..., θ k ) X posiadał rozwiązanie (występujące całki są skończone) i η 1 była np. ciągła. Wtedy θ(x) = η 1( 1 n X h 1 (X i ),..., 1 n ) h k (X i ) jest estymatorem parametru θ otrzymanym metodą momentów. Przykład 6.2 (i) Niech X = (X 1,..., X n ) będzie próbą z populacji w której cecha X ma rozkład normalny N(m, σ 2 ) tj. θ = (m, σ 2 ) Θ = IR (0, ). Wybierając funkcje h 1 (x) = x i h 2 (x) = x 2 dostajemy Zatem Stąd m = E θ h 1 (X) = E θ (X), m 2 + σ 2 = E θ h 2 (X) = E θ (X 2 ). m = X, m(x) = X, m 2 + σ 2 = 1 n σ 2 (X) = 1 n Xi 2. Xi 2 ( X ) 2 = S 2. Otrzymany metodą momentów estymator parametru θ ma postać θ(x) = ( m(x), σ 2 (X) ) = (X, S 2 ). (ii) Niech X = (X 1,..., X n ) będzie próbą z populacji w której cecha X ma rozkład gamma G(a, p), a, p > 0 tj. o gęstości f θ (x) = ap Γ(p) xp 1 e ax I (0, ) (x), x IR, gdzie θ = (a, p) Θ = (0, ) (0, ). Wybierając funkcje h 1 (x) = x i h 2 (x) = x 2 dostajemy p a = E θh 1 (X) = E θ (X), p 2 + p a 2 = E θ h 2 (X) = E θ (X 2 ).

3 Marek Beśka, Statystyka matematyczna, wykład 6 76 Zatem (6.1) p a = X, p 2 + p a 2 = 1 n Xi 2. Stąd Stosując teraz (6.1) dostajemy p a 2 = p2 + p ( p ) 2 1 a 2 = a n Xi 2 ( X ) 2 = S 2. â(x) = X S 2 oraz p(x) = â(x) 2 S 2 = ( X S 2 ) 2S 2 = X2 S 2. Zatem otrzymany metodą momentów estymator parametru θ mam postać θ(x) = ( â(x), p(x) ) = ( X S 2, X2 S 2 ). Uwaga. Metoda momentów jest szczególnym przypadkiem tzw. metody podstawiania częstości. Dokładniej, jeśli F θ będzie dystrybuantą cechy X, to szukamy takiego funkcjonału ϕ, żeby (6.2) ϕ(f θ ) = θ, θ Θ. Wtedy estymatorem parametru θ jest statystyka θ(x) = ϕ ( F n ( ; X) ), gdzie F n ( ; X) jest dystrybuantą empiryczną. Gdy równanie (6.2) mamy w postaci uwikłanej tj. ψ(θ, F θ ) = 0, θ Θ, to estymatorem parametru θ jest jedno z rozwiązań równania ψ ( θ(x), Fn ( ; X) ) = 0. Przykład 6.3 Niech X = (X 1,..., X n ) będzie próbą z populacji w której cecha X ma rozkład wykładniczy z parametrem θ > 0 tj. o gęstości f θ (x) = θe θx I (0, ) (x), x IR, gdzie θ Θ = (0 ). Metodą podstawiania częstości wyznaczymy estymator parametru θ. Dystrybuanta cechy X ma postać F θ (x) = ( 1 e θx) I (0, ) (x), x IR.

4 Marek Beśka, Statystyka matematyczna, wykład 6 77 Niech ϕ będzie funkcjonałem określonym wzorem ϕ(g) = ln 1 g(1), gdzie g jest funkcją rzeczywistą na IR taką, że g(1) 1. Wtedy ϕ(f θ ) = ln e θ = θ, θ Θ. Zatem estymatorem parametru θ wyznaczonym metodą podstawiania częstości jest statystyka θ(x) = ln 1 F n (1, X) = ln 1 I n (1, ) (X i ). 6.2 Metoda największej wiarogodności Niech (X, B, P) będzie przestrzenią statystyczną generowaną przez cechę X. Załóżmy ponadto, że rodzina rozkładów P = {µ θ } θ Θ jest dominowana przez pewną miarę σ - skończonę λ i oznaczmy µ θ (A) = f θ (x) dλ(x), A B, θ Θ. A Niech X = (X 1,..., X n ) będzie próbą losową prostą z tej populacji. Definicja 6.4 Dla każdej próbki x = (x 1,..., x n ) funkcję L(θ, x) zmiennej θ Θ postaci nazywamy funkcją wiarogodności. n L(θ, x) = f θ (x i ) Definicja 6.5 Estymatorem parametru θ wyznaczonym metodą największej wiarogodności (MNW) nazywamy statystykę θ(x) dla której zachodzi równość L( θ(x), x) = sup L(θ, x), θ Θ λ n p.w. MNW ma następujące uzasadnienie intuicyjne. Załóżmy, że zaobserwowano próbkę x = (x 1,..., x n ) i trzeba ocenić wartość parametru θ. MNW proponuje aby zastosować taki estymator θ(x) by gęstość z próby w punkcie x miała największą wartość przy wartości parametru θ = θ(x). Niech θ = (θ 1,..., θ k ) Θ IR k, (k < n). Załóżmy, że Θ jest zbiorem otwartym oraz istnieją dla i = 1,..., k pochodne cząstkowe L(θ, x) θ i, λ n p.w.

5 Marek Beśka, Statystyka matematyczna, wykład 6 78 Wówczas warunkiem koniecznym na to aby L(θ, x) osiągneła maksimum jest L(θ, x) θ i = 0, i = 1,..., k. Ponieważ funkcja ln jest funkcją rosnącą i iloczyny zamienia na sumy wygodnie jest powyższy warunek zastąpić warunkiem ln L(θ, x) θ i = 0, i = 1,..., k. Przykład 6.6 Niech X = (X 1,..., X n ) będzie próbą z populacji w której badana cecha X ma rozkład Poissona z parametrem θ Θ = (0, ). Dla danej próbki x = (x 1,..., x n ) funkcja wiarogodności ma postać gdzie x = 1 n n x i. Stąd L(θ, x) = n ( θ x i x i! e θ) = ln L(θ, x) = nx ln θ nθ θ nx x 1! x n! e nθ, ln(x i!). Zauważmy, że dla x = 0 mamy ln L(θ, 0) = nθ. Zatem w tym przypadku maksimum nie jest osiągalne. Dla x 0 policzmy pochodną względem θ funkcji ln L(θ, x) i przyrównajmy ją do zera. Mamy Stąd bo d ln L(θ, x) dθ = nx θ n = 0. θ = θ(x) = x, d 2 ln L( θ, x) dθ 2 = n x < 0. Przykład 6.7 Niech X = (X 1,..., X n ) będzie próbą z populacji w której badana cecha X ma rozkład normalny N(m, σ 2 ). Oznaczmy θ = (θ 1, θ 2 ), gdzie θ 1 = m i θ 2 = σ 2. Wyznaczmy estymator MNW parametru θ. Dla próbki x = (x 1,..., x n ) mamy Stąd L(θ, x) = n 1 exp (x i θ 1 ) 2 = 2πθ2 2θ 2 ln L(θ, x) = 1 2θ 2 1 ( 2πθ 2 ) n exp 1 2θ 2 (x i θ 1 ) 2. (x i θ 1 ) 2 n 2 ln θ 2 n 2 ln(2π).

6 Marek Beśka, Statystyka matematyczna, wykład 6 79 Obliczając pochdne cząstkowe i przyrównując otrzymane wyrażenia do zera dostajemy układ równań ln L(θ, x) = 1 (x i θ 1 ) = 0 θ 1 θ 2 ln L(θ, x) = 1 θ 2 2θ2 2 (x i θ 1 ) 2 n = 0. 2θ 2 Rozwiązując go otrzymujemy θ 1 = 1 x i = x, n Ponieważ 2 ln L(θ, x) θ 2 2 = 1 θ 3 2 θ2 = 1 n 2 ln L(θ, x) = n zatem θ 2 θ 2 1 (x i θ 1 ) 2 + n 2θ2 2 2 ln L(θ, x) θ 2 θ 1 = 1 θ 2 2 zatem (x i x) 2 = s 2. (x i θ 1 ) zatem 2 ln L( θ, x) θ ln L( θ, x) θ 2 2 = n s 2, = n s 4 + n 2s 4 = n 2s 4, 2 ln L( θ, x) θ 2 θ 1 = 0, więc różniczka drugiego rzędu w punkcie θ jest dodatnio określona. Zatem statystyka θ(x) = (x, s 2 ) jest estymatorem parametru θ = (m, σ 2 ) wyznaczonym MNW. Przykład 6.8 Niech X = (X 1,..., X n ) będzie próbą z populacji w której badana cecha X ma rozkład jednostajny na przedziale θ, θ + 1, gdzie θ Θ = IR. Zatem rozkład X ma gęstość f θ (x) = I θ, θ+1 (x), x IR. Gęstość z próby możemy zapisać w postaci { 1, θ x(1) x f θ (x) = (n) θ + 1, 0, dla pozostałych x. Stąd funkcja wiarogodności jest równa { 1, x(n) 1 θ x L(θ, x) = (1), 0, dla pozostałych θ. Widzimy, że L(θ, x) może osiągać maksimum w nieskończenie wielu punktach θ. Tak więc estymatorami parametru θ wyznaczonymi MNW są np. x (1) + x (n) 1 θ(x) = x (1), θ(x) = x(n) 1, θ(x) =. 2

7 Marek Beśka, Statystyka matematyczna, wykład 6 80 Twierdzenie 6.9 Niech X n = (X 1,..., X n ) próbą z populacji w której badana cecha X ma rozkład µ θ, θ Θ o gęstości f θ względem pewnej σ - skończonej miary λ. Załóżmy, że zbiór Θ IR jest otwarty oraz funkcja ln f θ (x) jest różniczkowalna względem θ dla λ p.w. x X. Wtedy istnieje ciąg { θ(x n )} n 1 rozwiązań równania ln L(θ, X n ) θ = 0, który jest zbieżny gdy n z prawdopodobieństwem 1 do parametru θ. 6.3 Metoda najmniejszych kwadratów Niech X = X 1... X n T będzie jednokolumnową macierzą losową (wektor losowy), który możemy zapisać w postaci (6.3) X = G(θ) + ε, gdzie θ = (θ 1,... θ k ) Θ IR k jest wektorem parametrów, G : IR k IR n, (n > k) jest funkcją zależną od parametru θ tj. Natomiast G(θ) = G 1 (θ)... G n (θ) T. ε = ε 1... ε n T jest wektorem losowym spełniającym warunki Eε = 0, cov(ε) = cov(ε i, ε j ) 1 i,j n = σ2 I, gdzie σ 2 jest nieznanym parametrem, I jest macierzą jednostkową stopnia n. Z równania (6.3) mamy X i = G i (θ) + ε i dla i = 1,..., n. Stąd EX i = G i (θ), Var(X i ) = σ 2, cov(x i, X j ) = 0, dla i j. Wartość X i interpretuje się jako wartość pomiaru, którego składową deterministyczną jest G i (θ), a zmienna losowa ε i stanowi losowy błąd pomiaru. Prostym przykładem rozważanego modelu obserwacji jest np. badanie zależności między wyskością plonu pewnej rośliny, a dawką nawożenia. W pewnych przypadkach zależność tę można opisać za pomocą równania x = aθ 1 + θ 2,

8 Marek Beśka, Statystyka matematyczna, wykład 6 81 gdzie θ 1, θ 2 sa nieznanymi parametrami, zmienna a jest dawką nawożenia. Kolejne pomiary wielkości x możemy traktować jako wartości zmiennej losowej Jest to tzw. model regresji liniowej. X i = a i θ 1 + θ 2 + ε i, i = 1, 2,..., n. Głównym naszym zadaniem jest wyznaczenie estymatorów parametru θ. Oprócz tego również ważny jest problem estymacji wariancji σ 2. Estymator parametru θ wyznaczamy metodą najmniejszych kwadratów, której istotę podaje następująca definicja. Definicja 6.10 Estymatorem parametru θ = (θ 1,..., θ k ) wyznaczonym metodą najmniejszych kwadratów (EMNK) nazywamy statystykę θ(x) taką, że dla każdej otrzymanej próbki x = (x 1,..., x n ) funkcja (6.4) w(θ) = x G(θ) 2 = ( xi G i (θ) ) 2 osiaga minimum w punkcie θ(x) = ( θ1 (x),..., θ k (x) ). EMNK funkcji g(θ) nazywamy statystykę g ( θ(x) ), gdzie θ(x) jest EMNK parametru θ. Jeśli Θ IR k jest otwartym podzbiorem i G i, i = 1,..., n są różniczkowalne na θ to EMNK jest zawsze określony. Wartości EMNK parametru θ spełniają tzw. układ równań normalnych tj. Dw(θ) = 0 czyli 2 x G(θ), DG(θ) = 0. Można go zapisać w postaci macierzowej (6.5) lub równoważnie ( x G(θ) ) T DG(θ) = 0 (x i G i (θ)) θ j G i (θ) = 0, j = 1, 2,..., k. Zauważmy, że nie ma potrzyby znajmości rozkładu wektora X. W dalszym ciągu zajmiemy się tzw. liniowym modelem Gaussa-Markowa. W tym modelu funkcja parametryczna G(θ) ma postać G(θ) = Aθ, gdzie A jest macierzą wymiaru n k (n k). Zatem równanie (6.3) przyjmuje postać (6.6) X = Aθ + ε.

9 Marek Beśka, Statystyka matematyczna, wykład 6 82 Wtedy oczywiście EX = Aθ oraz cov(x) = σ 2 I. Korzystając z (6.5) widzimy, że układ równań normalnych w modelu liniowym Gaussa- Markowa ma postać (X Aθ) T A = 0 lub równoważnie Stąd A T (X Aθ) = 0. (6.7) A T X = A T Aθ. Zanim podamy twierdzenie o EMNK w modelu liniowym Gaussa-Markowa przypomnijmy lemat z algebry liniowej Lemat 6.11 Niech A będzie macierzą operatora liniowego A : IR k IR n. Wtedy (i) ker(a T ) Im(A). (ii) ker(a T ) Im(A) = IR n. (iii) Im(A T ) = Im(A T A). Dowód. (i) Jeśli x ker(a T ), to A T x = 0 tzn. A T x, y = 0 dla każdego y IR k. Stąd x, Ay = 0 dla każdego y IR k. Zatem x Im(A). (ii) Ponieważ Im(A) Im(A) = IR n, więc wystarczy wykazać, że Im(A) ker(a T ). Niech więc y Im(A) tzn. y, Ax = 0 dla każdego x IR k. Stąd A T y, x = 0 dla każdego x IR k tj. A T y = 0. Zatem y ker(a T ) co kończy dowód (ii). (iii) Ponieważ Im(A T A) Im(A T ), więc wystarczy wykazać zawieranie w drugą stronę. Niech x Im(A T ) tj. x = A T u dla pewnego u IR n. Korzystając z udowodnionej (ii) mamy u = u 1 +u 2, gdzie u 1 ker(a T ), u 2 Im(A) tzn. istnieje v IR k takie, że u 2 = Av. Zatem x = A T u = A T (u 1 + u 2 ) = A T (u 1 ) + A T (u 2 ) = A T (u 2 ) = A T A(v). Stąd x Im(A T A). Dowód lematu został zakończony. Zachodzi Twierdzenie 6.12 W modelu liniowym Gaussa-Markowa układ równań normalnych (6.7) ma zawsze rozwiązanie. Niech x IR n. Jeśli θ = θ(x) jest dowolnym rozwiązaniem układu równań normalnych (6.7), to (6.8) x A θ 2 x Aθ 2 dla każdego θ IR k.

10 Marek Beśka, Statystyka matematyczna, wykład 6 83 Jeśli rz(a) = k to EMNK parametru θ jest wyznaczony jednoznacznie oraz θ(x) = ( A T A ) 1 A T X. Dowód. Istnienie rozwiązań układu (6.7) wynika z lematu 6.11(iii). Niech x IR n i niech θ = θ(x) będzie rozwiązaniem układu (6.7). Wtedy dla dowolnego θ IR k mamy x Aθ 2 = x A θ + A( θ θ) 2 = x A θ 2 + A( θ θ) x A θ, A( θ θ) = x A θ 2 + A( θ θ) A T x A T A θ, θ θ = x A θ 2 + A( θ θ) 2 x A θ 2. Jeśli teraz rz(a) = k, to macierz A T A na mocy lematu 6.11(iii)jest nieosobliwa. Zatem θ = θ(x) = ( A T A ) 1 A T X. Z (6.8) wynika, że jeśli θ i ϑ są rozwiązaniami układu równań normalnych (6.7) dla x IR n, to x A θ 2 = x A ϑ 2. Można wykazać więcej, mianowicie A θ = A ϑ. Rzeczywiście A θ A ϑ 2 = A θ A ϑ, A θ A ϑ = θ ϑ, A T A θ A T A ϑ = θ ϑ, A T x A T x = 0. Przykład 6.13 Niech X = (X 1,..., X n ) będzie próbą z populacji w której badana cecha X ma rozkład o skończonej wartości oczekiwanej EX = θ oraz o skończonej wariancji Var(X) = σ 2 <. Zmienne losowe X i można przedstawić w postaci X i = θ + ε i, i = 1, 2,..., n, gdzie {ε i } 1 i n są niezależne oraz Eε i = 0, Var(ε i ) = σ 2 dla i = 1, 2,..., n. Widzimy, że mamy do czynienia z modelem liniowym Gaussa-Markowa, gdzie macierz A = 1 = T jest wymiaru n 1. Ponieważ rz(a) = 1, więc z twierdzenia 6.12 mamy θ = θ(x) = ( A T A ) 1 A T X = ( 1 T 1 ) 1 1 T X = 1 n X i = X. Przykład 6.14 (Model regresji liniowej) Niech X = X 1... X n T (n > 2) będzie wektorem losowym, którego współrzędne X i mają postać X i = a i θ 1 + θ 2 + ε i, i = 1, 2,... n.

11 Marek Beśka, Statystyka matematyczna, wykład 6 84 gdzie θ = (θ 1, θ 2 ) jest wektorem nieznanych parametrów. Zmienne losowe ε i są nieskorelowane, Eε i = 0, Var(ε i ) = σ 2 > 0, i = 1,..., n. Wektor a = (a 1, a 2,..., a n ) jest dany. Jak łatwo zauważyć jest to model liniowy Gaussa-Markowa X = Aθ + ε, gdzie ε = ε 1... ε n T oraz A = a 1 1 a a n 1 Załóżmy, że a i a j dla pewnych i j. Wtedy rz(a) = 2 i istnieje ( A T A ) 1. Niech x = (x 1,..., x n ) IR n. Wprowadźmy oznaczenia a = 1 n a i, a 2 = 1 n a 2 i, ax = 1 n a i x i Ponieważ więc Ponadto Zatem s 2 a = a 2 (a) 2, s 2 x = x 2 (x) 2, s a = s 2 a, s x = s 2 x, A T A = A T x = a1... a n ρ = ρ a,x = ax a x s a s x. a 1 1 a a n 1 n a = 2 ( A T A ) a = n s 2 a a a 2 a1... a n x 1 x 2... x n θ = θ(x) = ( A T A ) 1 A T x = 1 1 a n s 2 a a a 2. n a = n ax n x n ax n x n a n. =, ax a x s 2 a a 2 x a ax s 2 a

12 Marek Beśka, Statystyka matematyczna, wykład 6 85 Ponieważ więc a 2 x a ax s 2 a = a2 x x(a) 2 + x(a) 2 a ax s 2 a θ = θ1 θ 2 = = x a ax a x s 2 a ρ s x s a x a ρ s x s a. = x a ρ s x s a, Zauważmy, że w modelu regresji liniowej mamy następującą zależność między współrzędnymi estymatora θ, mianowicie θ 2 = x a θ 1. Zastanówmy się teraz nad interpretacją geometryczną EMNK. Macierz A z równania (6.6) możemy uważać za macierz opertora liniowego A : IR k IR n (n k). Wtedy obraz Im(A) = A(IR k ) IR n jest generowany przez wektory, które są kolumnami w macierzy A. Niech x IR n i oznaczmy przez x rzut ortogonalny x na Im(A). Ponieważ x Im(A), więc istnieje θ IR k takie, że (6.9) x = Aθ. Z własności rzutu ortogonalnego x x Im(A). Zatem Stąd i z (6.9) mamy i ostatecznie A T (x x) = 0. A T (x Aθ) = 0 (6.10) A T x = A T Aθ. Powyższe równanie macierzowe jest analogiczne do do układu równań normalnych tj. do (6.7). Stąd wynika następująca interpretacja geometryczna EMNK, mianowicie dla danej próbki x = (x 1,..., x n ) IR n wartość θ = θ(x) ma tę własność, że A( θ) jest rzutem ortogonalnym próbki x na podprzestrzeń Im(A). Zauważmy jescze, że gdy rz(a) = k, to A T A jest odwracalne. Zatem z (6.10) mamy θ = ( A T A ) 1 A T x, a stąd i z (6.9) dostajemy następujący wzór na rzut ortogonalny x na Im(A) (6.11) x = Aθ = A ( A T A ) 1 A T x. Szczególne znaczenie w teorii modeli liniowych ma estymacja funkcji parametrycznej postaci a, θ, gdzie a IR k jest znanym wektorem.

13 Marek Beśka, Statystyka matematyczna, wykład 6 86 Definicja 6.15 EMNK funkcji parametrycznej a, θ nazywamy statystykę a, θ(x), gdzie θ(x) jest EMNK parametru θ. Kolejne twierdzenie podaje warunki przy których EMNK funkcji parametrycznej a, θ jest liniowym (względem x) i nieobciążonym estymatorem tej funkcji parametrycznej. Twierdzenie 6.16 Dany jest model liniowy Gaussa-Markowa (równanie (6.6)) oraz niech θ(x) będzie EMNK parametru θ. Wtedy następujące warunki są równoważne: (i) Statystyka a, θ(x) jest liniową funkcją względem X i nieobciążonym estymatorem funkcji parametrycznej a, θ, gdzie a IR k jest znane. (ii) a Im ( A T ) = Im ( A T A ). (iii) Statystyka a, θ(x) przyjmuje identyczne wartości dla każdego rozwiązania θ układu równań normalnych (6.7). Dowód. (i) (ii) Załóżmy, że a, θ(x) = b, X dla pewnego b IR n. Ponieważ a, θ(x) jest nieobciążonym estymatorem funkcji parametrycznej a, θ, więc E b, X = E a, θ(x) = a, θ. Stąd a, θ = E b, X = b, EX = b, Aθ = A T b, θ dla każdego θ IR k. Zatem a = A T b czyli a Im ( A T ). (ii) (iii) Załóżmy, że a Im ( A T ) = Im ( A T A ). Stąd a = A T Ac dla pewnego c IR k. Zatem dla dowolnego rozwiązania θ = θ(x) układu równań normalnych (6.7) mamy a, θ(x) = A T Ac, θ(x) = c, A T A θ(x) = c, A T X. (iii) (i) Ponieważ więc a IR k = ker(a) Im(A T ), (6.12) a = a k + a i, gdzie a k ker(a), a i Im(A T ) oraz a k, a i = 0. Zauważmy, że jeśli θ = θ(x) jest rozwiązaniem układu równań normalnych (6.7) to θ + a k też jest, bo A T A ( θ + ak ) = A T A θ + A T Aa k = A T X. Zatem z założenia Stąd a, θ = a, θ + a k. a, a k = 0.

14 Marek Beśka, Statystyka matematyczna, wykład 6 87 Zatem korzystając z (6.12) mamy a k 2 = a, a k = 0 stąd a k = 0, zatem a = a i Im ( A T ) = Im ( A T A ). Czyli a = A T Ac dla pewnego c IR k. Dalej mamy (6.13) a, θ = A T Ac, θ = c, A T X = Ac, X. Więc a, θ(x) jest liniowym (względem X) estymatorem. Ponadto z (6.13) dostajemy E a, θ(x) = E Ac, X = Ac, EX = Ac, Aθ = A T Ac, θ = a, θ. Definicja 6.17 Funkcję parametryczną a, θ dla której istnieje nieobciążony liniowy estymator nazywamy funkcją estymowalną. Wniosek 6.18 Jeśli a, θ, gdzie a IR k jest funkcją estymowalną i θ = θ(x) jest EMNK parametru θ, to a, θ(x) jest nieobciążonym liniowym estymatorem a, θ. Dowód. Z założenia istnieje b IR n takie, że b, X jest liniowym i nieobciążonym estymatorem funkcji parametrycznej a, θ. Mamy więc Z drugiej strony E b, X = a, θ, θ IR k. E b, X = b, EX = b, Aθ = A T b, θ, θ IR k. Zatem a = A T b tzn. a Im(A T ) i z twierdzenia 6.16 dostajemy tezę. Twierdzenie 6.19 Wszystkie funkcje parametryczne a, θ, a IR k są estymowalne wtedy i tylko wtedy, gdy rz(a) = k. Dowód. Załóżmy, że dla każdego a IR k funkcja parametryczna a, θ jest estymowalna. Wtedy z dowodu wniosku 6.18 wynika, że a Im(A T ). Z dowolności a IR k mamy Im(A T ) = IR k. Stąd rz(a) = rz(a T ) = k. W drugą stronę. Jeśli rz(a) = k, to Im(A T ) = IR k, więc dowolny element a IR k należy również do Im(A T ) i z twierdzenia 6.16 dostajemy tezę. Twierdzenie 6.20 (Gaussa-Markowa) Dany jest model liniowy Gaussa-Markowa (równanie (6.6)) oraz niech θ(x) będzie EMNK parametru θ. Jeśli funkcja parametryczna a, θ jest estymowalna, to jej EMNK a, θ(x) ma jednostajnie (względem θ) minimalną wariancję w klasie wszystkich liniowych nieobciążonych estymatorów a, θ.

15 Marek Beśka, Statystyka matematyczna, wykład 6 88 Dowód. W dowodzie skorzystamy z następującego faktu: Jeśli X = (X 1,..., X n ) jest wektorem losowym, to dla a, b IR n mamy (6.14) cov ( a, X, b, X ) = a, cov(x)b. Równość (6.14) wynika z następujących przekształceń cov ( a, X, b, X ) = cov ( a T X, X T b ) = E ( a T XX T b ) E ( a T X ) E ( X T b ) = a T E ( XX T ) EXEX T b = a T cov(x)b = a, cov(x)b. Niech b, X, b IR n będzie liniowym nieobciążonym estymatorem funkcji parametrycznej a, θ (ponieważ funkcja ta jest estymowalna, więc taki estymator istnieje). Z wniosku 6.18 oraz twierdzenia 6.16 wynika, że istnieje c IR k takie, że a = A T Ac, a z dowodu wniosku 6.18 mamy równość a = A T b. Obliczmy wariancję b, X Ale więc Stąd Var θ b, X = Var θ b, X a, θ(x) + a, θ(x) = Var θ b, X a, θ(x) + Varθ a, θ(x) + 2covθ b, X a, θ(x), a, θ(x). cov θ b, X a, θ(x), a, θ(x) = cov θ b, X A T Ac, θ(x), A T Ac, θ(x) = cov θ b, X c, A T X, c, A T X 6.14 = cov θ b Ac, X, Ac, X = b Ac, cov θ (X)Ac = σ 2 b Ac, Ac = σ 2 A T b A T Ac, c = a a, c = 0, Var θ b, X = Var θ b, X a, θ(x) + Varθ a, θ(x). Var θ b, X Var θ a, θ(x), θ IR k. Uwaga. Niech będzie dany model liniowy Gaussa-Markowa (równanie (6.6)) oraz niech θ(x) będzie EMNK parametru θ. Z twierdzenia Gaussa-Markowa wynik, że jeśli S(X) jest liniowym (względem X) i nieobciążonym estymatorem parametru θ, to macierz (6.15) cov θ (S(X)) cov θ ( θ(x)), θ IR k jest dodatnio określona. Rzeczywiście, ponieważ S(X) jest liniowym i nieobciążonym estymatorem parametru θ, więc intnieje macierz C wymiaru k n taka, że S(X) = CX oraz θ = ES(X) = ECX = CEX. Niech a IR k będzie dowolne. Wtedy C T a, X jest liniowym i nieobciążonym estymatorem funkcji parametrycznej a, θ, bo E C T a, X = C T a, EX = a, CEX = a, θ.

16 Marek Beśka, Statystyka matematyczna, wykład 6 89 Z twierdzenia Gaussa-Markowa mamy Czyli Var θ C T a, X Var θ a, θ(x), θ IR k. Var θ a, CX Var θ a, θ(x) 0, θ IR k. Korzystając z (6.14) (dla a = b) dostajemy Stąd dla dowolnego a IR k mamy a, cov θ (S(X))a a, cov( θ(x))a 0, θ IR k. a, cov θ (S(X)) cov( θ(x)) a 0, θ IR k. Zatem macierz (6.15) jest dodatnio określona. Oprócz estymatorów związanych z parametrm θ potrzebna jest znajomość nieobciążonego estymatora wariancji błędu σ 2. Udowodnimy Twierdzenie 6.21 Niech będzie dany model liniowy Gaussa-Markowa (równanie (6.6)) oraz niech θ = θ(x) będzie EMNK parametru θ. Załóżmy, że rz(a) = r k < n. Wtedy statystyka Ŝ 2 = 1 2 X A θ n r jest nieobciążonym estymatorem wariancji błędu σ 2. Dowód. Z równania (6.6) mamy ε = (ε 1,..., ε n ) = X Aθ = X A θ + A θ Aθ = ( X A θ ) A ( θ θ ). Jak łatwo sprawdzić X A θ ker(a T ) oraz A ( θ θ ) Im(A). Zatem z lematu 6.11 wynika, że wektory X A θ i A ( θ θ ) są ortogonalne. Istnieje baza ortonormalna {fi } 1 i n w IR n taka, że f i Im(A), i = 1, 2,..., r oraz f i ker(a T ), i = r + 1, r + 2,..., n. Oznaczając przez η = (η 1,..., η n ) wektor współrzędnych wektora błędu w nowej bazie możemy napisać η = Uε, gdzie U jest przekształceniem otrogonalnym. Zatem Stąd A ( θ θ ) = η1... η r T, X A θ = η r+1... η n T. Ponadto mamy Eη = UEε = 0 oraz X A θ 2 = η 2 r η 2 n. cov(η) = cov(uε) = Ucov(ε)U T = Uσ 2 IU T = σ 2 I.

17 Marek Beśka, Statystyka matematyczna, wykład 6 90 Stąd Eη 2 i = σ2 dla i = 1,..., n. Zatem czyli E X A θ 2 = (n r)σ 2, Ŝ 2 = 1 2 X A θ n r jest nieobciążonym estymatorem wariancji błędu σ 2. Zobaczmy jak wygląda estymator wariancji błędu w modelu z przykładu 6.13 Przykład 6.22 Przypomnijmy, że X = (X 1,..., X n ) jest próbą z populacji w której badana cecha X ma rozkład o skończonej wartości oczekiwanej EX = θ oraz o skończonej wariancji Var(X) = σ 2 <. Rozpatrywany model Gaussa-Markowa ma postać X i = θ + ε i, i = 1, 2,..., n, gdzie {ε i } 1 i n są niezależne oraz Eε i = 0, Var(ε i ) = σ 2 dla i = 1, 2,..., n. Ponadto A = 1 = T jest wymiaru n 1. Jak już wiemy EMNK parametru θ ma postać θ = θ(x) = X. Z twierdzenia 6.21 mamy Ŝ 2 = 1 n 1 X A θ 2 = 1 n 1 ( Xi X ) 2 = S 2. Dla regresji liniowej (przykład 6.14) estymator wariancji wyznaczymy w kolejnym przykładzie Przykład 6.23 Przypomnijmy, że model regresji liniowej ma postać: Niech X = X 1... X n T (n > 2) będzie wektorem losowym, którego współrzędne X i możemy zapisać jako X i = a i θ 1 + θ 2 + ε i, i = 1, 2,... n. gdzie θ = (θ 1, θ 2 ) jest wektorem nieznanych parametrów. Zmienne losowe ε i są nieskorelowane, Eε i = 0, Var(ε i ) = σ 2 > 0, i = 1,..., n. Wektor a = (a 1, a 2,..., a n ) jest dany. Jak wiadomo EMNK parametru θ ma postać θ = θ1 θ 2 = ρ s x s a x a ρ s x s a.

18 Marek Beśka, Statystyka matematyczna, wykład 6 91 Ponadto w modelu regresji liniowej mamy następującą zależność między współrzędnymi estymatora θ, mianowicie θ 2 = x a θ 1. Niech x = (x 1,..., x n ) będzie próbką. Wtedy z twierdzenia 6.21 mamy Ŝ 2 = 1 n 2 x A θ 2 = x A θ, ( T ( x A θ x A θ) x A θ) = = n 2 n 2 x T x x T A θ θ T A T x + θ T A T A θ n 2 = xt x x T A θ. n 2 Ponieważ x T A = n ax nx oraz θ = θ 1 θ2 T = θ 1 x a θ 1 T, więc Ŝ 2 = nx2 n ax θ 1 n (x) 2 + n a x θ 1 n 2 n ( s 2 x cov2 (a, x) ) n 2 s 2 a = n ( n 2 s2 x = n ( s 2 x θ 1 cov(a, x) ) n 2 1 cov2 (a, x) s 2 as 2 x ) = = n n 2 s2 x (1 ρ 2 ). Przykład 6.24 (EMNK w gaussowskim modelu liniowym) Zakładamy, że naszym modelu liniowym Gaussa-Markowa (równanie (6.6)) wektor błędów spełnia warunek ε = (ε 1,..., ε n ) N(0, σ 2 I) oraz rz(a) = k. Wtedy X N(Aθ, σ 2 I). Zatem gęstość z próby ma postać 1 f θ (x) = ( ) n exp 1 σ 2π 2σ 2 x Aθ, x Aθ. Ponieważ x Aθ, x Aθ = ( x Aθ ) T ( x Aθ ) = x T x 2θ T A T x + θ T A T A θ, więc f θ (x) = 1 ( ) n exp 1 ( x T σ 2π 2σ 2 x 2θ T A T x + θ T A T A θ ). Oznaczając (T 1 (x),..., T k (x)) = A T x, T k+1 (x) = x T x oraz T (x) = (T 1 (x),..., T k+1 (x)) mamy f θ (x) = Wprowadzając nowe parametry 1 k θ ( i ) n exp σ 2π σ 2 T i(x) 1 2σ 2 T k+1(x) exp θt A T A θ 2σ 2. ϑ i = θ i σ 2, i = 1, 2,..., k, ϑ k+1 = 1 2σ 2

19 Marek Beśka, Statystyka matematyczna, wykład 6 92 otrzymujemy f θ (x) = C(ϑ) exp k+1 ϑ i T i (x), gdzie ϑ = (ϑ 1,..., ϑ k+1 ). Stąd i z kryterium faktoryzacji wynika, że statystyka T (x) = (T 1 (x),..., T k+1 (x)) jest statystyką dostateczną. Natomiast z twierdzenia Lehmanna wynika, że jest również statystyką zupełną o ile nie ograniczymy zakresu parametrów θ i σ 2, chodzi o to aby ich dziedzina zawierała pewien przedział (k +1) - wymiarowy. Ponieważ z założenia rz(a) = k więc układ (6.6) ma dokładnie jedno rozwiązanie θ i jest ono równe θ = θ(x) = ( A T A ) 1 A T x = ( A T A ) 1 πk ( T (x) ), gdzie π k : IR k+1 IR k jest rzutem na pierwsze k - współrzędnych. Stąd widać, że θ jest funkcją od statystyki dostatecznej i zupełnej, a ponieważ jest również nieobciążonym estymatorem parametru θ więc θ ENMW θ. Zauważmy, że cov( θ ) = cov (( A T A ) 1 A T X ) = ( A T A ) 1 A T cov(x)a ( A T A ) 1 = ( A T A ) 1 A T σ 2 IA ( A T A ) 1 = σ 2 ( A T A ) 1. Stąd wynika, że Var( θ i ) = σ 2 c ii, i = 1, 2,..., k, gdzie c ii jest elementem macierz ( A T A ) 1 stojącym w i - tym wierszu i i - tej kolumnie. Również w naszym modelu estymator wariancji błędu Ŝ2 jest estymatorem nieobciążony o minimalnej wariancji, bo (n k)ŝ 2 = x A θ 2 = x A θ, x A θ = ( x A θ ) T ( x A θ) = x T x x T A θ θ T A T x + θ T A T A θ = x T x x T A θ = x T x θ T A T x. Stąd widać, że Ŝ 2 jest funkcją od zupełnej i dostatecznej statystyki T (x). Przykład 6.25 Rozważmy model liniowy Gaussa-Markowa X = Aθ + ε, gdzie X = X 1... X n T, θ = θ 1... θ k+1 T, A = a 11 a a 1k 1 a 21 a a 2k a n1 a n2... a nk 1, rza = k + 1 < n

20 Marek Beśka, Statystyka matematyczna, wykład 6 93 oraz EX = Aθ i cov(x) = σ 2 I. Wprowadźmy oznaczenia 1 = T jest macierzą wymiaru n 1 składającą się z jedynek, X = 1 n n X i oraz A = 1 n a i1 1 n a i n a ik 1. Niech θ = θ(x) będzie ENMK parametru θ. Ponieważ rz(a) = k + 1, więc θ jest wyznaczony jednoznacznie i jest równy (6.16) θ = (A T A) 1 A T X. Z definicji macierzy A wynika, że 1 Im(A), więc ze wzoru (6.11) mamy 1 = A(A T A) 1 A T 1. Transponując powyższą równość i mnożąc z prawej strony przez X dostajemy 1 T X = 1 T A(A T A) 1 A T X. Korzystając z (6.16) mamy Stąd (dzieląc staronami przez n) 1 T X = 1 T A θ. (6.17) X = A θ. Z drugiej strony z interpretacji geometrycznej EMNK wiadomo, że (6.18) X A θ A θ. Ponadto (6.19) X A θ 1A θ, bo 1A θ, X A θ = (1A θ) T (X A θ) = (A θ) T (1 T X 1 T A θ) = Teraz z (6.18) i (6.19) dostajemy n (A θ) T (6.17) (X A θ) = 0. X A θ A θ 1A θ.

21 Marek Beśka, Statystyka matematyczna, wykład 6 94 Stąd i z (6.17) mamy X 1X 2 = X A θ 2 + A θ 1A θ 2. }{{}}{{}}{{} rozrzut błąd rozrzut w modelu W tym modelu określa się estymator współczynnika korelacji wielorakiej jako R = A θ 1A θ X 1X = X A θ 2 1 X 1X 2 Z przykładu 6.24 wiadomo, że (6.20) X A θ 2 = X T X θ T A T X. Ponadto X 1X 2 = X 1X, X 1X = (X 1X) T (X 1X) = X T X X T 1X X1 T X + X1 T 1X = X T X n (X) 2 = X T X 1 n (1T X) 2. Zatem R = 1 XT X θ T A T X X T X 1 n (1T X) 2. Bliska zeru wartość R oznacza brak liniowej zależności między X a danymi z A. przykładzie 6.24 policzyliśmy, że W cov( θ) = σ 2 (A T A) 1, a z twierdzenia 6.21 i z (6.20) wynika, że nieobciążony estymator wariancji błędu σ 2 ma postać Ŝ 2 1 = n k 1 X A θ 2 = XT X θ T A T X. n k 1 Rozpatrzymy teraz konkretny przykład: Zbadano wpływ czterech różnych domieszek A 1, A 2, A 3, A 4 na twardość stopu. Wyniki zapisano w podanej tablicy (1 - zastosowano domieszkę, 0 - brak domieszki) poniżej. L.p A A A A X

22 Marek Beśka, Statystyka matematyczna, wykład 6 95 Wyznaczymy hiperpłaszczyznę regresji, wartość estymatora współczynnika korelacji wielorakiej oraz estymatora nieznanej wariancji błędu. Mamy dane A T A = (A T A) 1 = A = X = T , Det(AT A) = θ = (A T A) 1 A T X = 24 8 Zatem równanie hiperpłaszczyzny regresji ma postać: T y = x x x x Wartość współczynnika korelacji wielorakiej wynosi R = 1 XT X θ T A T X X T X 1 n (1T X) = Wartość estymatora nieznanej wariancji błędu wynosi: Ŝ 2 = 1 n k 1 X A θ 2 = XT X θ T A T X = n k =

23 Marek Beśka, Statystyka matematyczna, wykład 6 96 Przykład 6.26 (Ważona MNK) Rozważmy model liniowy Gaussa-Markowa (6.21) X = Aθ + ε, gdzie X = X 1... X n T, θ = θ 1... θ k T, a 11 a a 1k a 21 a a 2k A =...., a n1 a n2... a nk oraz EX = Aθ i cov(x) = σ 2 C, rza = k < n gdzie C jest znaną macierzą symetryczną i dodatnio (ściśle) określoną. Model ten za pomocą odpowiedniego nieosobliwego przekształecenia liniowego można sprowadzić do modelu liniowego Gaussa-Markowa. Z założenia mamy C = PP T, gdzie P jest macierzą nieosobliwą. Oznaczmy η = P 1 ε, Y = P 1 X. Wtedy równanie (6.21) możemy zapisać postaci a stąd gdzie B = P 1 A. Zauważmy poandto, że PY = A θ + Pη, Y = P 1 A θ + η = B θ + η, cov(η) = cov(p 1 ε) = P 1 cov(ε)(p 1 ) T = σ 2 P 1 C(P 1 ) T = σ 2 I. Mamy zatem do czynienia z klasycznym modelem Gaussa-Markowa. Oznaczmy przez θ EMNK tj. minimalizujący błąd w 1 (θ) = Y B θ 2 = (Y B θ) T (Y B θ) = (X Aθ) T (PP T ) 1 (X Aθ) = (X Aθ) T C 1 (X Aθ). Podobnie jak w przykładzie 6.24 otrzymujemy cov( θ) = σ 2 (B T B) 1 = σ 2 (A T C 1 A) 1. Warto odnotować, że w tym przypadku również możemy minimalizować błąd w(θ) = X A θ 2.

24 Marek Beśka, Statystyka matematyczna, wykład 6 97 Otrzymany w tym przypadku estymator θ = (A T A) 1 A T X jest również niobciążonym estymatorem parametru θ (bo EX = A θ). Teraz jednak cov( θ) = σ 2 (A T A) 1 (A T CA)(A T A) 1. Z twierdzenia Gaussa-Markowa wynika, że macierz cov( θ) cov( θ) = σ 2 (A T A) 1 (A T CA)(A T A) 1 σ 2 (A T C 1 A) 1 jest dodatnio określona. W szczególności elementy na przekątnej tej macierzy są nieujemne. Oznacza to, że wariancja każdej składowej estymatora θ jest nie mniejsza od odpowiedniej składowej estymatora θ.

METODY ESTYMACJI PUNKTOWEJ. nieznanym parametrem (lub wektorem parametrów). Przez X będziemy też oznaczać zmienną losową o rozkładzie

METODY ESTYMACJI PUNKTOWEJ. nieznanym parametrem (lub wektorem parametrów). Przez X będziemy też oznaczać zmienną losową o rozkładzie METODY ESTYMACJI PUNKTOWEJ X 1,..., X n - próbka z rozkładu P θ, θ Θ, θ jest nieznanym parametrem (lub wektorem parametrów). Przez X będziemy też oznaczać zmienną losową o rozkładzie P θ. Definicja. Estymatorem

Bardziej szczegółowo

STATYSTYKA

STATYSTYKA Wykład 1 20.02.2008r. 1. ROZKŁADY PRAWDOPODOBIEŃSTWA 1.1 Rozkład dwumianowy Rozkład dwumianowy, 0 1 Uwaga: 1, rozkład zero jedynkowy. 1 ; 1,2,, Fakt: Niech,, będą niezależnymi zmiennymi losowymi o jednakowym

Bardziej szczegółowo

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 4 - zagadnienie estymacji, metody wyznaczania estymatorów

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 4 - zagadnienie estymacji, metody wyznaczania estymatorów WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 4 - zagadnienie estymacji, metody wyznaczania estymatorów Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 4 1 / 23 ZAGADNIENIE ESTYMACJI Zagadnienie

Bardziej szczegółowo

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 13 i 14 - Statystyka bayesowska

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 13 i 14 - Statystyka bayesowska WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 13 i 14 - Statystyka bayesowska Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 13 i 14 1 / 15 MODEL BAYESOWSKI, przykład wstępny Statystyka

Bardziej szczegółowo

Definicja 1 Statystyką nazywamy (mierzalną) funkcję obserwowalnego wektora losowego

Definicja 1 Statystyką nazywamy (mierzalną) funkcję obserwowalnego wektora losowego Rozdział 1 Statystyki Definicja 1 Statystyką nazywamy (mierzalną) funkcję obserwowalnego wektora losowego X = (X 1,..., X n ). Uwaga 1 Statystyka jako funkcja wektora zmiennych losowych jest zmienną losową

Bardziej szczegółowo

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 7 i 8 - Efektywność estymatorów, przedziały ufności

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 7 i 8 - Efektywność estymatorów, przedziały ufności WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 7 i 8 - Efektywność estymatorów, przedziały ufności Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 7 i 8 1 / 9 EFEKTYWNOŚĆ ESTYMATORÓW, próba

Bardziej szczegółowo

Wykład 3 Momenty zmiennych losowych.

Wykład 3 Momenty zmiennych losowych. Wykład 3 Momenty zmiennych losowych. Wrocław, 19 października 2016r Momenty zmiennych losowych Wartość oczekiwana - przypomnienie Definicja 3.1: 1 Niech X będzie daną zmienną losową. Jeżeli X jest zmienną

Bardziej szczegółowo

Wykład 3 Momenty zmiennych losowych.

Wykład 3 Momenty zmiennych losowych. Wykład 3 Momenty zmiennych losowych. Wrocław, 18 października 2017r Momenty zmiennych losowych Wartość oczekiwana - przypomnienie Definicja 3.1: 1 Niech X będzie daną zmienną losową. Jeżeli X jest zmienną

Bardziej szczegółowo

Wykład 5 Estymatory nieobciążone z jednostajnie minimalną war

Wykład 5 Estymatory nieobciążone z jednostajnie minimalną war Wykład 5 Estymatory nieobciążone z jednostajnie minimalną wariancją Wrocław, 25 października 2017r Statystyki próbkowe - Przypomnienie Niech X = (X 1, X 2,... X n ) będzie n elementowym wektorem losowym.

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład VIII: Przestrzenie statystyczne. Estymatory 1 grudnia 2014 Wprowadzenie Przykład: pomiar z błędem Współczynnik korelacji r(x, Z) = 0, 986 Wprowadzenie Przykład: pomiar z błędem Współczynnik korelacji

Bardziej szczegółowo

Ważne rozkłady i twierdzenia c.d.

Ważne rozkłady i twierdzenia c.d. Ważne rozkłady i twierdzenia c.d. Funkcja charakterystyczna rozkładu Wielowymiarowy rozkład normalny Elipsa kowariacji Sploty rozkładów Rozkłady jednostajne Sploty z rozkładem normalnym Pobieranie próby

Bardziej szczegółowo

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład Rozdział 1 Wektory losowe 1.1 Wektor losowy i jego rozkład Definicja 1 Wektor X = (X 1,..., X n ), którego każda współrzędna jest zmienną losową, nazywamy n-wymiarowym wektorem losowym (krótko wektorem

Bardziej szczegółowo

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory Dr Anna ADRIAN Paw B5, pok 407 adrian@tempus.metal.agh.edu.pl

Bardziej szczegółowo

Metoda najmniejszych kwadratów

Metoda najmniejszych kwadratów Metoda najmniejszych kwadratów Przykład wstępny. W ekonomicznej teorii produkcji rozważa się funkcję produkcji Cobba Douglasa: z = AL α K β gdzie z oznacza wielkość produkcji, L jest nakładem pracy, K

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład XV: Zagadnienia redukcji wymiaru danych 2 lutego 2015 r. Standaryzacja danych Standaryzacja danych Własności macierzy korelacji Definicja Niech X będzie zmienną losową o skończonym drugim momencie.

Bardziej szczegółowo

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Niech Ω będzie przestrzenią zdarzeń elementarnych. Definicja 1 Rodzinę S zdarzeń losowych (zbiór S podzbiorów zbioru

Bardziej szczegółowo

Wykład 6 Estymatory efektywne. Własności asymptotyczne estym. estymatorów

Wykład 6 Estymatory efektywne. Własności asymptotyczne estym. estymatorów Wykład 6 Estymatory efektywne. Własności asymptotyczne estymatorów Wrocław, 30 listopada 2016r Powtórzenie z rachunku prawdopodobieństwa Zbieżność Definicja 6.1 Niech ciąg {X } n ma rozkład o dystrybuancie

Bardziej szczegółowo

F t+ := s>t. F s = F t.

F t+ := s>t. F s = F t. M. Beśka, Całka Stochastyczna, wykład 1 1 1 Wiadomości wstępne 1.1 Przestrzeń probabilistyczna z filtracją Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną i niech F = {F t } t 0 będzie rodziną

Bardziej szczegółowo

Matematyka z el. statystyki, # 3 /Geodezja i kartografia II/

Matematyka z el. statystyki, # 3 /Geodezja i kartografia II/ Matematyka z el. statystyki, # 3 /Geodezja i kartografia II/ Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Akademicka 15, p.211a bud. Agro II, e-mail: zdzislaw.otachel@up.lublin.pl

Bardziej szczegółowo

Statystyka i eksploracja danych

Statystyka i eksploracja danych Wykład XII: Zagadnienia redukcji wymiaru danych 12 maja 2014 Definicja Niech X będzie zmienną losową o skończonym drugim momencie. Standaryzacją zmiennej X nazywamy zmienną losową Z = X EX Var (X ). Definicja

Bardziej szczegółowo

Weryfikacja hipotez statystycznych

Weryfikacja hipotez statystycznych Weryfikacja hipotez statystycznych Hipoteza Test statystyczny Poziom istotności Testy jednostronne i dwustronne Testowanie równości wariancji test F-Fishera Testowanie równości wartości średnich test t-studenta

Bardziej szczegółowo

7 Twierdzenie Fubiniego

7 Twierdzenie Fubiniego M. Beśka, Wstęp do teorii miary, wykład 7 19 7 Twierdzenie Fubiniego 7.1 Miary produktowe Niech i będą niepustymi zbiorami. Przez oznaczmy produkt kartezjański i tj. zbiór = { (x, y : x y }. Niech E oraz

Bardziej szczegółowo

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe Nierówność Czebyszewa Niech X będzie zmienną losową o skończonej wariancji V ar(x). Wtedy wartość oczekiwana E(X) też jest skończona i

Bardziej szczegółowo

Dystrybucje, wiadomości wstępne (I)

Dystrybucje, wiadomości wstępne (I) Temat 8 Dystrybucje, wiadomości wstępne (I) Wielkości fizyczne opisujemy najczęściej przyporządkowując im funkcje (np. zależne od czasu). Inną drogą opisu tych wielkości jest przyporządkowanie im funkcjonałów

Bardziej szczegółowo

Statystyka i eksploracja danych

Statystyka i eksploracja danych Wykład II: i charakterystyki ich rozkładów 24 lutego 2014 Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa,

Bardziej szczegółowo

Oznacza to, że chcemy znaleźć minimum, a właściwie wartość najmniejszą funkcji

Oznacza to, że chcemy znaleźć minimum, a właściwie wartość najmniejszą funkcji Wykład 11. Metoda najmniejszych kwadratów Szukamy zależności Dane są wyniki pomiarów dwóch wielkości x i y: (x 1, y 1 ), (x 2, y 2 ),..., (x n, y n ). Przypuśćmy, że nanieśliśmy je na wykres w układzie

Bardziej szczegółowo

Funkcje charakterystyczne zmiennych losowych, linie regresji 1-go i 2-go rodzaju

Funkcje charakterystyczne zmiennych losowych, linie regresji 1-go i 2-go rodzaju Funkcje charakterystyczne zmiennych losowych, linie regresji -go i 2-go rodzaju Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Inteligencji i Metod Matematycznych Wydział Informatyki Politechniki

Bardziej szczegółowo

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów Rozdział : Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów W tym rozdziale omówione zostaną dwie najpopularniejsze metody estymacji parametrów w ekonometrycznych modelach nieliniowych,

Bardziej szczegółowo

1 Relacje i odwzorowania

1 Relacje i odwzorowania Relacje i odwzorowania Relacje Jacek Kłopotowski Zadania z analizy matematycznej I Wykazać, że jeśli relacja ρ X X jest przeciwzwrotna i przechodnia, to jest przeciwsymetryczna Zbadać czy relacja ρ X X

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład XIII: Prognoza. 26 stycznia 2015 Wykład XIII: Prognoza. Prognoza (predykcja) Przypuśćmy, że mamy dany ciąg liczb x 1, x 2,..., x n, stanowiących wyniki pomiaru pewnej zmiennej w czasie wielkości

Bardziej szczegółowo

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014 Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014 Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe

Bardziej szczegółowo

1.1 Statystyka matematyczna Literatura Model statystyczny Preliminaria... 3

1.1 Statystyka matematyczna Literatura Model statystyczny Preliminaria... 3 Spis treści Spis treści 1 Wstęp 1 1.1 Statystyka matematyczna...................... 1 1.2 Literatura.............................. 1 1.3 Model statystyczny......................... 2 1.4 Preliminaria.............................

Bardziej szczegółowo

Procesy stochastyczne

Procesy stochastyczne Wykład I: Istnienie procesów stochastycznych 21 lutego 2017 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane

Bardziej szczegółowo

Statystyka matematyczna. Wykład III. Estymacja przedziałowa

Statystyka matematyczna. Wykład III. Estymacja przedziałowa Statystyka matematyczna. Wykład III. e-mail:e.kozlovski@pollub.pl Spis treści Rozkłady zmiennych losowych 1 Rozkłady zmiennych losowych Rozkład χ 2 Rozkład t-studenta Rozkład Fischera 2 Przedziały ufności

Bardziej szczegółowo

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki WYKŁAD 6 Witold Bednorz, Paweł Wolff 1 Instytut Matematyki Uniwersytet Warszawski Rachunek Prawdopodobieństwa, WNE, 2010-2011 Własności Wariancji Przypomnijmy, że VarX = E(X EX) 2 = EX 2 (EX) 2. Własności

Bardziej szczegółowo

1 Gaussowskie zmienne losowe

1 Gaussowskie zmienne losowe Gaussowskie zmienne losowe W tej serii rozwiążemy zadania dotyczące zmiennych o rozkładzie normalny. Wymagana jest wiedza na temat własności rozkładu normalnego, CTG oraz warunkowych wartości oczekiwanych..

Bardziej szczegółowo

Metoda największej wiarogodności

Metoda największej wiarogodności Wprowadzenie Założenia Logarytm funkcji wiarogodności Metoda Największej Wiarogodności (MNW) jest bardziej uniwersalną niż MNK metodą szacowania wartości nieznanych parametrów Wprowadzenie Założenia Logarytm

Bardziej szczegółowo

IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych,

IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych, IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. Definicja 1.1. Niech D będzie podzbiorem przestrzeni R n, n 2. Odwzorowanie f : D R nazywamy

Bardziej szczegółowo

Metoda momentów i kwantyli próbkowych. Wrocław, 7 listopada 2014

Metoda momentów i kwantyli próbkowych. Wrocław, 7 listopada 2014 Metoda momentów i kwantyli próbkowych Wrocław, 7 listopada 2014 Metoda momentów Momenty zmiennych losowych X 1, X 2,..., X n - próba losowa. Momenty zmiennych losowych X 1, X 2,..., X n - próba losowa.

Bardziej szczegółowo

Zmienne losowe, statystyki próbkowe. Wrocław, 2 marca 2015

Zmienne losowe, statystyki próbkowe. Wrocław, 2 marca 2015 Zmienne losowe, statystyki próbkowe Wrocław, 2 marca 2015 Zasady zaliczenia 2 kolokwia (każde po 20 punktów) projekt (20 punktów) aktywność Zasady zaliczenia 2 kolokwia (każde po 20 punktów) projekt (20

Bardziej szczegółowo

Statystyka opisowa. Wykład V. Regresja liniowa wieloraka

Statystyka opisowa. Wykład V. Regresja liniowa wieloraka Statystyka opisowa. Wykład V. e-mail:e.kozlovski@pollub.pl Spis treści 1 Prosta regresji cechy Y względem cech X 1,..., X k. 2 3 Wyznaczamy zależność cechy Y od cech X 1, X 2,..., X k postaci Y = α 0 +

Bardziej szczegółowo

Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX = 4 i EY = 6. Rozważamy zmienną losową Z =.

Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX = 4 i EY = 6. Rozważamy zmienną losową Z =. Prawdopodobieństwo i statystyka 3..00 r. Zadanie Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX 4 i EY 6. Rozważamy zmienną losową Z. X + Y Wtedy (A) EZ 0,

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład VII: Rozkład i jego charakterystyki 22 listopada 2016 Uprzednio wprowadzone pojęcia i ich własności Definicja zmiennej losowej Zmienna losowa na przestrzeni probabilistycznej (Ω, F, P) to funkcja

Bardziej szczegółowo

Na A (n) rozważamy rozkład P (n) , który na zbiorach postaci A 1... A n określa się jako P (n) (X n, A (n), P (n)

Na A (n) rozważamy rozkład P (n) , który na zbiorach postaci A 1... A n określa się jako P (n) (X n, A (n), P (n) MODELE STATYSTYCZNE Punktem wyjścia w rozumowaniu statystycznym jest zmienna losowa (cecha) X i jej obserwacje opisujące wyniki doświadczeń bądź pomiarów. Zbiór wartości zmiennej losowej X (zbiór wartości

Bardziej szczegółowo

Procesy stochastyczne

Procesy stochastyczne Wykład I: Istnienie procesów stochastycznych 2 marca 2015 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane są

Bardziej szczegółowo

Lokalna odwracalność odwzorowań, odwzorowania uwikłane

Lokalna odwracalność odwzorowań, odwzorowania uwikłane Lokalna odwracalność odwzorowań, odwzorowania uwikłane Katedra Matematyki i Ekonomii Matematycznej Szkoła Główna Handlowa 17 maja 2012 Definicja Mówimy, że odwzorowanie F : X R n, gdzie X R n, jest lokalnie

Bardziej szczegółowo

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 9 i 10 - Weryfikacja hipotez statystycznych

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 9 i 10 - Weryfikacja hipotez statystycznych WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 9 i 10 - Weryfikacja hipotez statystycznych Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 9 i 10 1 / 30 TESTOWANIE HIPOTEZ STATYSTYCZNYCH

Bardziej szczegółowo

Testowanie hipotez statystycznych.

Testowanie hipotez statystycznych. Statystyka Wykład 10 Wrocław, 22 grudnia 2011 Testowanie hipotez statystycznych Definicja. Hipotezą statystyczną nazywamy stwierdzenie dotyczące parametrów populacji. Definicja. Dwie komplementarne w problemie

Bardziej szczegółowo

2. Definicja pochodnej w R n

2. Definicja pochodnej w R n 2. Definicja pochodnej w R n Niech będzie dana funkcja f : U R określona na zbiorze otwartym U R n. Pochodną kierunkową w punkcie a U w kierunku wektora u R n nazywamy granicę u f(a) = lim t 0 f(a + tu)

Bardziej szczegółowo

Zadania z Analizy Funkcjonalnej I Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi?

Zadania z Analizy Funkcjonalnej I Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi? Zadania z Analizy Funkcjonalnej I - 1 1. Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi?. a) X = R, x = arctg x ; b) X = R n, d(x, y) = x 1 y 1 + x 2 y 2 + max i 3 x i y i ;

Bardziej szczegółowo

Metoda największej wiarygodności

Metoda największej wiarygodności Metoda największej wiarygodności Próbki w obecności tła Funkcja wiarygodności Iloraz wiarygodności Pomiary o różnej dokładności Obciążenie Informacja z próby i nierówność informacyjna Wariancja minimalna

Bardziej szczegółowo

Baza w jądrze i baza obrazu ( )

Baza w jądrze i baza obrazu ( ) Przykład Baza w jądrze i baza obrazu (839) Znajdź bazy jądra i obrazu odwzorowania α : R 4 R 3, gdzie α(x, y, z, t) = (x + 2z + t, 2x + y 3z 5t, x y + z + 4t) () zór ten oznacza, że α jest odwzorowaniem

Bardziej szczegółowo

Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna.

Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna. Wykład 4 Rozkłady i ich dystrybuanty Dwa typy zmiennych losowych Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x, x 2,...}, to mówimy, że jest to zmienna dyskretna.

Bardziej szczegółowo

8 Całka stochastyczna względem semimartyngałów

8 Całka stochastyczna względem semimartyngałów M. Beśka, Całka Stochastyczna, wykład 8 148 8 Całka stochastyczna względem semimartyngałów 8.1 Całka stochastyczna w M 2 Oznaczmy przez Ξ zbiór procesów postaci X t (ω) = ξ (ω)i {} (t) + n ξ i (ω)i (ti,

Bardziej szczegółowo

Centralne twierdzenie graniczne

Centralne twierdzenie graniczne Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 4 Ważne uzupełnienie Dwuwymiarowy rozkład normalny N (µ X, µ Y, σ X, σ Y, ρ): f XY (x, y) = 1 2πσ X σ Y 1 ρ 2 { [ (x ) 1

Bardziej szczegółowo

Testowanie hipotez. Hipoteza prosta zawiera jeden element, np. H 0 : θ = 2, hipoteza złożona zawiera więcej niż jeden element, np. H 0 : θ > 4.

Testowanie hipotez. Hipoteza prosta zawiera jeden element, np. H 0 : θ = 2, hipoteza złożona zawiera więcej niż jeden element, np. H 0 : θ > 4. Testowanie hipotez Niech X = (X 1... X n ) będzie próbą losową na przestrzeni X zaś P = {P θ θ Θ} rodziną rozkładów prawdopodobieństwa określonych na przestrzeni próby X. Definicja 1. Hipotezą zerową Θ

Bardziej szczegółowo

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie Jarosław Kotowicz Instytut Matematyki Uniwersytet w

Bardziej szczegółowo

Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału

Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału Magdalena Frąszczak Wrocław, 22.02.2017r Zasady oceniania Ćwiczenia 2 kolokwia (20 punktów każde) 05.04.2017 oraz 31.05.2017 2 kartkówki

Bardziej szczegółowo

1.1 Klasyczny Model Regresji Liniowej

1.1 Klasyczny Model Regresji Liniowej 1.1 Klasyczny Model Regresji Liniowej Klasyczny model Regresji Liniowej jest bardzo użytecznym narzędziem służącym do analizy danych empirycznych. Analiza regresji zajmuje się opisem zależności między

Bardziej szczegółowo

Spis treści 3 SPIS TREŚCI

Spis treści 3 SPIS TREŚCI Spis treści 3 SPIS TREŚCI PRZEDMOWA... 1. WNIOSKOWANIE STATYSTYCZNE JAKO DYSCYPLINA MATEMATYCZNA... Metody statystyczne w analizie i prognozowaniu zjawisk ekonomicznych... Badania statystyczne podstawowe

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 2 autorzy: A. Gonczarek, J.M. Tomczak Metody estymacji Zad. 1 Pojawianie się spamu opisane jest zmienną losową x o rozkładzie dwupunktowym

Bardziej szczegółowo

Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/

Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/ Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/ Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Głęboka 28, bud. CIW, p. 221 e-mail: zdzislaw.otachel@up.lublin.pl

Bardziej szczegółowo

Statystyka. Wykład 2. Krzysztof Topolski. Wrocław, 11 października 2012

Statystyka. Wykład 2. Krzysztof Topolski. Wrocław, 11 października 2012 Wykład 2 Wrocław, 11 października 2012 Próba losowa Definicja. Zmienne losowe X 1, X 2,..., X n nazywamy próba losową rozmiaru n z rozkładu o gęstości f (x) (o dystrybuancie F (x)) jeśli X 1, X 2,...,

Bardziej szczegółowo

Statystyka Matematyczna Anna Janicka

Statystyka Matematyczna Anna Janicka Statystyka Matematyczna Anna Janicka wykład X, 9.05.206 TESTOWANIE HIPOTEZ STATYSTYCZNYCH II: PORÓWNYWANIE TESTÓW Plan na dzisiaj 0. Przypomnienie potrzebnych definicji. Porównywanie testów 2. Test jednostajnie

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA

STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA Zadanie 0.1 Zmienna losowa X ma rozkład określony funkcją prawdopodobieństwa: x k 0 4 p k 1/3 1/6 1/ obliczyć EX, D X. (odp. 4/3;

Bardziej szczegółowo

Biostatystyka, # 3 /Weterynaria I/

Biostatystyka, # 3 /Weterynaria I/ Biostatystyka, # 3 /Weterynaria I/ dr n. mat. Zdzisław Otachel Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Głęboka 28, p. 221 bud. CIW, e-mail: zdzislaw.otachel@up.lublin.pl

Bardziej szczegółowo

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 11 i 12 - Weryfikacja hipotez statystycznych

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 11 i 12 - Weryfikacja hipotez statystycznych WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 11 i 12 - Weryfikacja hipotez statystycznych Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 11 i 12 1 / 41 TESTOWANIE HIPOTEZ - PORÓWNANIE

Bardziej szczegółowo

Układy równań i nierówności liniowych

Układy równań i nierówności liniowych Układy równań i nierówności liniowych Wiesław Krakowiak 1 grudnia 2010 1 Układy równań liniowych DEFINICJA 11 Układem równań m liniowych o n niewiadomych X 1,, X n, nazywamy układ postaci: a 11 X 1 + +

Bardziej szczegółowo

... i statystyka testowa przyjmuje wartość..., zatem ODRZUCAMY /NIE MA POD- STAW DO ODRZUCENIA HIPOTEZY H 0 (właściwe podkreślić).

... i statystyka testowa przyjmuje wartość..., zatem ODRZUCAMY /NIE MA POD- STAW DO ODRZUCENIA HIPOTEZY H 0 (właściwe podkreślić). Egzamin ze Statystyki Matematycznej, WNE UW, wrzesień 016, zestaw B Odpowiedzi i szkice rozwiązań 1. Zbadano koszt 7 noclegów dla 4-osobowej rodziny (kwatery) nad morzem w sezonie letnim 014 i 015. Wylosowano

Bardziej szczegółowo

Uogolnione modele liniowe

Uogolnione modele liniowe Uogolnione modele liniowe Jerzy Mycielski Uniwersytet Warszawski grudzien 2013 Jerzy Mycielski (Uniwersytet Warszawski) Uogolnione modele liniowe grudzien 2013 1 / 17 (generalized linear model - glm) Zakładamy,

Bardziej szczegółowo

Przestrzeń unitarna. Jacek Kłopotowski. 23 października Katedra Matematyki i Ekonomii Matematycznej SGH

Przestrzeń unitarna. Jacek Kłopotowski. 23 października Katedra Matematyki i Ekonomii Matematycznej SGH Katedra Matematyki i Ekonomii Matematycznej SGH 23 października 2018 Definicja iloczynu skalarnego Definicja Iloczynem skalarnym w przestrzeni liniowej R n nazywamy odwzorowanie ( ) : R n R n R spełniające

Bardziej szczegółowo

Korzystając z własności metryki łatwo wykazać, że dla dowolnych x, y, z X zachodzi

Korzystając z własności metryki łatwo wykazać, że dla dowolnych x, y, z X zachodzi M. Beśka, Wstęp do teorii miary, Dodatek 158 10 Dodatek 10.1 Przestrzenie metryczne Niech X będzie niepustym zbiorem. Funkcję d : X X [0, ) spełniającą dla x, y, z X warunki (i) d(x, y) = 0 x = y, (ii)

Bardziej szczegółowo

Testowanie hipotez statystycznych.

Testowanie hipotez statystycznych. Bioinformatyka Wykład 9 Wrocław, 5 grudnia 2011 Temat. Test zgodności χ 2 Pearsona. Statystyka χ 2 Pearsona Rozpatrzmy ciąg niezależnych zmiennych losowych X 1,..., X n o jednakowym dyskretnym rozkładzie

Bardziej szczegółowo

O ŚREDNIEJ STATYSTYCZNEJ

O ŚREDNIEJ STATYSTYCZNEJ Od średniej w modelu gaussowskim do kwantyli w podstawowym modelu nieparametrycznym IMPAN 1.X.2009 Rozszerzona wersja wykładu: O ŚREDNIEJ STATYSTYCZNEJ Ryszard Zieliński XII Międzynarodowe Warsztaty dla

Bardziej szczegółowo

Wykład 3 Jednowymiarowe zmienne losowe

Wykład 3 Jednowymiarowe zmienne losowe Wykład 3 Jednowymiarowe zmienne losowe Niech (Ω, F, P ) będzie ustaloną przestrzenią probabilistyczną Definicja 1 Jednowymiarowa zmienna losowa (o wartościach rzeczywistych), określoną na przestrzeni probabilistycznej

Bardziej szczegółowo

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne 5.2. Momenty rozkładów łącznych. Katarzyna Rybarczyk-Krzywdzińska rozkładów wielowymiarowych Przypomnienie Jeśli X jest zmienną losową o rozkładzie

Bardziej szczegółowo

Układy równań liniowych

Układy równań liniowych Układy równań liniowych Niech K będzie ciałem. Niech n, m N. Równanie liniowe nad ciałem K z niewiadomymi (lub zmiennymi) x 1, x 2,..., x n K definiujemy jako formę zdaniową zmiennej (x 1,..., x n ) K

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 3 Metody estymacji. Estymator największej wiarygodności Zad. 1 Pojawianie się spamu opisane jest zmienną losową y o rozkładzie zero-jedynkowym

Bardziej szczegółowo

13 Układy równań liniowych

13 Układy równań liniowych 13 Układy równań liniowych Definicja 13.1 Niech m, n N. Układem równań liniowych nad ciałem F m równaniach i n niewiadomych x 1, x 2,..., x n nazywamy koniunkcję równań postaci a 11 x 1 + a 12 x 2 +...

Bardziej szczegółowo

Rozkłady statystyk z próby

Rozkłady statystyk z próby Rozkłady statystyk z próby Rozkłady statystyk z próby Przypuśćmy, że wykonujemy serię doświadczeń polegających na 4 krotnym rzucie symetryczną kostką do gry, obserwując liczbę wyrzuconych oczek Nr kolejny

Bardziej szczegółowo

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych 1. [E.A 5.10.1996/zad.4] Funkcja gęstości dana jest wzorem { 3 x + 2xy + 1 y dla (x y) (0 1) (0 1) 4 4 P (X > 1 2 Y > 1 2 ) wynosi:

Bardziej szczegółowo

VI. Równania różniczkowe liniowe wyższych rzędów

VI. Równania różniczkowe liniowe wyższych rzędów VI. 1. Równanie różniczkowe liniowe n-tego rzędu o zmiennych współczynnikach Niech podobnie jak w poprzednim paragrafie K = C lub K = R. Podobnie jak w dziedzinie rzeczywistej wprowadzamy pochodne wyższych

Bardziej szczegółowo

Wykład 2 Zmienne losowe i ich rozkłady

Wykład 2 Zmienne losowe i ich rozkłady Wykład 2 Zmienne losowe i ich rozkłady Magdalena Frąszczak Wrocław, 11.10.2017r Zmienne losowe i ich rozkłady Doświadczenie losowe: Rzut monetą Rzut kostką Wybór losowy n kart z talii 52 Gry losowe Doświadczenie

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład XI: Testowanie hipotez statystycznych 12 stycznia 2015 Przykład Motywacja X 1, X 2,..., X N N (µ, σ 2 ), Y 1, Y 2,..., Y M N (ν, δ 2 ). Chcemy sprawdzić, czy µ = ν i σ 2 = δ 2, czyli że w obu populacjach

Bardziej szczegółowo

Wykład 5. Metoda eliminacji Gaussa

Wykład 5. Metoda eliminacji Gaussa 1 Wykład 5 Metoda eliminacji Gaussa Rozwiązywanie układów równań liniowych Układ równań liniowych może mieć dokładnie jedno rozwiązanie, nieskończenie wiele rozwiązań lub nie mieć rozwiązania. Metody dokładne

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA WYKŁAD grudnia 2009

STATYSTYKA MATEMATYCZNA WYKŁAD grudnia 2009 STATYSTYKA MATEMATYCZNA WYKŁAD 10 14 grudnia 2009 PARAMETRY POŁOŻENIA Przypomnienie: Model statystyczny pomiaru: wynik pomiaru X = µ + ε 1. ε jest zmienną losową 2. E(ε) = 0 pomiar nieobciążony, pomiar

Bardziej szczegółowo

6.4 Podstawowe metody statystyczne

6.4 Podstawowe metody statystyczne 156 Wstęp do statystyki matematycznej 6.4 Podstawowe metody statystyczne Spóbujemy teraz w dopuszczalnym uproszczeniu przedstawić istotę analizy statystycznej. W szczególności udzielimy odpowiedzi na postawione

Bardziej szczegółowo

Metody probabilistyczne

Metody probabilistyczne Metody probabilistyczne 13. Elementy statystki matematycznej I Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 17.01.2019 1 / 30 Zagadnienia statystki Przeprowadzamy

Bardziej szczegółowo

Informacja o przestrzeniach Hilberta

Informacja o przestrzeniach Hilberta Temat 10 Informacja o przestrzeniach Hilberta 10.1 Przestrzenie unitarne, iloczyn skalarny Niech dana będzie przestrzeń liniowa X. Załóżmy, że każdej parze elementów x, y X została przyporządkowana liczba

Bardziej szczegółowo

Układy równań i równania wyższych rzędów

Układy równań i równania wyższych rzędów Rozdział Układy równań i równania wyższych rzędów Układy równań różniczkowych zwyczajnych Wprowadzenie W poprzednich paragrafach zajmowaliśmy się równaniami różniczkowymi y = f(x, y), których rozwiązaniem

Bardziej szczegółowo

dr Mariusz Grządziel 15,29 kwietnia 2014 Przestrzeń R k R k = R R... R k razy Elementy R k wektory;

dr Mariusz Grządziel 15,29 kwietnia 2014 Przestrzeń R k R k = R R... R k razy Elementy R k wektory; Wykłady 8 i 9 Pojęcia przestrzeni wektorowej i macierzy Układy równań liniowych Elementy algebry macierzy dodawanie, odejmowanie, mnożenie macierzy; macierz odwrotna dr Mariusz Grządziel 15,29 kwietnia

Bardziej szczegółowo

Losowe zmienne objaśniające. Rozszerzenia KMRL. Rozszerzenia KMRL

Losowe zmienne objaśniające. Rozszerzenia KMRL. Rozszerzenia KMRL MNK z losową macierzą obserwacji Równanie modelu y = X β + ε Jeżeli X zawiera elementy losowe to należy sprawdzić czy E(b β) = E[(X X ) 1 X ε]? = E[(X X ) 1 X ]E(ε) Przypomnienie: Nieskorelowane zmienne

Bardziej szczegółowo

Estymatory nieobciążone

Estymatory nieobciążone Estymatory nieobciążone Zadanie 1. Pobieramy próbkę X 1,..., X n niezależnych obserwacji z rozkładu Poissona o nieznanym parametrze λ. Szacujemy p 0 = e λ za pomocą estymatora ˆp 0 = e X, gdzie X jest

Bardziej szczegółowo

Analiza funkcjonalna 1.

Analiza funkcjonalna 1. Analiza funkcjonalna 1. Wioletta Karpińska Semestr letni 2015/2016 0 Bibliografia [1] Banaszczyk W., Analiza matematyczna 3. Wykłady. (http://math.uni.lodz.pl/ wbanasz/am3/) [2] Birkholc A., Analiza matematyczna.

Bardziej szczegółowo

3. Macierze i Układy Równań Liniowych

3. Macierze i Układy Równań Liniowych 3. Macierze i Układy Równań Liniowych Rozważamy równanie macierzowe z końcówki ostatniego wykładu ( ) 3 1 X = 4 1 ( ) 2 5 Podstawiając X = ( ) x y i wymnażając, otrzymujemy układ 2 równań liniowych 3x

Bardziej szczegółowo

Komputerowa Analiza Danych Doświadczalnych

Komputerowa Analiza Danych Doświadczalnych Komputerowa Analiza Danych Doświadczalnych Prowadząca: dr inż. Hanna Zbroszczyk e-mail: gos@if.pw.edu.pl tel: +48 22 234 58 51 konsultacje: poniedziałek, 10-11, środa: 11-12 www: http://www.if.pw.edu.pl/~gos/students/kadd

Bardziej szczegółowo

b) Niech: - wśród trzech wylosowanych opakowań jest co najwyżej jedno o dawce 15 mg. Wówczas:

b) Niech: - wśród trzech wylosowanych opakowań jest co najwyżej jedno o dawce 15 mg. Wówczas: ROZWIĄZANIA I ODPOWIEDZI Zadanie A1. Można założyć, że przy losowaniu trzech kul jednocześnie kolejność ich wylosowania nie jest istotna. A więc: Ω = 20 3. a) Niech: - wśród trzech wylosowanych opakowań

Bardziej szczegółowo

Prawdopodobieństwo i statystyka r.

Prawdopodobieństwo i statystyka r. Zadanie. Niech (X, Y) ) będzie dwuwymiarową zmienną losową, o wartości oczekiwanej (μ, μ, wariancji każdej ze współrzędnych równej σ oraz kowariancji równej X Y ρσ. Staramy się obserwować niezależne realizacje

Bardziej szczegółowo

Literatura. Leitner R., Zacharski J., Zarys matematyki wyŝszej dla studentów, cz. III.

Literatura. Leitner R., Zacharski J., Zarys matematyki wyŝszej dla studentów, cz. III. Literatura Krysicki W., Bartos J., Dyczka W., Królikowska K, Wasilewski M., Rachunek Prawdopodobieństwa i Statystyka Matematyczna w Zadaniach, cz. I. Leitner R., Zacharski J., Zarys matematyki wyŝszej

Bardziej szczegółowo