WYKŁAD 6 Witold Bednorz, Paweł Wolff 1 Instytut Matematyki Uniwersytet Warszawski Rachunek Prawdopodobieństwa, WNE, 2010-2011
Własności Wariancji Przypomnijmy, że VarX = E(X EX) 2 = EX 2 (EX) 2.
Własności Wariancji Przypomnijmy, że VarX = E(X EX) 2 = EX 2 (EX) 2. VarX 0, przy czym VarX = 0 wtedy i tylko wtedy, gdy X jest stała z p-stwem 1.
Własności Wariancji Przypomnijmy, że VarX = E(X EX) 2 = EX 2 (EX) 2. VarX 0, przy czym VarX = 0 wtedy i tylko wtedy, gdy X jest stała z p-stwem 1. Var(aX) = a 2 VarX.
Własności Wariancji Przypomnijmy, że VarX = E(X EX) 2 = EX 2 (EX) 2. VarX 0, przy czym VarX = 0 wtedy i tylko wtedy, gdy X jest stała z p-stwem 1. Var(aX) = a 2 VarX. Var(X + c) = VarX
Własności Wariancji Przypomnijmy, że VarX = E(X EX) 2 = EX 2 (EX) 2. VarX 0, przy czym VarX = 0 wtedy i tylko wtedy, gdy X jest stała z p-stwem 1. Var(aX) = a 2 VarX. Var(X + c) = VarX Uogólnieniem pojęcia wariancji jest kowariancja. Dla zmiennych X, Y piszemy Cov(X, Y ) = E(X EX)(Y EY ) = E(XY ) EXEY.
Własności Wariancji Przypomnijmy, że VarX = E(X EX) 2 = EX 2 (EX) 2. VarX 0, przy czym VarX = 0 wtedy i tylko wtedy, gdy X jest stała z p-stwem 1. Var(aX) = a 2 VarX. Var(X + c) = VarX Uogólnieniem pojęcia wariancji jest kowariancja. Dla zmiennych X, Y piszemy Cov(X, Y ) = E(X EX)(Y EY ) = E(XY ) EXEY. Kowariancja jest dwuliniowa to znaczy Cov(α 1 X 1 + α 2 X 2, β 1 Y 1 + β 2 Y 2 ) = 2 α i β j Cov(X i, Y j ). i,j=1
Niezależne zmienne losowe Jeśli X, Y niezależne, to Cov(X, Y ) = 0 (brak korelacji), istotnie Cov(X, Y ) = E(XY ) EXEY = 0, bo E(XY ) = EXEY dla niezależnych zmiennych.
Niezależne zmienne losowe Jeśli X, Y niezależne, to Cov(X, Y ) = 0 (brak korelacji), istotnie Cov(X, Y ) = E(XY ) EXEY = 0, bo E(XY ) = EXEY dla niezależnych zmiennych. Stad wynika, że jeśli X 1,..., X n niezależne, to Var(X 1 +... + X n ) = Var(X 1 ) +... + Var(X n ).
Niezależne zmienne losowe Jeśli X, Y niezależne, to Cov(X, Y ) = 0 (brak korelacji), istotnie Cov(X, Y ) = E(XY ) EXEY = 0, bo E(XY ) = EXEY dla niezależnych zmiennych. Stad wynika, że jeśli X 1,..., X n niezależne, to Var(X 1 +... + X n ) = Var(X 1 ) +... + Var(X n ). Istotnie wynika to z następujacego faktu Var(X 1 +... + X n ) = E( = n i=1 (EX 2 i n X i ) 2 (E i=1 (EX i ) 2 ) + i j n ) 2 = i=1 E(X i X j ) EX i EX j.
Przykłady Niech X z rozkładu P(X = 0) = q, P(X = 1) = p, wtedy EX = 1 p+0 q = p, EX 2 = 1 p+0 q = p, VarX = p p 2. Czyli EX = p, VarX = p(1 p) = pq.
Przykłady Niech X z rozkładu P(X = 0) = q, P(X = 1) = p, wtedy EX = 1 p+0 q = p, EX 2 = 1 p+0 q = p, VarX = p p 2. Czyli EX = p, VarX = p(1 p) = pq. Dla S n = (X 1 +... + X n ) z B(n, p) mamy ES n = E(X 1 +... + X n ) = np; VarS n = VarX 1 +... + VarX n = n(pq).
Przykłady Niech X z rozkładu P(X = 0) = q, P(X = 1) = p, wtedy EX = 1 p+0 q = p, EX 2 = 1 p+0 q = p, VarX = p p 2. Czyli EX = p, VarX = p(1 p) = pq. Dla S n = (X 1 +... + X n ) z B(n, p) mamy ES n = E(X 1 +... + X n ) = np; VarS n = VarX 1 +... + VarX n = n(pq). Analogicznie dla S n sumy wyników n rzutów kośćmi do gry ES n = (3 1 2 )n, VarS n = (2 11 12 )n.
Wariancja znanych rozkładów µ X = δ a, P(X = a) = 1, wtedy VarX = 0;
Wariancja znanych rozkładów µ X = δ a, P(X = a) = 1, wtedy VarX = 0; µ X = pδ 1 + qδ 0, P(X = 1) = p, P(X = 0) = q, VarX = pq;
Wariancja znanych rozkładów µ X = δ a, P(X = a) = 1, wtedy VarX = 0; µ X = pδ 1 + qδ 0, P(X = 1) = p, P(X = 0) = q, VarX = pq; µ X = B(n, p), P(X = k) = ( n k) p k q n k, VarX = npq;
Wariancja znanych rozkładów µ X = δ a, P(X = a) = 1, wtedy VarX = 0; µ X = pδ 1 + qδ 0, P(X = 1) = p, P(X = 0) = q, VarX = pq; µ X = B(n, p), P(X = k) = ( n k) p k q n k, VarX = npq; µ X = Poiss(λ), P(X = k) = λk k! e λ, VarX = λ;
Wariancja znanych rozkładów µ X = δ a, P(X = a) = 1, wtedy VarX = 0; µ X = pδ 1 + qδ 0, P(X = 1) = p, P(X = 0) = q, VarX = pq; µ X = B(n, p), P(X = k) = ( n k) p k q n k, VarX = npq; µ X = Poiss(λ), P(X = k) = λk k! e λ, VarX = λ; µ X = Geom(p), P(X = k) = pq k 1, VarX = q p 2 ;
Wariancja znanych rozkładów µ X = δ a, P(X = a) = 1, wtedy VarX = 0; µ X = pδ 1 + qδ 0, P(X = 1) = p, P(X = 0) = q, VarX = pq; µ X = B(n, p), P(X = k) = ( n k) p k q n k, VarX = npq; µ X = Poiss(λ), P(X = k) = λk k! e λ, VarX = λ; µ X = Geom(p), P(X = k) = pq k 1, VarX = q p 2 ; µ X = U(a, b), f X (x) = 1 b a 1 (a,b)(x), VarX = (b a) 2 /12;
Wariancja znanych rozkładów µ X = δ a, P(X = a) = 1, wtedy VarX = 0; µ X = pδ 1 + qδ 0, P(X = 1) = p, P(X = 0) = q, VarX = pq; µ X = B(n, p), P(X = k) = ( n k) p k q n k, VarX = npq; µ X = Poiss(λ), P(X = k) = λk k! e λ, VarX = λ; µ X = Geom(p), P(X = k) = pq k 1, VarX = q p 2 ; µ X = U(a, b), f X (x) = 1 b a 1 (a,b)(x), VarX = (b a) 2 /12; µ X = Exp(λ) = λe xλ 1 (0, ) (x).
Rozkład normalny Zmienna X ma rozkład normalny N (m, σ 2 ) jeśli gęstość f X wyraża się wzorem f X (x) = 1 2πσ exp( x m 2 2σ 2 ).
Rozkład normalny Zmienna X ma rozkład normalny N (m, σ 2 ) jeśli gęstość f X wyraża się wzorem f X (x) = 1 x m 2 exp( 2πσ 2σ 2 ). Zmienna Y ma standardowy rozkład normalny N (0, 1), jeśli f Y (x) = 1 exp( x 2 2π 2 ).
Rozkład normalny Zmienna X ma rozkład normalny N (m, σ 2 ) jeśli gęstość f X wyraża się wzorem f X (x) = 1 x m 2 exp( 2πσ 2σ 2 ). Zmienna Y ma standardowy rozkład normalny N (0, 1), jeśli f Y (x) = 1 exp( x 2 2π 2 ). Niech Y = σ 1 (X m), σ 0, pokażemy, że Y ma rozkład standardowy.
Rozkład normalny Zmienna X ma rozkład normalny N (m, σ 2 ) jeśli gęstość f X wyraża się wzorem f X (x) = 1 x m 2 exp( 2πσ 2σ 2 ). Zmienna Y ma standardowy rozkład normalny N (0, 1), jeśli f Y (x) = 1 exp( x 2 2π 2 ). Niech Y = σ 1 (X m), σ 0, pokażemy, że Y ma rozkład standardowy. To oznacza, że X = σy + m, a ponieważ EY = 0, VarY = 1, więc EX = σey +m = m, VarX = Var(σY +m) = VarσY = σ 2.
Rozkład normalny Z twierdzenia o podstawianiu F Y (t) = F σ 1 (X m) (t) = F X (σt + m).
Rozkład normalny Z twierdzenia o podstawianiu F Y (t) = F σ 1 (X m) (t) = F X (σt + m). Stad przez całkowanie przez podstawienie F Y (t) = F X (σt + m) = = t σt+m 1 2π exp( x 2 2 )dx. f X (x)dx =
Rozkład normalny Z twierdzenia o podstawianiu F Y (t) = F σ 1 (X m) (t) = F X (σt + m). Stad przez całkowanie przez podstawienie F Y (t) = F X (σt + m) = = t σt+m 1 2π exp( x 2 2 )dx. f X (x)dx = To dowodzi, że Y = σ 1 (X m) ma rozkład standardowy.
Rozkład normalny Z twierdzenia o podstawianiu F Y (t) = F σ 1 (X m) (t) = F X (σt + m). Stad przez całkowanie przez podstawienie F Y (t) = F X (σt + m) = = t σt+m 1 2π exp( x 2 2 )dx. f X (x)dx = To dowodzi, że Y = σ 1 (X m) ma rozkład standardowy. Stad X ma taki sam rozkład jak σy + m.
Parametry rozkładu Dla p > 0 definiujemy p-ty moment: (E X p ) 1 p.
Parametry rozkładu Dla p > 0 definiujemy p-ty moment: (E X p ) 1 p. Niech E X 3 <. Współczynnikiem asymetrii (skośność) zmiennej X nazywamy a 3 = E(X EX)3 (VarX) 3/2, a 3 = 0 dla X-gauss.
Parametry rozkładu Dla p > 0 definiujemy p-ty moment: (E X p ) 1 p. Niech E X 3 <. Współczynnikiem asymetrii (skośność) zmiennej X nazywamy a 3 = E(X EX)3 (VarX) 3/2, a 3 = 0 dla X-gauss. Niech E X 4 <. Kurtoza (współczynnik spłaszczenia) nazywamy a 4 = E(X EX)4 (VarX) 2 3, a 4 = 0 dla X-gauss.
Parametry rozkładu Dla p > 0 definiujemy p-ty moment: (E X p ) 1 p. Niech E X 3 <. Współczynnikiem asymetrii (skośność) zmiennej X nazywamy a 3 = E(X EX)3 (VarX) 3/2, a 3 = 0 dla X-gauss. Niech E X 4 <. Kurtoza (współczynnik spłaszczenia) nazywamy a 4 = E(X EX)4 (VarX) 2 3, a 4 = 0 dla X-gauss. Liczbę x p R nazywamy p-tym kwantylem rozkładu µ X, jeśli F X (x p ) p, F X (x p ) p.
Podsumowanie Żeby zrozumieć zachowanie zmiennej losowej X należy wyznaczyć jej rozkład µ X to znaczy obliczyć µ X (A) = P(X A) dla każdego A.
Podsumowanie Żeby zrozumieć zachowanie zmiennej losowej X należy wyznaczyć jej rozkład µ X to znaczy obliczyć µ X (A) = P(X A) dla każdego A. Do identyfikacji rozkładu służy dystrybuanta F X (t) = µ X ((, t]) = P(X t).
Podsumowanie Żeby zrozumieć zachowanie zmiennej losowej X należy wyznaczyć jej rozkład µ X to znaczy obliczyć µ X (A) = P(X A) dla każdego A. Do identyfikacji rozkładu służy dystrybuanta F X (t) = µ X ((, t]) = P(X t). Aby zrozumieć, gdzie średnio położony jest rozkład należy wyznaczyć EX i VarX, alternatywnie można wykorzystać kwantyle x p (w szczególności x 1 nazywa się mediana). 2
Podsumowanie Żeby zrozumieć zachowanie zmiennej losowej X należy wyznaczyć jej rozkład µ X to znaczy obliczyć µ X (A) = P(X A) dla każdego A. Do identyfikacji rozkładu służy dystrybuanta F X (t) = µ X ((, t]) = P(X t). Aby zrozumieć, gdzie średnio położony jest rozkład należy wyznaczyć EX i VarX, alternatywnie można wykorzystać kwantyle x p (w szczególności x 1 nazywa się mediana). 2 Dla dalszego zrozumienia zachowania się rozkładu można wyznaczyć p-te momenty (E X p ) 1 p.
Podsumowanie Żeby zrozumieć zachowanie zmiennej losowej X należy wyznaczyć jej rozkład µ X to znaczy obliczyć µ X (A) = P(X A) dla każdego A. Do identyfikacji rozkładu służy dystrybuanta F X (t) = µ X ((, t]) = P(X t). Aby zrozumieć, gdzie średnio położony jest rozkład należy wyznaczyć EX i VarX, alternatywnie można wykorzystać kwantyle x p (w szczególności x 1 nazywa się mediana). 2 Dla dalszego zrozumienia zachowania się rozkładu można wyznaczyć p-te momenty (E X p ) 1 p. Dla uzyskania pewnego wyobrażenia geometrycznego: symetria, stopień spłaszc parametry typu: współczynnik asymetrii i kurtoza.
Przykład Niech X ma rozkład geometryczny Geom(p), to znaczy P(X = k) = pq k 1, k = 1, 2,...
Przykład Niech X ma rozkład geometryczny Geom(p), to znaczy P(X = k) = pq k 1, k = 1, 2,... Rozkład jest w pełni wyznaczony przez podanie µ X ({k}) = P(X = k) = pq k 1.
Przykład Niech X ma rozkład geometryczny Geom(p), to znaczy P(X = k) = pq k 1, k = 1, 2,... Rozkład jest w pełni wyznaczony przez podanie µ X ({k}) = P(X = k) = pq k 1. Alternatywnie dystrybuanta F X (t) = 1 q k dla t [k, k + 1) i k N.
Przykład Niech X ma rozkład geometryczny Geom(p), to znaczy P(X = k) = pq k 1, k = 1, 2,... Rozkład jest w pełni wyznaczony przez podanie µ X ({k}) = P(X = k) = pq k 1. Alternatywnie dystrybuanta F X (t) = 1 q k dla t [k, k + 1) i k N. Parametry główne EX = 1 p, VarX = q p 2.
Przykład Niech X ma rozkład geometryczny Geom(p), to znaczy P(X = k) = pq k 1, k = 1, 2,... Rozkład jest w pełni wyznaczony przez podanie µ X ({k}) = P(X = k) = pq k 1. Alternatywnie dystrybuanta F X (t) = 1 q k dla t [k, k + 1) i k N. Parametry główne EX = 1 p, VarX = q p 2. Momenty EX(X 1)...(X k + 1) = k!q k 1 p k. St ad wylicza się EX k.
Przykład Niech X ma rozkład geometryczny Geom(p), to znaczy P(X = k) = pq k 1, k = 1, 2,... Rozkład jest w pełni wyznaczony przez podanie µ X ({k}) = P(X = k) = pq k 1. Alternatywnie dystrybuanta F X (t) = 1 q k dla t [k, k + 1) i k N. Parametry główne EX = 1 p, VarX = q p 2. Momenty EX(X 1)...(X k + 1) = k!q k 1 p k. Stad wylicza się EX k. Analiza kwantylami x r kwantyl rzędu r (1 q k+1, 1 q k ] ma wartość k. W szczególności mediana x 1 = k 0 gdzie 1 q k0 1 1 2 1 q k 0. 2
Przykład Niech X ma rozkład geometryczny Geom(p), to znaczy P(X = k) = pq k 1, k = 1, 2,... Rozkład jest w pełni wyznaczony przez podanie µ X ({k}) = P(X = k) = pq k 1. Alternatywnie dystrybuanta F X (t) = 1 q k dla t [k, k + 1) i k N. Parametry główne EX = 1 p, VarX = q p 2. Momenty EX(X 1)...(X k + 1) = k!q k 1 p k. Stad wylicza się EX k. Analiza kwantylami x r kwantyl rzędu r (1 q k+1, 1 q k ] ma wartość k. W szczególności mediana x 1 = k 0 gdzie 1 q k0 1 1 2 1 q k 0. 2 Współczynnik asymetrii a 3 = 6p2 p+2, kurtoza a (1 p) 1/2 4 =.
Przykład Niech X ma rozkład wykładniczy Exp(p), to znaczy f X (x) = e λx 1 (0, ) (x).
Przykład Niech X ma rozkład wykładniczy Exp(p), to znaczy f X (x) = e λx 1 (0, ) (x). Rozkład jest w pełni wyznaczony przez podanie gęstości µ X (dx) = f X (x)dx.
Przykład Niech X ma rozkład wykładniczy Exp(p), to znaczy f X (x) = e λx 1 (0, ) (x). Rozkład jest w pełni wyznaczony przez podanie gęstości µ X (dx) = f X (x)dx. Alternatywnie dystrybuanta F X (t) = 1 e λt dla t 0.
Przykład Niech X ma rozkład wykładniczy Exp(p), to znaczy f X (x) = e λx 1 (0, ) (x). Rozkład jest w pełni wyznaczony przez podanie gęstości µ X (dx) = f X (x)dx. Alternatywnie dystrybuanta F X (t) = 1 e λt dla t 0. Parametry główne EX = λ 1, VarX = λ 2.
Przykład Niech X ma rozkład wykładniczy Exp(p), to znaczy f X (x) = e λx 1 (0, ) (x). Rozkład jest w pełni wyznaczony przez podanie gęstości µ X (dx) = f X (x)dx. Alternatywnie dystrybuanta F X (t) = 1 e λt dla t 0. Parametry główne EX = λ 1, VarX = λ 2. Momenty EX k = k!λ k.
Przykład Niech X ma rozkład wykładniczy Exp(p), to znaczy f X (x) = e λx 1 (0, ) (x). Rozkład jest w pełni wyznaczony przez podanie gęstości µ X (dx) = f X (x)dx. Alternatywnie dystrybuanta F X (t) = 1 e λt dla t 0. Parametry główne EX = λ 1, VarX = λ 2. Momenty EX k = k!λ k. Analiza kwantylami x r kwantyl rzędu ma wartość λ 1 log(1 r). W szczególności mediana = λ 1 log 1 2. x 1 2
Przykład Niech X ma rozkład wykładniczy Exp(p), to znaczy f X (x) = e λx 1 (0, ) (x). Rozkład jest w pełni wyznaczony przez podanie gęstości µ X (dx) = f X (x)dx. Alternatywnie dystrybuanta F X (t) = 1 e λt dla t 0. Parametry główne EX = λ 1, VarX = λ 2. Momenty EX k = k!λ k. Analiza kwantylami x r kwantyl rzędu ma wartość λ 1 log(1 r). W szczególności mediana = λ 1 log 1 2. x 1 2 Współczynnik asymetrii a 3 = 2, kurtoza a 4 = 6.
Korelacje Załóżmy, że X, Y to dwie zmienne EX 2, EY 2 <. Interesuje nas liniowy wpływ zmiennej X na zmienna Y.
Korelacje Załóżmy, że X, Y to dwie zmienne EX 2, EY 2 <. Interesuje nas liniowy wpływ zmiennej X na zmienna Y. To oznacza, że próbujemy przybliżyć zmienna Y korzystajac z αx + β.
Korelacje Załóżmy, że X, Y to dwie zmienne EX 2, EY 2 <. Interesuje nas liniowy wpływ zmiennej X na zmienna Y. To oznacza, że próbujemy przybliżyć zmienna Y korzystajac z αx + β. Chcemy żeby dopasowanie było optymalne w sensie ryzyka kwadratowego, to znaczy jest najmniejsza możliwa. F(α, β) = E(Y αx β) 2.
Korelacje Załóżmy, że X, Y to dwie zmienne EX 2, EY 2 <. Interesuje nas liniowy wpływ zmiennej X na zmienna Y. To oznacza, że próbujemy przybliżyć zmienna Y korzystajac z αx + β. Chcemy żeby dopasowanie było optymalne w sensie ryzyka kwadratowego, to znaczy jest najmniejsza możliwa. F(α, β) = E(Y αx β) 2. Łatwo zauważyć, że F(α, β) jest funkcja kwadratowa, nadto ma dokładnie jeden punkt ˆα, ˆβ w którym przyjmuje minimum.
Korelacje Problem minimalizacji rozwiazuje się za pomoca pochodnych: 0 = F = 2EX(Y αx β) α 0 = F = 2E(Y αx β). β
Korelacje Problem minimalizacji rozwiazuje się za pomoca pochodnych: 0 = F α 0 = F β Stad ˆβ = EY αex a zatem = 2EX(Y αx β) = 2E(Y αx β). 0 = E(X EX)(Y EY ˆα(X EX)).
Korelacje Problem minimalizacji rozwiazuje się za pomoca pochodnych: 0 = F α 0 = F β Stad ˆβ = EY αex a zatem Wyznaczamy α = 2EX(Y αx β) = 2E(Y αx β). 0 = E(X EX)(Y EY ˆα(X EX)). E(X EX)(Y EY ) ˆα = E(X EX) 2 = Cov(X, Y ). VarX
Korelacje Problem minimalizacji rozwiazuje się za pomoca pochodnych: 0 = F α 0 = F β Stad ˆβ = EY αex a zatem Wyznaczamy α Stad = 2EX(Y αx β) = 2E(Y αx β). 0 = E(X EX)(Y EY ˆα(X EX)). E(X EX)(Y EY ) ˆα = E(X EX) 2 = Cov(X, Y ). VarX ˆβ = EY Cov(X, Y ) EX. VarX
Próbkowanie statystyczne Próbka będziemy nazywali ciag niezależnych wyników pewnego doświadczenia (wartości zmiennych losowych) X 1,..., X n.
Próbkowanie statystyczne Próbka będziemy nazywali ciag niezależnych wyników pewnego doświadczenia (wartości zmiennych losowych) X 1,..., X n. Rozkładem empirycznym nazywa się µ n (A) = 1 n n i=1 1 Xi A = {i : X i A}. n
Próbkowanie statystyczne Próbka będziemy nazywali ciag niezależnych wyników pewnego doświadczenia (wartości zmiennych losowych) X 1,..., X n. Rozkładem empirycznym nazywa się µ n (A) = 1 n n i=1 1 Xi A = {i : X i A}. n Dystrybuanta empiryczna nazywamy F n (t) = µ n ((, t]) = {i : X i t}. n
Próbkowanie statystyczne Próbka będziemy nazywali ciag niezależnych wyników pewnego doświadczenia (wartości zmiennych losowych) X 1,..., X n. Rozkładem empirycznym nazywa się µ n (A) = 1 n n i=1 1 Xi A = {i : X i A}. n Dystrybuanta empiryczna nazywamy F n (t) = µ n ((, t]) = {i : X i t}. n Kwantylem empirycznym nazywamy liczbę x p F n (x p ) p, F n (x p ) p.
Charakterystyki próbki Średnia z próbki nazywamy X = 1 n n X i. i=1
Charakterystyki próbki Średnia z próbki nazywamy X = 1 n n X i. i=1 Wariancja empiryczna Var( X) = 1 n n (X i X) 2 i=1
Charakterystyki próbki Średnia z próbki nazywamy X = 1 n n X i. i=1 Wariancja empiryczna Var( X) = 1 n n (X i X) 2 i=1 Kowariancja empiryczna dla ciagu (X 1, Y 1 ),..., (X n, Y n ) Cov( X, Ȳ ) = 1 n n (X i X)(Y i Ȳ ). i=1
Regresja liniowa Aby rozwiazać problem wpływu czynnika losowego X na Y zwykle dysponujemy próbka z tego rozkładu (X 1, Y 1 ),..., (X n, Y n ).
Regresja liniowa Aby rozwiazać problem wpływu czynnika losowego X na Y zwykle dysponujemy próbka z tego rozkładu (X 1, Y 1 ),..., (X n, Y n ). Konstrukcja modelu liniowego polega na tym, że postulujemy zwiazek Y = αx + β + ε, gdzie α, β R, ε jest niezależnym błędem z rozkładu Eε = 0, Varε = σ 2.
Regresja liniowa Aby rozwiazać problem wpływu czynnika losowego X na Y zwykle dysponujemy próbka z tego rozkładu (X 1, Y 1 ),..., (X n, Y n ). Konstrukcja modelu liniowego polega na tym, że postulujemy zwiazek Y = αx + β + ε, gdzie α, β R, ε jest niezależnym błędem z rozkładu Eε = 0, Varε = σ 2. Zwykle przyjmuje się, że ε pochodzi z rozkładu N (0, σ 2 ).
Regresja liniowa Aby rozwiazać problem wpływu czynnika losowego X na Y zwykle dysponujemy próbka z tego rozkładu (X 1, Y 1 ),..., (X n, Y n ). Konstrukcja modelu liniowego polega na tym, że postulujemy zwiazek Y = αx + β + ε, gdzie α, β R, ε jest niezależnym błędem z rozkładu Eε = 0, Varε = σ 2. Zwykle przyjmuje się, że ε pochodzi z rozkładu N (0, σ 2 ). W zagadnieniu estymacji MNK dysponujac danymi (X i, Y i ) musimy wyznaczyć ˆα, ˆβ tak aby ryzyko kwadratowe dla próbki było najmniejsze, szukamy minimum F(α, β), gdzie n F(α, β) = (Y i αx i β) 2. i=1
Metoda MNK Rozwiazuj ac analogicznie jak w przypadku korelacji dostajemy n 2X i (Y i αx i β) = 0 i=1 n 2(Y i αx i β) = 0 i=1
Metoda MNK Rozwiazuj ac analogicznie jak w przypadku korelacji dostajemy n 2X i (Y i αx i β) = 0 Zatem i=1 n 2(Y i αx i β) = 0 i=1 ˆα = Cov( X, Ȳ ) Var( X) ˆβ = Ȳ Cov( X, Ȳ ) Var( X) X, gdzie X = n 1 (X 1 +... + X n ), Ȳ = n 1 (Y 1 +... + Y n ).
Metoda MNK Przypuśćmy, że liczba punków zdobytych na egzaminie Y zależy od liczby godzin spędzonych na nauce X. Przebadano grupę n = 20 studentów.
Metoda MNK Przypuśćmy, że liczba punków zdobytych na egzaminie Y zależy od liczby godzin spędzonych na nauce X. Przebadano grupę n = 20 studentów. Okazało się, że 20 i=1 20 i=1 Y i = 1600, X i Y i = 1800, 20 i=1 20 X i = 400, i=1 X 2 i = 9000.
Metoda MNK Przypuśćmy, że liczba punków zdobytych na egzaminie Y zależy od liczby godzin spędzonych na nauce X. Przebadano grupę n = 20 studentów. Okazało się, że 20 i=1 20 i=1 Y i = 1600, X i Y i = 1800, 20 i=1 20 X i = 400, i=1 X 2 i = 9000. Obliczamy X = 20, Ȳ = 80, Var X = 450 400 = 50, Cov( X, Ȳ ) = 90 1600 = 1510.
Metoda MNK Przypuśćmy, że liczba punków zdobytych na egzaminie Y zależy od liczby godzin spędzonych na nauce X. Przebadano grupę n = 20 studentów. Okazało się, że 20 i=1 20 i=1 Y i = 1600, X i Y i = 1800, 20 i=1 20 X i = 400, i=1 X 2 i = 9000. Obliczamy X = 20, Ȳ = 80, Var X = 450 400 = 50, Cov( X, Ȳ ) = 90 1600 = 1510. Otrzymujemy ˆα = 1510 50 = 30, 2, ˆβ = 80 30, 2 20 = 524.