Ekonometria Szeregów Czasowych Zaj cia 1: Ekonometria klasyczna powtórzenie dr Karolina Konopczak Katedra Ekonomii Stosowanej
Kontakt karolina.konopczak@sgh.waw.pl konsultacje: czwartki g. 8.45 (p. 10/DS Sabinki) https://www.e-sgh.pl/konopczak/eszcz_2017_wiosna
Program 1. Niestacjonarno± procesów stochastycznych / zintegrowanie zmiennych / testy pierwiastków jednostkowych 2. Modelowanie szeregów stacjonarnych: ARIMA / VAR 3. Modelowanie szeregów niestacjonarnych (1): kointegracja / metoda Engle'a-Grangera / model ECM 4. Modelowanie szeregów niestacjonarnych (2): metoda Johansena / model VECM 5. Modele wielorównaniowe: mno»niki / identykacja / estymacja 6. Modele svar
Literatura podstawowa A. Welfe, Ekonometria. Metody i ich zastosowanie, wyd. IV, PWE, Warszawa 2009 W. Grabowski, A. Welfe, Ekonometria. Zbiór zada«, PWE, Warszawa 2010
Literatura uzupeªniaj ca A. Welfe (red.), Analiza kointegracyjna w makromodelowaniu, PWE, Warszawa 2013 M.Majsterek, Wielowymiarowa analiza kointegracyjna w ekonomii, Wydawnictwo Uniwersytetu Šódzkiego, Šód¹ 2008 P.Karp, A.Welfe, P.K bªowski, Mechanizmy makroekonomiczne w gospodarcze polskiej. Analiza ekonometryczna, Wydawnictwo Uniwersytetu Šódzkiego, Šód¹ 2006 E.M.Syczewska, Analiza relacji dªugookresowych estymacja i werykacja, SGH, Warszawa 1999 K. Juselius, The Cointegrated VAR Model, Oxford University Press, Oxford 2006 H. Lütkepohl, New Introduction to Multiple Time Series Analysis, Springer-Verlag, Berlin 2006 J. D. Hamilton, Time Series Analysis, Princeton University Press, Princeton 1994
Plan zaj Klasyczny model regresji liniowej Metoda najmniejszych kwadratów Twierdzenie Gaussa-Markowa Estymacja przedziaªowa Estymator MNK przy warunkach ograniczaj cych Klasyczny model regresji liniowej diagnostyka Istotno± zmiennych obja±niaj cych Dopasowania modelu do danych empirycznych Autokorelacja skªadnika losowego Heteroskedastyczno± skªadnika losowego
Plan wicze«klasyczny model regresji liniowej Metoda najmniejszych kwadratów Twierdzenie Gaussa-Markowa Estymacja przedziaªowa Estymator MNK przy warunkach ograniczaj cych Klasyczny model regresji liniowej diagnostyka Istotno± zmiennych obja±niaj cych Dopasowania modelu do danych empirycznych Autokorelacja skªadnika losowego Heteroskedastyczno± skªadnika losowego
Klasyczny model regresji liniowej (1) y t = α 0 + α 1 x 1t + α 2 x 2t +... + α K x Kt + ε t y t zmienna obja±niana / zmienna zale»na / regresant x kt zmienna obja±niaj ca / zmienna niezale»na / regresor (k=1,...,k) α 0 wyraz wolny interpretacja: jaka byªaby warto± teoretyczna zmiennej obja±nianej, gdyby wszystkie zmienne obja±niaj ce byªyby równe 0 α k parametr strukturalny (k=1,...,k) interpretacja: o ile jednostek zmieni si zmienna obja±niana, je»eli dana zmienna obja±niaj ca zwi kszy si o jedn jednostk przy wszystkich pozostaªych zmiennych niezmienionych, czyli ceteris paribus ε t skªadnik losowy zmienna losowa o okre±lonym rozkªadzie, warto±ci oczekiwanej i wariancji
Klasyczny model regresji liniowej (2) Zapis macierzowy: y 1 1 x 11 x 21... x K1 y 2 1 x 12 x 22... x K2 =........ y T 1 x 1T x 2T... x KT }{{} } {{ } y y = X α + ε X α 0 α 1 α 2. α K } {{ } α + ε 1 ε 2. ε T } {{ } ε
Klasyczny model regresji liniowej (3) Skªadnik losowy jest niezb dny w modelu, poniewa»: ±wiat spoªeczny ma charakter indeterministyczny czªowiek (konsument, producent, wyborca itp.) mo»e w dwóch podobnych sytuacjach zachowa si odmiennie np. na decyzje konsumpcyjne jednostki oprócz takich zmiennych jak cena danego dobra, cena dobra komplementarnego czy cena substytutu (zmienne uwzgl dnione w modelu) wpªywa mnóstwo zmiennych niekwantykowalnych (np. nastrój konsumenta w danym momencie) mog wyst pi bª dy pomiaru zmiennych model mo»e by wadliwie skonstruowany (zmienne pomini te)
Estymacja (szacowanie) parametrów modelu...... polega na wyznaczeniu takiej prostej (hiperpªaszczyzny), która b dzie najlepsza ze wzgl du na przyj te kryterium
Oszacowany model ŷ t = ˆα 0 + ˆα 1 x 1t + ˆα 2 x 2t +... + ˆα K x Kt ŷ = X ˆα ê t = y t ŷ t ŷ t warto± teoretyczna zmiennej obja±nianej ˆα k oszacowanie parametru strukturalnego α k (k=1,...,k) ê oszacowanie reszty (ró»nica mi dzy warto±ci empiryczn a teoretyczn )
Plan wicze«klasyczny model regresji liniowej Metoda najmniejszych kwadratów Twierdzenie Gaussa-Markowa Estymacja przedziaªowa Estymator MNK przy warunkach ograniczaj cych Klasyczny model regresji liniowej diagnostyka Istotno± zmiennych obja±niaj cych Dopasowania modelu do danych empirycznych Autokorelacja skªadnika losowego Heteroskedastyczno± skªadnika losowego
Estymator KMNK (1) estymacja parametrów polega na wyznaczeniu takiej prostej (hiperpªaszczyzny), która b dzie najlepsza ze wzgl du na przyj te kryterium w przypadku klasycznej metody najmniejszych kwadratów kryterium tym jest minimalizacja sumy kwadratów reszt regresji, czyli minimalizacja odchyle«warto±ci teoretycznych od empirycznych: S = T et 2 t=1 = T t=1 lub w zapisie macierzowym: (y t ˆα 0 ˆα 1x 1,t ˆα 2x 2,t... ˆα k x k,t ) 2 min ˆα 0, ˆα 1,... S = e T e = (y x ˆα) T (y x ˆα) min ˆα wzór na estymator KMNK: ˆα = ( X T X ) 1 X T y
Zagadnienie teoretyczne (1) Wyprowad¹ wzór na estymator KMNK w modelu regresji wielorakiej.
Zagadnienie teoretyczne (1) Wyprowad¹ wzór na estymator KMNK w modelu regresji wielorakiej. Minimalizacja sumy kwadratów reszt: N ei 2 i=1 = N i=1 (y i ˆα 0 ˆα 1 x 1i ˆα 2 x 2i... ˆα K x Ki ) 2 min ˆα 0, ˆα 1,...
Zagadnienie teoretyczne (1) Wyprowad¹ wzór na estymator KMNK w modelu regresji wielorakiej. Minimalizacja sumy kwadratów reszt: N ei 2 i=1 = N i=1 (y i ˆα 0 ˆα 1 x 1i ˆα 2 x 2i... ˆα K x Ki ) 2 min ˆα 0, ˆα 1,... lub w zapisie macierzowym: e T e = (y X ˆα) T (y X ˆα) min ˆα
e T e = (y X ˆα) T (y X ˆα) = y T y + ˆα T X T X ˆα y T X ˆα ˆα T X T y =...
e T e = (y X ˆα) T (y X ˆα) = y T y + ˆα T X T X ˆα y T X ˆα ˆα T X T y =... e T e jest wielko±ci skalarn poszczególne skªadniki sumy te» s skalarami je»eli a jest skalarem, to a T = a (y T X ˆα) T = y T X ˆα
e T e = (y X ˆα) T (y X ˆα) = y T y + ˆα T X T X ˆα y T X ˆα ˆα T X T y =... e T e jest wielko±ci skalarn poszczególne skªadniki sumy te» s skalarami je»eli a jest skalarem, to a T = a (y T X ˆα) T = y T X ˆα... = y T y 2y T X ˆα + ˆα T X T X ˆα min ˆα
Warunki pierwszego rz du : e T e ˆα = y T y ˆα 2 y T X ˆα ˆα + ˆαT X T X ˆα ˆα = 0
Warunki pierwszego rz du : e T e ˆα = y T y ˆα 2 y T X ˆα ˆα + ˆαT X T X ˆα ˆα = 0 Korzystaj c z wzorów na pochodne wyra»e«macierzowych wzgl dem wektorów: ax X = at X T AX X = (A + A T )X otrzymujemy:
Warunki pierwszego rz du : e T e ˆα = y T y ˆα 2 y T X ˆα ˆα + ˆαT X T X ˆα ˆα = 0 Korzystaj c z wzorów na pochodne wyra»e«macierzowych wzgl dem wektorów: ax X = at X T AX X = (A + A T )X otrzymujemy: y T X ˆα ˆα ˆα T X T X ˆα ˆα St d: = X T y = (X T X + (X T X ) T )ˆα = 2X T X ˆα 2X T y + 2X T X ˆα = 0/(X T X ) 1 ˆα = (X T X ) 1 X T y
Estymator KMNK (2) estymator KMNK jest funkcj zmiennych niezale»nych i zmiennej zale»nej, która jest zmienn losow, a wi c estymator te» jest zmienn losow o okre±lonym rozkªadzie (funkcj losowo dobranej próby) nieobci»ony i zgodny estymator macierzy wariancji-kowariancji estymatora KMNK: D 2 ( ˆα) = ˆσ 2 ( X T X ) 1 = ˆσ ˆα 0 cov ( ˆα 0, ˆα 1 ) cov ( ˆα 0, ˆα 2 ) cov ( ˆα 0, ˆα 1 ) ˆσ ˆα 1 cov ( ˆα 1, ˆα 2 ) cov ( ˆα 0, ˆα 2 ) cov ( ˆα 1, ˆα 2 ) ˆσ ˆα 2...... ˆσ ˆαk, gdzie ˆσ 2 oznacza nieobci»ony i zgodny estymator wariancji skªadnika losowego: T ˆσ 2 = 1 T (k+1) ε 2 t t=1
Zagadnienie teoretyczne (2) Wyprowad¹ wzór na macierz wariancji-kowariancji estymatora KMNK.
Zagadnienie teoretyczne (2) Wyprowad¹ wzór na macierz wariancji-kowariancji estymatora KMNK. ˆα = (X T X ) 1 X T y = (X T X ) 1 X T (X α + ε) = (X T X ) 1 X T X α + (X T X ) 1 X T ε = α + (X T X ) 1 X T ε
D 2 (ˆα) =D 2 (α + (X T X ) 1 X T ε) =
D 2 (ˆα) =D 2 (α + (X T X ) 1 X T ε) = D 2 ((X T X ) 1 X T ε) =
D 2 (ˆα) =D 2 (α + (X T X ) 1 X T ε) = D 2 ((X T X ) 1 X T ε) = E [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] T =
D 2 (ˆα) =D 2 (α + (X T X ) 1 X T ε) = D 2 ((X T X ) 1 X T ε) = E [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] T = E [ (X T X ) 1 X T ε (X T X ) 1 X T E(ε) ] [ (X T X ) 1 X T ε (X T X ) 1 X T E(ε) ] T =
D 2 (ˆα) =D 2 (α + (X T X ) 1 X T ε) = D 2 ((X T X ) 1 X T ε) = E [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] T = E [ (X T X ) 1 X T ε (X T X ) 1 X T E(ε) ] [ (X T X ) 1 X T ε (X T X ) 1 X T E(ε) ] T = E (X T X ) 1 X T ε (X T X ) 1 X T E(ε) (X T X ) 1 X T ε (X T X ) 1 X T E(ε) = }{{}}{{} 0 0 T
D 2 (ˆα) =D 2 (α + (X T X ) 1 X T ε) = D 2 ((X T X ) 1 X T ε) = E [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] T = E [ (X T X ) 1 X T ε (X T X ) 1 X T E(ε) ] [ (X T X ) 1 X T ε (X T X ) 1 X T E(ε) ] T = E (X T X ) 1 X T ε (X T X ) 1 X T E(ε) (X T X ) 1 X T ε (X T X ) 1 X T E(ε) }{{}}{{} 0 0 E [ (X T X ) 1 X T ε ] [ (X T X ) 1 X T ε ] T = T =
D 2 (ˆα) =D 2 (α + (X T X ) 1 X T ε) = D 2 ((X T X ) 1 X T ε) = E [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] T = E [ (X T X ) 1 X T ε (X T X ) 1 X T E(ε) ] [ (X T X ) 1 X T ε (X T X ) 1 X T E(ε) ] T = E (X T X ) 1 X T ε (X T X ) 1 X T E(ε) (X T X ) 1 X T ε (X T X ) 1 X T E(ε) }{{}}{{} 0 0 E [ (X T X ) 1 X T ε ] [ (X T X ) 1 X T ε ] T = E ( (X T X ) 1 X T εε T X (X T X ) 1) = T =
D 2 (ˆα) =D 2 (α + (X T X ) 1 X T ε) = D 2 ((X T X ) 1 X T ε) = E [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] T = E [ (X T X ) 1 X T ε (X T X ) 1 X T E(ε) ] [ (X T X ) 1 X T ε (X T X ) 1 X T E(ε) ] T = E (X T X ) 1 X T ε (X T X ) 1 X T E(ε) (X T X ) 1 X T ε (X T X ) 1 X T E(ε) }{{}}{{} 0 0 E [ (X T X ) 1 X T ε ] [ (X T X ) 1 X T ε ] T = E ( (X T X ) 1 X T εε T X (X T X ) 1) = (X T X ) 1 X T E ( εε T ) X (X T X ) 1 = T =
D 2 (ˆα) =D 2 (α + (X T X ) 1 X T ε) = D 2 ((X T X ) 1 X T ε) = E [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] T = E [ (X T X ) 1 X T ε (X T X ) 1 X T E(ε) ] [ (X T X ) 1 X T ε (X T X ) 1 X T E(ε) ] T = E (X T X ) 1 X T ε (X T X ) 1 X T E(ε) (X T X ) 1 X T ε (X T X ) 1 X T E(ε) }{{}}{{} 0 0 E [ (X T X ) 1 X T ε ] [ (X T X ) 1 X T ε ] T = E ( (X T X ) 1 X T εε T X (X T X ) 1) = (X T X ) 1 X T E ( εε T ) X (X T X ) 1 = (X T X ) 1 X T ( δ 2 I ) X (X T X ) 1 = T =
D 2 (ˆα) =D 2 (α + (X T X ) 1 X T ε) = D 2 ((X T X ) 1 X T ε) = E [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] T = E [ (X T X ) 1 X T ε (X T X ) 1 X T E(ε) ] [ (X T X ) 1 X T ε (X T X ) 1 X T E(ε) ] T = E (X T X ) 1 X T ε (X T X ) 1 X T E(ε) (X T X ) 1 X T ε (X T X ) 1 X T E(ε) }{{}}{{} 0 0 E [ (X T X ) 1 X T ε ] [ (X T X ) 1 X T ε ] T = E ( (X T X ) 1 X T εε T X (X T X ) 1) = (X T X ) 1 X T E ( εε T ) X (X T X ) 1 = (X T X ) 1 X T ( δ 2 I ) X (X T X ) 1 = δ 2 (X T X ) 1 X T X (X T X ) 1 = δ 2 (X T X ) 1 T =
Estymator KMNK (3) ˆσ = ˆσ 2 > bª d standardowy regresji interpretacja: o ile przeci tnie warto±ci empiryczne zmiennej obja±nianej ró»ni si od warto±ci teoretycznych ˆσ ˆαi = ˆσ 2ˆα i > bª d szacunku parametru interpretacja: gdyby±my mogli pobiera wiele prób, to o tyle ±rednio ró»niªyby si oszacowania parametrów od ich prawdziwych warto±ci
Po» dane wªasno±ci estymatorów Nieobci»ono± Zgodno± warto± oczekiwana estymatora równa jest prawdziwej warto±ci parametru zbie»no± stochastyczna do prawdziwej warto±ci parametru Efektywno± wraz ze zwi kszaniem próby zwi ksza si prawdopodobie«stwo otrzymania prawdziwej warto±ci parametru najmniejsza w danej klasie wariancja estymatora
Twierdzenie Gaussa-Markowa Je»eli speªnione s zaªo»enia twierdzenia, to estymator klasycznej metody najmniejszych kwadratów jest estymatorem zgodnym, nieobci»onym i najbardziej efektywnym w klasie estymatorów liniowych.
Zaªo»enia twierdzenia Gaussa-Markowa Zaªo»enia techniczne:»adna ze zmiennych nie jest liniow kombinacj pozostaªych zmiennych > macierz X ma peªen rz d kolumnowy liczba obserwacji jest wi ksza ni» liczba parametrów Zaªo»enia przyjmowane implicite: zmienne obja±niaj ce nieskorelowane ze skªadnikiem losowym warto± oczekiwana skªadnika losowego = 0 (zakªócenia maj tendencj do znoszenia si ) Zaªo»enia werykowane ex post (po estymacji): brak autokorelacji skªadnika losowego staªa wariancja skªadnika losowego (homoskedastyczno± ) (skªadnik losowy ma rozkªad normalny)
Peªen rz d kolumnowy macierzy X > jedna ze zmiennych jest kombinacj liniow innej zmiennej (dokªadna wspóªliniowo± ): y t = α 0 + α 1 x 1t +... + α i x it + α j x jt +... + α K x Kt + ε t x it = βx jt > macierz X ma niepeªny rz d kolumnowy (kolumny nie s liniowo niezale»ne) st d: macierz X T X jest osobliwa (nieodwracalna) st d: nie mo»na u»y estymatora KMNK (we wzorze mamy (X T X ) 1 ) > u»ycie estymatora KMNK mo»liwe po reparametryzacji: y t = α 0 + α 1 x 1t +... + x jt (α i β + α j ) +... + α K x Kt + ε t }{{} γ Ale: nie da si rozdzieli wpªywu x i i x j, tj. wyznaczy α i i α j
Skorelowanie zmiennych obja±niaj cych ze skªadnikiem losowym (1) Zaªo»enie o braku endogeniczno±ci w modelu jest przyjmowane implicite: zaªo»enia tego nie mo»na sprawdzi bezpo±rednio mo»na jedynie podejrzewa,»e istnieje ten problem na podstawie teorii ekonomii lub do±wiadczenia test po±redni: testowanie istotno±ci ró»nicy pomi dzy oszacowaniami modelu otrzymanymi za pomoc KMNK i za pomoc metody odpornej na endogeniczno± (metoda zmiennych instrumentalnych) np. test Hausmana Zªamanie zaªo»enia: niezgodno± estymatora KMNK
Skorelowanie zmiennych obja±niaj cych ze skªadnikiem losowym (2) Przykªad 1 pomini te zmienne w modelu Zaªó»my,»e pªaca danej osoby zale»y od poziomu jej wyksztaªcenia, wieku oraz zdolno±ci (proces generuj cy dane). Zdolno± jest zmienn nieobserwowaln nie mo»na umie±ci jej w modelu, wi c jej wpªyw na poziom pªacy odzwierciedlony jest w skªadniku losowym. Poziom wyksztaªcenia jest determinowany zdolno±ciami, a wi c istnieje korelacja mi dzy zmienn obja±niaj c (wyksztaªcenie) a skªadnikiem losowym (zawieraj cym wpªyw zdolno±ci na pªace) Przykªad 2 problem równoczesno±ci Mamy keynesowsk funkcj konsumpcji, w której bie» ca konsumpcja zale»y od bie» cego dochodu: C t = c 0 + cy t + ε t Z drugiej strony dochód (PKB od strony rozdysponowania) w gospodarce zamkni tej bez rz du jest sum konsumpcji i inwestycji: Y t = C t + I t W równaniu na dochód mamy konsumpcj, która jest funkcj skªadnika losowego ε t, wi c dochód jest równie» jego funkcj, co skutkuje endogeniczno±ci w równaniu konsumpcji.
Zagadnienie teoretyczne (3) Udowodnij,»e w przypadku speªnienia zaªo»e«tw. Gaussa-Markowa estymator KMNK jest nieobcia»ony.
Zagadnienie teoretyczne (3) Udowodnij,»e w przypadku speªnienia zaªo»e«tw. Gaussa-Markowa estymator KMNK jest nieobcia»ony. E(ˆα) = E(α + (X T X ) 1 X T ε) = α + (X T X ) 1 X T E(ε) = α }{{} 0
Zagadnienie teoretyczne (4) Udowodnij,»e w przypadku speªnienia zaªo»e«tw. Gaussa-Markowa estymator KMNK jest efektywny (najefektywniejszy w klasie estymatorów liniowych).
Zagadnienie teoretyczne (4) Udowodnij,»e w przypadku speªnienia zaªo»e«tw. Gaussa-Markowa estymator KMNK jest efektywny (najefektywniejszy w klasie estymatorów liniowych). ˆα dowolny estymator liniowy, taki»e ˆα = By (w przypadku KMNK B = (X T X ) 1 X T )
Zagadnienie teoretyczne (4) Udowodnij,»e w przypadku speªnienia zaªo»e«tw. Gaussa-Markowa estymator KMNK jest efektywny (najefektywniejszy w klasie estymatorów liniowych). ˆα dowolny estymator liniowy, taki»e ˆα = By (w przypadku KMNK B = (X T X ) 1 X T ) ˆα = By = B(X α + ε) = BX α + Bε
Zagadnienie teoretyczne (4) Udowodnij,»e w przypadku speªnienia zaªo»e«tw. Gaussa-Markowa estymator KMNK jest efektywny (najefektywniejszy w klasie estymatorów liniowych). ˆα dowolny estymator liniowy, taki»e ˆα = By (w przypadku KMNK B = (X T X ) 1 X T ) ˆα = By = B(X α + ε) = BX α + Bε D 2 (ˆα ) = D 2 (BX α + Bε)
Zagadnienie teoretyczne (4) Udowodnij,»e w przypadku speªnienia zaªo»e«tw. Gaussa-Markowa estymator KMNK jest efektywny (najefektywniejszy w klasie estymatorów liniowych). ˆα dowolny estymator liniowy, taki»e ˆα = By (w przypadku KMNK B = (X T X ) 1 X T ) ˆα = By = B(X α + ε) = BX α + Bε D 2 (ˆα ) = D 2 (BX α + Bε) - E (ˆα ) = BX α + BE(ε) = BX α je»eli estymator jest nieobci»ony E (ˆα ) = α, wi c BX α = α, st d BX = I -
D 2 (ˆα ) = D 2 ( }{{} BX α + Bε) = D 2 (α + Bε) = I
D 2 (ˆα ) = D 2 ( }{{} BX α + Bε) = D 2 (α + Bε) = I D 2 (Bε) = E Bε E (Bε) Bε E (Bε) = }{{}}{{} 0 0 T
D 2 (ˆα ) = D 2 ( }{{} BX α + Bε) = D 2 (α + Bε) = I D 2 (Bε) = E Bε E (Bε) Bε E (Bε) }{{}}{{} 0 0 E (Bε) (Bε) T = E ( Bεε T B T ) = BE ( εε T ) B T = Bδ 2 IB T = δ 2 BB T T =
D 2 (ˆα ) = D 2 ( }{{} BX α + Bε) = D 2 (α + Bε) = I D 2 (Bε) = E Bε E (Bε) Bε E (Bε) }{{}}{{} 0 0 E (Bε) (Bε) T = E ( Bεε T B T ) = BE ( εε T ) B T = Bδ 2 IB T = δ 2 BB T T = Zdeniujmy macierz C: C = B T X (X T X ) 1, st d B = C T + (X T X ) 1 X T
D 2 (ˆα ) = δ 2 BB T = δ 2 [ C T + (X T X ) 1 X T ] [ C T + (X T X ) 1 X T ] T =
D 2 (ˆα ) = δ 2 BB T = δ 2 [ C T + (X T X ) 1 X T ] [ C T + (X T X ) 1 X T ] T = δ 2 [ C T C + C T X (X T X ) 1 + (X T X ) 1 X T C + (X T X ) 1 X T X (X T X ) 1]
D 2 (ˆα ) = δ 2 BB T = δ 2 [ C T + (X T X ) 1 X T ] [ C T + (X T X ) 1 X T ] T = δ 2 [ C T C + C T X (X T X ) 1 + (X T X ) 1 X T C + (X T X ) 1 X T X (X T X ) 1] B = C T + (X T X ) 1 X T // X }{{} BX = C T X + (X T X ) 1 X T X }{{} I I C T X = I I = 0 - -
D 2 (ˆα ) = δ 2 BB T = δ 2 [ C T + (X T X ) 1 X T ] [ C T + (X T X ) 1 X T ] T = δ 2 [ C T C + C T X (X T X ) 1 + (X T X ) 1 X T C + (X T X ) 1 X T X (X T X ) 1] B = C T + (X T X ) 1 X T // X }{{} BX = C T X + (X T X ) 1 X T X }{{} I I C T X = I I = 0 - - D 2 (ˆα ) =δ 2 C T C + C }{{ T X } (X T X ) 1 + (X T X ) 1 X }{{ T C } + (X T X ) 1 X T X (X T X ) 1 = 0 0
D 2 (ˆα ) = δ 2 BB T = δ 2 [ C T + (X T X ) 1 X T ] [ C T + (X T X ) 1 X T ] T = δ 2 [ C T C + C T X (X T X ) 1 + (X T X ) 1 X T C + (X T X ) 1 X T X (X T X ) 1] B = C T + (X T X ) 1 X T // X }{{} BX = C T X + (X T X ) 1 X T X }{{} I I C T X = I I = 0 - - D 2 (ˆα ) =δ 2 C T C + C }{{ T X } (X T X ) 1 + (X T X ) 1 X }{{ T C } + (X T X ) 1 X T X (X T X ) 1 = 0 0 δ 2 (X T X ) 1 + δ 2 C T C = D 2 (ˆα KMNK ) + δ 2 C T C
D 2 (ˆα ) = δ 2 BB T = δ 2 [ C T + (X T X ) 1 X T ] [ C T + (X T X ) 1 X T ] T = δ 2 [ C T C + C T X (X T X ) 1 + (X T X ) 1 X T C + (X T X ) 1 X T X (X T X ) 1] B = C T + (X T X ) 1 X T // X }{{} BX = C T X + (X T X ) 1 X T X }{{} I I C T X = I I = 0 - - D 2 (ˆα ) =δ 2 C T C + C }{{ T X } (X T X ) 1 + (X T X ) 1 X }{{ T C } + (X T X ) 1 X T X (X T X ) 1 = 0 0 δ 2 (X T X ) 1 + δ 2 C T C = D 2 (ˆα KMNK ) + δ 2 C T C C T C póªdodatnio okre±lona, wi c D 2 (ˆα ) = D 2 (ˆα KMNK ) + δ 2 C T C > D 2 (ˆα KMNK )
Zadanie 1 Dany jest model postaci: y t = α 0 + α 1 x t + ε t Wiemy,»e: T t=1 x 2 t = 1520, T t=1 x t = 104, T t=1 x ty t = 162400, y = 1400, detx T X = 1344. Oszacuj parametry strukturalne modelu za pomoc KMNK.
Estymacja przedziaªowa (1) y t = f (ε t) > y t jest zmienn losow o rozkªadzie normalnym ˆα = f (y t) > ˆα jest zmienn losow o rozkªadzie normalnym o warto±ci oczekiwanej α i wariancji σ 2ˆα i st d ˆα i α i σ ˆαi jest zmienn losow o rozkªadzie normalnym standaryzowanym (N(0, 1)) nie znamy prawdziwej warto±ci σ ˆαi > ˆσ ˆαi st d ˆα i α i ˆσ ˆαi jest zmienn losow o rozkªadzie t-studenta z ss = T (k + 1)
Estymacja przedziaªowa (2) ˆα i α i ˆσ ˆαi t T (k+1) ( ) P t T (k+1), α ˆα i α i 2 ˆσ ˆαi t T (k+1), α = 1 α 2 ( ) P ˆα i ˆσ ˆαi t T (k+1), α α i ˆα i + ˆσ ˆαi t 2 T (k+1), α = 1 α 2 [ ] ˆα i ˆσ ˆαi t T (k+1), α ; ˆα i + ˆσ ˆαi t 2 T (k+1), α 2 1 α przedziaª ufno±ci > przedziaª, który z prawdopodobie«stwem 1 α pokrywa prawdziw warto± parametru (α i ) poziom ufno±ci > prawdopodobie«stwo tego,»e przedziaª ufno±ci pokrywa prawdziw warto± parametru
Zadanie 2 Dokonano przy pomocy MNK estymacji parametrów modelu y i = α 0 + α 1x i + ε i. Wiedz c,»e skªadniki losowe s niezale»ne i maj rozkªad normalny o jednakowej wariancji, a tak»e wiedz c»e: P(2 α 0 10) = 0, 95 P(α 0 2) = 0, 975 ȳ = 2 X T X = [ 50 200 200 1000 znajd¹ oszacowanie parametrów modelu. ] [Podpowied¹: w KMRL mamy ˆα 0 = ȳ ˆα 1 x]
MNK przy warunkach ograniczaj cych (1) T et 2 t=1 = T t=1 KMNK: ( y t ˆβ 0 ˆβ 1 x 1,t ˆβ 2 x 2,t... ˆβ ) 2 k x k,t min ˆβ 0, ˆβ 1,... T et 2 t=1 MNK przy warunkach ograniczaj cych: = T ( y t ˆβ 0 ˆβ 1 x 1,t ˆβ 2 x 2,t... ˆβ ) 2 k x k,t t=1 p.w. f (β o, β 1,...) = 0 min ˆβ 0, ˆβ 1,...
MNK przy warunkach ograniczaj cych (2) Je»eli warunki ograniczaj ce f (β o, β 1,...) = 0 maj charakter równa«liniowych, to mo»emy je zapisa w nast puj cy sposób: r 11 β 0 + r 12 β 1 +... + r 1k β k = q 1 r 21 β 0 + r 22 β 1 +... + r 2k β k = q 2. r m1 β 0 } + r m2 β 1 +... {{ + r mk β k = q m } Rβ=q Przykªadowo, w modelu z czterema zmiennymi obja±niaj cymi chcemy naªo»y dwie restrykcje: β 1 = β 2 i β 3 = 1: β 0 [ ] 0 1 1 0 0 β 1 [ ] 0 0 0 1 0 β 2 0 β 3 = 1 β 4
MNK przy warunkach ograniczaj cych (2) Wówczas rozwi zanie zadania optymalizacyjnego przy warunkach ograniczaj cych prowadzi do nast puj cej postaci estymatora: ˆβ RLS = ˆβ OLS ( X T X ) 1 R T [ ( ) ] R X T 1 1 ( ) X R T R ˆβ OLS q Testowanie zasadno±ci naªo»onych restrykcji: Test Walda H 0 : Rβ = q (dane empiryczne potwierdzaj zasadno± naªo»onych restrykcji) H 1 : Rβ q Statystyka testowa: F = (RRSS URSS)/m URSS/(T k 1) ~ F m,t k 1, gdzie: RRSS suma kwadratów reszt w modelu z ograniczeniami URSS w modelu bez ogranicze«.
Zadanie 3 Na parametry modelu y t = α 0 + α 1 x 1t + α 2 x 2t + α 3 x 3t + ε t naªo»ono nast puj ce restrykcje: α 0 = 0 α 1 = α 2 α 2 + α 3 = 1 Zapisz restrykcje w postaci macierzowej. Model z ograniczeniami i bez ogranicze«estymowano za pomoc MNK na 29-elementowej próbie. Otrzymano sum kwadratów reszt odpowiednio 20 i 10. Zwerykuj zasadno± naªo»onych restrykcji.
Plan wicze«klasyczny model regresji liniowej Metoda najmniejszych kwadratów Twierdzenie Gaussa-Markowa Estymacja przedziaªowa Estymator MNK przy warunkach ograniczaj cych Klasyczny model regresji liniowej diagnostyka Istotno± zmiennych obja±niaj cych Dopasowania modelu do danych empirycznych Autokorelacja skªadnika losowego Heteroskedastyczno± skªadnika losowego
Istotno± zmiennych obja±niaj cych (1) Czy wpªyw danej zmiennej obja±niaj cej na zmienn obja±nian jest istotny? Czy parametr strukturalny modelu jest istotnie ró»ny od zera? Test t-studenta Test istotno±ci pojedynczych zmiennych H 0 : α i = 0 H 1 : α i 0 Statystyka testowa: t = Testowanie hipotez: H 0 : α i = α 0 i H 1 : α i α 0 i ˆα i ˆσ ˆαi ~ t n k 1 Statystyka testowa: t = ˆα i α 0 i ˆσ ˆαi ~ t n k 1. uwaga: rozkªad statystyki testowej pod warunkiem prawdziwo±ci H 0 oraz normalno±ci skªadnika losowego!
Dekompozycja wariancji zmiennej obja±nianej y t = ŷ t + e t // ȳ mo»na udowodni,»e ȳ = ŷ y t ȳ = ŷ t ŷ + e t y t ȳ = ŷ t ȳ + e t
Wspóªczynnik determinacji (1) Zmienno± zmiennej obja±nianej w modelu ze staª mo»na zdekomponowa na dwie skªadowe: zmienno± wyja±nian przez model (czyli przez zmienno± zmiennych obja±niaj cych) zmienno± nie wyja±nian przez model D 2 (y t) = D 2 (ŷ t) + D 2 (ε t) T (y t ȳ) 2 = t=1 } {{ } TSS T (ŷt ŷ ) T 2 + (y t ŷ t) 2 t=1 } {{ } ESS t=1 } {{ } RSS TSS Total Sums od Squares (caªkowita zmienno± zmiennej obja±nianej) ESS Explained Sums of Squares (zmienno± wyja±niana przez model) RSS Residuals Sums of Squars (zmienno± nie wyja±niana przez model)
Wspóªczynnik determinacji (2) R 2 = ESS TSS = 1 RSS TSS okre±la jako± dopasowania modelu do danych empirycznych (dopasowanie do danych empirycznych hiperpªaszczyzny dla przestrzeni dwuwymiarowej jest to po prostu prosta rozpinanej za pomoc wektora oszacowa«parametrów) nale»y do przedziaªu [0;1] i jest interpretowalny tylko dla modelu liniowego, z wyrazem wolnym i oszacowanego KMNK R 2 = 1 wszystkie obserwacje zmiennej obja±nianej le» na hiperpªaszczy¹nie (linii regresji) R 2 = 0 model w ogóle nie odzwierciedla zmienno±ci zmiennej obja±nianej wspóªczynniki przy wszystkich regresorach nieistotnie ró»ne od 0, za± wyraz wolny równy ±redniej regresanta > linia regresji równolegªa do osi OX
Skorygowany wspóªczynnik determinacji generalnie im wy»szy wspóªczynnik determinacji, tym lepiej, ale jego warto± jest niemalej c funkcj liczby zmiennych w modelu dlatego: ró»ne modele mo»na porównywa na podstawie R 2 tylko, je±li maj t sam liczb zmiennych obja±niaj cych (i t sam zmienn obja±nian ) st d: powszechnie stosowany jest skorygowany wspóªczynnik determinacji: R 2 = }{{} R 2 k ( ) 1 R 2 T (k + 1) dopasowanie }{{} kara za nadmiar parametrów R 2 R 2 umo»liwia porównywanie modeli o ró»nej liczbie regresorów ale: jest wielko±ci nieunormowan (przyjmuje warto±ci z przedziaªu ( ; 1]) ale: nie ma interpretacji jako cz ±ci zmienno±ci regresanta wyja±nianej przez model
Wspóªczynnik determinacji podsumowanie wewn trzpróbowe kryterium oceny modelu nie przes dza o wªasno±ciach prognostycznych modelu porównanie modeli na podstawie warto±ci wspóªczynnika determinacji tylko je±li ta sama zmienna obja±niana tylko je±li ta sama liczba regresorów > chyba»e wspóªczynnik skorygowany generalnie im wy»sza warto± wspóªczynnika, tym lepsze dopasowanie modelu do danych ale: problem regresji pozornej w przypadku szeregów czasowych nie istnieje warto± referencyjna w przypadku maªej liczby obserwacji > wspóªczynnik skorygowany
Istotno± zmiennych obja±niaj cych (2) Test F Test ª cznej istotno±ci zmiennych H 0 : β 1 = β 2 =...β k = 0 H 1 : i β i 0 Statystyka testowa: F = R2 T k 1 1 R 2 k ~F k,t k 1 uwaga: inaczej test istotno±ci wspóªczynnika determinacji
Kryteria informacyjne przy ocenie modelu bior pod uwag dwa czynniki: na ile dobrze model jest dopasowany do danych liczb zmiennych obja±niaj cych AIC = ln 1 T SIC = ln 1 T T t=1 T t=1 e 2 t + 2k T e 2 t + k ln(t ) T wybieramy model o najni»szej warto±ci kryterium kara za nadmiar parametrów: SIC > AIC > R 2
Zadanie 4 W wyniku estymacji parametrów modelu postaci y t = α 0 + α 1x 1t + α 2x 2t + ε t otrzymano nast puj ce wyniki cz stkowe: 61 35 5 (X T X ) 1 = 1 35 25 5 60 5 5 25 T t=1 yt = 30 T t=1 x1tyt = 49 T t=1 x2tyt = 11 T t=1 y 2 t = 110 T t=1 ê2 t = 4 suma stopni swobody =7 Oszacuj parametry strukturalne modelu. Czy zmienne obja±niaj ce maj istotny wpªyw na zmienn obja±nian? Oblicz wspóªczynnik determinacji.
Plan wicze«klasyczny model regresji liniowej Metoda najmniejszych kwadratów Twierdzenie Gaussa-Markowa Estymacja przedziaªowa Estymator MNK przy warunkach ograniczaj cych Klasyczny model regresji liniowej diagnostyka Istotno± zmiennych obja±niaj cych Dopasowania modelu do danych empirycznych Autokorelacja skªadnika losowego Heteroskedastyczno± skªadnika losowego
Sferyczny skªadnik losowy Sferyczny skªadnik losowy: diagonalna macierz wariancji-kowariancji skªadnika losowego staªa wariancja (homoskedastyczno± ) brak korelacji mi dzy skªadnikami losowymi z ró»nych okresów (brak autokorelacji) D 2 (ε t) = var (ε 1 ) cov (ε 1, ε 2 ) cov (ε 1, ε T ) cov (ε 1, ε 2 ) var (ε 2 ) cov (ε 2, ε T )..... cov (ε 1, ε T ) cov (ε 2, ε T ) var (ε T ) σ 2 0 0 1 0 0 0 σ 2 0 0 1 0..... = σ2..... 0 0 σ 2 0 0 1 =
Autokorelacja skªadnika losowego D 2 (ε t ) = σ 2 var (ε 1 ) cov (ε 1, ε 2 ) cov (ε 1, ε T ) cov (ε 1, ε 2 ) var (ε 2 ) cov (ε 2, ε T )..... cov (ε 1, ε T ) cov (ε 2, ε T ) var (ε T ) 1 ρ 1 ρ 2 ρ 3 ρ T 1 ρ 1 1 ρ 1 ρ 2 ρ T 2 ρ 2 ρ 1 1 ρ 1 ρ T 3..... ρ T 1 ρ T 2 ρ T 3 ρ T 4 1 = = Ω = σ 2 V
Zagadnienie teoretyczne (5) Wyprowad¹ macierz wariancji-kowariancji skªadnika losowego w przypadku wyst powania autokorelacji rz du I: ε t = ρε t 1 + η t (η t iid).
Zagadnienie teoretyczne (5) Wyprowad¹ macierz wariancji-kowariancji skªadnika losowego w przypadku wyst powania autokorelacji rz du I: ε t = ρε t 1 + η t (η t iid). cov(ε t, ε t 1 ) = cov(ρε t 1 + η t, ε t 1 )
Zagadnienie teoretyczne (5) Wyprowad¹ macierz wariancji-kowariancji skªadnika losowego w przypadku wyst powania autokorelacji rz du I: ε t = ρε t 1 + η t (η t iid). cov(ε t, ε t 1 ) = cov(ρε t 1 + η t, ε t 1 ) cov(x, Y ) = E(X Y ) E(X )E(Y ) -
Zagadnienie teoretyczne (5) Wyprowad¹ macierz wariancji-kowariancji skªadnika losowego w przypadku wyst powania autokorelacji rz du I: ε t = ρε t 1 + η t (η t iid). cov(ε t, ε t 1 ) = cov(ρε t 1 + η t, ε t 1 ) cov(x, Y ) = E(X Y ) E(X )E(Y ) cov(ε t, ε t 1 ) = E((ρε t 1 + η t )ε t 1 ) E(ε t ) E(ε }{{} t 1 ) = }{{} 0 0
Zagadnienie teoretyczne (5) Wyprowad¹ macierz wariancji-kowariancji skªadnika losowego w przypadku wyst powania autokorelacji rz du I: ε t = ρε t 1 + η t (η t iid). cov(ε t, ε t 1 ) = cov(ρε t 1 + η t, ε t 1 ) cov(x, Y ) = E(X Y ) E(X )E(Y ) cov(ε t, ε t 1 ) = E((ρε t 1 + η t )ε t 1 ) E(ε t ) E(ε }{{} t 1 ) = }{{} E(ρε t 1 ε t 1 + η t ε t 1 ) = ρe(ε t 1 ε t 1 ) + E(η t ) E(ε }{{} t 1 ) = ρσ 2 }{{} 0 0 0 0
Analogicznie: cov(ε t, ε t 2) = cov(ρ(ρε t 2 + η t 1) + η t, ε t 2) = ρ 2 σ 2 itd. St d macierz wariancji-kowariancji skªadnika losowego w przypadku wyst powania autokorelacji rz du I: D 2 (ε t) = σ 2 1 ρ ρ 2 ρ 3 ρ T 1 ρ 1 ρ ρ 2 ρ T 2 ρ 2 ρ 1 ρ ρ T 3..... ρ T 1 ρ T 2 ρ T 3 ρ T 4 1
Przyczyny autokorelacji skªadnika losowego natura danego procesu gospodarczego skutki wielu zjawisk rozci gaj si na wiele okresów > tzw. inercyjno± procesów gospodarczych (autokorelacja dodatnia) na obecne decyzje (konsumpcyjne, inwestycyjne) wpªywaj decyzje z przeszªo±ci (autokorelacja dodatnia lub ujemna) bª dna specykacja modelu brak uwzgl dnienia lub niewystarczaj ce uwzgl dnienie dynamiki w modelu (brak / niewystarczaj ca liczba zmiennych opó¹nionych) pomini cie wa»nej zmiennej obja±niaj cej niepoprawna posta funkcyjna modelu (np. aproksymacja cyklu funkcj liniow )
Brak autokorelacji na podstawie realizacji skªadnika losowego z okresu t nie jeste±my w stanie okre±li znaku realizacji skªadnika losowego w okresie t+1
Autokorelacja dodatnia je±li w okresie t realizacja skªadnika losowego byªa dodatnia, to prawdopodobie«stwo tego,»e w kolejnym okresie b dzie równie» dodatnia jest wi ksza od tego,»e b dzie ujemna wykres reszt znacznie rzadziej przecina o± odci tych ni» w przypadku braku autokorelacji > dªugie serie reszt o tych samych znakach
Autokorelacja ujemna wi ksze ni» w przypadku braku autokorelacji prawdopodobie«stwo zmiany znaku przez realizacj skªadnika losowego w kolejnym okresie wykres reszt cz ±ciej przecina o± odci tych
Zadanie 5 Wygeneruj w arkuszu kalkulacyjnym szeregi skªadnika losowego: (1) biaªoszumowego, (2) podlegaj cego procesowi autokorelacji (a) dodatniej, (b) ujemnej.
Testowanie autokorelacji (1) Test Durbina-Watsona H 0 : ρ = 0 (skªadnik losowy nie wykazuje autokorelacji pierwszego rz du) H 1 : ρ 0 (skªadnik losowy wykazuje autokorelacj pierwszego rz du) DW = T (e t e t 1) 2 t=2 T et 2 t=1 2 (1 ˆρ), gdzie ˆρ oszacowany wspóªczynnik autokorelacji rz du pierwszego (mi dzy e t i e t 1 )
Testowanie autokorelacji (2) Test Durbina-Watsona: pozwala wyª cznie na sprawdzenie, czy skªadnik losowy podlega autokorelacji pierwszego rz du niemo»liwe jest testowanie autokorelacji wy»szego rz du mo»na go stosowa wyª cznie w przypadku modeli z wyrazem wolnym, bez opó¹nionej zmiennej obja±nianej oraz o normalnym rozkªadzie skªadnika losowego nie zawsze prowadzi do uzyskania jednoznacznego wyniku obszar nieokre±lono±ci (niekonkluzywno±ci)
Testowanie autokorelacji (3) W przypadku modelu autoregresyjnego: Test h-durbina H 0 : skªadnik losowy nie wykazuje autokorelacji pierwszego rz du H 1 : skªadnik losowy wykazuje autokorelacj pierwszego rz du h = ( ) 1 DW N (0, 1), 2 T 1 T Var( ˆβ y(t 1))) gdzie ^β y(t 1) oznacza oszacowanie parametru przy opó¹nionej zmiennej zale»nej
Testowanie autokorelacji (4) Test Breuscha-Godfreya - pozwala na testowanie autokorelacji rz du P - ale: test asymptotyczny (dedykowany dla du»ych prób) Idea: - szacujemy wyj±ciowe równanie przy pomocy KMNK i wyznaczamy reszty - szacujemy równanie, w którym szereg reszt jest funkcj zmiennych obja±niaj cych w wyj±ciowym modelu i P opó¹nie«reszt - testujemy hipotez o ª cznej nieistotno±ci P opó¹nie«reszt Ukªad hipotez: H 0 : β k+1 = β k+2 =... = β k+p = 0 (brak autokorelacji do rz du P wª cznie) H 1 : i β i 0, gdzie i = k + 1,..., k + P Regresja pomocnicza testu: ˆε t = xtβ + β k+1 ˆε t 1 + β k+2 ˆε t 2 +... + β k+p ˆε t P Statystyka testowa: LM = (T P)R 2 e χ2 P
Zadanie 6 Estymacja KMNK pewnego modelu daªa nast puj ce wyniki: ŷ t = 1, 54 + 0, 50x t 0, 16y t 1 2, 347.. (X T X ) 1 =. 0, 074... 0, 066 ˆσ 2 = 0, 79 D W = 1, 85 T = 15 Zwerykuj hipotez,»e skªadnik losowy podlega procesowi autokorelacji pierwszego rz du. Badacz postanowiª przetestowa hipotez o wy»szych rz dach autokorelacji za pomoc testu Breuscha-Godfrey'a. Za pomoca KMNK otrzymano oszacowania regresji pomocniczej testu: ê t = 1, 46 + 0, 49x t 0, 17y t 1 + 0, 17e t 1 + 0, 02e t 2 0, 31e t 3 Wspóªczynnik determinacji regresji testowej wyniósª 0,313. Dokonaj werykacji hipotezy.
Konsekwencje autokorelacji skªadnika losowego Je±li model nie jest autoregresyjny: estymator parametrów nieobci»ony, ale nieefektywny estymator wariancji skªadnika losowego obci»ony estymator wariancji estymatora parametrów niezgodny (w przypadku autokorelacji dodatniej bª dy standardowe s zani»one) problem przy wnioskowaniu statystycznym Je±li model jest autoregresyjny: estymator parametrów niezgodny bo wyst puje endogeniczno± w modelu zmienna obja±niaj ca skorelowana ze skªadnikiem losowym
Zagadnienie teoretyczne (6) Wyprowad¹ macierz wariancji-kowariancji estymatora KMNK w przypadku wyst powania autokorelacji skªadnika losowego. D 2 (ˆα) =D 2 (α + (X T X ) 1 X T ε) =
Zagadnienie teoretyczne (6) Wyprowad¹ macierz wariancji-kowariancji estymatora KMNK w przypadku wyst powania autokorelacji skªadnika losowego. D 2 (ˆα) =D 2 (α + (X T X ) 1 X T ε) = D 2 ((X T X ) 1 X T ε) =
Zagadnienie teoretyczne (6) Wyprowad¹ macierz wariancji-kowariancji estymatora KMNK w przypadku wyst powania autokorelacji skªadnika losowego. D 2 (ˆα) =D 2 (α + (X T X ) 1 X T ε) = D 2 ((X T X ) 1 X T ε) = E [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] T =
Zagadnienie teoretyczne (6) Wyprowad¹ macierz wariancji-kowariancji estymatora KMNK w przypadku wyst powania autokorelacji skªadnika losowego. D 2 (ˆα) =D 2 (α + (X T X ) 1 X T ε) = D 2 ((X T X ) 1 X T ε) = E [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] T = E [ (X T X ) 1 X T ε ] [ (X T X ) 1 X T ε ] T =
Zagadnienie teoretyczne (6) Wyprowad¹ macierz wariancji-kowariancji estymatora KMNK w przypadku wyst powania autokorelacji skªadnika losowego. D 2 (ˆα) =D 2 (α + (X T X ) 1 X T ε) = D 2 ((X T X ) 1 X T ε) = E [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] T = E [ (X T X ) 1 X T ε ] [ (X T X ) 1 X T ε ] T = E ( (X T X ) 1 X T εε T X (X T X ) 1) =
Zagadnienie teoretyczne (6) Wyprowad¹ macierz wariancji-kowariancji estymatora KMNK w przypadku wyst powania autokorelacji skªadnika losowego. D 2 (ˆα) =D 2 (α + (X T X ) 1 X T ε) = D 2 ((X T X ) 1 X T ε) = E [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] T = E [ (X T X ) 1 X T ε ] [ (X T X ) 1 X T ε ] T = E ( (X T X ) 1 X T εε T X (X T X ) 1) = (X T X ) 1 X T E ( εε T ) X (X T X ) 1 =
Zagadnienie teoretyczne (6) Wyprowad¹ macierz wariancji-kowariancji estymatora KMNK w przypadku wyst powania autokorelacji skªadnika losowego. D 2 (ˆα) =D 2 (α + (X T X ) 1 X T ε) = D 2 ((X T X ) 1 X T ε) = E [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] T = E [ (X T X ) 1 X T ε ] [ (X T X ) 1 X T ε ] T = E ( (X T X ) 1 X T εε T X (X T X ) 1) = (X T X ) 1 X T E ( εε T ) X (X T X ) 1 = (X T X ) 1 X T ΩX (X T X ) 1 δ 2 (X T X ) 1
Post powanie w przypadku w przypadku wykrycia autokorelacji skªadnika losowego
Post powanie w przypadku w przypadku wykrycia autokorelacji skªadnika losowego Zastosowanie specjalnych metod estymacji: uogólniona metoda najmniejszych kwadratów (UMNK) zastosowanie estymatorów bª dów standardowych odpornych na autokorelacj skªadnika losowego
Post powanie w przypadku w przypadku wykrycia autokorelacji skªadnika losowego Zastosowanie specjalnych metod estymacji: uogólniona metoda najmniejszych kwadratów (UMNK) zastosowanie estymatorów bª dów standardowych odpornych na autokorelacj skªadnika losowego > podej±cie autokorelacyjne
Post powanie w przypadku w przypadku wykrycia autokorelacji skªadnika losowego Zastosowanie specjalnych metod estymacji: uogólniona metoda najmniejszych kwadratów (UMNK) zastosowanie estymatorów bª dów standardowych odpornych na autokorelacj skªadnika losowego > podej±cie autokorelacyjne Ale w przypadku, gdy autokorelacja wynika z bª dnej specykacji modelu (brak dynamizacji modelu): specjalne metody prowadz do wyników poprawnych statystycznie, lecz niepoprawnych merytorycznie nale»y wyeliminowa przyczyn autokorelacji, czyli zdynamizowa model
Post powanie w przypadku w przypadku wykrycia autokorelacji skªadnika losowego Zastosowanie specjalnych metod estymacji: uogólniona metoda najmniejszych kwadratów (UMNK) zastosowanie estymatorów bª dów standardowych odpornych na autokorelacj skªadnika losowego > podej±cie autokorelacyjne Ale w przypadku, gdy autokorelacja wynika z bª dnej specykacji modelu (brak dynamizacji modelu): specjalne metody prowadz do wyników poprawnych statystycznie, lecz niepoprawnych merytorycznie nale»y wyeliminowa przyczyn autokorelacji, czyli zdynamizowa model > podej±cie respecykacyjne
Estymator UMNK wyprowadzenie (1) Mamy model regresji liniowej ze skªadnikiem losowym podlegaj cym autokorelacji: y = X α + ε D 2 (ε) = Ω = σ 2 V Dla dowolnej dodatnio okre±lonej symetrycznej macierzy A mo»na znale¹ tak nieosobliw macierz L,»e: LAL T = I A = (L 1 )(L 1 ) T A 1 = L T L
Estymator UMNK wyprowadzenie (2) V dodatnio okre±lona i symetryczna >V 1 = L T L Pomnó»my obustronnie model przez L: y = X α + ε/ L Ly = LX α + Lε y = X α + ε Wyprowad¹my wzór na macierz wariancji-kowariancji skªadnika losowego przetransformowanego modelu: [ ] D 2 (ε ) = D 2 (Lε) = E (Lε E(Lε)) (Lε E(Lε)) T = T E Lε LE(ε) ) Lε LE(ε) = E }{{}}{{} 0 0 LE ( εε T ) L T = Lσ 2 VL T = σ 2 LVL T = σ 2 L(L 1 )(L 1 ) T L T = σ 2 I [ (Lε) (Lε) T ] =
Estymator UMNK wyprowadzenie (3) Estymator UMNK (Aitkena) to estymator KMNK zastosowany do przeksztaªconego modelu: ˆα UMNK = (X T X ) 1 X T y = ((LX ) T (LX )) 1 (LX ) T (Ly) = ( X T L T LX ) 1 X T L T Ly = ( X T V 1 X ) 1 X T V 1 y
Analiza COMFAC punkt wyj±cia: model dynamiczny ze sferycznym skªadnikiem losowym, np. ADL(1,1,1): y t = α 1 y t 1 + β 0 x t + β 1 x t 1 + ε t testujemy restrykcj wspólnego ) czynnika, (1 α 1 L) y t = β 0 (1 + β 1 β 0 L x t + ε t hipoteza zerowa H 0 : α 1 β 0 = β 1 nie ma podstaw do odrzucenia H 0 > model statyczny ze skªadnikiem losowym AR(1) + UMNK odrzucamy H 0 na rzecz H 1 > model ADL
Plan wicze«klasyczny model regresji liniowej Metoda najmniejszych kwadratów Twierdzenie Gaussa-Markowa Estymacja przedziaªowa Estymator MNK przy warunkach ograniczaj cych Klasyczny model regresji liniowej diagnostyka Istotno± zmiennych obja±niaj cych Dopasowania modelu do danych empirycznych Autokorelacja skªadnika losowego Heteroskedastyczno± skªadnika losowego
Sferyczny skªadnik losowy Sferyczny skªadnik losowy: diagonalna macierz wariancji-kowariancji skªadnika losowego staªa wariancja (homoskedastyczno± ) brak korelacji mi dzy skªadnikami losowymi z ró»nych okresów (brak autokorelacji) D 2 (ε t) = var (ε 1 ) cov (ε 1, ε 2 ) cov (ε 1, ε T ) cov (ε 1, ε 2 ) var (ε 2 ) cov (ε 2, ε T )..... cov (ε 1, ε T ) cov (ε 2, ε T ) var (ε T ) σ 2 0 0 1 0 0 0 σ 2 0 0 1 0..... = σ2..... 0 0 σ 2 0 0 1 =
Heteroskedastyczno± skªadnika losowego Wyst powanie heteroskedastyczno±ci oznacza, i» wariancja skªadnika losowego nie jest staªa dla poszczególnych jednostek lub w poszczególnych okresach: D 2 (ε t) = var (ε 1) cov (ε 1, ε 2) cov (ε 1, ε T ) cov (ε 1, ε 2) var (ε 2) cov (ε 2, ε T )..... cov (ε 1, ε T ) cov (ε 2, ε T ) var (ε T ) ω 1 0 0 σ 2 0 ω 2 0..... = σ2 V 0 0 ω T =
Przyczyny heteroskedastyczno±ci pomini cie wa»nej zmiennej obja±niaj cej bª dna posta funkcyjna modelu natura procesu przykªad dla danych przekrojowych: wydatki konsumpcyjne biednych i bogatych przykªad dla szeregów czasowych: okresy wi kszej i mniejszej zmienno±ci na rynkach nansowych (grupowanie si wariancji)
Konsekwencje heteroskedastyczno±ci Estymator parametrów jest nieobci»ony i zgodny, ale nieefektywny Estymator wariancji skªadnika losowego (i co za tym idzie wariancji estymatora KMNK) niezgodny bª dne wnioski z werykacji hipotez
Testowanie heteroskedastyczno±ci (1) Test Goldfelda-Quandta Zaªo»enie: wariancja bª du losowego zale»y monotonicznie od pewnej zmiennej Z sortujemy obserwacje wg zmiennej Z dzielimy obserwacje na dwie grupy (usuwamy ±rodkowe 1/3 obserwacji) szacujemy model oddzielnie w obu podpróbach Ukªad hipotez: H 0 : σ 2 1 = σ 2 2 tzn. wariancja jest równa w obu podpróbach (homoskedastyczno± ) H 1 : σ 2 1 > σ 2 2 tzn. wariancja jest wy»sza w podpróbie indeksowanej jako 1 Statystyka testowa: F = σ2 1 σ2 2 F n1 k, n 2 k test ma sens tylko wtedy, gdy jako 1 indeksujemy podprób o wy»szej wariancji.
Testowanie heteroskedastyczno±ci (2) Test Breuscha-Pagana Zaªo»enie: wariancja skªadnika losowego zale»y od wektora zmiennych Z=[Z1, Z2,..., Zk] Wektor Z mo»e zawiera zmienne zawarte w modelu lub nie Ukªad hipotez: H 0 : var(ε i ) =: σ H 1 : var(ε i ) = σ 2 i = f (Z 1,Z 2,..., Z k ) Regresja pomocnicza testu: e 2 i = α 0 + α 1Z 1 + α 2Z 2 +... + α k Z k + ϑ t Statystyka testowa: LM = NR 2 e χ 2 k
Testowanie heteroskedastyczno±ci (3) Test White'a pewna modykacja testu Breuscha-Pagana test objawowy sªu»y do wykrywania heteroskedastyczno±ci, a nie do identykacji zmiennych za ni odpowiedzialnych Ukªad hipotez: H 0 : var(ε i ) =: σ H 1 : var(ε i ) = σ 2 i = f (X ) Regresja pomocnicza testu: e 2 i = α 0 + α i,j x i,t x j,t + ϑ t i,j Statystyka testowa: LM = NR 2 e χ 2 k k liczba zmiennych obja±niaj cych w regresji testowej (bez staªej)
Post powanie w przypadku w przypadku wykrycia heteroskedastyczno±ci skªadnika losowego je±li wiemy, jaka zmienna odpowiada za heteroskedastyczno±, mo»emy podzieli obustronnie równanie regresji przez t zmienn zbudowa model na logarytmach zmiennych zamiast na poziomach przej± na wielko±ci per capita zastosowa estymator wa»onej metody najmniejszych kwadratów (WMNK) skorygowa macierz wariancji-kowariancji estymatorów