Ekonometria Szeregów Czasowych

Podobne dokumenty
Ekonometria. wiczenia 2 Werykacja modelu liniowego. Andrzej Torój. Instytut Ekonometrii Zakªad Ekonometrii Stosowanej

Ekonometria. wiczenia 3 Autokorelacja, heteroskedastyczno±, wspóªliniowo± Andrzej Torój. Instytut Ekonometrii Zakªad Ekonometrii Stosowanej

Wst p do ekonometrii II

Ekonometria. wiczenia 1 Regresja liniowa i MNK. Andrzej Torój. Instytut Ekonometrii Zakªad Ekonometrii Stosowanej

Modele wielorównaniowe. Estymacja parametrów

Egzamin z ekonometrii - wersja ogólna

Ekonometria. Ćwiczenia nr 3. Jakub Mućk. Katedra Ekonomii Ilościowej

Wykªad 1+2: Klasyczny model regresji liniowej. Podstawy R

Ekonometria. wiczenia 4 Prognozowanie. Andrzej Torój. Instytut Ekonometrii Zakªad Ekonometrii Stosowanej

Ekonometria. Własności składnika losowego. Jakub Mućk. Katedra Ekonomii Ilościowej

Ekonometria - wykªad 8

Ekonometria. wiczenia 5 i 6 Modelowanie szeregów czasowych. Andrzej Torój. Instytut Ekonometrii Zakªad Ekonometrii Stosowanej

Modele wielorównaniowe. Problem identykacji

Elementarna statystyka Wnioskowanie o regresji (Inference 2 czerwca for regression) / 13

Biostatystyka, # 5 /Weterynaria I/

Egzamin z ekonometrii - wersja IiE, MSEMAT

Rozdziaª 5. Modele wektorowej autoregresji

Stanisław Cichocki. Natalia Neherbecka. Zajęcia 13

EGZAMIN MAGISTERSKI, r Matematyka w ekonomii i ubezpieczeniach

Natalia Neherbecka. 11 czerwca 2010

Metody Ekonometryczne

Ekonometria. Wprowadzenie do modelowania ekonometrycznego Estymator KMNK. Jakub Mućk. Katedra Ekonomii Ilościowej

Modele liniowe i mieszane na przykªadzie analizy danych biologicznych - Wykªad 6

Stanisław Cichocki. Natalia Nehrebecka

Stanisław Cihcocki. Natalia Nehrebecka

Testowanie hipotez statystycznych

Ekonometria - wykªad 1

Ekonometria. wiczenia 8 Modele zmiennej jako±ciowej. Andrzej Torój. Instytut Ekonometrii Zakªad Ekonometrii Stosowanej

1.1 Klasyczny Model Regresji Liniowej

Metody Ekonometryczne

In»ynierskie zastosowania statystyki wiczenia

Ekonometria. wiczenia 7 Modele nieliniowe. Andrzej Torój. Instytut Ekonometrii Zakªad Ekonometrii Stosowanej

Stanisław Cichocki. Natalia Nehrebecka. Wykład 13

Heteroscedastyczność. Zjawisko heteroscedastyczności Uogólniona Metoda Najmniejszych Kwadratów Stosowalna Metoda Najmniejszych Kwadratów

Statystyka matematyczna - ZSTA LMO

Wykªad 6: Model logitowy

Matematyka z elementami statystyki

Stacjonarne szeregi czasowe

Ekonometria Przestrzenna

Metody statystyczne w biologii - Wykªad 8. Uniwersytet Przyrodniczy we Wrocªawiu Katedra Genetyki i Ogólnej Hodowli Zwierz t

Ekonometria. Prognozowanie ekonometryczne, ocena stabilności oszacowań parametrów strukturalnych. Jakub Mućk. Katedra Ekonomii Ilościowej

Metody Ekonometryczne

Stanisław Cichocki Natalia Neherbecka

Ekonometria. Weryfikacja liniowego modelu jednorównaniowego. Jakub Mućk. Katedra Ekonomii Ilościowej

Czasowy wymiar danych

3. (8 punktów) EGZAMIN MAGISTERSKI, Biomatematyka

Metody probablistyczne i statystyka stosowana

Podstawy statystycznego modelowania danych - Wykªad 7

Stanisław Cichocki. Natalia Nehrebecka. Wykład 12

Stanisław Cichocki Natalia Nehrebecka. Zajęcia 8

Ekonometria egzamin 01/02/ W trakcie egzaminu wolno używać jedynie długopisu o innym kolorze atramentu niż czerwony oraz kalkulatora.

Ekonometria Przestrzenna

Ekonometria egzamin 07/03/2018

Stanisław Cichocki. Natalia Nehrebecka. Zajęcia 15-16

Ekonometria Bayesowska

Ekonometria Szeregów Czasowych

wiczenie nr 3 z przedmiotu Metody prognozowania kwiecie«2015 r. Metodyka bada«do±wiadczalnych dr hab. in». Sebastian Skoczypiec Cel wiczenia Zaªo»enia

Rozdziaª 4. Jednowymiarowe modele szeregów czasowych

Autokorelacja i heteroskedastyczność

Ekonometria Przestrzenna

EKONOMETRIA STOSOWANA PRZYKŁADOWE ZADANIA EGZAMINACYJNE

Zadanie 1 Zakładając liniową relację między wydatkami na obuwie a dochodem oszacować MNK parametry modelu: y t. X 1 t. Tabela 1.

1 Modele ADL - interpretacja współczynników

Stacjonarność Integracja. Integracja. Integracja

Statystyczna analiza danych w programie STATISTICA. Dariusz Gozdowski. Katedra Doświadczalnictwa i Bioinformatyki Wydział Rolnictwa i Biologii SGGW

5. (8 punktów) EGZAMIN MAGISTERSKI, r Matematyka w ekonomii i ubezpieczeniach

Stanisław Cichocki. Natalia Nehrebecka. Wykład 12

WIELKA SGH-OWA POWTÓRKA ZE STATYSTYKI REGRESJA LINIOWA

EGZAMIN MAGISTERSKI, r Matematyka w ekonomii i ubezpieczeniach. a) (6 pkt.) oblicz intensywno± pªaconych skªadek;

Rozdziaª 6. Strukturalne modele VAR

Ekonometria egzamin wersja Informatyka i Ekonometria 29/01/08

Funkcje, wielomiany. Informacje pomocnicze

Natalia Nehrebecka Stanisław Cichocki. Wykład 10

Ekonometria egzamin wersja Informatyka i Ekonometria 26/06/08

Ekonometria egzamin 02/02/ W trakcie egzaminu wolno używać jedynie długopisu o innym kolorze atramentu niż czerwony oraz kalkulatora.

Efekty przestrzenne w konwergencji polskich podregionów

Przyczynowość Kointegracja. Kointegracja. Kointegracja

Zadanie 1. (8 punktów) Dana jest nast puj ca macierz: M =

Egzamin z ekonometrii wersja IiE, MSEMAT

Metody numeryczne i statystyka dla in»ynierów

Zależność. przyczynowo-skutkowa, symptomatyczna, pozorna (iluzoryczna),

K wartość kapitału zaangażowanego w proces produkcji, w tys. jp.

2. Założenie niezależności zakłóceń modelu - autokorelacja składnika losowego - test Durbina - Watsona

1 Bª dy i arytmetyka zmiennopozycyjna

Estymacja modeli ARDL przy u»yciu Staty

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów

I Kolokwium z Ekonometrii. Nazwisko i imi...grupa...

Ekonometria egzamin 02/02/ W trakcie egzaminu wolno używać jedynie długopisu o innym kolorze atramentu niż czerwony oraz kalkulatora.

Ekonometria dla IiE i MSEMat Z12

Metoda najmniejszych kwadratów

Ćwiczenia IV

Rozdziaª 7. Modele klasy ARCH

Testowanie stopnia zintegrowania. czasowego. Wst p do ekonometrii szeregów czasowych wiczenia 1. Andrzej Torój. 19 lutego 2010

Elementarna statystyka Dwie próby: porównanie dwóch proporcji (Two-sample problem: comparing two proportions)

E k o n o m e t r i a S t r o n a 1

Ekonometria egzamin 31/01/ W trakcie egzaminu wolno używać jedynie długopisu o innym kolorze atramentu niż czerwony oraz kalkulatora.

Ekonometria. Weryfikacja modelu. Paweł Cibis 12 maja 2007

Janusz Adamowski METODY OBLICZENIOWE FIZYKI Zastosowanie eliptycznych równa«ró»niczkowych

Transkrypt:

Ekonometria Szeregów Czasowych Zaj cia 1: Ekonometria klasyczna powtórzenie dr Karolina Konopczak Katedra Ekonomii Stosowanej

Kontakt karolina.konopczak@sgh.waw.pl konsultacje: czwartki g. 8.45 (p. 10/DS Sabinki) https://www.e-sgh.pl/konopczak/eszcz_2017_wiosna

Program 1. Niestacjonarno± procesów stochastycznych / zintegrowanie zmiennych / testy pierwiastków jednostkowych 2. Modelowanie szeregów stacjonarnych: ARIMA / VAR 3. Modelowanie szeregów niestacjonarnych (1): kointegracja / metoda Engle'a-Grangera / model ECM 4. Modelowanie szeregów niestacjonarnych (2): metoda Johansena / model VECM 5. Modele wielorównaniowe: mno»niki / identykacja / estymacja 6. Modele svar

Literatura podstawowa A. Welfe, Ekonometria. Metody i ich zastosowanie, wyd. IV, PWE, Warszawa 2009 W. Grabowski, A. Welfe, Ekonometria. Zbiór zada«, PWE, Warszawa 2010

Literatura uzupeªniaj ca A. Welfe (red.), Analiza kointegracyjna w makromodelowaniu, PWE, Warszawa 2013 M.Majsterek, Wielowymiarowa analiza kointegracyjna w ekonomii, Wydawnictwo Uniwersytetu Šódzkiego, Šód¹ 2008 P.Karp, A.Welfe, P.K bªowski, Mechanizmy makroekonomiczne w gospodarcze polskiej. Analiza ekonometryczna, Wydawnictwo Uniwersytetu Šódzkiego, Šód¹ 2006 E.M.Syczewska, Analiza relacji dªugookresowych estymacja i werykacja, SGH, Warszawa 1999 K. Juselius, The Cointegrated VAR Model, Oxford University Press, Oxford 2006 H. Lütkepohl, New Introduction to Multiple Time Series Analysis, Springer-Verlag, Berlin 2006 J. D. Hamilton, Time Series Analysis, Princeton University Press, Princeton 1994

Plan zaj Klasyczny model regresji liniowej Metoda najmniejszych kwadratów Twierdzenie Gaussa-Markowa Estymacja przedziaªowa Estymator MNK przy warunkach ograniczaj cych Klasyczny model regresji liniowej diagnostyka Istotno± zmiennych obja±niaj cych Dopasowania modelu do danych empirycznych Autokorelacja skªadnika losowego Heteroskedastyczno± skªadnika losowego

Plan wicze«klasyczny model regresji liniowej Metoda najmniejszych kwadratów Twierdzenie Gaussa-Markowa Estymacja przedziaªowa Estymator MNK przy warunkach ograniczaj cych Klasyczny model regresji liniowej diagnostyka Istotno± zmiennych obja±niaj cych Dopasowania modelu do danych empirycznych Autokorelacja skªadnika losowego Heteroskedastyczno± skªadnika losowego

Klasyczny model regresji liniowej (1) y t = α 0 + α 1 x 1t + α 2 x 2t +... + α K x Kt + ε t y t zmienna obja±niana / zmienna zale»na / regresant x kt zmienna obja±niaj ca / zmienna niezale»na / regresor (k=1,...,k) α 0 wyraz wolny interpretacja: jaka byªaby warto± teoretyczna zmiennej obja±nianej, gdyby wszystkie zmienne obja±niaj ce byªyby równe 0 α k parametr strukturalny (k=1,...,k) interpretacja: o ile jednostek zmieni si zmienna obja±niana, je»eli dana zmienna obja±niaj ca zwi kszy si o jedn jednostk przy wszystkich pozostaªych zmiennych niezmienionych, czyli ceteris paribus ε t skªadnik losowy zmienna losowa o okre±lonym rozkªadzie, warto±ci oczekiwanej i wariancji

Klasyczny model regresji liniowej (2) Zapis macierzowy: y 1 1 x 11 x 21... x K1 y 2 1 x 12 x 22... x K2 =........ y T 1 x 1T x 2T... x KT }{{} } {{ } y y = X α + ε X α 0 α 1 α 2. α K } {{ } α + ε 1 ε 2. ε T } {{ } ε

Klasyczny model regresji liniowej (3) Skªadnik losowy jest niezb dny w modelu, poniewa»: ±wiat spoªeczny ma charakter indeterministyczny czªowiek (konsument, producent, wyborca itp.) mo»e w dwóch podobnych sytuacjach zachowa si odmiennie np. na decyzje konsumpcyjne jednostki oprócz takich zmiennych jak cena danego dobra, cena dobra komplementarnego czy cena substytutu (zmienne uwzgl dnione w modelu) wpªywa mnóstwo zmiennych niekwantykowalnych (np. nastrój konsumenta w danym momencie) mog wyst pi bª dy pomiaru zmiennych model mo»e by wadliwie skonstruowany (zmienne pomini te)

Estymacja (szacowanie) parametrów modelu...... polega na wyznaczeniu takiej prostej (hiperpªaszczyzny), która b dzie najlepsza ze wzgl du na przyj te kryterium

Oszacowany model ŷ t = ˆα 0 + ˆα 1 x 1t + ˆα 2 x 2t +... + ˆα K x Kt ŷ = X ˆα ê t = y t ŷ t ŷ t warto± teoretyczna zmiennej obja±nianej ˆα k oszacowanie parametru strukturalnego α k (k=1,...,k) ê oszacowanie reszty (ró»nica mi dzy warto±ci empiryczn a teoretyczn )

Plan wicze«klasyczny model regresji liniowej Metoda najmniejszych kwadratów Twierdzenie Gaussa-Markowa Estymacja przedziaªowa Estymator MNK przy warunkach ograniczaj cych Klasyczny model regresji liniowej diagnostyka Istotno± zmiennych obja±niaj cych Dopasowania modelu do danych empirycznych Autokorelacja skªadnika losowego Heteroskedastyczno± skªadnika losowego

Estymator KMNK (1) estymacja parametrów polega na wyznaczeniu takiej prostej (hiperpªaszczyzny), która b dzie najlepsza ze wzgl du na przyj te kryterium w przypadku klasycznej metody najmniejszych kwadratów kryterium tym jest minimalizacja sumy kwadratów reszt regresji, czyli minimalizacja odchyle«warto±ci teoretycznych od empirycznych: S = T et 2 t=1 = T t=1 lub w zapisie macierzowym: (y t ˆα 0 ˆα 1x 1,t ˆα 2x 2,t... ˆα k x k,t ) 2 min ˆα 0, ˆα 1,... S = e T e = (y x ˆα) T (y x ˆα) min ˆα wzór na estymator KMNK: ˆα = ( X T X ) 1 X T y

Zagadnienie teoretyczne (1) Wyprowad¹ wzór na estymator KMNK w modelu regresji wielorakiej.

Zagadnienie teoretyczne (1) Wyprowad¹ wzór na estymator KMNK w modelu regresji wielorakiej. Minimalizacja sumy kwadratów reszt: N ei 2 i=1 = N i=1 (y i ˆα 0 ˆα 1 x 1i ˆα 2 x 2i... ˆα K x Ki ) 2 min ˆα 0, ˆα 1,...

Zagadnienie teoretyczne (1) Wyprowad¹ wzór na estymator KMNK w modelu regresji wielorakiej. Minimalizacja sumy kwadratów reszt: N ei 2 i=1 = N i=1 (y i ˆα 0 ˆα 1 x 1i ˆα 2 x 2i... ˆα K x Ki ) 2 min ˆα 0, ˆα 1,... lub w zapisie macierzowym: e T e = (y X ˆα) T (y X ˆα) min ˆα

e T e = (y X ˆα) T (y X ˆα) = y T y + ˆα T X T X ˆα y T X ˆα ˆα T X T y =...

e T e = (y X ˆα) T (y X ˆα) = y T y + ˆα T X T X ˆα y T X ˆα ˆα T X T y =... e T e jest wielko±ci skalarn poszczególne skªadniki sumy te» s skalarami je»eli a jest skalarem, to a T = a (y T X ˆα) T = y T X ˆα

e T e = (y X ˆα) T (y X ˆα) = y T y + ˆα T X T X ˆα y T X ˆα ˆα T X T y =... e T e jest wielko±ci skalarn poszczególne skªadniki sumy te» s skalarami je»eli a jest skalarem, to a T = a (y T X ˆα) T = y T X ˆα... = y T y 2y T X ˆα + ˆα T X T X ˆα min ˆα

Warunki pierwszego rz du : e T e ˆα = y T y ˆα 2 y T X ˆα ˆα + ˆαT X T X ˆα ˆα = 0

Warunki pierwszego rz du : e T e ˆα = y T y ˆα 2 y T X ˆα ˆα + ˆαT X T X ˆα ˆα = 0 Korzystaj c z wzorów na pochodne wyra»e«macierzowych wzgl dem wektorów: ax X = at X T AX X = (A + A T )X otrzymujemy:

Warunki pierwszego rz du : e T e ˆα = y T y ˆα 2 y T X ˆα ˆα + ˆαT X T X ˆα ˆα = 0 Korzystaj c z wzorów na pochodne wyra»e«macierzowych wzgl dem wektorów: ax X = at X T AX X = (A + A T )X otrzymujemy: y T X ˆα ˆα ˆα T X T X ˆα ˆα St d: = X T y = (X T X + (X T X ) T )ˆα = 2X T X ˆα 2X T y + 2X T X ˆα = 0/(X T X ) 1 ˆα = (X T X ) 1 X T y

Estymator KMNK (2) estymator KMNK jest funkcj zmiennych niezale»nych i zmiennej zale»nej, która jest zmienn losow, a wi c estymator te» jest zmienn losow o okre±lonym rozkªadzie (funkcj losowo dobranej próby) nieobci»ony i zgodny estymator macierzy wariancji-kowariancji estymatora KMNK: D 2 ( ˆα) = ˆσ 2 ( X T X ) 1 = ˆσ ˆα 0 cov ( ˆα 0, ˆα 1 ) cov ( ˆα 0, ˆα 2 ) cov ( ˆα 0, ˆα 1 ) ˆσ ˆα 1 cov ( ˆα 1, ˆα 2 ) cov ( ˆα 0, ˆα 2 ) cov ( ˆα 1, ˆα 2 ) ˆσ ˆα 2...... ˆσ ˆαk, gdzie ˆσ 2 oznacza nieobci»ony i zgodny estymator wariancji skªadnika losowego: T ˆσ 2 = 1 T (k+1) ε 2 t t=1

Zagadnienie teoretyczne (2) Wyprowad¹ wzór na macierz wariancji-kowariancji estymatora KMNK.

Zagadnienie teoretyczne (2) Wyprowad¹ wzór na macierz wariancji-kowariancji estymatora KMNK. ˆα = (X T X ) 1 X T y = (X T X ) 1 X T (X α + ε) = (X T X ) 1 X T X α + (X T X ) 1 X T ε = α + (X T X ) 1 X T ε

D 2 (ˆα) =D 2 (α + (X T X ) 1 X T ε) =

D 2 (ˆα) =D 2 (α + (X T X ) 1 X T ε) = D 2 ((X T X ) 1 X T ε) =

D 2 (ˆα) =D 2 (α + (X T X ) 1 X T ε) = D 2 ((X T X ) 1 X T ε) = E [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] T =

D 2 (ˆα) =D 2 (α + (X T X ) 1 X T ε) = D 2 ((X T X ) 1 X T ε) = E [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] T = E [ (X T X ) 1 X T ε (X T X ) 1 X T E(ε) ] [ (X T X ) 1 X T ε (X T X ) 1 X T E(ε) ] T =

D 2 (ˆα) =D 2 (α + (X T X ) 1 X T ε) = D 2 ((X T X ) 1 X T ε) = E [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] T = E [ (X T X ) 1 X T ε (X T X ) 1 X T E(ε) ] [ (X T X ) 1 X T ε (X T X ) 1 X T E(ε) ] T = E (X T X ) 1 X T ε (X T X ) 1 X T E(ε) (X T X ) 1 X T ε (X T X ) 1 X T E(ε) = }{{}}{{} 0 0 T

D 2 (ˆα) =D 2 (α + (X T X ) 1 X T ε) = D 2 ((X T X ) 1 X T ε) = E [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] T = E [ (X T X ) 1 X T ε (X T X ) 1 X T E(ε) ] [ (X T X ) 1 X T ε (X T X ) 1 X T E(ε) ] T = E (X T X ) 1 X T ε (X T X ) 1 X T E(ε) (X T X ) 1 X T ε (X T X ) 1 X T E(ε) }{{}}{{} 0 0 E [ (X T X ) 1 X T ε ] [ (X T X ) 1 X T ε ] T = T =

D 2 (ˆα) =D 2 (α + (X T X ) 1 X T ε) = D 2 ((X T X ) 1 X T ε) = E [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] T = E [ (X T X ) 1 X T ε (X T X ) 1 X T E(ε) ] [ (X T X ) 1 X T ε (X T X ) 1 X T E(ε) ] T = E (X T X ) 1 X T ε (X T X ) 1 X T E(ε) (X T X ) 1 X T ε (X T X ) 1 X T E(ε) }{{}}{{} 0 0 E [ (X T X ) 1 X T ε ] [ (X T X ) 1 X T ε ] T = E ( (X T X ) 1 X T εε T X (X T X ) 1) = T =

D 2 (ˆα) =D 2 (α + (X T X ) 1 X T ε) = D 2 ((X T X ) 1 X T ε) = E [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] T = E [ (X T X ) 1 X T ε (X T X ) 1 X T E(ε) ] [ (X T X ) 1 X T ε (X T X ) 1 X T E(ε) ] T = E (X T X ) 1 X T ε (X T X ) 1 X T E(ε) (X T X ) 1 X T ε (X T X ) 1 X T E(ε) }{{}}{{} 0 0 E [ (X T X ) 1 X T ε ] [ (X T X ) 1 X T ε ] T = E ( (X T X ) 1 X T εε T X (X T X ) 1) = (X T X ) 1 X T E ( εε T ) X (X T X ) 1 = T =

D 2 (ˆα) =D 2 (α + (X T X ) 1 X T ε) = D 2 ((X T X ) 1 X T ε) = E [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] T = E [ (X T X ) 1 X T ε (X T X ) 1 X T E(ε) ] [ (X T X ) 1 X T ε (X T X ) 1 X T E(ε) ] T = E (X T X ) 1 X T ε (X T X ) 1 X T E(ε) (X T X ) 1 X T ε (X T X ) 1 X T E(ε) }{{}}{{} 0 0 E [ (X T X ) 1 X T ε ] [ (X T X ) 1 X T ε ] T = E ( (X T X ) 1 X T εε T X (X T X ) 1) = (X T X ) 1 X T E ( εε T ) X (X T X ) 1 = (X T X ) 1 X T ( δ 2 I ) X (X T X ) 1 = T =

D 2 (ˆα) =D 2 (α + (X T X ) 1 X T ε) = D 2 ((X T X ) 1 X T ε) = E [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] T = E [ (X T X ) 1 X T ε (X T X ) 1 X T E(ε) ] [ (X T X ) 1 X T ε (X T X ) 1 X T E(ε) ] T = E (X T X ) 1 X T ε (X T X ) 1 X T E(ε) (X T X ) 1 X T ε (X T X ) 1 X T E(ε) }{{}}{{} 0 0 E [ (X T X ) 1 X T ε ] [ (X T X ) 1 X T ε ] T = E ( (X T X ) 1 X T εε T X (X T X ) 1) = (X T X ) 1 X T E ( εε T ) X (X T X ) 1 = (X T X ) 1 X T ( δ 2 I ) X (X T X ) 1 = δ 2 (X T X ) 1 X T X (X T X ) 1 = δ 2 (X T X ) 1 T =

Estymator KMNK (3) ˆσ = ˆσ 2 > bª d standardowy regresji interpretacja: o ile przeci tnie warto±ci empiryczne zmiennej obja±nianej ró»ni si od warto±ci teoretycznych ˆσ ˆαi = ˆσ 2ˆα i > bª d szacunku parametru interpretacja: gdyby±my mogli pobiera wiele prób, to o tyle ±rednio ró»niªyby si oszacowania parametrów od ich prawdziwych warto±ci

Po» dane wªasno±ci estymatorów Nieobci»ono± Zgodno± warto± oczekiwana estymatora równa jest prawdziwej warto±ci parametru zbie»no± stochastyczna do prawdziwej warto±ci parametru Efektywno± wraz ze zwi kszaniem próby zwi ksza si prawdopodobie«stwo otrzymania prawdziwej warto±ci parametru najmniejsza w danej klasie wariancja estymatora

Twierdzenie Gaussa-Markowa Je»eli speªnione s zaªo»enia twierdzenia, to estymator klasycznej metody najmniejszych kwadratów jest estymatorem zgodnym, nieobci»onym i najbardziej efektywnym w klasie estymatorów liniowych.

Zaªo»enia twierdzenia Gaussa-Markowa Zaªo»enia techniczne:»adna ze zmiennych nie jest liniow kombinacj pozostaªych zmiennych > macierz X ma peªen rz d kolumnowy liczba obserwacji jest wi ksza ni» liczba parametrów Zaªo»enia przyjmowane implicite: zmienne obja±niaj ce nieskorelowane ze skªadnikiem losowym warto± oczekiwana skªadnika losowego = 0 (zakªócenia maj tendencj do znoszenia si ) Zaªo»enia werykowane ex post (po estymacji): brak autokorelacji skªadnika losowego staªa wariancja skªadnika losowego (homoskedastyczno± ) (skªadnik losowy ma rozkªad normalny)

Peªen rz d kolumnowy macierzy X > jedna ze zmiennych jest kombinacj liniow innej zmiennej (dokªadna wspóªliniowo± ): y t = α 0 + α 1 x 1t +... + α i x it + α j x jt +... + α K x Kt + ε t x it = βx jt > macierz X ma niepeªny rz d kolumnowy (kolumny nie s liniowo niezale»ne) st d: macierz X T X jest osobliwa (nieodwracalna) st d: nie mo»na u»y estymatora KMNK (we wzorze mamy (X T X ) 1 ) > u»ycie estymatora KMNK mo»liwe po reparametryzacji: y t = α 0 + α 1 x 1t +... + x jt (α i β + α j ) +... + α K x Kt + ε t }{{} γ Ale: nie da si rozdzieli wpªywu x i i x j, tj. wyznaczy α i i α j

Skorelowanie zmiennych obja±niaj cych ze skªadnikiem losowym (1) Zaªo»enie o braku endogeniczno±ci w modelu jest przyjmowane implicite: zaªo»enia tego nie mo»na sprawdzi bezpo±rednio mo»na jedynie podejrzewa,»e istnieje ten problem na podstawie teorii ekonomii lub do±wiadczenia test po±redni: testowanie istotno±ci ró»nicy pomi dzy oszacowaniami modelu otrzymanymi za pomoc KMNK i za pomoc metody odpornej na endogeniczno± (metoda zmiennych instrumentalnych) np. test Hausmana Zªamanie zaªo»enia: niezgodno± estymatora KMNK

Skorelowanie zmiennych obja±niaj cych ze skªadnikiem losowym (2) Przykªad 1 pomini te zmienne w modelu Zaªó»my,»e pªaca danej osoby zale»y od poziomu jej wyksztaªcenia, wieku oraz zdolno±ci (proces generuj cy dane). Zdolno± jest zmienn nieobserwowaln nie mo»na umie±ci jej w modelu, wi c jej wpªyw na poziom pªacy odzwierciedlony jest w skªadniku losowym. Poziom wyksztaªcenia jest determinowany zdolno±ciami, a wi c istnieje korelacja mi dzy zmienn obja±niaj c (wyksztaªcenie) a skªadnikiem losowym (zawieraj cym wpªyw zdolno±ci na pªace) Przykªad 2 problem równoczesno±ci Mamy keynesowsk funkcj konsumpcji, w której bie» ca konsumpcja zale»y od bie» cego dochodu: C t = c 0 + cy t + ε t Z drugiej strony dochód (PKB od strony rozdysponowania) w gospodarce zamkni tej bez rz du jest sum konsumpcji i inwestycji: Y t = C t + I t W równaniu na dochód mamy konsumpcj, która jest funkcj skªadnika losowego ε t, wi c dochód jest równie» jego funkcj, co skutkuje endogeniczno±ci w równaniu konsumpcji.

Zagadnienie teoretyczne (3) Udowodnij,»e w przypadku speªnienia zaªo»e«tw. Gaussa-Markowa estymator KMNK jest nieobcia»ony.

Zagadnienie teoretyczne (3) Udowodnij,»e w przypadku speªnienia zaªo»e«tw. Gaussa-Markowa estymator KMNK jest nieobcia»ony. E(ˆα) = E(α + (X T X ) 1 X T ε) = α + (X T X ) 1 X T E(ε) = α }{{} 0

Zagadnienie teoretyczne (4) Udowodnij,»e w przypadku speªnienia zaªo»e«tw. Gaussa-Markowa estymator KMNK jest efektywny (najefektywniejszy w klasie estymatorów liniowych).

Zagadnienie teoretyczne (4) Udowodnij,»e w przypadku speªnienia zaªo»e«tw. Gaussa-Markowa estymator KMNK jest efektywny (najefektywniejszy w klasie estymatorów liniowych). ˆα dowolny estymator liniowy, taki»e ˆα = By (w przypadku KMNK B = (X T X ) 1 X T )

Zagadnienie teoretyczne (4) Udowodnij,»e w przypadku speªnienia zaªo»e«tw. Gaussa-Markowa estymator KMNK jest efektywny (najefektywniejszy w klasie estymatorów liniowych). ˆα dowolny estymator liniowy, taki»e ˆα = By (w przypadku KMNK B = (X T X ) 1 X T ) ˆα = By = B(X α + ε) = BX α + Bε

Zagadnienie teoretyczne (4) Udowodnij,»e w przypadku speªnienia zaªo»e«tw. Gaussa-Markowa estymator KMNK jest efektywny (najefektywniejszy w klasie estymatorów liniowych). ˆα dowolny estymator liniowy, taki»e ˆα = By (w przypadku KMNK B = (X T X ) 1 X T ) ˆα = By = B(X α + ε) = BX α + Bε D 2 (ˆα ) = D 2 (BX α + Bε)

Zagadnienie teoretyczne (4) Udowodnij,»e w przypadku speªnienia zaªo»e«tw. Gaussa-Markowa estymator KMNK jest efektywny (najefektywniejszy w klasie estymatorów liniowych). ˆα dowolny estymator liniowy, taki»e ˆα = By (w przypadku KMNK B = (X T X ) 1 X T ) ˆα = By = B(X α + ε) = BX α + Bε D 2 (ˆα ) = D 2 (BX α + Bε) - E (ˆα ) = BX α + BE(ε) = BX α je»eli estymator jest nieobci»ony E (ˆα ) = α, wi c BX α = α, st d BX = I -

D 2 (ˆα ) = D 2 ( }{{} BX α + Bε) = D 2 (α + Bε) = I

D 2 (ˆα ) = D 2 ( }{{} BX α + Bε) = D 2 (α + Bε) = I D 2 (Bε) = E Bε E (Bε) Bε E (Bε) = }{{}}{{} 0 0 T

D 2 (ˆα ) = D 2 ( }{{} BX α + Bε) = D 2 (α + Bε) = I D 2 (Bε) = E Bε E (Bε) Bε E (Bε) }{{}}{{} 0 0 E (Bε) (Bε) T = E ( Bεε T B T ) = BE ( εε T ) B T = Bδ 2 IB T = δ 2 BB T T =

D 2 (ˆα ) = D 2 ( }{{} BX α + Bε) = D 2 (α + Bε) = I D 2 (Bε) = E Bε E (Bε) Bε E (Bε) }{{}}{{} 0 0 E (Bε) (Bε) T = E ( Bεε T B T ) = BE ( εε T ) B T = Bδ 2 IB T = δ 2 BB T T = Zdeniujmy macierz C: C = B T X (X T X ) 1, st d B = C T + (X T X ) 1 X T

D 2 (ˆα ) = δ 2 BB T = δ 2 [ C T + (X T X ) 1 X T ] [ C T + (X T X ) 1 X T ] T =

D 2 (ˆα ) = δ 2 BB T = δ 2 [ C T + (X T X ) 1 X T ] [ C T + (X T X ) 1 X T ] T = δ 2 [ C T C + C T X (X T X ) 1 + (X T X ) 1 X T C + (X T X ) 1 X T X (X T X ) 1]

D 2 (ˆα ) = δ 2 BB T = δ 2 [ C T + (X T X ) 1 X T ] [ C T + (X T X ) 1 X T ] T = δ 2 [ C T C + C T X (X T X ) 1 + (X T X ) 1 X T C + (X T X ) 1 X T X (X T X ) 1] B = C T + (X T X ) 1 X T // X }{{} BX = C T X + (X T X ) 1 X T X }{{} I I C T X = I I = 0 - -

D 2 (ˆα ) = δ 2 BB T = δ 2 [ C T + (X T X ) 1 X T ] [ C T + (X T X ) 1 X T ] T = δ 2 [ C T C + C T X (X T X ) 1 + (X T X ) 1 X T C + (X T X ) 1 X T X (X T X ) 1] B = C T + (X T X ) 1 X T // X }{{} BX = C T X + (X T X ) 1 X T X }{{} I I C T X = I I = 0 - - D 2 (ˆα ) =δ 2 C T C + C }{{ T X } (X T X ) 1 + (X T X ) 1 X }{{ T C } + (X T X ) 1 X T X (X T X ) 1 = 0 0

D 2 (ˆα ) = δ 2 BB T = δ 2 [ C T + (X T X ) 1 X T ] [ C T + (X T X ) 1 X T ] T = δ 2 [ C T C + C T X (X T X ) 1 + (X T X ) 1 X T C + (X T X ) 1 X T X (X T X ) 1] B = C T + (X T X ) 1 X T // X }{{} BX = C T X + (X T X ) 1 X T X }{{} I I C T X = I I = 0 - - D 2 (ˆα ) =δ 2 C T C + C }{{ T X } (X T X ) 1 + (X T X ) 1 X }{{ T C } + (X T X ) 1 X T X (X T X ) 1 = 0 0 δ 2 (X T X ) 1 + δ 2 C T C = D 2 (ˆα KMNK ) + δ 2 C T C

D 2 (ˆα ) = δ 2 BB T = δ 2 [ C T + (X T X ) 1 X T ] [ C T + (X T X ) 1 X T ] T = δ 2 [ C T C + C T X (X T X ) 1 + (X T X ) 1 X T C + (X T X ) 1 X T X (X T X ) 1] B = C T + (X T X ) 1 X T // X }{{} BX = C T X + (X T X ) 1 X T X }{{} I I C T X = I I = 0 - - D 2 (ˆα ) =δ 2 C T C + C }{{ T X } (X T X ) 1 + (X T X ) 1 X }{{ T C } + (X T X ) 1 X T X (X T X ) 1 = 0 0 δ 2 (X T X ) 1 + δ 2 C T C = D 2 (ˆα KMNK ) + δ 2 C T C C T C póªdodatnio okre±lona, wi c D 2 (ˆα ) = D 2 (ˆα KMNK ) + δ 2 C T C > D 2 (ˆα KMNK )

Zadanie 1 Dany jest model postaci: y t = α 0 + α 1 x t + ε t Wiemy,»e: T t=1 x 2 t = 1520, T t=1 x t = 104, T t=1 x ty t = 162400, y = 1400, detx T X = 1344. Oszacuj parametry strukturalne modelu za pomoc KMNK.

Estymacja przedziaªowa (1) y t = f (ε t) > y t jest zmienn losow o rozkªadzie normalnym ˆα = f (y t) > ˆα jest zmienn losow o rozkªadzie normalnym o warto±ci oczekiwanej α i wariancji σ 2ˆα i st d ˆα i α i σ ˆαi jest zmienn losow o rozkªadzie normalnym standaryzowanym (N(0, 1)) nie znamy prawdziwej warto±ci σ ˆαi > ˆσ ˆαi st d ˆα i α i ˆσ ˆαi jest zmienn losow o rozkªadzie t-studenta z ss = T (k + 1)

Estymacja przedziaªowa (2) ˆα i α i ˆσ ˆαi t T (k+1) ( ) P t T (k+1), α ˆα i α i 2 ˆσ ˆαi t T (k+1), α = 1 α 2 ( ) P ˆα i ˆσ ˆαi t T (k+1), α α i ˆα i + ˆσ ˆαi t 2 T (k+1), α = 1 α 2 [ ] ˆα i ˆσ ˆαi t T (k+1), α ; ˆα i + ˆσ ˆαi t 2 T (k+1), α 2 1 α przedziaª ufno±ci > przedziaª, który z prawdopodobie«stwem 1 α pokrywa prawdziw warto± parametru (α i ) poziom ufno±ci > prawdopodobie«stwo tego,»e przedziaª ufno±ci pokrywa prawdziw warto± parametru

Zadanie 2 Dokonano przy pomocy MNK estymacji parametrów modelu y i = α 0 + α 1x i + ε i. Wiedz c,»e skªadniki losowe s niezale»ne i maj rozkªad normalny o jednakowej wariancji, a tak»e wiedz c»e: P(2 α 0 10) = 0, 95 P(α 0 2) = 0, 975 ȳ = 2 X T X = [ 50 200 200 1000 znajd¹ oszacowanie parametrów modelu. ] [Podpowied¹: w KMRL mamy ˆα 0 = ȳ ˆα 1 x]

MNK przy warunkach ograniczaj cych (1) T et 2 t=1 = T t=1 KMNK: ( y t ˆβ 0 ˆβ 1 x 1,t ˆβ 2 x 2,t... ˆβ ) 2 k x k,t min ˆβ 0, ˆβ 1,... T et 2 t=1 MNK przy warunkach ograniczaj cych: = T ( y t ˆβ 0 ˆβ 1 x 1,t ˆβ 2 x 2,t... ˆβ ) 2 k x k,t t=1 p.w. f (β o, β 1,...) = 0 min ˆβ 0, ˆβ 1,...

MNK przy warunkach ograniczaj cych (2) Je»eli warunki ograniczaj ce f (β o, β 1,...) = 0 maj charakter równa«liniowych, to mo»emy je zapisa w nast puj cy sposób: r 11 β 0 + r 12 β 1 +... + r 1k β k = q 1 r 21 β 0 + r 22 β 1 +... + r 2k β k = q 2. r m1 β 0 } + r m2 β 1 +... {{ + r mk β k = q m } Rβ=q Przykªadowo, w modelu z czterema zmiennymi obja±niaj cymi chcemy naªo»y dwie restrykcje: β 1 = β 2 i β 3 = 1: β 0 [ ] 0 1 1 0 0 β 1 [ ] 0 0 0 1 0 β 2 0 β 3 = 1 β 4

MNK przy warunkach ograniczaj cych (2) Wówczas rozwi zanie zadania optymalizacyjnego przy warunkach ograniczaj cych prowadzi do nast puj cej postaci estymatora: ˆβ RLS = ˆβ OLS ( X T X ) 1 R T [ ( ) ] R X T 1 1 ( ) X R T R ˆβ OLS q Testowanie zasadno±ci naªo»onych restrykcji: Test Walda H 0 : Rβ = q (dane empiryczne potwierdzaj zasadno± naªo»onych restrykcji) H 1 : Rβ q Statystyka testowa: F = (RRSS URSS)/m URSS/(T k 1) ~ F m,t k 1, gdzie: RRSS suma kwadratów reszt w modelu z ograniczeniami URSS w modelu bez ogranicze«.

Zadanie 3 Na parametry modelu y t = α 0 + α 1 x 1t + α 2 x 2t + α 3 x 3t + ε t naªo»ono nast puj ce restrykcje: α 0 = 0 α 1 = α 2 α 2 + α 3 = 1 Zapisz restrykcje w postaci macierzowej. Model z ograniczeniami i bez ogranicze«estymowano za pomoc MNK na 29-elementowej próbie. Otrzymano sum kwadratów reszt odpowiednio 20 i 10. Zwerykuj zasadno± naªo»onych restrykcji.

Plan wicze«klasyczny model regresji liniowej Metoda najmniejszych kwadratów Twierdzenie Gaussa-Markowa Estymacja przedziaªowa Estymator MNK przy warunkach ograniczaj cych Klasyczny model regresji liniowej diagnostyka Istotno± zmiennych obja±niaj cych Dopasowania modelu do danych empirycznych Autokorelacja skªadnika losowego Heteroskedastyczno± skªadnika losowego

Istotno± zmiennych obja±niaj cych (1) Czy wpªyw danej zmiennej obja±niaj cej na zmienn obja±nian jest istotny? Czy parametr strukturalny modelu jest istotnie ró»ny od zera? Test t-studenta Test istotno±ci pojedynczych zmiennych H 0 : α i = 0 H 1 : α i 0 Statystyka testowa: t = Testowanie hipotez: H 0 : α i = α 0 i H 1 : α i α 0 i ˆα i ˆσ ˆαi ~ t n k 1 Statystyka testowa: t = ˆα i α 0 i ˆσ ˆαi ~ t n k 1. uwaga: rozkªad statystyki testowej pod warunkiem prawdziwo±ci H 0 oraz normalno±ci skªadnika losowego!

Dekompozycja wariancji zmiennej obja±nianej y t = ŷ t + e t // ȳ mo»na udowodni,»e ȳ = ŷ y t ȳ = ŷ t ŷ + e t y t ȳ = ŷ t ȳ + e t

Wspóªczynnik determinacji (1) Zmienno± zmiennej obja±nianej w modelu ze staª mo»na zdekomponowa na dwie skªadowe: zmienno± wyja±nian przez model (czyli przez zmienno± zmiennych obja±niaj cych) zmienno± nie wyja±nian przez model D 2 (y t) = D 2 (ŷ t) + D 2 (ε t) T (y t ȳ) 2 = t=1 } {{ } TSS T (ŷt ŷ ) T 2 + (y t ŷ t) 2 t=1 } {{ } ESS t=1 } {{ } RSS TSS Total Sums od Squares (caªkowita zmienno± zmiennej obja±nianej) ESS Explained Sums of Squares (zmienno± wyja±niana przez model) RSS Residuals Sums of Squars (zmienno± nie wyja±niana przez model)

Wspóªczynnik determinacji (2) R 2 = ESS TSS = 1 RSS TSS okre±la jako± dopasowania modelu do danych empirycznych (dopasowanie do danych empirycznych hiperpªaszczyzny dla przestrzeni dwuwymiarowej jest to po prostu prosta rozpinanej za pomoc wektora oszacowa«parametrów) nale»y do przedziaªu [0;1] i jest interpretowalny tylko dla modelu liniowego, z wyrazem wolnym i oszacowanego KMNK R 2 = 1 wszystkie obserwacje zmiennej obja±nianej le» na hiperpªaszczy¹nie (linii regresji) R 2 = 0 model w ogóle nie odzwierciedla zmienno±ci zmiennej obja±nianej wspóªczynniki przy wszystkich regresorach nieistotnie ró»ne od 0, za± wyraz wolny równy ±redniej regresanta > linia regresji równolegªa do osi OX

Skorygowany wspóªczynnik determinacji generalnie im wy»szy wspóªczynnik determinacji, tym lepiej, ale jego warto± jest niemalej c funkcj liczby zmiennych w modelu dlatego: ró»ne modele mo»na porównywa na podstawie R 2 tylko, je±li maj t sam liczb zmiennych obja±niaj cych (i t sam zmienn obja±nian ) st d: powszechnie stosowany jest skorygowany wspóªczynnik determinacji: R 2 = }{{} R 2 k ( ) 1 R 2 T (k + 1) dopasowanie }{{} kara za nadmiar parametrów R 2 R 2 umo»liwia porównywanie modeli o ró»nej liczbie regresorów ale: jest wielko±ci nieunormowan (przyjmuje warto±ci z przedziaªu ( ; 1]) ale: nie ma interpretacji jako cz ±ci zmienno±ci regresanta wyja±nianej przez model

Wspóªczynnik determinacji podsumowanie wewn trzpróbowe kryterium oceny modelu nie przes dza o wªasno±ciach prognostycznych modelu porównanie modeli na podstawie warto±ci wspóªczynnika determinacji tylko je±li ta sama zmienna obja±niana tylko je±li ta sama liczba regresorów > chyba»e wspóªczynnik skorygowany generalnie im wy»sza warto± wspóªczynnika, tym lepsze dopasowanie modelu do danych ale: problem regresji pozornej w przypadku szeregów czasowych nie istnieje warto± referencyjna w przypadku maªej liczby obserwacji > wspóªczynnik skorygowany

Istotno± zmiennych obja±niaj cych (2) Test F Test ª cznej istotno±ci zmiennych H 0 : β 1 = β 2 =...β k = 0 H 1 : i β i 0 Statystyka testowa: F = R2 T k 1 1 R 2 k ~F k,t k 1 uwaga: inaczej test istotno±ci wspóªczynnika determinacji

Kryteria informacyjne przy ocenie modelu bior pod uwag dwa czynniki: na ile dobrze model jest dopasowany do danych liczb zmiennych obja±niaj cych AIC = ln 1 T SIC = ln 1 T T t=1 T t=1 e 2 t + 2k T e 2 t + k ln(t ) T wybieramy model o najni»szej warto±ci kryterium kara za nadmiar parametrów: SIC > AIC > R 2

Zadanie 4 W wyniku estymacji parametrów modelu postaci y t = α 0 + α 1x 1t + α 2x 2t + ε t otrzymano nast puj ce wyniki cz stkowe: 61 35 5 (X T X ) 1 = 1 35 25 5 60 5 5 25 T t=1 yt = 30 T t=1 x1tyt = 49 T t=1 x2tyt = 11 T t=1 y 2 t = 110 T t=1 ê2 t = 4 suma stopni swobody =7 Oszacuj parametry strukturalne modelu. Czy zmienne obja±niaj ce maj istotny wpªyw na zmienn obja±nian? Oblicz wspóªczynnik determinacji.

Plan wicze«klasyczny model regresji liniowej Metoda najmniejszych kwadratów Twierdzenie Gaussa-Markowa Estymacja przedziaªowa Estymator MNK przy warunkach ograniczaj cych Klasyczny model regresji liniowej diagnostyka Istotno± zmiennych obja±niaj cych Dopasowania modelu do danych empirycznych Autokorelacja skªadnika losowego Heteroskedastyczno± skªadnika losowego

Sferyczny skªadnik losowy Sferyczny skªadnik losowy: diagonalna macierz wariancji-kowariancji skªadnika losowego staªa wariancja (homoskedastyczno± ) brak korelacji mi dzy skªadnikami losowymi z ró»nych okresów (brak autokorelacji) D 2 (ε t) = var (ε 1 ) cov (ε 1, ε 2 ) cov (ε 1, ε T ) cov (ε 1, ε 2 ) var (ε 2 ) cov (ε 2, ε T )..... cov (ε 1, ε T ) cov (ε 2, ε T ) var (ε T ) σ 2 0 0 1 0 0 0 σ 2 0 0 1 0..... = σ2..... 0 0 σ 2 0 0 1 =

Autokorelacja skªadnika losowego D 2 (ε t ) = σ 2 var (ε 1 ) cov (ε 1, ε 2 ) cov (ε 1, ε T ) cov (ε 1, ε 2 ) var (ε 2 ) cov (ε 2, ε T )..... cov (ε 1, ε T ) cov (ε 2, ε T ) var (ε T ) 1 ρ 1 ρ 2 ρ 3 ρ T 1 ρ 1 1 ρ 1 ρ 2 ρ T 2 ρ 2 ρ 1 1 ρ 1 ρ T 3..... ρ T 1 ρ T 2 ρ T 3 ρ T 4 1 = = Ω = σ 2 V

Zagadnienie teoretyczne (5) Wyprowad¹ macierz wariancji-kowariancji skªadnika losowego w przypadku wyst powania autokorelacji rz du I: ε t = ρε t 1 + η t (η t iid).

Zagadnienie teoretyczne (5) Wyprowad¹ macierz wariancji-kowariancji skªadnika losowego w przypadku wyst powania autokorelacji rz du I: ε t = ρε t 1 + η t (η t iid). cov(ε t, ε t 1 ) = cov(ρε t 1 + η t, ε t 1 )

Zagadnienie teoretyczne (5) Wyprowad¹ macierz wariancji-kowariancji skªadnika losowego w przypadku wyst powania autokorelacji rz du I: ε t = ρε t 1 + η t (η t iid). cov(ε t, ε t 1 ) = cov(ρε t 1 + η t, ε t 1 ) cov(x, Y ) = E(X Y ) E(X )E(Y ) -

Zagadnienie teoretyczne (5) Wyprowad¹ macierz wariancji-kowariancji skªadnika losowego w przypadku wyst powania autokorelacji rz du I: ε t = ρε t 1 + η t (η t iid). cov(ε t, ε t 1 ) = cov(ρε t 1 + η t, ε t 1 ) cov(x, Y ) = E(X Y ) E(X )E(Y ) cov(ε t, ε t 1 ) = E((ρε t 1 + η t )ε t 1 ) E(ε t ) E(ε }{{} t 1 ) = }{{} 0 0

Zagadnienie teoretyczne (5) Wyprowad¹ macierz wariancji-kowariancji skªadnika losowego w przypadku wyst powania autokorelacji rz du I: ε t = ρε t 1 + η t (η t iid). cov(ε t, ε t 1 ) = cov(ρε t 1 + η t, ε t 1 ) cov(x, Y ) = E(X Y ) E(X )E(Y ) cov(ε t, ε t 1 ) = E((ρε t 1 + η t )ε t 1 ) E(ε t ) E(ε }{{} t 1 ) = }{{} E(ρε t 1 ε t 1 + η t ε t 1 ) = ρe(ε t 1 ε t 1 ) + E(η t ) E(ε }{{} t 1 ) = ρσ 2 }{{} 0 0 0 0

Analogicznie: cov(ε t, ε t 2) = cov(ρ(ρε t 2 + η t 1) + η t, ε t 2) = ρ 2 σ 2 itd. St d macierz wariancji-kowariancji skªadnika losowego w przypadku wyst powania autokorelacji rz du I: D 2 (ε t) = σ 2 1 ρ ρ 2 ρ 3 ρ T 1 ρ 1 ρ ρ 2 ρ T 2 ρ 2 ρ 1 ρ ρ T 3..... ρ T 1 ρ T 2 ρ T 3 ρ T 4 1

Przyczyny autokorelacji skªadnika losowego natura danego procesu gospodarczego skutki wielu zjawisk rozci gaj si na wiele okresów > tzw. inercyjno± procesów gospodarczych (autokorelacja dodatnia) na obecne decyzje (konsumpcyjne, inwestycyjne) wpªywaj decyzje z przeszªo±ci (autokorelacja dodatnia lub ujemna) bª dna specykacja modelu brak uwzgl dnienia lub niewystarczaj ce uwzgl dnienie dynamiki w modelu (brak / niewystarczaj ca liczba zmiennych opó¹nionych) pomini cie wa»nej zmiennej obja±niaj cej niepoprawna posta funkcyjna modelu (np. aproksymacja cyklu funkcj liniow )

Brak autokorelacji na podstawie realizacji skªadnika losowego z okresu t nie jeste±my w stanie okre±li znaku realizacji skªadnika losowego w okresie t+1

Autokorelacja dodatnia je±li w okresie t realizacja skªadnika losowego byªa dodatnia, to prawdopodobie«stwo tego,»e w kolejnym okresie b dzie równie» dodatnia jest wi ksza od tego,»e b dzie ujemna wykres reszt znacznie rzadziej przecina o± odci tych ni» w przypadku braku autokorelacji > dªugie serie reszt o tych samych znakach

Autokorelacja ujemna wi ksze ni» w przypadku braku autokorelacji prawdopodobie«stwo zmiany znaku przez realizacj skªadnika losowego w kolejnym okresie wykres reszt cz ±ciej przecina o± odci tych

Zadanie 5 Wygeneruj w arkuszu kalkulacyjnym szeregi skªadnika losowego: (1) biaªoszumowego, (2) podlegaj cego procesowi autokorelacji (a) dodatniej, (b) ujemnej.

Testowanie autokorelacji (1) Test Durbina-Watsona H 0 : ρ = 0 (skªadnik losowy nie wykazuje autokorelacji pierwszego rz du) H 1 : ρ 0 (skªadnik losowy wykazuje autokorelacj pierwszego rz du) DW = T (e t e t 1) 2 t=2 T et 2 t=1 2 (1 ˆρ), gdzie ˆρ oszacowany wspóªczynnik autokorelacji rz du pierwszego (mi dzy e t i e t 1 )

Testowanie autokorelacji (2) Test Durbina-Watsona: pozwala wyª cznie na sprawdzenie, czy skªadnik losowy podlega autokorelacji pierwszego rz du niemo»liwe jest testowanie autokorelacji wy»szego rz du mo»na go stosowa wyª cznie w przypadku modeli z wyrazem wolnym, bez opó¹nionej zmiennej obja±nianej oraz o normalnym rozkªadzie skªadnika losowego nie zawsze prowadzi do uzyskania jednoznacznego wyniku obszar nieokre±lono±ci (niekonkluzywno±ci)

Testowanie autokorelacji (3) W przypadku modelu autoregresyjnego: Test h-durbina H 0 : skªadnik losowy nie wykazuje autokorelacji pierwszego rz du H 1 : skªadnik losowy wykazuje autokorelacj pierwszego rz du h = ( ) 1 DW N (0, 1), 2 T 1 T Var( ˆβ y(t 1))) gdzie ^β y(t 1) oznacza oszacowanie parametru przy opó¹nionej zmiennej zale»nej

Testowanie autokorelacji (4) Test Breuscha-Godfreya - pozwala na testowanie autokorelacji rz du P - ale: test asymptotyczny (dedykowany dla du»ych prób) Idea: - szacujemy wyj±ciowe równanie przy pomocy KMNK i wyznaczamy reszty - szacujemy równanie, w którym szereg reszt jest funkcj zmiennych obja±niaj cych w wyj±ciowym modelu i P opó¹nie«reszt - testujemy hipotez o ª cznej nieistotno±ci P opó¹nie«reszt Ukªad hipotez: H 0 : β k+1 = β k+2 =... = β k+p = 0 (brak autokorelacji do rz du P wª cznie) H 1 : i β i 0, gdzie i = k + 1,..., k + P Regresja pomocnicza testu: ˆε t = xtβ + β k+1 ˆε t 1 + β k+2 ˆε t 2 +... + β k+p ˆε t P Statystyka testowa: LM = (T P)R 2 e χ2 P

Zadanie 6 Estymacja KMNK pewnego modelu daªa nast puj ce wyniki: ŷ t = 1, 54 + 0, 50x t 0, 16y t 1 2, 347.. (X T X ) 1 =. 0, 074... 0, 066 ˆσ 2 = 0, 79 D W = 1, 85 T = 15 Zwerykuj hipotez,»e skªadnik losowy podlega procesowi autokorelacji pierwszego rz du. Badacz postanowiª przetestowa hipotez o wy»szych rz dach autokorelacji za pomoc testu Breuscha-Godfrey'a. Za pomoca KMNK otrzymano oszacowania regresji pomocniczej testu: ê t = 1, 46 + 0, 49x t 0, 17y t 1 + 0, 17e t 1 + 0, 02e t 2 0, 31e t 3 Wspóªczynnik determinacji regresji testowej wyniósª 0,313. Dokonaj werykacji hipotezy.

Konsekwencje autokorelacji skªadnika losowego Je±li model nie jest autoregresyjny: estymator parametrów nieobci»ony, ale nieefektywny estymator wariancji skªadnika losowego obci»ony estymator wariancji estymatora parametrów niezgodny (w przypadku autokorelacji dodatniej bª dy standardowe s zani»one) problem przy wnioskowaniu statystycznym Je±li model jest autoregresyjny: estymator parametrów niezgodny bo wyst puje endogeniczno± w modelu zmienna obja±niaj ca skorelowana ze skªadnikiem losowym

Zagadnienie teoretyczne (6) Wyprowad¹ macierz wariancji-kowariancji estymatora KMNK w przypadku wyst powania autokorelacji skªadnika losowego. D 2 (ˆα) =D 2 (α + (X T X ) 1 X T ε) =

Zagadnienie teoretyczne (6) Wyprowad¹ macierz wariancji-kowariancji estymatora KMNK w przypadku wyst powania autokorelacji skªadnika losowego. D 2 (ˆα) =D 2 (α + (X T X ) 1 X T ε) = D 2 ((X T X ) 1 X T ε) =

Zagadnienie teoretyczne (6) Wyprowad¹ macierz wariancji-kowariancji estymatora KMNK w przypadku wyst powania autokorelacji skªadnika losowego. D 2 (ˆα) =D 2 (α + (X T X ) 1 X T ε) = D 2 ((X T X ) 1 X T ε) = E [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] T =

Zagadnienie teoretyczne (6) Wyprowad¹ macierz wariancji-kowariancji estymatora KMNK w przypadku wyst powania autokorelacji skªadnika losowego. D 2 (ˆα) =D 2 (α + (X T X ) 1 X T ε) = D 2 ((X T X ) 1 X T ε) = E [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] T = E [ (X T X ) 1 X T ε ] [ (X T X ) 1 X T ε ] T =

Zagadnienie teoretyczne (6) Wyprowad¹ macierz wariancji-kowariancji estymatora KMNK w przypadku wyst powania autokorelacji skªadnika losowego. D 2 (ˆα) =D 2 (α + (X T X ) 1 X T ε) = D 2 ((X T X ) 1 X T ε) = E [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] T = E [ (X T X ) 1 X T ε ] [ (X T X ) 1 X T ε ] T = E ( (X T X ) 1 X T εε T X (X T X ) 1) =

Zagadnienie teoretyczne (6) Wyprowad¹ macierz wariancji-kowariancji estymatora KMNK w przypadku wyst powania autokorelacji skªadnika losowego. D 2 (ˆα) =D 2 (α + (X T X ) 1 X T ε) = D 2 ((X T X ) 1 X T ε) = E [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] T = E [ (X T X ) 1 X T ε ] [ (X T X ) 1 X T ε ] T = E ( (X T X ) 1 X T εε T X (X T X ) 1) = (X T X ) 1 X T E ( εε T ) X (X T X ) 1 =

Zagadnienie teoretyczne (6) Wyprowad¹ macierz wariancji-kowariancji estymatora KMNK w przypadku wyst powania autokorelacji skªadnika losowego. D 2 (ˆα) =D 2 (α + (X T X ) 1 X T ε) = D 2 ((X T X ) 1 X T ε) = E [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] [ (X T X ) 1 X T ε E ( (X T X ) 1 X T ε )] T = E [ (X T X ) 1 X T ε ] [ (X T X ) 1 X T ε ] T = E ( (X T X ) 1 X T εε T X (X T X ) 1) = (X T X ) 1 X T E ( εε T ) X (X T X ) 1 = (X T X ) 1 X T ΩX (X T X ) 1 δ 2 (X T X ) 1

Post powanie w przypadku w przypadku wykrycia autokorelacji skªadnika losowego

Post powanie w przypadku w przypadku wykrycia autokorelacji skªadnika losowego Zastosowanie specjalnych metod estymacji: uogólniona metoda najmniejszych kwadratów (UMNK) zastosowanie estymatorów bª dów standardowych odpornych na autokorelacj skªadnika losowego

Post powanie w przypadku w przypadku wykrycia autokorelacji skªadnika losowego Zastosowanie specjalnych metod estymacji: uogólniona metoda najmniejszych kwadratów (UMNK) zastosowanie estymatorów bª dów standardowych odpornych na autokorelacj skªadnika losowego > podej±cie autokorelacyjne

Post powanie w przypadku w przypadku wykrycia autokorelacji skªadnika losowego Zastosowanie specjalnych metod estymacji: uogólniona metoda najmniejszych kwadratów (UMNK) zastosowanie estymatorów bª dów standardowych odpornych na autokorelacj skªadnika losowego > podej±cie autokorelacyjne Ale w przypadku, gdy autokorelacja wynika z bª dnej specykacji modelu (brak dynamizacji modelu): specjalne metody prowadz do wyników poprawnych statystycznie, lecz niepoprawnych merytorycznie nale»y wyeliminowa przyczyn autokorelacji, czyli zdynamizowa model

Post powanie w przypadku w przypadku wykrycia autokorelacji skªadnika losowego Zastosowanie specjalnych metod estymacji: uogólniona metoda najmniejszych kwadratów (UMNK) zastosowanie estymatorów bª dów standardowych odpornych na autokorelacj skªadnika losowego > podej±cie autokorelacyjne Ale w przypadku, gdy autokorelacja wynika z bª dnej specykacji modelu (brak dynamizacji modelu): specjalne metody prowadz do wyników poprawnych statystycznie, lecz niepoprawnych merytorycznie nale»y wyeliminowa przyczyn autokorelacji, czyli zdynamizowa model > podej±cie respecykacyjne

Estymator UMNK wyprowadzenie (1) Mamy model regresji liniowej ze skªadnikiem losowym podlegaj cym autokorelacji: y = X α + ε D 2 (ε) = Ω = σ 2 V Dla dowolnej dodatnio okre±lonej symetrycznej macierzy A mo»na znale¹ tak nieosobliw macierz L,»e: LAL T = I A = (L 1 )(L 1 ) T A 1 = L T L

Estymator UMNK wyprowadzenie (2) V dodatnio okre±lona i symetryczna >V 1 = L T L Pomnó»my obustronnie model przez L: y = X α + ε/ L Ly = LX α + Lε y = X α + ε Wyprowad¹my wzór na macierz wariancji-kowariancji skªadnika losowego przetransformowanego modelu: [ ] D 2 (ε ) = D 2 (Lε) = E (Lε E(Lε)) (Lε E(Lε)) T = T E Lε LE(ε) ) Lε LE(ε) = E }{{}}{{} 0 0 LE ( εε T ) L T = Lσ 2 VL T = σ 2 LVL T = σ 2 L(L 1 )(L 1 ) T L T = σ 2 I [ (Lε) (Lε) T ] =

Estymator UMNK wyprowadzenie (3) Estymator UMNK (Aitkena) to estymator KMNK zastosowany do przeksztaªconego modelu: ˆα UMNK = (X T X ) 1 X T y = ((LX ) T (LX )) 1 (LX ) T (Ly) = ( X T L T LX ) 1 X T L T Ly = ( X T V 1 X ) 1 X T V 1 y

Analiza COMFAC punkt wyj±cia: model dynamiczny ze sferycznym skªadnikiem losowym, np. ADL(1,1,1): y t = α 1 y t 1 + β 0 x t + β 1 x t 1 + ε t testujemy restrykcj wspólnego ) czynnika, (1 α 1 L) y t = β 0 (1 + β 1 β 0 L x t + ε t hipoteza zerowa H 0 : α 1 β 0 = β 1 nie ma podstaw do odrzucenia H 0 > model statyczny ze skªadnikiem losowym AR(1) + UMNK odrzucamy H 0 na rzecz H 1 > model ADL

Plan wicze«klasyczny model regresji liniowej Metoda najmniejszych kwadratów Twierdzenie Gaussa-Markowa Estymacja przedziaªowa Estymator MNK przy warunkach ograniczaj cych Klasyczny model regresji liniowej diagnostyka Istotno± zmiennych obja±niaj cych Dopasowania modelu do danych empirycznych Autokorelacja skªadnika losowego Heteroskedastyczno± skªadnika losowego

Sferyczny skªadnik losowy Sferyczny skªadnik losowy: diagonalna macierz wariancji-kowariancji skªadnika losowego staªa wariancja (homoskedastyczno± ) brak korelacji mi dzy skªadnikami losowymi z ró»nych okresów (brak autokorelacji) D 2 (ε t) = var (ε 1 ) cov (ε 1, ε 2 ) cov (ε 1, ε T ) cov (ε 1, ε 2 ) var (ε 2 ) cov (ε 2, ε T )..... cov (ε 1, ε T ) cov (ε 2, ε T ) var (ε T ) σ 2 0 0 1 0 0 0 σ 2 0 0 1 0..... = σ2..... 0 0 σ 2 0 0 1 =

Heteroskedastyczno± skªadnika losowego Wyst powanie heteroskedastyczno±ci oznacza, i» wariancja skªadnika losowego nie jest staªa dla poszczególnych jednostek lub w poszczególnych okresach: D 2 (ε t) = var (ε 1) cov (ε 1, ε 2) cov (ε 1, ε T ) cov (ε 1, ε 2) var (ε 2) cov (ε 2, ε T )..... cov (ε 1, ε T ) cov (ε 2, ε T ) var (ε T ) ω 1 0 0 σ 2 0 ω 2 0..... = σ2 V 0 0 ω T =

Przyczyny heteroskedastyczno±ci pomini cie wa»nej zmiennej obja±niaj cej bª dna posta funkcyjna modelu natura procesu przykªad dla danych przekrojowych: wydatki konsumpcyjne biednych i bogatych przykªad dla szeregów czasowych: okresy wi kszej i mniejszej zmienno±ci na rynkach nansowych (grupowanie si wariancji)

Konsekwencje heteroskedastyczno±ci Estymator parametrów jest nieobci»ony i zgodny, ale nieefektywny Estymator wariancji skªadnika losowego (i co za tym idzie wariancji estymatora KMNK) niezgodny bª dne wnioski z werykacji hipotez

Testowanie heteroskedastyczno±ci (1) Test Goldfelda-Quandta Zaªo»enie: wariancja bª du losowego zale»y monotonicznie od pewnej zmiennej Z sortujemy obserwacje wg zmiennej Z dzielimy obserwacje na dwie grupy (usuwamy ±rodkowe 1/3 obserwacji) szacujemy model oddzielnie w obu podpróbach Ukªad hipotez: H 0 : σ 2 1 = σ 2 2 tzn. wariancja jest równa w obu podpróbach (homoskedastyczno± ) H 1 : σ 2 1 > σ 2 2 tzn. wariancja jest wy»sza w podpróbie indeksowanej jako 1 Statystyka testowa: F = σ2 1 σ2 2 F n1 k, n 2 k test ma sens tylko wtedy, gdy jako 1 indeksujemy podprób o wy»szej wariancji.

Testowanie heteroskedastyczno±ci (2) Test Breuscha-Pagana Zaªo»enie: wariancja skªadnika losowego zale»y od wektora zmiennych Z=[Z1, Z2,..., Zk] Wektor Z mo»e zawiera zmienne zawarte w modelu lub nie Ukªad hipotez: H 0 : var(ε i ) =: σ H 1 : var(ε i ) = σ 2 i = f (Z 1,Z 2,..., Z k ) Regresja pomocnicza testu: e 2 i = α 0 + α 1Z 1 + α 2Z 2 +... + α k Z k + ϑ t Statystyka testowa: LM = NR 2 e χ 2 k

Testowanie heteroskedastyczno±ci (3) Test White'a pewna modykacja testu Breuscha-Pagana test objawowy sªu»y do wykrywania heteroskedastyczno±ci, a nie do identykacji zmiennych za ni odpowiedzialnych Ukªad hipotez: H 0 : var(ε i ) =: σ H 1 : var(ε i ) = σ 2 i = f (X ) Regresja pomocnicza testu: e 2 i = α 0 + α i,j x i,t x j,t + ϑ t i,j Statystyka testowa: LM = NR 2 e χ 2 k k liczba zmiennych obja±niaj cych w regresji testowej (bez staªej)

Post powanie w przypadku w przypadku wykrycia heteroskedastyczno±ci skªadnika losowego je±li wiemy, jaka zmienna odpowiada za heteroskedastyczno±, mo»emy podzieli obustronnie równanie regresji przez t zmienn zbudowa model na logarytmach zmiennych zamiast na poziomach przej± na wielko±ci per capita zastosowa estymator wa»onej metody najmniejszych kwadratów (WMNK) skorygowa macierz wariancji-kowariancji estymatorów