Stacjonarność Integracja. Integracja. Integracja

Podobne dokumenty
Ekonometria. Modelowanie szeregów czasowych. Stacjonarność. Testy pierwiastka jednostkowego. Modele ARDL. Kointegracja. Jakub Mućk

Przyczynowość Kointegracja. Kointegracja. Kointegracja

O sezonowości mówimy wtedy, gdy zmienna zmienia się w pewnym cyklu zwykle zwiazanym z cyklem rocznym

1 Modele ADL - interpretacja współczynników

Wprowadzenie Model ARMA Sezonowość Prognozowanie Model regresji z błędami ARMA. Modele ARMA

Modele warunkowej heteroscedastyczności

Stanisław Cichocki. Natalia Nehrebecka. Zajęcia 15-16

Ekonometria. Modelowanie szeregów czasowych. Stacjonarność. Testy pierwiastka jednostkowego. Modele ARDL. Kointegracja. Jakub Mućk

Ekonometria Wykład 5. Procesy stochastyczne, stacjonarność, integracja. Dr Michał Gradzewicz Katedra Ekonomii I KAE

0.1 Modele Dynamiczne

Analiza Szeregów Czasowych. Egzamin

Analiza szeregów czasowych bezrobocia i inflacji w Danii

0.1 Modele Dynamiczne

Czasowy wymiar danych

2.6 Zmienne stacjonarne i niestacjonarne 2.6. ZMIENNE STACJONARNE I NIESTACJONARNE 33. RYSUNEK 2.6: PKB w wyrażeniu realnym

Wprowadzenie Modele o opóźnieniach rozłożonych Modele autoregresyjne o opóźnieniach rozłożonych. Modele dynamiczne.

Autoregresyjne modele o rozłożonych opóźnieniach - Autoregressive Distributed Lags models

Podczas zajęć będziemy zajmować się głownie procesami ergodycznymi zdefiniowanymi na przestrzeniach ciągłych.

3. Analiza własności szeregu czasowego i wybór typu modelu

Szeregi czasowe, analiza zależności krótkoi długozasięgowych

Prognozowanie i Symulacje. Wykład VI. Niestacjonarne szeregi czasowe

Testy pierwiastka jednostkowego

WYKŁAD: Szeregi czasowe I. Zaawansowane Metody Uczenia Maszynowego

2. Założenie niezależności zakłóceń modelu - autokorelacja składnika losowego - test Durbina - Watsona

Stanisław Cichocki Natalia Nehrebecka. Wykład 3

Testy własności składnika losowego Testy formy funkcyjnej. Diagnostyka modelu. Część 2. Diagnostyka modelu

Stanisław Cichocki Natalia Nehrebecka. Wykład 3

1.1 Opis danych Dekompozycja szeregu ARIMA Prognoza Podsumowanie Opis danych...

Ekonometria egzamin 01/02/ W trakcie egzaminu wolno używać jedynie długopisu o innym kolorze atramentu niż czerwony oraz kalkulatora.

Estymacja modeli ARIMA przy uŝyciu Staty oraz Integracja i kointegracja. Grzegorz Ogonek KSiE WNE UW

Stanisław Cichocki. Natalia Nehrebecka. Wykład 12

Metody matematyczne w analizie danych eksperymentalnych - sygnały, cz. 2

Heteroskedastyczość w szeregach czasowyh

1. Stacjonarnośd i niestacjonarnośd szeregów czasowych 2. Test ADF i test KPSS 3. Budowa modeli ARMA dla zmiennych niestacjonarnych 4.

Sprawy organizacyjne

Ekonometria egzamin 31/01/ W trakcie egzaminu wolno używać jedynie długopisu o innym kolorze atramentu niż czerwony oraz kalkulatora.

Wprowadzenie do szeregów czasowych i modelu ARIMA

Testowanie hipotez statystycznych

Testowanie stopnia zintegrowania. czasowego. Wst p do ekonometrii szeregów czasowych wiczenia 1. Andrzej Torój. 19 lutego 2010

Testowanie hipotez statystycznych

REGRESJA LINIOWA Z UOGÓLNIONĄ MACIERZĄ KOWARIANCJI SKŁADNIKA LOSOWEGO. Aleksander Nosarzewski Ekonometria bayesowska, prowadzący: dr Andrzej Torój

Heteroscedastyczność. Zjawisko heteroscedastyczności Uogólniona Metoda Najmniejszych Kwadratów Stosowalna Metoda Najmniejszych Kwadratów

Dr Łukasz Goczek. Uniwersytet Warszawski

1.1 Klasyczny Model Regresji Liniowej

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów

Stanisław Cichocki. Natalia Neherbecka. Zajęcia 13

TESTY NIEPARAMETRYCZNE. 1. Testy równości średnich bez założenia normalności rozkładu zmiennych: Manna-Whitney a i Kruskala-Wallisa.

WYKŁAD: Szeregi czasowe II. Zaawansowane Metody Uczenia Maszynowego

EKONOMETRIA STOSOWANA PRZYKŁADOWE ZADANIA EGZAMINACYJNE

2.2 Autokorelacja Wprowadzenie

Stanisław Cihcocki. Natalia Nehrebecka

Definicja danych panelowych Typy danych panelowych Modele dla danych panelowych. Dane panelowe. Część 1. Dane panelowe

Modelowanie ekonometryczne

Stosowana Analiza Regresji

Testowanie hipotez statystycznych

Ekonometria. wiczenia 5 i 6 Modelowanie szeregów czasowych. Andrzej Torój. Instytut Ekonometrii Zakªad Ekonometrii Stosowanej

Modele zapisane w przestrzeni stanów

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

Finansowe szeregi czasowe

Zadanie 1 1. Czy wykresy zmiennych sugerują, że zmienne są stacjonarne. Czy występuje sezonowość?

Stanisław Cichocki. Natalia Nehrebecka. Wykład 12

3. Modele tendencji czasowej w prognozowaniu

Ekonometria. Ćwiczenia nr 3. Jakub Mućk. Katedra Ekonomii Ilościowej

Elementy statystyki STA - Wykład 5

Współczynnik korelacji. Współczynnik korelacji jest miernikiem zależności między dwiema cechami Oznaczenie: ϱ

Testowanie hipotez statystycznych

ZASTOSOWANIE DYNAMICZNEGO MODELU ZGODNEGO W ANALIZIE GOSPODARKI GÓRNEGO ŚLĄSKA

EGZAMIN MAGISTERSKI, Biomatematyka

ANALIZA ZALEŻNOŚCI MIĘDZY INDEKSAMI RYNKÓW AKCJI NA GIEŁDZIE POLSKIEJ I AMERYKAŃSKIEJ. Indeksy giełdowe

Ekonometria egzamin 02/02/ W trakcie egzaminu wolno używać jedynie długopisu o innym kolorze atramentu niż czerwony oraz kalkulatora.

Dr Łukasz Goczek. Uniwersytet Warszawski

4. Średnia i autoregresja zmiennej prognozowanej

Stosowana Analiza Regresji

Egzamin z ekonometrii - wersja ogólna

STATYSTYKA. Rafał Kucharski. Uniwersytet Ekonomiczny w Katowicach 2015/16 ROND, Finanse i Rachunkowość, rok 2

Stanisław Cichocki. Natalia Nehrebecka. Wykład 9

Prognozowanie i Symulacje. Wykład I. Matematyczne metody prognozowania

Statystyka i eksploracja danych

Metody Ekonometryczne

WIELKA SGH-OWA POWTÓRKA ZE STATYSTYKI REGRESJA LINIOWA

Spis treści Wstęp Estymacja Testowanie. Efekty losowe. Bogumiła Koprowska, Elżbieta Kukla

5. Model sezonowości i autoregresji zmiennej prognozowanej

Regresja wielokrotna jest metodą statystyczną, w której oceniamy wpływ wielu zmiennych niezależnych (X1, X2, X3,...) na zmienną zależną (Y).

Własności statystyczne regresji liniowej. Wykład 4

Stanisław Cichocki. Natalia Nehrebecka. Wykład 13

Stacjonarne procesy gaussowskie, czyli o zwiazkach pomiędzy zwykła

STATYSTYKA I DOŚWIADCZALNICTWO Wykład 5

Zależność. przyczynowo-skutkowa, symptomatyczna, pozorna (iluzoryczna),

Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności. dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl

Monte Carlo, bootstrap, jacknife

Testowanie hipotez. Hipoteza prosta zawiera jeden element, np. H 0 : θ = 2, hipoteza złożona zawiera więcej niż jeden element, np. H 0 : θ > 4.

Ekonometria egzamin 07/03/2018

Analiza wariancji w analizie regresji - weryfikacja prawdziwości przyjętego układu ograniczeń Problem Przykłady

Plan wykładu: 1) Pojęcie stacjonarności i niestacjonarności zmiennych 2) Testowanie integracji 3) Pojęcie kointegracji metoda Engle a-grangera.

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Stanisław Cichocki Natalia Nehrebecka. Zajęcia 8

Analiza szeregów czasowych: 5. Liniowe modele stochastyczne

Wykład 1 Próba i populacja. Estymacja parametrów z wykorzystaniem metody bootstrap

Natalia Nehrebecka Stanisław Cichocki. Wykład 10

Statystyka matematyczna. Wykład IV. Weryfikacja hipotez statystycznych

Transkrypt:

Biały szum AR(1) Słaba stacjonarność Szereg czasowy nazywamy słabo (wariancyjnie) stacjonarnym jeżeli:

Biały szum AR(1) Słaba stacjonarność Szereg czasowy nazywamy słabo (wariancyjnie) stacjonarnym jeżeli: 1 wartość oczekiwana szeregu jest skończona i stała w czasie E(y t ) = µ <

Biały szum AR(1) Słaba stacjonarność Szereg czasowy nazywamy słabo (wariancyjnie) stacjonarnym jeżeli: 1 wartość oczekiwana szeregu jest skończona i stała w czasie E(y t ) = µ < 2 wariancja szeregu jest skończona i stała w czasie Var(y t ) = σ 2 <

Biały szum AR(1) Słaba stacjonarność Szereg czasowy nazywamy słabo (wariancyjnie) stacjonarnym jeżeli: 1 wartość oczekiwana szeregu jest skończona i stała w czasie E(y t ) = µ < 2 wariancja szeregu jest skończona i stała w czasie Var(y t ) = σ 2 < 3 kowariancja między realizacjami nie zależy od czasu i jest jedynie funkcją odległości między obserwacjami cov(y t, y t+h ) = cov(y t, y t +h ) = γ h t, t, h

Biały szum AR(1) Szereg czasowy 2 1 0 1 2 0 20 40 60 80 100 t

Biały szum AR(1) Szereg czasowy 2 0 2 4 0 20 40 60 80 100 t

Biały szum AR(1) Szereg czasowy 10 5 0 5 10 0 20 40 60 80 100 t

Biały szum AR(1) Proces białego szumu ma następujące własności:

Biały szum AR(1) Proces białego szumu ma następujące własności: E(y t ) = µ t

Biały szum AR(1) Proces białego szumu ma następujące własności: E(y t ) = µ t var(y t ) = σ 2 t

Biały szum AR(1) Proces białego szumu ma następujące własności: E(y t ) = µ t var(y t ) = σ 2 t { σ 2 t = s cov = 0 t s

Biały szum AR(1) Szereg czasowy 3 2 1 0 1 2 0 20 40 60 80 100 t

Biały szum AR(1) Proces AR(1) dany jest wzorem y t = ρy t 1 + ε t ε t IID (0, σ 2 )

Biały szum AR(1) Proces AR(1) dany jest wzorem y t = ρy t 1 + ε t ε t IID (0, σ 2 ) Jest on stacjonarny dla ρ < 1

Biały szum AR(1) Proces AR(1) dany jest wzorem y t = ρy t 1 + ε t ε t IID (0, σ 2 ) Jest on stacjonarny dla ρ < 1 Dowód stacjonarności.

Biały szum AR(1) Proces AR(1) dany jest wzorem y t = ρy t 1 + ε t ε t IID (0, σ 2 ) Jest on stacjonarny dla ρ < 1 Dowód stacjonarności. Zapiszmy równanie dla t 1 y t 1 = ρy t 2 + ε t

Biały szum AR(1) Proces AR(1) dany jest wzorem y t = ρy t 1 + ε t ε t IID (0, σ 2 ) Jest on stacjonarny dla ρ < 1 Dowód stacjonarności. Zapiszmy równanie dla t 1 y t 1 = ρy t 2 + ε t Podstawiając do wzoru na AR(1) uzyskujemy y t = ρy t 1 + ε t = ρρy t 2 + ρε t 1 + ε t

Biały szum AR(1) Podstawiając rekurencyjnie uzyskamy y t = ρ i ε t i i=0

Biały szum AR(1) Podstawiając rekurencyjnie uzyskamy y t = ρ i ε t i i=0 Wobec tego E(y t ) = E ( ρ i ) ε t i = ρ i ε t i E(ε t i ) = 0 }{{} i=0 i=0 0

Biały szum AR(1) Podstawiając rekurencyjnie uzyskamy y t = ρ i ε t i i=0 Wobec tego E(y t ) = E ( ρ i ) ε t i = ρ i ε t i E(ε t i ) = 0 }{{} i=0 i=0 0 var(y t ) = var ( ρ i ) ε t i = i=0 i=0 ρ 2i var(ε t i ) = }{{} σ 2 σ 2 1 ρ 2

Biały szum AR(1) cov(y t, y t+h ) = cov ( ρ i ε t i, ρ i ) ε t i h i=0 i=0

Biały szum AR(1) cov(y t, y t+h ) = cov ( ρ i ε t i, ρ i ) ε t i h i=0 i=0 cov(y t, y t+h ) = cov ( n 1 ρ i ε t i + ρ h ε t i h, ρ i ) ε t i h i=0 i=0 i=0

Biały szum AR(1) cov(y t, y t+h ) = cov ( ρ i ε t i, ρ i ) ε t i h i=0 i=0 cov(y t, y t+h ) = cov ( n 1 ρ i ε t i + ρ h ε t i h, ρ i ) ε t i h cov(y t, y t+h ) = ρ h i=0 i=0 i=0 i=0 ρ 2i var(ε t i h ) = ρ h σ 2 1 ρ 2

Biały szum AR(1) cov(y t, y t+h ) = cov ( ρ i ε t i, ρ i ) ε t i h i=0 i=0 cov(y t, y t+h ) = cov ( n 1 ρ i ε t i + ρ h ε t i h, ρ i ) ε t i h cov(y t, y t+h ) = ρ h i=0 i=0 i=0 i=0 ρ 2i var(ε t i h ) = ρ h σ 2 1 ρ 2 W obliczeniach założono, że ρ < 1. Jest ono konieczne do udowodnienia stacjonarności

Biały szum AR(1) Szereg AR(1) 2 1 0 1 2 3 0 20 40 60 80 100 t

Biały szum AR(1) Szereg trendostacjonarny Szereg czasowy nazywamy trendostacjonarnym, gdy szereg odchyleń jego wartości od trendu jest szeregiem stacjonarnym y t E(y t )

Biały szum AR(1) Niech y t = β 0 + βt + ε t

Biały szum AR(1) Niech wobec tego E(y t ) = β 0 + βt y t = β 0 + βt + ε t

Biały szum AR(1) Niech y t = β 0 + βt + ε t wobec tego E(y t ) = β 0 + βt a y t E(y t ) = ε t

Biały szum AR(1) Twierdzenie Wolda Jeżeli proces stochastyczny y t jest słabo stacjonarny to można go przedstawić jako sumę procesu deterministycznego i procesu MA( ) y t = E(y t y t 1,..., y t p ) + θ i ε t i i=0

Rozszerzony Przykładem procesu niestacjonarnego jest błądzenie przypadkowe y t = y t 1 + ε t ε t IID (0, σ 2 )

Rozszerzony Przykładem procesu niestacjonarnego jest błądzenie przypadkowe y t = y t 1 + ε t ε t IID (0, σ 2 ) Podstawiając y t 1 = y t 2 + ε t 1 otrzymujemy y t = y t 2 + ε t 1 + ε t

Rozszerzony Przykładem procesu niestacjonarnego jest błądzenie przypadkowe y t = y t 1 + ε t ε t IID (0, σ 2 ) Podstawiając y t 1 = y t 2 + ε t 1 otrzymujemy y t = y t 2 + ε t 1 + ε t Powtarzając czynność rekurencyjnie uzyskujemy y t = y 0 + t i=0 ε i

Rozszerzony zatem y t jest sumą niezależnych zmiennych o jednakowym rozkładzie

Rozszerzony zatem y t jest sumą niezależnych zmiennych o jednakowym rozkładzie E(y t ) = y 0 <

Rozszerzony zatem y t jest sumą niezależnych zmiennych o jednakowym rozkładzie E(y t ) = y 0 < ale var(y t ) = var(y 0 + t ε i ) = i=0 t var(ε i ) = tσ 2 i=0

Rozszerzony zatem y t jest sumą niezależnych zmiennych o jednakowym rozkładzie E(y t ) = y 0 < ale oraz var(y t ) = var(y 0 + t ε i ) = i=0 t var(ε i ) = tσ 2 i=0 t h cov(y t, y t+h ) = var(ε i ) = (t h)σ 2 i=1

Rozszerzony zatem y t jest sumą niezależnych zmiennych o jednakowym rozkładzie E(y t ) = y 0 < ale oraz var(y t ) = var(y 0 + t ε i ) = i=0 t var(ε i ) = tσ 2 i=0 t h cov(y t, y t+h ) = var(ε i ) = (t h)σ 2 i=1 zatem wariancja i kowariancja zależą od czasu

Rozszerzony Bladzenie przypadkowe 10 8 6 4 2 0 0 20 40 60 80 100 t

Rozszerzony Jeżeli od procesu błądzenia przypadkowego odejmiemy y t 1 z obu stron uzyskamy y t = ε t

Rozszerzony Jeżeli od procesu błądzenia przypadkowego odejmiemy y t 1 z obu stron uzyskamy y t = ε t Taki proces będziemy nazywać procesem zintegrowanym

Rozszerzony Jeżeli od procesu błądzenia przypadkowego odejmiemy y t 1 z obu stron uzyskamy y t = ε t Taki proces będziemy nazywać procesem zintegrowanym Procesy stacjonarne nazywa się procesami zintegrowanymi rzędu 0 i oznacza I(0)

Rozszerzony Jeżeli od procesu błądzenia przypadkowego odejmiemy y t 1 z obu stron uzyskamy y t = ε t Taki proces będziemy nazywać procesem zintegrowanym Procesy stacjonarne nazywa się procesami zintegrowanymi rzędu 0 i oznacza I(0) Proces który do d-krotnym różnicowaniu jest stacjonarny nazywamy zróżnicowanym stopnia d i oznaczamy I(d)

Rozszerzony Znaczenie szeregów I(1) w ekonomii

Rozszerzony Znaczenie szeregów I(1) w ekonomii Szeregi I(2) są stosowane do modelowania hiperinflacji

Rozszerzony Znaczenie szeregów I(1) w ekonomii Szeregi I(2) są stosowane do modelowania hiperinflacji Szeregi o wyższym stopniu integracji nie mają zastosowań w ekonomii

Rozszerzony Znaczenie szeregów I(1) w ekonomii Szeregi I(2) są stosowane do modelowania hiperinflacji Szeregi o wyższym stopniu integracji nie mają zastosowań w ekonomii Dla szeregu zintegrowanego funkcje ACF i PACF mają charakterystyczny przebieg

Rozszerzony Autocorrelations of e6 1.00 0.50 0.00 0.50 1.00 0 10 20 30 40 Lag Partial autocorrelations of e6 0.50 0.00 0.50 1.00 0 10 20 30 40 Lag Bartlett s formula for MA(q) 95% confidence bands 95% Confidence bands [se = 1/sqrt(n)]

Rozszerzony Chcemy zbadać czy zmienna jest stacjonarna

Rozszerzony Chcemy zbadać czy zmienna jest stacjonarna Zapisujemy model w postaci AR(1) y t = ρy t 1 + ε t ε t IID (0, σ 2 ) (1) jeżeli ρ = 1 to y t jest błądzeniem przypadkowym

Rozszerzony Chcemy zbadać czy zmienna jest stacjonarna Zapisujemy model w postaci AR(1) y t = ρy t 1 + ε t ε t IID (0, σ 2 ) (1) jeżeli ρ = 1 to y t jest błądzeniem przypadkowym jeżeli ρ < 1 to y t jest stacjonarny

Rozszerzony Chcemy zbadać czy zmienna jest stacjonarna Zapisujemy model w postaci AR(1) y t = ρy t 1 + ε t ε t IID (0, σ 2 ) (1) jeżeli ρ = 1 to y t jest błądzeniem przypadkowym jeżeli ρ < 1 to y t jest stacjonarny H 0 : y t jest niestacjonarny H 1 : y t jest stacjonarny

Rozszerzony Chcemy zbadać czy zmienna jest stacjonarna Zapisujemy model w postaci AR(1) y t = ρy t 1 + ε t ε t IID (0, σ 2 ) (1) jeżeli ρ = 1 to y t jest błądzeniem przypadkowym jeżeli ρ < 1 to y t jest stacjonarny H 0 : y t jest niestacjonarny H 1 : y t jest stacjonarny dla ρ > 1 to y t jest eksplozywny

Rozszerzony Jeżeli od (1) odejmiemy y t 1 z obu stron to y t = (ρ 1)y t 1 + ε t y t = γy t 1 + ε t

Rozszerzony Jeżeli od (1) odejmiemy y t 1 z obu stron to y t = (ρ 1)y t 1 + ε t y t = γy t 1 + ε t Zatem aby przeprowadzić test wystarczy przeprowadzić regresję zmiennej zróżnicowanej na jej wartość opóźnioną

Rozszerzony Ale przy prawdziwej H 0 y t jest zmienną niestacjonarną

Rozszerzony Ale przy prawdziwej H 0 y t jest zmienną niestacjonarną Zatem statystyka testowa nie ma rozkładu t-studenta

Rozszerzony Ale przy prawdziwej H 0 y t jest zmienną niestacjonarną Zatem statystyka testowa nie ma rozkładu t-studenta Dickey i Fuller wyprowadzili wartości krytyczne testu

Rozszerzony Ale przy prawdziwej H 0 y t jest zmienną niestacjonarną Zatem statystyka testowa nie ma rozkładu t-studenta Dickey i Fuller wyprowadzili wartości krytyczne testu Aby procedura była prawidłowa składnik losowy nie może podlegać autokorelacji

Rozszerzony Rozszerzenie polega na uwzględnieniu po prawej stronie równania opóźnionych wartości zmiennej zależnej y t = γy t 1 + k γ i y t i + ε t i=1

Rozszerzony Rozszerzenie polega na uwzględnieniu po prawej stronie równania opóźnionych wartości zmiennej zależnej y t = γy t 1 + k γ i y t i + ε t stała k to najmniejsza liczba przy której reszty nie podlegają autokorelacji i=1

Rozszerzony Rozszerzenie polega na uwzględnieniu po prawej stronie równania opóźnionych wartości zmiennej zależnej y t = γy t 1 + k γ i y t i + ε t stała k to najmniejsza liczba przy której reszty nie podlegają autokorelacji i=1 test przeprowadza się w sposób analogiczny do testu DF

Rozszerzony Dickey-Fuller test for unit root Number of obs = 131 ---------- Interpolated Dickey-Fuller --------- Test 1% Critical 5% Critical 10% Critical Statistic Value Value Value ------------------------------------------------------------------------------ Z(t) -3.766-3.500-2.888-2.578 ------------------------------------------------------------------------------ MacKinnon approximate p-value for Z(t) = 0.0033

Rozszerzony ma hipotezy zapisane w sposób tradycyjny

Rozszerzony ma hipotezy zapisane w sposób tradycyjny H 0 : y t jest stacjonarny H 1 : y t jest niestacjonarny

Rozszerzony KPSS test for inflacja Maxlag = 12 chosen by Schwert criterion Autocovariances weighted by Bartlett kernel Critical values for H0: inflacja is trend stationary 10%: 0.119 5% : 0.146 2.5%: 0.176 1% : 0.216 Lag order Test statistic 0 2.73 1 1.4 2.951 3.728 4.595 5.507 6.444 7.397 8.361 9.332 10.309 11.289 12.273

Eksperyment Newbolda-Davisa Rozszerzony Generujemy obserwacje dla dwóch niezależnych zmiennych y t = y t 1 + ε t1 ε t1 N (0, 1) x t = x t 1 + ε t2 ε t2 N (0, 1) cov(ε t1, ε t2 ) = 0

Eksperyment Newbolda-Davisa Rozszerzony Generujemy obserwacje dla dwóch niezależnych zmiennych y t = y t 1 + ε t1 ε t1 N (0, 1) x t = x t 1 + ε t2 ε t2 N (0, 1) cov(ε t1, ε t2 ) = 0 Szacujemy parametry regresji ε t1 na ε t2 oraz y t na x t

Eksperyment Newbolda-Davisa Rozszerzony Generujemy obserwacje dla dwóch niezależnych zmiennych y t = y t 1 + ε t1 ε t1 N (0, 1) x t = x t 1 + ε t2 ε t2 N (0, 1) cov(ε t1, ε t2 ) = 0 Szacujemy parametry regresji ε t1 na ε t2 oraz y t na x t zapamiętujemy statystykę t oraz DW dla każdej regresji

Eksperyment Newbolda-Davisa Rozszerzony Generujemy obserwacje dla dwóch niezależnych zmiennych y t = y t 1 + ε t1 ε t1 N (0, 1) x t = x t 1 + ε t2 ε t2 N (0, 1) cov(ε t1, ε t2 ) = 0 Szacujemy parametry regresji ε t1 na ε t2 oraz y t na x t zapamiętujemy statystykę t oraz DW dla każdej regresji powtarzamy duża liczbę razy np. 1000

Rozszerzony teoretyczne ε t1 na ε t2 y na x średnia 0,000 0,0036 0,0048 5% percentyl 1,677 1,564 8,293 % istotnych 5 4,33 63,24 DW 2,00 2,01 0,33

Rozszerzony Zignorowanie zjawiska regresji pozornej może prowadzić do zbudowania błędnego modelu

Rozszerzony Zignorowanie zjawiska regresji pozornej może prowadzić do zbudowania błędnego modelu Aby temu zapobiec można różnicować zmienne

Rozszerzony Zignorowanie zjawiska regresji pozornej może prowadzić do zbudowania błędnego modelu Aby temu zapobiec można różnicować zmienne Ale różnicowanie powoduje utratę informacji i uniemożliwia wyznaczenie relacji długookresowej