Biały szum AR(1) Słaba stacjonarność Szereg czasowy nazywamy słabo (wariancyjnie) stacjonarnym jeżeli:
Biały szum AR(1) Słaba stacjonarność Szereg czasowy nazywamy słabo (wariancyjnie) stacjonarnym jeżeli: 1 wartość oczekiwana szeregu jest skończona i stała w czasie E(y t ) = µ <
Biały szum AR(1) Słaba stacjonarność Szereg czasowy nazywamy słabo (wariancyjnie) stacjonarnym jeżeli: 1 wartość oczekiwana szeregu jest skończona i stała w czasie E(y t ) = µ < 2 wariancja szeregu jest skończona i stała w czasie Var(y t ) = σ 2 <
Biały szum AR(1) Słaba stacjonarność Szereg czasowy nazywamy słabo (wariancyjnie) stacjonarnym jeżeli: 1 wartość oczekiwana szeregu jest skończona i stała w czasie E(y t ) = µ < 2 wariancja szeregu jest skończona i stała w czasie Var(y t ) = σ 2 < 3 kowariancja między realizacjami nie zależy od czasu i jest jedynie funkcją odległości między obserwacjami cov(y t, y t+h ) = cov(y t, y t +h ) = γ h t, t, h
Biały szum AR(1) Szereg czasowy 2 1 0 1 2 0 20 40 60 80 100 t
Biały szum AR(1) Szereg czasowy 2 0 2 4 0 20 40 60 80 100 t
Biały szum AR(1) Szereg czasowy 10 5 0 5 10 0 20 40 60 80 100 t
Biały szum AR(1) Proces białego szumu ma następujące własności:
Biały szum AR(1) Proces białego szumu ma następujące własności: E(y t ) = µ t
Biały szum AR(1) Proces białego szumu ma następujące własności: E(y t ) = µ t var(y t ) = σ 2 t
Biały szum AR(1) Proces białego szumu ma następujące własności: E(y t ) = µ t var(y t ) = σ 2 t { σ 2 t = s cov = 0 t s
Biały szum AR(1) Szereg czasowy 3 2 1 0 1 2 0 20 40 60 80 100 t
Biały szum AR(1) Proces AR(1) dany jest wzorem y t = ρy t 1 + ε t ε t IID (0, σ 2 )
Biały szum AR(1) Proces AR(1) dany jest wzorem y t = ρy t 1 + ε t ε t IID (0, σ 2 ) Jest on stacjonarny dla ρ < 1
Biały szum AR(1) Proces AR(1) dany jest wzorem y t = ρy t 1 + ε t ε t IID (0, σ 2 ) Jest on stacjonarny dla ρ < 1 Dowód stacjonarności.
Biały szum AR(1) Proces AR(1) dany jest wzorem y t = ρy t 1 + ε t ε t IID (0, σ 2 ) Jest on stacjonarny dla ρ < 1 Dowód stacjonarności. Zapiszmy równanie dla t 1 y t 1 = ρy t 2 + ε t
Biały szum AR(1) Proces AR(1) dany jest wzorem y t = ρy t 1 + ε t ε t IID (0, σ 2 ) Jest on stacjonarny dla ρ < 1 Dowód stacjonarności. Zapiszmy równanie dla t 1 y t 1 = ρy t 2 + ε t Podstawiając do wzoru na AR(1) uzyskujemy y t = ρy t 1 + ε t = ρρy t 2 + ρε t 1 + ε t
Biały szum AR(1) Podstawiając rekurencyjnie uzyskamy y t = ρ i ε t i i=0
Biały szum AR(1) Podstawiając rekurencyjnie uzyskamy y t = ρ i ε t i i=0 Wobec tego E(y t ) = E ( ρ i ) ε t i = ρ i ε t i E(ε t i ) = 0 }{{} i=0 i=0 0
Biały szum AR(1) Podstawiając rekurencyjnie uzyskamy y t = ρ i ε t i i=0 Wobec tego E(y t ) = E ( ρ i ) ε t i = ρ i ε t i E(ε t i ) = 0 }{{} i=0 i=0 0 var(y t ) = var ( ρ i ) ε t i = i=0 i=0 ρ 2i var(ε t i ) = }{{} σ 2 σ 2 1 ρ 2
Biały szum AR(1) cov(y t, y t+h ) = cov ( ρ i ε t i, ρ i ) ε t i h i=0 i=0
Biały szum AR(1) cov(y t, y t+h ) = cov ( ρ i ε t i, ρ i ) ε t i h i=0 i=0 cov(y t, y t+h ) = cov ( n 1 ρ i ε t i + ρ h ε t i h, ρ i ) ε t i h i=0 i=0 i=0
Biały szum AR(1) cov(y t, y t+h ) = cov ( ρ i ε t i, ρ i ) ε t i h i=0 i=0 cov(y t, y t+h ) = cov ( n 1 ρ i ε t i + ρ h ε t i h, ρ i ) ε t i h cov(y t, y t+h ) = ρ h i=0 i=0 i=0 i=0 ρ 2i var(ε t i h ) = ρ h σ 2 1 ρ 2
Biały szum AR(1) cov(y t, y t+h ) = cov ( ρ i ε t i, ρ i ) ε t i h i=0 i=0 cov(y t, y t+h ) = cov ( n 1 ρ i ε t i + ρ h ε t i h, ρ i ) ε t i h cov(y t, y t+h ) = ρ h i=0 i=0 i=0 i=0 ρ 2i var(ε t i h ) = ρ h σ 2 1 ρ 2 W obliczeniach założono, że ρ < 1. Jest ono konieczne do udowodnienia stacjonarności
Biały szum AR(1) Szereg AR(1) 2 1 0 1 2 3 0 20 40 60 80 100 t
Biały szum AR(1) Szereg trendostacjonarny Szereg czasowy nazywamy trendostacjonarnym, gdy szereg odchyleń jego wartości od trendu jest szeregiem stacjonarnym y t E(y t )
Biały szum AR(1) Niech y t = β 0 + βt + ε t
Biały szum AR(1) Niech wobec tego E(y t ) = β 0 + βt y t = β 0 + βt + ε t
Biały szum AR(1) Niech y t = β 0 + βt + ε t wobec tego E(y t ) = β 0 + βt a y t E(y t ) = ε t
Biały szum AR(1) Twierdzenie Wolda Jeżeli proces stochastyczny y t jest słabo stacjonarny to można go przedstawić jako sumę procesu deterministycznego i procesu MA( ) y t = E(y t y t 1,..., y t p ) + θ i ε t i i=0
Rozszerzony Przykładem procesu niestacjonarnego jest błądzenie przypadkowe y t = y t 1 + ε t ε t IID (0, σ 2 )
Rozszerzony Przykładem procesu niestacjonarnego jest błądzenie przypadkowe y t = y t 1 + ε t ε t IID (0, σ 2 ) Podstawiając y t 1 = y t 2 + ε t 1 otrzymujemy y t = y t 2 + ε t 1 + ε t
Rozszerzony Przykładem procesu niestacjonarnego jest błądzenie przypadkowe y t = y t 1 + ε t ε t IID (0, σ 2 ) Podstawiając y t 1 = y t 2 + ε t 1 otrzymujemy y t = y t 2 + ε t 1 + ε t Powtarzając czynność rekurencyjnie uzyskujemy y t = y 0 + t i=0 ε i
Rozszerzony zatem y t jest sumą niezależnych zmiennych o jednakowym rozkładzie
Rozszerzony zatem y t jest sumą niezależnych zmiennych o jednakowym rozkładzie E(y t ) = y 0 <
Rozszerzony zatem y t jest sumą niezależnych zmiennych o jednakowym rozkładzie E(y t ) = y 0 < ale var(y t ) = var(y 0 + t ε i ) = i=0 t var(ε i ) = tσ 2 i=0
Rozszerzony zatem y t jest sumą niezależnych zmiennych o jednakowym rozkładzie E(y t ) = y 0 < ale oraz var(y t ) = var(y 0 + t ε i ) = i=0 t var(ε i ) = tσ 2 i=0 t h cov(y t, y t+h ) = var(ε i ) = (t h)σ 2 i=1
Rozszerzony zatem y t jest sumą niezależnych zmiennych o jednakowym rozkładzie E(y t ) = y 0 < ale oraz var(y t ) = var(y 0 + t ε i ) = i=0 t var(ε i ) = tσ 2 i=0 t h cov(y t, y t+h ) = var(ε i ) = (t h)σ 2 i=1 zatem wariancja i kowariancja zależą od czasu
Rozszerzony Bladzenie przypadkowe 10 8 6 4 2 0 0 20 40 60 80 100 t
Rozszerzony Jeżeli od procesu błądzenia przypadkowego odejmiemy y t 1 z obu stron uzyskamy y t = ε t
Rozszerzony Jeżeli od procesu błądzenia przypadkowego odejmiemy y t 1 z obu stron uzyskamy y t = ε t Taki proces będziemy nazywać procesem zintegrowanym
Rozszerzony Jeżeli od procesu błądzenia przypadkowego odejmiemy y t 1 z obu stron uzyskamy y t = ε t Taki proces będziemy nazywać procesem zintegrowanym Procesy stacjonarne nazywa się procesami zintegrowanymi rzędu 0 i oznacza I(0)
Rozszerzony Jeżeli od procesu błądzenia przypadkowego odejmiemy y t 1 z obu stron uzyskamy y t = ε t Taki proces będziemy nazywać procesem zintegrowanym Procesy stacjonarne nazywa się procesami zintegrowanymi rzędu 0 i oznacza I(0) Proces który do d-krotnym różnicowaniu jest stacjonarny nazywamy zróżnicowanym stopnia d i oznaczamy I(d)
Rozszerzony Znaczenie szeregów I(1) w ekonomii
Rozszerzony Znaczenie szeregów I(1) w ekonomii Szeregi I(2) są stosowane do modelowania hiperinflacji
Rozszerzony Znaczenie szeregów I(1) w ekonomii Szeregi I(2) są stosowane do modelowania hiperinflacji Szeregi o wyższym stopniu integracji nie mają zastosowań w ekonomii
Rozszerzony Znaczenie szeregów I(1) w ekonomii Szeregi I(2) są stosowane do modelowania hiperinflacji Szeregi o wyższym stopniu integracji nie mają zastosowań w ekonomii Dla szeregu zintegrowanego funkcje ACF i PACF mają charakterystyczny przebieg
Rozszerzony Autocorrelations of e6 1.00 0.50 0.00 0.50 1.00 0 10 20 30 40 Lag Partial autocorrelations of e6 0.50 0.00 0.50 1.00 0 10 20 30 40 Lag Bartlett s formula for MA(q) 95% confidence bands 95% Confidence bands [se = 1/sqrt(n)]
Rozszerzony Chcemy zbadać czy zmienna jest stacjonarna
Rozszerzony Chcemy zbadać czy zmienna jest stacjonarna Zapisujemy model w postaci AR(1) y t = ρy t 1 + ε t ε t IID (0, σ 2 ) (1) jeżeli ρ = 1 to y t jest błądzeniem przypadkowym
Rozszerzony Chcemy zbadać czy zmienna jest stacjonarna Zapisujemy model w postaci AR(1) y t = ρy t 1 + ε t ε t IID (0, σ 2 ) (1) jeżeli ρ = 1 to y t jest błądzeniem przypadkowym jeżeli ρ < 1 to y t jest stacjonarny
Rozszerzony Chcemy zbadać czy zmienna jest stacjonarna Zapisujemy model w postaci AR(1) y t = ρy t 1 + ε t ε t IID (0, σ 2 ) (1) jeżeli ρ = 1 to y t jest błądzeniem przypadkowym jeżeli ρ < 1 to y t jest stacjonarny H 0 : y t jest niestacjonarny H 1 : y t jest stacjonarny
Rozszerzony Chcemy zbadać czy zmienna jest stacjonarna Zapisujemy model w postaci AR(1) y t = ρy t 1 + ε t ε t IID (0, σ 2 ) (1) jeżeli ρ = 1 to y t jest błądzeniem przypadkowym jeżeli ρ < 1 to y t jest stacjonarny H 0 : y t jest niestacjonarny H 1 : y t jest stacjonarny dla ρ > 1 to y t jest eksplozywny
Rozszerzony Jeżeli od (1) odejmiemy y t 1 z obu stron to y t = (ρ 1)y t 1 + ε t y t = γy t 1 + ε t
Rozszerzony Jeżeli od (1) odejmiemy y t 1 z obu stron to y t = (ρ 1)y t 1 + ε t y t = γy t 1 + ε t Zatem aby przeprowadzić test wystarczy przeprowadzić regresję zmiennej zróżnicowanej na jej wartość opóźnioną
Rozszerzony Ale przy prawdziwej H 0 y t jest zmienną niestacjonarną
Rozszerzony Ale przy prawdziwej H 0 y t jest zmienną niestacjonarną Zatem statystyka testowa nie ma rozkładu t-studenta
Rozszerzony Ale przy prawdziwej H 0 y t jest zmienną niestacjonarną Zatem statystyka testowa nie ma rozkładu t-studenta Dickey i Fuller wyprowadzili wartości krytyczne testu
Rozszerzony Ale przy prawdziwej H 0 y t jest zmienną niestacjonarną Zatem statystyka testowa nie ma rozkładu t-studenta Dickey i Fuller wyprowadzili wartości krytyczne testu Aby procedura była prawidłowa składnik losowy nie może podlegać autokorelacji
Rozszerzony Rozszerzenie polega na uwzględnieniu po prawej stronie równania opóźnionych wartości zmiennej zależnej y t = γy t 1 + k γ i y t i + ε t i=1
Rozszerzony Rozszerzenie polega na uwzględnieniu po prawej stronie równania opóźnionych wartości zmiennej zależnej y t = γy t 1 + k γ i y t i + ε t stała k to najmniejsza liczba przy której reszty nie podlegają autokorelacji i=1
Rozszerzony Rozszerzenie polega na uwzględnieniu po prawej stronie równania opóźnionych wartości zmiennej zależnej y t = γy t 1 + k γ i y t i + ε t stała k to najmniejsza liczba przy której reszty nie podlegają autokorelacji i=1 test przeprowadza się w sposób analogiczny do testu DF
Rozszerzony Dickey-Fuller test for unit root Number of obs = 131 ---------- Interpolated Dickey-Fuller --------- Test 1% Critical 5% Critical 10% Critical Statistic Value Value Value ------------------------------------------------------------------------------ Z(t) -3.766-3.500-2.888-2.578 ------------------------------------------------------------------------------ MacKinnon approximate p-value for Z(t) = 0.0033
Rozszerzony ma hipotezy zapisane w sposób tradycyjny
Rozszerzony ma hipotezy zapisane w sposób tradycyjny H 0 : y t jest stacjonarny H 1 : y t jest niestacjonarny
Rozszerzony KPSS test for inflacja Maxlag = 12 chosen by Schwert criterion Autocovariances weighted by Bartlett kernel Critical values for H0: inflacja is trend stationary 10%: 0.119 5% : 0.146 2.5%: 0.176 1% : 0.216 Lag order Test statistic 0 2.73 1 1.4 2.951 3.728 4.595 5.507 6.444 7.397 8.361 9.332 10.309 11.289 12.273
Eksperyment Newbolda-Davisa Rozszerzony Generujemy obserwacje dla dwóch niezależnych zmiennych y t = y t 1 + ε t1 ε t1 N (0, 1) x t = x t 1 + ε t2 ε t2 N (0, 1) cov(ε t1, ε t2 ) = 0
Eksperyment Newbolda-Davisa Rozszerzony Generujemy obserwacje dla dwóch niezależnych zmiennych y t = y t 1 + ε t1 ε t1 N (0, 1) x t = x t 1 + ε t2 ε t2 N (0, 1) cov(ε t1, ε t2 ) = 0 Szacujemy parametry regresji ε t1 na ε t2 oraz y t na x t
Eksperyment Newbolda-Davisa Rozszerzony Generujemy obserwacje dla dwóch niezależnych zmiennych y t = y t 1 + ε t1 ε t1 N (0, 1) x t = x t 1 + ε t2 ε t2 N (0, 1) cov(ε t1, ε t2 ) = 0 Szacujemy parametry regresji ε t1 na ε t2 oraz y t na x t zapamiętujemy statystykę t oraz DW dla każdej regresji
Eksperyment Newbolda-Davisa Rozszerzony Generujemy obserwacje dla dwóch niezależnych zmiennych y t = y t 1 + ε t1 ε t1 N (0, 1) x t = x t 1 + ε t2 ε t2 N (0, 1) cov(ε t1, ε t2 ) = 0 Szacujemy parametry regresji ε t1 na ε t2 oraz y t na x t zapamiętujemy statystykę t oraz DW dla każdej regresji powtarzamy duża liczbę razy np. 1000
Rozszerzony teoretyczne ε t1 na ε t2 y na x średnia 0,000 0,0036 0,0048 5% percentyl 1,677 1,564 8,293 % istotnych 5 4,33 63,24 DW 2,00 2,01 0,33
Rozszerzony Zignorowanie zjawiska regresji pozornej może prowadzić do zbudowania błędnego modelu
Rozszerzony Zignorowanie zjawiska regresji pozornej może prowadzić do zbudowania błędnego modelu Aby temu zapobiec można różnicować zmienne
Rozszerzony Zignorowanie zjawiska regresji pozornej może prowadzić do zbudowania błędnego modelu Aby temu zapobiec można różnicować zmienne Ale różnicowanie powoduje utratę informacji i uniemożliwia wyznaczenie relacji długookresowej