24 kwietnia 2009
Modelem szeregu czasowego jest proces stochastyczny (X t ) t Z, czyli rodzina zmiennych losowych, indeksowanych liczbami całkowitymi i zdefiniowanych na pewnej przestrzeni probabilistycznej (Ω, F, P).
Modelem szeregu czasowego jest proces stochastyczny (X t ) t Z, czyli rodzina zmiennych losowych, indeksowanych liczbami całkowitymi i zdefiniowanych na pewnej przestrzeni probabilistycznej (Ω, F, P). PRZYKŁAD:
Modelem szeregu czasowego jest proces stochastyczny (X t ) t Z, czyli rodzina zmiennych losowych, indeksowanych liczbami całkowitymi i zdefiniowanych na pewnej przestrzeni probabilistycznej (Ω, F, P). PRZYKŁAD: Niech (S t ) t=0,1,...,n będzie ciągiem cen akcji, wartości indeksów, itp...
Modelem szeregu czasowego jest proces stochastyczny (X t ) t Z, czyli rodzina zmiennych losowych, indeksowanych liczbami całkowitymi i zdefiniowanych na pewnej przestrzeni probabilistycznej (Ω, F, P). PRZYKŁAD: Niech (S t ) t=0,1,...,n będzie ciągiem cen akcji, wartości indeksów, itp... Formujemy zwroty ( St ) X t = ln S t ln S t 1 = ln S t 1
Rysunek: Zwroty indeksu DAX
Rysunek: Zwroty indeksu DAX
Rysunek: Zwroty indeksu DAX STYLIZOWANE FAKTY:
Rysunek: Zwroty indeksu DAX STYLIZOWANE FAKTY: klastrowanie zmienności
Rysunek: Zwroty indeksu DAX STYLIZOWANE FAKTY: klastrowanie zmienności leptokurtyczność
Rysunek: Zwroty indeksu DAX STYLIZOWANE FAKTY: klastrowanie zmienności leptokurtyczność grube ogony
Załóżmy, że dla każdego t Z istnieje średnia oraz wariancja X t. Oznaczmy
Załóżmy, że dla każdego t Z istnieje średnia oraz wariancja X t. Oznaczmy µ(t) = E(X t ), t Z
Załóżmy, że dla każdego t Z istnieje średnia oraz wariancja X t. Oznaczmy µ(t) = E(X t ), t Z γ(t, s) = E((X t µ(t))(x s µ(s))), t, s Z
Załóżmy, że dla każdego t Z istnieje średnia oraz wariancja X t. Oznaczmy µ(t) = E(X t ), t Z UWAGA γ(t, s) = E((X t µ(t))(x s µ(s))), t, s Z
Załóżmy, że dla każdego t Z istnieje średnia oraz wariancja X t. Oznaczmy µ(t) = E(X t ), t Z UWAGA γ(t, s) = E((X t µ(t))(x s µ(s))), γ(t, s) = γ(s, t) dla wszystkich t, s t, s Z
Załóżmy, że dla każdego t Z istnieje średnia oraz wariancja X t. Oznaczmy µ(t) = E(X t ), t Z γ(t, s) = E((X t µ(t))(x s µ(s))), t, s Z UWAGA γ(t, s) = γ(s, t) dla wszystkich t, s γ(t, t) = E((X t µ(t))(x t µ(t))) = E(X t µ(t)) 2 = Var(X t )
1 Ścisła stacjonarność Szereg czasowy (X t ) t Z jest ściśle stacjonarny jeśli X t1,..., X tn = d X t1 +k,..., X tn+k dla wszystkich t 1,... t n, k Z i dla każdego n N
1 Ścisła stacjonarność Szereg czasowy (X t ) t Z jest ściśle stacjonarny jeśli X t1,..., X tn = d X t1 +k,..., X tn+k dla wszystkich t 1,... t n, k Z i dla każdego n N 2 Kowariancyjna stacjonarność Szereg czasowy (X t ) t Z jest kowariancyjnie stacjonarny (lub słabo stacjonarny) jeśli dwa pierwsze momenty istnieją oraz spełniają: µ(t) = µ, t Z γ(t, s) = γ(t + k, s + k), t, s, k Z
γ(t s, 0) = γ(t, s) = γ(s, t) = γ(s t, 0)
γ(t s, 0) = γ(t, s) = γ(s, t) = γ(s t, 0) Dla kowariancyjnie stacjonarnych procesów γ(h) := γ(h, 0), h Z
γ(t s, 0) = γ(t, s) = γ(s, t) = γ(s t, 0) Dla kowariancyjnie stacjonarnych procesów γ(h) := γ(h, 0), h Z γ(0) = Var(X t ) dla każdego t
γ(t s, 0) = γ(t, s) = γ(s, t) = γ(s t, 0) Dla kowariancyjnie stacjonarnych procesów γ(h) := γ(h, 0), h Z γ(0) = Var(X t ) dla każdego t Funkcja autokorelacji Funkcją autokorelacji ρ(h) kowariancyjnie stacjonarnego procesu (X t ) t Z nazywamy ρ(h) = ρ(x h, X 0 ) = γ(h) γ(0) h Z
Podstawowym budulcem modeli szeregów czasowych są stacjonarne procesy bez seryjnej korelacji, znane jako biały szum.
Podstawowym budulcem modeli szeregów czasowych są stacjonarne procesy bez seryjnej korelacji, znane jako biały szum. 1 Biały szum Proces (X t ) t Z nazywamy białym szumem jeśli jest kowariancyjnie stacjonarny z funkcja autokorelacji { 1; h = 0 ρ(h) = 0; h 0 Procesy białego szumu o średniej zero i wariancji σ 2 będziemy oznaczać WN(0, σ 2 ).
Podstawowym budulcem modeli szeregów czasowych są stacjonarne procesy bez seryjnej korelacji, znane jako biały szum. 1 Biały szum Proces (X t ) t Z nazywamy białym szumem jeśli jest kowariancyjnie stacjonarny z funkcja autokorelacji { 1; h = 0 ρ(h) = 0; h 0 Procesy białego szumu o średniej zero i wariancji σ 2 będziemy oznaczać WN(0, σ 2 ). 2 Ścisły biały szum Proces (X t ) t Z nazywamy ścisłym białym szumem jeśli jest szeregiem niezależnych zmiennych losowych o skończonej wariancji. Ścisły biały szum o średniej zero i wariancji σ 2 będziemy oznaczać SWN(0, σ 2 ).
Niech (F t ) t Z = σ(x s : s t)
Niech (F t ) t Z = σ(x s : s t) Różnica martyngałowa Szereg czasowy (X t ) t Z nazywamy różnicą martyngałową w odniesieniu do filtracji (F t ) t Z jeśli E X t <, X t jest F t -mierzalna i t Z E(X t F t 1 ) = 0
UWAGA
UWAGA Średnia takiego procesu także wynosi 0. E(X t ) = E(E(X t F t 1 )) = 0, t Z
UWAGA Średnia takiego procesu także wynosi 0. E(X t ) = E(E(X t F t 1 )) = 0, t Z Jeśli E(X 2 t ) < dla każdego t to autokowariancja spełnia γ(t, s) = E(X t X s ) = { E(E(X = t X s F s 1 )) = E(X t E(X s F s 1 )) = 0, t < s E(E(X t X s F t 1 )) = E(X s E(X t F t 1 )) = 0, t > s;
UWAGA Średnia takiego procesu także wynosi 0. E(X t ) = E(E(X t F t 1 )) = 0, t Z Jeśli E(X 2 t ) < dla każdego t to autokowariancja spełnia γ(t, s) = E(X t X s ) = { E(E(X = t X s F s 1 )) = E(X t E(X s F s 1 )) = 0, t < s E(E(X t X s F t 1 )) = E(X s E(X t F t 1 )) = 0, t > s; Zatem ciąg różnic martyngałowych o skończonej wariancji ma średnią zero i zerową kowariancję. Jeśli wariancja jest stała dla wszystkich t, to proces ten jest białym szumem.
Przyjmijmy następującą notację: (ε t ) t Z -biały szum, (Z t ) t Z -ścisły biały szum
Przyjmijmy następującą notację: (ε t ) t Z -biały szum, (Z t ) t Z -ścisły biały szum Proces ARMA AutoRegressive Moving Average Niech (ε t ) t Z WN(0, σ 2 ). Proces (X t ) t Z jest procesem ARMA(p, q) o średniej zero jeśli jest kowariancyjnie stacjonarnym procesem spełniającym następujące równanie (1) X t φ 1 X t 1... φ p X t p = ε t +θ 1 ε t 1 +...+θ q ε t q t Z
Przyjmijmy następującą notację: (ε t ) t Z -biały szum, (Z t ) t Z -ścisły biały szum Proces ARMA AutoRegressive Moving Average Niech (ε t ) t Z WN(0, σ 2 ). Proces (X t ) t Z jest procesem ARMA(p, q) o średniej zero jeśli jest kowariancyjnie stacjonarnym procesem spełniającym następujące równanie (1) X t φ 1 X t 1... φ p X t p = ε t +θ 1 ε t 1 +...+θ q ε t q t Z (X t ) t Z jest procesem ARMA ze średnią µ jeśli proces (X t µ) t Z jest procesem ARMA(p, q) ze średnią zero.
Rozważania ograniczymy do procesów spełniających równanie (1), które mają następującą reprezentację: X t = ψ i ε t i (2) i=0 gdzie ψ i są współczynnikami, które spełniają warunek: ψ i < (3) i=0 Są to tak zwane procesy przyczynowe.
Rozważania ograniczymy do procesów spełniających równanie (1), które mają następującą reprezentację: X t = ψ i ε t i (2) i=0 gdzie ψ i są współczynnikami, które spełniają warunek: ψ i < (3) i=0 Są to tak zwane procesy przyczynowe. Twierdzenie Każdy proces spełniający (2) i (3) jest kowariancyjnie stacjonarny z funkcją korelacji postaci ψ i ψ i+h i=0 ρ(h) =, h N (4) ψi 2 i=0
Przykład 1. Proces MA(q) (ARMA(0,q)) X t = q θ i ε t i + ε t i=1
Przykład 1. Proces MA(q) (ARMA(0,q)) gdzie θ 0 = 1. ρ(h) = X t = q h i=0 q θ i ε t i + ε t i=1 θ i θ i+h q, h 0, 1, 2,..., q θi 2 i=0
Przykład 1. Proces MA(q) (ARMA(0,q)) ρ(h) = X t = q h i=0 q θ i ε t i + ε t i=1 θ i θ i+h q, h 0, 1, 2,..., q θi 2 i=0 gdzie θ 0 = 1. Dla h > q mamy ρ(h) = 0 i mówimy, że funkcja autokorelacji jest odcięta w q.
Przykład 1. Proces MA(q) (ARMA(0,q)) ρ(h) = X t = q h i=0 q θ i ε t i + ε t i=1 θ i θ i+h q, h 0, 1, 2,..., q θi 2 i=0 gdzie θ 0 = 1. Dla h > q mamy ρ(h) = 0 i mówimy, że funkcja autokorelacji jest odcięta w q. MA(4): θ 0 = 1, θ 1 = 0, 8, θ 2 = 0, 4, θ 3 = 0, 2, θ 4 = 0, 3 ε t N(0, 1) X t = ε t 0, 8ε t 1 + 0, 4ε t 2 + 0, 2ε t 3 0, 3ε t 4
Przykład 2. Proces AR(1) t X t = φx t 1 + ε t
Przykład 2. Proces AR(1) t X t = φx t 1 + ε t k X t = φ(φx t 2 + ε t 1 ) + ε t =... = φ k+1 X t k 1 + φ i ε t i i=0
Przykład 2. Proces AR(1) t X t = φx t 1 + ε t k X t = φ(φx t 2 + ε t 1 ) + ε t =... = φ k+1 X t k 1 + φ i ε t i AR(1) jest przyczynowy φ < 1 i=0
Przykład 2. Proces AR(1) t X t = φx t 1 + ε t k X t = φ(φx t 2 + ε t 1 ) + ε t =... = φ k+1 X t k 1 + φ i ε t i AR(1) jest przyczynowy φ < 1 Proces X t = φ i ε t i jest jedynym rozwiązaniem powyższego i=0 równania ( AR(1) = MA( )) i=0
Przykład 2. Proces AR(1) t X t = φx t 1 + ε t k X t = φ(φx t 2 + ε t 1 ) + ε t =... = φ k+1 X t k 1 + φ i ε t i AR(1) jest przyczynowy φ < 1 Proces X t = φ i ε t i jest jedynym rozwiązaniem powyższego i=0 równania ( AR(1) = MA( )) i=0 ρ(h) = i=0 i=0 φ i φ i+h φ 2i = φ h φ 2i i=0 i=0 φ 2i = φ h, h N
Przykład 3. Proces ARMA(1,1) X t φx t 1 = ε t + θε t 1, t Z
Przykład 3. Proces ARMA(1,1) X t φx t 1 = ε t + θε t 1, t Z X t = ε t + θε t 1 + φx t 1
Przykład 3. Proces ARMA(1,1) X t φx t 1 = ε t + θε t 1, t Z X t = ε t + θε t 1 + φx t 1 = ε t + θx t 1 θφx t 2 θ 2 ε t 2 + φx t 1
Przykład 3. Proces ARMA(1,1) X t φx t 1 = ε t + θε t 1, t Z X t = ε t + θε t 1 + φx t 1 = ε t + θx t 1 θφx t 2 θ 2 ε t 2 + φx t 1 = ε t + (θ + φ)x t 1 θφx t 2 θ 2 X t 2 + θ 2 φx t 3 + θ 3 ε t 3
Przykład 3. Proces ARMA(1,1) X t φx t 1 = ε t + θε t 1, t Z X t = ε t + θε t 1 + φx t 1 = ε t + θx t 1 θφx t 2 θ 2 ε t 2 + φx t 1 = ε t + (θ + φ)x t 1 θφx t 2 θ 2 X t 2 + θ 2 φx t 3 + θ 3 ε t 3 =... = ε t + (θ + φ) ( θ) i 1 X t i i=1
Przykład 3. Proces ARMA(1,1) X t φx t 1 = ε t + θε t 1, t Z X t = ε t + θε t 1 + φx t 1 = ε t + θx t 1 θφx t 2 θ 2 ε t 2 + φx t 1 = ε t + (θ + φ)x t 1 θφx t 2 θ 2 X t 2 + θ 2 φx t 3 + θ 3 ε t 3 =... = ε t + (θ + φ) ( θ) i 1 X t i i=1 X t = ε t + (θ + φ) i=1 ( θ) i 1 X t i
Przykład 3. Proces ARMA(1,1) X t φx t 1 = ε t + θε t 1, t Z X t = ε t + θε t 1 + φx t 1 = ε t + θx t 1 θφx t 2 θ 2 ε t 2 + φx t 1 = ε t + (θ + φ)x t 1 θφx t 2 θ 2 X t 2 + θ 2 φx t 3 + θ 3 ε t 3 =... = ε t + (θ + φ) ( θ) i 1 X t i i=1 X t = ε t + (θ + φ) i=1 ε t = X t (θ + φ) i=1 ( θ) i 1 X t i ( θ) i 1 X t i ε t można wyrazić za pomocą historii X t
Przykład 3. Proces ARMA(1,1) X t φx t 1 = ε t + θε t 1, t Z X t = ε t + θε t 1 + φx t 1 = ε t + θx t 1 θφx t 2 θ 2 ε t 2 + φx t 1 = ε t + (θ + φ)x t 1 θφx t 2 θ 2 X t 2 + θ 2 φx t 3 + θ 3 ε t 3 =... = ε t + (θ + φ) ( θ) i 1 X t i i=1 X t = ε t + (θ + φ) i=1 ε t = X t (θ + φ) i=1 ( θ) i 1 X t i ( θ) i 1 X t i ε t można wyrazić za pomocą historii X t ARMA(1, 1) = AR( )
Załóżmy, że mamy próbę losową X 1,..., X n
Załóżmy, że mamy próbę losową X 1,..., X n Autokowariancja próby ˆγ(h) = 1 n n h t=1 (X t+h X)(X t X), 0 h < n, gdzie X = n t=1 X t n
Załóżmy, że mamy próbę losową X 1,..., X n Autokowariancja próby ˆγ(h) = 1 n gdzie X = n t=1 n h X t n t=1 Autokorelacja próby (X t+h X)(X t X), 0 h < n, ˆρ(h) = ˆγ(h) ˆγ(0), 0 h < n.
Załóżmy, że mamy próbę losową X 1,..., X n Autokowariancja próby ˆγ(h) = 1 n gdzie X = n t=1 n h X t n t=1 Autokorelacja próby (X t+h X)(X t X), 0 h < n, ˆρ(h) = ˆγ(h) ˆγ(0), 0 h < n. wykres {(h, ˆρ(h)) : h = 0, 1, 2,...} nazywamy korelogramem
Twierdzenie Niech (X t ) t Z będzie liniowym procesem X t µ = gdzie i=0 E(Z 4 t ) < lub i=0 ψ i <, (Z t ) t Z SWN(0, σz 2 ). Załóżmy, że j=0 ψ i Z t i, jψ 2 j <. Wówczas dla h {1, 2,...} mamy n(ˆρ(h) ρ(h)) d N h (0, W ) gdzie ˆρ(h) = (ˆρ(1),..., ˆρ(h)), ρ(h) = (ρ(1),..., ρ(h)), a W ma elementy W i,j = (ρ(k + i) + ρ(k i) 2ρ(i)ρ(k))(ρ(k + j) + ρ(k j) 2ρ(j)ρ(k)). k=1
Warunek iψi 2 i=0 < jest spełniony dla procesów ARMA, więc procesy ARMA prowadzone przez SWN są w zasięgu tego twierdzenia (niezależnie czy czwarty moment istnieje czy nie).
Warunek iψi 2 i=0 < jest spełniony dla procesów ARMA, więc procesy ARMA prowadzone przez SWN są w zasięgu tego twierdzenia (niezależnie czy czwarty moment istnieje czy nie). Trywialnie twierdzenie ma także zastosowanie dla SWN samego w sobie.
Warunek iψi 2 i=0 < jest spełniony dla procesów ARMA, więc procesy ARMA prowadzone przez SWN są w zasięgu tego twierdzenia (niezależnie czy czwarty moment istnieje czy nie). Trywialnie twierdzenie ma także zastosowanie dla SWN samego w sobie. Dla SWN mamy nˆρ(h) d N h (0, I h ),
Warunek iψi 2 i=0 < jest spełniony dla procesów ARMA, więc procesy ARMA prowadzone przez SWN są w zasięgu tego twierdzenia (niezależnie czy czwarty moment istnieje czy nie). Trywialnie twierdzenie ma także zastosowanie dla SWN samego w sobie. Dla SWN mamy nˆρ(h) d N h (0, I h ), więc dla dostatecznie dużego n autokorelacje próby danych procesu SWN będą się zachowywać jak niezależne normalne obserwacje ze średnią zero i wariancją 1 n. 95% szacowanych korelacji powinno leżeć w przedziale ( 1,96 n, 1,96 n ). Jeśli więcej niż 5% szacowanych korelacji leży poza tymi przedziałami, wówczas rozważamy to jako dowód przeciwko hipotezie zerowej, że dane są ścisłym białym szumem.
Warunek iψi 2 i=0 < jest spełniony dla procesów ARMA, więc procesy ARMA prowadzone przez SWN są w zasięgu tego twierdzenia (niezależnie czy czwarty moment istnieje czy nie). Trywialnie twierdzenie ma także zastosowanie dla SWN samego w sobie. Dla SWN mamy nˆρ(h) d N h (0, I h ), więc dla dostatecznie dużego n autokorelacje próby danych procesu SWN będą się zachowywać jak niezależne normalne obserwacje ze średnią zero i wariancją 1 n. 95% szacowanych korelacji powinno leżeć w przedziale ( 1,96 n, 1,96 n ). Jeśli więcej niż 5% szacowanych korelacji leży poza tymi przedziałami, wówczas rozważamy to jako dowód przeciwko hipotezie zerowej, że dane są ścisłym białym szumem.
PRZEWIDYWANIE
PRZEWIDYWANIE 1 Za pomocą modelu ARMA
PRZEWIDYWANIE 1 Za pomocą modelu ARMA Przyczynowy odwracalny proces ARMA ma reprezentację X t = µ t + ε t, µ t = µ + p φ i (X t i µ) + i=1 q θ j ε t j j=1
PRZEWIDYWANIE 1 Za pomocą modelu ARMA Przyczynowy odwracalny proces ARMA ma reprezentację X t = µ t + ε t, µ t = µ + (F t ) t Z = σ(x s : s t) p φ i (X t i µ) + i=1 q θ j ε t j j=1
PRZEWIDYWANIE 1 Za pomocą modelu ARMA Przyczynowy odwracalny proces ARMA ma reprezentację X t = µ t + ε t, µ t = µ + p φ i (X t i µ) + i=1 q θ j ε t j (F t ) t Z = σ(x s : s t) innowacje (ε t ) t Z mają własność różnicy martyngałowej w odniesieniu do filtracji (F t ) t Z j=1
PRZEWIDYWANIE 1 Za pomocą modelu ARMA Przyczynowy odwracalny proces ARMA ma reprezentację X t = µ t + ε t, µ t = µ + p φ i (X t i µ) + i=1 q θ j ε t j (F t ) t Z = σ(x s : s t) innowacje (ε t ) t Z mają własność różnicy martyngałowej w odniesieniu do filtracji (F t ) t Z mamy próbę n danych X t n+1,..., X t. j=1
PRZEWIDYWANIE 1 Za pomocą modelu ARMA Przyczynowy odwracalny proces ARMA ma reprezentację X t = µ t + ε t, µ t = µ + p φ i (X t i µ) + i=1 q θ j ε t j (F t ) t Z = σ(x s : s t) innowacje (ε t ) t Z mają własność różnicy martyngałowej w odniesieniu do filtracji (F t ) t Z mamy próbę n danych X t n+1,..., X t. celem jest przewidzenie X t+h przewidywanie oznaczamy przez P t X t+h j=1
PRZEWIDYWANIE 1 Za pomocą modelu ARMA Przyczynowy odwracalny proces ARMA ma reprezentację X t = µ t + ε t, µ t = µ + p φ i (X t i µ) + i=1 q θ j ε t j (F t ) t Z = σ(x s : s t) innowacje (ε t ) t Z mają własność różnicy martyngałowej w odniesieniu do filtracji (F t ) t Z mamy próbę n danych X t n+1,..., X t. celem jest przewidzenie X t+h przewidywanie oznaczamy przez P t X t+h Do przewidywania X t+h używamy warunkowej wartości oczekiwanej E (X t+h F t ) j=1
PRZEWIDYWANIE 1 Za pomocą modelu ARMA Przyczynowy odwracalny proces ARMA ma reprezentację X t = µ t + ε t, µ t = µ + p φ i (X t i µ) + i=1 q θ j ε t j (F t ) t Z = σ(x s : s t) innowacje (ε t ) t Z mają własność różnicy martyngałowej w odniesieniu do filtracji (F t ) t Z mamy próbę n danych X t n+1,..., X t. celem jest przewidzenie X t+h przewidywanie oznaczamy przez P t X t+h Do przewidywania X t+h używamy warunkowej wartości oczekiwanej E (X t+h F t ) Główną ideą jest, dla h 1 to, że przewidywanie E (X t+h F t ) można rekurencyjnie rozwiązać za pomocą E (X t+h 1 F t ) j=1
PRZEWIDYWANIE Przykład: Przewidywanie modelu ARMA(1,1)
PRZEWIDYWANIE Przykład: Przewidywanie modelu ARMA(1,1) X t = µ t + ε t, µ t = µ + φ(x t 1 µ) + θε t 1
PRZEWIDYWANIE Przykład: Przewidywanie modelu ARMA(1,1) X t = µ t + ε t, µ t = µ + φ(x t 1 µ) + θε t 1 E (X t+1 F t ) = E (µ t+1 + ε t+1 F t ) = µ t+1 = µ + φ(x t µ) + θε t,
PRZEWIDYWANIE Przykład: Przewidywanie modelu ARMA(1,1) X t = µ t + ε t, µ t = µ + φ(x t 1 µ) + θε t 1 E (X t+1 F t ) = E (µ t+1 + ε t+1 F t ) = µ t+1 = µ + φ(x t µ) + θε t, E (X t+2 F t ) = E (µ t+2 F t ) = µ + φ(e (X t+1 F t ) µ) = µ + φ 2 (X t µ) + φθε t,...
PRZEWIDYWANIE Przykład: Przewidywanie modelu ARMA(1,1) X t = µ t + ε t, µ t = µ + φ(x t 1 µ) + θε t 1 E (X t+1 F t ) = E (µ t+1 + ε t+1 F t ) = µ t+1 = µ + φ(x t µ) + θε t, E (X t+2 F t ) = E (µ t+2 F t ) = µ + φ(e (X t+1 F t ) µ) = µ + φ 2 (X t µ) + φθε t,... E (X t+h F t ) = µ + φ h (X t µ) + φ h 1 θε t.
PRZEWIDYWANIE Przykład: Przewidywanie modelu ARMA(1,1) X t = µ t + ε t, µ t = µ + φ(x t 1 µ) + θε t 1 E (X t+1 F t ) = E (µ t+1 + ε t+1 F t ) = µ t+1 = µ + φ(x t µ) + θε t, E (X t+2 F t ) = E (µ t+2 F t ) = µ + φ(e (X t+1 F t ) µ) = µ + φ 2 (X t µ) + φθε t,... E (X t+h F t ) = µ + φ h (X t µ) + φ h 1 θε t. Jeżeli znamy historyczne wartości (X s ) s t przewidywana wartość może być obliczona dokładnie!
PRZEWIDYWANIE 1 Za pomocą modelu ARMA
PRZEWIDYWANIE 1 Za pomocą modelu ARMA 2 Eksponencjalne wygładzanie
PRZEWIDYWANIE 1 Za pomocą modelu ARMA 2 Eksponencjalne wygładzanie nasze dane reprezentują realizację zmiennych losowych Y t n+1,..., Y t rozważanych bez odniesienia do żadnego konkretnego modelu parametrycznego
PRZEWIDYWANIE 1 Za pomocą modelu ARMA 2 Eksponencjalne wygładzanie nasze dane reprezentują realizację zmiennych losowych Y t n+1,..., Y t rozważanych bez odniesienia do żadnego konkretnego modelu parametrycznego P t Y t+1 = n 1 α(1 α) i Y t i gdzie 0 < α < 1 i=0
PRZEWIDYWANIE 1 Za pomocą modelu ARMA 2 Eksponencjalne wygładzanie nasze dane reprezentują realizację zmiennych losowych Y t n+1,..., Y t rozważanych bez odniesienia do żadnego konkretnego modelu parametrycznego P t Y t+1 = n 1 α(1 α) i Y t i gdzie 0 < α < 1 i=0 P t Y t+1 = n 1 α(1 α) i Y t i = i=0 αy t + (1 α) n 1 α(1 α) i 1 Y t i = i=1 αy t + (1 α) n 2 α(1 α) j Y t 1 j = αy t + (1 α)p t 1 Y t j=0
Szereg czasowy może mieć
Szereg czasowy może mieć stałą wariancję
Szereg czasowy może mieć stałą wariancję wariancję, która zmienia się w czasie
Szereg czasowy może mieć stałą wariancję wariancję, która zmienia się w czasie Analiza danych na rynkach finansowych pokazuje, że większość finansowych szeregów czasowych nie ma stałej wariancji
Szereg czasowy może mieć stałą wariancję wariancję, która zmienia się w czasie Analiza danych na rynkach finansowych pokazuje, że większość finansowych szeregów czasowych nie ma stałej wariancji Pierwszy model został zaprezentowany w 1982 roku (Engel i Nelson) ARCH (AutoRegressive Conditionaly Heteroscedastic)
Proces ARCH(p) Niech (Z t ) t Z będzie SWN(0, 1). Proces (X t ) t Z jest procesem ARCH(p) jeśli jest ściśle stacjonarny oraz dla każdego t Z i pewnego ściśle dodatniego procesu (σ t ) t Z spełnia równania X t = σ t Z t p σt 2 = α 0 + α i X 2 t i i=1 gdzie α 0 > 0 i α i 0, i = 1,..., p.
W 1987 roku zaproponowali model GARCH (Generalized ARCH)
W 1987 roku zaproponowali model GARCH (Generalized ARCH) Niech (Z t ) t Z będzie SWN(0,1). Proces (X t ) t Z jest procesem GARCH(p, q) jeśli jest ściśle stacjonarny i jeśli spełnia dla każdego t Z i pewnego ściśle dodatniego procesu (σ t ) t Z równania X t = σ t Z t, σ 2 t = α 0 + p α i X 2 t i + i=1 q β j σt j 2 j=1 gdzie α 0 > 0, α i 0, i = 1,..., p i β j 0, j = 1,..., q.