Finansowe szeregi czasowe



Podobne dokumenty
WYKŁAD: Szeregi czasowe I. Zaawansowane Metody Uczenia Maszynowego

Wprowadzenie do szeregów czasowych i modelu ARIMA

Szeregi czasowe, analiza zależności krótkoi długozasięgowych

WYKŁAD: Szeregi czasowe II. Zaawansowane Metody Uczenia Maszynowego

Analiza szeregów czasowych: 7. Liniowe modele stochastyczne

Analiza szeregów czasowych: 5. Liniowe modele stochastyczne

Stacjonarność Integracja. Integracja. Integracja

2. Założenie niezależności zakłóceń modelu - autokorelacja składnika losowego - test Durbina - Watsona

Podczas zajęć będziemy zajmować się głownie procesami ergodycznymi zdefiniowanymi na przestrzeniach ciągłych.

Estymacja przedziałowa - przedziały ufności dla średnich. Wrocław, 5 grudnia 2014

2. P (E) = 1. β B. TSIM W3: Sygnały stochastyczne 1/27

Wykład 10 Estymacja przedziałowa - przedziały ufności dla średn

3. Analiza własności szeregu czasowego i wybór typu modelu

Modele warunkowej heteroscedastyczności

Analiza autokorelacji

WYMAGANIA WSTĘPNE W ZAKRESIE WIEDZY, UMIEJĘTNOŚCI I INNYCH KOMPETENCJI

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

WYMAGANIA WSTĘPNE W ZAKRESIE WIEDZY, UMIEJĘTNOŚCI I INNYCH KOMPETENCJI

Metoda momentów i kwantyli próbkowych. Wrocław, 7 listopada 2014

Prognozowanie i Symulacje. Wykład VI. Niestacjonarne szeregi czasowe

Modelowanie ekonometryczne

EGZAMIN MAGISTERSKI, 18 września 2013 Biomatematyka

Wyk ad II. Stacjonarne szeregi czasowe.

Wprowadzenie Model ARMA Sezonowość Prognozowanie Model regresji z błędami ARMA. Modele ARMA

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

Układy stochastyczne

F t+ := s>t. F s = F t.

Definicja 1 Statystyką nazywamy (mierzalną) funkcję obserwowalnego wektora losowego

Procesy stochastyczne

27. RÓWNANIA RÓŻNICZKOWE CZĄSTKOWE

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014

Prawdopodobieństwo i statystyka

Modelowanie rynków finansowych

Prawa wielkich liczb, centralne twierdzenia graniczne

Procesy stochastyczne

Stacjonarne procesy gaussowskie, czyli o zwiazkach pomiędzy zwykła

Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności. dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl

Rozkłady statystyk z próby

FUNKCJA LINIOWA. A) B) C) D) Wskaż, dla którego funkcja liniowa określona wzorem jest stała. A) B) C) D)

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych

Zmienne losowe, statystyki próbkowe. Wrocław, 2 marca 2015

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa

Centralne twierdzenie graniczne

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

Modele zapisane w przestrzeni stanów

Kolokwium ze statystyki matematycznej

STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA

Funkcja liniowa - podsumowanie

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów

Fuzja sygnałów i filtry bayesowskie

7. Estymacja parametrów w modelu normalnym( ) Pojęcie losowej próby prostej

VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa.

Wnioskowanie statystyczne. Statystyka w 5

Współczynnik korelacji. Współczynnik korelacji jest miernikiem zależności między dwiema cechami Oznaczenie: ϱ

O procesie Wienera. O procesie Wienera. Procesy stochastyczne Wykład XV, 15 czerwca 2015 r. Proces Wienera. Ruch Browna. Ułamkowe ruchy Browna

Wykład 5 Estymatory nieobciążone z jednostajnie minimalną war

Prawdopodobieństwo i statystyka

Wykład 3 Jednowymiarowe zmienne losowe

Statystyka od podstaw Janina Jóźwiak, Jarosław Podgórski

Zadanie 1. Liczba szkód N w ciągu roku z pewnego ryzyka ma rozkład geometryczny: k =

Estymacja parametrów w modelu normalnym

STATYSTYKA

Prawdopodobieństwo i statystyka

Analiza szeregów czasowych: 6. Liniowe modele niestacjonarne

wprowadzenie do analizy szeregów czasowych

Szczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć)

Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału

Na podstawie dokonanych obserwacji:

Czasowy wymiar danych

Statystyka i eksploracja danych

Metody Prognozowania

Katedra Fizyki Ciała Stałego Uniwersytetu Łódzkiego. Ćwiczenie 2 Badanie funkcji korelacji w przebiegach elektrycznych.

Teoria. a, jeśli a < 0.

W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych:

Statystyka matematyczna dla kierunku Rolnictwo w SGGW. BADANIE WSPÓŁZALEśNOŚCI DWÓCH CECH. ANALIZA KORELACJI PROSTEJ.

Modelowanie zachowania kursu EURUSD po ogłoszeniu odczytu US Nonfarm Payrolls z wykorzystaniem modeli ARIMA-GARCH

Metody probabilistyczne

Na A (n) rozważamy rozkład P (n) , który na zbiorach postaci A 1... A n określa się jako P (n) (X n, A (n), P (n)

SIMR 2017/18, Statystyka, Przykładowe zadania do kolokwium - Rozwiązania

Metody numeryczne I Równania nieliniowe

Testowanie hipotez statystycznych.

Własności statystyczne regresji liniowej. Wykład 4

Metoda największej wiarygodności

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.

0.1 Modele Dynamiczne

0.1 Modele Dynamiczne

Przyczynowość Kointegracja. Kointegracja. Kointegracja

Statystyka matematyczna dla leśników

PDF created with FinePrint pdffactory Pro trial version

Testowanie hipotez dla dwóch zmiennych zależnych. Moc testu. Minimalna liczność próby; Regresja prosta; Korelacja Pearsona;

Recenzenci: prof. dr hab. Henryk Domański dr hab. Jarosław Górniak

Statystyka. #5 Testowanie hipotez statystycznych. Aneta Dzik-Walczak Małgorzata Kalbarczyk-Stęclik. rok akademicki 2016/ / 28

Szczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć)

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe

Heteroskedastyczość w szeregach czasowyh

1 Zmienne losowe wielowymiarowe.

Zagadnienia brzegowe dla równań eliptycznych

Transkrypt:

24 kwietnia 2009

Modelem szeregu czasowego jest proces stochastyczny (X t ) t Z, czyli rodzina zmiennych losowych, indeksowanych liczbami całkowitymi i zdefiniowanych na pewnej przestrzeni probabilistycznej (Ω, F, P).

Modelem szeregu czasowego jest proces stochastyczny (X t ) t Z, czyli rodzina zmiennych losowych, indeksowanych liczbami całkowitymi i zdefiniowanych na pewnej przestrzeni probabilistycznej (Ω, F, P). PRZYKŁAD:

Modelem szeregu czasowego jest proces stochastyczny (X t ) t Z, czyli rodzina zmiennych losowych, indeksowanych liczbami całkowitymi i zdefiniowanych na pewnej przestrzeni probabilistycznej (Ω, F, P). PRZYKŁAD: Niech (S t ) t=0,1,...,n będzie ciągiem cen akcji, wartości indeksów, itp...

Modelem szeregu czasowego jest proces stochastyczny (X t ) t Z, czyli rodzina zmiennych losowych, indeksowanych liczbami całkowitymi i zdefiniowanych na pewnej przestrzeni probabilistycznej (Ω, F, P). PRZYKŁAD: Niech (S t ) t=0,1,...,n będzie ciągiem cen akcji, wartości indeksów, itp... Formujemy zwroty ( St ) X t = ln S t ln S t 1 = ln S t 1

Rysunek: Zwroty indeksu DAX

Rysunek: Zwroty indeksu DAX

Rysunek: Zwroty indeksu DAX STYLIZOWANE FAKTY:

Rysunek: Zwroty indeksu DAX STYLIZOWANE FAKTY: klastrowanie zmienności

Rysunek: Zwroty indeksu DAX STYLIZOWANE FAKTY: klastrowanie zmienności leptokurtyczność

Rysunek: Zwroty indeksu DAX STYLIZOWANE FAKTY: klastrowanie zmienności leptokurtyczność grube ogony

Załóżmy, że dla każdego t Z istnieje średnia oraz wariancja X t. Oznaczmy

Załóżmy, że dla każdego t Z istnieje średnia oraz wariancja X t. Oznaczmy µ(t) = E(X t ), t Z

Załóżmy, że dla każdego t Z istnieje średnia oraz wariancja X t. Oznaczmy µ(t) = E(X t ), t Z γ(t, s) = E((X t µ(t))(x s µ(s))), t, s Z

Załóżmy, że dla każdego t Z istnieje średnia oraz wariancja X t. Oznaczmy µ(t) = E(X t ), t Z UWAGA γ(t, s) = E((X t µ(t))(x s µ(s))), t, s Z

Załóżmy, że dla każdego t Z istnieje średnia oraz wariancja X t. Oznaczmy µ(t) = E(X t ), t Z UWAGA γ(t, s) = E((X t µ(t))(x s µ(s))), γ(t, s) = γ(s, t) dla wszystkich t, s t, s Z

Załóżmy, że dla każdego t Z istnieje średnia oraz wariancja X t. Oznaczmy µ(t) = E(X t ), t Z γ(t, s) = E((X t µ(t))(x s µ(s))), t, s Z UWAGA γ(t, s) = γ(s, t) dla wszystkich t, s γ(t, t) = E((X t µ(t))(x t µ(t))) = E(X t µ(t)) 2 = Var(X t )

1 Ścisła stacjonarność Szereg czasowy (X t ) t Z jest ściśle stacjonarny jeśli X t1,..., X tn = d X t1 +k,..., X tn+k dla wszystkich t 1,... t n, k Z i dla każdego n N

1 Ścisła stacjonarność Szereg czasowy (X t ) t Z jest ściśle stacjonarny jeśli X t1,..., X tn = d X t1 +k,..., X tn+k dla wszystkich t 1,... t n, k Z i dla każdego n N 2 Kowariancyjna stacjonarność Szereg czasowy (X t ) t Z jest kowariancyjnie stacjonarny (lub słabo stacjonarny) jeśli dwa pierwsze momenty istnieją oraz spełniają: µ(t) = µ, t Z γ(t, s) = γ(t + k, s + k), t, s, k Z

γ(t s, 0) = γ(t, s) = γ(s, t) = γ(s t, 0)

γ(t s, 0) = γ(t, s) = γ(s, t) = γ(s t, 0) Dla kowariancyjnie stacjonarnych procesów γ(h) := γ(h, 0), h Z

γ(t s, 0) = γ(t, s) = γ(s, t) = γ(s t, 0) Dla kowariancyjnie stacjonarnych procesów γ(h) := γ(h, 0), h Z γ(0) = Var(X t ) dla każdego t

γ(t s, 0) = γ(t, s) = γ(s, t) = γ(s t, 0) Dla kowariancyjnie stacjonarnych procesów γ(h) := γ(h, 0), h Z γ(0) = Var(X t ) dla każdego t Funkcja autokorelacji Funkcją autokorelacji ρ(h) kowariancyjnie stacjonarnego procesu (X t ) t Z nazywamy ρ(h) = ρ(x h, X 0 ) = γ(h) γ(0) h Z

Podstawowym budulcem modeli szeregów czasowych są stacjonarne procesy bez seryjnej korelacji, znane jako biały szum.

Podstawowym budulcem modeli szeregów czasowych są stacjonarne procesy bez seryjnej korelacji, znane jako biały szum. 1 Biały szum Proces (X t ) t Z nazywamy białym szumem jeśli jest kowariancyjnie stacjonarny z funkcja autokorelacji { 1; h = 0 ρ(h) = 0; h 0 Procesy białego szumu o średniej zero i wariancji σ 2 będziemy oznaczać WN(0, σ 2 ).

Podstawowym budulcem modeli szeregów czasowych są stacjonarne procesy bez seryjnej korelacji, znane jako biały szum. 1 Biały szum Proces (X t ) t Z nazywamy białym szumem jeśli jest kowariancyjnie stacjonarny z funkcja autokorelacji { 1; h = 0 ρ(h) = 0; h 0 Procesy białego szumu o średniej zero i wariancji σ 2 będziemy oznaczać WN(0, σ 2 ). 2 Ścisły biały szum Proces (X t ) t Z nazywamy ścisłym białym szumem jeśli jest szeregiem niezależnych zmiennych losowych o skończonej wariancji. Ścisły biały szum o średniej zero i wariancji σ 2 będziemy oznaczać SWN(0, σ 2 ).

Niech (F t ) t Z = σ(x s : s t)

Niech (F t ) t Z = σ(x s : s t) Różnica martyngałowa Szereg czasowy (X t ) t Z nazywamy różnicą martyngałową w odniesieniu do filtracji (F t ) t Z jeśli E X t <, X t jest F t -mierzalna i t Z E(X t F t 1 ) = 0

UWAGA

UWAGA Średnia takiego procesu także wynosi 0. E(X t ) = E(E(X t F t 1 )) = 0, t Z

UWAGA Średnia takiego procesu także wynosi 0. E(X t ) = E(E(X t F t 1 )) = 0, t Z Jeśli E(X 2 t ) < dla każdego t to autokowariancja spełnia γ(t, s) = E(X t X s ) = { E(E(X = t X s F s 1 )) = E(X t E(X s F s 1 )) = 0, t < s E(E(X t X s F t 1 )) = E(X s E(X t F t 1 )) = 0, t > s;

UWAGA Średnia takiego procesu także wynosi 0. E(X t ) = E(E(X t F t 1 )) = 0, t Z Jeśli E(X 2 t ) < dla każdego t to autokowariancja spełnia γ(t, s) = E(X t X s ) = { E(E(X = t X s F s 1 )) = E(X t E(X s F s 1 )) = 0, t < s E(E(X t X s F t 1 )) = E(X s E(X t F t 1 )) = 0, t > s; Zatem ciąg różnic martyngałowych o skończonej wariancji ma średnią zero i zerową kowariancję. Jeśli wariancja jest stała dla wszystkich t, to proces ten jest białym szumem.

Przyjmijmy następującą notację: (ε t ) t Z -biały szum, (Z t ) t Z -ścisły biały szum

Przyjmijmy następującą notację: (ε t ) t Z -biały szum, (Z t ) t Z -ścisły biały szum Proces ARMA AutoRegressive Moving Average Niech (ε t ) t Z WN(0, σ 2 ). Proces (X t ) t Z jest procesem ARMA(p, q) o średniej zero jeśli jest kowariancyjnie stacjonarnym procesem spełniającym następujące równanie (1) X t φ 1 X t 1... φ p X t p = ε t +θ 1 ε t 1 +...+θ q ε t q t Z

Przyjmijmy następującą notację: (ε t ) t Z -biały szum, (Z t ) t Z -ścisły biały szum Proces ARMA AutoRegressive Moving Average Niech (ε t ) t Z WN(0, σ 2 ). Proces (X t ) t Z jest procesem ARMA(p, q) o średniej zero jeśli jest kowariancyjnie stacjonarnym procesem spełniającym następujące równanie (1) X t φ 1 X t 1... φ p X t p = ε t +θ 1 ε t 1 +...+θ q ε t q t Z (X t ) t Z jest procesem ARMA ze średnią µ jeśli proces (X t µ) t Z jest procesem ARMA(p, q) ze średnią zero.

Rozważania ograniczymy do procesów spełniających równanie (1), które mają następującą reprezentację: X t = ψ i ε t i (2) i=0 gdzie ψ i są współczynnikami, które spełniają warunek: ψ i < (3) i=0 Są to tak zwane procesy przyczynowe.

Rozważania ograniczymy do procesów spełniających równanie (1), które mają następującą reprezentację: X t = ψ i ε t i (2) i=0 gdzie ψ i są współczynnikami, które spełniają warunek: ψ i < (3) i=0 Są to tak zwane procesy przyczynowe. Twierdzenie Każdy proces spełniający (2) i (3) jest kowariancyjnie stacjonarny z funkcją korelacji postaci ψ i ψ i+h i=0 ρ(h) =, h N (4) ψi 2 i=0

Przykład 1. Proces MA(q) (ARMA(0,q)) X t = q θ i ε t i + ε t i=1

Przykład 1. Proces MA(q) (ARMA(0,q)) gdzie θ 0 = 1. ρ(h) = X t = q h i=0 q θ i ε t i + ε t i=1 θ i θ i+h q, h 0, 1, 2,..., q θi 2 i=0

Przykład 1. Proces MA(q) (ARMA(0,q)) ρ(h) = X t = q h i=0 q θ i ε t i + ε t i=1 θ i θ i+h q, h 0, 1, 2,..., q θi 2 i=0 gdzie θ 0 = 1. Dla h > q mamy ρ(h) = 0 i mówimy, że funkcja autokorelacji jest odcięta w q.

Przykład 1. Proces MA(q) (ARMA(0,q)) ρ(h) = X t = q h i=0 q θ i ε t i + ε t i=1 θ i θ i+h q, h 0, 1, 2,..., q θi 2 i=0 gdzie θ 0 = 1. Dla h > q mamy ρ(h) = 0 i mówimy, że funkcja autokorelacji jest odcięta w q. MA(4): θ 0 = 1, θ 1 = 0, 8, θ 2 = 0, 4, θ 3 = 0, 2, θ 4 = 0, 3 ε t N(0, 1) X t = ε t 0, 8ε t 1 + 0, 4ε t 2 + 0, 2ε t 3 0, 3ε t 4

Przykład 2. Proces AR(1) t X t = φx t 1 + ε t

Przykład 2. Proces AR(1) t X t = φx t 1 + ε t k X t = φ(φx t 2 + ε t 1 ) + ε t =... = φ k+1 X t k 1 + φ i ε t i i=0

Przykład 2. Proces AR(1) t X t = φx t 1 + ε t k X t = φ(φx t 2 + ε t 1 ) + ε t =... = φ k+1 X t k 1 + φ i ε t i AR(1) jest przyczynowy φ < 1 i=0

Przykład 2. Proces AR(1) t X t = φx t 1 + ε t k X t = φ(φx t 2 + ε t 1 ) + ε t =... = φ k+1 X t k 1 + φ i ε t i AR(1) jest przyczynowy φ < 1 Proces X t = φ i ε t i jest jedynym rozwiązaniem powyższego i=0 równania ( AR(1) = MA( )) i=0

Przykład 2. Proces AR(1) t X t = φx t 1 + ε t k X t = φ(φx t 2 + ε t 1 ) + ε t =... = φ k+1 X t k 1 + φ i ε t i AR(1) jest przyczynowy φ < 1 Proces X t = φ i ε t i jest jedynym rozwiązaniem powyższego i=0 równania ( AR(1) = MA( )) i=0 ρ(h) = i=0 i=0 φ i φ i+h φ 2i = φ h φ 2i i=0 i=0 φ 2i = φ h, h N

Przykład 3. Proces ARMA(1,1) X t φx t 1 = ε t + θε t 1, t Z

Przykład 3. Proces ARMA(1,1) X t φx t 1 = ε t + θε t 1, t Z X t = ε t + θε t 1 + φx t 1

Przykład 3. Proces ARMA(1,1) X t φx t 1 = ε t + θε t 1, t Z X t = ε t + θε t 1 + φx t 1 = ε t + θx t 1 θφx t 2 θ 2 ε t 2 + φx t 1

Przykład 3. Proces ARMA(1,1) X t φx t 1 = ε t + θε t 1, t Z X t = ε t + θε t 1 + φx t 1 = ε t + θx t 1 θφx t 2 θ 2 ε t 2 + φx t 1 = ε t + (θ + φ)x t 1 θφx t 2 θ 2 X t 2 + θ 2 φx t 3 + θ 3 ε t 3

Przykład 3. Proces ARMA(1,1) X t φx t 1 = ε t + θε t 1, t Z X t = ε t + θε t 1 + φx t 1 = ε t + θx t 1 θφx t 2 θ 2 ε t 2 + φx t 1 = ε t + (θ + φ)x t 1 θφx t 2 θ 2 X t 2 + θ 2 φx t 3 + θ 3 ε t 3 =... = ε t + (θ + φ) ( θ) i 1 X t i i=1

Przykład 3. Proces ARMA(1,1) X t φx t 1 = ε t + θε t 1, t Z X t = ε t + θε t 1 + φx t 1 = ε t + θx t 1 θφx t 2 θ 2 ε t 2 + φx t 1 = ε t + (θ + φ)x t 1 θφx t 2 θ 2 X t 2 + θ 2 φx t 3 + θ 3 ε t 3 =... = ε t + (θ + φ) ( θ) i 1 X t i i=1 X t = ε t + (θ + φ) i=1 ( θ) i 1 X t i

Przykład 3. Proces ARMA(1,1) X t φx t 1 = ε t + θε t 1, t Z X t = ε t + θε t 1 + φx t 1 = ε t + θx t 1 θφx t 2 θ 2 ε t 2 + φx t 1 = ε t + (θ + φ)x t 1 θφx t 2 θ 2 X t 2 + θ 2 φx t 3 + θ 3 ε t 3 =... = ε t + (θ + φ) ( θ) i 1 X t i i=1 X t = ε t + (θ + φ) i=1 ε t = X t (θ + φ) i=1 ( θ) i 1 X t i ( θ) i 1 X t i ε t można wyrazić za pomocą historii X t

Przykład 3. Proces ARMA(1,1) X t φx t 1 = ε t + θε t 1, t Z X t = ε t + θε t 1 + φx t 1 = ε t + θx t 1 θφx t 2 θ 2 ε t 2 + φx t 1 = ε t + (θ + φ)x t 1 θφx t 2 θ 2 X t 2 + θ 2 φx t 3 + θ 3 ε t 3 =... = ε t + (θ + φ) ( θ) i 1 X t i i=1 X t = ε t + (θ + φ) i=1 ε t = X t (θ + φ) i=1 ( θ) i 1 X t i ( θ) i 1 X t i ε t można wyrazić za pomocą historii X t ARMA(1, 1) = AR( )

Załóżmy, że mamy próbę losową X 1,..., X n

Załóżmy, że mamy próbę losową X 1,..., X n Autokowariancja próby ˆγ(h) = 1 n n h t=1 (X t+h X)(X t X), 0 h < n, gdzie X = n t=1 X t n

Załóżmy, że mamy próbę losową X 1,..., X n Autokowariancja próby ˆγ(h) = 1 n gdzie X = n t=1 n h X t n t=1 Autokorelacja próby (X t+h X)(X t X), 0 h < n, ˆρ(h) = ˆγ(h) ˆγ(0), 0 h < n.

Załóżmy, że mamy próbę losową X 1,..., X n Autokowariancja próby ˆγ(h) = 1 n gdzie X = n t=1 n h X t n t=1 Autokorelacja próby (X t+h X)(X t X), 0 h < n, ˆρ(h) = ˆγ(h) ˆγ(0), 0 h < n. wykres {(h, ˆρ(h)) : h = 0, 1, 2,...} nazywamy korelogramem

Twierdzenie Niech (X t ) t Z będzie liniowym procesem X t µ = gdzie i=0 E(Z 4 t ) < lub i=0 ψ i <, (Z t ) t Z SWN(0, σz 2 ). Załóżmy, że j=0 ψ i Z t i, jψ 2 j <. Wówczas dla h {1, 2,...} mamy n(ˆρ(h) ρ(h)) d N h (0, W ) gdzie ˆρ(h) = (ˆρ(1),..., ˆρ(h)), ρ(h) = (ρ(1),..., ρ(h)), a W ma elementy W i,j = (ρ(k + i) + ρ(k i) 2ρ(i)ρ(k))(ρ(k + j) + ρ(k j) 2ρ(j)ρ(k)). k=1

Warunek iψi 2 i=0 < jest spełniony dla procesów ARMA, więc procesy ARMA prowadzone przez SWN są w zasięgu tego twierdzenia (niezależnie czy czwarty moment istnieje czy nie).

Warunek iψi 2 i=0 < jest spełniony dla procesów ARMA, więc procesy ARMA prowadzone przez SWN są w zasięgu tego twierdzenia (niezależnie czy czwarty moment istnieje czy nie). Trywialnie twierdzenie ma także zastosowanie dla SWN samego w sobie.

Warunek iψi 2 i=0 < jest spełniony dla procesów ARMA, więc procesy ARMA prowadzone przez SWN są w zasięgu tego twierdzenia (niezależnie czy czwarty moment istnieje czy nie). Trywialnie twierdzenie ma także zastosowanie dla SWN samego w sobie. Dla SWN mamy nˆρ(h) d N h (0, I h ),

Warunek iψi 2 i=0 < jest spełniony dla procesów ARMA, więc procesy ARMA prowadzone przez SWN są w zasięgu tego twierdzenia (niezależnie czy czwarty moment istnieje czy nie). Trywialnie twierdzenie ma także zastosowanie dla SWN samego w sobie. Dla SWN mamy nˆρ(h) d N h (0, I h ), więc dla dostatecznie dużego n autokorelacje próby danych procesu SWN będą się zachowywać jak niezależne normalne obserwacje ze średnią zero i wariancją 1 n. 95% szacowanych korelacji powinno leżeć w przedziale ( 1,96 n, 1,96 n ). Jeśli więcej niż 5% szacowanych korelacji leży poza tymi przedziałami, wówczas rozważamy to jako dowód przeciwko hipotezie zerowej, że dane są ścisłym białym szumem.

Warunek iψi 2 i=0 < jest spełniony dla procesów ARMA, więc procesy ARMA prowadzone przez SWN są w zasięgu tego twierdzenia (niezależnie czy czwarty moment istnieje czy nie). Trywialnie twierdzenie ma także zastosowanie dla SWN samego w sobie. Dla SWN mamy nˆρ(h) d N h (0, I h ), więc dla dostatecznie dużego n autokorelacje próby danych procesu SWN będą się zachowywać jak niezależne normalne obserwacje ze średnią zero i wariancją 1 n. 95% szacowanych korelacji powinno leżeć w przedziale ( 1,96 n, 1,96 n ). Jeśli więcej niż 5% szacowanych korelacji leży poza tymi przedziałami, wówczas rozważamy to jako dowód przeciwko hipotezie zerowej, że dane są ścisłym białym szumem.

PRZEWIDYWANIE

PRZEWIDYWANIE 1 Za pomocą modelu ARMA

PRZEWIDYWANIE 1 Za pomocą modelu ARMA Przyczynowy odwracalny proces ARMA ma reprezentację X t = µ t + ε t, µ t = µ + p φ i (X t i µ) + i=1 q θ j ε t j j=1

PRZEWIDYWANIE 1 Za pomocą modelu ARMA Przyczynowy odwracalny proces ARMA ma reprezentację X t = µ t + ε t, µ t = µ + (F t ) t Z = σ(x s : s t) p φ i (X t i µ) + i=1 q θ j ε t j j=1

PRZEWIDYWANIE 1 Za pomocą modelu ARMA Przyczynowy odwracalny proces ARMA ma reprezentację X t = µ t + ε t, µ t = µ + p φ i (X t i µ) + i=1 q θ j ε t j (F t ) t Z = σ(x s : s t) innowacje (ε t ) t Z mają własność różnicy martyngałowej w odniesieniu do filtracji (F t ) t Z j=1

PRZEWIDYWANIE 1 Za pomocą modelu ARMA Przyczynowy odwracalny proces ARMA ma reprezentację X t = µ t + ε t, µ t = µ + p φ i (X t i µ) + i=1 q θ j ε t j (F t ) t Z = σ(x s : s t) innowacje (ε t ) t Z mają własność różnicy martyngałowej w odniesieniu do filtracji (F t ) t Z mamy próbę n danych X t n+1,..., X t. j=1

PRZEWIDYWANIE 1 Za pomocą modelu ARMA Przyczynowy odwracalny proces ARMA ma reprezentację X t = µ t + ε t, µ t = µ + p φ i (X t i µ) + i=1 q θ j ε t j (F t ) t Z = σ(x s : s t) innowacje (ε t ) t Z mają własność różnicy martyngałowej w odniesieniu do filtracji (F t ) t Z mamy próbę n danych X t n+1,..., X t. celem jest przewidzenie X t+h przewidywanie oznaczamy przez P t X t+h j=1

PRZEWIDYWANIE 1 Za pomocą modelu ARMA Przyczynowy odwracalny proces ARMA ma reprezentację X t = µ t + ε t, µ t = µ + p φ i (X t i µ) + i=1 q θ j ε t j (F t ) t Z = σ(x s : s t) innowacje (ε t ) t Z mają własność różnicy martyngałowej w odniesieniu do filtracji (F t ) t Z mamy próbę n danych X t n+1,..., X t. celem jest przewidzenie X t+h przewidywanie oznaczamy przez P t X t+h Do przewidywania X t+h używamy warunkowej wartości oczekiwanej E (X t+h F t ) j=1

PRZEWIDYWANIE 1 Za pomocą modelu ARMA Przyczynowy odwracalny proces ARMA ma reprezentację X t = µ t + ε t, µ t = µ + p φ i (X t i µ) + i=1 q θ j ε t j (F t ) t Z = σ(x s : s t) innowacje (ε t ) t Z mają własność różnicy martyngałowej w odniesieniu do filtracji (F t ) t Z mamy próbę n danych X t n+1,..., X t. celem jest przewidzenie X t+h przewidywanie oznaczamy przez P t X t+h Do przewidywania X t+h używamy warunkowej wartości oczekiwanej E (X t+h F t ) Główną ideą jest, dla h 1 to, że przewidywanie E (X t+h F t ) można rekurencyjnie rozwiązać za pomocą E (X t+h 1 F t ) j=1

PRZEWIDYWANIE Przykład: Przewidywanie modelu ARMA(1,1)

PRZEWIDYWANIE Przykład: Przewidywanie modelu ARMA(1,1) X t = µ t + ε t, µ t = µ + φ(x t 1 µ) + θε t 1

PRZEWIDYWANIE Przykład: Przewidywanie modelu ARMA(1,1) X t = µ t + ε t, µ t = µ + φ(x t 1 µ) + θε t 1 E (X t+1 F t ) = E (µ t+1 + ε t+1 F t ) = µ t+1 = µ + φ(x t µ) + θε t,

PRZEWIDYWANIE Przykład: Przewidywanie modelu ARMA(1,1) X t = µ t + ε t, µ t = µ + φ(x t 1 µ) + θε t 1 E (X t+1 F t ) = E (µ t+1 + ε t+1 F t ) = µ t+1 = µ + φ(x t µ) + θε t, E (X t+2 F t ) = E (µ t+2 F t ) = µ + φ(e (X t+1 F t ) µ) = µ + φ 2 (X t µ) + φθε t,...

PRZEWIDYWANIE Przykład: Przewidywanie modelu ARMA(1,1) X t = µ t + ε t, µ t = µ + φ(x t 1 µ) + θε t 1 E (X t+1 F t ) = E (µ t+1 + ε t+1 F t ) = µ t+1 = µ + φ(x t µ) + θε t, E (X t+2 F t ) = E (µ t+2 F t ) = µ + φ(e (X t+1 F t ) µ) = µ + φ 2 (X t µ) + φθε t,... E (X t+h F t ) = µ + φ h (X t µ) + φ h 1 θε t.

PRZEWIDYWANIE Przykład: Przewidywanie modelu ARMA(1,1) X t = µ t + ε t, µ t = µ + φ(x t 1 µ) + θε t 1 E (X t+1 F t ) = E (µ t+1 + ε t+1 F t ) = µ t+1 = µ + φ(x t µ) + θε t, E (X t+2 F t ) = E (µ t+2 F t ) = µ + φ(e (X t+1 F t ) µ) = µ + φ 2 (X t µ) + φθε t,... E (X t+h F t ) = µ + φ h (X t µ) + φ h 1 θε t. Jeżeli znamy historyczne wartości (X s ) s t przewidywana wartość może być obliczona dokładnie!

PRZEWIDYWANIE 1 Za pomocą modelu ARMA

PRZEWIDYWANIE 1 Za pomocą modelu ARMA 2 Eksponencjalne wygładzanie

PRZEWIDYWANIE 1 Za pomocą modelu ARMA 2 Eksponencjalne wygładzanie nasze dane reprezentują realizację zmiennych losowych Y t n+1,..., Y t rozważanych bez odniesienia do żadnego konkretnego modelu parametrycznego

PRZEWIDYWANIE 1 Za pomocą modelu ARMA 2 Eksponencjalne wygładzanie nasze dane reprezentują realizację zmiennych losowych Y t n+1,..., Y t rozważanych bez odniesienia do żadnego konkretnego modelu parametrycznego P t Y t+1 = n 1 α(1 α) i Y t i gdzie 0 < α < 1 i=0

PRZEWIDYWANIE 1 Za pomocą modelu ARMA 2 Eksponencjalne wygładzanie nasze dane reprezentują realizację zmiennych losowych Y t n+1,..., Y t rozważanych bez odniesienia do żadnego konkretnego modelu parametrycznego P t Y t+1 = n 1 α(1 α) i Y t i gdzie 0 < α < 1 i=0 P t Y t+1 = n 1 α(1 α) i Y t i = i=0 αy t + (1 α) n 1 α(1 α) i 1 Y t i = i=1 αy t + (1 α) n 2 α(1 α) j Y t 1 j = αy t + (1 α)p t 1 Y t j=0

Szereg czasowy może mieć

Szereg czasowy może mieć stałą wariancję

Szereg czasowy może mieć stałą wariancję wariancję, która zmienia się w czasie

Szereg czasowy może mieć stałą wariancję wariancję, która zmienia się w czasie Analiza danych na rynkach finansowych pokazuje, że większość finansowych szeregów czasowych nie ma stałej wariancji

Szereg czasowy może mieć stałą wariancję wariancję, która zmienia się w czasie Analiza danych na rynkach finansowych pokazuje, że większość finansowych szeregów czasowych nie ma stałej wariancji Pierwszy model został zaprezentowany w 1982 roku (Engel i Nelson) ARCH (AutoRegressive Conditionaly Heteroscedastic)

Proces ARCH(p) Niech (Z t ) t Z będzie SWN(0, 1). Proces (X t ) t Z jest procesem ARCH(p) jeśli jest ściśle stacjonarny oraz dla każdego t Z i pewnego ściśle dodatniego procesu (σ t ) t Z spełnia równania X t = σ t Z t p σt 2 = α 0 + α i X 2 t i i=1 gdzie α 0 > 0 i α i 0, i = 1,..., p.

W 1987 roku zaproponowali model GARCH (Generalized ARCH)

W 1987 roku zaproponowali model GARCH (Generalized ARCH) Niech (Z t ) t Z będzie SWN(0,1). Proces (X t ) t Z jest procesem GARCH(p, q) jeśli jest ściśle stacjonarny i jeśli spełnia dla każdego t Z i pewnego ściśle dodatniego procesu (σ t ) t Z równania X t = σ t Z t, σ 2 t = α 0 + p α i X 2 t i + i=1 q β j σt j 2 j=1 gdzie α 0 > 0, α i 0, i = 1,..., p i β j 0, j = 1,..., q.