Stacjonarne procesy gaussowskie, czyli o zwiazkach pomiędzy zwykła

Podobne dokumenty
Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne

Prawdopodobieństwo i statystyka

SIMR 2017/18, Statystyka, Przykładowe zadania do kolokwium - Rozwiązania

Procesy stochastyczne

Zadania z Rachunku Prawdopodobieństwa III - 1

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Wykład 3 Jednowymiarowe zmienne losowe

Procesy stochastyczne

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

Szkice do zajęć z Przedmiotu Wyrównawczego

Zaawansowane metody numeryczne

Prawdopodobieństwo i statystyka

2. P (E) = 1. β B. TSIM W3: Sygnały stochastyczne 1/27

Ważne rozkłady i twierdzenia c.d.

Prawdopodobieństwo i statystyka

Wstęp do Rachunku Prawdopodobieństwa, IIr. WMS

Statystyka i eksploracja danych

Szeregi czasowe, analiza zależności krótkoi długozasięgowych

PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω)

1 Wykład 4. Proste Prawa wielkich liczb, CTG i metody Monte Carlo

1 Gaussowskie zmienne losowe

PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA

12DRAP - parametry rozkładów wielowymiarowych

1. Pojęcie normy, normy wektora [Kiełbasiński, Schwetlick]

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa

WYKŁAD: Szeregi czasowe I. Zaawansowane Metody Uczenia Maszynowego

Prawdopodobieństwo i statystyka

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

1 Wykład 3 Generatory liczb losowych o dowolnych rozkładach.

Literatura. Leitner R., Zacharski J., Zarys matematyki wyŝszej dla studentów, cz. III.

PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA. Piotr Wiącek

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014

Rachunek prawdopodobieństwa 1B; zadania egzaminacyjne.

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych

Podstawowe modele probabilistyczne

Statystyka i eksploracja danych

Fuzja sygnałów i filtry bayesowskie

Aproksymacja. j<k. L 2 p[a, b] l 2 p,n X = Lemat 1. Wielomiany ortogonalne P 0,P 1,...,P n tworza przestrzeni liniowej Π n. Dowód.

Prawdopodobieństwo i statystyka

Rozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Rozkłady łaczne wielu zmiennych losowych

Funkcja tworząca Funkcja charakterystyczna. Definicja i własności Funkcja tworząca momenty

Centralne twierdzenie graniczne

PRAWDOPODOBIEŃSTWO. ZMIENNA LOSOWA. TYPY ROZKŁADÓW

Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu.

Zadania do Rozdziału X

Powtórzenie wiadomości z rachunku prawdopodobieństwa i statystyki.

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

Metody systemowe i decyzyjne w informatyce

Rozkłady prawdopodobieństwa

Maksymalne powtórzenia w tekstach i zerowa intensywność entropii

O ŚREDNIEJ STATYSTYCZNEJ

Algorytmy estymacji stanu (filtry)

Dyskretne procesy stacjonarne o nieskończonej entropii nadwyżkowej

Stacjonarność Integracja. Integracja. Integracja

Algorytm Metropolisa-Hastingsa

i=7 X i. Zachodzi EX i = P(X i = 1) = 1 2, i {1, 2,..., 11} oraz EX ix j = P(X i = 1, X j = 1) = 1 7 VarS 2 2 = 14 3 ( 5 2 =

Matematyka z el. statystyki, # 3 /Geodezja i kartografia II/

Wprowadzenie Model ARMA Sezonowość Prognozowanie Model regresji z błędami ARMA. Modele ARMA

Metody systemowe i decyzyjne w informatyce

Prognozowanie i Symulacje. Wykład I. Matematyczne metody prognozowania

Komputerowa analiza danych doświadczalnych

Prawa wielkich liczb, centralne twierdzenia graniczne

Statystyka i eksploracja danych

Jednowymiarowa zmienna losowa

Rozkłady wielu zmiennych

REGRESJA LINIOWA Z UOGÓLNIONĄ MACIERZĄ KOWARIANCJI SKŁADNIKA LOSOWEGO. Aleksander Nosarzewski Ekonometria bayesowska, prowadzący: dr Andrzej Torój

5 Przegląd najważniejszych rozkładów

Przestrzeń unitarna. Jacek Kłopotowski. 23 października Katedra Matematyki i Ekonomii Matematycznej SGH

Komputerowa Analiza Danych Doświadczalnych

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe

STYSTYSTYKA dla ZOM II dr inż Krzysztof Bryś Wykad 1

Wyk ad II. Stacjonarne szeregi czasowe.

Układy stochastyczne

1 Zmienne losowe wielowymiarowe.

Fizyka statystyczna Zarys problematyki Kilka słów o rachunku prawdopodobieństwa. P. F. Góra

Współczynnik korelacji. Współczynnik korelacji jest miernikiem zależności między dwiema cechami Oznaczenie: ϱ

Statystyczna analiza danych

Zadania z Procesów Stochastycznych 1

Zmienne losowe, statystyki próbkowe. Wrocław, 2 marca 2015

SPOTKANIE 3: Regresja: Regresja liniowa

Rozkłady prawdopodobieństwa zmiennych losowych

Wartość oczekiwana Mediana i dominanta Wariancja Nierówności związane z momentami. Momenty zmiennych losowych Momenty wektorów losowych

STATYSTYKA MATEMATYCZNA dla ZPM I dr inż Krzysztof Bryś wyk lad 1,2 KLASYCZNY RACHUNEK PRAWDOPODOBIEŃSTWA

Zawansowane modele wyborów dyskretnych

6. Identyfikacja wielowymiarowych systemów statycznych metodanajmniejszychkwadratów

ZAJĘCIA II. Zmienne losowe, sygnały stochastyczne, zakłócenia pomiarowe

Rachunek prawdopodobieństwa i statystyka

Wykład 3 Momenty zmiennych losowych.

Pierścień wielomianów jednej zmiennej

Wykład 3 Momenty zmiennych losowych.

Metody matematyczne w analizie danych eksperymentalnych - sygnały, cz. 2

WYKŁAD: Szeregi czasowe II. Zaawansowane Metody Uczenia Maszynowego

Biostatystyka, # 3 /Weterynaria I/

Transkrypt:

Stacjonarne procesy gaussowskie, czyli o zwiazkach pomiędzy zwykła autokorelacji Łukasz Dębowski ldebowsk@ipipan.waw.pl Instytut Podstaw Informatyki PAN autokorelacji p. 1/25

Zarys referatu Co to sa procesy gaussowskie? rozkład normalny, macierz kowariancji, najlepsze liniowe predyktory, warunek istnienia Procesy stacjonarne: funkcja autokorelacji, funkcja częściowej autokorelacji, algorytm Durbina-Levinsona, interpretacja teorioinformacyjna Wzory na sumę autokorelacji. autokorelacji p. 2/25

Miara prawdopodobieństwa J 2 Ω jest σ-ciałem, gdy 1. Ω J, 2. A J = Ω \ A J, 3. ( n : A J ) = A J. P : J [0, 1] jest miara prawdopodobieństwa, gdy 1. P (Ω) = 1, 2. P ( X : Ω A ) = P (A ) dla rozł acznych A jest zmienna losowa. Definiujemy zdarzenie. (X ) := X 1 ( ). P (X ) jest określone wtw., gdy X 1( ) J. autokorelacji p. 3/25

Gęstość prawdopodobieństwa (rozkład zmiennej) 0.5 P(0.5<X<2) 0.4 ρ X (x) 0.3 0.2 0.1 0-3 -2-1 0 1 2 3 4 5 x autokorelacji p. 4/25

Rozkłady zmiennych miara prawdopodobieństwa: P (X ) := ρ (x)dx = P (X 1 ( )) = 1 ( ) dp wartość oczekiwana: f(x) := f(x)ρ (x)dx = f(x)dp P (A) może być określone także, gdy A (X ). Definicje z dp sa wygodniejsze dla dużych zbiorów zmiennych. F dp := sup rozbicie rozbicie P (A) inf argument F (argument) autokorelacji p. 5/25

Procesy stochastyczne Proces to dowolny zbiór zmiennych, np. nieprzeliczalny, określonych na tej samej przestrzeni zdarzeń Ω. Gęstości tych zmiennych spełniaja warunki zgodności: ρ 1 (x1,..., x ) = ρ 1 +1(x 1,..., x, x +1)dx +1. tw.tw. Kołmogorowa o procesie i rozszerzeniu: Kandydaci na gęstości ρ, n, spełniajacy 1 2 warunki zgodności definiuja miarę prawdopodobieństwa P na pewnym σ-ciele. autokorelacji p. 6/25

Procesy gaussowskie Wielowymiarowy rozkład normalny (Gaussa) to najprostszy algebraicznie model zależnych zmiennych losowych: Do tego: Łatwo podać wielowymiarowe gęstości. Łatwo wyrugować wielowymiarowe gęstości z rozważań. Dowolny ciag kombinacji liniowych zmiennych o wielowymiarowym rozkładzie normalnym ma wielowymiarowy rozkład normalny. Dowolny ciag zmiennych o wielowymiarowym rozkładzie normalnym można wyrazić jako ciag kombinacji liniowych niezależnych zmiennych losowych o rozkładzie normalnym. Dowolny ciag zmiennych gaussowskich można uzupełnić do nieprzeliczalnego procesu tworzacego przestrzeń Hilberta. autokorelacji p. 7/25

Jednowymiarowy rozkład Gaussa (normalny) ρ X (x) 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0-4 -2 0 2 4 x σ=0.5 σ.0 σ=2.0 autokorelacji p. 8/25

Jednowymiarowy rozkład Gaussa (normalny) gęstość prawdopodobieństwa: ρ (x) = 1 [2πσ 2 ] [ 2 exp 1 ] 2d x 2 σ 2 wariancja: σ := Var(X) 0 Var(X) := X X 2 = X 2 X 2 autokorelacji p. 9/25

Wielowymiarowy rozkład Gaussa (normalny) ρ 1 2 gęstość prawdopodobieństwa: (x1, x2,..., x ) = exp 1 2d [(2π) macierz kowariancji (hermitowska, Γ = Γ x [ Γ(n) det Γ(n)] = Γ Γ(n) = Cov(X ; X ) Cov(X; Y ) := (X X ) (Y Y ) = X Cov(X; X) = Var(X) Y X Y ): 2 x 1] autokorelacji p. 10/25

Analogia do σ 0 Nie każda macierz hermitowska jest macierza kowariancji. Mamy ( Var a ) X = a a Γ Macierz Γ(n) musi być nieujemna określona, tzn.. a : a Γ a 0. Jest to warunek konieczny i dostateczny istnienia procesu. Tylko jak go efektywnie sprawdzić? autokorelacji p. 11/25

Proces stacjonarny Weźmy szereg czasowy czyli proces X = {X : i =..., 2, 1, 0, 1, 2,...}. Dla ułatwienia ograniczymy się do procesów stacjonarnych. proces stacjonarny: Γ(n) = Γ = Cov(X ; X ) = γ(i j) funkcja autokowariancji: γ(n) := Cov(X ; X 0 ) autokorelacji p. 12/25

Funkcja autokorelacji korelacja: Corr(X, Y ) := Cov(X; Y ) Var (X) Var (Y ), Corr(X, Y ) 1 funkcja autokorelacji (ACF): ρ(n) := Corr(X ; X 0 ) = γ(n)/γ(0) autokowariancja ma prosty estymator: γ(n) 1 N x + 1 N x x 1 N x autokorelacji p. 13/25

Twierdzenie o rzucie ortogonalnym a j X j X Y i i B j B Φ B i autokorelacji p. 14/25

X Twierdzenie o rzucie ortogonalnym Dla każdych zmiennych (X ) istnieje jednoznaczny rozkład zmiennej X na najlepszy predyktor Φ i innowację Y : X = Φ + Y, takie, że Φ = φ X, Cov(Y ; X ) = 0, j B, Var ( Y ) = min ( ) Var X a. Dla danej macierzy kowariancji φ z algorytmu ortogonalizacji Grama-Schmidta. oblicza się autokorelacji p. 15/25

Probabilistyczna niezależność Zbiory zmiennych gaussowskich (X ) oraz (X sa probabilistycznie niezależne wtedy i tylko wtedy, gdy ) Cov(X ; X ) = 0, i A, j B. Wniosek: Dla zmiennych gaussowskich innowacja Y jest probabilistycznie niezależna od (X ). autokorelacji p. 16/25

Niezwykła funkcja autokorelacji (zwykła) funkcja autokorelacji (ACF): ρ(n) := Corr(X ; X 0 ) = γ(n)/γ(0) funkcja częściowej autokorelacji (PACF): α(n) := Corr(Y 1: 1 ; Y 1: 1 0 ) = Corr(X Φ1: 1 ; X 0 Φ 1: 1 0 ) n : m := {n, n + 1,..., m} autokorelacji p. 17/25

Warunek istnienia procesu prościej Istnieje bijekcja (ρ(1),..., ρ(n)) (α(1),..., α(n)). Warunek dla ACF: a : a ρ(i j)a 0. Warunek dla PACF (Ramsey 1974): α(n) 1 dla wszystkich n 1, α(k) = 1 = α(n) = 0 dla n > k. To jest warunek dla PACF obliczonego z ACF. To PACF a nie ACF jest prostszym obiektem. autokorelacji p. 18/25

+1, Predyktory dla stacjonarnych Równoważne definicji PACF: Cov(Y 2: Cov(Y 2: +1; Y 2: Cov(Y 2: Z ostatniego wynika: Cov(Y 2: Φ 2: Y 2: +1 +1 +1 1 ) = α(n) Cov(Y1 2: ; Y1 2: ), +1; X1) = α(n) Cov(Y 2: +1; X1) = α(n) Cov(Y 2: 2: α(n)y1 ; X 2: α(n)y1 = const Y 1: 2: α(n)y1 = Φ 1: gdzie const = 1, bo Y 1: +1 1 ; Y1 2: ), 1 ; X 1 ). ) = 0, j {1,..., n}, / +1, X (const 1) Y 1: +1 +1 + liniowo niezależne od reszty. autokorelacji p. 19/25

Predyktory dla stacjonarnych Φ 1: +1 = Φ 1: 0 = φ := φ φ X +1 X 1 dla j = 0 φ 1: 0 dla j {1,..., n} 0 dla innych j +1 +1 = (φ1: ) v := 1: Var(Y ) Var(X ) 1 autokorelacji p. 20/25

Algorytm Durbina-Levinsona v 0 = 1, v α(1) = ρ(1) = [1 α(n) 2] v 1 φ = φ 1 α (n)φ 1 Istnieje bijekcja (ρ(1),..., ρ(n)) (α(1),..., α(n)): α(n + 1) = ρ(n + 1) φ / v ρ(n + 1) = v α(n + 1) + φ ρ(n + 1 j) ρ(n + 1 j) autokorelacji p. 21/25

Interpretacja teorioinformacyjna Entropia blokowa i informacje wzajemne: H (n) := H(X 1,..., X ) = nh (1) + (n k + 1) 2 H (k), =2 = 1 2 [1 + d log(2π)] n + d 2 log det Γ(n) I(X 1 ; X ) = d2 log [1 ρ(n 1) 2], I(X 1 ; X X 2: 1) = 2H (n) = d 2 log [ 1 α(n 1) 2], det Γ(n) = γ(0) 1 [ 1 α(k) 2 ]. autokorelacji p. 22/25

Częściowe podsumowanie Stacjonarne procesy gaussowskie sa prostym modelem zależnych zmiennych losowych. Mimo że najłatwiejsza do estymacji jest funkcja autokorelacji, klasę stacjonarnych procesów gaussowskich najprościej i najogólniej parametryzuje częściowa funkcja autokorelacji. W modelu tym istnieja proste algorytmy na obliczanie autokorelacji, najlepszych predyktorów i miar informacji. Klasyczny problem: Czy można zgrubnie scharakteryzować ogólny przebieg ACF dla danego PACF bez długotrwałego liczenia? (Trochę na ten temat napisano, ale nie wyczerpano.) autokorelacji p. 23/25

" Jeden z głównych moich rezultatów Jeżeli α(k) <, α(k) < 1, to zachodzi = ρ(k) <,(1) ( ) 1 + α(k) 2 ρ(k) 2, (2) 1 α(k) = [ ] 1 α(k) ρ(k)e 1 + α(k), 1 + α(k) (3) 1 α(k) =! zaś, jeżeli α(k) dla wszystkich k, to = (±1) ρ(k) = 1 + (±1) 1 (±1) α(k) α(k). (4) autokorelacji p. 24/25

# Kilka wniosków z (4) Jeżeli (±1) α(k) < 0: Zwiększenie α(k) powoduje zmniejszenie Jeżeli (±1) α(k) > 0: Zwiększenie α(k) powoduje zwiększenie = = (±1) (±1) ρ(k). ρ(k). 1 + (±1) 1 (±1) α(k) α(k) > (1 + (±1) 2α(k)) Położenie (±1) implikuje, że (±1) dla co najmniej (1 + 2a) α(k) > a > 0 dla N różnych k ρ(m) > 0 zachodzi różnych m, ponieważ ρ(k) 1. autokorelacji p. 25/25