Prawdopodobieństwo i statystyka

Podobne dokumenty
Procesy stochastyczne

Procesy stochastyczne

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka

Statystyka i eksploracja danych

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Statystyka i eksploracja danych

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka

Statystyka i eksploracja danych

Statystyka i eksploracja danych

Przestrzeń unitarna. Jacek Kłopotowski. 23 października Katedra Matematyki i Ekonomii Matematycznej SGH

Prawdopodobieństwo i statystyka

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski

Fuzja sygnałów i filtry bayesowskie

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Stacjonarne procesy gaussowskie, czyli o zwiazkach pomiędzy zwykła

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie

Wykład 3 Jednowymiarowe zmienne losowe

Ważne rozkłady i twierdzenia c.d.

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe

F t+ := s>t. F s = F t.

Prognozowanie i Symulacje. Wykład I. Matematyczne metody prognozowania

Modele zapisane w przestrzeni stanów

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

Rozkłady wielu zmiennych

Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX = 4 i EY = 6. Rozważamy zmienną losową Z =.

Szkice do zajęć z Przedmiotu Wyrównawczego

PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω)

O procesie Wienera. O procesie Wienera. Procesy stochastyczne Wykład XV, 15 czerwca 2015 r. Proces Wienera. Ruch Browna. Ułamkowe ruchy Browna

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa

Równania liniowe. Rozdział Przekształcenia liniowe. Niech X oraz Y będą dwiema niepustymi przestrzeniami wektorowymi nad ciałem

Literatura. Leitner R., Zacharski J., Zarys matematyki wyŝszej dla studentów, cz. III.

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne

Na A (n) rozważamy rozkład P (n) , który na zbiorach postaci A 1... A n określa się jako P (n) (X n, A (n), P (n)

Przestrzenie wektorowe

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014

Zadania z Algebry liniowej 4 Semestr letni 2009

Prawa wielkich liczb, centralne twierdzenia graniczne

Komputerowa analiza danych doświadczalnych

Zadania z Analizy Funkcjonalnej I Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi?

Podstawowe modele probabilistyczne

12DRAP - parametry rozkładów wielowymiarowych

Akwizycja i przetwarzanie sygnałów cyfrowych

Rozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej

Rachunek Prawdopodobieństwa Rozdział 5. Rozkłady łączne

PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA

Prawdopodobieństwo i statystyka

Analiza funkcjonalna 1.

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne

PRZEWODNIK PO PRZEDMIOCIE

2. P (E) = 1. β B. TSIM W3: Sygnały stochastyczne 1/27

P (A B) = P (A), P (B) = P (A), skąd P (A B) = P (A) P (B). P (A)

Algorytm Metropolisa-Hastingsa

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności

Lokalna odwracalność odwzorowań, odwzorowania uwikłane

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe

Formy kwadratowe. Rozdział 10

Statystyka. Wydział Zarządzania Uniwersytetu Łódzkiego

Spacery losowe generowanie realizacji procesu losowego

5 Przegląd najważniejszych rozkładów

Informacja o przestrzeniach Hilberta

Rozkłady dwóch zmiennych losowych

Wykład 4 Udowodnimy teraz, że jeśli U, W są podprzetrzeniami skończenie wymiarowej przestrzeni V to zachodzi wzór: dim(u + W ) = dim U + dim W dim(u

Rachunek prawdopodobieństwa Rozdział 2. Aksjomatyczne ujęcie prawdopodobieństwa

Wykład 3 Momenty zmiennych losowych.

1 Wykład 3 Generatory liczb losowych o dowolnych rozkładach.

Rodzinę spełniającą trzeci warunek tylko dla sumy skończonej nazywamy ciałem (algebrą) w zbiorze X.

Wykład 3 Momenty zmiennych losowych.

Rozkład normalny Parametry rozkładu zmiennej losowej Zmienne losowe wielowymiarowe

Szeregi czasowe, analiza zależności krótkoi długozasięgowych

Lista. Przestrzenie liniowe. Zadanie 1 Sprawdź, czy (V, +, ) jest przestrzenią liniową nadr :

Statystyka. Wykład 2. Krzysztof Topolski. Wrocław, 11 października 2012

Zadania z Analizy Funkcjonalnej I Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi?

STATYSTYKA

6. Identyfikacja wielowymiarowych systemów statycznych metodanajmniejszychkwadratów

1 Pochodne wyższych rzędów

Wykład 2 Zmienne losowe i ich rozkłady

Prawdopodobieństwo i statystyka

MODELE MATEMATYCZNE W UBEZPIECZENIACH

Metoda największej wiarygodności

Parametr Λ w populacji ubezpieczonych ma rozkład dany na półosi dodatniej gęstością: 3 f

Wykład 12 i 13 Macierz w postaci kanonicznej Jordana , 0 A 2

φ(x 1,..., x n ) = a i x 2 i +

Jednowymiarowa zmienna losowa

Rachunek prawdopodobieństwa i statystyka

Diagonalizacja macierzy i jej zastosowania

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

1 Relacje i odwzorowania

R n jako przestrzeń afiniczna

Wektor, prosta, płaszczyzna; liniowa niezależność, rząd macierzy

Statystyka i eksploracja danych

Przestrzenie liniowe

6.4 Podstawowe metody statystyczne

Funkcje charakterystyczne zmiennych losowych, linie regresji 1-go i 2-go rodzaju

Zmienne losowe, statystyki próbkowe. Wrocław, 2 marca 2015

Transkrypt:

Wykład XIII: Prognoza. 26 stycznia 2015 Wykład XIII: Prognoza.

Prognoza (predykcja) Przypuśćmy, że mamy dany ciąg liczb x 1, x 2,..., x n, stanowiących wyniki pomiaru pewnej zmiennej w czasie wielkości x, w chwilach t 1 < t 2 <... < t n. Inaczej mówiąc, mamy dany szereg czasowy. : Niech T > t n. Jaką wartość przyjmie badana wielkość w chwili T? Jeżeli x jest funkcją tylko czasu t, tzn. x k = f (t k ), k = 1, 2,..., t n, możemy próbować odgadnąć postać funkcji f, np. znajdując współczynniki wielomianu interpolacyjnego, lub amplitudę, częstość i przesunięcie sygnału sinusoidalnego, lub parametry przekształcenia S, którego kolejne iteracje S(t 0 ), S 2 (t 0 ),... S n (t 0 ) dają nam kolejne wartości x 1, x 2,..., x n. To jest jednak rzadka sytuacja. Na ogół musimy zakładać, że liczby x 1, x 2,..., x n są wartościami ciągu zmiennych losowych. Wykład XIII: Prognoza.

Pojęcie prognozy (predykcji) Prognoza (predykcja) Postawienie zagadnienia: znamy rozkład łączny zmiennych losowych X 1, X 2,..., X n, Y 1, Y 2,..., Y m, gdzie X 1, X 2,..., X n reprezentują przeszłość, a Y 1, Y 2,..., Y m - przyszłość. Na podstawie przeszłości chcemy ocenić wartości przyszłe w postaci funkcji f (X 1, X 2,..., X n ). Jako miarę jakości prognozy przyjmujemy błąd średniokwadratowy E (Y 1, Y 2,..., Y m ) T f (X 1, X 2,..., X n ) 2 m = E(Y i f i (X 1, X 2,..., X n )) 2. i=1 Pokażemy, że błąd średniokwadratowy jest minimalizowany przez f i (X 1, X 2,..., X n ) = E ( Y i (X 1, X 2,..., X n ) ), i = 1, 2,..., m. Wykład XIII: Prognoza.

Rozkłady warunkowe Rozkłady warunkowe Własności warunkowej wartości oczekiwanej jako rzut ortogonalny Niech Y i Z będą wektorami losowymi o wartościach w R m i R n, określonymi na tej samej przestrzeni probabilistycznej (Ω, F, P). Jeżeli P( Z = z) > 0, to rozkładem warunkowym wektora Y gdy Z = z nazywamy prawdopodobieństwo R m A P Y Z= z (A) = P( Y A Z = z) ( = P( Y A, Z = z) P( Z = z) Pytanie: jak określić rozkład warunkowy w ogólnym przypadku? Jeżeli P (Y,Z) jest absolutnie ciągły z gęstością p Y,Z (y, z), to można określić gęstość rozkładu P Y Z=z za pomocą wzoru p Y,Z (y,z) p Y Z=z (y) =, jeśli + py,z (u, z) du > 0 p Y,Z (u,z) du. 1I [0,1] (y), jeśli py,z (u, z) du = 0 ). Wykład XIII: Prognoza.

Rozkłady warunkowe Własności warunkowej wartości oczekiwanej jako rzut ortogonalny Definicja i własności warunkowej wartości oczekiwanej Mając dany rozkład warunkowy P Y Z= z ( ) określamy E( Y Z = z) := yp Y Z= z (d y), E( Y Z) := E( Y Z = ( )) Z. Jeżeli E U < + i E V < +, to E(αU + βv Z) = αe(u Z) + βe(v Z). Jeżeli E Y < + i h( Z) C, to E(h( Z) Y Z) = h( Z) E(Y Z). Wykład XIII: Prognoza.

Rozkłady warunkowe Własności warunkowej wartości oczekiwanej jako rzut ortogonalny jako rzut ortogonalny Jeżeli EY 2 < + i E(h( Z)) 2 < +, to E(h( Z) Y Z) = h( Z) E(Y Z). Jeżeli EY 2 <, to Var (Y ) = E(Y E(Y Z)) 2 + Var (E(Y Z)). Twierdzenie ( jako minimalizator) Niech EY 2 < + i Z przyjmuje wartości w R n. Wówczas E(Y Z) jest jedynym minimalizatorem funkcjonału h E(Y h( Z)) 2, gdy h przebiega zbiór {h : R n R 1 ; E(h( Z)) 2 < + }. Wykład XIII: Prognoza.

Rozkłady warunkowe Własności warunkowej wartości oczekiwanej jako rzut ortogonalny jako rzut ortogonalny - cd. Uwaga: w terminach przestrzeni Hilberta L 2 (Ω, F, P) warunkowa wartość oczekiwana jest rzutem ortogonalnym na podprzestrzeń funkcji postaci {h( Z)}, czyli funkcji σ( Z)-mierzalnych. W tym kontekście (niemal) oczywiste są następujące fakty: Jeżeli E Y < + i g : R n R m, to E ( E(Y Z) g( Z) ) = E(Y g( Z)). Jeżeli Z jest funkcją stałą, to E(Y Z) = EY. Co by było, gdybyśmy minimalizowali E Y h( Z)? Wykład XIII: Prognoza.

W zagadnieniu prognozy zmiennych Y 1, Y 2,..., Y m, na podstawie X 1, X 2,..., X n poszukujemy najlepszego przybliżenia zmiennych Y i w postaci f i (X 1, X 2,..., X n ), gdzie f i spełnia tylko ogólne warunki całkowalności, należy więc do bardzo szerokiej klasy funkcji. Z prognozą liniową mamy do czynienia, gdy poszukujemy najlepszego przybliżenia w klasie funkcji f i (X 1, X 2,..., X n ) = n α i,j X j, i = 1, 2,..., m. j=1 To na ogół dużo łatwiejsze zadanie! Uwaga: Istnieje ważna klasa szeregów czasowych, dla których oba pojęcia prognozy pokrywają się: są to procesy gaussowskie. Wykład XIII: Prognoza.

Definicja zmiennych losowych gaussowskich Mówimy, że zmienne losowe X 1, X 2,..., X n są gaussowskie, jeśli ich dowolna kombinacja liniowa α 1 X 1 + α 2 X 2 + + α n X n ma jednowymiarowy rozkład normalny, tzn. α 1 X 1 + α 2 X 2 + + α n X n N (m α, σ 2 α ), gdzie α = (α 1, α 2,..., α n ) T. Dopuszczamy przypadek σ 2 α = 0. Z definicji N (m, 0) = δ m. Rodziny gaussowskie Rodzinę zmiennych losowych {X i } i I nazywamy gaussowską, jeśli dla każdego skończonego podzbioru {i 1, i 2,..., i n } I zmienne X i1, X i2,..., X in są gaussowskie. Wykład XIII: Prognoza.

- cd. Biorąc α = (0,..., 0, 1, 0,..., 0)T, otrzymujemy rozkład normalny dla składowych X k N (m k, σk 2 ). W ogólności, m α = E(α 1 X 1 + α 2 X 2 + + α n X n ) = E α, X = α, E X. Podobnie σ 2 α = Var ( α, X ) = α, Cov ( X ) α. Twierdzenie (Transformacja liniowa zmiennych gaussowskich) Jeżeli wektor losowy X = (X 1, X 2,..., X n ) T ma składowe gaussowskie, przy czym E X = m i Cov (X ) = Σ) i jezeli A : R n R m jest odwzorowaniem liniowym, to składowe wektora A( X ) też są gaussowskie, przy czym EA( X ) = A( m), Cov (A( X )) = AΣA T. Wykład XIII: Prognoza.

Konstrukcja zmiennych gaussowskich Twierdzenie (Konstrukcja zmiennych gaussowskich) Jeżeli m R n i Σ jest macierzą n n, symetryczną i nieujemnie określoną, to istnieje wektor losowy X o składowych gaussowskich, który spełnia związki E X = m, Cov ( X ) = Σ. Twierdzenie (Charakterystyka rozkładu łącznego zmiennych gaussowskich) Rozkład łączny zmiennych losowych gaussowskich (X 1, X 2,..., X n ) (nazywany n-wymiarowym rozkładem normalnym) jest w pełni określony przez swoja wartość oczekiwaną m i macierz kowariancji Σ. Piszemy X N (m, Σ). Wykład XIII: Prognoza.

Niezależność zmiennych gaussowskich Twierdzenie (Absolutna ciągłość rozkładu normalnego) Rozkład normalny jest absolutnie ciągły dokładnie wtedy, gdy macierz Σ jest nieosobliwa (det(σ) 0). W takim przypadku gęstość zadana jest wzorem: p m,σ ( x) = 1 ( 1 exp ( 1 2π) d det Σ 2 x m, Σ 1 ( x m) ). Twierdzenie (Niezależność zmiennych gaussowskich) Zmienne gaussowskie X 1, X 2,..., X n są niezależne dokładnie wtedy, gdy są nieskorelowane: cov (X i, X j ) = 0, i, j = 1, 2,..., n, i j. Wykład XIII: Prognoza.

Prognoza dla zmiennych gaussowskich Twierdzenie (Prognoza dla zmiennych gaussowskich) Jeżeli zmienne X 1, X 2,..., X n, Y 1, Y 2,..., Y m są gaussowskie, to prognoza liniowa Y 1, Y 2,..., Y m na podstawie X 1, X 2,..., X n pokrywa się z pełną prognozą (tzn. przybliżeniem Y 1, Y 2,..., Y m za pomocą zmiennych postaci h(x 1, X 2,..., X n )). Uwaga: Jeżeli w schemacie prognozy X 1, X 2,..., X n, Y 1, Y 2,..., Y m zmienne są gaussowskie, to prognoza (liniowa) Y 1, Y 2,..., Y m na podstawie X 1, X 2,..., X n jest również wektorem o składowych gaussowskich. Jak określić wektor prognozy? Wykład XIII: Prognoza.