Estymacja gęstości prawdopodobieństwa metodą selekcji modelu

Podobne dokumenty
ESTYMACJA BŁĘDU PREDYKCJI I JEJ ZASTOSOWANIA

UPORZĄDKOWANIE STOCHASTYCZNE ESTYMATORÓW ŚREDNIEGO CZASU ŻYCIA. Piotr Nowak Uniwersytet Wrocławski

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 13 i 14 - Statystyka bayesowska

Wykład 1 Próba i populacja. Estymacja parametrów z wykorzystaniem metody bootstrap

Estymacja w regresji nieparametrycznej

Statystyka. Wykład 2. Krzysztof Topolski. Wrocław, 11 października 2012

Estymatory regresji rangowej oparte na metodzie LASSO

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 4 - zagadnienie estymacji, metody wyznaczania estymatorów

Idea. θ = θ 0, Hipoteza statystyczna Obszary krytyczne Błąd pierwszego i drugiego rodzaju p-wartość

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

STATYSTYKA

Prawa wielkich liczb, centralne twierdzenia graniczne

Przykład zastosowania optymalnej alokacji w estymacji frakcji

Stanisław Cichocki Natalia Nehrebecka. Wykład 7

Metoda najmniejszych kwadratów

W4 Eksperyment niezawodnościowy

Zmienne losowe, statystyki próbkowe. Wrocław, 2 marca 2015

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 7 i 8 - Efektywność estymatorów, przedziały ufności

WSTĘP. Tematy: Regresja liniowa: model regresji liniowej, estymacja nieznanych parametrów. Wykład:30godz., ćwiczenia:15godz., laboratorium:30godz.

Metody systemowe i decyzyjne w informatyce

Definicja 1 Statystyką nazywamy (mierzalną) funkcję obserwowalnego wektora losowego

Wykład 6 Estymatory efektywne. Własności asymptotyczne estym. estymatorów

Detekcja rozkładów o ciężkich ogonach

Statystyka matematyczna. Wykład III. Estymacja przedziałowa

Prawdopodobieństwo i statystyka r.

Metoda największej wiarogodności

Prawdopodobieństwo i statystyka

STATYSTYKA MATEMATYCZNA WYKŁAD stycznia 2010

Na A (n) rozważamy rozkład P (n) , który na zbiorach postaci A 1... A n określa się jako P (n) (X n, A (n), P (n)

Szacowanie optymalnego systemu Bonus-Malus przy pomocy Pseudo-MLE. Joanna Sawicka

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów

Testowanie hipotez. Hipoteza prosta zawiera jeden element, np. H 0 : θ = 2, hipoteza złożona zawiera więcej niż jeden element, np. H 0 : θ > 4.

Estymacja parametru rozkładu Rayleigha i logistycznego w terminach k-tych wartości rekordowych

1.1 Statystyka matematyczna Literatura Model statystyczny Preliminaria... 3

Korzystając z własności metryki łatwo wykazać, że dla dowolnych x, y, z X zachodzi

Statystyka Matematyczna Anna Janicka

Uogolnione modele liniowe

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych

Funkcje. Część druga. Zbigniew Koza. Wydział Fizyki i Astronomii

Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX = 4 i EY = 6. Rozważamy zmienną losową Z =.

2. Empiryczna wersja klasyfikatora bayesowskiego

Matematyka ubezpieczeń majątkowych r.

Statystyka i eksploracja danych

Prawdopodobieństwo i statystyka

Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/

Prawdopodobieństwo i statystyka

Testowanie hipotez statystycznych.

Ośrodkowość procesów, proces Wienera. Ośrodkowość procesów, proces Wienera Procesy Stochastyczne, wykład, T. Byczkowski,

WYKŁAD Z ANALIZY MATEMATYCZNEJ I. dr. Elżbieta Kotlicka. Centrum Nauczania Matematyki i Fizyki

Prawdopodobieństwo. Prawdopodobieństwo. Jacek Kłopotowski. Katedra Matematyki i Ekonomii Matematycznej SGH. 16 października 2018

Metoda Monte Carlo. Jerzy Mycielski. grudzien Jerzy Mycielski () Metoda Monte Carlo grudzien / 10

Metody systemowe i decyzyjne w informatyce

Wyk lad 7 Baza i wymiar przestrzeni liniowej

Estymatory nieobciążone

Prawdopodobieństwo i statystyka

Porównanie modeli regresji. klasycznymi modelami regresji liniowej i logistycznej

Własności statystyczne regresji liniowej. Wykład 4

Statystyka w przykładach

Ważne rozkłady i twierdzenia c.d.

Matematyka ubezpieczeń majątkowych r.

Informacja o przestrzeniach Hilberta

KADD Metoda najmniejszych kwadratów funkcje nieliniowe

PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA

Stosowana Analiza Regresji

Modele długości trwania

Stacjonarne procesy gaussowskie, czyli o zwiazkach pomiędzy zwykła

Pojęcie szeregu nieskończonego:zastosowania do rachunku prawdopodobieństwa wykład 1

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Podstawy metod probabilistycznych. dr Adam Kiersztyn

Wykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga

Własności estymatorów regresji porządkowej z karą LASSO

Prawdopodobieństwo i statystyka r.

Komputerowa Analiza Danych Doświadczalnych

2.1 Przykład wstępny Określenie i konstrukcja Model dwupunktowy Model gaussowski... 7

Kolokwium ze statystyki matematycznej

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 9 i 10 - Weryfikacja hipotez statystycznych

PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω)

Weryfikacja hipotez statystycznych

Metody systemowe i decyzyjne w informatyce

Metody probabilistyczne

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

EGZAMIN MAGISTERSKI, 18 września 2013 Biomatematyka

Wprowadzenie. { 1, jeżeli ˆr(x) > 0, pozatym. Regresja liniowa Regresja logistyczne Jądrowe estymatory gęstości. Metody regresyjne

Matematyka ubezpieczeń majątkowych r.

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe

STATYSTYKA MATEMATYCZNA

WYDZIAŁ BUDOWNICTWA LĄDOWEGO I WODNEGO

Estymatory kwantylowe i estymacja kwantyli

28 maja, Problem Dirichleta, proces Wienera. Procesy Stochastyczne, wykład 14, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126

6.4 Podstawowe metody statystyczne

Prognozowanie i Symulacje. Wykład I. Matematyczne metody prognozowania

STATYSTYKA MAŁYCH OBSZARÓW I. WPROWADZENIE

Matematyka z el. statystyki, # 1 /Geodezja i kartografia I/

Metody systemowe i decyzyjne w informatyce

F t+ := s>t. F s = F t.

2.7 Przestrzenie unormowane skończenie wymiarowe

WYKŁAD 1. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Instytut Matematyki Uniwersytet Warszawski

Modele DSGE. Jerzy Mycielski. Maj Jerzy Mycielski () Modele DSGE Maj / 11

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa

Transkrypt:

Estymacja gęstości prawdopodobieństwa metodą selekcji modelu M. Wojtyś Wydział Matematyki i Nauk Informacyjnych Politechnika Warszawska Wisła, 7 grudnia 2009

Wstęp Próba losowa z rozkładu prawdopodobieństwa o nieznanej gęstości f : X 1, X 2,..., X n f Niech M = {f θ : θ R m } będzie m-wymiarowym modelem parametrycznym, gdzie funkcje f θ to gęstości p-stwa dane w pewnej ustalonej postaci.

Wstęp Próba losowa z rozkładu prawdopodobieństwa o nieznanej gęstości f : X 1, X 2,..., X n f Niech M = {f θ : θ R m } będzie m-wymiarowym modelem parametrycznym, gdzie funkcje f θ to gęstości p-stwa dane w pewnej ustalonej postaci.

Wstęp Przykład 1. Liniowe kombinacje funkcji ortogonalnych: f θ (x) = m θ j b j (x), gdzie b 1, b 2,..., b m jest układem ortogonalnym w zadanej przestrzeni funkcyjnej. j=1 Przykład 2. Rodzina wykładnicza rozkładów: gdzie c(θ) jest stałą normującą. m f θ (x) = c(θ) exp{ θ j b j (x)}, j=1

Wstęp Przykład 1. Liniowe kombinacje funkcji ortogonalnych: f θ (x) = m θ j b j (x), gdzie b 1, b 2,..., b m jest układem ortogonalnym w zadanej przestrzeni funkcyjnej. j=1 Przykład 2. Rodzina wykładnicza rozkładów: gdzie c(θ) jest stałą normującą. m f θ (x) = c(θ) exp{ θ j b j (x)}, j=1

Wstęp Dla γ 2 {1,...,m} zdefiniujmy model M γ M = {f θ : θ R m } taki, że M γ = {f θ ( ) M : θ j = 0 dla j / γ}. Oczywiście M {1,...,m} = M. Problem selekcji modelu polega na wybraniu na podstawie próby losowej jednego z 2 m powyższych modeli w celu estymacji f.

Wstęp Dla γ 2 {1,...,m} zdefiniujmy model M γ M = {f θ : θ R m } taki, że M γ = {f θ ( ) M : θ j = 0 dla j / γ}. Oczywiście M {1,...,m} = M. Problem selekcji modelu polega na wybraniu na podstawie próby losowej jednego z 2 m powyższych modeli w celu estymacji f.

Wstęp Metody selekcji modelu mają za zadanie wybrać model, w którym możliwe jest uzyskanie estymatora, który jednocześnie: jest dopasowany do próby losowej X 1,..., X n, odzwierciedla ogólne własności rozkładu f. Szukamy zatem najprostszego modelu, w obrębie którego możliwa jest dobra aproksymacja f.

Wstęp Przykład Jeśli f L 2 ([a, b]), to można ją rozwinąć w szereg Fouriera w zadanej bazie funkcji: f (x) = θ j b j (x). j=1 Wtedy wybór modelu polega na znalezieniu skończonego podzbioru γ N dającego dobry estymator postaci ˆf (x) = j γ ˆθ j b j (x) w modelu M γ.

Przykłady metod selekcji ( AIC: bazuje na odległości Kullbacka-Leiblera E f straty. ˆγ = arg max γ 2 {1,...,m} AIC(M γ ), log fˆf ) jako funkcji gdzie AIC(M γ ) = log n ˆf γ (X i ) γ, gdzie ˆf γ to estymator największej wiarogodności dla f w modelu M γ. BIC: ˆγ = arg max γ 2 {1,...,m} BIC(M γ ), gdzie BIC(M γ ) = log n i=1 i=1 ˆf γ (X i ) γ log n 2.

Przykłady metod selekcji ( AIC: bazuje na odległości Kullbacka-Leiblera E f straty. ˆγ = arg max γ 2 {1,...,m} AIC(M γ ), log fˆf ) jako funkcji gdzie AIC(M γ ) = log n ˆf γ (X i ) γ, gdzie ˆf γ to estymator największej wiarogodności dla f w modelu M γ. BIC: ˆγ = arg max γ 2 {1,...,m} BIC(M γ ), gdzie BIC(M γ ) = log n i=1 i=1 ˆf γ (X i ) γ log n 2.

Progowanie Niech ˆθ będzie estymatorem parametru θ R m w modelu M opartym o próbę X 1,..., X n. Dla zadanego ε n > 0 oraz stałych C j > 0 zdefiniujmy zbiór Γ n = {j : ˆθ j > C j ε n, 1 j m}. Wówczas jeśli f jest postaci f θ 0 dla pewnego θ 0 R, to Γ n przybliża zbiór γ := {j : θj 0 > 0}, a tym samym przybliża najmniejszy model, do którego należy nieznane f θ 0.

Zgodność reguły wyboru modelu Twierdzenie Załóżmy, że gdzie k < lub k =. Jeśli: to f (x) = c(θ) exp{ k j=1 θ jb j (x)}, max 1 j m b j = O(m ω ) dla pewnego ω 0, j=m+1 θ jb j = O(m r ) gdy m, gdzie r > 1 2 + ω, n/m 2+4ω n oraz nε 2 n/m 1+2ω n gdy n, lim inf n m n k, ε n 0, C j C j+1 dla j N, lim P(Γ n = γ) = 1, gdy k <. n Jeśli dodatkowo θ j > (C 1 + C j )ε n dla j γ m := γ {1,..., m}, to lim P(Γ n = γ m ) = 1, gdy k =. n

Zgodność estymatora postselekcyjnego Twierdzenie Załóżmy, że gdzie k < lub k =. Jeśli: to f (x) = c(θ) exp{ k j=1 θ jb j (x)}, max j=1,...,m b j = O(m ω ) dla pewnego ω 0, j=m+1 θ jb j = O(m r ) gdy m, gdzie r > 1 2 + ω, n/m 2+4ω n j N, i m n gdy n, ε n 0, C j C j+1 dla KL(f ˆf n ) P 0, gdy n, gdzie ˆf n jest estymatorem największej wiarogodności w modelu wykładniczym wybranym metodą progowania.

Zgodność Przy podobnych założeniach można wykazać, że jeśli gdzie k < lub k =, to f ˆf L 2 f (x) = k j=1 θ jb j (x), P 0, gdy n. Ponadto P(Γ n = γ) 1, jeśli tylko lim n m n k.

Wybór progu Próg C j ε n w definicji: Γ n = {j : ˆθ j > C j ε n, 1 j m}. jest deterministyczny. Możemy jednak rozważać progi zależne od danych. Na przykład: C j := ˆθ m C j lub C j := R j = ranga ˆθ j wśród { ˆθ 1,..., ˆθ m } przy uporządkowaniu malejącym (tzn. element największy ma rangę równą 1). Dla tak zdefiniowanych reguł selekcji tezy twierdzeń o zgodności są prawdziwe przy podobnych założeniach.

Przykłady obliczeniowe - trafność wyboru modelu θ Γ 1 Γ 2 Γ 3 Γ 4 (0, 0.1, 0, 0, 0) 0.0002 0.202 0.085 0.136 (0, 0.2, 0, 0, 0) 0.009 0.375 0.351 0.345 (0, 0.4, 0, 0, 0) 0.361 0.674 0.935 0.823 (0, 0.6, 0, 0, 0) 0.931 0.846 0.999 0.980 (0, 0.8, 0, 0, 0) 0.970 0.936 1.000 0.998 (0, 1.0, 0, 0, 0) 0.956 0.968 0.998 1.000 Γ 1 = {j : ˆθ j > jε n, 1 j m}, Γ 2 = {j : ˆθ j > j ˆθ m ε n, 1 j m}, Γ 3 = {j : ˆθ j > R j ε n, 1 j m}, Γ 4 = {j : ˆθ j > R j ˆθ m ε n, 1 j m}, ε n = log n/n, n = 100, m = 5.

Przykłady obliczeniowe - trafność wyboru modelu θ Γ 1 Γ 2 Γ 3 Γ 4 (0, 0, 0.1, 0, 0) 0.000 0.115 0.129 0.152 (0, 0, 0.2, 0, 0) 0.000 0.261 0.429 0.355 (0, 0, 0.4, 0, 0) 0.019 0.553 0.944 0.781 (0, 0, 0.6, 0, 0) 0.340 0.704 0.985 0.954 (0, 0, 0.8, 0, 0) 0.744 0.775 0.970 0.988 (0, 0, 1.0, 0, 0) 0.758 0.810 0.951 0.995 Γ 1 = {j : ˆθ j > jε n, 1 j m}, Γ 2 = {j : ˆθ j > j ˆθ m ε n, 1 j m}, Γ 3 = {j : ˆθ j > R j ε n, 1 j m}, Γ 4 = {j : ˆθ j > R j ˆθ m ε n, 1 j m}, ε n = log n/n, n = 100, m = 5.

Przykłady obliczeniowe - MISE(ˆf ) θ S Γ 1 Γ 2 Γ 3 Γ 4 (0, 0.1, 0, 0, 0) 0.025 0.013 0.028 0.020 0.046 (0, 0.2, 0, 0, 0) 0.044 0.047 0.031 0.041 0.063 (0, 0.4, 0, 0, 0) 0.035 0.133 0.025 0.025 0.052 (0, 0.6, 0, 0, 0) 0.039 0.038 0.024 0.015 0.024 (0, 0.8, 0, 0, 0) 0.046 0.019 0.022 0.017 0.018 (0, 1.0, 0, 0, 0) 0.054 0.022 0.022 0.021 0.018 S - reguła Schwarza, Γ 1 = {j : ˆθ j > jε n, 1 j m}, Γ 2 = {j : ˆθ j > j ˆθ m ε n, 1 j m}, Γ 3 = {j : ˆθ j > R j ε n, 1 j m}, Γ 4 = {j : ˆθ j > R j ˆθ m ε n, 1 j m},

Przykłady obliczeniowe - MISE(ˆf ) θ S Γ 1 Γ 2 Γ 3 Γ 4 (0, 0, 0.1, 0, 0) 0.024 0.013 0.031 0.020 0.038 (0, 0, 0.2, 0, 0) 0.052 0.043 0.038 0.035 0.037 (0, 0, 0.4, 0, 0) 0.056 0.163 0.029 0.020 0.026 (0, 0, 0.6, 0, 0) 0.044 0.233 0.027 0.019 0.021 (0, 0, 0.8, 0, 0) 0.053 0.081 0.030 0.030 0.024 (0, 0, 1.0, 0, 0) 0.063 0.042 0.037 0.045 0.033 S - reguła Schwarza, Γ 1 = {j : ˆθ j > jε n, 1 j m}, Γ 2 = {j : ˆθ j > j ˆθ m ε n, 1 j m}, Γ 3 = {j : ˆθ j > R j ε n, 1 j m}, Γ 4 = {j : ˆθ j > R j ˆθ m ε n, 1 j m},

Przykłady obliczeniowe - MISE(ˆf ) MISE 0.00 0.02 0.04 0.06 0.08 0.10 0.2 0.4 0.6 0.8 1.0 θ 2 linia szara - MISE(ˆf ) dla reguły Γ 3, linia przerywana - MISE(ˆf ) dla reguły ˆk := max Γ 3.

Przykłady obliczeniowe - MISE(ˆf ) MISE 0.00 0.02 0.04 0.06 0.08 0.10 0.2 0.4 0.6 0.8 1.0 θ 2 linia szara - MISE(ˆf ) dla reguły Γ 3, linia przerywana - MISE(ˆf ) dla reguły ˆk := max Γ 3, linia czerwona - MISE(ˆf ) dla reguły Schwarza.