Komputerowa analiza danych doświadczalnych

Podobne dokumenty
Komputerowa analiza danych doświadczalnych

Komputerowa analiza danych doświadczalnych

Komputerowa analiza danych doświadczalnych

Metoda największej wiarygodności

Komputerowa Analiza Danych Doświadczalnych

Definicja 1 Statystyką nazywamy (mierzalną) funkcję obserwowalnego wektora losowego

Statystyczna analiza danych w programie STATISTICA 7.1 PL (wykład 1) Dariusz Gozdowski

Oznacza to, że chcemy znaleźć minimum, a właściwie wartość najmniejszą funkcji

STATYSTYKA I DOŚWIADCZALNICTWO

Ważne rozkłady i twierdzenia c.d.

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Rachunek prawdopodobieństwa i statystyka

Rozkłady prawdopodobieństwa zmiennych losowych

Weryfikacja hipotez statystycznych

Metody probabilistyczne

Metoda momentów i kwantyli próbkowych. Wrocław, 7 listopada 2014

METODY ESTYMACJI PUNKTOWEJ. nieznanym parametrem (lub wektorem parametrów). Przez X będziemy też oznaczać zmienną losową o rozkładzie

Rozkład normalny. Marcin Zajenkowski. Marcin Zajenkowski () Rozkład normalny 1 / 26

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

1 Podstawy rachunku prawdopodobieństwa

STATYSTYKA

Testowanie hipotez statystycznych.

Wykład 5 Estymatory nieobciążone z jednostajnie minimalną war

Komputerowa Analiza Danych Doświadczalnych

Statystyka matematyczna. Wykład III. Estymacja przedziałowa

Komputerowa analiza danych doświadczalnych

P (A B) = P (A), P (B) = P (A), skąd P (A B) = P (A) P (B). P (A)

Metoda największej wiarygodności

Estymacja parametrów w modelu normalnym

Komputerowa analiza danych doświadczalnych

Ważne rozkłady i twierdzenia

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 3 - model statystyczny, podstawowe zadania statystyki matematycznej

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty

Wykład 10 Estymacja przedziałowa - przedziały ufności dla średn

Wnioskowanie statystyczne. Statystyka w 5

Ważną rolę odgrywają tzw. funkcje harmoniczne. Przyjmujemy następującą definicję. u = 0, (6.1) jest operatorem Laplace a. (x,y)

Statystyka. Wykład 2. Krzysztof Topolski. Wrocław, 11 października 2012

LABORATORIUM Populacja Generalna (PG) 2. Próba (P n ) 3. Kryterium 3σ 4. Błąd Średniej Arytmetycznej 5. Estymatory 6. Teoria Estymacji (cz.

ESTYMACJA PRZEDZIAŁOWA WYBRANYCH PARAMETRÓW

SMOP - wykład. Rozkład normalny zasady przenoszenia błędów. Ewa Pawelec

Statystyka w analizie i planowaniu eksperymentu

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 4 - zagadnienie estymacji, metody wyznaczania estymatorów

STATYSTYKA MATEMATYCZNA WYKŁAD grudnia 2009

Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/

Literatura. Leitner R., Zacharski J., Zarys matematyki wyŝszej dla studentów, cz. III.

Statystyka w analizie i planowaniu eksperymentu

STATYSTYKA - PRZYKŁADOWE ZADANIA EGZAMINACYJNE

Estymacja punktowa i przedziałowa

7. Estymacja parametrów w modelu normalnym( ) Pojęcie losowej próby prostej

Analiza niepewności pomiarów

MATEMATYKA Z ELEMENTAMI STATYSTYKI LABORATORIUM KOMPUTEROWE DLA II ROKU KIERUNKU ZARZĄDZANIE I INŻYNIERIA PRODUKCJI ZESTAWY ZADAŃ

Spis treści 3 SPIS TREŚCI

Zmienne losowe ciągłe i ich rozkłady

WSKAZÓWKI DO WYKONANIA SPRAWOZDANIA Z WYRÓWNAWCZYCH ZAJĘĆ LABORATORYJNYCH

O ŚREDNIEJ ARYTMETYCZNEJ I MEDIANIE

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 7 i 8 - Efektywność estymatorów, przedziały ufności

Estymacja przedziałowa - przedziały ufności dla średnich. Wrocław, 5 grudnia 2014

Wykład 3 Momenty zmiennych losowych.

Wykład 3 Momenty zmiennych losowych.

Statystyka matematyczna dla leśników

Metody Statystyczne. Metody Statystyczne.

Wykład 3 Jednowymiarowe zmienne losowe

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych

KADD Metoda najmniejszych kwadratów funkcje nieliniowe

Komputerowa analiza danych doświadczalnych

... i statystyka testowa przyjmuje wartość..., zatem ODRZUCAMY /NIE MA POD- STAW DO ODRZUCENIA HIPOTEZY H 0 (właściwe podkreślić).

Stanisław Cichocki Natalia Nehrebecka. Wykład 7

PRAWDOPODOBIEŃSTWO. ZMIENNA LOSOWA. TYPY ROZKŁADÓW

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa

Prawdopodobieństwo i statystyka

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 13 i 14 - Statystyka bayesowska

HISTOGRAM. Dr Adam Michczyński - METODY ANALIZY DANYCH POMIAROWYCH Liczba pomiarów - n. Liczba pomiarów - n k 0.5 N = N =

Średnie. Średnie. Kinga Kolczyńska - Przybycień

W2. Zmienne losowe i ich rozkłady. Wnioskowanie statystyczne.

Estymacja przedziałowa. Przedział ufności

Metody probabilistyczne opracowane notatki 1. Zdefiniuj zmienną losową, rozkład prawdopodobieństwa. Przy jakich założeniach funkcje: F(x) = sin(x),

Metody systemowe i decyzyjne w informatyce

Matematyka ubezpieczeń majątkowych r.

Rozkłady statystyk z próby

Centralne twierdzenie graniczne

Komputerowa Analiza Danych Doświadczalnych

Zadanie 1. Liczba szkód N w ciągu roku z pewnego ryzyka ma rozkład geometryczny: k =

Zmienne losowe ciągłe i ich rozkłady

Statystyka matematyczna

Rozkład normalny, niepewność standardowa typu A

WYKŁAD 8 ANALIZA REGRESJI

Elementy Rachunek prawdopodobieństwa

Prawdopodobieństwo i statystyka r.

1.1 Wstęp Literatura... 1

Metody systemowe i decyzyjne w informatyce

Estymacja przedziałowa

Pobieranie prób i rozkład z próby

Temat: Zmienna losowa. Rozkład skokowy. Rozkład ciągły. Kody kolorów: Ŝółty nowe pojęcie pomarańczowy uwaga. Anna Rajfura, Matematyka

Metoda największej wiarogodności

4,5. Dyskretne zmienne losowe (17.03; 31.03)

Matematyka z el. statystyki, # 3 /Geodezja i kartografia II/

Zagadnienia brzegowe dla równań eliptycznych

Wykład 6 Estymatory efektywne. Własności asymptotyczne estym. estymatorów

Na A (n) rozważamy rozkład P (n) , który na zbiorach postaci A 1... A n określa się jako P (n) (X n, A (n), P (n)

Transkrypt:

Komputerowa analiza danych doświadczalnych Wykład 9 27.04.2018 dr inż. Łukasz Graczykowski lukasz.graczykowski@pw.edu.pl Semestr letni 2017/2018

Metoda największej wiarygodności ierównosć informacyjna

Metoda największej wiarygodności

Magiczna funkcja ft Do tej pory zajmowaliśmy się estymacją parametrów rozkładów, wprowadziliśmy estymatory i warunki, jakie powinny spełniać. ie zajmowaliśmy się natomiast sposobem ich konstruowania (oprócz estymatora wartości oczekiwanej i wariancji) W praktyce mamy pewien zestaw danych (punkty pomiarowe) i chcemy do niego dopasować jakiś model teoretyczny, który pozwoli nam określić jego parametry http://cms.web.cern.ch/news/very-rare-decay-has-been-seen-cms https://www.ndm.ox.ac.uk/principal-investigators/researcher/joel-tarning 4 / 25

Magiczna funkcja ft http://www.mathwave.com/articles/fit-distributions-excel.html 5 / 25

Magiczna funkcja ft 6 / 25

Funkcja wiarygodności Do tej pory zajmowaliśmy się estymacją parametrów rozkładów, wprowadziliśmy estymatory i warunki, jakie powinny spełniać. ie zajmowaliśmy się natomiast sposobem ich konstruowania (oprócz estymatora wartości oczekiwanej i wariancji) Problem ogólny: mamy zbiór p parametrów: określony gęstością prawdopodobieństwa: dla n zmiennych losowych: Jeden pomiar wielkości X, czyli pobranie próby o liczności 1, prowadzi do uzyskania wyniku Takiemu doświadczeniu przypisujemy liczbę: dp ( j) =f ( x ( j) ; λ ) dx λ =(λ 1, λ 2,...,λ p ) X=( X 1, X 2,..., X n ) f =f (x ; λ) X ( j) =( X 1 =x 1 ( j), X 2 =x 2 ( j),..., X n =x n ( j) ) Która jest tzw. prawdopodobieństwem a posteriori. Mówi ona po uzyskaniu wyniku, jakie było prawdopodobieństwo jego uzyskania 7 / 25

Funkcja wiarygodności Prawdopodobieństwem a posteriori. Mówi ona po uzyskaniu wyniku, jakie było prawdopodobieństwo jego uzyskania, czyli wartości takiej, że: X ( j) Dla próby o niezależnych elementach omawiane prawdopodobieńśtwo uzyskania wyniku iloczynem: dane jest Gdy populacja jest charakteryzowana przez dwa różne zbiory parametrów,, wtedy możemy określić iloraz wiarygodności: Q= dp= λ 1, λ 2 f (x ( j) ; λ 1 )d x f ( x ( j) ; λ 2 )d x x i ( j) < x ( j) x i ( j) +dx i ( j), (i=1,2,...,n) f ( x ( j) ; λ)d x X ( j), X (1),..., X ( ) Możemy go określić: zbiór parametrów λ 1jest Q razy bardziej prawdopodobny niż zbiór parametrów λ 2 8 / 25

Funkcja wiarygodności Funkcją wiarygodności nazywamy iloczyn postaci: L= f ( x ( j) ; λ ) Funkcja wiarygodności jest zmienną losową (jest funkcją próby) Przykład: iloraz wiarygodności rzut asymetryczną monetą na podstawie rzutu asymetryczną monetąii wyników tych rzutów chcemy ustalić, czy moneta należy do klasy A lub klasy B załóżmy, że próba to 5 rzutów: A B 1 orzeł i 4 reszki orzeł 1/3 2/3 stąd funkcja wiarygodności: L A = 1 3 ( 2 3 ) 4 L B = 2 3 ( 1 3 ) 4 Q= L A L B =8 reszka 2/3 1/3 z duzą dozą prawdopodobieństwa moneta należy do klasy A 9 / 25

Metoda największej wiarygodności ajwiększą ufnością obdarzamy zbiór parametrów, dla którego funkcja wiarygodności osiąga maksymalną wartość Jak wyznaczyć maksimum? warunek konieczny: przyrównać pierwszą pochodną L do zera Różniczkowanie iloczynu jest jednak niewygodne, wprowadzamy więc logarytm funkcji wiarygodności L: Funkcją wiarygodności jest odpowiednikiem gęstości prawdopodobieństwa, tylko określona dla parametrów. Ponieważ jest funkcją próby losowej, jest również zmienną losową l=ln L= ln f ( x ( j ) ;λ) L(λ) L(λ) λ max λ λ 3 max λ 1 max λ 2 max λ 10 / 25

Metoda największej wiarygodności W najprostszym przypadku wektor parametrów λ ma tylko jedną składową λ Musimy wtedy rozwiązać równanie wiarygodności: l '= dl d λ =0 Czyli: l '= d d λ ln f ( x( j ) ;λ)= f ' f = φ( x ( j) ;λ) gdzie: φ( x ( j) ; λ )= ( d d λ f (x( j) ;λ) ) /( f (x ( j) ;λ)) jest pochodną logarytmiczną f względem λ W przypadku gdy wektor λ ma p składowych, mamy układ p równań: l λ i =0, i=1,2,, p 11 / 25

Metoda największej wiarygodności pods. Funkcją wiarygodności nazywamy iloczyn postaci: L= f ( X ( j) ; λ) Funkcja wiarygodności jest zmienną losową (jest funkcją próby) ajwiększą ufnością obdarzamy zbiór parametrów, dla którego funkcja wiarygodności osiąga maksymalną wartość Jak wyznaczyć maksimum? warunek konieczny: przyrównać pierwszą pochodną L do zera Różniczkowanie iloczynu jest jednak niewygodne, wprowadzamy więc logarytm funkcji wiarygodności L: Funkcją wiarygodności jest odpowiednikiem gęstości prawdopodobieństwa, tylko określona dla parametrów. Ponieważ jest funkcją próby losowej, jest również zmienną losową Równania wiarygodności: l λ i =0, i=1,2,, p l=ln L= ln f ( X ( j) ; λ )= f '(X ( j) ;λ) f (X ( j) ;λ) 12 / 25

Metoda największej wiarygodności Przykład: powtarzanie pomiarów o różnej dokładności pomiar danej wielkości różnymi przyrządami pomiarowymi: pomiary X ( j) będą się układały wokół wartości rzeczywistej λ niepewności bedą miały rozkład normalny mamy 1 wielkość, więc z wektora robi się jedna zmienna Wniosek: pojedynczy pomiar to pobranie próby o liczebności 1 z rozkładu Gaussa o wartości średniej λ i wariancji σ j Prawdopodobieństwo a posteriori możemy zatem wyrazić jako: dp ( j) =f ( X ( j) ;λ)dx= 1 2π σ j exp( ( X( j) λ) 2 ) dx X ( j) X ( j) 2σ j 2 Zatem dla pomiarów funkcja wiarygodności wynosi: L= 1 2 π σ j exp( ( X( j) λ) 2 ) 2 2 σ j 13 / 25

ajbardziej wiarygodny wynik Logarytmiczna funkcja wiarygodności wynosi: l= 1 2 ( X ( j) λ) 2 +const 2 σ j Równanie wiarygodności przybiera postać: dl d λ = A jego rozwiązanie to: ~ X ( j) λ= X ( j) λ σ j 2 =0 σ j 2 / Wniosek: wynik najbardziej wiarygodny jest średnią ważoną pomiarów tej samej cechy, gdzie waga każdego pomiaru jest odwrotnością jego wariancji 1 σ j 2

Uśrednianie wielu pomiarów przykład S. Eidelman et al., Phys. Lett. B 592, 1 (2004) Pomiar stałej sprzężenia oddziaływań silnych szukanie najbardziej wiarygodnego wyniku uśredniamy wszystkie wyniki z różnych pomiarów ważąc je odwrotnością wariancji

Przykład estymacja rozkładu norm. Przykład: badamy rozkład wagi studentek amerykańskich college'ów rozkład wagi studentek w populacji jest opisany rozkładem normalnym o wartości średniej μ i wariancji σ 2 załóżmy, że wybraliśmy =10 reprezentantów, których wagi (w kg) X ( j) układają się następująco: 52,2 55,3 59,0 57,6 67,6 72,6 68,9 62,6 67,6 81,6 Zadanie: na podstawie wyniku pomiaru znajdż najbardziej wiarygodną estymację parametrów rozkładu oczywiście funkcja rozkładu prawdopodobieństwa każdego wyniku (wagi studentek) dana jest wzorem: konstruujemy funkcję wiarygodności: f ( x ( j) ;μ,σ )= 1 L( ^μ, ^σ)=σ n (2 π) exp[ n /2 1 2 ^σ 2 ( ( j x ) ^μ ) 2 ] σ 2π exp ( ( x( j) μ ) 2 2σ 2 ) 16 / 25

Przykład estymacja rozkładu norm. oraz logarytmiczną funkcję wiarygodności: l ( ^μ, ^σ)=ln L( ^μ, ^σ)=ln( n/2[ ^σ (2π) 1 2 ^σ 2 równania wiarygodności: dl( ^μ, ^σ) =0 d ^μ dl( ^μ, ^σ) = d ^μ 2 ( x ( j) ^μ )( 1) 2σ dl( ^μ, ^σ) d ^σ =0 dl( ^μ, ^σ) d ^σ = n ( x ( j) ^μ ) 2 ^σ + =0 ^σ 2 = 2 ^σ 2 ( x ( j) ^μ ) 2]) 1 = 2 ^σ 2 =0 ( x ( j) ) ^μ=0 ^μ= n ( x ( j) ^μ ) 2 n ( x ( j) ^μ ) 2 +const dla formalności powinniśmy jeszcze sprawdzić drugie pochodne... x ( j) 17 / 25

Przykład estymacja rozkładu norm. liczymy estymatory: ^μ= n n x ( j ) =645/10=64,5 ^σ 2 = otrzymaliśmy (poprzez metodę największej wiarygodności) estymację parametrów rozkładu normalnego całej populacji na podstawie pomiaru próby Koniec n ( x ( j) ^μ ) n =714/10=71.4 18 / 25

Przykłady funkcji wiarygodności

Przykłady funkcji wiarygodności Rozkład Poissona Rozkład dwumianowy f k = k k! e Funkcja wiarygodności ( l= {k j) ln λ ln(k ( j)!) λ } oraz jej pochodna dl d λ =l '= { k( j) λ 1 }= 1 λ {k ( j) λ }= λ ( K λ) Średnia arytmetyczna z k jest nieobciążonym estymatorem o minimalnej wariancji równej λ L(k ;λ)= ( n k) λk (1 λ) n k Stąd: l=ln L=k ln n k ln 1 ln n k l ' = k n k 1 = n k 1 n czyli średnia arytmetyczna k/n jest estymatorem o minimalnej wariancji równej λ(1-λ)/n 20 / 25

ierówność informacyjna

ierówność informacyjna Pytanie: jak skonstruować estymator o optymalnych własnościach? estymator jest nieobciążony, jeżeli wartość obciążenia dla każdej próby: B(λ)=E(S) λ=0 oraz (estymator zgodny) wariancja estymatora jest jak najmniejsza (dąży do 0 dla liczebności próby losowej dążacej do nieskończoności): σ 2 (S) - minimalna bardzo często istnieje jednak związek pomiędzy obciążeniem a wiarancją i musimy szukać kompromisu taki związek nazywamy nierównością informacyjną Po dłuższych przekształceniach (Brandt) otrzymujemy nierówność informacyjną związek między obciążeniem, wariancją i informacją zawartą w próbie: (B' (λ)+1) 2 σ 2 (S) I (λ) I (λ)=e(l ' 2 )= E(l ' ') I (λ)=e(l ' 2 )=E(( f ' (x( j) ; λ) f (x ( j) ;λ) l '= f ' (x ( j) ; λ) f ( x ( j) ; λ) )2) 22 / 25

ierówność informacyjna ierówność informacyjna: (B' (λ)+1) 2 σ 2 (S) I (λ) ierówność informacyjna to związek pomiędzy obciążeniem, wariancją i informacją zawartą w próbie Jest to definicja ogólna. Prawa strona jest dolnym ograniczeniem dla wariancji danego (dowolnego) estymatora ograniczenie to nazywamy ograniczeniem minimalnej wariancji albo ograniczeniem Cramea-Rao Kiedy obciążenie nie zależy od λ, a w szczególności gdy znika (równa się zero), nierówność redukuje się do: σ 2 (S) 1 I (λ) l '= f ' (x ( j) ; λ) f ( x ( j) ; λ) 23 / 25

ierówność informacyjna Możemy teraz zadać pytanie: jaki jest warunek osiągnięcia minimalnej wariancji? Innymi słowy, kiedy we wzorze Cramea-Rao zachodzi równość? E(S)=B(λ)+λ Można pokazać (Brandt), że zajdzie tak, gdy: l '=A (λ)(s E(S)) l=b(λ) S+C (λ)+d L=d exp ( B(λ)S+C (λ)) Wtedy w przypadku estymatora nieobciażonego o minimalnej wariancji otrzymujemy: σ 2 (S)= 1 I (λ) = 1 E(l ' 2 ) σ 2 (S)= 1 A (λ) Estymatory spełniające powyższe warunki nazywamy estymatorami o najniższej wariancji Jeżeli zamiast: L=d exp ( B(λ)S+C (λ)) spełniony jest słabszy warunek: L=g(S ;λ)c(x (1), X (2),..., X ( ) ) Wtedy S nazywamy estymatorem wystarczającym dla λ 24 / 25

KOIEC