Ważne rozkłady i twierdzenia c.d.

Podobne dokumenty
Komputerowa Analiza Danych Doświadczalnych

Ważne rozkłady i twierdzenia

Komputerowa analiza danych doświadczalnych

Metoda największej wiarygodności

Weryfikacja hipotez statystycznych

Wykład 3 Jednowymiarowe zmienne losowe

Rozkłady statystyk z próby

Rozkłady wielu zmiennych

Wykład 1 Próba i populacja. Estymacja parametrów z wykorzystaniem metody bootstrap

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA. Piotr Wiącek

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Wykład 3 Momenty zmiennych losowych.

Wykład 3 Momenty zmiennych losowych.

Spis treści 3 SPIS TREŚCI

Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe.

Statystyka matematyczna dla leśników

Prawdopodobieństwo i statystyka

Statystyka i eksploracja danych

Komputerowa analiza danych doświadczalnych

Komputerowa analiza danych doświadczalnych

Statystyka. Wykład 2. Krzysztof Topolski. Wrocław, 11 października 2012

STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA

Prawdopodobieństwo i statystyka

Literatura. Leitner R., Zacharski J., Zarys matematyki wyŝszej dla studentów, cz. III.

Rozkład zmiennej losowej Polega na przyporządkowaniu każdej wartości zmiennej losowej prawdopodobieństwo jej wystąpienia.

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych

STATYSTYKA

Komputerowa Analiza Danych Doświadczalnych

Zmienne losowe ciągłe i ich rozkłady

AKADEMIA GÓRNICZO-HUTNICZA Wydział Matematyki Stosowanej ROZKŁAD NORMALNY ROZKŁAD GAUSSA

Komputerowa analiza danych doświadczalnych

WYKŁAD 8 ANALIZA REGRESJI

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe

Statystyka matematyczna

Wybrane rozkłady zmiennych losowych. Statystyka

Metoda momentów i kwantyli próbkowych. Wrocław, 7 listopada 2014

W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych:

Statystyka i eksploracja danych

Estymacja parametrów w modelu normalnym

SIMR 2017/18, Statystyka, Przykładowe zadania do kolokwium - Rozwiązania

PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA

Zmienne losowe ciągłe i ich rozkłady

Wynik pomiaru jako zmienna losowa

Prawdopodobieństwo i statystyka

Wnioskowanie statystyczne. Statystyka w 5

Wybrane rozkłady zmiennych losowych. Statystyka

7. Estymacja parametrów w modelu normalnym( ) Pojęcie losowej próby prostej

Statystyka matematyczna. Wykład III. Estymacja przedziałowa

Biostatystyka, # 3 /Weterynaria I/

Rozkłady dwóch zmiennych losowych

Tablica Wzorów Rachunek Prawdopodobieństwa i Statystyki

Komputerowa analiza danych doświadczalnych

Statystyka. Wydział Zarządzania Uniwersytetu Łódzkiego

Komputerowa Analiza Danych Doświadczalnych

Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału

Rozkłady statystyk z próby. Statystyka

SMOP - wykład. Rozkład normalny zasady przenoszenia błędów. Ewa Pawelec

Rozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej

Metody Statystyczne. Metody Statystyczne.

Estymacja przedziałowa - przedziały ufności dla średnich. Wrocław, 5 grudnia 2014

Metoda Monte Carlo. Jerzy Mycielski. grudzien Jerzy Mycielski () Metoda Monte Carlo grudzien / 10

Zawansowane modele wyborów dyskretnych

Rachunek prawdopodobieństwa i statystyka

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 4 - zagadnienie estymacji, metody wyznaczania estymatorów

LABORATORIUM Populacja Generalna (PG) 2. Próba (P n ) 3. Kryterium 3σ 4. Błąd Średniej Arytmetycznej 5. Estymatory 6. Teoria Estymacji (cz.

Komputerowa analiza danych doświadczalnych

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 7 i 8 - Efektywność estymatorów, przedziały ufności

Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/

Pobieranie prób i rozkład z próby

Wykład 10 Estymacja przedziałowa - przedziały ufności dla średn

Rozkład normalny, niepewność standardowa typu A

Rozkłady zmiennych losowych

METODY BADAŃ NA ZWIERZĘTACH ze STATYSTYKĄ wykład 3-4. Parametry i wybrane rozkłady zmiennych losowych

Zakładamy, że są niezależnymi zmiennymi podlegającymi (dowolnemu) rozkładowi o skończonej wartości oczekiwanej i wariancji.

Metoda największej wiarygodności

6. Zmienne losowe typu ciagłego ( ) Pole trapezu krzywoliniowego

Dokładne i graniczne rozkłady statystyk z próby

Metody probabilistyczne

Na A (n) rozważamy rozkład P (n) , który na zbiorach postaci A 1... A n określa się jako P (n) (X n, A (n), P (n)

Funkcje charakterystyczne zmiennych losowych, linie regresji 1-go i 2-go rodzaju

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

W2. Zmienne losowe i ich rozkłady. Wnioskowanie statystyczne.

III. ZMIENNE LOSOWE JEDNOWYMIAROWE

Analiza niepewności pomiarów

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie

STATYSTYKA MATEMATYCZNA. rachunek prawdopodobieństwa

O ŚREDNIEJ STATYSTYCZNEJ

Statystyka. #6 Analiza wariancji. Aneta Dzik-Walczak Małgorzata Kalbarczyk-Stęclik. rok akademicki 2015/ / 14

Definicja 1 Statystyką nazywamy (mierzalną) funkcję obserwowalnego wektora losowego

Wykład 5 Estymatory nieobciążone z jednostajnie minimalną war

Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna.

Statystyka w przykładach

Prawa wielkich liczb, centralne twierdzenia graniczne

Matematyka z el. statystyki, # 3 /Geodezja i kartografia II/

Transkrypt:

Ważne rozkłady i twierdzenia c.d. Funkcja charakterystyczna rozkładu Wielowymiarowy rozkład normalny Elipsa kowariacji Sploty rozkładów Rozkłady jednostajne Sploty z rozkładem normalnym Pobieranie próby Estymatory Wartość średnia z próby Wariancja populacji 1

Funkcja charakterystyczna rozkładu Mamy zmienną losową X o dystrybuancie F(x) i funkcji gęstości prawdopodobieństwa f(x). Jej funkcję charakterystyczną definiujemy jako: Czyli jest ona transformatą Fouriera gęstości f(x): Obliczmy momenty względem początku układu: Można je otrzymać przez n-krotne różniczkowanie funkcji charakterystycznej w punkcie t=0: Czyli t=e {expitx} t= n =E { X n }= n t= d n t =i n dt n n 0=i n n expitx f xdx x n f xdx x n expitx f xdx

Funkcja charakterystyczna c.d. Wprowadzamy przesuniętą zmienną y=x-e{x} i jej funkcję charakterystyczną: Wtedy n-ta pochodna jest równa n-temu momentowi względem wartości średniej: a w szczególności: y t= exp {it x x} f xdx=texp it x y n 0=i n n =i n E { X x n } x= y ' ' 0 Odwracając transformatę Fouriera można z funkcji charakterystycznej uzyskać gęstość prawd.: f x= 1 exp itxtdt F. charakterystyczna sumy zmiennych losowych jest iloczynem f. charakterystycznych 3

Funkcja charakterystyczna wyniki Istnieje jednoznaczny związek pomiędzy dystrybuantą i jej funkcją charakterystyczną. Stąd można ich używać zamiennie. Przykłady własności otrzymanych przez rachunki z funkcją charakterystyczną: Rozkład Poissona: t=exp {e it 1} Suma rozkładów: sum t=exp { 1 e it 1} jest również r. Poissona o λ równej sumie λ 1 i λ. F. charakterystyczna rozkładu normalnego: t=expitaexp b t / ma postać rozkładu normalnego. Iloczyn ich wariancji wynosi 1. Suma zmiennych opisanych rozkładem Gaussa: u t= x y =expita x exp b x t / expita y exp b y t / =exp it a x akadd y exp Podstawowe b x b rozkłady y t c.d. / 4

Wielowymiarowy rozkład normalny Rozważmy wektor x o n składowych: X = X 1, X,, X n Łączna gęstość prawd. rozkładu normalnego dla wielu zmiennych jest zdefiniowana jako: x=k exp { 1 x a T B x a } =k exp { 1 g x } gdzie a jest n-wymiarowym wektorem, a B jest dodatnio określoną macierzą symetryczną nxn. Z symetrii rozkładu normalnego mamy: x a xdx1 dx dx n =0 Czyli E{x-a} = 0 lub E{x} = a 5

R. normalny macierz kowariancji Różniczkujemy wyrażenie względem a: Co oznacza, że czyli [ I x a x a T B] xdx 1 dx dx n =0 E { x a x a T } B=I gdzie C jest macierzą kowariancji zmiennych x Szczególną uwagę zwrócimy na przypadek dwóch zmiennych i korelacje między nimi. Macierz C ma dla dwóch zmiennych postać: Odwracając otrzymujemy: C=E { x a x a T }=B 1 = C=B 1 1 cov X 1, X cov X 1, X 1 B= cov X 1, X 1 cov X 1, X cov X 1, X 1 6

Macierz B W przypadku znikających kowariancji mamy Wstawiając tę macierz do wzoru otrzymujemy gęstość prawdopodobieństwa niezależnych zm. : x 1 a 1 x a x=k exp { 1 gdzie stała k wynosi: W ogólnym przypadku: B= 1/ 1 0 0 1/ 1 } exp { 1 1 k= 1 k= det B n 1/ } 7

Elipsa kowariancji Posługujemy się zmiennymi znormalizowanymi: U i = X i a i i = cov X 1, X =cov U 1 1, U Otrzymujemy proste zależności: U 1, U =k exp 1 ut B u =k exp 1 g u B= 1 1 Szukamy linii stałej gęstości prawdopodobieństwa: 1 1 u 1 1 u u 1 u = 1 g u=const Otrzymujemy wzór będący równaniem tzw. elipsy kowariancji o środku w (a 1, a ), której osie główne tworzą kąt α z osiami x 1 i x. x 1 a 1 1 x 1 a 1 1 x a x a =1 1 1 8

Elipsy kowariancji rysunek Korelacja wydłuża i obraca elipsę Rozmiar elipsy zależy od wariancji. Elipsa kowariancji zawiera pełną informację o macierzy kowariancji 9

σ 1 =.0 σ =1.0 ρ=-0.5 σ 1 =.0 σ =1.0 ρ=0.0 σ 1 =.0 σ =1.0 ρ=0.7 Elipsa kow. i rozkład d Prawdopodobieństwo zajścia wydarzeń (x 1, x ) wewnątrz elipsy kowariancji jest niezależne od samej elipsy i wynosi: A k xd x=1 e 1 =const Elipsa kowariancji stanowi odpowiednik przedziału (a-σ, a+σ) dla rozkładu jednowymiarowego. 10

Suma zmiennych losowych jako splot Rozpatrujemy sumę zmiennych losowych: U=X+Y Zakładamy ich niezależność: f x, y= f x x f y y Dystrybuantę zmiennej U można przedstawić jako: y u=x+y x F u= A f x x f y ydx dy = = u x f x xdx f y ydy u y f y ydy f x xdx Skąd wyznaczamy gęstość prawdopodobieństwa: f u= d F u = du f x x f y u xdx= f y y f x u ydy Jest to splot rozkładów f x i f y 11

Splot rozkładów jednostajnych Rozpatrujemy sumy rozkładów jednostajnych: f x x={ 1, 0 x1 } 0, w przeciwnym razie Na początek sumę dwóch rozkładów: f u= 0 1 f y u xdx Rozbijając na dwa przypadki mamy: a 0 u1: b 1 u: v=u x dv= dx f u= u f 1 u= 0 u f y vdv= 0 u dv=u 1 f u= u 1 f y vdv= u 1 Podobnie dla splotu trzech rozkładów mamy: u f u={1/, 0 u1 1/ u 6 u 3, 1 u 1/ u 3, u3 } 1 u 1 u f y vdv= u 1 dv= u f y vdv 1

Splot r. jednostajnych rysunek u=x 1 u=x 1 +x u=x 1 +x +x 3 u=x 1 +x +x 3 +x 4 Zgodnie z centralnym twierdzeniem granicznym splot kilku rozkładów jednostajnych dąży do rozkładu Gaussa. 13

Sploty z rozkładem normalnym Mierzymy zmienną X opisaną gęstością prawd. f x (x). Pomiar obarczony jest błędem Y mającym rozkład normalny. Wynik jest sumą zm. losowych: Gęstość prawd. zmiennej U wynosi wtedy: W ogólnym przypadku z pomiarów możemy wyznaczyć funkcję f u, ale nie da się wyznaczyć f x. Rozwiązanie jest możliwe, gdy znamy ogólną postać funkcyjną f x. Najczęściej stosuje się metody Monte-Carlo. f u= 1 U = X Y f x xexp [ u x / ] dx 14

Splot r. jednostajnego z r. normalnym W tym przypadku możliwe jest rozwiązanie ogólne f u= 1 b a { 0 b u 0 a u } gdzie ψ 0 to dystrybuanta rozkładu normalnego Gdy dodajemy dwa rozkłady normalne f(x) otrzymujemy rozkład normalny o wariancji: f(u) = x y Stąd reguła dodawania błędów w kwadratach 15

Pobieranie próby W eksperymencie zwykle nie znamy gęstości prawdopodobieństwa opisującej pomiar. Jesteśmy zmuszeni przybliżać go przez rozkład częstości. Próbą nazywamy zespół doświadczeń wykonanych w celu określenia kształtu poszukiwanego rozkładu Próbę o n składnikach nazywamy próbą n- wymiarową Zespół wszystkich możliwych doświadczeń to populacja generalna Załóżmy, że rozkład zmiennej losowej to f(x) Pobieramy l prób o wymiarze n każda: 1. próba : X 1 1, X 1,, X n 1 j ta. próba : X 1 j, X j,, X n j 16

Dystrybuanta empiryczna Każdą próbę przedstawiamy jako n-wymiarowy wektor X (j). Ma on gęstość prawdopodobieństwa g(x) Aby można było mówić o losowym pobieraniu próby Zmienne X i muszą być niezależne, czyli: Poszczególne rozkłady muszą być jednakowe i identyczne z rozkładem gęstości populacji: Przez n x oznaczamy liczbę elementów dla których X<x. Wtedy: g x=g 1 x 1 g x g n x n g 1 x 1 =g x ==g n x n = f x W n x=n x /n jest dystrybuantą empiryczną lub rozkładem w próbie 17

Estymator Funkcja elementów próby to statystyka Przykładem jest wartość średnia z próby: Gdy próbujemy wyznaczyć pewne charakterystyki rozkładu na podstawie ograniczonej próby mamy do czynienia z estymacją parametrów. Poszukiwana wielkość jest funkcją elementów próby (czyli statystyką) zwaną estymatorem: Estymator jest nieobciążony, gdy jego wartość oczekiwana jest równa poszukiwanej wielkości. Estymator jest zgodny, gdy jego wariancja znika: E {S X 1, X,, X n }= X = 1 n X 1 X X n S=S X 1, X,, X n lim S =0 n 18

Wartość średnia z próby Wartość średnia z próby jest zmienną losową: E { X }= 1 n { E X 1 E X E X n }=x Jej wartość oczekiwana jest równa wartości oczekiwanej zmiennej x. Jest jej estymatorem nieobciążonym. Obliczmy jej wariancję: X =E { X E X } =E { x 1 x x n n x } = 1 n E {[ X 1 x X x X n x] } Ponieważ X i są niezależne, kowariancje znikają i: X = 1 n X czyli wartość średnia z próby jest także estymatorem zgodnym wartości oczekiwanej. 19

Wariancja populacji Wariancja nie jest zmienną losową. Przybliżamy ją przez średnią arytmetyczną odchyleń kwadratowych S ' = 1 n { X 1 X X X X n X } Ma ona wartość oczekiwaną: n E {S ' }= 1 n E { i=1 X i X }= 1 n E { i=1 n X i xx X } n = 1 n E { i=1 X i x i=1 n x X i=1 n X i xx X } n = 1 n i=1 {E X i x E X x }= 1 n { n X n 1 n X } = n 1 X n Jest to estymator obciążony wariancji populacji 0

Estymator wariancji Modyfikujemy poprzednią definicję: { X n 1 1 X X X X n X } otrzymując estymator nieobciążony Definiujemy estymator wariancji wartości średniej: Odpowiadające mu odchylenie standardowe można traktować jako błąd wartości średniej: Poszukujemy również błędu wariancji wart. średniej var S = n 1 Podobnie dla odchylenia standardowego próby: S=S = 1 S = 1 S X = 1 n S X = 1 nn 1 n X i=1 i X X =S X =S X = 1 n S X n 1 S =S n 1 X i X S= n 1 S n 1 1