Ważne rozkłady i twierdzenia c.d. Funkcja charakterystyczna rozkładu Wielowymiarowy rozkład normalny Elipsa kowariacji Sploty rozkładów Rozkłady jednostajne Sploty z rozkładem normalnym Pobieranie próby Estymatory Wartość średnia z próby Wariancja populacji 1
Funkcja charakterystyczna rozkładu Mamy zmienną losową X o dystrybuancie F(x) i funkcji gęstości prawdopodobieństwa f(x). Jej funkcję charakterystyczną definiujemy jako: Czyli jest ona transformatą Fouriera gęstości f(x): Obliczmy momenty względem początku układu: Można je otrzymać przez n-krotne różniczkowanie funkcji charakterystycznej w punkcie t=0: Czyli t=e {expitx} t= n =E { X n }= n t= d n t =i n dt n n 0=i n n expitx f xdx x n f xdx x n expitx f xdx
Funkcja charakterystyczna c.d. Wprowadzamy przesuniętą zmienną y=x-e{x} i jej funkcję charakterystyczną: Wtedy n-ta pochodna jest równa n-temu momentowi względem wartości średniej: a w szczególności: y t= exp {it x x} f xdx=texp it x y n 0=i n n =i n E { X x n } x= y ' ' 0 Odwracając transformatę Fouriera można z funkcji charakterystycznej uzyskać gęstość prawd.: f x= 1 exp itxtdt F. charakterystyczna sumy zmiennych losowych jest iloczynem f. charakterystycznych 3
Funkcja charakterystyczna wyniki Istnieje jednoznaczny związek pomiędzy dystrybuantą i jej funkcją charakterystyczną. Stąd można ich używać zamiennie. Przykłady własności otrzymanych przez rachunki z funkcją charakterystyczną: Rozkład Poissona: t=exp {e it 1} Suma rozkładów: sum t=exp { 1 e it 1} jest również r. Poissona o λ równej sumie λ 1 i λ. F. charakterystyczna rozkładu normalnego: t=expitaexp b t / ma postać rozkładu normalnego. Iloczyn ich wariancji wynosi 1. Suma zmiennych opisanych rozkładem Gaussa: u t= x y =expita x exp b x t / expita y exp b y t / =exp it a x akadd y exp Podstawowe b x b rozkłady y t c.d. / 4
Wielowymiarowy rozkład normalny Rozważmy wektor x o n składowych: X = X 1, X,, X n Łączna gęstość prawd. rozkładu normalnego dla wielu zmiennych jest zdefiniowana jako: x=k exp { 1 x a T B x a } =k exp { 1 g x } gdzie a jest n-wymiarowym wektorem, a B jest dodatnio określoną macierzą symetryczną nxn. Z symetrii rozkładu normalnego mamy: x a xdx1 dx dx n =0 Czyli E{x-a} = 0 lub E{x} = a 5
R. normalny macierz kowariancji Różniczkujemy wyrażenie względem a: Co oznacza, że czyli [ I x a x a T B] xdx 1 dx dx n =0 E { x a x a T } B=I gdzie C jest macierzą kowariancji zmiennych x Szczególną uwagę zwrócimy na przypadek dwóch zmiennych i korelacje między nimi. Macierz C ma dla dwóch zmiennych postać: Odwracając otrzymujemy: C=E { x a x a T }=B 1 = C=B 1 1 cov X 1, X cov X 1, X 1 B= cov X 1, X 1 cov X 1, X cov X 1, X 1 6
Macierz B W przypadku znikających kowariancji mamy Wstawiając tę macierz do wzoru otrzymujemy gęstość prawdopodobieństwa niezależnych zm. : x 1 a 1 x a x=k exp { 1 gdzie stała k wynosi: W ogólnym przypadku: B= 1/ 1 0 0 1/ 1 } exp { 1 1 k= 1 k= det B n 1/ } 7
Elipsa kowariancji Posługujemy się zmiennymi znormalizowanymi: U i = X i a i i = cov X 1, X =cov U 1 1, U Otrzymujemy proste zależności: U 1, U =k exp 1 ut B u =k exp 1 g u B= 1 1 Szukamy linii stałej gęstości prawdopodobieństwa: 1 1 u 1 1 u u 1 u = 1 g u=const Otrzymujemy wzór będący równaniem tzw. elipsy kowariancji o środku w (a 1, a ), której osie główne tworzą kąt α z osiami x 1 i x. x 1 a 1 1 x 1 a 1 1 x a x a =1 1 1 8
Elipsy kowariancji rysunek Korelacja wydłuża i obraca elipsę Rozmiar elipsy zależy od wariancji. Elipsa kowariancji zawiera pełną informację o macierzy kowariancji 9
σ 1 =.0 σ =1.0 ρ=-0.5 σ 1 =.0 σ =1.0 ρ=0.0 σ 1 =.0 σ =1.0 ρ=0.7 Elipsa kow. i rozkład d Prawdopodobieństwo zajścia wydarzeń (x 1, x ) wewnątrz elipsy kowariancji jest niezależne od samej elipsy i wynosi: A k xd x=1 e 1 =const Elipsa kowariancji stanowi odpowiednik przedziału (a-σ, a+σ) dla rozkładu jednowymiarowego. 10
Suma zmiennych losowych jako splot Rozpatrujemy sumę zmiennych losowych: U=X+Y Zakładamy ich niezależność: f x, y= f x x f y y Dystrybuantę zmiennej U można przedstawić jako: y u=x+y x F u= A f x x f y ydx dy = = u x f x xdx f y ydy u y f y ydy f x xdx Skąd wyznaczamy gęstość prawdopodobieństwa: f u= d F u = du f x x f y u xdx= f y y f x u ydy Jest to splot rozkładów f x i f y 11
Splot rozkładów jednostajnych Rozpatrujemy sumy rozkładów jednostajnych: f x x={ 1, 0 x1 } 0, w przeciwnym razie Na początek sumę dwóch rozkładów: f u= 0 1 f y u xdx Rozbijając na dwa przypadki mamy: a 0 u1: b 1 u: v=u x dv= dx f u= u f 1 u= 0 u f y vdv= 0 u dv=u 1 f u= u 1 f y vdv= u 1 Podobnie dla splotu trzech rozkładów mamy: u f u={1/, 0 u1 1/ u 6 u 3, 1 u 1/ u 3, u3 } 1 u 1 u f y vdv= u 1 dv= u f y vdv 1
Splot r. jednostajnych rysunek u=x 1 u=x 1 +x u=x 1 +x +x 3 u=x 1 +x +x 3 +x 4 Zgodnie z centralnym twierdzeniem granicznym splot kilku rozkładów jednostajnych dąży do rozkładu Gaussa. 13
Sploty z rozkładem normalnym Mierzymy zmienną X opisaną gęstością prawd. f x (x). Pomiar obarczony jest błędem Y mającym rozkład normalny. Wynik jest sumą zm. losowych: Gęstość prawd. zmiennej U wynosi wtedy: W ogólnym przypadku z pomiarów możemy wyznaczyć funkcję f u, ale nie da się wyznaczyć f x. Rozwiązanie jest możliwe, gdy znamy ogólną postać funkcyjną f x. Najczęściej stosuje się metody Monte-Carlo. f u= 1 U = X Y f x xexp [ u x / ] dx 14
Splot r. jednostajnego z r. normalnym W tym przypadku możliwe jest rozwiązanie ogólne f u= 1 b a { 0 b u 0 a u } gdzie ψ 0 to dystrybuanta rozkładu normalnego Gdy dodajemy dwa rozkłady normalne f(x) otrzymujemy rozkład normalny o wariancji: f(u) = x y Stąd reguła dodawania błędów w kwadratach 15
Pobieranie próby W eksperymencie zwykle nie znamy gęstości prawdopodobieństwa opisującej pomiar. Jesteśmy zmuszeni przybliżać go przez rozkład częstości. Próbą nazywamy zespół doświadczeń wykonanych w celu określenia kształtu poszukiwanego rozkładu Próbę o n składnikach nazywamy próbą n- wymiarową Zespół wszystkich możliwych doświadczeń to populacja generalna Załóżmy, że rozkład zmiennej losowej to f(x) Pobieramy l prób o wymiarze n każda: 1. próba : X 1 1, X 1,, X n 1 j ta. próba : X 1 j, X j,, X n j 16
Dystrybuanta empiryczna Każdą próbę przedstawiamy jako n-wymiarowy wektor X (j). Ma on gęstość prawdopodobieństwa g(x) Aby można było mówić o losowym pobieraniu próby Zmienne X i muszą być niezależne, czyli: Poszczególne rozkłady muszą być jednakowe i identyczne z rozkładem gęstości populacji: Przez n x oznaczamy liczbę elementów dla których X<x. Wtedy: g x=g 1 x 1 g x g n x n g 1 x 1 =g x ==g n x n = f x W n x=n x /n jest dystrybuantą empiryczną lub rozkładem w próbie 17
Estymator Funkcja elementów próby to statystyka Przykładem jest wartość średnia z próby: Gdy próbujemy wyznaczyć pewne charakterystyki rozkładu na podstawie ograniczonej próby mamy do czynienia z estymacją parametrów. Poszukiwana wielkość jest funkcją elementów próby (czyli statystyką) zwaną estymatorem: Estymator jest nieobciążony, gdy jego wartość oczekiwana jest równa poszukiwanej wielkości. Estymator jest zgodny, gdy jego wariancja znika: E {S X 1, X,, X n }= X = 1 n X 1 X X n S=S X 1, X,, X n lim S =0 n 18
Wartość średnia z próby Wartość średnia z próby jest zmienną losową: E { X }= 1 n { E X 1 E X E X n }=x Jej wartość oczekiwana jest równa wartości oczekiwanej zmiennej x. Jest jej estymatorem nieobciążonym. Obliczmy jej wariancję: X =E { X E X } =E { x 1 x x n n x } = 1 n E {[ X 1 x X x X n x] } Ponieważ X i są niezależne, kowariancje znikają i: X = 1 n X czyli wartość średnia z próby jest także estymatorem zgodnym wartości oczekiwanej. 19
Wariancja populacji Wariancja nie jest zmienną losową. Przybliżamy ją przez średnią arytmetyczną odchyleń kwadratowych S ' = 1 n { X 1 X X X X n X } Ma ona wartość oczekiwaną: n E {S ' }= 1 n E { i=1 X i X }= 1 n E { i=1 n X i xx X } n = 1 n E { i=1 X i x i=1 n x X i=1 n X i xx X } n = 1 n i=1 {E X i x E X x }= 1 n { n X n 1 n X } = n 1 X n Jest to estymator obciążony wariancji populacji 0
Estymator wariancji Modyfikujemy poprzednią definicję: { X n 1 1 X X X X n X } otrzymując estymator nieobciążony Definiujemy estymator wariancji wartości średniej: Odpowiadające mu odchylenie standardowe można traktować jako błąd wartości średniej: Poszukujemy również błędu wariancji wart. średniej var S = n 1 Podobnie dla odchylenia standardowego próby: S=S = 1 S = 1 S X = 1 n S X = 1 nn 1 n X i=1 i X X =S X =S X = 1 n S X n 1 S =S n 1 X i X S= n 1 S n 1 1