Graficzne przedsawianie próby Hisogram Esymaory przykład Próby z rozkładów cząskowych Próby ze skończonej populacji Próby z rozkładu normalnego Rozkład χ Pobieranie próby. Rozkład χ Posać i własności Znaczenie i zasosowania Związek z esymaorem wariancji Pobieranie próby z odliczaniem. Próbki 1
Graficzne przedsawianie próby Rozważamy próbę: x 1, x,..., x n, kóra zależy od jednej zmiennej x. Możemy ją przedsawić jako wykres 1D punky na osi x będzie o wedy jednowymiarowy wykres punkowy. Zwykle sosujemy wykres D zw. hisogram: Dzielimy przedział zmienności x (lub jego część) na r przedziałów o jednakowej szerokości Δx: 1,,, r Środki przedziałów znajdują się w punkach: x 1, x,, x r Na osi y odkładamy liczbę elemenów próby przypadającą na dany przedział: n 1, n,,n r Orzymujemy wykres częsości
Hisogram rysunek błędy = n k wykres schodkowy 3
Hisogram szerokość przedziału x min = -.0 Δx = 0.1 r = 100 x min = -.0 Δx = 0. r = 50 x min = -.0 Δx = 0.4 r = 5 Im więcej przedziałów ym informacja o próbie dokładniejsza Większa ilość przedziałów powoduje jednak większe wahania saysyczne od punku do punku Pole pod krzywą schodkową jes proporcjonalne do wielkości próby (przeskalowująć przez 1/n orzymujemy częsość). 4
Esymaory przykład Badamy nieznany rozkład prawdopodobieńswa poprzez esymaory Symulujemy aką syuację poprzez generację 1000 prób z rozkładu Gaussa o warości średniej 0 i wariancji 1. Każda próba ma liczność r. Badamy zachowanie esymaorów charakerysyk rozkładu i esymaorów ich błedów w funkcji liczności r. X = 1 n X 1 X X n X = S X =S X = 1 n S X S= S = 1 n 1 X i X S= S n 1 S = 1 n 1 { X 1 X X X X n X } S =S n 1 5
Esymaory hisogramy r = 0 r = 50 r = 100 r = 00 6
Próby z rozkładów cząskowych Dzielimy populację G na podpopulacje G i, kóre są opisane gęsościami prawdopodobieńswa f i (x). F i x = Dla całej populacji mamy: F x =P X x x G = i=1 a dla gęsości prawdopodobieńswa: W skrócie oznaczamy P(x G i )=p i. Obliczamy warość średnią: x=e { X }= x f i x dx=p X x x G i P X x X G i P X G i = i=1 f x = i=1 xf x dx= i=1 P X G i f i x czyli warość średnia z populacji o średnia ważona warości średnich podpopulacji pomnożonych przez ich prawdopodobieńswa p i xf i x dx= i=1 P X G i F i x p i x i 7
Wariancja rozkładów cząskowych Wariancja dla próby z rozkładów cząskowych X =E { x x }= i=1 p i { i x i x } jes średnią ważoną wariancji z podpopulacji i wariancji warości średniej podpopulacji względem warości średniej z całej populacji. Z każdej populacji wybieramy próbkę o liczności n i, w sumie n elemenów. Średnia wynosi wedy: Warość oczekiwana i wariancja o: E { X p }= 1 n i=1 = i=1 X p = 1 n i=1 n i x i p i E {[ x x i x i x ] } n i j=1 X ij = 1 n i=1 n i X i X p = 1 n i=1 n i E { X i x i }= 1 n i=1 n i X i = 1 n i=1 n i n i 8
Esymaory dla rozkładów cząskowych Esymaory dla prób z rozkładów cząskowych nie mogą zależeć od dowolnego podziału cząsek n. Warunek en jes spełniony ylko dla p i = n i /n: X = i=1 p i X i X = i=1 p i X i = i=1 p i n i i Można zadać pyanie, jaka jes opymalna wielkość próbek n i, kóra pozwala na minimalizację wariancji. Rozwiązaniem jes: n i =n p i i / p i i czyli liczność próbki z podpopulacji i musi być proporcjonalna do jej prawdopodobieńswa mnożonego przez jej odchylenie sandardowe 9
Próba ze skończonej populacji Mamy populację o N elemenach y 1, y,..., y n. Pobieramy z niej próbę n elemenów X 1, X,..., X n. Prawdopodobieńswo pobrania każdego elemenu y jes jednakowe, sąd E { y }= y= y= 1 N j=1 N y j y = 1 N { N 1 j=1 Szczególnie ważna jes suma kwadraów: N j=1 Warości y i nie są ograniczone, ale mamy warunek: N j=1 y j y y j y =0 Mówimy, że liczba sopni swobody wynosi u N-1. Suma kwadraów przez liczbę sopni swobody o odchylenie średnie kwadraowe. Częso używamy pierwiaska z odchylenia kwadraowego (RMS). N y j 1 N j=1 y j } 10
Pobieranie próby z rozkładu normalnego Badamy populację opisaną rozkładem Gaussa o warości średniej a i wariancji σ. Z ej populacji wybieramy próbę o liczności n. Napiszmy funkcję charakerysyczną warości średniej: X =exp ia exp / X ={ exp i n a exp n Rozparując zmienną X a= X x X a =exp n mamy: ponownie orzymujemy funkcję charakerysyczną rozkładu normalnego, ale ze zmienioną wariancją: X = X /n }n 11
Rozkład χ Rozparujemy rozkład normalny (a=0, σ=1): X =exp / n Pobieramy z niego próbę n elemenów i worzymy z nich sumę kwadraów: X = X 1 X X n Można udowodnić, że wielkość X ma dysrybuanę: F = 1 0 u 1 e 1/ u du gdzie λ=1/ n, a n o liczba sopni swobody. Wprowadzamy oznaczenie: k= 1 i orzymujemy gęsość prawdopodobieńswa f =k 1 e 1/ 1
Rozkład χ paramery Funkcja charakerysyczna rozkładu χ o: = 1 i Korzysając z własności f. charakerysycznej orzymujemy naychmias, że suma dwóch różnych rozkładów χ o n 1 i n sopniach swobody daje rozkład χ o n=n 1 +n sopniach swobody. Różniczkując f. charakerysyczną mamy: E { X }= i ' 0 = n E { X }= i ' ' 0 =4 4 X =E { X } E { X } =4 n czyli warość średnia rozkładu χ wynosi n, a wariancja n. 13
Rozkład χ wykres Wykresy rozkładu χ oraz jego dysrybuany dla n od 1 do 0. 14
Rozkład χ zasosowanie Rozkład χ sosuje się jako miarę ufności uzyskanego wyniku. Im mniejsza warość χ ym pozornie słuszniejszy wynik. Jako miary zaufania do wyniku używa się wielkości: W =1 F nazywanej poziomem ufności. W rzeczywisych przypadkach mamy do czynienia z pełnym rozkładem Gaussa o dowolnym a i σ. Wprowadzamy wedy odpowiednie przeskalowanie X = X 1 a X a X n a a w ogólnym przypadku gdy zmienne są zależne: X = X a T B X a 15
Rozkład χ a esymaor wariancji Nieobciążony i zgodny esymaor wariancji z populacji o: S = 1 { X n 1 1 X X X X n X } Można udowodnić, że zmienna losowa: n 1 S ma rozkład χ z f=n-1 sopniami swobody. Wynika o sąd, że wyrażenia X i X nie są liniowo niezależne, gdyż zawierają czynnik X, kóry zależy od wszyskich warości X i. Każde dodakowe równanie pomiędzy wyrażeniami X i X redukuje liczbę sopni swobody o 1. 16
Próba z odliczaniem. Próbki Częso doświadczenie polega na dokonaniu wielu, n obserwacji, z kórych ylko k ma ineresujące właściwości. Reszę, n-k zdarzeń odrzucamy. Wybieramy więc k z n elemenów. Sosuje się u r. dwumianowy z paramerami p i q. Poszukujemy parameru p. Jego esymaorem jes S p = k n a jego wariancja wynosi: S p = p 1 p n Łącząc wzory orzymujemy esymaor wariancji S S p = 1 n k n 1 k n 17
Błąd Δk możemy zdefiniować jako: wedy orzymamy: k= S S np k= k 1 k n Błąd saysyczny Zależy on jedynie od liczby wybranych elemenów i liczności próby. Nazywamy go błędem saysycznym. Szczególnie ważny jes przypadek, gdy k«n. Nasępuje wedy przejście w granicy do rozkładu Poissona, parameer λ=np i mamy: S =S np =k = k czyli w przybliżeniu błąd saysyczny liczby zliczeń k jes równy k 18
Błąd saysyczny inerpreacja Rozważmy błąd saysyczny bardziej szczegółowo. Dla dużych k można rozkład Poissona przybliżyć przez rozkład Gaussa o a=λ i σ =λ czyli k. Można wedy zdefiniować pojęcie granic przedziału ufności przy zadanym poziomie ufności β=1-α: P =1 P x k = =1 / P x k = =1 / Rozwiązując odpowiednie równania mamy: 1 / = 0 k / = 0 k W dalszych rozważaniach sosujemy kilka funkcji: Ω - funkcję odwroną do dysrybuany rozkładu normalnego Ψ 0, oraz funkcję Ω' - odwroną do funkcji P'(x)=P( X <x) 19
Błąd saysyczny wynik Rozwiązując poprzednie równania orzymujemy osaeczny wynik: =k ' 1 a Zgodnie z wcześniejszymi założeniami σ =λ czyli najlepszy esymaor σ o k. Tak więc możemy przepisać wzory: =k k ' 1 =k ' 1 a =k k ' 1 Korzysając z poznanych wcześniej warości funkcji Ω' zauważamy, że Ω'(α)=1, gdy 1-α=68,3%. Tak więc rzeczywiście widzimy, że prawdziwa warość k znajduje się w przedziale (k- k, k+ k) z prawdopodobieńswem odpowiadającym przedziałowi (a-σ, a+σ) rozkładu Gaussa 0
Górna granica ufności Rozważmy przypadek, gdy nie jes spełniony warunek o dużym k. Wedy nie można przybliżyć r. Poissona przez r. Gaussa i badamy rozkład: f n ; = n n! e Dla przedziału ufności β=1-α orzymujemy: 1 / =F k ; / =F k 1; gdzie F jes dysrybuaną r. Poissona. Ten układ równań rozwiązujemy numerycznie. Dla bardzo małych próbek szukamy górnej granicy ufności λ (up). Dosajemy ją rozwiązując równanie: P n k = up = =1 lub = n=0 W skrajnym przypadku dla k=0, α=f(1;λ (up) ) k f n ; up =F k 1; up 1