Pobieranie próby. Rozkład χ 2

Podobne dokumenty
Weryfikacja hipotez statystycznych

Komputerowa Analiza Danych Doświadczalnych

Ważne rozkłady i twierdzenia c.d.

Metoda największej wiarygodności

Matematyka ubezpieczeń majątkowych r. ma złożony rozkład Poissona. W tabeli poniżej podano rozkład prawdopodobieństwa ( )

2.1 Zagadnienie Cauchy ego dla równania jednorodnego. = f(x, t) dla x R, t > 0, (2.1)

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Ważne rozkłady i twierdzenia

Estymacja przedziałowa - przedziały ufności dla średnich. Wrocław, 5 grudnia 2014

Rozkłady statystyk z próby

STATYSTYKA MATEMATYCZNA

Wykład 10 Estymacja przedziałowa - przedziały ufności dla średn

Testowanie hipotez statystycznych

EKONOMETRIA wykład 2. Prof. dr hab. Eugeniusz Gatnar.

Politechnika Częstochowska Wydział Inżynierii Mechanicznej i Informatyki. Sprawozdanie #2 z przedmiotu: Prognozowanie w systemach multimedialnych

DYNAMIKA KONSTRUKCJI

Wnioskowanie statystyczne. Statystyka w 5

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 7 i 8 - Efektywność estymatorów, przedziały ufności

ψ przedstawia zależność

PROGNOZOWANIE I SYMULACJE. mgr Żaneta Pruska. Ćwiczenia 2 Zadanie 1

Statystyka matematyczna Testowanie hipotez i estymacja parametrów. Wrocław, r

Statystyka. Rozkład prawdopodobieństwa Testowanie hipotez. Wykład III ( )

Ruch płaski. Bryła w ruchu płaskim. (płaszczyzna kierująca) Punkty bryły o jednakowych prędkościach i przyspieszeniach. Prof.

Estymacja parametrów w modelu normalnym

Dokładne i graniczne rozkłady statystyk z próby

Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/

HISTOGRAM. Dr Adam Michczyński - METODY ANALIZY DANYCH POMIAROWYCH Liczba pomiarów - n. Liczba pomiarów - n k 0.5 N = N =

Statystyka matematyczna dla leśników

7. Estymacja parametrów w modelu normalnym( ) Pojęcie losowej próby prostej

Rozkłady statystyk z próby. Statystyka

Rozkłady zmiennych losowych

Testowanie hipotez statystycznych cd.

ROCZNIKI INŻYNIERII BUDOWLANEJ ZESZYT 7/2007 Komisja Inżynierii Budowlanej Oddział Polskiej Akademii Nauk w Katowicach

Definicja 1 Statystyką nazywamy (mierzalną) funkcję obserwowalnego wektora losowego

E k o n o m e t r i a S t r o n a 1. Nieliniowy model ekonometryczny

SIMR 2017/18, Statystyka, Przykładowe zadania do kolokwium - Rozwiązania

Temat: Zmienna losowa. Rozkład skokowy. Rozkład ciągły. Kody kolorów: Ŝółty nowe pojęcie pomarańczowy uwaga. Anna Rajfura, Matematyka

Zawartość. Zawartość

Statystyka matematyczna. Wykład III. Estymacja przedziałowa

Rozkłady wielu zmiennych

Błędy przy testowaniu hipotez statystycznych. Decyzja H 0 jest prawdziwa H 0 jest faszywa

RACHUNEK PRAWDOPODOBIEŃSTWA I STATYSTYKA MATEMATYCZNA

Estymacja punktowa i przedziałowa

WNIOSKOWANIE STATYSTYCZNE

MATEMATYKA Z ELEMENTAMI STATYSTYKI LABORATORIUM KOMPUTEROWE DLA II ROKU KIERUNKU ZARZĄDZANIE I INŻYNIERIA PRODUKCJI ZESTAWY ZADAŃ

Rachunek prawdopodobieństwa i statystyka - W 9 Testy statystyczne testy zgodności. Dr Anna ADRIAN Paw B5, pok407

Oszacowanie i rozkład t

Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji

LISTA 4. 7.Przy sporządzaniu skali magnetometru dokonano 10 niezależnych pomiarów

STATYSTYKA wykład 5-6

Wykład 6. Badanie dynamiki zjawisk

STATYSTYKA MATEMATYCZNA WYKŁAD 4. WERYFIKACJA HIPOTEZ PARAMETRYCZNYCH X - cecha populacji, θ parametr rozkładu cechy X.

Pobieranie prób i rozkład z próby

Centralne twierdzenie graniczne

Komputerowa analiza danych doświadczalnych

Estymacja przedziałowa. Przedział ufności

STATYSTYKA MATEMATYCZNA WYKŁAD stycznia 2010

1 Estymacja przedziałowa

Tablica Wzorów Rachunek Prawdopodobieństwa i Statystyki

Testowanie hipotez statystycznych.

Oznacza to, że chcemy znaleźć minimum, a właściwie wartość najmniejszą funkcji

POMIAR PARAMETRÓW SYGNAŁOW NAPIĘCIOWYCH METODĄ PRÓKOWANIA I CYFROWEGO PRZETWARZANIA SYGNAŁU

Biostatystyka, # 3 /Weterynaria I/

y 1 y 2 = f 2 (t, y 1, y 2,..., y n )... y n = f n (t, y 1, y 2,..., y n ) f 1 (t, y 1, y 2,..., y n ) y = f(t, y),, f(t, y) =

Wykład Centralne twierdzenie graniczne. Statystyka matematyczna: Estymacja parametrów rozkładu

WYKŁAD 8 TESTOWANIE HIPOTEZ STATYSTYCZNYCH

Niezawodność elementu nienaprawialnego. nienaprawialnego. 1. Model niezawodnościowy elementu. 1. Model niezawodnościowy elementu

LABORATORIUM Populacja Generalna (PG) 2. Próba (P n ) 3. Kryterium 3σ 4. Błąd Średniej Arytmetycznej 5. Estymatory 6. Teoria Estymacji (cz.

Komputerowa analiza danych doświadczalnych

Wykład 3 Momenty zmiennych losowych.

Wykład 3 Momenty zmiennych losowych.

VII. ZAGADNIENIA DYNAMIKI

Weryfikacja hipotez statystycznych za pomocą testów statystycznych

O ŚREDNIEJ ARYTMETYCZNEJ I MEDIANIE

I jest narzędziem służącym do porównywania rozproszenia dwóch zmiennych. Używamy go tylko, gdy pomiędzy zmiennymi istnieje logiczny związek

Rozkłady prawdopodobieństwa

Zad. 4 Należy określić rodzaj testu (jedno czy dwustronny) oraz wartości krytyczne z lub t dla określonych hipotez i ich poziomów istotności:

1 Podstawy rachunku prawdopodobieństwa

Wykład 4. Plan: 1. Aproksymacja rozkładu dwumianowego rozkładem normalnym. 2. Rozkłady próbkowe. 3. Centralne twierdzenie graniczne

Statystyka matematyczna. Wykład IV. Weryfikacja hipotez statystycznych

Testowanie hipotez statystycznych

Szczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć)

Estymacja parametrów rozkładu cechy

METODY STATYSTYCZNE W BIOLOGII

Ćwiczenia 3 ROZKŁAD ZMIENNEJ LOSOWEJ JEDNOWYMIAROWEJ

Literatura. Leitner R., Zacharski J., Zarys matematyki wyŝszej dla studentów, cz. III.

Kombinowanie prognoz. - dlaczego należy kombinować prognozy? - obejmowanie prognoz. - podstawowe metody kombinowania prognoz

Wykład 2 Hipoteza statystyczna, test statystyczny, poziom istotn. istotności, p-wartość i moc testu

Na A (n) rozważamy rozkład P (n) , który na zbiorach postaci A 1... A n określa się jako P (n) (X n, A (n), P (n)

Porównanie modeli statystycznych. Monika Wawrzyniak Katarzyna Kociałkowska

Nr zadania Σ Punkty:

Modele i wnioskowanie statystyczne (MWS), sprawozdanie z laboratorium 1

WIELKA SGH-OWA POWTÓRKA ZE STATYSTYKI ROZKŁAD STATYSTYK Z PRÓBY

Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1

Komputerowa analiza danych doświadczalnych

Spis treści 3 SPIS TREŚCI

W2. Zmienne losowe i ich rozkłady. Wnioskowanie statystyczne.

Stanisław Cichocki Natalia Nehrebecka. Wykład 4

Projekt zaliczeniowy z przedmiotu Statystyka i eksploracja danych (nr 3) Kamil Krzysztof Derkowski

PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA. Piotr Wiącek

Transkrypt:

Graficzne przedsawianie próby Hisogram Esymaory przykład Próby z rozkładów cząskowych Próby ze skończonej populacji Próby z rozkładu normalnego Rozkład χ Pobieranie próby. Rozkład χ Posać i własności Znaczenie i zasosowania Związek z esymaorem wariancji Pobieranie próby z odliczaniem. Próbki 1

Graficzne przedsawianie próby Rozważamy próbę: x 1, x,..., x n, kóra zależy od jednej zmiennej x. Możemy ją przedsawić jako wykres 1D punky na osi x będzie o wedy jednowymiarowy wykres punkowy. Zwykle sosujemy wykres D zw. hisogram: Dzielimy przedział zmienności x (lub jego część) na r przedziałów o jednakowej szerokości Δx: 1,,, r Środki przedziałów znajdują się w punkach: x 1, x,, x r Na osi y odkładamy liczbę elemenów próby przypadającą na dany przedział: n 1, n,,n r Orzymujemy wykres częsości

Hisogram rysunek błędy = n k wykres schodkowy 3

Hisogram szerokość przedziału x min = -.0 Δx = 0.1 r = 100 x min = -.0 Δx = 0. r = 50 x min = -.0 Δx = 0.4 r = 5 Im więcej przedziałów ym informacja o próbie dokładniejsza Większa ilość przedziałów powoduje jednak większe wahania saysyczne od punku do punku Pole pod krzywą schodkową jes proporcjonalne do wielkości próby (przeskalowująć przez 1/n orzymujemy częsość). 4

Esymaory przykład Badamy nieznany rozkład prawdopodobieńswa poprzez esymaory Symulujemy aką syuację poprzez generację 1000 prób z rozkładu Gaussa o warości średniej 0 i wariancji 1. Każda próba ma liczność r. Badamy zachowanie esymaorów charakerysyk rozkładu i esymaorów ich błedów w funkcji liczności r. X = 1 n X 1 X X n X = S X =S X = 1 n S X S= S = 1 n 1 X i X S= S n 1 S = 1 n 1 { X 1 X X X X n X } S =S n 1 5

Esymaory hisogramy r = 0 r = 50 r = 100 r = 00 6

Próby z rozkładów cząskowych Dzielimy populację G na podpopulacje G i, kóre są opisane gęsościami prawdopodobieńswa f i (x). F i x = Dla całej populacji mamy: F x =P X x x G = i=1 a dla gęsości prawdopodobieńswa: W skrócie oznaczamy P(x G i )=p i. Obliczamy warość średnią: x=e { X }= x f i x dx=p X x x G i P X x X G i P X G i = i=1 f x = i=1 xf x dx= i=1 P X G i f i x czyli warość średnia z populacji o średnia ważona warości średnich podpopulacji pomnożonych przez ich prawdopodobieńswa p i xf i x dx= i=1 P X G i F i x p i x i 7

Wariancja rozkładów cząskowych Wariancja dla próby z rozkładów cząskowych X =E { x x }= i=1 p i { i x i x } jes średnią ważoną wariancji z podpopulacji i wariancji warości średniej podpopulacji względem warości średniej z całej populacji. Z każdej populacji wybieramy próbkę o liczności n i, w sumie n elemenów. Średnia wynosi wedy: Warość oczekiwana i wariancja o: E { X p }= 1 n i=1 = i=1 X p = 1 n i=1 n i x i p i E {[ x x i x i x ] } n i j=1 X ij = 1 n i=1 n i X i X p = 1 n i=1 n i E { X i x i }= 1 n i=1 n i X i = 1 n i=1 n i n i 8

Esymaory dla rozkładów cząskowych Esymaory dla prób z rozkładów cząskowych nie mogą zależeć od dowolnego podziału cząsek n. Warunek en jes spełniony ylko dla p i = n i /n: X = i=1 p i X i X = i=1 p i X i = i=1 p i n i i Można zadać pyanie, jaka jes opymalna wielkość próbek n i, kóra pozwala na minimalizację wariancji. Rozwiązaniem jes: n i =n p i i / p i i czyli liczność próbki z podpopulacji i musi być proporcjonalna do jej prawdopodobieńswa mnożonego przez jej odchylenie sandardowe 9

Próba ze skończonej populacji Mamy populację o N elemenach y 1, y,..., y n. Pobieramy z niej próbę n elemenów X 1, X,..., X n. Prawdopodobieńswo pobrania każdego elemenu y jes jednakowe, sąd E { y }= y= y= 1 N j=1 N y j y = 1 N { N 1 j=1 Szczególnie ważna jes suma kwadraów: N j=1 Warości y i nie są ograniczone, ale mamy warunek: N j=1 y j y y j y =0 Mówimy, że liczba sopni swobody wynosi u N-1. Suma kwadraów przez liczbę sopni swobody o odchylenie średnie kwadraowe. Częso używamy pierwiaska z odchylenia kwadraowego (RMS). N y j 1 N j=1 y j } 10

Pobieranie próby z rozkładu normalnego Badamy populację opisaną rozkładem Gaussa o warości średniej a i wariancji σ. Z ej populacji wybieramy próbę o liczności n. Napiszmy funkcję charakerysyczną warości średniej: X =exp ia exp / X ={ exp i n a exp n Rozparując zmienną X a= X x X a =exp n mamy: ponownie orzymujemy funkcję charakerysyczną rozkładu normalnego, ale ze zmienioną wariancją: X = X /n }n 11

Rozkład χ Rozparujemy rozkład normalny (a=0, σ=1): X =exp / n Pobieramy z niego próbę n elemenów i worzymy z nich sumę kwadraów: X = X 1 X X n Można udowodnić, że wielkość X ma dysrybuanę: F = 1 0 u 1 e 1/ u du gdzie λ=1/ n, a n o liczba sopni swobody. Wprowadzamy oznaczenie: k= 1 i orzymujemy gęsość prawdopodobieńswa f =k 1 e 1/ 1

Rozkład χ paramery Funkcja charakerysyczna rozkładu χ o: = 1 i Korzysając z własności f. charakerysycznej orzymujemy naychmias, że suma dwóch różnych rozkładów χ o n 1 i n sopniach swobody daje rozkład χ o n=n 1 +n sopniach swobody. Różniczkując f. charakerysyczną mamy: E { X }= i ' 0 = n E { X }= i ' ' 0 =4 4 X =E { X } E { X } =4 n czyli warość średnia rozkładu χ wynosi n, a wariancja n. 13

Rozkład χ wykres Wykresy rozkładu χ oraz jego dysrybuany dla n od 1 do 0. 14

Rozkład χ zasosowanie Rozkład χ sosuje się jako miarę ufności uzyskanego wyniku. Im mniejsza warość χ ym pozornie słuszniejszy wynik. Jako miary zaufania do wyniku używa się wielkości: W =1 F nazywanej poziomem ufności. W rzeczywisych przypadkach mamy do czynienia z pełnym rozkładem Gaussa o dowolnym a i σ. Wprowadzamy wedy odpowiednie przeskalowanie X = X 1 a X a X n a a w ogólnym przypadku gdy zmienne są zależne: X = X a T B X a 15

Rozkład χ a esymaor wariancji Nieobciążony i zgodny esymaor wariancji z populacji o: S = 1 { X n 1 1 X X X X n X } Można udowodnić, że zmienna losowa: n 1 S ma rozkład χ z f=n-1 sopniami swobody. Wynika o sąd, że wyrażenia X i X nie są liniowo niezależne, gdyż zawierają czynnik X, kóry zależy od wszyskich warości X i. Każde dodakowe równanie pomiędzy wyrażeniami X i X redukuje liczbę sopni swobody o 1. 16

Próba z odliczaniem. Próbki Częso doświadczenie polega na dokonaniu wielu, n obserwacji, z kórych ylko k ma ineresujące właściwości. Reszę, n-k zdarzeń odrzucamy. Wybieramy więc k z n elemenów. Sosuje się u r. dwumianowy z paramerami p i q. Poszukujemy parameru p. Jego esymaorem jes S p = k n a jego wariancja wynosi: S p = p 1 p n Łącząc wzory orzymujemy esymaor wariancji S S p = 1 n k n 1 k n 17

Błąd Δk możemy zdefiniować jako: wedy orzymamy: k= S S np k= k 1 k n Błąd saysyczny Zależy on jedynie od liczby wybranych elemenów i liczności próby. Nazywamy go błędem saysycznym. Szczególnie ważny jes przypadek, gdy k«n. Nasępuje wedy przejście w granicy do rozkładu Poissona, parameer λ=np i mamy: S =S np =k = k czyli w przybliżeniu błąd saysyczny liczby zliczeń k jes równy k 18

Błąd saysyczny inerpreacja Rozważmy błąd saysyczny bardziej szczegółowo. Dla dużych k można rozkład Poissona przybliżyć przez rozkład Gaussa o a=λ i σ =λ czyli k. Można wedy zdefiniować pojęcie granic przedziału ufności przy zadanym poziomie ufności β=1-α: P =1 P x k = =1 / P x k = =1 / Rozwiązując odpowiednie równania mamy: 1 / = 0 k / = 0 k W dalszych rozważaniach sosujemy kilka funkcji: Ω - funkcję odwroną do dysrybuany rozkładu normalnego Ψ 0, oraz funkcję Ω' - odwroną do funkcji P'(x)=P( X <x) 19

Błąd saysyczny wynik Rozwiązując poprzednie równania orzymujemy osaeczny wynik: =k ' 1 a Zgodnie z wcześniejszymi założeniami σ =λ czyli najlepszy esymaor σ o k. Tak więc możemy przepisać wzory: =k k ' 1 =k ' 1 a =k k ' 1 Korzysając z poznanych wcześniej warości funkcji Ω' zauważamy, że Ω'(α)=1, gdy 1-α=68,3%. Tak więc rzeczywiście widzimy, że prawdziwa warość k znajduje się w przedziale (k- k, k+ k) z prawdopodobieńswem odpowiadającym przedziałowi (a-σ, a+σ) rozkładu Gaussa 0

Górna granica ufności Rozważmy przypadek, gdy nie jes spełniony warunek o dużym k. Wedy nie można przybliżyć r. Poissona przez r. Gaussa i badamy rozkład: f n ; = n n! e Dla przedziału ufności β=1-α orzymujemy: 1 / =F k ; / =F k 1; gdzie F jes dysrybuaną r. Poissona. Ten układ równań rozwiązujemy numerycznie. Dla bardzo małych próbek szukamy górnej granicy ufności λ (up). Dosajemy ją rozwiązując równanie: P n k = up = =1 lub = n=0 W skrajnym przypadku dla k=0, α=f(1;λ (up) ) k f n ; up =F k 1; up 1