WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

Podobne dokumenty
Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka

Wykład 3 Momenty zmiennych losowych.

Wykład 3 Momenty zmiennych losowych.

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Rachunek prawdopodobieństwa i statystyka

Statystyka i eksploracja danych

PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty

1 Gaussowskie zmienne losowe

Funkcje charakterystyczne zmiennych losowych, linie regresji 1-go i 2-go rodzaju

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa

Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna.

Wartość oczekiwana Mediana i dominanta Wariancja Nierówności związane z momentami. Momenty zmiennych losowych Momenty wektorów losowych

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa

Zestaw 2: Zmienne losowe. 0, x < 1, 2, 2 x, 1 1 x, 1 x, F 9 (x) =

WYKŁAD 3. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

O ŚREDNIEJ STATYSTYCZNEJ

5 Przegląd najważniejszych rozkładów

Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu.

Kwantyle. Kwantyl rzędu p rozkładu prawdopodobieństwa to taka liczba x p. , że. Możemy go obliczyć z dystrybuanty: P(X x p.

WSTĘP. Tematy: Regresja liniowa: model regresji liniowej, estymacja nieznanych parametrów. Wykład:30godz., ćwiczenia:15godz., laboratorium:30godz.

SIMR 2017/18, Statystyka, Przykładowe zadania do kolokwium - Rozwiązania

Statystyczna analiza danych

12DRAP - parametry rozkładów wielowymiarowych

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

Prawdopodobieństwo i statystyka

Wstęp do Rachunku Prawdopodobieństwa, IIr. WMS

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe

Wykład 3 Jednowymiarowe zmienne losowe

Rozkłady prawdopodobieństwa

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski

Detekcja rozkładów o ciężkich ogonach

Zmienne losowe. dr Mariusz Grządziel Wykład 12; 20 maja 2014

Ważne rozkłady i twierdzenia c.d.

STATYSTYKA MATEMATYCZNA WYKŁAD listopada 2009

PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA. Piotr Wiącek

Stosowana Analiza Regresji

1 Zmienne losowe wielowymiarowe.

Biostatystyka, # 3 /Weterynaria I/

Statystyka. Magdalena Jakubek. kwiecień 2017

Statystyka matematyczna

i=7 X i. Zachodzi EX i = P(X i = 1) = 1 2, i {1, 2,..., 11} oraz EX ix j = P(X i = 1, X j = 1) = 1 7 VarS 2 2 = 14 3 ( 5 2 =

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 4 - zagadnienie estymacji, metody wyznaczania estymatorów

Statystyka i eksploracja danych

Metoda momentów i kwantyli próbkowych. Wrocław, 7 listopada 2014

1 Warunkowe wartości oczekiwane

Przestrzeń probabilistyczna

Ważne rozkłady i twierdzenia

Centralne twierdzenie graniczne

Wykład 6 Estymatory efektywne. Własności asymptotyczne estym. estymatorów

Prawdopodobieństwo i statystyka

Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX = 4 i EY = 6. Rozważamy zmienną losową Z =.

Rozkłady prawdopodobieństwa zmiennych losowych

Komputerowa analiza danych doświadczalnych

Rozkłady łaczne wielu zmiennych losowych

Szkice do zajęć z Przedmiotu Wyrównawczego

Zmienne losowe. Powtórzenie. Dariusz Uciński. Wykład 1. Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski

Powtórzenie wiadomości z rachunku prawdopodobieństwa i statystyki.

O ŚREDNIEJ STATYSTYCZNEJ

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe

Metoda najmniejszych kwadratów

Rozkłady i ich dystrybuanty 16 marca F X (t) = P (X < t) 0, gdy t 0, F X (t) = 1, gdy t > c, 0, gdy t x 1, 1, gdy t > x 2,

Estymacja przedziałowa - przedziały ufności dla średnich. Wrocław, 5 grudnia 2014

Podstawowe modele probabilistyczne

1 Wykład 4. Proste Prawa wielkich liczb, CTG i metody Monte Carlo

Wykład 10 Estymacja przedziałowa - przedziały ufności dla średn

Statystyka. Wydział Zarządzania Uniwersytetu Łódzkiego

Statystyka matematyczna

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów

Wykład 7 Testowanie zgodności z rozkładem normalnym

Weryfikacja hipotez statystycznych

Elementy Rachunek prawdopodobieństwa

Losowe zmienne objaśniające. Rozszerzenia KMRL. Rozszerzenia KMRL

Literatura. Leitner R., Zacharski J., Zarys matematyki wyŝszej dla studentów, cz. III.

Szeregi czasowe, analiza zależności krótkoi długozasięgowych

Stacjonarne procesy gaussowskie, czyli o zwiazkach pomiędzy zwykła

Statystyka aktuarialna i teoria ryzyka, model indywidualny i zespołowy, rozkłady złożone

Zmienne losowe ciągłe i ich rozkłady

Prawdopodobieństwo i statystyka

Wykład 3 Równania rózniczkowe cd

Metody systemowe i decyzyjne w informatyce

Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe.

Zadania z Rachunku Prawdopodobieństwa III - 1

Statystyka. Wydział Zarządzania Uniwersytetu Łódzkiego

STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA

Zmienne losowe. dr Mariusz Grzadziel. rok akademicki 2016/2017 semestr letni. Katedra Matematyki, Uniwersytet Przyrodniczy we Wrocławiu

Metody Rozmyte i Algorytmy Ewolucyjne

Matematyka z el. statystyki, # 3 /Geodezja i kartografia II/

Spis treści 3 SPIS TREŚCI

Metody Ekonometryczne

Prawdopodobieństwo i statystyka

Komputerowa analiza danych doświadczalnych

Estymacja parametrów w modelu normalnym

Komputerowa Analiza Danych Doświadczalnych

Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/

STATYSTYKA I DOŚWIADCZALNICTWO Wykład 7

Transkrypt:

WYKŁAD 6 Witold Bednorz, Paweł Wolff 1 Instytut Matematyki Uniwersytet Warszawski Rachunek Prawdopodobieństwa, WNE, 2010-2011

Własności Wariancji Przypomnijmy, że VarX = E(X EX) 2 = EX 2 (EX) 2.

Własności Wariancji Przypomnijmy, że VarX = E(X EX) 2 = EX 2 (EX) 2. VarX 0, przy czym VarX = 0 wtedy i tylko wtedy, gdy X jest stała z p-stwem 1.

Własności Wariancji Przypomnijmy, że VarX = E(X EX) 2 = EX 2 (EX) 2. VarX 0, przy czym VarX = 0 wtedy i tylko wtedy, gdy X jest stała z p-stwem 1. Var(aX) = a 2 VarX.

Własności Wariancji Przypomnijmy, że VarX = E(X EX) 2 = EX 2 (EX) 2. VarX 0, przy czym VarX = 0 wtedy i tylko wtedy, gdy X jest stała z p-stwem 1. Var(aX) = a 2 VarX. Var(X + c) = VarX

Własności Wariancji Przypomnijmy, że VarX = E(X EX) 2 = EX 2 (EX) 2. VarX 0, przy czym VarX = 0 wtedy i tylko wtedy, gdy X jest stała z p-stwem 1. Var(aX) = a 2 VarX. Var(X + c) = VarX Uogólnieniem pojęcia wariancji jest kowariancja. Dla zmiennych X, Y piszemy Cov(X, Y ) = E(X EX)(Y EY ) = E(XY ) EXEY.

Własności Wariancji Przypomnijmy, że VarX = E(X EX) 2 = EX 2 (EX) 2. VarX 0, przy czym VarX = 0 wtedy i tylko wtedy, gdy X jest stała z p-stwem 1. Var(aX) = a 2 VarX. Var(X + c) = VarX Uogólnieniem pojęcia wariancji jest kowariancja. Dla zmiennych X, Y piszemy Cov(X, Y ) = E(X EX)(Y EY ) = E(XY ) EXEY. Kowariancja jest dwuliniowa to znaczy Cov(α 1 X 1 + α 2 X 2, β 1 Y 1 + β 2 Y 2 ) = 2 α i β j Cov(X i, Y j ). i,j=1

Niezależne zmienne losowe Jeśli X, Y niezależne, to Cov(X, Y ) = 0 (brak korelacji), istotnie Cov(X, Y ) = E(XY ) EXEY = 0, bo E(XY ) = EXEY dla niezależnych zmiennych.

Niezależne zmienne losowe Jeśli X, Y niezależne, to Cov(X, Y ) = 0 (brak korelacji), istotnie Cov(X, Y ) = E(XY ) EXEY = 0, bo E(XY ) = EXEY dla niezależnych zmiennych. Stad wynika, że jeśli X 1,..., X n niezależne, to Var(X 1 +... + X n ) = Var(X 1 ) +... + Var(X n ).

Niezależne zmienne losowe Jeśli X, Y niezależne, to Cov(X, Y ) = 0 (brak korelacji), istotnie Cov(X, Y ) = E(XY ) EXEY = 0, bo E(XY ) = EXEY dla niezależnych zmiennych. Stad wynika, że jeśli X 1,..., X n niezależne, to Var(X 1 +... + X n ) = Var(X 1 ) +... + Var(X n ). Istotnie wynika to z następujacego faktu Var(X 1 +... + X n ) = E( = n i=1 (EX 2 i n X i ) 2 (E i=1 (EX i ) 2 ) + i j n ) 2 = i=1 E(X i X j ) EX i EX j.

Przykłady Niech X z rozkładu P(X = 0) = q, P(X = 1) = p, wtedy EX = 1 p+0 q = p, EX 2 = 1 p+0 q = p, VarX = p p 2. Czyli EX = p, VarX = p(1 p) = pq.

Przykłady Niech X z rozkładu P(X = 0) = q, P(X = 1) = p, wtedy EX = 1 p+0 q = p, EX 2 = 1 p+0 q = p, VarX = p p 2. Czyli EX = p, VarX = p(1 p) = pq. Dla S n = (X 1 +... + X n ) z B(n, p) mamy ES n = E(X 1 +... + X n ) = np; VarS n = VarX 1 +... + VarX n = n(pq).

Przykłady Niech X z rozkładu P(X = 0) = q, P(X = 1) = p, wtedy EX = 1 p+0 q = p, EX 2 = 1 p+0 q = p, VarX = p p 2. Czyli EX = p, VarX = p(1 p) = pq. Dla S n = (X 1 +... + X n ) z B(n, p) mamy ES n = E(X 1 +... + X n ) = np; VarS n = VarX 1 +... + VarX n = n(pq). Analogicznie dla S n sumy wyników n rzutów kośćmi do gry ES n = (3 1 2 )n, VarS n = (2 11 12 )n.

Wariancja znanych rozkładów µ X = δ a, P(X = a) = 1, wtedy VarX = 0;

Wariancja znanych rozkładów µ X = δ a, P(X = a) = 1, wtedy VarX = 0; µ X = pδ 1 + qδ 0, P(X = 1) = p, P(X = 0) = q, VarX = pq;

Wariancja znanych rozkładów µ X = δ a, P(X = a) = 1, wtedy VarX = 0; µ X = pδ 1 + qδ 0, P(X = 1) = p, P(X = 0) = q, VarX = pq; µ X = B(n, p), P(X = k) = ( n k) p k q n k, VarX = npq;

Wariancja znanych rozkładów µ X = δ a, P(X = a) = 1, wtedy VarX = 0; µ X = pδ 1 + qδ 0, P(X = 1) = p, P(X = 0) = q, VarX = pq; µ X = B(n, p), P(X = k) = ( n k) p k q n k, VarX = npq; µ X = Poiss(λ), P(X = k) = λk k! e λ, VarX = λ;

Wariancja znanych rozkładów µ X = δ a, P(X = a) = 1, wtedy VarX = 0; µ X = pδ 1 + qδ 0, P(X = 1) = p, P(X = 0) = q, VarX = pq; µ X = B(n, p), P(X = k) = ( n k) p k q n k, VarX = npq; µ X = Poiss(λ), P(X = k) = λk k! e λ, VarX = λ; µ X = Geom(p), P(X = k) = pq k 1, VarX = q p 2 ;

Wariancja znanych rozkładów µ X = δ a, P(X = a) = 1, wtedy VarX = 0; µ X = pδ 1 + qδ 0, P(X = 1) = p, P(X = 0) = q, VarX = pq; µ X = B(n, p), P(X = k) = ( n k) p k q n k, VarX = npq; µ X = Poiss(λ), P(X = k) = λk k! e λ, VarX = λ; µ X = Geom(p), P(X = k) = pq k 1, VarX = q p 2 ; µ X = U(a, b), f X (x) = 1 b a 1 (a,b)(x), VarX = (b a) 2 /12;

Wariancja znanych rozkładów µ X = δ a, P(X = a) = 1, wtedy VarX = 0; µ X = pδ 1 + qδ 0, P(X = 1) = p, P(X = 0) = q, VarX = pq; µ X = B(n, p), P(X = k) = ( n k) p k q n k, VarX = npq; µ X = Poiss(λ), P(X = k) = λk k! e λ, VarX = λ; µ X = Geom(p), P(X = k) = pq k 1, VarX = q p 2 ; µ X = U(a, b), f X (x) = 1 b a 1 (a,b)(x), VarX = (b a) 2 /12; µ X = Exp(λ) = λe xλ 1 (0, ) (x).

Rozkład normalny Zmienna X ma rozkład normalny N (m, σ 2 ) jeśli gęstość f X wyraża się wzorem f X (x) = 1 2πσ exp( x m 2 2σ 2 ).

Rozkład normalny Zmienna X ma rozkład normalny N (m, σ 2 ) jeśli gęstość f X wyraża się wzorem f X (x) = 1 x m 2 exp( 2πσ 2σ 2 ). Zmienna Y ma standardowy rozkład normalny N (0, 1), jeśli f Y (x) = 1 exp( x 2 2π 2 ).

Rozkład normalny Zmienna X ma rozkład normalny N (m, σ 2 ) jeśli gęstość f X wyraża się wzorem f X (x) = 1 x m 2 exp( 2πσ 2σ 2 ). Zmienna Y ma standardowy rozkład normalny N (0, 1), jeśli f Y (x) = 1 exp( x 2 2π 2 ). Niech Y = σ 1 (X m), σ 0, pokażemy, że Y ma rozkład standardowy.

Rozkład normalny Zmienna X ma rozkład normalny N (m, σ 2 ) jeśli gęstość f X wyraża się wzorem f X (x) = 1 x m 2 exp( 2πσ 2σ 2 ). Zmienna Y ma standardowy rozkład normalny N (0, 1), jeśli f Y (x) = 1 exp( x 2 2π 2 ). Niech Y = σ 1 (X m), σ 0, pokażemy, że Y ma rozkład standardowy. To oznacza, że X = σy + m, a ponieważ EY = 0, VarY = 1, więc EX = σey +m = m, VarX = Var(σY +m) = VarσY = σ 2.

Rozkład normalny Z twierdzenia o podstawianiu F Y (t) = F σ 1 (X m) (t) = F X (σt + m).

Rozkład normalny Z twierdzenia o podstawianiu F Y (t) = F σ 1 (X m) (t) = F X (σt + m). Stad przez całkowanie przez podstawienie F Y (t) = F X (σt + m) = = t σt+m 1 2π exp( x 2 2 )dx. f X (x)dx =

Rozkład normalny Z twierdzenia o podstawianiu F Y (t) = F σ 1 (X m) (t) = F X (σt + m). Stad przez całkowanie przez podstawienie F Y (t) = F X (σt + m) = = t σt+m 1 2π exp( x 2 2 )dx. f X (x)dx = To dowodzi, że Y = σ 1 (X m) ma rozkład standardowy.

Rozkład normalny Z twierdzenia o podstawianiu F Y (t) = F σ 1 (X m) (t) = F X (σt + m). Stad przez całkowanie przez podstawienie F Y (t) = F X (σt + m) = = t σt+m 1 2π exp( x 2 2 )dx. f X (x)dx = To dowodzi, że Y = σ 1 (X m) ma rozkład standardowy. Stad X ma taki sam rozkład jak σy + m.

Parametry rozkładu Dla p > 0 definiujemy p-ty moment: (E X p ) 1 p.

Parametry rozkładu Dla p > 0 definiujemy p-ty moment: (E X p ) 1 p. Niech E X 3 <. Współczynnikiem asymetrii (skośność) zmiennej X nazywamy a 3 = E(X EX)3 (VarX) 3/2, a 3 = 0 dla X-gauss.

Parametry rozkładu Dla p > 0 definiujemy p-ty moment: (E X p ) 1 p. Niech E X 3 <. Współczynnikiem asymetrii (skośność) zmiennej X nazywamy a 3 = E(X EX)3 (VarX) 3/2, a 3 = 0 dla X-gauss. Niech E X 4 <. Kurtoza (współczynnik spłaszczenia) nazywamy a 4 = E(X EX)4 (VarX) 2 3, a 4 = 0 dla X-gauss.

Parametry rozkładu Dla p > 0 definiujemy p-ty moment: (E X p ) 1 p. Niech E X 3 <. Współczynnikiem asymetrii (skośność) zmiennej X nazywamy a 3 = E(X EX)3 (VarX) 3/2, a 3 = 0 dla X-gauss. Niech E X 4 <. Kurtoza (współczynnik spłaszczenia) nazywamy a 4 = E(X EX)4 (VarX) 2 3, a 4 = 0 dla X-gauss. Liczbę x p R nazywamy p-tym kwantylem rozkładu µ X, jeśli F X (x p ) p, F X (x p ) p.

Podsumowanie Żeby zrozumieć zachowanie zmiennej losowej X należy wyznaczyć jej rozkład µ X to znaczy obliczyć µ X (A) = P(X A) dla każdego A.

Podsumowanie Żeby zrozumieć zachowanie zmiennej losowej X należy wyznaczyć jej rozkład µ X to znaczy obliczyć µ X (A) = P(X A) dla każdego A. Do identyfikacji rozkładu służy dystrybuanta F X (t) = µ X ((, t]) = P(X t).

Podsumowanie Żeby zrozumieć zachowanie zmiennej losowej X należy wyznaczyć jej rozkład µ X to znaczy obliczyć µ X (A) = P(X A) dla każdego A. Do identyfikacji rozkładu służy dystrybuanta F X (t) = µ X ((, t]) = P(X t). Aby zrozumieć, gdzie średnio położony jest rozkład należy wyznaczyć EX i VarX, alternatywnie można wykorzystać kwantyle x p (w szczególności x 1 nazywa się mediana). 2

Podsumowanie Żeby zrozumieć zachowanie zmiennej losowej X należy wyznaczyć jej rozkład µ X to znaczy obliczyć µ X (A) = P(X A) dla każdego A. Do identyfikacji rozkładu służy dystrybuanta F X (t) = µ X ((, t]) = P(X t). Aby zrozumieć, gdzie średnio położony jest rozkład należy wyznaczyć EX i VarX, alternatywnie można wykorzystać kwantyle x p (w szczególności x 1 nazywa się mediana). 2 Dla dalszego zrozumienia zachowania się rozkładu można wyznaczyć p-te momenty (E X p ) 1 p.

Podsumowanie Żeby zrozumieć zachowanie zmiennej losowej X należy wyznaczyć jej rozkład µ X to znaczy obliczyć µ X (A) = P(X A) dla każdego A. Do identyfikacji rozkładu służy dystrybuanta F X (t) = µ X ((, t]) = P(X t). Aby zrozumieć, gdzie średnio położony jest rozkład należy wyznaczyć EX i VarX, alternatywnie można wykorzystać kwantyle x p (w szczególności x 1 nazywa się mediana). 2 Dla dalszego zrozumienia zachowania się rozkładu można wyznaczyć p-te momenty (E X p ) 1 p. Dla uzyskania pewnego wyobrażenia geometrycznego: symetria, stopień spłaszc parametry typu: współczynnik asymetrii i kurtoza.

Przykład Niech X ma rozkład geometryczny Geom(p), to znaczy P(X = k) = pq k 1, k = 1, 2,...

Przykład Niech X ma rozkład geometryczny Geom(p), to znaczy P(X = k) = pq k 1, k = 1, 2,... Rozkład jest w pełni wyznaczony przez podanie µ X ({k}) = P(X = k) = pq k 1.

Przykład Niech X ma rozkład geometryczny Geom(p), to znaczy P(X = k) = pq k 1, k = 1, 2,... Rozkład jest w pełni wyznaczony przez podanie µ X ({k}) = P(X = k) = pq k 1. Alternatywnie dystrybuanta F X (t) = 1 q k dla t [k, k + 1) i k N.

Przykład Niech X ma rozkład geometryczny Geom(p), to znaczy P(X = k) = pq k 1, k = 1, 2,... Rozkład jest w pełni wyznaczony przez podanie µ X ({k}) = P(X = k) = pq k 1. Alternatywnie dystrybuanta F X (t) = 1 q k dla t [k, k + 1) i k N. Parametry główne EX = 1 p, VarX = q p 2.

Przykład Niech X ma rozkład geometryczny Geom(p), to znaczy P(X = k) = pq k 1, k = 1, 2,... Rozkład jest w pełni wyznaczony przez podanie µ X ({k}) = P(X = k) = pq k 1. Alternatywnie dystrybuanta F X (t) = 1 q k dla t [k, k + 1) i k N. Parametry główne EX = 1 p, VarX = q p 2. Momenty EX(X 1)...(X k + 1) = k!q k 1 p k. St ad wylicza się EX k.

Przykład Niech X ma rozkład geometryczny Geom(p), to znaczy P(X = k) = pq k 1, k = 1, 2,... Rozkład jest w pełni wyznaczony przez podanie µ X ({k}) = P(X = k) = pq k 1. Alternatywnie dystrybuanta F X (t) = 1 q k dla t [k, k + 1) i k N. Parametry główne EX = 1 p, VarX = q p 2. Momenty EX(X 1)...(X k + 1) = k!q k 1 p k. Stad wylicza się EX k. Analiza kwantylami x r kwantyl rzędu r (1 q k+1, 1 q k ] ma wartość k. W szczególności mediana x 1 = k 0 gdzie 1 q k0 1 1 2 1 q k 0. 2

Przykład Niech X ma rozkład geometryczny Geom(p), to znaczy P(X = k) = pq k 1, k = 1, 2,... Rozkład jest w pełni wyznaczony przez podanie µ X ({k}) = P(X = k) = pq k 1. Alternatywnie dystrybuanta F X (t) = 1 q k dla t [k, k + 1) i k N. Parametry główne EX = 1 p, VarX = q p 2. Momenty EX(X 1)...(X k + 1) = k!q k 1 p k. Stad wylicza się EX k. Analiza kwantylami x r kwantyl rzędu r (1 q k+1, 1 q k ] ma wartość k. W szczególności mediana x 1 = k 0 gdzie 1 q k0 1 1 2 1 q k 0. 2 Współczynnik asymetrii a 3 = 6p2 p+2, kurtoza a (1 p) 1/2 4 =.

Przykład Niech X ma rozkład wykładniczy Exp(p), to znaczy f X (x) = e λx 1 (0, ) (x).

Przykład Niech X ma rozkład wykładniczy Exp(p), to znaczy f X (x) = e λx 1 (0, ) (x). Rozkład jest w pełni wyznaczony przez podanie gęstości µ X (dx) = f X (x)dx.

Przykład Niech X ma rozkład wykładniczy Exp(p), to znaczy f X (x) = e λx 1 (0, ) (x). Rozkład jest w pełni wyznaczony przez podanie gęstości µ X (dx) = f X (x)dx. Alternatywnie dystrybuanta F X (t) = 1 e λt dla t 0.

Przykład Niech X ma rozkład wykładniczy Exp(p), to znaczy f X (x) = e λx 1 (0, ) (x). Rozkład jest w pełni wyznaczony przez podanie gęstości µ X (dx) = f X (x)dx. Alternatywnie dystrybuanta F X (t) = 1 e λt dla t 0. Parametry główne EX = λ 1, VarX = λ 2.

Przykład Niech X ma rozkład wykładniczy Exp(p), to znaczy f X (x) = e λx 1 (0, ) (x). Rozkład jest w pełni wyznaczony przez podanie gęstości µ X (dx) = f X (x)dx. Alternatywnie dystrybuanta F X (t) = 1 e λt dla t 0. Parametry główne EX = λ 1, VarX = λ 2. Momenty EX k = k!λ k.

Przykład Niech X ma rozkład wykładniczy Exp(p), to znaczy f X (x) = e λx 1 (0, ) (x). Rozkład jest w pełni wyznaczony przez podanie gęstości µ X (dx) = f X (x)dx. Alternatywnie dystrybuanta F X (t) = 1 e λt dla t 0. Parametry główne EX = λ 1, VarX = λ 2. Momenty EX k = k!λ k. Analiza kwantylami x r kwantyl rzędu ma wartość λ 1 log(1 r). W szczególności mediana = λ 1 log 1 2. x 1 2

Przykład Niech X ma rozkład wykładniczy Exp(p), to znaczy f X (x) = e λx 1 (0, ) (x). Rozkład jest w pełni wyznaczony przez podanie gęstości µ X (dx) = f X (x)dx. Alternatywnie dystrybuanta F X (t) = 1 e λt dla t 0. Parametry główne EX = λ 1, VarX = λ 2. Momenty EX k = k!λ k. Analiza kwantylami x r kwantyl rzędu ma wartość λ 1 log(1 r). W szczególności mediana = λ 1 log 1 2. x 1 2 Współczynnik asymetrii a 3 = 2, kurtoza a 4 = 6.

Korelacje Załóżmy, że X, Y to dwie zmienne EX 2, EY 2 <. Interesuje nas liniowy wpływ zmiennej X na zmienna Y.

Korelacje Załóżmy, że X, Y to dwie zmienne EX 2, EY 2 <. Interesuje nas liniowy wpływ zmiennej X na zmienna Y. To oznacza, że próbujemy przybliżyć zmienna Y korzystajac z αx + β.

Korelacje Załóżmy, że X, Y to dwie zmienne EX 2, EY 2 <. Interesuje nas liniowy wpływ zmiennej X na zmienna Y. To oznacza, że próbujemy przybliżyć zmienna Y korzystajac z αx + β. Chcemy żeby dopasowanie było optymalne w sensie ryzyka kwadratowego, to znaczy jest najmniejsza możliwa. F(α, β) = E(Y αx β) 2.

Korelacje Załóżmy, że X, Y to dwie zmienne EX 2, EY 2 <. Interesuje nas liniowy wpływ zmiennej X na zmienna Y. To oznacza, że próbujemy przybliżyć zmienna Y korzystajac z αx + β. Chcemy żeby dopasowanie było optymalne w sensie ryzyka kwadratowego, to znaczy jest najmniejsza możliwa. F(α, β) = E(Y αx β) 2. Łatwo zauważyć, że F(α, β) jest funkcja kwadratowa, nadto ma dokładnie jeden punkt ˆα, ˆβ w którym przyjmuje minimum.

Korelacje Problem minimalizacji rozwiazuje się za pomoca pochodnych: 0 = F = 2EX(Y αx β) α 0 = F = 2E(Y αx β). β

Korelacje Problem minimalizacji rozwiazuje się za pomoca pochodnych: 0 = F α 0 = F β Stad ˆβ = EY αex a zatem = 2EX(Y αx β) = 2E(Y αx β). 0 = E(X EX)(Y EY ˆα(X EX)).

Korelacje Problem minimalizacji rozwiazuje się za pomoca pochodnych: 0 = F α 0 = F β Stad ˆβ = EY αex a zatem Wyznaczamy α = 2EX(Y αx β) = 2E(Y αx β). 0 = E(X EX)(Y EY ˆα(X EX)). E(X EX)(Y EY ) ˆα = E(X EX) 2 = Cov(X, Y ). VarX

Korelacje Problem minimalizacji rozwiazuje się za pomoca pochodnych: 0 = F α 0 = F β Stad ˆβ = EY αex a zatem Wyznaczamy α Stad = 2EX(Y αx β) = 2E(Y αx β). 0 = E(X EX)(Y EY ˆα(X EX)). E(X EX)(Y EY ) ˆα = E(X EX) 2 = Cov(X, Y ). VarX ˆβ = EY Cov(X, Y ) EX. VarX

Próbkowanie statystyczne Próbka będziemy nazywali ciag niezależnych wyników pewnego doświadczenia (wartości zmiennych losowych) X 1,..., X n.

Próbkowanie statystyczne Próbka będziemy nazywali ciag niezależnych wyników pewnego doświadczenia (wartości zmiennych losowych) X 1,..., X n. Rozkładem empirycznym nazywa się µ n (A) = 1 n n i=1 1 Xi A = {i : X i A}. n

Próbkowanie statystyczne Próbka będziemy nazywali ciag niezależnych wyników pewnego doświadczenia (wartości zmiennych losowych) X 1,..., X n. Rozkładem empirycznym nazywa się µ n (A) = 1 n n i=1 1 Xi A = {i : X i A}. n Dystrybuanta empiryczna nazywamy F n (t) = µ n ((, t]) = {i : X i t}. n

Próbkowanie statystyczne Próbka będziemy nazywali ciag niezależnych wyników pewnego doświadczenia (wartości zmiennych losowych) X 1,..., X n. Rozkładem empirycznym nazywa się µ n (A) = 1 n n i=1 1 Xi A = {i : X i A}. n Dystrybuanta empiryczna nazywamy F n (t) = µ n ((, t]) = {i : X i t}. n Kwantylem empirycznym nazywamy liczbę x p F n (x p ) p, F n (x p ) p.

Charakterystyki próbki Średnia z próbki nazywamy X = 1 n n X i. i=1

Charakterystyki próbki Średnia z próbki nazywamy X = 1 n n X i. i=1 Wariancja empiryczna Var( X) = 1 n n (X i X) 2 i=1

Charakterystyki próbki Średnia z próbki nazywamy X = 1 n n X i. i=1 Wariancja empiryczna Var( X) = 1 n n (X i X) 2 i=1 Kowariancja empiryczna dla ciagu (X 1, Y 1 ),..., (X n, Y n ) Cov( X, Ȳ ) = 1 n n (X i X)(Y i Ȳ ). i=1

Regresja liniowa Aby rozwiazać problem wpływu czynnika losowego X na Y zwykle dysponujemy próbka z tego rozkładu (X 1, Y 1 ),..., (X n, Y n ).

Regresja liniowa Aby rozwiazać problem wpływu czynnika losowego X na Y zwykle dysponujemy próbka z tego rozkładu (X 1, Y 1 ),..., (X n, Y n ). Konstrukcja modelu liniowego polega na tym, że postulujemy zwiazek Y = αx + β + ε, gdzie α, β R, ε jest niezależnym błędem z rozkładu Eε = 0, Varε = σ 2.

Regresja liniowa Aby rozwiazać problem wpływu czynnika losowego X na Y zwykle dysponujemy próbka z tego rozkładu (X 1, Y 1 ),..., (X n, Y n ). Konstrukcja modelu liniowego polega na tym, że postulujemy zwiazek Y = αx + β + ε, gdzie α, β R, ε jest niezależnym błędem z rozkładu Eε = 0, Varε = σ 2. Zwykle przyjmuje się, że ε pochodzi z rozkładu N (0, σ 2 ).

Regresja liniowa Aby rozwiazać problem wpływu czynnika losowego X na Y zwykle dysponujemy próbka z tego rozkładu (X 1, Y 1 ),..., (X n, Y n ). Konstrukcja modelu liniowego polega na tym, że postulujemy zwiazek Y = αx + β + ε, gdzie α, β R, ε jest niezależnym błędem z rozkładu Eε = 0, Varε = σ 2. Zwykle przyjmuje się, że ε pochodzi z rozkładu N (0, σ 2 ). W zagadnieniu estymacji MNK dysponujac danymi (X i, Y i ) musimy wyznaczyć ˆα, ˆβ tak aby ryzyko kwadratowe dla próbki było najmniejsze, szukamy minimum F(α, β), gdzie n F(α, β) = (Y i αx i β) 2. i=1

Metoda MNK Rozwiazuj ac analogicznie jak w przypadku korelacji dostajemy n 2X i (Y i αx i β) = 0 i=1 n 2(Y i αx i β) = 0 i=1

Metoda MNK Rozwiazuj ac analogicznie jak w przypadku korelacji dostajemy n 2X i (Y i αx i β) = 0 Zatem i=1 n 2(Y i αx i β) = 0 i=1 ˆα = Cov( X, Ȳ ) Var( X) ˆβ = Ȳ Cov( X, Ȳ ) Var( X) X, gdzie X = n 1 (X 1 +... + X n ), Ȳ = n 1 (Y 1 +... + Y n ).

Metoda MNK Przypuśćmy, że liczba punków zdobytych na egzaminie Y zależy od liczby godzin spędzonych na nauce X. Przebadano grupę n = 20 studentów.

Metoda MNK Przypuśćmy, że liczba punków zdobytych na egzaminie Y zależy od liczby godzin spędzonych na nauce X. Przebadano grupę n = 20 studentów. Okazało się, że 20 i=1 20 i=1 Y i = 1600, X i Y i = 1800, 20 i=1 20 X i = 400, i=1 X 2 i = 9000.

Metoda MNK Przypuśćmy, że liczba punków zdobytych na egzaminie Y zależy od liczby godzin spędzonych na nauce X. Przebadano grupę n = 20 studentów. Okazało się, że 20 i=1 20 i=1 Y i = 1600, X i Y i = 1800, 20 i=1 20 X i = 400, i=1 X 2 i = 9000. Obliczamy X = 20, Ȳ = 80, Var X = 450 400 = 50, Cov( X, Ȳ ) = 90 1600 = 1510.

Metoda MNK Przypuśćmy, że liczba punków zdobytych na egzaminie Y zależy od liczby godzin spędzonych na nauce X. Przebadano grupę n = 20 studentów. Okazało się, że 20 i=1 20 i=1 Y i = 1600, X i Y i = 1800, 20 i=1 20 X i = 400, i=1 X 2 i = 9000. Obliczamy X = 20, Ȳ = 80, Var X = 450 400 = 50, Cov( X, Ȳ ) = 90 1600 = 1510. Otrzymujemy ˆα = 1510 50 = 30, 2, ˆβ = 80 30, 2 20 = 524.