Rozkłady łaczne wielu zmiennych losowych

Podobne dokumenty
Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Szkice do zajęć z Przedmiotu Wyrównawczego

Prawdopodobieństwo i statystyka

Wstęp do Rachunku Prawdopodobieństwa, IIr. WMS

Centralne twierdzenie graniczne

Wykład 3 Jednowymiarowe zmienne losowe

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności

Wartość oczekiwana Mediana i dominanta Wariancja Nierówności związane z momentami. Momenty zmiennych losowych Momenty wektorów losowych

12DRAP - parametry rozkładów wielowymiarowych

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Wykład 3 Momenty zmiennych losowych.

Wykład 3 Momenty zmiennych losowych.

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014

Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe.

1 Zmienne losowe wielowymiarowe.

Prawdopodobieństwo i statystyka

Zestaw 2: Zmienne losowe. 0, x < 1, 2, 2 x, 1 1 x, 1 x, F 9 (x) =

Zmienne losowe. Powtórzenie. Dariusz Uciński. Wykład 1. Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka

1 Gaussowskie zmienne losowe

SIMR 2017/18, Statystyka, Przykładowe zadania do kolokwium - Rozwiązania

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych

Statystyka. Wydział Zarządzania Uniwersytetu Łódzkiego

Losowe zmienne objaśniające. Rozszerzenia KMRL. Rozszerzenia KMRL

Wykład 10 Estymacja przedziałowa - przedziały ufności dla średn

Statystyka i eksploracja danych

Współczynnik korelacji. Współczynnik korelacji jest miernikiem zależności między dwiema cechami Oznaczenie: ϱ

Estymacja przedziałowa - przedziały ufności dla średnich. Wrocław, 5 grudnia 2014

WNIOSKOWANIE W MODELU REGRESJI LINIOWEJ

5 Przegląd najważniejszych rozkładów

Komputerowa analiza danych doświadczalnych

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne

Statystyczna analiza danych

STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA

Matematyka dla biologów Zajęcia nr 12.

Statystyka matematyczna dla kierunku Rolnictwo w SGGW. BADANIE WSPÓŁZALEśNOŚCI DWÓCH CECH. ANALIZA KORELACJI PROSTEJ.

Powtórzenie wiadomości z rachunku prawdopodobieństwa i statystyki.

Rozkład normalny Parametry rozkładu zmiennej losowej Zmienne losowe wielowymiarowe

Stacjonarne procesy gaussowskie, czyli o zwiazkach pomiędzy zwykła

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

STATYSTYKA MATEMATYCZNA WYKŁAD listopada 2009

Metody systemowe i decyzyjne w informatyce

Laboratorium nr 7. Zmienne losowe typu skokowego.

Funkcje charakterystyczne zmiennych losowych, linie regresji 1-go i 2-go rodzaju

1. Pojęcie normy, normy wektora [Kiełbasiński, Schwetlick]

Metody systemowe i decyzyjne w informatyce

PEWNE FAKTY Z RACHUNKU PRAWDOPODOBIEŃSTWA

Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie

Statystyka. Wykład 2. Krzysztof Topolski. Wrocław, 11 października 2012

Wykład 5 Estymatory nieobciążone z jednostajnie minimalną war

Rozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej

Prawdopodobieństwo i statystyka

Zmienne losowe, statystyki próbkowe. Wrocław, 2 marca 2015

STATYSTYKA MATEMATYCZNA

Wykład 12 Testowanie hipotez dla współczynnika korelacji

Prawdopodobieństwo i statystyka

Rachunek Prawdopodobieństwa Rozdział 5. Rozkłady łączne

Wykład 12 Testowanie hipotez dla współczynnika korelacji

Rozpoznawanie obrazów

Biostatystyka, # 3 /Weterynaria I/

RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3.

Metody probabilistyczne

Prawdopodobieństwo i statystyka

Spis treści 3 SPIS TREŚCI

Rozkłady dwóch zmiennych losowych

i=7 X i. Zachodzi EX i = P(X i = 1) = 1 2, i {1, 2,..., 11} oraz EX ix j = P(X i = 1, X j = 1) = 1 7 VarS 2 2 = 14 3 ( 5 2 =

Wykład 2 Hipoteza statystyczna, test statystyczny, poziom istotn. istotności, p-wartość i moc testu

WYKŁAD 2. Zdarzenia losowe i prawdopodobieństwo Zmienna losowa i jej rozkłady

Wykład 2 Zmienne losowe i ich rozkłady

Rozkłady prawdopodobieństwa

Statystyka matematyczna

Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu.

Statystyka. Wykład 9. Magdalena Alama-Bućko. 24 kwietnia Magdalena Alama-Bućko Statystyka 24 kwietnia / 34

Analiza współzależności zjawisk. dr Marta Kuc-Czarnecka

4,5. Dyskretne zmienne losowe (17.03; 31.03)

WSTĘP. Tematy: Regresja liniowa: model regresji liniowej, estymacja nieznanych parametrów. Wykład:30godz., ćwiczenia:15godz., laboratorium:30godz.

Rozkłady prawdopodobieństwa zmiennych losowych

Dyskretne zmienne losowe

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe

STATYSTYKA MATEMATYCZNA

STATYSTYKA MATEMATYCZNA

Statystyka aktuarialna i teoria ryzyka, model indywidualny i zespołowy, rozkłady złożone

Na A (n) rozważamy rozkład P (n) , który na zbiorach postaci A 1... A n określa się jako P (n) (X n, A (n), P (n)

Statystyka i eksploracja danych

STATYSTYKA. Rafał Kucharski. Uniwersytet Ekonomiczny w Katowicach 2015/16 ROND, Finanse i Rachunkowość, rok 2

dla t ściślejsze ograniczenie na prawdopodobieństwo otrzymujemy przyjmując k = 1, zaś dla t > t ściślejsze ograniczenie otrzymujemy przyjmując k = 2.

Komputerowa analiza danych doświadczalnych. Wykład dr inż. Łukasz Graczykowski

Statystyka aktuarialna i teoria ryzyka, rozkłady szkód

Jednowymiarowa zmienna losowa

Rozpoznawanie obrazów

6. Identyfikacja wielowymiarowych systemów statycznych metodanajmniejszychkwadratów

Transkrypt:

Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 3

Motywacje Przykłady sytuacji z kilkoma zmiennymi losowymi: Antropometria: wzrost, waga ciała i grubość skóry przedramienia w pewnej populacji ludzi zestaw parametrów produkowanych obwodów scalonych średnice wału głównego skrzyni biegów w różnych przekrojach wału wysokość dziennego oprocentowania kredytów różnego typu pozycja firmy na giełdzie mierzona kilkoma wskaźnikami giełdowymi wartość bierzacego deficytu płatniczego, stopy procentowej NBP oraz inflacji ciśnienie skurczowe i rozkurczowe oraz tętno zdrowych mężczyzn w wieku 40-50 lat w warunkach kontrolowanego stresu

Przykład Podczas testów nowego odbiornika do transmisji informacji cyfrowej, każdy przesłany bit klasyfikuje się jako akceptowalny, podejrzany oraz nieakceptowalny, w zależności od jakości odbieranego sygnału, odpowiednio z prawdopodobieństwami 0.9, 0.08, oraz 0.02. Zakłada się niezależność przesyłu kolejnych bitów. Dla czterech pierwszych przesłanych bitów oznaczmy: X liczba akceptowalnych bitów Y liczba podejrzanych bitów Jako jest rozkład X? Jaki jest rozkład Y? Dwumianowe! Ale czy można je rozważać niezależnie od siebie?

Przykład Podczas testów nowego odbiornika do transmisji informacji cyfrowej, każdy przesłany bit klasyfikuje się jako akceptowalny, podejrzany oraz nieakceptowalny, w zależności od jakości odbieranego sygnału, odpowiednio z prawdopodobieństwami 0.9, 0.08, oraz 0.02. Zakłada się niezależność przesyłu kolejnych bitów. Dla czterech pierwszych przesłanych bitów oznaczmy: X liczba akceptowalnych bitów Y liczba podejrzanych bitów Jako jest rozkład X? Jaki jest rozkład Y? Dwumianowe! Ale czy można je rozważać niezależnie od siebie?

Przykład Podczas testów nowego odbiornika do transmisji informacji cyfrowej, każdy przesłany bit klasyfikuje się jako akceptowalny, podejrzany oraz nieakceptowalny, w zależności od jakości odbieranego sygnału, odpowiednio z prawdopodobieństwami 0.9, 0.08, oraz 0.02. Zakłada się niezależność przesyłu kolejnych bitów. Dla czterech pierwszych przesłanych bitów oznaczmy: X liczba akceptowalnych bitów Y liczba podejrzanych bitów Jako jest rozkład X? Jaki jest rozkład Y? Dwumianowe! Ale czy można je rozważać niezależnie od siebie?

Przykład (c.d.) Oznaczmy f XY (x, y) = P(X = x, Y = y). Wyznaczmy np. f XY (2, 1). Prawdopodobieństwo sekwencji bitów aapn wynosi P(aapn) = 0.9 0.9 0.08 0.02 = 0.0013 Liczba wszystkich możliwych sekwencji składajacych się z dwóch bitów a, jednego p oraz jednego n jest równa Stad 4! 2!1!1! = 12 f XY (2, 1) = P(X = 2, Y = 1) = 12 0.0013 = 0.0156

Przykład (c.d.) Oznaczmy f XY (x, y) = P(X = x, Y = y). Wyznaczmy np. f XY (2, 1). Prawdopodobieństwo sekwencji bitów aapn wynosi P(aapn) = 0.9 0.9 0.08 0.02 = 0.0013 Liczba wszystkich możliwych sekwencji składajacych się z dwóch bitów a, jednego p oraz jednego n jest równa Stad 4! 2!1!1! = 12 f XY (2, 1) = P(X = 2, Y = 1) = 12 0.0013 = 0.0156

Własności: 1 f XY (x, y) 0 2 f XY (x, y) = 1 x y Rozróżniać rozkłady: łaczny f X,Y (x, y) i brzegowe f X (x), f Y (y)! Twierdzenie f X (x) = y f XY (x, y), f Y (y) = x f XY (x, y) Przykład (c.d.) f X (3) = P(X = 3) = P(X = 3, Y = 0) + P(X = 3, Y = 1) = 0.0583 + 0.2333 = 0.2916 Drugi sposób: P(X = 3) = ( 4 3) 0.9 3 0.1 1 = 0.2916.

Własności: 1 f XY (x, y) 0 2 f XY (x, y) = 1 x y Rozróżniać rozkłady: łaczny f X,Y (x, y) i brzegowe f X (x), f Y (y)! Twierdzenie f X (x) = y f XY (x, y), f Y (y) = x f XY (x, y) Przykład (c.d.) f X (3) = P(X = 3) = P(X = 3, Y = 0) + P(X = 3, Y = 1) = 0.0583 + 0.2333 = 0.2916 Drugi sposób: P(X = 3) = ( 4 3) 0.9 3 0.1 1 = 0.2916.

Własności: 1 f XY (x, y) 0 2 f XY (x, y) = 1 x y Rozróżniać rozkłady: łaczny f X,Y (x, y) i brzegowe f X (x), f Y (y)! Twierdzenie f X (x) = y f XY (x, y), f Y (y) = x f XY (x, y) Przykład (c.d.) f X (3) = P(X = 3) = P(X = 3, Y = 0) + P(X = 3, Y = 1) = 0.0583 + 0.2333 = 0.2916 Drugi sposób: P(X = 3) = ( 4 3) 0.9 3 0.1 1 = 0.2916.

Wartość oczekiwana (analogie do jednej zmiennej?): E[g(X, Y )] = g(x, y)f XY (x, y) x y Przykład (c.d.) E[X] = 0 [ f XY (0, 0) + f XY (0, 1) + f XY (0, 2) + f XY (0, 3) + f XY (0, 4) ] + 1 [ f XY (1, 0) + f XY (1, 1) + f XY (1, 2) + f XY (1, 3) ] + 2 [ f XY (2, 0) + f XY (2, 1) + f XY (2, 2) ] + 3 [ f XY (3, 0) + f XY (3, 1) ] + 4 [ f XY (4, 0) ] = 0[0.0001] + 1[0.0036] + 2[0.0486] + 3[0.02916] + 4[0.6561] = 3.6 Drugi sposób: E[X] = np = 4(0.92) = 3.6.

Wartość oczekiwana (analogie do jednej zmiennej?): E[g(X, Y )] = g(x, y)f XY (x, y) x y Przykład (c.d.) E[X] = 0 [ f XY (0, 0) + f XY (0, 1) + f XY (0, 2) + f XY (0, 3) + f XY (0, 4) ] + 1 [ f XY (1, 0) + f XY (1, 1) + f XY (1, 2) + f XY (1, 3) ] + 2 [ f XY (2, 0) + f XY (2, 1) + f XY (2, 2) ] + 3 [ f XY (3, 0) + f XY (3, 1) ] + 4 [ f XY (4, 0) ] = 0[0.0001] + 1[0.0036] + 2[0.0486] + 3[0.02916] + 4[0.6561] = 3.6 Drugi sposób: E[X] = np = 4(0.92) = 3.6.

W ogólności E[g(x, Y )] g(e[x]), E(Y )) Zachodzi jednak Twierdzenie E[αX + β] = α E[X] + β E[X + Y + Z ] = E[X] + E[Y ] + E[Z ] Twierdzenie Var(αX) = α 2 Var(X) Var(X + α) = Var(X)

W ogólności E[g(x, Y )] g(e[x]), E(Y )) Zachodzi jednak Twierdzenie E[αX + β] = α E[X] + β E[X + Y + Z ] = E[X] + E[Y ] + E[Z ] Twierdzenie Var(αX) = α 2 Var(X) Var(X + α) = Var(X)

Definicja Kowariancja zmiennych X i Y nazywamy wielkość Stwierdzenie Definicja σ XY Cov(X, Y ) = E [ (X E[X])(Y E(y)) ] = (x E[X])(y E[Y ])f XY (x, y) x y Cov(X, Y ) = E[XY ] E[X] E[Y ] Współczynnikiem korelacji między X i Y nazywamy wielkość ρ XY = Cov(X, Y ) Var(X) Var(Y )

Definicja Kowariancja zmiennych X i Y nazywamy wielkość Stwierdzenie Definicja σ XY Cov(X, Y ) = E [ (X E[X])(Y E(y)) ] = (x E[X])(y E[Y ])f XY (x, y) x y Cov(X, Y ) = E[XY ] E[X] E[Y ] Współczynnikiem korelacji między X i Y nazywamy wielkość ρ XY = Cov(X, Y ) Var(X) Var(Y )

Definicja Kowariancja zmiennych X i Y nazywamy wielkość Stwierdzenie Definicja σ XY Cov(X, Y ) = E [ (X E[X])(Y E(y)) ] = (x E[X])(y E[Y ])f XY (x, y) x y Cov(X, Y ) = E[XY ] E[X] E[Y ] Współczynnikiem korelacji między X i Y nazywamy wielkość ρ XY = Cov(X, Y ) Var(X) Var(Y )

Ważna własność: 1 ρ XY 1 Praca samodzielna: Co oznacza ρ XY = ±1? Przykład (c.d.) Proste rachunki prowadza do następujacych wyników: E[X] = 3.6, E[Y ] = 0.32, E[X 2 ] = 13.32, E[Y 2 ] = 0.3968, E[XY ] = 0.864 Var(X) = 0.36, Var(Y ) = 0.2944, Cov(X, Y ) = 0.288 ρ XY = 0.8847

Ważna własność: 1 ρ XY 1 Praca samodzielna: Co oznacza ρ XY = ±1? Przykład (c.d.) Proste rachunki prowadza do następujacych wyników: E[X] = 3.6, E[Y ] = 0.32, E[X 2 ] = 13.32, E[Y 2 ] = 0.3968, E[XY ] = 0.864 Var(X) = 0.36, Var(Y ) = 0.2944, Cov(X, Y ) = 0.288 ρ XY = 0.8847

Ważna własność: 1 ρ XY 1 Praca samodzielna: Co oznacza ρ XY = ±1? Przykład (c.d.) Proste rachunki prowadza do następujacych wyników: E[X] = 3.6, E[Y ] = 0.32, E[X 2 ] = 13.32, E[Y 2 ] = 0.3968, E[XY ] = 0.864 Var(X) = 0.36, Var(Y ) = 0.2944, Cov(X, Y ) = 0.288 ρ XY = 0.8847

Definicja Rozkład warunkowy zmiennej X pod warunkiem, że zmienna Y przyjęła wartość y definiuje się funkcja f X Y (x y) = P(X = x Y = y) = f XY (x, y) f Y (y) Przykład (c.d.) Określić f Y X (y x) = f XY (x, y)/f X (x).

Definicja Rozkład warunkowy zmiennej X pod warunkiem, że zmienna Y przyjęła wartość y definiuje się funkcja f X Y (x y) = P(X = x Y = y) = f XY (x, y) f Y (y) Przykład (c.d.) Określić f Y X (y x) = f XY (x, y)/f X (x).

Przykład (c.d.) Zauważyć, że wartości w kolumnach sumuja się do jedności, co wynika z równości f Y X (y x) = 1 Zachodzi (analogie?) Y f XY (x, y) = f X (x)f Y X (y x) = f X Y (x y)f Y (y) Definicja Zmienne losowe X i Y nazywamy niezależnymi jeżeli f XY (x, y) = f X (y)f Y (y), x y

Przykład (c.d.) Zauważyć, że wartości w kolumnach sumuja się do jedności, co wynika z równości f Y X (y x) = 1 Zachodzi (analogie?) Y f XY (x, y) = f X (x)f Y X (y x) = f X Y (x y)f Y (y) Definicja Zmienne losowe X i Y nazywamy niezależnymi jeżeli f XY (x, y) = f X (y)f Y (y), x y

Przykład (c.d.) Zauważyć, że wartości w kolumnach sumuja się do jedności, co wynika z równości f Y X (y x) = 1 Zachodzi (analogie?) Y f XY (x, y) = f X (x)f Y X (y x) = f X Y (x y)f Y (y) Definicja Zmienne losowe X i Y nazywamy niezależnymi jeżeli f XY (x, y) = f X (y)f Y (y), x y

Stwierdzenie Dla niezależnych zmiennych X i Y zachodzi f Y X (y x) = f Y (y), y x : f X (x) > 0 f X Y (x y) = f X (x), x y : f Y (y) > 0 E[XY ] = E[X] E[Y ] E[g(X)h(Y )] = E[g(X)] E[h(Y )] Var(X + Y ) = Var(X) + Var(Y ) ρ XY = 0 Pytanie: Czy w rozważanym przykładzie zmienne X i Y sa niezależne? Jak najłatwiej to sprawdzić?

Materiał do samodzielnego opanowania: 1 Warunek niezależności trzech zmiennych losowych? 2 Zapoznać się z uogólnieniami pojęć niniejszego wykładu na przypadek zmiennych ciagłych (rozdz. 2.3) obowiazuje na egzaminie!!!