Rozkłady wielu zmiennych

Podobne dokumenty
Komputerowa Analiza Danych Doświadczalnych

Komputerowa Analiza Danych Doświadczalnych

Rozkłady dwóch zmiennych losowych

Komputerowa analiza danych doświadczalnych

Ważne rozkłady i twierdzenia c.d.

Generacja liczb pseudolosowych

Komputerowa analiza danych doświadczalnych

Komputerowa analiza danych doświadczalnych

Komputerowa analiza danych doświadczalnych. Wykład dr inż. Łukasz Graczykowski

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski

Rozkład normalny Parametry rozkładu zmiennej losowej Zmienne losowe wielowymiarowe

Komputerowa Analiza Danych Doświadczalnych

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Wynik pomiaru jako zmienna losowa

Komputerowa Analiza Danych Doświadczalnych

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych

1 Warunkowe wartości oczekiwane

3 1 + i 1 i i 1 2i 2. Wyznaczyć macierze spełniające własność komutacji: [A, X] = B

SIMR 2017/18, Statystyka, Przykładowe zadania do kolokwium - Rozwiązania

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne

Metoda największej wiarygodności

Przekształcenia liniowe

Weryfikacja hipotez statystycznych

IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych,

Wykład Matematyka A, I rok, egzamin ustny w sem. letnim r. ak. 2002/2003. Każdy zdający losuje jedno pytanie teoretyczne i jedno praktyczne.

Prawdopodobieństwo i statystyka

KADD Minimalizacja funkcji

Prawdopodobieństwo i statystyka

Statystyka i eksploracja danych

Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna.

POSTULATY MECHANIKI KWANTOWEJ cd i formalizm matematyczny

3. PŁASKI STAN NAPRĘŻENIA I ODKSZTAŁCENIA

Ważne rozkłady i twierdzenia

dr Mariusz Grządziel 15,29 kwietnia 2014 Przestrzeń R k R k = R R... R k razy Elementy R k wektory;

5 Równania różniczkowe zwyczajne rzędu drugiego

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe

Układy równań i równania wyższych rzędów

2 1 3 c c1. e 1, e 2,..., e n A= e 1 e 2...e n [ ] M. Przybycień Matematyczne Metody Fizyki I

Wykład 12: Warunkowa wartość oczekiwana. Rozkłady warunkowe. Mieszanina rozkładów.

Algebra liniowa. 1. Macierze.

Procesy stochastyczne

Wstęp do Rachunku Prawdopodobieństwa, IIr. WMS

Matematyka stosowana i metody numeryczne

Rozdział 3. Tensory. 3.1 Krzywoliniowe układy współrzędnych

RÓŻNICZKOWANIE FUNKCJI WIELU ZMIENNYCH: rachunek pochodnych dla funkcji wektorowych. Pochodne cząstkowe funkcji rzeczywistej wielu zmiennych

Modele zapisane w przestrzeni stanów

Procesy stochastyczne

ELEKTROTECHNIKA Semestr 2 Rok akad / ZADANIA Z MATEMATYKI Zestaw Oblicz pochodne cząstkowe rzędu drugiego funkcji:

Lista 6. Kamil Matuszewski 13 kwietnia D n =

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

Wykład 7: Warunkowa wartość oczekiwana. Rozkłady warunkowe.

Prawdopodobieństwo i statystyka

= i Ponieważ pierwiastkami stopnia 3 z 1 są (jak łatwo wyliczyć) liczby 1, 1+i 3

KADD Minimalizacja funkcji

Rachunek prawdopodobieństwa 1B; zadania egzaminacyjne.

KADD Metoda najmniejszych kwadratów funkcje nieliniowe

STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA

Przestrzeń unitarna. Jacek Kłopotowski. 23 października Katedra Matematyki i Ekonomii Matematycznej SGH

Prawdopodobieństwo i statystyka

Wykład 3 Jednowymiarowe zmienne losowe

2. Kombinacja liniowa rozwiązań zeruje się w pewnym punkcie wtedy i tylko wtedy, gdy zeruje się w każdym punkcie.

Statystyka matematyczna

Kwantyle. Kwantyl rzędu p rozkładu prawdopodobieństwa to taka liczba x p. , że. Możemy go obliczyć z dystrybuanty: P(X x p.

Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa. P. F. Góra

1 Pochodne wyższych rzędów

Statystyczna analiza danych

Szczególna i ogólna teoria względności (wybrane zagadnienia)

Aby przygotować się do kolokwiów oraz do egzaminów należy ponownie przeanalizować zadania

Tydzień nr 9-10 (16 maja - 29 maja), Równania różniczkowe, wartości własne, funkcja wykładnicza od operatora - Matematyka II 2010/2011L

Funkcje charakterystyczne zmiennych losowych, linie regresji 1-go i 2-go rodzaju

1. PODSTAWY TEORETYCZNE

Rachunek różniczkowy i całkowy w przestrzeniach R n

1. Zbadać liniową niezależność funkcji x, 1, x, x 2 w przestrzeni liniowej funkcji ciągłych na przedziale [ 1, ).

Rozkład normalny Parametry rozkładu zmiennej losowej Zmienne losowe wielowymiarowe

Przykładowe zadania na egzamin z matematyki - dr Anita Tlałka - 1

Geometria Lista 0 Zadanie 1

Komputerowa analiza danych doświadczalnych

P (A B) = P (A), P (B) = P (A), skąd P (A B) = P (A) P (B). P (A)

Rachunek prawdopodobieństwa i statystyka

Prędkość fazowa i grupowa fali elektromagnetycznej w falowodzie

WEKTORY I WARTOŚCI WŁASNE MACIERZY. = λ c (*) problem przybliżonego rozwiązania zagadnienia własnego dla operatorów w mechanice kwantowej

Prawdopodobieństwo i statystyka

O ŚREDNIEJ STATYSTYCZNEJ

Zestaw 2: Zmienne losowe. 0, x < 1, 2, 2 x, 1 1 x, 1 x, F 9 (x) =

Rozkłady statystyk z próby

5. Równania różniczkowe zwyczajne pierwszego rzędu

Algebra z geometrią analityczną zadania z odpowiedziami

Fuzja sygnałów i filtry bayesowskie

12DRAP - parametry rozkładów wielowymiarowych

a 11 a a 1n a 21 a a 2n... a m1 a m2... a mn a 1j a 2j R i = , C j =

W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych:

Algebra z geometrią analityczną zadania z odpowiedziami

1.1 Przegląd wybranych równań i modeli fizycznych. , u x1 x 2

Własności wyznacznika

Statystyka. Wykład 7. Magdalena Alama-Bućko. 16 kwietnia Magdalena Alama-Bućko Statystyka 16 kwietnia / 35

Układy równań liniowych

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie

Jednowymiarowa zmienna losowa

Funkcje wielu zmiennych

Transkrypt:

Rozkłady wielu zmiennych Uogólnienie pojęć na rozkład wielu zmiennych Dystrybuanta, gęstość prawdopodobieństwa, rozkład brzegowy, wartości średnie i odchylenia standardowe, momenty Notacja macierzowa Macierz kowariancji Zamiana zmiennych Transformacja gęstości prawdopodobieństwa Transformacje liniowe Propagacja błędów Transformacje ortogonalne 1

Dystrybuanta Rozkłady wielu zmiennych F x 1,...,x n =P X 1 <x 1,X 2 <x 2,...,X n <x n Gęstość prawdopodobieństwa f x 1,...,x n = Gęstość rokładu brzegowego to gęstość prawdopodobieństwa zmiennej x r Podobnie mamy wartość oczekiwaną: W szczególności dla H(x)=x r n x 1 x 2... x n F x 1,...,x n g r x r =... f x 1,...,x n dx 1 dx 2... dx r 1 dx r+1... dx n E {H X 1,X 2,...,X n }=... H x 1,...,x n f x 1,...,x n dx 1 dx 2... dx n E {x r }=... x r f x 1,...,x n dx 1 dx 2... dx n = x r g r x r dx r 2

Niezależność. Łączne rozkłady brzegowe Podobnie jak w przypadku dwuwymiarowym, dla niezależności zmiennych musi być spełniony warunek: f x 1,...,x n =g 1 x 1 g 2 x 2... g n x n Definiujemy też łączną gęstość brzegową dla dowolnych l spośród n zmiennych: g x 1,...,x l =... f x 1,...,x n dx l+1... dx n Zmienne X 1,..., X l są niezależne, gdy: g x 1,...,x l =g 1 x 1 g 2 x 2... g l x l 3

Momenty. Wariancje. Momentami rzędu l 1, l 2,..., l n nazywamy wartości oczekiwane funkcji: i oznaczamy je symbolami W szczególności 100...0 =E { X 1 }= x 1 Momenty względem wartości średnich to: Co pozwala na zapis wariancji: μ 200...0 =E { X 1 x 1 }=σ 2 X 1 H=x 1 l 1 x 2 l 2... x n l n λ l 1 l 2...l n =E {X 1 l 1 X 2 l 2... X n l n } 010...0 =E { X 2 }= x 2... μ l 1 l 2...l n =E { X 1 x 1 l 1 X 2 x 2 l 2... X n x n l n} μ 020...0 =E { X 2 x 2 }=σ 2 X 2... Oraz kowariancji między zmiennymi i i j: c ij =cov X i,x j =E { X i x i X j x j } 000...1 =E { X n }= x n 4

Notacja macierzowa Naturalną reprezentacją dla n zmiennych x 1, x 2,..., x n jest wektor x w przestrzeni n-wymiarowej. Możemy przedstawić wszelkie wielkości w notacji wektorowej: F=F x f x = n x 1 x 2... x n F x - dystrybuanta - gęstość prawdopodobieństwa E {H x }= H x f x d x E X =x x T = x 1,...,x n x= x 1 x 2 x n - wartość oczekiwana - wartość średnia - notacja macierzowa 5

Macierz kowariancji Szczególne znaczenie dla dalszych rozważań ma tzw. macierz kowariancji 11 c 12... c 1n c C= c 21 c 22... c 2 n c n1 c n2... c nn gdzie c ij to kowariancja zmiennych i i j. Elementy diagonalne to wariancje c ii =σ 2 (x i ) Macierz jest symetryczna: c ij = c ji W notacji macierzowej możemy napisać: C=E { X x X x T } 6

Zamiana zmiennych Dowolna funkcja zmiennej losowej X, Y=Y(X), jest również zmienną losową. Jaka jest gęstość prawdopodobieństwa g(y), jeżeli znana jest f(x)? g(y) y f(x) 1,02cm dy dx 1,59 y=y(x) x f x dx=g y dy dy= dy dx dx dx= dx dy dy g y = dx dy f x x 7

Transformacja rozkładów Można rozważać podobny problem. Mamy zmienną losową X opisaną rozkładem jednorodnym f(x). Jaka ma być funkcja Y=Y(X), aby otrzymać zadaną g(y)? g(y) y f(x) 1 1,02cm dy y=y(x)=? dx 1,59 x f x dx=g y dy gdy f x 1 dg y g y dy=dx dx= dg y x=g y y=g 1 x y min =G 1 0, y max =G 1 1 0 1 x 8

Zamiana zmiennych, funkcja 2d Podobnie możemy dokonać zamiany zmiennych dla funkcji dwóch zmiennych (X,Y) (U,V): U =U X,Y Szukamy funkcji J: g u, v = f x, y J x, y u, v x a =x u, v y a =y u, v x b =x u, v dv x c =x u du, v x b =x u, v x v dv x c =x u, v x u du V =V X,Y y b =y u, v dv y c =y u du, v Rozwijamy w szereg Taylora: y y =y u, v b v dv y c =y u, v y u du y b d da a v(x,y)+dv c v(x,y) u(x,y)+du u(x,y) x 9

Obliczamy pole powierzchni da: x x a y a u da= 1 1 x b y b x 1 x c y c = v Jakobian y u dv J y v du x, y du dv u,v czyli szukaną funkcją jest Jakobian transformacji Dla funkcji wielu zmiennych uogólniamy: Y 1 =Y 1 X Y 2 =Y 2 X Y n =Y n X g y = J x y f x J x y = x1 y 1 x 2 y 1... x 1 y 2 x 2 y 2...... x 1 y n x 2 y n... x n y 1 x n n y 2 x n y 10

Przykład zamiany zmiennych f x, y =1/ 2 a 2, x y a Dokonujemy zamiany zmiennych: u x, y =x y v x, y =x y x u,v = 1 2 u v y u,v = 1 2 u v Obliczamy Jakobian: x u = 1 2 x v = 1 2 y u = 1 2 y v = 1 2 J x, y u,v = 1 2 1 2 1 2 1 2 = 1 2 I otrzymujemy g(u,v): g u,v = 1 2 f x, y =1/ 4 a2, u a ; v a 11

Współrzędne sferyczne f x, y =1/ R 2, x 2 y 2 R Dokonujemy zamiany zmiennych: r x, y = x 2 y 2 x, y =arctg y x I otrzymujemy g(r,φ): g r, = 1 r f x, y =1/ r R2, 0 r R ; x r, =r cos y r, =r sin Obliczamy Jakobian: x r = x r x = y r 2 y r = y r y = x r 2 J x, y u,v = x r x r 2 y r y r 2=1 r 12

Transformacje liniowe Najczęściej posługujemy się transformacjami liniowymi Y 1 =a 1 t 11 X 1 t 12 X 2... t 1 n X n Y 2 =a 2 t 21 X 1 t 22 X 2... t 2 n X n Y r =a r t r1 X 1 t r2 X 2... t rn X n Współczynniki t najwygodniej przedstawić w postaci macierzy. Wtedy: Y =T X a E {Y }= y=t x a C y =E { y y y y T } =E { T X a T x a T X a T x a T } =E {T X x X x T T T } =TE { X x X x T }T T, C y =T C x T T, 13

Propagacja błędów Załóżmy, że znamy wartości pomiaru (X) oraz ich błędy σ 2 i kowariancje. Szukamy błędów Y(X). x Dokonujemy rozwinięcia w szereg Taylora wokół wartości średnich: Y i =Y i x y i X x 1 x 1 1... y i X x= x x n x n O 2 n x= x = T Ograniczając się do wyrazów liniowych mamy transformację liniową o a=y i (x) oraz: y1 x 1 y 1 x 2... y 2 x 1 y 2 x 2... y 1 x n y 2 x n y n x 1 y n x 2... y n x n x= x 14

Prawo propagacji błędów Możemy obliczyć macierz błędów wielkości Y: C y =T C x T T, Błędy zmiennych Y zależą od całej macierzy kowariancji, a nie tylko od błedów zmiennej x. Tylko i wyłącznie, gdy zmienne X są niezależne czyli c ij =0, dla i j, czyli gdy macierz C x jest diagonalna, możemy napisać: 2 Y i = n y i j=1 x j 2 2 X j Co daje nam, po utożsamieniu σ z błędem pomiarowym, prawo propagacji błędów: y i = j=1 n y i x j 2 x j 2 15

Zamiana zmiennych - kowariancja Sprawdźmy znaczenie macierzy kowariancji. Przykład: eksperyment STAR mierzy pęd cząstki poprzez pomiar pędu poprzecznego p T (z krzywizny toru) i jego kąta azymutalnego φ. Dla cząstki o pędzie p T =1 GeV niepewność pomiaru p T jest ośmiokrotnie większa niż φ. x= p T, y= p x, p y p x = p T cos p y = p T sin p T =1 GeV = T =60 o T = p x p T p y p T 1 2 3 2 p x = cos pt sin p y sin p T cos 3 2 C pt, = 8 2 0 1 0 1 2 2 16

Obliczamy nową macierz kowariancji: C p x, p y =TC T T pt, = 1 67 4 63 3 63 3 193 Jeśli zaniedbamy wyrazy niediagonalne i dokonamy transformacji odwrotnej: = T p T p x p x = p T p p y p y x p T p y p T 2 p y p T p x p T 2 C Kowariancja px, p y= Otrzymamy następującą macierz kowariancji: C pt, =TC p x, p y T T = 1 16 646 126 3 126 3 394 1 4 67 0 0 193 17

Transformacje ortogonalne Mamy n funkcji y zależnych od n zmiennych x. Zakładamy a=0. Stąd y=rx. Żądamy, aby moduł długości wektora był niezmiennikiem transformacji Z założeń wynika, że: Y 2 = i=1 R T R=I,czyli i=1 n Y i 2 =X 2 = i=1 Jest to tzw. transformacja ortogonalna. Obliczmy wyznacznik macierzy transformacji: 11 r 12... r 1 n r D= r 21 r 22... r 2 n D r n1 r n2... r nn czyli Jakobian J=± 1, zaś x=r T y. Każdą transformację liniową Y 1 =r 11 X 1 +r 12 X 2 +...+r 1n X n można n rozszerzyć do ortogonalnej przez konstrukcję dodatkowych n funkcji Y 2,..., Y n z warunkiem i=1 r 2 1i =1 n r ik r il = kl X i 2 0... 0 = 1 1 2 0 1... 0 0 0... 18