Rozkłady wielu zmiennych Uogólnienie pojęć na rozkład wielu zmiennych Dystrybuanta, gęstość prawdopodobieństwa, rozkład brzegowy, wartości średnie i odchylenia standardowe, momenty Notacja macierzowa Macierz kowariancji Zamiana zmiennych Transformacja gęstości prawdopodobieństwa Transformacje liniowe Propagacja błędów Transformacje ortogonalne 1
Dystrybuanta Rozkłady wielu zmiennych F x 1,...,x n =P X 1 <x 1,X 2 <x 2,...,X n <x n Gęstość prawdopodobieństwa f x 1,...,x n = Gęstość rokładu brzegowego to gęstość prawdopodobieństwa zmiennej x r Podobnie mamy wartość oczekiwaną: W szczególności dla H(x)=x r n x 1 x 2... x n F x 1,...,x n g r x r =... f x 1,...,x n dx 1 dx 2... dx r 1 dx r+1... dx n E {H X 1,X 2,...,X n }=... H x 1,...,x n f x 1,...,x n dx 1 dx 2... dx n E {x r }=... x r f x 1,...,x n dx 1 dx 2... dx n = x r g r x r dx r 2
Niezależność. Łączne rozkłady brzegowe Podobnie jak w przypadku dwuwymiarowym, dla niezależności zmiennych musi być spełniony warunek: f x 1,...,x n =g 1 x 1 g 2 x 2... g n x n Definiujemy też łączną gęstość brzegową dla dowolnych l spośród n zmiennych: g x 1,...,x l =... f x 1,...,x n dx l+1... dx n Zmienne X 1,..., X l są niezależne, gdy: g x 1,...,x l =g 1 x 1 g 2 x 2... g l x l 3
Momenty. Wariancje. Momentami rzędu l 1, l 2,..., l n nazywamy wartości oczekiwane funkcji: i oznaczamy je symbolami W szczególności 100...0 =E { X 1 }= x 1 Momenty względem wartości średnich to: Co pozwala na zapis wariancji: μ 200...0 =E { X 1 x 1 }=σ 2 X 1 H=x 1 l 1 x 2 l 2... x n l n λ l 1 l 2...l n =E {X 1 l 1 X 2 l 2... X n l n } 010...0 =E { X 2 }= x 2... μ l 1 l 2...l n =E { X 1 x 1 l 1 X 2 x 2 l 2... X n x n l n} μ 020...0 =E { X 2 x 2 }=σ 2 X 2... Oraz kowariancji między zmiennymi i i j: c ij =cov X i,x j =E { X i x i X j x j } 000...1 =E { X n }= x n 4
Notacja macierzowa Naturalną reprezentacją dla n zmiennych x 1, x 2,..., x n jest wektor x w przestrzeni n-wymiarowej. Możemy przedstawić wszelkie wielkości w notacji wektorowej: F=F x f x = n x 1 x 2... x n F x - dystrybuanta - gęstość prawdopodobieństwa E {H x }= H x f x d x E X =x x T = x 1,...,x n x= x 1 x 2 x n - wartość oczekiwana - wartość średnia - notacja macierzowa 5
Macierz kowariancji Szczególne znaczenie dla dalszych rozważań ma tzw. macierz kowariancji 11 c 12... c 1n c C= c 21 c 22... c 2 n c n1 c n2... c nn gdzie c ij to kowariancja zmiennych i i j. Elementy diagonalne to wariancje c ii =σ 2 (x i ) Macierz jest symetryczna: c ij = c ji W notacji macierzowej możemy napisać: C=E { X x X x T } 6
Zamiana zmiennych Dowolna funkcja zmiennej losowej X, Y=Y(X), jest również zmienną losową. Jaka jest gęstość prawdopodobieństwa g(y), jeżeli znana jest f(x)? g(y) y f(x) 1,02cm dy dx 1,59 y=y(x) x f x dx=g y dy dy= dy dx dx dx= dx dy dy g y = dx dy f x x 7
Transformacja rozkładów Można rozważać podobny problem. Mamy zmienną losową X opisaną rozkładem jednorodnym f(x). Jaka ma być funkcja Y=Y(X), aby otrzymać zadaną g(y)? g(y) y f(x) 1 1,02cm dy y=y(x)=? dx 1,59 x f x dx=g y dy gdy f x 1 dg y g y dy=dx dx= dg y x=g y y=g 1 x y min =G 1 0, y max =G 1 1 0 1 x 8
Zamiana zmiennych, funkcja 2d Podobnie możemy dokonać zamiany zmiennych dla funkcji dwóch zmiennych (X,Y) (U,V): U =U X,Y Szukamy funkcji J: g u, v = f x, y J x, y u, v x a =x u, v y a =y u, v x b =x u, v dv x c =x u du, v x b =x u, v x v dv x c =x u, v x u du V =V X,Y y b =y u, v dv y c =y u du, v Rozwijamy w szereg Taylora: y y =y u, v b v dv y c =y u, v y u du y b d da a v(x,y)+dv c v(x,y) u(x,y)+du u(x,y) x 9
Obliczamy pole powierzchni da: x x a y a u da= 1 1 x b y b x 1 x c y c = v Jakobian y u dv J y v du x, y du dv u,v czyli szukaną funkcją jest Jakobian transformacji Dla funkcji wielu zmiennych uogólniamy: Y 1 =Y 1 X Y 2 =Y 2 X Y n =Y n X g y = J x y f x J x y = x1 y 1 x 2 y 1... x 1 y 2 x 2 y 2...... x 1 y n x 2 y n... x n y 1 x n n y 2 x n y 10
Przykład zamiany zmiennych f x, y =1/ 2 a 2, x y a Dokonujemy zamiany zmiennych: u x, y =x y v x, y =x y x u,v = 1 2 u v y u,v = 1 2 u v Obliczamy Jakobian: x u = 1 2 x v = 1 2 y u = 1 2 y v = 1 2 J x, y u,v = 1 2 1 2 1 2 1 2 = 1 2 I otrzymujemy g(u,v): g u,v = 1 2 f x, y =1/ 4 a2, u a ; v a 11
Współrzędne sferyczne f x, y =1/ R 2, x 2 y 2 R Dokonujemy zamiany zmiennych: r x, y = x 2 y 2 x, y =arctg y x I otrzymujemy g(r,φ): g r, = 1 r f x, y =1/ r R2, 0 r R ; x r, =r cos y r, =r sin Obliczamy Jakobian: x r = x r x = y r 2 y r = y r y = x r 2 J x, y u,v = x r x r 2 y r y r 2=1 r 12
Transformacje liniowe Najczęściej posługujemy się transformacjami liniowymi Y 1 =a 1 t 11 X 1 t 12 X 2... t 1 n X n Y 2 =a 2 t 21 X 1 t 22 X 2... t 2 n X n Y r =a r t r1 X 1 t r2 X 2... t rn X n Współczynniki t najwygodniej przedstawić w postaci macierzy. Wtedy: Y =T X a E {Y }= y=t x a C y =E { y y y y T } =E { T X a T x a T X a T x a T } =E {T X x X x T T T } =TE { X x X x T }T T, C y =T C x T T, 13
Propagacja błędów Załóżmy, że znamy wartości pomiaru (X) oraz ich błędy σ 2 i kowariancje. Szukamy błędów Y(X). x Dokonujemy rozwinięcia w szereg Taylora wokół wartości średnich: Y i =Y i x y i X x 1 x 1 1... y i X x= x x n x n O 2 n x= x = T Ograniczając się do wyrazów liniowych mamy transformację liniową o a=y i (x) oraz: y1 x 1 y 1 x 2... y 2 x 1 y 2 x 2... y 1 x n y 2 x n y n x 1 y n x 2... y n x n x= x 14
Prawo propagacji błędów Możemy obliczyć macierz błędów wielkości Y: C y =T C x T T, Błędy zmiennych Y zależą od całej macierzy kowariancji, a nie tylko od błedów zmiennej x. Tylko i wyłącznie, gdy zmienne X są niezależne czyli c ij =0, dla i j, czyli gdy macierz C x jest diagonalna, możemy napisać: 2 Y i = n y i j=1 x j 2 2 X j Co daje nam, po utożsamieniu σ z błędem pomiarowym, prawo propagacji błędów: y i = j=1 n y i x j 2 x j 2 15
Zamiana zmiennych - kowariancja Sprawdźmy znaczenie macierzy kowariancji. Przykład: eksperyment STAR mierzy pęd cząstki poprzez pomiar pędu poprzecznego p T (z krzywizny toru) i jego kąta azymutalnego φ. Dla cząstki o pędzie p T =1 GeV niepewność pomiaru p T jest ośmiokrotnie większa niż φ. x= p T, y= p x, p y p x = p T cos p y = p T sin p T =1 GeV = T =60 o T = p x p T p y p T 1 2 3 2 p x = cos pt sin p y sin p T cos 3 2 C pt, = 8 2 0 1 0 1 2 2 16
Obliczamy nową macierz kowariancji: C p x, p y =TC T T pt, = 1 67 4 63 3 63 3 193 Jeśli zaniedbamy wyrazy niediagonalne i dokonamy transformacji odwrotnej: = T p T p x p x = p T p p y p y x p T p y p T 2 p y p T p x p T 2 C Kowariancja px, p y= Otrzymamy następującą macierz kowariancji: C pt, =TC p x, p y T T = 1 16 646 126 3 126 3 394 1 4 67 0 0 193 17
Transformacje ortogonalne Mamy n funkcji y zależnych od n zmiennych x. Zakładamy a=0. Stąd y=rx. Żądamy, aby moduł długości wektora był niezmiennikiem transformacji Z założeń wynika, że: Y 2 = i=1 R T R=I,czyli i=1 n Y i 2 =X 2 = i=1 Jest to tzw. transformacja ortogonalna. Obliczmy wyznacznik macierzy transformacji: 11 r 12... r 1 n r D= r 21 r 22... r 2 n D r n1 r n2... r nn czyli Jakobian J=± 1, zaś x=r T y. Każdą transformację liniową Y 1 =r 11 X 1 +r 12 X 2 +...+r 1n X n można n rozszerzyć do ortogonalnej przez konstrukcję dodatkowych n funkcji Y 2,..., Y n z warunkiem i=1 r 2 1i =1 n r ik r il = kl X i 2 0... 0 = 1 1 2 0 1... 0 0 0... 18