Komputerowa Analiza Danych Doświadczalnych dr inż. Adam Kisiel kisiel@if.pw.edu.pl pokój 117b (12b) 1
Materiały do wykładu Transparencje do wykładów: http://www.if.pw.edu.pl/~kisiel/kadd/kadd.html Literatura S. Brandt; Analiza danych, PWN, Warszawa (1998) W.T.Eadie, D.Drijard, F.E.James, M.Ross, B.Sadoulet; Metody statystyczne w fizyce doswiadczalnej, PWN, Warszawa (1989) Roman Nowak, Statystyka dla fizyków, PWN, Warszawa (2002) A.Plucińska, E.Pluciński; Elementy probabilistyki, PWN, Warszawa (1979) Programy biblioteki CERN : CERNLIB, HBOOK, PAW, ROOT A.G.Frodesen, O.Skjeggestad, Probability and statistics in particle physics, UNIVERSITETSFORLAGET, Bergen-Oslo-Tromso (1979) John, R. Taylor, Wstęp do analizy błędu pomiarowego, PWN, Warszawa (1999) Używamy biblioteki ROOT i języka C++ Zaliczenie poprzez sumę wyników z laboratorium (cały semestr) + 2 kolokwia (programistyczne) 2
Pomiary w eksperymentach fizycznych Pomiar Niepewnosć pomiaru Niepewności systematyczne Metoda różniczki zupełnej Metoda różniczki logarytmicznej Niepewności przypadkowe (statystyczne) Rozkład Gaussa Własności Estymatory Poprawny zapis wielkości mierzonej 3
Pomiar Pomiar jest podstawowym źródłem informacji o świecie w którym żyjemy. Proces pomiaru polega na porównaniu pewnej wielkości ze wzorcem, przyjętym za jednostkę. Każdy pomiar jest przeprowadzony z pewną dokładnością. Prawidłowo wykonany pomiar zawiera: Rodzaj jednostki w jakiej wyrażona jest mierzona wielkość Wartość liczbową, czyli wynik pomiaru w przyjętych jednostkach Niepewność pomiarową uzyskanej wartości liczbowej 4
Niepewność pomiaru Niepewność pomiaru nazywana jest też błędem pomiaru, choć to niepoprawne określenie. Poprawnie przeprowadzony pomiar nie zawiera błędów, natomiast jego dokładność jest zawsze skończona i musi być podana. Błędy i niepewności dzielimy na: Błędy grube wynikające z pomyłki lub nagłej zmiany warunków pomiaru. Należy je eliminować. Błędy i niepewności systematyczne wynikające z niedoskonałości przyrządów pomiarowych, własności obiektu lub metody pomiarowej. Należy je korygować. Niepewności przypadkowe - należy je oszacować 5
Niepewności systematyczne Gdy podczas kilkukrtonych pomiarów tej samej wielkości otrzymujemy ten sam wynik, mamy przewagę niepewności systematycznych nad przypadkowymi (statystycznymi). Zakładamy, że niepewność odczytu wartości mierzonej oraz zastosowanego przyrządu sumują się. Otrzymujemy w ten sposób niepewność maksymalną. 6
Metoda różniczki zupełnej Często wyznaczamy pewną wielkość jako funkcję pewnych wielkości mierzonych bezpośrednio. Aby oszacować niepewność takiego pomiaru stosujemy metodę różniczki zupełnej. Oceniamy niepewność y, będącej funkcją zmiennych x: y=f(x 1, x 2,..., x N ). Rozwijamy funkcję y w szereg Taylora wokół wartości wyniku pomiaru otrzymujemy: y= y 1 1 x x y 2 x 2... x y x x n n widać, że niepewności zawsze sumujemy. Uzyskujemy niepewność maksymalną 7
Przykład Dokonujemy pomiaru objętości V walca poprzez pomiar jego średnicy d i wysokości h V = f d, h= r 2 h=d 2 /4h=/ 4d 2 h Stosujemy metodę różniczki zupełnej y V x 1 d = 2 4 h d / d= 2 h d y V x 2 h = 2 4 h d / d= 4 d 2 Co daje następujące niepewności: d =20±0.1 mm h=10±0.1mm V =/ 4 20 2 mm 2 10 mm=3141mm 3 V =/220 mm 10 mm 0.1mm / 420 2 mm 2 0.1mm=63mm 3 V /V =0.02 d =20±0.1 mm h=100±0.1mm V =/ 4 20 2 mm 2 100 mm=31420 mm 3 V =/220 mm 100 mm 0.1 mm / 420 2 mm 2 0.1mm=350 mm 3 V /V =0.011 8
Metoda różniczki logarytmicznej Gdy zależność ma postać iloczynowo-ilorazową, y=a x 1 n 1 x2 n 2 można zastosować prostszą metodę: ln y=ln an 1 x 1 n 2 x 2 Różniczkujemy logarytm i otrzymujemy: y y = n 1 x 1 x 1 n 2 x 2 x 2 czyli wzór na niepewność względną. Porównujemy z poprzednim przykładem: a=/4 x 1 =d n 1 =2 x 2 =h n 2 =1 Przypadek 1: Przypadek 2: V V V V =2 0.1 20 =2 0.1 20 1 0.1 10 =0.010.01=0.02 V /V =2 % 0.1 1 =0.010.001=0.011 V /V =1.1% 100 9
Niepewności przypadkowe Gdy przy powtarzaniu pomiaru otrzymujemy zawsze inne wyniki, oznacza to, że ważne są niepewności przypadkowe W takim przypadku zakładamy, że końcowa niepewność składa się z sumy wielu małych przyczynków, tzw. błędów elementarnych. Wyniki pomiarów są wtedy rozrzucone wokół wartości prawdziwej, której nie jesteśmy w stanie poznać, ale możemy obliczyć jej przybliżoną wartość. Stopień rozrzucenia pomiarów wokół wartości średniej interpretujemy jako niepewność pomiaru 10
Rozkład Gaussa Powyższe postulaty prowadzą do wniosku, że pomiary układają się na krzywej Gaussa, o wartości średniej a i odchyleniu standardowym σ f x= 1 2 exp x a2 2 2 11
Własności rozkładu Gaussa Rozkład Gaussa (nazywany też krzywą dzwonową) ma charakterystyczną szerokość, jest symetryczny względem wartości średniej Całka z rozkładu w przedziale a+σ,a-σ daje około 68%, dla 3σ to ponad 99% Dystrybuanta Gęstość prawdopodobieństwa 12
Estymatory parametrów Aby określić wartości parametrów danego rozkładu Gaussa, korzystamy z estymatorów. Wartość średnia a jest przybliżana przez Niepewność pojedynczego pomiaru (czyli estymator szerokości rozkładu σ) Niepewność wartości średniej s x= n x= 1 n i=1 x i s x= 1 n 1 n x x i=1 i 2 1 nn 1 n i=1 x x i 2 = s x n 13
Łączenie niepewności Należy pamiętać, że niepewności wyznaczone przy pomocy estymatorów rozkładu Gaussa nie są niepewnościami maksymalnymi, gdyż tylko około 68% wyników mieści się w ich granicach Gdy wyznaczamy niepewność wyznacznia wielkości, będącej funkcją wielkości mierzonych, w których pomiarze dominują błędy przypadkowe, stosujemy tzw. dodawanie błędów w kwadracie : s y = y x 1 x 1, x 22 s 2 x1 y x x 1, x 22 2 2 s x2 14
Zapis wyników pomiarów Po wyznaczeniu mierzonej wielkości oraz jej niepewności należy poprawie zapisać wynik Niepewność podajemy z dokładnością nie większą niż dwie cyfry znaczące. Wynik pomiaru podajemy z taką dokładnością, aby ostatnia cyfra znacząca odpowiadała ostatniej cyfrze znaczącej niepewności Wynik zaookrąglamy w dół dla pierwszej cyfry nieznaczącej 0-4 i w górę dla 5-9 V =/4 20 2 mm 2 10 mm=3141.59 mm 3 V =/220 mm 10 mm 0.1 mm/ 420 2 mm 2 0.1 mm=62.8308 mm 3 Przedstawiamy jako: V=3420 ± 63 mm 3 15
Niezależność. Łączne rozkłady brzegowe Podobnie jak w przypadku dwuwymiarowym, dla niezależności zmiennych musi być spełniony warunek: f x 1,x 2,...,x n =g 1 x 1 g 2 x 2... g n x n Definiujemy też łączną gęstość brzegową dla dowolnych l spośród n zmiennych: g x 1,x 2,...,x l =... f x 1,x 2,...,x n dx l+1...dx n Zmienne X 1,..., X l są niezależne, gdy: g x 1,x 2,...,x l =g 1 x 1 g 2 x 2... g l x l 16
Momenty. Wariancje. Momentami rzędu l 1, l 2,..., l n nazywamy wartości oczekiwane funkcji: i oznaczamy je symbolami W szczególności 100...0 =E { X 1 }=x 1 Momenty względem wartości średnich to: Co pozwala na zapis wariancji: μ 200... 0 =E { X 1 x 1 }=σ 2 X 1 H=x 1 l 1 x 2 l 2... x n l n λ l 1 l 2...l n =E { X 1 l 1 X 2 l 2... X n l n } 010...0 =E { X 2 }=x 2... μ l 1 l 2...l n =E { X 1 x 1 l 1 X 2 x 2 l 2... X n x n l n} μ 020...0 =E { X 2 x 2 }=σ 2 X 2... Oraz kowariancji między zmiennymi i i j: c ij =cov X i,x j =E { X i x i X j x j } 000...1 =E { X n }=x n 17
Notacja macierzowa Naturalną reprezentacją dla n zmiennych x 1, x 2,..., x n jest wektor x w przestrzeni n-wymiarowej. Możemy przedstawić wszelkie wielkości w notacji wektorowej: F=F x f x = n x 1 x 2... x n F x - dystrybuanta - gęstość prawdopodobieństwa 1 E {H x }= H x f x d x E X = x x T = x 1,x 2,...,x n x= x 1 x 2 x n - wartość oczekiwana - wartość średnia - notacja macierzowa 18
Macierz kowariancji Szczególne znaczenie dla dalszych rozważań ma tzw. macierz kowariancji 11 c 12... c 1n c C=c 21 c 22... c 2n c n1 c n2... c nn gdzie c ij to kowariancja zmiennych i i j. Elementy diagonalne to wariancje c ii =σ 2 (x i ) Macierz jest symetryczna: c ij = c ji W notacji macierzowej możemy napisać: C=E { X x X x T } 19
Wzory μ 11 =E [ x x y y ]=cov x,y H x,y =ax+by ρ x,y = cov x,y σ x σ y μ 20 =E [ X x 2 ] =σ 2 x μ 02 =E [ Y y 2 ]=σ 2 y λ 10 =E x =x λ 01 =E y =y μ lm =E [ x λ 10 l y λ 01 m ] σ 2 [ H X,Y ] =E {[ H X,Y E H X,Y ] 2 } σ 2 ax+by =a 2 σ 2 x +b 2 σ 2 y 2 ab cov x,y 20