KADD Metoda najmniejszych kwadratów funkcje nieliniowe



Podobne dokumenty
Komputerowa Analiza Danych Doświadczalnych

KADD Minimalizacja funkcji

KADD Minimalizacja funkcji

Metoda największej wiarygodności

Estymacja parametrów, przedziały ufności etc

Weryfikacja hipotez statystycznych

Następnie przypominamy (dla części studentów wprowadzamy) podstawowe pojęcia opisujące funkcje na poziomie rysunków i objaśnień.

WYKŁAD 8 ANALIZA REGRESJI

Ważne rozkłady i twierdzenia c.d.

Estymacja parametrów, przedziały ufności etc

7. Estymacja parametrów w modelu normalnym( ) Pojęcie losowej próby prostej

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

Komputerowa Analiza Danych Doświadczalnych

Logarytmy. Funkcje logarytmiczna i wykładnicza. Równania i nierówności wykładnicze i logarytmiczne.

Wprowadzenie do teorii ekonometrii. Wykład 1 Warunkowa wartość oczekiwana i odwzorowanie liniowe

1 Metody rozwiązywania równań nieliniowych. Postawienie problemu

Układy równań liniowych. Krzysztof Patan

Regresja wieloraka Ogólny problem obliczeniowy: dopasowanie linii prostej do zbioru punktów. Najprostszy przypadek - jedna zmienna zależna i jedna

Optymalizacja ciągła

Estymacja wektora stanu w prostym układzie elektroenergetycznym

Estymacja parametrów w modelu normalnym

5. Rozwiązywanie układów równań liniowych

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

RÓŻNICZKOWANIE FUNKCJI WIELU ZMIENNYCH: rachunek pochodnych dla funkcji wektorowych. Pochodne cząstkowe funkcji rzeczywistej wielu zmiennych

Komputerowa Analiza Danych Doświadczalnych

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 7 i 8 - Efektywność estymatorów, przedziały ufności

Aproksymacja. funkcji: ,a 2. ,...,a m. - są funkcjami bazowymi m+1 wymiarowej podprzestrzeni liniowej X m+1

Oznacza to, że chcemy znaleźć minimum, a właściwie wartość najmniejszą funkcji

Rozwiązywanie układów równań liniowych

Rozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów.

WYMAGANIA EDUKACYJNE Z MATEMATYKI DLA KLASY 7SP. V. Obliczenia procentowe. Uczeń: 1) przedstawia część wielkości jako procent tej wielkości;

Metody numeryczne I Równania nieliniowe

Rozkłady wielu zmiennych

Wstęp do metod numerycznych 9a. Układy równań algebraicznych. P. F. Góra

MATEMATYKA Z PLUSEM DLA KLASY VII W KONTEKŚCIE WYMAGAŃ PODSTAWY PROGRAMOWEJ. programowej dla klas IV-VI. programowej dla klas IV-VI.

Wykład z Technologii Informacyjnych. Piotr Mika

Zakładamy, że są niezależnymi zmiennymi podlegającymi (dowolnemu) rozkładowi o skończonej wartości oczekiwanej i wariancji.

Optymalizacja ciągła

IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych,

Metody iteracyjne rozwiązywania układów równań liniowych (5.3) Normy wektorów i macierzy (5.3.1) Niech. x i. i =1

Komputerowa analiza danych doświadczalnych

Twierdzenia Rolle'a i Lagrange'a

Metody numeryczne Wykład 4

Komputerowa analiza danych doświadczalnych

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16

POD- I NADOKREŚLONE UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

Wykład Matematyka A, I rok, egzamin ustny w sem. letnim r. ak. 2002/2003. Każdy zdający losuje jedno pytanie teoretyczne i jedno praktyczne.

Wstęp do metod numerycznych Eliminacja Gaussa Równania macierzowe. P. F. Góra

Podstawy opracowania wyników pomiarów z elementami analizy niepewności pomiarowych

II. FUNKCJE WIELU ZMIENNYCH

Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona) f(x) = 0, gdzie. dla n=2 np.

Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów

MATEMATYKA WYKAZ UMIEJĘTNOŚCI WYMAGANYCH NA POSZCZEGÓLNE OCENY DLA KLASY DRUGIEJ

Ruch jednostajnie zmienny prostoliniowy

Rozwiązywanie równań nieliniowych

FUNKCJE I RÓWNANIA KWADRATOWE. Lekcja 78. Pojęcie i wykres funkcji kwadratowej str

Komputerowa Analiza Danych Doświadczalnych

Przykładowe rozwiązania zadań. Próbnej Matury 2014 z matematyki na poziomie rozszerzonym

Rozkład normalny, niepewność standardowa typu A

5. Analiza dyskryminacyjna: FLD, LDA, QDA

Tydzień nr 9-10 (16 maja - 29 maja), Równania różniczkowe, wartości własne, funkcja wykładnicza od operatora - Matematyka II 2010/2011L

SIMR 2016/2017, Analiza 2, wykład 1, Przestrzeń wektorowa

ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH

Co to jest wektor? Jest to obiekt posiadający: moduł (długość), kierunek wraz ze zwrotem.

1. PODSTAWY TEORETYCZNE

1. Liczby wymierne. x dla x 0 (wartością bezwzględną liczby nieujemnej jest ta sama liczba)

2.1. Postać algebraiczna liczb zespolonych Postać trygonometryczna liczb zespolonych... 26

Ekonometria. Wprowadzenie do modelowania ekonometrycznego Estymator KMNK. Jakub Mućk. Katedra Ekonomii Ilościowej

Stanisław Cichocki. Natalia Nehrebecka. Wykład 9

Równania i nierówności wykładnicze i logarytmiczne

Zadanie 1 Zakładając liniową relację między wydatkami na obuwie a dochodem oszacować MNK parametry modelu: y t. X 1 t. Tabela 1.

Funkcje dwóch zmiennych

Wstęp do metod numerycznych Rozwiazywanie równań algebraicznych. P. F. Góra

3. Macierze i Układy Równań Liniowych

3. FUNKCJA LINIOWA. gdzie ; ół,.

Analiza niepewności pomiarów

Modele zapisane w przestrzeni stanów

INTERPOLACJA I APROKSYMACJA FUNKCJI

Pakiet edukacyjny do nauki przedmiotów ścisłych i kształtowania postaw przedsiębiorczych

SPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization

1 Równania nieliniowe

ROZWIĄZYWANIE UKŁADÓW RÓWNAŃ NIELINIOWYCH PRZY POMOCY DODATKU SOLVER PROGRAMU MICROSOFT EXCEL. sin x2 (1)

Algebra liniowa z geometrią

Wykład 3 Hipotezy statystyczne

Metoda największej wiarogodności

Statystyka opisowa. Wykład V. Regresja liniowa wieloraka

Natalia Neherbecka. 11 czerwca 2010

Definicja pochodnej cząstkowej

Zagadnienia brzegowe dla równań eliptycznych

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Optymalizacja ciągła

Elementy statystyki wielowymiarowej

Matematyka ubezpieczeń majątkowych r.

Metoda najmniejszych kwadratów

Rozkłady statystyk z próby

; B = Wykonaj poniższe obliczenia: Mnożenia, transpozycje etc wykonuję programem i przepisuję wyniki. Mam nadzieję, że umiesz mnożyć macierze...

Wprowadzenie Metoda bisekcji Metoda regula falsi Metoda siecznych Metoda stycznych RÓWNANIA NIELINIOWE

ODRZUCANIE WYNIKÓW POJEDYNCZYCH POMIARÓW

Transkrypt:

Metoda najmn. kwadr. - funkcje nieliniowe Metoda najmniejszych kwadratów Funkcje nieliniowe Procedura z redukcją kroku iteracji Przykłady zastosowań Dopasowanie funkcji wykładniczej Dopasowanie funkcji Gaussa Własności metody Test χ2 Obszary ufności i błędy niesymetryczne Pomiary zależne Metoda elementów Metoda mnożników Lagrange'a 1

Przypadek nieliniowy W ogólności gdy zależności nie są liniowe, piszemy f j x,= j h j x=0, czyli f x,=0 Sprowadzamy go do przypadku liniowego poprzez rozwinięcie w szereg Taylora i wzięcie tylko wyrazów liniowych. Punkt x 0 =(x 10, x 20,..., x r0 ) wokół którego dokonujemy rozwinięcia musi być w praktyce zbliżony do oczekiwanego minimum. =x x 0 = x1 x10 x 2 x 20 f j x,= f j x 0, f j x 1 x 0 x 1 x 10 f j x r x 0 x r x r0 x r x r0 a jl= f j x l x 0 c j = f j x 0, y=y j h j x 0 2

Przypadek nieliniowy iteracje Dalej postępujemy analogicznie do p. liniowego: f j x 0, = f j x 0, y = f j x 0, y, i mamy warunek minimalizacyjny: M=cA T G y ca=min Rozwiązujac go otrzymujemy wynik: = A' c' Jest to jednak tylko kolejne przybliżenie. Bierzemy x 1 =x 0 jako kolejny punkt, wokół którego dokonujemy rozwinięcia i procedurę powtarzamy. Procedura ta jest usprawiedliwiona tylko, gdy zależność jest dobrze przybliżana przez pierwsze pochodne w okolicy punktu x i ±Δx i. Δx i wyznaczamy z macierzy: f =Ac =0, =Ac G x = A T G y A = A' T A' 3

Omówienie przypadku nieliniowego Procedura wymaga możliwości podania pochodnej po każdym z parametrów Różniczkowanie można w ogólności wykonać numerycznie, jednak wiąże się to z komplikacjami programistycznymi i wydłużeniem obliczeń. Funkcja M nie jest nie jest prostą formą kwadratową nieznanych parametrów, stąd minimalizacja musi następować iteracyjnie. Zbieżność procedury jest także zależna od wyboru wielkości początkowej. Procedurę kończymy, gdy wielkość M nie zmniejsza się w kolejnych krokach. 4

Procedura z redukcją kroku iteracji Często po i-tym kroku nie jest spełnione: M x i =M x i M x i Wtedy rozważamy wyrażenie: M x i s, gdzie 0 s 1 Otrzymujemy zmodyfikowany wzór: M=cs A T G y cs A =c's A' 2 który różniczkujemy ze względu na s: M '=2 c's A' T A' =2s T A' T A' I otrzymujemy, że M'(s=0)<0 dla dodatnio określonej macierzy A' T A', czyli krzywizny funkcji M. W okolicy minimum to powinno być zawsze prawdziwe. M jest f. ciągłą, więc istnieje λ które: M ' s0, 0 s 5

Implementacja redukcji kroku Czyli w przypadku, gdy nie jest spełniona nierówność: M x i =M x i M x i wybieramy dowolną liczbę s taką, że 0<s<1 i sprawdzamy, czy zachodzi: M x i s M x i Jeśli tak, to przyjmujemy, że x i =x i s Jeżeli nie, to ponownie przeprowadzamy całą procedurę, tzn. tym razem czynnik przez który mnożymy wynosi s 2, potem ewentualnie s 3 itd. 6

Dopasowanie eksponenty Próbujemy dopasować do danych funkcję wykładniczą z ujemnym wykładnikiem: h j x=x 1 exp x 2 t j czyli poszukiwane parametry to x 1 i x 2. Dalej: f j = j h j x Elementy macierzy A liczymy analitycznie: a j1 = f = exp x 02 t j x 1 x 0 a j2 = f = x 01 exp x 02 t j t j =x 01 t j exp x 02 t j x 2 x 0 Zamiast wektora x używamy =x x 0 a Dalej procedura jest analogiczna do przypadku funkcji liniowej c j =y j h j x 0 7

Eksponenta rysunek 8

Analiza dopasowania Korzystając z macierzy (A' T A') -1 rysujemy elipsę kowariancji na tle mapy χ 2 Podobnie możemy graficznie przedstawić kolejny kroki procedury dopasowania 9

Dopasowanie Gaussa W podobny sposób możemy dopasować krzywą Gaussa. Formuła ma trzy parametry: 1 h j x=x 1 2 x 3 exp t j x 2 2 2 2 x 3 Pochodne znów liczymy analitycznie: a j1 = a j2 = a j3 = f = 1 x 1 x 0 2 x 3 exp t j x 02 2 2 2 x = h x j 0/ x 01 03 f 1 = x 01 x 2 x 0 2 x 03 exp t j x 02 2 2t x 02 2 2 x 03 2 x = h x t x02 2 j 0 2 03 x 03 f = x 01 x exp t x j 02 2 2 2 2 x 0 2 x 03 2 x 03 x 01 exp t x j 02 2 2 2 2 x 03 2 x 03 t x 02 2 = h x j 0 h 3 j x 0 t x 2 02 3 x 03 x 03 x 03 10

Dopasowanie Gaussa kroki 11

Dopasowanie Gaussa kowariancja Rysujemy rzut elipsoidy kowariancji na płaszczyznę (x 2, x 3 ). Elipsoida ma 3 wymiary. Widizmy poszczególne kroki dopasowania na tle mapy χ 2. 12

Test χ 2 a m. najmniejszych kwadratów Wyniki uzyskane metodą największej wiarygodności, z której wynika metoda najmniejszych kwadratów, mają następujące własności: Rozwiązanie x jest asymptotycznie nieobciążone E x i =x i, i=1, 2,,r Jest ono estymatorem o minimalnej wariancji 2 x i =E { x i x i 2 }=min Wielkość M ma rozkład χ2 o n-r st. swobody Jednak jeżeli rozkład błędów nie jest znany (a więc nie jest Gaussem) to rozwiązanie uzyskane metodą najmniejszych kwadratów mają mniej silne własności 13

Nieznany rozkład błędów Gdy nie znamy rozkładu błędów ε j, to x : Jest nieobciążone Ze wszystkich estymatorów x będących liniowymi kombinacjami y, x ma najmniejszą wariancję Wartość oczekiwana wielkości M wynosi E {M }=E { T G y }=n r czyli odpowiada wielkości oczekiwanej rozkładu χ 2 o liczbie stopni swobody n-r. Wielkość M jest często nazywana χ 2 i służy do oceny jakości dopasowania, choć w ogólności nie musi pochodzić z rozkładu χ 2. Liczba f=n-r jest liczbą stopni swobody dopasowania. 14

Analiza wielkości M Gdy błędy mają rozkład normalny, wielkość M utożsamiamy z χ 2 i stosujemy testy wiarygodności Zbyt duże M może oznaczać, że: Założenie, że dane są opisane przez f(x,η) jest błędne (postać funkcyjna lub niektóre parametry) M= T 2 G y 1 n r Ograniczenie rozwinięcia w szereg Taylora f(x,η) do pierwszego wyrazu nie wystarcza Źle dobrano punkt początkowy dopasowania x0 Macierz kowariancji wielkości mierzalnych Cy jest nieprawdziwa Gdy liczymy M dla wielu różnych zestawów danych, możemy sprawdzić jego zgodność z rozkładem χ 2 15

Obszar ufności Przypomnienie elipsoida ufności, to krzywa spełniająca równanie: g x= x x T C x x x=const Liczymy różnicę między wartością funkcji M w punkcie x i w minimum dopasowania x : M x M x= x x T A T G y A x x= x x T C x x x czyli elipsoida ufności odpowiada hiperpowierzchni na której M ma stałą wartość. W szczególności elipsoida kowariancji odpowiada krzywej: M x M x=1 M x=m x1 Elipsoida ufności odpowiadająca prawdopodobieństwu W jest hiperpowierzchnią: M x=m xg, gdzie g= W 2 f, gdzie f =n r 16

Obszar ufności równania nieliniowe Rozważania o obszarze ufności są ściśle prawdziwe dla równań liniowych i przybliżeniu dla równań nieliniowych. To przybliżenie jest dobre gdy funkcja jest prawie liniowa, lub gdy zmiany parametrów (czyli ich błędy) są małe. Gdy błędy są duże elipsoida kowariancji ma tę samą interpretację jako granica obszaru ufności, jednak błędy przestają być symetryczne. Zwróćmy jeszcze uwagę na różnicę w definicjach: M= T G y = y h x 0 A T 2 G y y h x 0 A 1 n r M x M x= x x T A T G y A x x= x x T C 2 x x x 1 n r Obie wartości porównujemy z tymi samymi kwantylami, jednak są to zupełnie różne zmienne! 17

Wyznaczenie błędów niesymetrycznych Gdy elipsoida kowariancji ma skomplikowany kształt, mamy błędy niesymetryczne: x i = x i x i x i = x i x i czyli wartości dla których pionowe i poziome linie są styczne do tej elipsoidy. Formalnie zapisujemy to: min {M x ; xi=x i± }=M xg, lub min {M x ; xi=x i± } M xg=0 3,8cm 2,15cm 2,49cm 3,42cm 18

Pomiary zależne Pomiary nie muszą być całkowicie niezależne. Np. mierząc 3 kąty w trójkącie musimy uzyskać sumę równą 180. Szukamy estymatorów wielkości η j : y j = j j, j=1, 2,, n E { j }=0 E { j 2 }= j 2 Oprócz tego mamy też równania więzów: f k =0, k=1, 2,,q Najprostszy przypadek to równania liniowe: lub w notacji macierzowej b 10 b 11 1 b 12 2 b 1 n n =0 b q0 b q1 1 b q2 2 b qn n =0 B b 0 =0 19

Metoda elementów Rozwiązujemy q równań więzów aby wyeliminować z równań q z n wielkości η. Pozostałe n-q wielkości α i (i=1,2,...,n-q) nazywamy elementami. Mogą to być pierwotne pomiary n lub ich kombinacje liniowe: j = f j0 f j1 1 f j2 2 f j, n q n q, j=1, 2,, n lub =F f 0 Rozwiązanie znajdujemy podobnie jak wcześniej: =F T G y F F T G y y f 0 Macierz kowariancji wynosi wtedy: G =F T G y F zaś poprawione wyniki pomiarów i ich macierz kowariancji wynoszą: =F f 0 =F F T G y F F T G y y f 0 f 0 G =F G F T 20

Metoda mnożników Lagrange'a Metoda elementów wymaga wyboru zmiennych α. Metoda mnożników Lagrange'a podchodzi inaczej do problemu. Przepiszmy równanie więzów: B y B b 0 =0 Wprowadzamy wektor c i otrzymujemy równanie: c=b yb 0 c B =0 Wprowadzamy wektor mnożników Lagrange'a: T = 1 2 q i z jego pomocą rozszerzamy funkcję M do L: L=M2 T c B = T G y 2 T c B Jest to funkcja Lagrange'a. Teraz rozwiązujemy problem minimalizacji M przy jednoczesnym spełnieniu równań więzów. 21

Mnożniki Lagrange'a rozwiązanie Pochodna zupełna funkcji L musi znikać: dl=2 T G y d 2 T B d =0 T G y T B=0 Przekształcając otrzymujemy rozwiązanie na μ: T G y = T B =G y B T c B G y B T =0 =B G y B T c I możemy wyliczyć estymatory błędów pomiarowych =G y B T B G y B T c oraz najlepszy estymator dla wektora η: = y = y G y B T B G y B T c I ostatecznie piszemy macierze kowariancji: G =B G y B T G B G =G y G y B T G B B G y 22