Wstęp do metod numerycznych Aproksymacja i zagadnienie najmniejszych kwadratów

Podobne dokumenty
Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa. P. F. Góra

Wstęp do metod numerycznych Zadania numeryczne 2016/17 1

KADD Metoda najmniejszych kwadratów funkcje nieliniowe

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 4. Równania różniczkowe zwyczajne podstawy teoretyczne

Aproksymacja. funkcji: ,a 2. ,...,a m. - są funkcjami bazowymi m+1 wymiarowej podprzestrzeni liniowej X m+1

Komputerowa Analiza Danych Doświadczalnych

KADD Minimalizacja funkcji

INTERPOLACJA I APROKSYMACJA FUNKCJI

KADD Minimalizacja funkcji

Oznacza to, że chcemy znaleźć minimum, a właściwie wartość najmniejszą funkcji

Wstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych. P. F. Góra

WYKŁAD 8 ANALIZA REGRESJI

Wstęp do metod numerycznych Eliminacja Gaussa Równania macierzowe. P. F. Góra

Wstęp do metod numerycznych Faktoryzacja QR i SVD. P. F. Góra

Komputerowa analiza zagadnień różniczkowych 10. Dwupunktowe problemy brzegowe (BVP, Boundary Value Problems)

Wstęp do metod numerycznych Zagadnienia wstępne Uwarunkowanie. P. F. Góra

Wstęp do metod numerycznych Rozwiazywanie równań algebraicznych. P. F. Góra

Wstęp do metod numerycznych 9a. Układy równań algebraicznych. P. F. Góra

Analiza szeregów czasowych: 6. Liniowe modele niestacjonarne

Weryfikacja hipotez statystycznych

Matematyka stosowana i metody numeryczne

Komputerowa analiza danych doświadczalnych

Wstęp do metod numerycznych 12. Minimalizacja: funkcje wielu zmiennych. P. F. Góra

Metoda największej wiarygodności

Ważne rozkłady i twierdzenia c.d.

Komputerowa analiza danych doświadczalnych

1 Szeregi potęgowe. 1.1 Promień zbieżności szeregu potęgowego. Wydział Informatyki, KONWERSATORIUM Z MATEMATYKI, 2008/2009.

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów

IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych,

DOPASOWYWANIE KRZYWYCH

1 Funkcje dwóch zmiennych podstawowe pojęcia

1 Pochodne wyższych rzędów

Wstęp do metod numerycznych 9. Minimalizacja: funkcje jednej zmiennej. P. F. Góra

WYKŁAD 9 METODY ZMIENNEJ METRYKI

Rozkłady wielu zmiennych

METODY NUMERYCZNE. Wykład 3. Plan. Aproksymacja Interpolacja wielomianowa Przykłady. dr hab.inż. Katarzyna Zakrzewska, prof.agh. Met.Numer.

Funkcje dwóch zmiennych

Metody numeryczne I Równania nieliniowe

Zagadnienia brzegowe dla równań eliptycznych

Programowanie celowe #1

Komputerowa Analiza Danych Doświadczalnych

1 Równania nieliniowe

Wstęp do metod numerycznych 11. Minimalizacja: funkcje jednej zmiennej. P. F. Góra

Funkcje wymierne. Jerzy Rutkowski. Działania dodawania i mnożenia funkcji wymiernych określa się wzorami: g h + k l g h k.

Rozwiazywanie układów równań liniowych. Ax = b

Zaawansowane metody numeryczne

Definicje i przykłady

Optymalizacja ciągła

Wstęp do metod numerycznych 12. Minimalizacja: funkcje wielu zmiennych. P. F. Góra

Wprowadzenie Metoda bisekcji Metoda regula falsi Metoda siecznych Metoda stycznych RÓWNANIA NIELINIOWE

Optymalizacja ciągła

Prawdopodobieństwo i statystyka

Estymacja parametrów, przedziały ufności etc

ELEMENTY ANALIZY NUMERYCZNEJ ELEMENTY ANALIZY NUMERYCZNEJ. Egzamin pisemny zestaw 1 26 czerwca 2017 roku

Wstęp do metod numerycznych Zagadnienia wstępne Uwarunkowanie. P. F. Góra

Z52: Algebra liniowa Zagadnienie: Zastosowania algebry liniowej Zadanie: Operatory różniczkowania, zagadnienie brzegowe.

Zajęcia nr 1 (1h) Dwumian Newtona. Indukcja. Zajęcia nr 2 i 3 (4h) Trygonometria

II. RÓŻNICZKOWANIE I CAŁKOWANIE NUMERYCZNE Janusz Adamowski

Tydzień nr 9-10 (16 maja - 29 maja), Równania różniczkowe, wartości własne, funkcja wykładnicza od operatora - Matematyka II 2010/2011L

Wstęp do metod numerycznych 7. Interpolacja. P. F. Góra

KORELACJE I REGRESJA LINIOWA

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH

1 Pochodne wyższych rzędów

Bardzo łatwa lista powtórkowa

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16

Wstęp do metod numerycznych Zagadnienia wstępne Uwarunkowanie. P. F. Góra

Matematyka licea ogólnokształcące, technika

Metody Obliczeniowe w Nauce i Technice

STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA

Interpolacja. Marcin Orchel. Drugi przypadek szczególny to interpolacja trygonometryczna

1 Metody rozwiązywania równań nieliniowych. Postawienie problemu

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

ELEMENTY ANALIZY NUMERYCZNEJ ELEMENTY ANALIZY NUMERYCZNEJ. Egzamin pisemny zestaw 1 24 czerwca 2019 roku

Funkcje dwóch zmiennych

Prawdopodobieństwo i statystyka

Wstęp do metod numerycznych Interpolacja. P. F. Góra

Metody systemowe i decyzyjne w informatyce

Statystyka. Wykład 8. Magdalena Alama-Bućko. 10 kwietnia Magdalena Alama-Bućko Statystyka 10 kwietnia / 31

Interpolacja, aproksymacja całkowanie. Interpolacja Krzywa przechodzi przez punkty kontrolne

Egzamin z Metod Numerycznych ZSI, Egzamin, Gr. A

Rozwiązania prac domowych - Kurs Pochodnej. x 2 4. (x 2 4) 2. + kπ, gdzie k Z

przybliżeniema Definicja

Szeregi funkcyjne. Szeregi potęgowe i trygonometryczne. Katedra Matematyki Wydział Informatyki Politechnika Białostocka

Estymacja parametrów, przedziały ufności etc

Wstęp do metod numerycznych 9. Rozwiazywanie równań algebraicznych. P. F. Góra

Wykład 5. Zagadnienia omawiane na wykładzie w dniu r

Rozwiązywanie równań nieliniowych

Wstęp do metod numerycznych Algebraiczna metoda gradientów sprzężonych. P. F. Góra

Zaawansowane metody numeryczne

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa

Modele zapisane w przestrzeni stanów

Egzamin z Metod Numerycznych ZSI, Grupa: A

VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa.

n=0 (n + r)a n x n+r 1 (n + r)(n + r 1)a n x n+r 2. Wykorzystując te obliczenia otrzymujemy, że lewa strona równania (1) jest równa

Wstęp do metod numerycznych 5. Numeryczne zagadnienie własne. P. F. Góra

Obliczenia naukowe Wykład nr 6

Zawansowane modele wyborów dyskretnych

Wprowadzenie do teorii ekonometrii. Wykład 1 Warunkowa wartość oczekiwana i odwzorowanie liniowe

ANALIZA MATEMATYCZNA Z ELEMENTAMI STATYSTYKI MATEMATYCZNEJ

Transkrypt:

Wstęp do metod numerycznych Aproksymacja i zagadnienie najmniejszych kwadratów P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2011/12

Aproksymacja Termin aproksymacja występuje w dwu znaczeniach: Aproksymacja punktowa: Majac N punktów, staramy się znaleźć funcję należac a do znanej kategorii, która będzie przebiegać możliwie najbliżej tych punktów. Podkreślam, że funkcja jest znana co do swego kształtu (np. wielomian ustalonego stopnia, kombinacja funkcji trygonometrycznych, funkcja opisujaca jakiś rozkład prawdopodobieństwa itp), a tylko nieznane sa jej parametry. Aproksymacja ciagła: Majac ustalona funkcję g(x), której sposób obliczania jest trudny, skonstruować inna funkcję, która będzie w pewnym sensie bliska funkcji wyjściowej, a jednocześnie obliczeniowo prostsza. Copyright c 2011-12 P. F. Góra 12 2

I. Aproksymacja punktowa Interpolacja punktowa najczęściej kojarzy się z dopasowaniem funkcji do danych doświadczalnych. Mamy N par punktów {(x i, y i } N i=1, gdzie x i jest dokładna wartościa argumentu, y i zmierzona (lub obliczona na jakimś wcześniejszym etapie) wartościa funkcji. Skrajnym przypadkiem aproksymacji punktowej jest interpolacja funkcja przechodzi przez wszystkie punkty doświadczalne, ale jest trudna funkcja: wielomianem wysokiego stopnia, funkcja sklejana, skomplikowana funkcja wymierna, my tymczasem chcemy mieć jakaś prosta funkcję, przechodzac a dostatecznie blisko wszystkich punktów. Z teorii możemy wiedzieć, że zależność pomiędzy x a y powinna mieć charakter y = y(x), jednak zmierzone (lub obliczone) wartości nie odpowiadaja dokładnie wartościom teoretycznym, gdyż sa obarczone błędami pomiarowymi (obliczeniowymi). Copyright c 2011-12 P. F. Góra 12 3

Liniowe zagadnienie najmniejszych kwadratów Każdej zmierzonej (i obarczonej błędem) wartości y i odpowiada wartość teoretyczna ỹ i, jaka zmienna y powinna przybrać dla danej wartości zmiennej x. Przyjmujemy, że wartość teoretyczna jest kombinacja liniowa pewnych znanych funkcji: ỹ i = a 1 f 1 (x i ) + a 2 f 2 (x i ) + + a s f s (x i ) (1) Zespół wszystkich wartości teoretycznych możemy zatem przedstawić jako ỹ = Ap, (2a) Copyright c 2011-12 P. F. Góra 12 4

gdzie A = f 1 (x 1 ) f 2 (x 1 ) f 3 (x 1 ) f s (x 1 ) f 1 (x 2 ) f 2 (x 2 ) f 3 (x 2 ) f s (x 2 )............... f 1 (x n ) f 2 (x n ) f 3 (x n ) f s (x n ) p = a 1 a 2 a 3. a s R s. Rn s, (2b) (2c) Copyright c 2011-12 P. F. Góra 12 5

Przykład Do n punktów pomiarowych (x 1, y 1 ), (x 2, y 2 ),...,(x n, y n ) dopasowujemy wielomian drugiego stopnia ỹ = ax 2 + bx + c. Wartości teoretyczne możemy zapisać jako ỹ = x 2 1 x 1 1 x 2 2 x 2 1......... x 2 n x n 1 a b c. (3) Zauważmy, że dopasowywanie do danych wielomianu ustalonego stopnia (nie tylko linii prostej!) jest zagadnieniem liniowym! Copyright c 2011-12 P. F. Góra 12 6

Błędy pomiarowe Różnica pomiędzy wartościa zmierzona y i a wartościa teoretyczna ỹ i jest spowodowana błędem pomiarowym: y i ỹ i = ξ i. Przyjmujemy, że liczby ξ i, ξ i = 0, sa liczbami losowymi, pochodzacymi z rozkładu normalnego (Gaussa). Oznaczmy wektor wszystkich błędów pomiarowych przez ξ = [ξ 1, ξ 2,..., ξ n ] T R n. Dalej, przyjmijmy, że łacznie wszystkie błędy tworza n-wymiarowy rozkład Gaussa o macierzy kowariancji G: ξξ T = G, (4) gdzie oznacza średniowanie po realizacjach zmiennych losowych. Macierz G jest symetryczna i dodatnio określona. Copyright c 2011-12 P. F. Góra 12 7

Metoda najmniejszych kwadratów Twierdzenie 1. Jeżeli błędy pomiarowe pochodza z rokładu Gaussa o macierzy kowariancji G, estymator największej wiarygodności odpowiada minimum formy kwadratowej Q = 1 2 ξt G 1 ξ. (5) Zauważmy, że ponieważ G jest symetryczna i dodatnio określona, także G 1 jest symetryczna i dodatnio określona, a zatem forma kwadratowa (5) z cała pewnościa posiada minimum. Obecność odwrotności macierzy kowarianci w wyrażeniu (5) oznacza, że pomiary obarczone większym błędem daja mniejszy wkład do Q. Copyright c 2011-12 P. F. Góra 12 8

Forma kwadratowa estymatorów Q = 1 2 ξt G 1 ξ = 1 2 (y ỹ)t G 1 (y ỹ) = 1 2 = 1 2 (y Ap)T G 1 (y Ap) [ y T G 1 y (Ap) T G 1 y y T G 1 Ap + (Ap) T G 1 Ap ] = 1 2 pt A T G 1 Ap p T A T G 1 y + 1 2 yt G 1 y }{{} =const W liniowym zagadnieniu najmniejszych kwadratów minimalizowana funkcja jest forma kwadratowa w parametrach. Dzięki temu wiemy, że minimum istnieje i jest jednoznaczne. Liniowość oznacza tutaj, że funkcja teoretyczna zależy liniowo od parametrów, nie od argumentu! Copyright c 2011-12 P. F. Góra 12 9 (6)

Minimum formy kwadratowej Aby znaleźć estymator, należy znaleźć taki wektor p, że forma kwadratowa (6) przybiera najmniejsza możliwa wartość. Można to zrobić albo bezpośrednio, metoda zmiennej metryki lub gradientów sprzężonych, albo formalnie rozwiazuj ac równanie Q = 0, gdzie różniczkujemy po składowych wektora p. Otrzymujemy A T G 1 Ap = A T G 1 y (7) Tego równanie nie można uprościć pozbywajac się członu A T G 1, bo jest to macierz niekwadratowa, dla której nie da się zdefiniować odwrotności. Natomiast samo równanie (7) jest dobrze określone, gdyż macierz tego równania A T G 1 A jest symetryczna i dodatnio określona. Copyright c 2011-12 P. F. Góra 12 10

Własności wektora estymatorów Wektor p obliczamy z (7) dla takich wartości pomiarów, jakie faktycznie mamy. Tak obliczony wektor p jest wektorem estymatorów. Pamiętajmy, że pomiary sa obarczone błędami losowymi, a więc także obliczone estymatory sa, formalnie, gaussowskimi liczbami losowymi. Co można powiedzieć o tych liczbach? y = Ap + ξ, gdzie p jest zbudowany z prawdziwych, nieznanych wartości [a 1,..., a s ] T z równania (1). Widać, że wobec czego A T G 1 A(p p ) = A T G 1 ξ (8) p = p, (9) gdyż ξ = 0. Obliczone estymatory sa przybliżeniem prawdziwych wartości parametrów w sensie równania (9). Copyright c 2011-12 P. F. Góra 12 11

Macierz kowariancji estymatorów wynosi C p = (p p )(p p ) T = ( A T G 1 A ) 1 A T G 1 ξξ T G 1 A ( A T G 1 A ) 1, (10) gdzie skorzystaliśmy z symetrii macierzy G 1 i macierzy A T G 1 A. Korzystajac z równania (4) otrzymujemy C p = ( A T G 1 A ) 1 A T G 1 {}} I { ( G }{{} G 1 A A T G 1 A ) 1, ξξ T = ( A T G 1 A ) 1 A T G 1 A ( A T G 1 A ) 1 } {{ } I = ( A T G 1 A ) 1. (11) Copyright c 2011-12 P. F. Góra 12 12

Nadokreślony układ równań Zamiast minimalizować formę kwadratowa (5), moglibyśmy zażadać, aby równanie y i = ỹ i było ściśle spełnione dla wszystkich punktów pomiarowych (x i, y i ). Wobec równania (2a) oznacza to, że chcemy rozwiazać układ równan liniowych Ap = y. (12) Jest to nadokreślony układ równań (s niewiadomych i n, n > s, równań) i, poza wyjat- kowymi przypadkami, nie ma on ścisłego rozwiazania. Jak jednak wiemy z poprzednich wykładów, metoda SVD (Singular Value Decomposition) dostarcza przybliżonego rozwia- zania takich układów, optymalnego w sensie najmniejszych kwadratów. Jeżeli macierz kowariancji G jest proporcjonalna do macierzy jednostkowej, G = σ 2 I, co odpowiada pomiarom nieskorelowanym i obarczonym takimi samymi błędami i w praktyce zdarza się bardzo często, przybliżone rozwiazanie (12) uzyskane za pomoca SVD jest (w arytmetyce dokładnej) tym samym rozwiazaniem, które otrzymalibyśmy minimalizujac formę kwadratowa (6) lub rozwiazuj ac układ równań (7). Gdybyśmy, zamiast (12), zażadali spełnienia układu równań G 1 Ap = G 1 y, (13) również nadokreślonego, ale uwzględniajacego różne wagi poszczególnych pomiarów, rozwiazanie optymalne w sensie SVD byłoby równoważne rozwiazaniu równania (7). Copyright c 2011-12 P. F. Góra 12 13

Pomiary nieskorelowane Na ogół (i na ogół z dobrym uzasadnieniem) zakłada się, że pomiary sa niezależne, a ich wyniki nieskorelowane. Wówczas elementy pozadiagonalne macierzy G znikaja, G = diag{σ1 2, σ2 2,..., σ2 n}. Minimalizowana forma kwadratowa (5) upraszcza się do Q = n i=1 (a 1 f 1 (x i ) + a 2 f 2 (x i ) + + a s f s (x i ) y i ) 2 σ 2 i. (14) W dość częstym przypadku pomiarów nieskorelowanych i identycznych i = 1,..., n: σi 2 = σ 2, a zatem G = σ 2 I. W tym wypadku estymatory nie zależa od macierzy kowariancji pomiarów, gdyż macierz G wypada z równania (7), natomiast macierz kowariancji estymatorów upraszcza się do C p = σ 2 ( A T A ) 1. (15) Copyright c 2011-12 P. F. Góra 12 14

Przykład 10 9 8 Macierz kowariancji: 0.002473-0.000734-0.000734 0.001144 7 6 Best fit: y(x) = 2.005676*exp(-x) + 0.999217*exp(2x) 5 4 3 2 1-1.0-0.5 0.0 0.5 1.0 Do zaznaczonych punktów dopasowano krzywa y = ae x + be 2x za pomoca liniowej metody najmniejszych kwadratów. Przyjęto, że pomiary sa identyczne i nieskorelowane, o stałym błędzie σ 2 = 0.305226. Copyright c 2011-12 P. F. Góra 12 15

W powyższym przykładzie współczynniki korelacji estymatorów sa bardzo małe, gdyż, efektywnie, obie funkcje dopasowuja się do innych zakresów danych (funkcja e 2x jest mała dla x < 0, funkcja e x jest mała dla x > 0). Jeżeli rózne funkcje bazowe konkuruja o te same dane, współczynnik korelacji jest, co do wartości bezwzględnej, większy. Ujemny współczynnik korelacji pomiędzy estymatorami oznacza, że prawie tak samo dobre dopasowanie można uzyskać zmniejszajac jeden, zwiększajac zaś drugi. Copyright c 2011-12 P. F. Góra 12 16

Przykład 14 12 10 Best fit: y(x)=1.872705*exp(x) + 1.056041*exp(2x) 8 6 Macierz kowariancji: 4 0.070341-0.033181-0.033181 0.016572 2 0 0.0 0.2 0.4 0.6 0.8 1.0 Do zaznaczonych punktów dopasowano krzywa y = ae x + be 2x za pomoca liniowej metody najmniejszych kwadratów. Przyjęto, że pomiary sa identyczne i nieskorelowane, o stałym błędzie σ 2 = 0.8152. Copyright c 2011-12 P. F. Góra 12 17

Kryterium Akaike Czasami nie wiadomo ile funkcji bazowych f i (x) nalezy uwzględnić w dopasowaniu, czyli we wzorze (1). W szczególności, jeśli do danych doświadczalnych dopasowujemy wielomian, niekiedy jeśli nie mamy dobrego modelu teoretycznego nie wiemy, jaki stopień wielomianu wybrać. Jest jasne, że im wyższy stopień wielomianu, tym dopasowanie będzie lepsze (wielomian interpolacyjny będzie przechodził dokładnie przez wszystkie punkty!), ale zawsze staramy się dobrać model o jak najmniejszej liczbie parametrów. Jak zbalansować jak najlepsze dopasowanie z postulatem jak najmniejszej liczby parametrów? Copyright c 2011-12 P. F. Góra 12 18

Hirotugu Akaike zaproponował kryterium, które nagradza za jak najlepsze dopasowanie, ale karze za zbyt wiele parametrów: Należy zminimalizować wielkość AIC = ln Q + 2s N, (16) gdzie Q jest wartościa minimaliowanej formy kwadratowej (6) w minimum, zwana błędem rezydualnym, s liczba parametrów, N liczba punktów, do których dopasowujemy. AIC jest akronimem od Akaike Information Criterion. Copyright c 2011-12 P. F. Góra 12 19

Przykład 9 8 3.57119x 2 + 0.74906x + 2.99634 1.43137x 3 + 3.57119x 2-0.13632x + 2.99634 0.36246x 4 + 1.43137x 3 + 3.25105x 2-0.13623x + 3.02932 AIC 3.05 AIC 2.89 AIC 2.91 7 6 5 4 3 2 1-1.0-0.5 0.0 0.5 1.0 Wielomiany drugiego, trzeciego i czwartego stopnia dopasowane do tych samych danych Copyright c 2011-12 P. F. Góra 12 20

Nieliniowe zagadnienie najmniejszych kwadratów Przypuśćmy, że dopasowywana do danych pomiarowych zależność teoretyczna zależy od parametrów w sposób nieliniowy, ỹ i = f(x i ; p) (17) gdzie p R s jest wektorem parametrów. Zakładamy, że f( ; p) jest znana funkcja, a tylko jej parametry sa nieznane. Na przykład do danych doświadczalnych dopasowujemy funkcję Gaussa y(x) = 1 ( ) 2πσ 2 exp (x x)2 2σ 2. (18) Parametrami będa w tym wypadku x oraz σ 2. Widać, że funkcja (18) zależy od nich nieliniowo. Copyright c 2011-12 P. F. Góra 12 21

Zakładamy, że błędy pomiarowe sa gaussowskie, o macierzy kowariancji G. Wówczas tworzymy wektor u = [u 1, u 2,..., u N ] T R N, gdzie u i = y i ỹ i = y i f(x i ; p). Żadamy, aby funkcja Q = 1 2 ut G 1 u (19a) osiagała minimum jako funkcja parametrów p. W najczęstszym przypadku pomiarów nieskorelowanych, obarczonych i- dentycznymi błędami, funkcja (19a) redukuje się do postaci Q = const 1 2 N i=1 (y i f(x i ; p)) 2. (19b) Copyright c 2011-12 P. F. Góra 12 22

Ani funkcja (19a), ani jej szczególna postać (19b), nie sa formami kwadratowymi w parametrach! Dodatnia określoność funckji Q, Q 0, w praktyce gwarantuje istnienie minimum. Nie da się jednak zagwarantować, że minimum jest tylko jedno. Poza bardzo nielicznymi przypadkami, w których łatwo można rozwiazać układ równań p Q = 0, minimum funkcji Q(p) należy znaleźć numerycznie, przy pomocy metody Levenberga-Marquardta. Copyright c 2011-12 P. F. Góra 12 23

Pseudolinearyzacja Czasami do znalezienia minimum Q stosuje się metodę pseudolinearyzacji. Przypuśćmy, że p n jest aktualnym przybliżeniem poszukiwanej wartości parametrów p. Stawiamy hipotezę, iż prawdziwe wartości parametrów sa mała poprawka w stosunku do p n : p p n + δp i rozwijamy (17) w szereg Taylora do pierwszego rzędu: ỹ i = f(x i ; p n + δp) f(x i ; p n ) + [ p f pn ] T δp. (20) Podstawiamy to rozwinięcie (dla uproszczenia zakładamy nieskorelowane, identyczne pomiary) do (19b). Copyright c 2011-12 P. F. Góra 12 24

Funkcja Q = 1 2 N i=1 ( y i f(x i ; p n ) [ p f pn ] T δp ) 2 (21) jest forma kwadratowa w poprawkach δp. Po znalezieniu znanymi metodami wartości δp min, odpowiadajacych (jedynemu) minimum (21), podstawiamy p n+1 = p n + δp min i powtarzamy cała procedurę. Taka procedura dość dobrze działa w wypadku nieliniowej metody najmniejszych kwadratów, choć nie należy jej polecać jako ogólnej metody minimalizacji. Pseudolinearyzacja ma tylko jedno niewatpliwe zastosowanie: Po znalezieniu ostatecznych wartości minimalizujacych funkcję (19a), za pomoca pseudolinearyzacji wokół tego punktu znajdujemy macierz kowariancji estymatorów, będac a charaktestystyka liniowa. Copyright c 2011-12 P. F. Góra 12 25

Przykład Przypuśmy, że do danych dopasowujemy funkcję Gaussa (18), zaś aktualnymi przybliżeniami parametrów sa x n, σn. 2 Obliczamy ( ) f(x; x, σ 2 1 ) = 2πσ 2 exp (x x)2 2σ 2, (22a) f f x (σ 2 ) xn,σn 2 xn,σn 2 = = 1 exp 2πσn 2 1 exp 2πσn 2 ( ( (x x n) 2 2σ 2 n (x x n) 2 2σ 2 n ) ) x x n σ 2 n, (22b) (x x n) 2 4 ( σn 2 ) 2 1 2σn 2 (22c) Copyright c 2011-12 P. F. Góra 12 26

Wyrażenie Q = 1 2 N i=1 1 + x i x n σ 2 n y i 1 2πσn 2 δ x + exp ( (x i x n ) 2 4 ( σn 2 ) 2 1 (x i x n ) 2 2σ 2 n 2σn 2 δσ 2 ) 2 (23) jest forma kwadratowa w zmiennych δ x, δσ 2. Copyright c 2011-12 P. F. Góra 12 27

II. Przybliżenie Padé Spośród wszystkich (licznych!) zagadnień aproksymacji ciagłej, omówimy tylko przybliżenia Padé. Przypuśmy, że znamy wartości pewnej funkcji g(z) i jej pochodnych do rzędu N w zerze i na tej podstawie chcemy skostruować przbliżenie funkcji g(x) w pewnym przedziale zawierajacym zero, tak, aby przybliżenie to zgadzało się z funkcja i jej N pochodnymi w zerze. Najprostszym sposobem jest skonstruowanie rozwinięcia Maclaurina do rzędu N. Otrzymujemy w ten sposób wielomian, który co prawda spełnia wymagania w otoczeniu zera, ale przybliżenie wielomiwanowe zazwyczaj Jeżeli wartości te znamy w jakimś innym punkcie, możemy za pomoca prostej zmiany zmiennych sprowadzić ten punkt do zera. Copyright c 2011-12 P. F. Góra 12 28

szybko załamuje się już w niewielkiej odległości od zera. Lepsze byłoby przybliżenie wymierne. Niech poszukiwane przybliżenie ma postać R mk (x) = P m(x) Q k (x) = m j=0 k j=0 a j x j b j x j, (24) przy czym b 0 = 1 i niech szeregiem Maclaurina aproksymowanej funkcji będzie g(x) = j=0 c j x j. (25) Przyjmijmy, że m + k + 1 = N + 1, czyli tyle, ile wyrazów zawiera szereg Maclaurina funkcji g(x) do rzędu N. Obliczamy Copyright c 2011-12 P. F. Góra 12 29

g(x) R mk (x) = ( j=0 c j x j ) ( k j=0 k j=0 m a j x j j=0. (26) b j x j b j x j ) Funkcja g(x) wraz z pochodnymi do rzędu N będzie się zgadzać z przybliżeniem (24), jeżeli w liczniku prawej strony równania (26) najniższy nieznikajacy wyraz będzie proporcjonalny do X N+1. Otrzymujemy stad warunki k c N s j b j = 0 s = 0, 1,..., N m 1; c j = 0 dla j < 0 (27a) j=0 r c r j b j = a r r = 0, 1,..., m; b j = 0 dla j > k (27b) j=0 (27) stanowi układ N+1 równań liniowych na N+1 współczyników a r, b j. Copyright c 2011-12 P. F. Góra 12 30

Przykład Przybliżeniem Padé R 22 (x) funkcji e x jest R 22 (x) = 12 + 6x + x2 12 6x + x 2. (28) Bład tego przybliżenia w przedziale [ 2 1 ln 10, 1 2 ln 10] nie przekracza 0.01. Copyright c 2011-12 P. F. Góra 12 31

Przybliżenie Czebyszewa Okazuje się, że lepsze przybliżenie uzyskuje się biorac zamiast (24) iloraz wielomianów Czebyszewa: C mk (x) = m j=0 k j=0 a j T j (x) b j T j (x), (29) gdzie T j (x) jest j-tym wielomianem Czebyszewa. Dla x ( 1, 1) sa one zdefiniowane jako T j (x) = cos(j arc cos x) (30) i poprzez przedłużenie analityczne poza tym przedziałem. T j (x) jest wielomianem stopnia j, o najmniejszym wahaniu w przedziale [ 1, 1]. Copyright c 2011-12 P. F. Góra 12 32

Niech funkcja g(x) posiada rozwinięcie Czebyszewa g(x) = 1 2 c 0 + j=1 Współczynniki tego rozwinięcia otrzymujemy obliczajac c j T j (x). (31) c j = 2 π 1 1 g(x)t j (x) dx. (32) 1 x2 Copyright c 2011-12 P. F. Góra 12 33

Postępujac jak poprzednio i korzystajac z rozwinięcia (31), obliczamy g(x) C mk (x) (33) żadaj ac, aby w liczniku współczynniki przy T j (x) znikały tożsamościowo dla j = 0, 1,..., N. Otrzymujemy stad układ równań (a r>m 0). a 0 = 1 2 a r = 1 2 k i=0 k i=0 b i c i b i ( c r i + c r+i ) (34a) (34b) Przybliżenia Czebyszewa sa lepsze od przybliżeń Padé, gdyż bład tych pierwszych zachowuje się bardziej regularnie w całym przedziale. Copyright c 2011-12 P. F. Góra 12 34