WYKŁAD 9 METODY ZMIENNEJ METRYKI

Podobne dokumenty
ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ

Optymalizacja ciągła

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

1 Równania nieliniowe

Optymalizacja ciągła

1.3. Optymalizacja geometrii czasteczki

Wprowadzenie Metoda bisekcji Metoda regula falsi Metoda siecznych Metoda stycznych RÓWNANIA NIELINIOWE

Przestrzeń unitarna. Jacek Kłopotowski. 23 października Katedra Matematyki i Ekonomii Matematycznej SGH

Wstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych. P. F. Góra

jeśli nie jest spełnione kryterium zatrzymania, to nowym punktem roboczym x(t+1) staje i następuje przejście do 1)

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

Aproksymacja. funkcji: ,a 2. ,...,a m. - są funkcjami bazowymi m+1 wymiarowej podprzestrzeni liniowej X m+1

KADD Minimalizacja funkcji

Optymalizacja (minimalizacja) funkcji. Plan wykładu: 1. Sformułowanie problemu, funkcja celu. 2. Metody bezgradientowe

5. Metody stochastyczne (symulowane wyżarzanie, algorytmy genetyczne) -> metody Monte Carlo

Matematyka stosowana i metody numeryczne

Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji

Algebra Liniowa 2 (INF, TIN), MAP1152 Lista zadań

Zaawansowane metody numeryczne

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH

Zaawansowane metody numeryczne

Optymalizacja ciągła

ELEMENTY ANALIZY NUMERYCZNEJ ELEMENTY ANALIZY NUMERYCZNEJ. Egzamin pisemny zestaw 1 26 czerwca 2017 roku

Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa. P. F. Góra

Zaawansowane metody numeryczne

ELEMENTY ANALIZY NUMERYCZNEJ ELEMENTY ANALIZY NUMERYCZNEJ. Egzamin pisemny zestaw 1 24 czerwca 2019 roku

Wykład Matematyka A, I rok, egzamin ustny w sem. letnim r. ak. 2002/2003. Każdy zdający losuje jedno pytanie teoretyczne i jedno praktyczne.

Metody numeryczne I Równania nieliniowe

5. Rozwiązywanie układów równań liniowych

Lista. Przestrzenie liniowe. Zadanie 1 Sprawdź, czy (V, +, ) jest przestrzenią liniową nadr :

Wstęp do metod numerycznych 12. Minimalizacja: funkcje wielu zmiennych. P. F. Góra

1 Formy hermitowskie. GAL (Informatyka) Wykład - formy hermitowskie. Paweł Bechler

Wartości i wektory własne

Analiza numeryczna Kurs INP002009W. Wykłady 6 i 7 Rozwiązywanie układów równań liniowych. Karol Tarnowski A-1 p.

Automatyka i Robotyka II Stopień ogólno akademicki studia niestacjonarne wszystkie Katedra Automatyki i Robotyki Prof. dr hab. inż.

Rozwiązywanie równań nieliniowych

Programowanie liniowe. Tadeusz Trzaskalik

Aproksymacja. j<k. L 2 p[a, b] l 2 p,n X = Lemat 1. Wielomiany ortogonalne P 0,P 1,...,P n tworza przestrzeni liniowej Π n. Dowód.

Wstęp do metod numerycznych 9a. Układy równań algebraicznych. P. F. Góra

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

Numeryczne metody optymalizacji Optymalizacja w kierunku. informacje dodatkowe

Metody numeryczne II

INTERPOLACJA I APROKSYMACJA FUNKCJI

W naukach technicznych większość rozpatrywanych wielkości możemy zapisać w jednej z trzech postaci: skalara, wektora oraz tensora.

Rozdział 5. Macierze. a 11 a a 1m a 21 a a 2m... a n1 a n2... a nm

PODSTAWY AUTOMATYKI. MATLAB - komputerowe środowisko obliczeń naukowoinżynierskich - podstawowe operacje na liczbach i macierzach.

Metoda Karusha-Kuhna-Tuckera

Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych

3 Podstawy teorii drgań układów o skupionych masach

Rozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów.

Definicja pochodnej cząstkowej

Metoda gradientu prostego

Macierze. Rozdział Działania na macierzach

II. RÓŻNICZKOWANIE I CAŁKOWANIE NUMERYCZNE Janusz Adamowski

Całkowanie numeryczne przy użyciu kwadratur

Aproksymacja funkcji a regresja symboliczna

Ważne rozkłady i twierdzenia c.d.

dr Mariusz Grządziel 15,29 kwietnia 2014 Przestrzeń R k R k = R R... R k razy Elementy R k wektory;

Metody Numeryczne Optymalizacja. Wojciech Szewczuk

3. FUNKCJA LINIOWA. gdzie ; ół,.

Zał nr 4 do ZW. Dla grupy kursów zaznaczyć kurs końcowy. Liczba punktów ECTS charakterze praktycznym (P)

Wykład z równań różnicowych

Pochodna funkcji c.d.-wykład 5 ( ) Funkcja logistyczna

3. Interpolacja. Interpolacja w sensie Lagrange'a (3.1) Dana jest funkcja y= f x określona i ciągła w przedziale [a ;b], która

Rozdzia l 11. Przestrzenie Euklidesowe Definicja, iloczyn skalarny i norma. iloczynem skalarnym.

Egzamin / zaliczenie na ocenę*

METODY ROZWIĄZYWANIA RÓWNAŃ NIELINIOWYCH

Programowanie celowe #1

Metody iteracyjne rozwiązywania układów równań liniowych (5.3) Normy wektorów i macierzy (5.3.1) Niech. x i. i =1

Wprowadzenie do metod numerycznych Wykład 3 Metody algebry liniowej I Wektory i macierze

Zał nr 4 do ZW. Dla grupy kursów zaznaczyć kurs końcowy. Liczba punktów ECTS charakterze praktycznym (P)

KADD Minimalizacja funkcji

METODY NUMERYCZNE. Wykład 4. Numeryczne rozwiązywanie równań nieliniowych z jedną niewiadomą. prof. dr hab.inż. Katarzyna Zakrzewska

Programowanie nieliniowe. Badania operacyjne Wykład 3 Metoda Lagrange a

. : a 1,..., a n F. . a n Wówczas (F n, F, +, ) jest przestrzenią liniową, gdzie + oraz są działaniami zdefiniowanymi wzorami:

Kubatury Gaussa (całka podwójna po trójkącie)

1 Pochodne wyższych rzędów

Wstęp do metod numerycznych Algebraiczna metoda gradientów sprzężonych. P. F. Góra

Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona) f(x) = 0, gdzie. dla n=2 np.

PROGRAMOWANIE KWADRATOWE

Obliczenia naukowe Wykład nr 6

Bezgradientowe metody optymalizacji funkcji wielu zmiennych. informacje dodatkowe

Politechnika Wrocławska, Wydział Informatyki i Zarządzania. Optymalizacja

IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych,

Metody systemowe i decyzyjne w informatyce

POD- I NADOKREŚLONE UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

Bardzo łatwa lista powtórkowa

w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych.

Metody Numeryczne Wykład 4 Wykład 5. Interpolacja wielomianowa

METODY NUMERYCZNE. Wykład 3. Plan. Aproksymacja Interpolacja wielomianowa Przykłady. dr hab.inż. Katarzyna Zakrzewska, prof.agh. Met.Numer.

Metody numeryczne II

Interpolacja. Marcin Orchel. Drugi przypadek szczególny to interpolacja trygonometryczna

3. Macierze i Układy Równań Liniowych

Met Me ody numer yczne Wykład ykład Dr inż. Mic hał ha Łanc Łan zon Instyt Ins ut Elektr Elektr echn iki echn i Elektrot Elektr echn olo echn

Kierunek i poziom studiów: Matematyka, studia I stopnia (licencjackie), rok I

P. F. Góra.

Matematyka stosowana i metody numeryczne

cx cx 1,cx 2,cx 3,...,cx n. Przykład 4, 5

Transkrypt:

WYKŁAD 9 METODY ZMIENNEJ METRYKI Kierunki sprzężone. Metoda Newtona Raphsona daje dobre przybliżenie najlepszego kierunku poszukiwań, lecz jest to okupione znacznym kosztem obliczeniowym zwykle postać analityczna hesjanu nie jest znana, a numeryczna estymacja pochodnych każdorazowo grozi wprowadzeniem znacznego błędu obliczeniowego. Istotą tzw. metod zmiennej metryki jest wykorzystanie posiadanych na każdym kroku informacji x k, x k+1, f(x k ), f(x k+1 ) dla coraz lepszego wyznaczania hesjanu bez potrzeby znajdowania jego składników explicite. Poszukiwany jest algorytm generujący iteracyjnie uzupełnienie [ G k ] przybliżające macierz startową [ G 1 ] do odwrotności hesjanu [ H ] -1. W tym celu wprowadzono pojęcie kierunków sprzężonych d i, d j względem pewnej macierzy [ A ] definicyjnie określonych zależnością (9.1) Jak widać pojęcie A-sprzężenia jest uogólnieniem pojęcia ortogonalności podstawiając za [ A ] macierz identycznościową [ I ] otrzymujemy zwykły warunek ortogonalności dwóch kierunków. Użyteczność kierunków sprzężonych w zagadnieniach optymalizacyjnych wynika z następujących twierdzeń przytaczanych tu bez dowodów, które można znaleźć w specjalistycznych monografiach 1 : TWIERDZENIE 1. Dla dowolnego ciągu d 1, d 2,...d n kierunków sprzężonych względem symetrycznej, dodatnio określonej macierzy [A] o rozmiarze n i dowolnego punktu startowego x 0 jest możliwe znalezienie minimum funkcji kwadratowej f Q (9.2) w co najwyżej n krokach iteracyjnych prowadząc minimalizację wzdłuż każdego kierunku d i. Twierdzenie to oznacza, że każda kolejna minimalizacja wzdłuż d i (i=1, 2,...n), znajduje minimum f Q na podprzestrzeni definiowanej przez rosnący zbiór A-ortogonalnych kierunków. 1 Findeisen W., Szymanowski J.,Wierzbicki A.: Teoria i metody obliczeniowe optymalizacji, PWN Warszawa, 1980; Aoki M.: Introduction to optimization techniques, Macmillan, New York, 1977 1

W celu określenia tego zbioru kierunków wykorzystywany jest algorytm Grama- Schmidta, w którym zwykły iloczyn skalarny został zastąpiony przez iloczyn A-sprzężony (9.1). Jako zbiór wyjściowych kierunków D 0 najprościej jest wykorzystać bazę e i przestrzeni euklidesowej, w której zdefiniowano wektor zmiennych decyzyjnych (9.3) Załóżmy, że (9.4) poszukujemy skalara 21, takiego że kierunki d 1 i d 2 powiązane zależnością (9.5) są A-sprzężone. Oznacza to, że zachodzi (9.6) Wynika stąd (9.7) Dla dowolnego kolejnego kierunku d k+1 mamy więc zależność (9.8) gdzie współczynniki kj wynoszą (9.7) Można wykazać, że znalezienie kolejnych minimów wzdłuż kierunków d i czyli przesunięcia x i+1 x i jest równe (9.8) Iloraz iloczynów skalarnych w zależności (9.8) będący odległością do kolejnego minimum w podprzestrzeni wyznacza się zwykle jedną z metod minimalizacji kierunkowej 2

(np. za pomocą aproksymacji parabolicznej). Zauważmy również, że przypadku kiedy punkt startowy jest odległy od minimum, czyli gdy funkcja kwadratowa f Q (x) jest bliska formie liniowej b, x i pozadiagonalne współczynniki hesjanu A nj mogą być pominięte, to algorytm Grama-Schmidta jako kierunki sprzężone generuje ortogonalne kierunki bazy euklidesowej e. Metoda kierunków sprzężonych staje się wtedy identyczna z metodą Gaussa-Seidela. Zaletą metody kierunków sprzężonych w stosunku do metody Newtona jest wyeliminowanie konieczności odwracania hesjanu, tym niemniej sam hesjan musi być obliczany przy tworzeniu zbioru kierunków A-sprzężonych. Warto w tym momencie przedstawić ilustrację geometryczną tego pojęcia. Załóżmy, ze funkcja celu f Q (x) jest dwuwymiarowa a jej kolejne izolinie są dane równaniem (9.9) Zależność (9.6) przedstawia zbiór elips ośrodku w punkcie x=[0, 0]. Wyznaczając kolejno gradient i hesjan tej funkcji mamy (9.10) (9.11) Odwrotność hesjanu [H] -1 wyznacza się elementarnie dla przypadku kiedy sam hesjan ma strukturę diagonalną (9.12) Jeżeli przyjmiemy, że macierz [A] jest równa [H] -1, to forma kwadratowa f Q (x 1, x 2 ) w nowej metryce ma postać (9.13) co dla rozpatrywanej funkcji daje (9.14) 3

Izolinie f Q (x 1, x 2 ) w tej metryce będą okręgami co pokazano na rys.9.1. Należy zwrócić uwagę, że omówiona transformacja dotyczy także dowolnego położenia elips funkcji kwadratowej oraz że zmiana metryki nie zmienia położenia minimum badanej funkcji. f Q E 2 x 2 x 1 f Q [H] -1 Rys.9.1. Izolinie testowej funkcji kwadratowej w różnych metrykach Algorytm kierunków sprzężonych Powella wykorzystujący znajomość hesjanu [H(x 0 )] w punkcie startowym x 0 oraz wykorzystujący jedynie wartości minimalizowanej funkcji jest następujący: 1. Wyznacz Hesjan w punkcie x 0 oraz H-sprzężoną bazę wektorów d 1...d n ; 2. Podstaw k=1 3. Oblicz przemieszczenie k punktów o minimalnej funkcji celu f Q (x) wzdłuż kierunku d k (9.15) 4. Sprawdź kryterium zatrzymania, jeśli nie jest spełnione to idź do p.5 5. Jeżeli k<n to k=k+1 i wróć do p.3, dla k=n x 0 =x n i wróć do p.1. Algorytmy zmiennej metryki Kierunki sprzężone posiadają istotną cechę, wykorzystywaną przy tworzeniu algorytmów optymalizacyjnych, którą opisuje następujące twierdzenie. TWIERDZENIE. Jeżeli punkt x k+1 został uzyskany w procesie minimalizacji funkcji kwadratowej wzdłuż A-sprzężonych kierunków, to gradient funkcji w tym punkcie jest również A-sprzężony z poprzednimi kierunkami (9.16) 4

W metodzie kierunków sprzężonych jest konieczne wyznaczanie hesjanu, najczęściej w sposób numeryczny, po każdych n krokach minimalizacji w kierunku. Procedura ta jest niezbędna, ponieważ funkcja celu f(x) jest przeważnie różna od funkcji kwadratowej i jej hesjan zmienia się w zależności od bieżącego położenia punktu x. Jak pokazano wcześniej, obliczanie składników macierzy drugich pochodnych jest kosztowne, zwłaszcza kiedy funkcja celu nie jest dana w sposób jawny oraz co jest równie istotne, prowadzi do błędów związanych z aproksymacją pochodnej ilorazem różnicowym. Okazuje się, że znając jedynie gradienty funkcji celu w kolejnych minimach wzdłuż kierunków sprzężonych można coraz lepiej aproksymować hesjan funkcji celu. Wykorzystuje się tu iteracyjne uzupełnianie pewnej macierzy [V] j, (j=1, 2,... n) o przyczynki pozyskiwane po każdym kroku optymalizacyjnym. Istnieje cała rodzina takich formuł, nazywanych wzorami zmiennej metryki, które dla kwadratowej funkcji celu zapewniają osiągnięcie minimum w co najwyżej n krokach. Najczęściej stosowane to: Wzór Davidona Fletchera - Powella (9.17) oraz Wzór Broydena Fletchera - Shanno (9.18) Oznaczenia są następujące [ I ] macierz jednostkowa, k = x k+1 x k = k d k - przesunięcie punktu optymalnego, k = f(x k+1 ) - f(x k ) zmiana wektora gradientu funkcji celu w kolejnych punktach optymalnych d g iloczyn zewnętrzny wektorów d, g. 5

Algorytm metody zmiennej metryki jest następujący: 1. Wybierz punkt startowy x 1 oraz startowe przybliżenie odwrotności hesjanu [V] 1. Najczęściej jest to macierz identycznościowa [ I ] lub, jeśli są ku temu przesłanki, inna symetryczna i dodatnio określona. Podstaw k=1. 2. Oblicz d k = - [V k ] f(x k ). 3. Wykonaj minimalizację w kierunku d k znajdując k takie że (9.19) 4. Sprawdź kryterium zatrzymania, jeśli nie jest spełnione wykonaj p.5. 5. Wykonaj podstawienia (9.20) gdzie poprawka [ V] k jest obliczana ze wzoru (9.17) lub (9.18) w zależności od wyboru metody. 6. Podstaw k=k+1 i wróć do p.3. 6