Przegląd metod optymalizacji wielowymiarowej. Funkcja testowa. Funkcja testowa. Notes. Notes. Notes. Notes. Tomasz M. Gwizdałła

Podobne dokumenty
Bezgradientowe metody optymalizacji funkcji wielu zmiennych. informacje dodatkowe

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

Optymalizacja ciągła

ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ

Optymalizacja ciągła

Techniki Optymalizacji: Optymalizacja wypukła

KADD Minimalizacja funkcji

Algorytmy metaheurystyczne Wykład 6. Piotr Syga

M eto dy o p ty m a liza cji

KADD Minimalizacja funkcji

Optymalizacja ciągła

Optymalizacja ciągła

Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona) f(x) = 0, gdzie. dla n=2 np.

Rozwiązania, seria 5.

Numeryczne metody optymalizacji Optymalizacja w kierunku. informacje dodatkowe

5. Metody stochastyczne (symulowane wyżarzanie, algorytmy genetyczne) -> metody Monte Carlo

Matematyka stosowana i metody numeryczne

Układy liniowo niezależne

Stosowana Analiza Regresji

WYKŁAD 9 METODY ZMIENNEJ METRYKI

Optymalizacja (minimalizacja) funkcji. Plan wykładu: 1. Sformułowanie problemu, funkcja celu. 2. Metody bezgradientowe

2 1 3 c c1. e 1, e 2,..., e n A= e 1 e 2...e n [ ] M. Przybycień Matematyczne Metody Fizyki I

Zaawansowane metody numeryczne

STATYKA Z UWZGLĘDNIENIEM DUŻYCH SIŁ OSIOWYCH

1 Formy hermitowskie. GAL (Informatyka) Wykład - formy hermitowskie. Paweł Bechler

Iteracje. Algorytm z iteracją to taki, w którym trzeba wielokrotnie powtarzać instrukcję, aby warunek został spełniony.

Prawdopodobieństwo i statystyka

Metody Rozmyte i Algorytmy Ewolucyjne

ALGORYTMY. 1. Podstawowe definicje Schemat blokowy

Wybrane metody przybliżonego. wyznaczania rozwiązań (pierwiastków) równań nieliniowych

Wstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych. P. F. Góra

Statystyka opisowa. Wykład V. Regresja liniowa wieloraka

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 9 i 10 - Weryfikacja hipotez statystycznych

Statystyka i eksploracja danych

Wykład 3 Równania rózniczkowe cd

Praca domowa - seria 6

Metody systemowe i decyzyjne w informatyce

Algebra Liniowa 2 (INF, TIN), MAP1152 Lista zadań

METODY NUMERYCZNE. wykład. konsultacje: wtorek 10:00-11:30 środa 10:00-11:30. dr inż. Grażyna Kałuża pokój

Lista. Przestrzenie liniowe. Zadanie 1 Sprawdź, czy (V, +, ) jest przestrzenią liniową nadr :

WEKTORY I WARTOŚCI WŁASNE MACIERZY. = λ c (*) problem przybliżonego rozwiązania zagadnienia własnego dla operatorów w mechanice kwantowej

Definicja pochodnej cząstkowej

Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa. P. F. Góra

SZTUCZNA INTELIGENCJA

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16

TENSOMETRIA ZARYS TEORETYCZNY

PYTANIA KONTROLNE STAN NAPRĘŻENIA, ODKSZTAŁCENIA PRAWO HOOKE A

Modelowanie rynków finansowych z wykorzystaniem pakietu R

Metody numeryczne II

jeśli nie jest spełnione kryterium zatrzymania, to nowym punktem roboczym x(t+1) staje i następuje przejście do 1)

Zadania przygotowawcze, 3 kolokwium

UKŁADY RÓWNAŃ LINIOWYCH -Metody dokładne

ALGORYTMY. 1. Podstawowe definicje Schemat blokowy

III. Układy liniowe równań różniczkowych. 1. Pojęcie stabilności rozwiązań.

ALGEBRA Z GEOMETRIĄ BAZY PRZESTRZENI WEKTOROWYCH

Analiza wariancji w analizie regresji - weryfikacja prawdziwości przyjętego układu ograniczeń Problem Przykłady

Metody Numeryczne Optymalizacja. Wojciech Szewczuk

Wykład 5. Ker(f) = {v V ; f(v) = 0}

Elementy inteligencji obliczeniowej

ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH

Problemy Decyzyjne Markowa

PROGRAMOWANIE NIELINIOWE

VI. Równania różniczkowe liniowe wyższych rzędów

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

1 Metody rozwiązywania równań nieliniowych. Postawienie problemu

Macierze. Rozdział Działania na macierzach

Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Obliczenia naukowe Wykład nr 2

Układy równań i równania wyższych rzędów

Akwizycja i przetwarzanie sygnałów cyfrowych

Iteracyjne rozwiązywanie równań

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

Wstęp do metod numerycznych 11. Minimalizacja: funkcje jednej zmiennej. P. F. Góra

METODA SYMPLEKS. Maciej Patan. Instytut Sterowania i Systemów Informatycznych Uniwersytet Zielonogórski

Komputerowa analiza zagadnień różniczkowych 10. Dwupunktowe problemy brzegowe (BVP, Boundary Value Problems)

Zaawansowane metody numeryczne

Wstęp do metod numerycznych Zadania numeryczne 2016/17 1

Błędy przy testowaniu hipotez statystycznych. Decyzja H 0 jest prawdziwa H 0 jest faszywa

Statystyka Matematyczna Anna Janicka

Zadania z algebry liniowej Iloczyn skalarny, przestrzenie euklidesowe

Wykład 4 Udowodnimy teraz, że jeśli U, W są podprzetrzeniami skończenie wymiarowej przestrzeni V to zachodzi wzór: dim(u + W ) = dim U + dim W dim(u

Zagadnienia - równania nieliniowe

Aproksymacja. j<k. L 2 p[a, b] l 2 p,n X = Lemat 1. Wielomiany ortogonalne P 0,P 1,...,P n tworza przestrzeni liniowej Π n. Dowód.

Wstęp do metod numerycznych 12. Minimalizacja: funkcje wielu zmiennych. P. F. Góra

Wstęp do metod numerycznych 5. Numeryczne zagadnienie własne. P. F. Góra

Zadanie 1. Rozważ funkcję f(x, y) = (x + y)(x + 6)( y 3) określoną na zbiorze R 2.

SPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization

Wstęp do metod numerycznych 9. Minimalizacja: funkcje jednej zmiennej. P. F. Góra

Programowanie liniowe

2. Założenie niezależności zakłóceń modelu - autokorelacja składnika losowego - test Durbina - Watsona

Iloczyn skalarny. Mirosław Sobolewski. Wydział Matematyki, Informatyki i Mechaniki UW. 10. wykład z algebry liniowej Warszawa, grudzień 2013

Modyfikacja schematu SCPF obliczeń energii polaryzacji

Przegląd metod optymalizacji numerycznej. Krzysztof Malczewski

R n = {(x 1, x 2,..., x n ): x i R, i {1,2,...,n} },

Kolejny krok iteracji polega na tym, że przechodzimy do następnego wierzchołka, znajdującego się na jednej krawędzi z odnalezionym już punktem, w

SIMR 2016/2017, Analiza 2, wykład 1, Przestrzeń wektorowa

RÓWNANIA NIELINIOWE Maciej Patan

, to liczby γ +δi oraz γ δi opisują pierwiastki z a+bi.

Formy kwadratowe. Mirosław Sobolewski. Wydział Matematyki, Informatyki i Mechaniki UW. wykład z algebry liniowej Warszawa, styczeń 2009

Transkrypt:

Przegląd metod optymalizacji wielowymiarowej Tomasz M. Gwizdałła 2012.12.06 Funkcja testowa Funkcją testową dla zagadnień rozpatrywanych w ramach tego wykładu będzie funkcja postaci f (x) = (x 1 1) 4 + 2(x 2 2) 4 O ile nie będzie powiedziane inaczej punktem startu będzie losowo wybrany punkt x 0 = (7.52949, 5.60592) Funkcja testowa Parametrami algorytmu są: punkt startu x 0 ortogonalna baza wektorów rozpinających przestrzeń poszukiwań S 1,..., S n początkowa długość kroku e współczynnik redukcji kroku α

Dla wszystkich wektorów bazy powtarzaj operację: A. Niech x 1,0 = x 0 i x = x k,i 1 + e S i i x = x k,i 1 e S i B. Jeśli f (x ) < f (x k,i 1 ) to x k,i = x, jeśli f (x ) < f (x k,i 1 ) to x k,i = x, inaczej x k,i = x k,i 1 Ekstrapolacja (pattern move) x = x k,n + (x k,n x k,0 ) = 2x k,n x k,0 test ekstrapolacji: jeśli f (x ) < f (x k,i 1 ) to x k+1,0 = x Jeśli żaden z ruchów w punkcie 1B nie przyniósł sukcesu dokonaj redukcji kroku e = e α Powyższe kroki wykonuj aż do spełnienia kryterium stopu, którym jest test szybkości zbieżności Rozważmy teraz przebieg algorytmu Hooke a-jeevesa w bazie S 1 = [1, 0], S 2 = [0, 1] i dla e = 1, α = 0.5 x = x k,i 1 + e S i i x = x k,i 1 e S i f (x ) < f (x k,i 1 ) x k,i = x, f (x ) < f (x k,i 1 ) x k,i = x Pattern move: x = x k,n + (x k,n x k,0 ) = 2x k,n x k,0

Redukcja kroku e = e α Po czterech iteracjach W bazie S 1 = [ 2 2, 2 2 ], S 2 = [ 2 2, 2 2 ] i dla e = 1, α = 0.5 Algorytm HJ wymaga w każdej iteracji wyznaczenia 2n wartości funkcji Jest algorytmem deterministycznym, niegradientowym

Parametrami algorytmu są: punkt startu x 0 ortogonalna baza wektorów rozpinających przestrzeń poszukiwań S 1,..., S n początkowa długość kroku e współczynnik korekcji zwiększający krok a współczynnik korekcji zmniejszający krok b Dla wszystkich wektorów bazy powtarzaj operację: A. Niech x 1,0 = x 0 i x = x k,i 1 + τ i S i B. Jeśli f (x ) < f (x k,i 1 ) to λ i = λ i + τ i, τ i = τ i a, w przeciwnym razie τ i = τ i b Pętla ma być powtarzana tak długo, aż dla wszystkich wektorów bazy krok będzie niepomyślny i nie stanie się to w pierwszej iteracji z uwzględnieniem danej bazy Jeśli pętla ulegnie zakończeniu, należy sprawdzić kryterium stopu, jeśli nie jest ono spełnione dokonać obrotu bazy Rozważmy teraz przebieg algorytmu Rosenbrocka w bazie S 1 = [1, 0], S 2 = [0, 1] i dla e = 1, a = 3, b = 0.5 τ1 λ1 τ2 λ2 1.0 0.0 1.0 0.0-0.5 0.0 1.0 0.0-0.5 0.0-0.5 0.0-1.5-0.5-0.5 0.0 + -1.5-0.5-1.5-0.5 + -4.5-2.0-1.5-0.5 + -4.5-2.0-4.5-2.0 + -13.5-6.5-4.5-2.0 +

Niech zbiór wektorów {q 1,..., q n } będzie bazą rozpinającą przestrzeń poszukiwań. Aby przetransformować ten układ do bazy ortonormalnej {S 1,..., S n }, należy postępować wg. schematu. S 1 = q1 q 1 S i = νi ν i, gdzie ν i = q i n 1 k=1 (q i S k )S k Przykład q 1 = 6.5[1, 0] 2[0, 1] = [ 6.5, 2] q 2 = 2[0, 1] = [0, 2] S 1 = q1 q 1 = [ 0.956, 0.294] ν 2 = q 2 (q 2 S 1 )S 1 = [0, 2] ([0, 2] [ 0.956, 0.294])[ 0.956, 0.294] ν 2 = [0.562, 1.827] S 2 = [0.294, 0.956] Po zmianie bazy Podsumowanie Metoda Rosenbrocka wymaga wyznaczenia w każdej iteracji n wartości funkcji Jest algorytmem deterministycznym, niegradientowym Elementem krytycznym jest konieczność ortogonalizacji bazy przestrzeni liniowej zawierającej wektor rozwiązania

Metoda Neldera-Meada polega na zbudowaniu w przestrzeni R n wypukłego obiektu opartego na n + 1 punktach i analizie zachowania funkcji w tych punktach Parametrami algorytmu są: parametr odbicia α parametr ekspansji β parametr kontrakcji γ parametr redukcji η Porządkujemy punkty ze względu na funkcję oceny i wyznaczamy środek masy układu x = n i=0 x i n + 1 Niech x 0 będzie takim wektorem, dla którego f (x 0 ) jest najmniejsze Dokonujemy operacji odbicia x r = x + α( x x n ) Odbity punkt akceptujemy, jeśli f (x 0 ) < f (x r ) < f (x n 1 ) W przypadkach granicznych dokonujemy jednej z dwóch operacji f (x r ) < f (x 0 ) - ekspansja - x e = x r + β(x r x) f (x n 1 ) < f (x r ) - kontrakcja - x c = x + γ( x x n ) Przeprowadzamy redukcję układu x i = x 0 + η(x i x 0 ) Zwyczajowo wartości stałych przyjmuje się α = 1, β = 1, γ = 0.5, η = 0.5 Pełzanie n + 1 wymiarowego wypukłego obiektu w przestrzeni n-wymiarowej

Pełzanie n + 1 wymiarowego wypukłego obiektu w przestrzeni n-wymiarowej Algorytm Neldera-Meada (Ameba) wymaga w każdej iteracji wyznaczenia n+1 wartości funkcji Jest algorytmem deterministycznym, niegradientowym Krytycznym punktem jest brak jakichkolwiek teoretycznych podstaw, które opisałyby zbieżność metody Pomimo deterministycznego charakteru przebieg algorytmu silnie zależy od losowego wyboru punktów początkowych Parametrami algorytmu są: punkt startu x 0 ortogonalna baza wektorów rozpinających przestrzeń poszukiwań S 1,..., S n wymagana dokładność obliczeń w kierunku wektora bazy ɛ 1,..., ɛ n wymagana dokładność obliczeń optimum globalnego ɛ Dla wszystkich wektorów bazy powtarzaj operację: A. Niech x 1,0 = x 0 znajdź minimum x funkcji jednej zmiennej λ: f (λ) = x k,i 1 + λs i z dokładnością ɛ i B. Podstaw x k,i = x Pętla ma być powtarzana tak długo, aż nie zostanie osiągnięta dokładność ɛ

Przebieg algorytmu Powella dla funkcji testowej f (x) = (x 1 1) 4 + 2(x 2 2) 4 z punktem startu x 0 = (7.52949, 5.60592) Weźmy bazę ortonormalną S 1 = [1, 0], s 2 = [0, 1] Pierwsza iteracja minimalizacja względem wektora S 1 = [1, 0] jest minimalizacją funkcji f (λ) = (x1 0 + λ 1)4 + 2(x2 0 2)4 f λ = 4(λ + x 1 0 1)3 λ = (x1 0 1) = 6.52949 x 1,1 1 = x1 0 + λ = 1 minimalizacja względem wektora S 1 = [0, 1] jest minimalizacją funkcji f λ f (λ) = (x 1,1 1 1) 4 + 2(x 1,1 2 + λ 2) 4 = 8(λ + x 1,1 2 2) 3 λ = (x 1,1 x 1,2 2 = x 1,1 2 + λ = 2 2 2) = 3.60592 Punkt startu x 0 = (7.52949, 5.60592), baza S 1 = [1, 0], s 2 = [0, 1] Dla porównania rozważmy minimalizację w bazach: S 1 = [ 2 2, 2 2 ], S 2 = [ 2 2, 2 2 ] i S 1 = [ 2 2, 2 2 ], S 2 = [1, 0]

Algorytm Powella wymaga wykonania w każdej iteracji n minimalizacji funkcji jednej zmiennej Efektywność algorytmu silnie zależy od kształtu minimalizowanej funkcji Efektywność algorytmu silnie zależy od wyboru bazy oraz wektora dokładności