Wykład IX Optymalizacja i minimalizacja funkcji



Podobne dokumenty
Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB

Modelowanie i obliczenia techniczne. Metody numeryczne w modelowaniu: Optymalizacja

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych

SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

7. Wykład VII: Warunki Kuhna-Tuckera

Metody gradientowe poszukiwania ekstremum. , U Ŝądana wartość napięcia,

liniowym w przeciwnym przypadku mówimy o programowaniu nieliniowym.

WYBRANE ZASTOSOWANIA OPTYMALIZACJI ROZMYTEJ W STEROWANIU PROCESAMI ODLEWNICZYMI

Zaawansowane metody numeryczne

BADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda

Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE

MATEMATYKA POZIOM ROZSZERZONY Kryteria oceniania odpowiedzi. Arkusz A II. Strona 1 z 5

WikiWS For Business Sharks

XXX OLIMPIADA FIZYCZNA ETAP III Zadanie doświadczalne

Laboratorium ochrony danych

Minimalizacja globalna. Algorytmy genetyczne i ewolucyjne.

Optymalizacja ciągła

Zestaw zadań 4: Przestrzenie wektorowe i podprzestrzenie. Liniowa niezależność. Sumy i sumy proste podprzestrzeni.

Minimalizacja globalna, algorytmy genetyczne i zastosowanie w geotechnice

Wstęp do metod numerycznych Faktoryzacja SVD Metody iteracyjne. P. F. Góra

Pokazać, że wyżej zdefiniowana struktura algebraiczna jest przestrzenią wektorową nad ciałem

Pattern Classification

Definicje ogólne

ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ

ZAJĘCIA III. Metody numeryczne w zadaniach identyfikacji

Metody obliczeniowe. wykład nr 2. metody rozwiązywania równań nieliniowych zadanie optymalizacji. Nr: 1


Diagonalizacja macierzy kwadratowej

Kwantowa natura promieniowania elektromagnetycznego

STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH

Nieliniowe zadanie optymalizacji bez ograniczeń numeryczne metody iteracyjne optymalizacji

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

KURS STATYSTYKA. Lekcja 6 Regresja i linie regresji ZADANIE DOMOWE. Strona 1

Optymalizacja belki wspornikowej

ORGANIZACJA ZAJĘĆ OPTYMALIZACJA GLOBALNA WSTĘP PLAN WYKŁADU. Wykładowca dr inż. Agnieszka Bołtuć, pokój 304,

Badanie współzależności dwóch cech ilościowych X i Y. Analiza korelacji prostej

WYKŁAD 9 METODY ZMIENNEJ METRYKI

RUCH OBROTOWY Można opisać ruch obrotowy ze stałym przyspieszeniem ε poprzez analogię do ruchu postępowego jednostajnie zmiennego.

SZTUCZNA INTELIGENCJA

EKONOMETRIA I Spotkanie 1, dn

Analiza danych. Analiza danych wielowymiarowych. Regresja liniowa. Dyskryminacja liniowa. PARA ZMIENNYCH LOSOWYCH

u u u( x) u, x METODA RÓŻNIC SKOŃCZONYCH, METODA ELEMENTÓW BRZEGOWYCH i METODA ELEMENTÓW SKOŃCZONYCH

V. TERMODYNAMIKA KLASYCZNA

Wprowadzenie do Sieci Neuronowych Sieci rekurencyjne

1 Metody optymalizacji wielokryterialnej Ogólna charakterystyka problemu Tradycyjne metody optymalizacji wielokryterialnej...

AUTOMATYKA I STEROWANIE W CHŁODNICTWIE, KLIMATYZACJI I OGRZEWNICTWIE L3 STEROWANIE INWERTEROWYM URZĄDZENIEM CHŁODNICZYM W TRYBIE PD ORAZ PID

5. Maszyna Turinga. q 1 Q. Konfiguracja: (q,α β) q stan αβ niepusta część taśmy wskazanie położenia głowicy

DIAGNOSTYKA WYMIENNIKÓW CIEPŁA Z UWIARYGODNIENIEM WYNIKÓW POMIARÓW EKPLOATACYJNYCH

Wykład 1 Zagadnienie brzegowe liniowej teorii sprężystości. Metody rozwiązywania, metody wytrzymałości materiałów. Zestawienie wzorów i określeń.

Stanisław Cichocki. Natalia Nehrebecka. Wykład 7

NAFTA-GAZ marzec 2011 ROK LXVII. Wprowadzenie. Tadeusz Kwilosz

Diagnostyka układów kombinacyjnych

7.8. RUCH ZMIENNY USTALONY W KORYTACH PRYZMATYCZNYCH

KRÓTKIE WPROWADZENIE DO WIZUALIZACJI I ANALIZY FUNKCJONALNEJ DANYCH EKONOMICZNYCH

Algorytm FA. Zastosowanie w zadanich optymalizacji z ograniczeniami dla ciągłych dziedzin poszukiwań

Modele wieloczynnikowe. Modele wieloczynnikowe. Modele wieloczynnikowe ogólne. α β β β ε. Analiza i Zarządzanie Portfelem cz. 4.

KRZYWA BÉZIERA TWORZENIE I WIZUALIZACJA KRZYWYCH PARAMETRYCZNYCH NA PRZYKŁADZIE KRZYWEJ BÉZIERA

SYSTEMY UCZĄCE SIĘ WYKŁAD 7. KLASYFIKATORY BAYESA. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

Przykład 4.1. Belka dwukrotnie statycznie niewyznaczalna o stałej sztywności zginania

OPTYMALIZACJA WARTOŚCI POLA MAGNETYCZNEGO W POBLIŻU LINII NAPOWIETRZNEJ Z WYKORZYSTANIEM ALGORYTMU GENETYCZNEGO

Sieci Neuronowe 1 Michał Bereta

Plan wykładu: Typowe dane. Jednoczynnikowa Analiza wariancji. Zasada: porównać zmienność pomiędzy i wewnątrz grup

Regulamin promocji 14 wiosna

Problem plecakowy (KNAPSACK PROBLEM).

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

KINEMATYKA MANIPULATORÓW

Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych

METODA UNITARYZACJI ZEROWANEJ Porównanie obiektów przy ocenie wielokryterialnej. Ranking obiektów.

Statystyka. Zmienne losowe

Za: Stanisław Latoś, Niwelacja trygonometryczna, [w:] Ćwiczenia z geodezji II [red.] J. Beluch

8. Optymalizacja decyzji inwestycyjnych

Kier. MTR Programowanie w MATLABie Laboratorium Ćw. 12

( ) ( ) 2. Zadanie 1. są niezależnymi zmiennymi losowymi o. oraz. rozkładach normalnych, przy czym EX. i σ są nieznane. 1 Niech X

METODA ELEMENTU SKOŃCZONEGO. Termokinetyka

5. Pochodna funkcji. lim. x c x c. (x c) = lim. g(c + h) g(c) = lim

Metody obliczeniowe. wykład nr 2. metody rozwiązywania równań nieliniowych zadanie optymalizacji. Nr: 1

Stanisław Cichocki Natalia Nehrebecka. Zajęcia 4

Metody Numeryczne 2017/2018

ELEKTROCHEMIA. ( i = i ) Wykład II b. Nadnapięcie Równanie Buttlera-Volmera Równania Tafela. Wykład II. Równowaga dynamiczna i prąd wymiany

5. OPTYMALIZACJA GRAFOWO-SIECIOWA

Różniczkowalność, pochodne, ekstremum funkcji. x 2 1 x x 2 k

Egzamin poprawkowy z Analizy II 11 września 2013

Oligopol dynamiczny. Rozpatrzmy model sekwencyjnej konkurencji ilościowej jako gra jednokrotna z pełną i doskonalej informacją

OKREŚLENIE OPTYMALNEJ ODLEGŁOŚCI KONTURU ZE ŹRÓDŁAMI OD BRZEGU OBSZARU Z ZASTOSOWANIEM METODY ROZWIĄZAŃ PODSTAWOWYCH

ZAJĘCIA X. Zasada największej wiarygodności

INDUKCJA ELEKTROMAGNETYCZNA. - Prąd powstający w wyniku indukcji elektro-magnetycznej.

Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu

Natalia Nehrebecka. Wykład 2

Programowanie matematyczne

CAŁKOWANIE NUMERYCZNE całki pojedyncze

Wprowadzenie. Support vector machines (maszyny wektorów wspierających, maszyny wektorów nośnych) SVM służy do: Zalety metody SVM

PODSTAWA WYMIARU ORAZ WYSOKOŚĆ EMERYTURY USTALANEJ NA DOTYCHCZASOWYCH ZASADACH

n liczba zmiennych decyzyjnych c współczynniki funkcji celu a współczynniki przy zmienych decyzyjnych w warunkach

Metody numeryczne I Równania nieliniowe

Problemy jednoczesnego testowania wielu hipotez statystycznych i ich zastosowania w analizie mikromacierzy DNA

ELEMENTY ANALIZY NUMERYCZNEJ ELEMENTY ANALIZY NUMERYCZNEJ. Egzamin pisemny zestaw 1 26 czerwca 2017 roku

p Z(G). (G : Z({x i })),

Optymalizacja ciągła

dy dx stąd w przybliżeniu: y

Transkrypt:

Wykład IX Optymalzacja mnmalzacja funkcj Postawene zadana podstawowe dee jego rozwązana Proste metody mnmalzacj Metody teracj z wykorzystanem perwszej pochodnej Metody teracj z wykorzystanem drugej pochodnej Metody dla problemów sumy kwadratów Mnmalzacja z ogranczenam Problem mnmalzacj globalnej

Postawene zadana Optymalzacja to ulepszane rozwązana (techncznego). Np. optymalzacja kształtu kerowncy samochodu zadane z dzedzny ergonom, optymalzacja sec przesyłu energ dla zmnejszena strat problem technczno-ekonomczny, optymalzacja rozdzału zadań do wykonana (wypełnane grafka zadań) problem logstyczny. Zapsane problemu optymalzacj w postac kryterum jakośc zależnego od parametrów defnuje zadane mnmalzacj lub maksymalzacj kryterum (funkcj) w przestrzen parametrów. Ze względu na łatwość zmany zadana maksymalzacj na zadane mnmalzacj przez zmanę znaku kryterum, w dalszej częśc mowa będze o zadanu mnmalzacj. Standardowe matematyczne sformułowane zadana mnmalzacj brzm: Dla danej funkcj f dla danego obszaru S E k znaleźć punkt x * S tak, że f(x * ) f(x) dla wszystkch x S. E k jest k-wymarową przestrzeną eukldesową, x jest punktem tej przestrzen. Przestrzeń poszukwana wartośc parametrów może być ogranczona. Ogranczena mają charakter przedzałów (a), ogranczeń równoścowych (b) lub nerównoścowych (c). x x x b) g ( x ) = 0 c) g ( x ) 0 a) l u

Podstawowe dee rozwązań problemu mnmalzacj Przypadk rozwązywalne analtyczne: problemy LP (Lnear Programmng) - kryterum ogranczena są lnowym funkcjam parametrów problemy QP (Quadratc Programmng) - kwadratowe kryterum lnowe ogranczena Problemy NP (Nonlnear Programmng) wymagają użyca teracyjnych metod poszukwana opartych na nformacj o wartoścach kryterum w wybranych punktach przestrzen parametrów. Mnmalzacja lokalna: poszukwane pojedynczego mnmum funkcj. Najbardzej efektywne metody wykorzystują numeryczne przyblżena pochodnych funkcj. W trudnych przypadkach (np. necągłośc) stosowane są metody, które wykorzystują tylko wartośc funkcj. Mnmalzacja globalna: poszukwane jednego punktu mnmalnego przy welu mnmach lokalnych. Jest to trudne zadane oblczenowe. Pomysły na rozwązane to welokrotne starty metody lokalnej z różnych punktów lub zasada błądzena wokół beżącego oszacowana mnmum w nadze znalezena sąsadującego lepszego rozwązana (np. Smulated Annealng). Dobre wprowadzene do metod mnmalzacj można znaleźć w Buchanan, Turner Numercal Methods and Analyss w dokumentacj do Optmzaton Toolbox Matlaba.

Proste metody mnmalzacj jednowymarowej Przez analogę do poszukwana zera metodą połowena (bsekcj) możemy podać sposób poszukwana mnmum metodą jego otoczena sukcesywnego zawężana przedzału. Dysponując trzema kolejnym punktam a, b, c które spełnają warunek f ( a) f ( b) f ( c), tzn. punkt środkowy leży najnżej, możemy wnoskować że mnmum leży gdześ pomędzy a b. Metoda złotego podzału (golden secton) podaje receptę na dobór położena następnego punktu wybór nowej trójk punktów. Najkorzystnejszy dla szybkośc zbeżnośc jest podzał w stosunku 3 5 0.38 Błąd oszacowana położena mnmum maleje lnowo. f(x) a b d c x Jeśl dopuścmy zmenność stosunku podzału, to cąg optymalnych (dla szybkośc zbeżnośc) podzałów jest zwązany z cągem Fbonaccego (Fbonacc search) zdefnowanym jako: Fk+ 1 = Fk + Fk 1, F1 = F0 = 1 Kolejne stosunk podzału są równe: F F, F 3 F 1,, F0 F n n n n

Kontynuując analoge do metod poszukwana zera, dysponując klkoma punktam możemy poszukwać mnmum funkcj przyblżającej (nterpolującej) funkcję mnmalzującą. Metoda nterpolacj kwadratowej (quadratc search) bazuje w każdym kroku na trzech punktach buduje na nch weloman nterpolujący p( x) ax bx c = + + o mnmum w punkce xmn w kategorach trzech punktów bazowych x 1, x, x 3 daje rozwązane na nowy punkt: x = x 4 1 ( x x1) f ( x) f ( x3) ( x x3) f ( x) f ( x1) ( x x ) f ( x ) f ( x ) ( x x ) f ( x ) f ( x ) 1 3 3 1 b = co a Metoda nterpolacj sześcennej (cubc search) jest często wykorzystywana wtedy kedy dostępna jest nformacja o pochodnej funkcj. Wtedy współczynnk welomanu nterpolującego p x = ax + bx + cx+ d można wyznaczyć z wartośc funkcj jej pochodnej w dwóch punktach. ( ) 3 Implementacja Matlaba fmnbnd to kombnacja metody złotego podzału nterpolacj kwadratowej Metody mnmalzacj jednowymarowej są powszechne wykorzystywane w algorytmach welowymarowych, które po oszacowanu kerunku poszukwana mnmum stosują metodę jednowymarową wzdłuż kerunku (zob. temat lne search w Optmzaton Toolbox User s Gude).

Mnmalzacja welowymarowa bez użyca nformacj różnczkowej Metoda Smplex autorstwa Nelder-Mead (1965) [zob. Numercal Recpes]. Wykorzystuje ona w dzałanu zestaw N+1 punktów w przestrzen N-wymarowej, które tworzą najprostszą fgurę geometryczną w tej przestrzen (nazywaną smpleksem). Krok metody polega na wyznaczenu następnego punktu przyblżena mnmum w kerunku wyznaczonym przez symetryczne odbce punktu najwyżej położonego względem naprzecwległej ścany smpleksu. Może być przy tym wykonane zawężene lub rozszerzene smpleksu. Warunkem zakończena w metodze jest zmnejszene rozmarów smpleksu ponżej wartośc grancznej. odbce odbce+ skurczene odbce+ rozszerzene skurczene Implementacja w Matlabe to fmnsearch.(w starszej wersj fmns)

Mnmalzacja z użycem nformacj różnczkowej metody gradentowe Metoda najwększego spadku (steepest descent) Następne przyblżene mnmum jest poszukwane w kerunku przecwnym do gradentu: d= f ( x ) Zamplementowana w fmnunc ale ne polecana, bo w szczególnych przypadkach, jak np. funkcja Rosenbrocka (popularna funkcja testowa, nazywana też funkcją bananową) f ( x ) = 100( x x1 ) + ( 1 x1), metoda jest bardzo wolno zbeżna do rozwązana (wyjaśnć problem na tablcy). Wyznaczene kerunku poszukwana mnmum jest perwszym etapem pojedynczego kroku metody mnmalzacj welowymarowej. Drugm etapem jest jednowymarowe poszukwane mnmum wzdłuż wyznaczonego kerunku, tzn. mnmalzacja względem α zależnośc: x = x + k+ 1 k α d Dokonuje sę tego omówonym poprzedno metodam złotego podzału, cągu Fbonaccego, metodam nterpolacj/ekstrapolacj. Metody kerunków/gradentów sprzężonych Fletchera-Reevesa, Polaka-Rbere a [zobacz szczegóły w ksążce Fletchera 1987]. Są to metody mnej popularne (słabsze rozpowszechnene źródeł gotowych procedur) ale zachowujące sę porównywalne z metodam dalej omawanym.

Metody różnczkowe drugego rzędu metody Newtona quas-newtona Metoda gradentowa używała modelu perwszego rzędu (lnowego) zachowana sę funkcj w okolcy beżącego punktu. Dokładnejsze wyznaczene kerunku poszukwana mnmum otrzymuje sę przy uwzględnenu nformacj różnczkowej drugego rzędu. Model otoczena beżącego punktu ma wtedy postać kwadratową, z zastępczym problemem mnmalzacj: 1 T T mn xhx+ bx + c, n x R gdze H jest symetryczną dodatno określoną macerzą hesjanu aproksymowanej funkcj, b wektorem gradentu w beżącym punkce, c stałą. Z przyrównana pochodnej modelu względem x do 0 otrzymuje sę kerunek d poszukwana mnmum (kerunek Newtona): 1 d= H b Metody z bezpośrednm wyznaczanem hesjanu są nazywane metodam Newtona. Wyznaczane macerzy hesjanu jest jednak kosztowne oblczenowo. Z tego względu opracowano metody z teracyjną aktualzacją tej macerzy nazywane metodam quas-newtona (lub metodam zmennej metryk). Najpopularnejsze formuły aktualzacj to BFGS (pokazana dla przykładu): T T T = + qq k k HssH k k k k H + H sk = xk+ 1 x k q = f ( x ) f ( x ) qs shs k 1 k T T k k k k k k k+ 1 k DFP aktualzująca bezpośredno odwrotność macerzy hesjanu. Obydwe są do wyboru w Matlabe w funkcjach fmnunc, fmncon.

Mnmalzacja z ogranczenam - wprowadzene Stosowana do nedawna metoda uwzględnana ogranczeń przez stosowane funkcj kary (czyl gwałtownego zwększena wartośc kryterum po przekroczenu ogranczeń) jest przestarzała. Obecne defnuje sę problem mnmalzacj z ogranczenam z użycem mnożnków Lagrange a w postac: (,λ) ( ) λ ( ) = + m L x f x g x = 1 Warunkam konecznym optymalnośc rozwązana zadana z ogranczenam równoścowym nerównoścowym są równana Kuhna-Tuckera, które są warunkam wystarczającym dla problemu wypukłego, tj. przy funkcj celu ogranczenach w postac funkcj wypukłych. ( ) λ ( ) f x + g x = 0 ( ) m = 1 λg x = 0, = 1,, m λ 0, = me + 1,, m Poszukujemy rozwązana w przestrzen x dodatkowo λ. Perwsze równane ma być spełnone z nezerowym współczynnkam λ tylko przy aktywnych ogranczenach (m e to lość ogranczeń równoścowych, pozostałe są nerównoścowe. Take postawene problemu jest podstawą mplementacj w funkcj fmncon.

Algorytmy dla problemu nelnowej najmnejszej sumy kwadratów (NLS) Problem najmnejszej sumy kwadratów czynnków nelnowych względem parametrów powstaje przy wszelkch dopasowanach typu least-squares, np. w dentyfkacj obektów dynamcznych metodą dopasowana odpowedz modelu do pomarów. Poneważ jest to problem z określoną strukturą, to możemy sę spodzewać uproszczeń w oblczenach. Kryterum mnmalzacj ma węc postać: f T ( x) = F ( x) = F( x) F( x ) Lcząc gradent G hesjan H kryterum uzyskamy: T G x = J x F x, gdze J jest jakobanem wektora F, ( ) ( ) ( ) T H( x) = J( x) J( x) + Q( x ), gdze ( ) = F ( ) ( ) Q x x H x, H jest hesjanem -tej składowej. Pomjając czynnk Q pozbylśmy sę macerzy drugch pochodnych, korzystamy tylko z jakobanu. Metoda Gaussa-Newtona Stosując kerunek Newtona do powyższego uzyskamy jego wersję dla problemu NLS. Skutkuje to kerunkem będącym rozwązanem problemu lnowego LS: mn J x d+ F x ( ) ( ) d T T czyl układu równań: J( x) J( x) d = J( x) F( x )

Metoda Levenberga-Marquardta Jest to ulepszene metody Gaussa-Newtona dla przypadku kedy czynnk Q(x) ne może być pomnęty. Rozsądne wyjśce, to ne korzystać wtedy w ogóle z hesjanu tylko wybrać krok metody najwększego spadku. Take zachowane można zapewnć doberając współczynnk λ w uogólnonej regule wyznaczana kerunku: T J( x) J( x) + λi d= J ( x) F( x ) Dla λ równego zero jest to kerunek Gaussa-Newtona natomast dla dużego λ perwszy czynnk zwązany z hesjanem trac na znaczenu o kerunku decyduje prawa strona zwązana z gradentem. Implementacją tej metody jest funkcja Matlaba lsqnonln (w starszych wersjach leastsq). Jest to metoda polecana np. do dentyfkacj poneważ dobrze zachowuje sę z dala od mnmum (od dobrego dopasowana do pomarów) - wtedy korzysta z modelu lnowego najwększego spadku, jak w okolcy mnmum gdze modeluje kryterum funkcją kwadratową.

Przykład Porównane efektywnośc poszczególnych metod na funkcj Rosenbrocka a) steepest descent 1000 teracj a b b) quas-newton BFGS 140 teracj c) Gauss-Newton 48 teracj d) Levenberg-Marquardt 90 teracj c d

Rozwązana problemu mnmalzacj globalnej Metoda pokryca satką prostokątną lub nerównomerną Poszukwane mnmum globalnego funkcj jest w tym przypadku zastąpone zadanem poszukwana mnmum dyskretnego skończonego zboru wartośc. Koneczność wyznaczana wartośc kryterum w wykładnczo rosnącej z wymarem problemu lczbe punktów. Proste metody poszukwana losowego Pokryce satką losową. Ulepszane rozwązana przez mnmalzację lokalną z najlepszego z wylosowanych punktów lub mnmalzacja lokalna z każdego z wylosowanych punktów z wyborem najlepszego rozwązana. Zaawansowane metody losowe Wprowadzene czynnka losowego do efektywnych metod mnmalzacj lokalnej (smpleksów, najwększego spadku, quas-newtona) zaburza kerunek poszukwana umożlwając przejśce do sąsednego dołka. Zmenny udzał czynnka losowego w kerunku powoduje, że w początkowej faze optymalzacj przeszukwana jest cała przestrzeń parametrów dla znalezena otoczena punktu mnmum globalnego, a faza końcowa wyznacza z wększą dokładnoścą położene tego punktu. Przykładem takej mplementacj jest metoda Smulated Annealng analoga do procesu chłodzena w termodynamce [zob. Numercal Recpes]. Algorytmy genetyczne poszukwane mnmum wg zasad ewolucj bologcznej, stosowane głowne w problemach optymalzacj dyskretnej.