Metody Rozmyte i Algorytmy Ewolucyjne

Podobne dokumenty
SZTUCZNA INTELIGENCJA

ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ

Metody Rozmyte i Algorytmy Ewolucyjne

Techniki Optymalizacji: Optymalizacja wypukła

PROGRAMOWANIE NIELINIOWE

Bezgradientowe metody optymalizacji funkcji wielu zmiennych. informacje dodatkowe

Metoda Karusha-Kuhna-Tuckera

KADD Minimalizacja funkcji

Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych

Uczenie sieci typu MLP

TOZ -Techniki optymalizacji w zarządzaniu

3. Funkcje wielu zmiennych

5. Metody stochastyczne (symulowane wyżarzanie, algorytmy genetyczne) -> metody Monte Carlo

Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona) f(x) = 0, gdzie. dla n=2 np.

Numeryczne metody optymalizacji Optymalizacja w kierunku. informacje dodatkowe

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

Optymalizacja ciągła

II. FUNKCJE WIELU ZMIENNYCH

Optymalizacja (minimalizacja) funkcji. Plan wykładu: 1. Sformułowanie problemu, funkcja celu. 2. Metody bezgradientowe

Metody systemowe i decyzyjne w informatyce

Programowanie liniowe metoda sympleks

Wstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych. P. F. Góra

Przegląd metod optymalizacji wielowymiarowej. Funkcja testowa. Funkcja testowa. Notes. Notes. Notes. Notes. Tomasz M. Gwizdałła

Metody Optymalizacji: Przeszukiwanie z listą tabu

Programowanie nieliniowe. Badania operacyjne Wykład 3 Metoda Lagrange a

etody programowania całkowitoliczboweg

Sterowanie optymalne

Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji

27. RÓWNANIA RÓŻNICZKOWE CZĄSTKOWE

Metoda graficzna może być stosowana w przypadku gdy model zawiera dwie zmienne decyzyjne. Metoda składa się z dwóch kroków (zobacz pierwszy wykład):

Elementy Modelowania Matematycznego

ANALIZA MATEMATYCZNA Z ELEMENTAMI STATYSTYKI MATEMATYCZNEJ

Optymalizacja ciągła

KADD Minimalizacja funkcji

1 Relacje i odwzorowania

Metody Numeryczne Optymalizacja. Wojciech Szewczuk

Układy równań i równania wyższych rzędów

Rozwiazywanie układów równań liniowych. Ax = b

Optymalizacja ciągła

Wzór Maclaurina. Jeśli we wzorze Taylora przyjmiemy x 0 = 0 oraz h = x, to otrzymujemy tzw. wzór Maclaurina: f (x) = x k + f (n) (θx) x n.

Programowanie liniowe metoda sympleks

Układy równań liniowych. Krzysztof Patan

IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych,

Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa. P. F. Góra

RÓWNANIA NIELINIOWE Maciej Patan

Algorytmy genetyczne. Materiały do laboratorium PSI. Studia niestacjonarne

Wykład Matematyka A, I rok, egzamin ustny w sem. letnim r. ak. 2002/2003. Każdy zdający losuje jedno pytanie teoretyczne i jedno praktyczne.

Funkcje dwóch zmiennych

Rachunek różniczkowy i całkowy w przestrzeniach R n

Optymalizacja ciągła

Przegląd metod optymalizacji numerycznej. Krzysztof Malczewski

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 4. Równania różniczkowe zwyczajne podstawy teoretyczne

Optymalizacja. Przeszukiwanie lokalne

ALGORYTMY EWOLUCYJNE W OPTYMALIZACJI JEDNOKRYTERIALNEJ

Wstęp do metod numerycznych 9. Minimalizacja: funkcje jednej zmiennej. P. F. Góra

Ważne rozkłady i twierdzenia c.d.

2. Definicja pochodnej w R n

5 Równania różniczkowe zwyczajne rzędu drugiego

Stochastyczne zagadnienie rozdziału z dyskretnym rozkładem popytu

1 Metody rozwiązywania równań nieliniowych. Postawienie problemu

OPTYMALIZACJA DYSKRETNA

Z52: Algebra liniowa Zagadnienie: Zastosowania algebry liniowej Zadanie: Operatory różniczkowania, zagadnienie brzegowe.

13. Funkcje wielu zmiennych pochodne, gradient, Jacobian, ekstrema lokalne.

ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH

Programowanie liniowe metoda sympleks

Testy De Jonga. Problemy. 1 Optymalizacja dyskretna i ciągła

Wstęp do metod numerycznych 9a. Układy równań algebraicznych. P. F. Góra

Automatyka i Robotyka II Stopień ogólno akademicki studia niestacjonarne wszystkie Katedra Automatyki i Robotyki Prof. dr hab. inż.

Tomasz M. Gwizdałła 2012/13

Plan. Zakres badań teorii optymalizacji. Teoria optymalizacji. Teoria optymalizacji a badania operacyjne. Badania operacyjne i teoria optymalizacji

Document: Exercise*02*-*manual /11/ :31---page1of8 INSTRUKCJA DO ĆWICZENIA NR 2

Matematyka II. Bezpieczeństwo jądrowe i ochrona radiologiczna Semestr letni 2018/2019 wykład 13 (27 maja)

Wykład na Politechnice Krakowskiej w dniu 18 stycznia 2012 r. ZADAŃ I ALGORYTMÓW W OPTYMALIZACJI DYSKRETNEJ

Elementy Modelowania Matematycznego Wykład 7 Programowanie nieliniowe i całkowitoliczbowe

) a j x j b; x j binarne (j N) całkowitoliczbowe; przyjmujemy (bez straty ogólności): c j > 0, 0 <a j b (j N), P n

Zaawansowane metody numeryczne

Ekonometria - ćwiczenia 10

Definicje i przykłady

Programowanie liniowe całkowitoliczbowe

Algorytmy genetyczne. Materiały do laboratorium PSI. Studia stacjonarne i niestacjonarne

Definicja problemu programowania matematycznego

Schemat programowania dynamicznego (ang. dynamic programming)

METODY OPTYMALIZACJI. Tomasz M. Gwizdałła 2018/19

Wstęp do metod numerycznych 12. Minimalizacja: funkcje wielu zmiennych. P. F. Góra

Metody numeryczne II

Optymalizacja systemów

Przykłady problemów optymalizacyjnych

Zastosowania twierdzeń o punktach stałych

Politechnika Wrocławska, Wydział Informatyki i Zarządzania. Optymalizacja

W naukach technicznych większość rozpatrywanych wielkości możemy zapisać w jednej z trzech postaci: skalara, wektora oraz tensora.

Wielokryteriowa optymalizacja liniowa

PROGRAMOWANIE KWADRATOWE

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Metody przeszukiwania

Całki powierzchniowe w R n

Wstęp do metod numerycznych Zadania numeryczne 2016/17 1

Modyfikacja schematu SCPF obliczeń energii polaryzacji

Komputerowa analiza zagadnień różniczkowych 10. Dwupunktowe problemy brzegowe (BVP, Boundary Value Problems)

Komputerowa analiza zagadnień różniczkowych 1. Równania różniczkowe zwyczajne podstawy teoretyczne. P. F. Góra

Transkrypt:

mgr inż. Wydział Matematyczno-Przyrodniczy Szkoła Nauk Ścisłych Uniwersytet Kardynała Stefana Wyszyńskiego Podstawy optymalizacji

Plan prezentacji 1 Podstawy matematyczne 2 3 Eliminacja ograniczeń Metody funkcji kary

Wstęp Podstawy matematyczne Dana jest metryczna przestrzeń poszukiwań Ω = (U, ) gdzie U jest zbiorem wartości, a pewna metryka, Dany jest również pewien podzbiór D U, W zadaniu dana jest również pewna funkcja F(x): U R zwana funkcja celu, Zadanie optymalizacji polega na znalezieniu takiego ˆx D, że ˆx = arg min x D F(x) Zadanie minimalizacji można sprowadzić do zadania maksymalizacji funkcji F(x).

Pochodne Podstawy matematyczne Definition Jeżeli funkcja F : R n R posiada wszystkie pochodne czastkowe, to wektor wierszowy [ ] F = F F x 1... x n nazywamy gradientem funkcji F. Definition Jeśli funkcja F : R n R posiada wszystkie pochodne czastkowe do drugiego rzędu włacznie, to macierz [ ] 2 F = 2 F x i x j nazywamy macierza Hessego(Hesjanem) funkcji F.

Rozwinięcie w szereg Taylora Definition Rozwinięciem w szereg Taylora funkcji F : R R wokół punktu x 0 nazywamy szereg Przykład f (x 0 ) + i=1 1 d i F i! dx i (x 0 )(x x 0 ) i Funkcję F : R n R można przybliżyć pierwszymi dwoma wyrazami szeregu F (x) F(x 0 ) + F(x 0 )(x x 0 ) + 1 2 2 F(x 0 )(x x 0 ) 2

Warunki konieczne optymalności Theorem m F(x) + λ i g i (x) = 0 i=1 i = 1,..., m λ i g i (x) = 0 i = 1,..., m λ i 0 i = 1,..., m g i (x) 0

Podział ogólny Podstawy matematyczne Optymalizacja ciagła (U = R n ) Zadania wypukłe, Zadania optymalizacji globalnej, Optymalizacja dyskretna Zadania kombinatoryczne (zmienne binarne), Zadania mieszane,

Właściwości funkcji celu Zadania w Z n będace dyskretna wersja z R n Nałożenie ograniczeń całkowitoliczbowych na zadania sformułowane w R n, Można próbować rozwiazać metodami relaksacji ograniczenia x Z n, Rozwiazanie problemu ciagłego stanowi oszacowanie zadania dyskretnego, Prosty problem ciagły nie gwarantuje prostego problemu dyskretnego! Liniowość (afiniczność) Funkcja F jest liniowa, jeśli F(x) = a T x + b gdzie a jest n-wymiarowym wektorem, b - stała. Rozwiazanie zadania leży zawsze na brzegu zbioru rozwiazań dopuszczalnych D.

Właściwości funkcji celu II Wypukłość Funkcja wypukła spełnia warunek x 1, x 2 D λf (x 1 ) + (1 λ)f(x 2 ) > F (λx 1 + (1 λ)x 2 ) gdzie 0 < λ < 1 oraz zbiór D jest wypukły, Istnieje wtedy dokładnie jedno minimum funkcji celu, Bardzo upraszcza poszukiwanie optimum. Różniczkowalność Funkcja posiada pochodne czastkowe pierwszego i/lub drugiego rzędu, Jedna z najbardziej przydatnych własności,

Wypukłość funkcji celu Przykład f(x) f(x) x x

Właściwości funkcji celu III Warunek Lipshitza Warunek na szybkość zmienności funkcji, Funkcja spełnia ten warunek, jeśli istnieje takie L <, że x 1, x 2 F(x 1 ) F(x 2 ) L x 1 x 2 Rzadko kiedy jest znany w praktyce, Właściwość dekompozycji Funkcja majaca ta własność jest złożeniem wielu funkcji, z których każda zależy tylko od części zmiennych F(x) = F(f i (x (i) )) gdzie f i (x (i) ) sa funkcjami, których argument zawiera część wektora x, Wystarczy zminimalizować f i i na końcu funkcję F, To upraszcza zadanie, każda z funkcji ma mniej zmiennych niż zawiera wektor x.

Wiele minimów lokalnych Minimum lokalne to punkt x, dla którego δ > 0 r < δ y K (x, r) D F (x) F(y) Może się zdarzyć, że istnieje spójny zbiór o jednakowej wartości, Zbiór taki traktujemy jako jeden punkt i nazywamy minimum niewłaściwym Istnienie minimów lokalnych wynika z Niewypukłości funkcji celu, Niewypukłości zbioru rozwiazań dopuszczalnych,

Wiele minimów lokalnych II Przykład f(x) Minimum lokalne Minimum globalne x

Wiele minimów lokalnych II Przykład x2 Minimum globalne Minimum lokalne x1

Zbiory przyciagania minimów lokalnych Pojęcie zwiazane z algorytmami optymalizacji lokalnej, Rozważmy odwzorowanie y(x) = z takie, że z K (x, r) D F(z ) F(z) oraz F(z ) < F(x) x w przeciwnym przypadku Rozważmy ciagi punktów x i+1 = y (i) (x i ) (i-krotne złożenie funkcji y), Zbiór wszystkich punktów, które sa elementami poczatkowymi tego ciagu zbieżnego do minimum lokalnego ˆx nazywamy obszarem przyciagania tego minimum, Relacja należenia do obszaru przyciagania danego minimum jest relacja równoważności

Zbiory przyciagania minimów lokalnych Przykład x2 x1

funkcji celu Zbiór dopuszczalny definiujemy za pomoca ograniczeń postaci g i (x) 0 h j (x) = 0 g i nazywamy nierównościowymi, h j nazywamy równościowymi Najważniejsze (najprostsze) typy ograniczeń Kostkowe l i x i u i, l i, u i R Liniowe g i (x) = a T x + b, a R n, b R Wymienione typy ograniczeń zawsze tworza wypukły obszar rozwiazań dopuszczalnych

Ilość wymiarów Podstawy matematyczne Im większa ilość wymiarów, tym trudniejsze zadanie, Zarówno dla zagadnień dyskretnych jak i ciagłych, Przykład Rozważmy metodę optymalizacji polegajac a na trafianiu. Chcemy trafić w koło wpisane w kwadrat. Prawdopodobieństwo tego wynosi π 4. Jeśli przyjmiemy wymiar zadania o jeden większy (sześcian i kula) to prawdopodobieństwo to wyniesie π 6. Uogólniajac na coraz większa liczbę wymiarów, prawdopodobieństwo to będzie coraz mniejsze. Przykład Jak zmieni się przestrzeń przeszukiwań dla zadania binarnego?

Zadania ciagłe Podstawy matematyczne Dla zadań liniowych - metoda sympleksów, Warunki konieczne optymalności, Metody bezgradientowe Metoda sympleksu Neldera-Meada, Metody gradientowe Metoda największego spadku, Metoda gradientów sprzężonych, Metody (quasi-)newtonowskie Metoda Newtona, Metoda DFP, Metoda BFGS,

Schemat metod I i II rzędu 1 Wyznacz rozwiazanie poczatkowe x i, i = 0 2 Majac F(x i ) (oraz 2 F(x i )) wyznacz odpowiedni kierunek d, 3 Zminimalizuj (dokładnie lub niedokładnie) funkcję jednej zmiennej x = min α R F(x i + αd) 4 Podstaw x i+1 = x, oraz i = i + 1, 5 Jeśli nie jest spełniony warunek STOP, to wróć do kroku 2

Zadania dyskretne Podstawy matematyczne Brak szybkich i pewnych metod optymalizacji, Metody dokładne Przeszukiwanie całego zbioru rozwiazań dopuszczalnych, Metoda podziału i oszacowań, Metody niedeterministyczne

globalnej Metody poszukiwania optimum globalnego, Metody wielostartowe, Optymalizacja lokalna z momentem, Poszukiwanie z tabu, Metody niedeterministyczne Metoda Monte-Carlo (wielokrotne losowanie przypadkowych punktów), Metoda symulowanego wyżarzania (pewne prawdopodobieństwo pójścia w złym kierunku), Algorytmy genetyczne

Sformułowanie problemu Optymalizacja funkcji niestacjonarnej przy niestacjonarnych ograniczeniach gdzie t oznacza czas, ˆx(t) = arg min F(x, t) x D(t) Rozwiazaniem nie jest punkt, ale funkcja zależna od t, Warto zwrócić uwagę, że zbiór rozwiazań dopuszczalnych też może się zmieniać w czasie, Zadanie trudniejsze niż optymalizacja statyczna

Metody rozwiazywania zadań niestacjonarnych Konieczne zastosowanie adaptacji, Podstawowa metoda: restart algorytmu po zajściu zmiany, Jak zmiany nie sa znane - restart jak najczęściej, Jeśli położenia minimów zmieniaja się nieznacznie start od punktu poprzednio znalezionego

Eliminacja ograniczeń Eliminacja ograniczeń Metody funkcji kary Dla ograniczeń równościowych, które da się przekształcić do postaci x (i) = ψ(x (j) ) gdzie x (i) oraz x (j) sa pewnymi rozłacznymi podwektorami wektora x, stosujemy podstawienie do funkcji celu, Sytuacja bardzo rzadka w praktyce, Przykład Dla zbioru ograniczeń liniowych postaci A T x + b = [A B A N ][x B x N ] T + b = 0 gdzie A B to niesingularna macierz bazowa, otrzymamy podstawienie x B = A 1 B (A Nx N + b)

Zewnętrzna funkcja kary Eliminacja ograniczeń Metody funkcji kary Polega na modyfikacji funkcji celu, Funkcja celu w obszarze dopuszczalnym nie jest zmieniana, Nakładana jest kara za przekroczenie ograniczeń, Funkcja celu musi być określona poza obszarem dopuszczalnym, Definition Zewnętrzna funkcja kary nazywamy każda funkcję f : U R taka, że f p i (x) = 0 jeślig i (x) 0 f p i (x) > 0 jeślig i (x) > 0

Przykład Podstawy matematyczne Eliminacja ograniczeń Metody funkcji kary Rysunek

Zewnętrzna funkcja kary II Eliminacja ograniczeń Metody funkcji kary Co zrobić, aby znaleźć szukane minimum? Stosuje się iteracyjna zmianę funkcji kary, f p,(k+1) i (x) f p,(k) (x) lim f p,(k) k i (x) = dla g i (x) > 0 Szczególny przypadek: kara śmierci i f p i (x) = x / D Zmiany funkcji kary kończymy, jak znalezione optimum znajduje się w obszarze ograniczeń,

Wewnętrzna funkcja kary Eliminacja ograniczeń Metody funkcji kary Również polega na modyfikacji funkcji celu, Funkcja celu jest zmieniana w obszarze dopuszczalnym, Nakładana jest kara za zbliżanie się do ograniczeń, Stosowana, gdy funkcja celu nie jest zdefiniowana poza obszarem dopuszczalnym, Definition Wewnętrzna funkcja kary nazywamy każda funkcję f : D R taka, że f p i (x) 0 lim f p g i (x) 0 i (x) =

Przykład Podstawy matematyczne Eliminacja ograniczeń Metody funkcji kary Rysunek

Wewnętrzna funkcja kary II Eliminacja ograniczeń Metody funkcji kary Co zrobić, aby znaleźć szukane minimum? Stosuje się iteracyjna zmianę funkcji kary, f p,(k+1) i (x) f p,(k) (x) lim f p,(k) k i (x) = 0 dla g i (x) < 0 Zmiany funkcji kary kończymy, jeśli znajdowane rozwiazania nie zmieniaja się, i