SZTUCZNA INTELIGENCJA

Podobne dokumenty
Metody Rozmyte i Algorytmy Ewolucyjne

Metody Optymalizacji: Przeszukiwanie z listą tabu

Algorytmy metaheurystyczne podsumowanie

ALGORYTMY EWOLUCYJNE W OPTYMALIZACJI JEDNOKRYTERIALNEJ

Optymalizacja. Wybrane algorytmy

Plan. Zakres badań teorii optymalizacji. Teoria optymalizacji. Teoria optymalizacji a badania operacyjne. Badania operacyjne i teoria optymalizacji

Tomasz M. Gwizdałła 2012/13

BADANIA OPERACYJNE PROGRAMOWANIE WIELOKRYTERIALNE

METODY OPTYMALIZACJI. Tomasz M. Gwizdałła 2018/19

Wielokryteriowa optymalizacja liniowa

Egzamin / zaliczenie na ocenę*

Przegląd metod optymalizacji numerycznej. Krzysztof Malczewski

Metody przeszukiwania

Równoważność algorytmów optymalizacji

Automatyka i Robotyka II Stopień ogólno akademicki studia niestacjonarne wszystkie Katedra Automatyki i Robotyki Prof. dr hab. inż.

Elementy Modelowania Matematycznego

BADANIA OPERACYJNE i teoria optymalizacji. Prowadzący: dr Tomasz Pisula Katedra Metod Ilościowych

Optymalizacja. doc. dr inż. Tadeusz Zieliński r. ak. 2013/14. Metody komputerowe w inżynierii komunikacyjnej. ograniczenie kosztów budowy.

Spis treści WSTĘP... 9

Wybrane podstawowe rodzaje algorytmów

Uczenie sieci typu MLP

METODY SZTUCZNEJ INTELIGENCJI algorytmy ewolucyjne

Optymalizacja ciągła

5. Metody stochastyczne (symulowane wyżarzanie, algorytmy genetyczne) -> metody Monte Carlo

Optymalizacja ciągła

ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ

Algorytmy ewolucyjne 1

Optymalizacja ciągła

Politechnika Gdańska Wydział Oceanotechniki i Okrętownictwa. Marzec Podstawy teorii optymalizacji Oceanotechnika, II stop., sem.

Informatyka II stopień (I stopień / II stopień) ogólnoakademicki (ogólno akademicki / praktyczny) kierunkowy (podstawowy / kierunkowy / inny HES)

ALGORYTMY GENETYCZNE (wykład + ćwiczenia)

Optymalizacja (minimalizacja) funkcji. Plan wykładu: 1. Sformułowanie problemu, funkcja celu. 2. Metody bezgradientowe

Document: Exercise*02*-*manual /11/ :31---page1of8 INSTRUKCJA DO ĆWICZENIA NR 2

Bezgradientowe metody optymalizacji funkcji wielu zmiennych. informacje dodatkowe

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

Algorytmy memetyczne (hybrydowe algorytmy ewolucyjne)

Programowanie nieliniowe. Badania operacyjne Wykład 3 Metoda Lagrange a

METODY OPTYMALIZACJI W BEZPIECZNYM TRANSPORCIE MORSKIM

LABORATORIUM 4: Algorytmy ewolucyjne cz. 2 wpływ operatorów krzyżowania i mutacji na skuteczność poszukiwań AE

K.Pieńkosz Badania Operacyjne Wprowadzenie 1. Badania Operacyjne. dr inż. Krzysztof Pieńkosz

Metody systemowe i decyzyjne w informatyce

Obliczenia ewolucyjne - plan wykładu

Analiza wielokryterialna wstęp do zagadnienia

Obliczenia z wykorzystaniem sztucznej inteligencji

WYKŁAD 9 METODY ZMIENNEJ METRYKI

Algorytm genetyczny (genetic algorithm)-

Techniki optymalizacji

Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych

PROGRAMOWANIE NIELINIOWE

Zaawansowane programowanie

Elementy Modelowania Matematycznego

Metody Programowania

Przegląd metod optymalizacji wielowymiarowej. Funkcja testowa. Funkcja testowa. Notes. Notes. Notes. Notes. Tomasz M. Gwizdałła

Programowanie liniowe

Heurystyki. Strategie poszukiwań

Wielokryteriowa optymalizacja liniowa cz.2

Kolejny krok iteracji polega na tym, że przechodzimy do następnego wierzchołka, znajdującego się na jednej krawędzi z odnalezionym już punktem, w

Prawdopodobieństwo i statystyka

Podstawy Sztucznej Inteligencji (PSZT)

Elementy Modelowania Matematycznego Wykład 7 Programowanie nieliniowe i całkowitoliczbowe

Teoretyczne podstawy programowania liniowego

Algorytmy ewolucyjne

4.1. Wprowadzenie Podstawowe definicje Algorytm określania wartości parametrów w regresji logistycznej...74

Analiza wielokryterialna

Dr. inŝ. Ewa Szlachcic Katedra Automatyki, Mechatroniki i Systemów Sterowania. Przykładowe zadania optymalizacji nieliniowej bez ograniczeń

LABORATORIUM 3: Wpływ operatorów krzyżowania na skuteczność poszukiwań AE

Jacek Skorupski pok. 251 tel konsultacje: poniedziałek , sobota zjazdowa

Planowanie drogi robota, algorytm A*

Ekonometria - ćwiczenia 10

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

TOZ -Techniki optymalizacji w zarządzaniu

Testy De Jonga. Problemy. 1 Optymalizacja dyskretna i ciągła

Przykłady problemów optymalizacyjnych

Programowanie liniowe metoda sympleks

Elementy modelowania matematycznego

Metody numeryczne II

Programowanie matematyczne

Optymalizacja konstrukcji

Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych

ĆWICZENIE 2: Algorytmy ewolucyjne cz. 1 wpływ wielkości populacji i liczby pokoleń na skuteczność poszukiwań AE

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Programowanie liniowe. Tadeusz Trzaskalik

Definicja problemu programowania matematycznego

Stochastyczne zagadnienie rozdziału z dyskretnym rozkładem popytu

Zadania laboratoryjne i projektowe - wersja β

Programowanie liniowe metoda sympleks

Politechnika Wrocławska Wydział Elektroniki INFORMATYKA SYSTEMÓW AUTONOMICZNYCH. Heurystyka, co to jest, potencjalne zastosowania

1 Programowanie całkowitoliczbowe PLC

Wprowadzenie do badań operacyjnych - wykład 2 i 3

LABORATORIUM 2: Wpływ wielkości populacji i liczby pokoleń na skuteczność poszukiwań AE. opracował: dr inż. Witold Beluch

Rozdział 6 PROGRAMOWANIE WYPUKŁE I KWADRATOWE

Karta (sylabus) przedmiotu

d) Definiowanie macierzy z wykorzystaniem funkcji systemu Matlak

SZTUCZNA INTELIGENCJA

Techniki optymalizacji

budowlanymi - WAP Aleksandra Radziejowska

SZTUCZNA INTELIGENCJA

Programowanie liniowe metoda sympleks

Metody Rozmyte i Algorytmy Ewolucyjne

Optymalizacja. Przeszukiwanie lokalne

Transkrypt:

SZTUCZNA INTELIGENCJA WYKŁAD 13. PROBLEMY OPTYMALIZACYJNE Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

PROBLEMY OPTYMALIZACYJNE Optymalizacja poszukiwanie najlepszego rozwiązania z punktu widzenia przyjętego kryterium * Zadanie optymalizacji (minimalizacji): gdzie: x, x* wektor rozwiązania i wektor optymalny, f(.) funkcja celu, D dziedzina. Rodzaje zadań optymalizacji: ciągłe wartości zmiennych należą do R n, dyskretne lub kombinatoryczne wartości zmiennych należą do zbioru przeliczalnego, mieszane, z ograniczeniami lub bez. x* = arg min f ( x) * Wykład opracowano na podstawie Arabas J.: Wykłady z algorytmów ewolucyjnych. WNT, Warszawa 2001. x D 2

WŁAŚCIWOŚCI FUNKCJI CELU I OGRANICZEŃ Zadania wypukłe zbiór dopuszczalny i funkcja celu są wypukłe (istnieje dokładnie jedno minimum) Zadania wypukłe Zadania niewypukłe 3

WŁAŚCIWOŚCI FUNKCJI CELU I OGRANICZEŃ Zadania liniowe zbiór dopuszczalny i funkcja celu są liniowe Różniczkowalność funkcji celu może być wykorzystana w metodach optymalizacji (zerowy gradient) Właściwość dekompozycji funkcja celu jest złożeniem wielu funkcji, które mogą być optymalizowane oddzielnie Wielomodalność funkcji celu funkcja celu posiada wiele minimów lokalnych 4

WŁAŚCIWOŚCI FUNKCJI CELU I OGRANICZEŃ Obszary/baseny przyciągania minimów lokalnych algorytm optymalizacji lokalnej uruchomiony z dowolnego punktu z obszaru przyciągania minimum lokalnego x o osiądzie/zbiegnie się do punktu x o Ograniczenia funkcji celu: nierównościowe: g i (x) 0 równościowe: h i (x) = 0 kostkowe: l i x i u i liniowe: a T x+b 0, a T x+b 0 lub a T x+b = 0 5

WŁAŚCIWOŚCI FUNKCJI CELU I OGRANICZEŃ Znaczenie liczby wymiarów problemu Wraz ze wzrostem liczby wymiarów n wektora x zwiększa się stopień komplikacji problemu. Przestrzeń rozwiązań w zadaniach kombinatoryczych, w których zmienne przyjmują wartości ze zbioru {0, 1} składa się z 2 n punktów. Np. dla n = 3 mamy: 000, 001, 010, 011, 100, 101, 110, 111. W zadaniach dyskretnych dodanie k-wartościowej zmiennej skutkuje k-krotnym zwiększeniem przestrzeni rozwiązań. 6

METODY OPTYMALIZACJI Zadania ciągłe metoda simpleks dla zadań liniowych, metody bezgradientowe kierunki poszukiwań są równoległe do osi współrzędnych lub wynikają z historii poszukiwań, metody gradientowe kierunek poszukiwań określa minus gradient funkcji celu 1 f f f f =,,..., x1 x2 x n E 0.8 0.6 0.4 0.2 metody newtonowskie oprócz gradientu korzystają z dodatkowych informacji o pochodnych cząstkowych (hesjan) 0 2 1.5 1 0.5 w2 0-0.5-1 -1.5-1 0 w1 1 2 metoda sympleksu nieliniowego (metoda Neldera Meada) -2-2 7

METODY OPTYMALIZACJI Zadania dyskretne metody dokładne przegląd zupełny, metody enumeracyjne programowanie dynamiczne, metoda podziału i ograniczeń, metody losowe Monte Carlo, metoda błądzenia przypadkowego, metody heurystyczne algorytm genetyczny, symulowane wyżarzanie, algorytmy mrówkowe, metoda tabu,... Heurystyka to reguły specyficzne dla danego problemu, które mogą pomóc w zgadywaniu jak najlepszego rozwiązania. Reguły te nie gwarantują znalezienia optimum, ale dają możliwość sukcesywnego poprawiania rozwiązania. Metaheurystyka to sposób generowania reguł dla algorytmów heurystycznych. 8

METODY OPTYMALIZACJI Zadania optymalizacji globalnej zadania, w których funkcja celu ma więcej niż jedno minimum. Metody optymalizacji globalnej: metody multistartu uruchamianie algorytmu lokalnego z różnych punktów startowych, metody grupowania naprzemienne kroki optymalizacji lokalnej i grupowania punktów leżących w otoczeniu tych samych minimów lokalnych. Identyfikacja tych grup pozwala usunąć część punktów, metody pokryć siatką identyfikacja oczek o wysokich wartościach funkcji celu i ich zagęszczanie, metody heurystyczne i losowe algorytmy ewolucyjne, symulowane wyżarzanie,... Metody optymalizacji globalnej powinny być odporne na utykanie w minimach lokalnych 9

METODY ELIMINACJI OGRANICZEŃ FUNKCJI CELU Ograniczenia funkcji celu (z wyjątkiem kostkowych) mogą bardzo utrudniać proces przeszukiwania. Metody eliminacji ograniczeń: metody transformacji zmiennych i ograniczeń zadanie dla nowych zmienionych ograniczeń jest łatwiejsze do rozwiązania, zmiennych lub w obszarze metody z funkcją kary do pierwotnej funkcji celu dodaje się składniki kar związanych z przekroczeniem ograniczeń, oprócz ww. w AE stosuje się: karę śmierci, metody naprawy, zapobiegające naruszaniu ograniczeń, dekodery. reprezentacje i operatory 10

OPTYMALIZACJA WIELOKRYTERIALNA Szukamy rozwiązania optymalizującego jednocześnie kilka kryteriów, często ze sobą niezgodnych lub sprzecznych. Kompromisem są rozwiązania optymalne w sensie Pareto, tzn. niezdominowane. Rozwiązanie x jest zdominowane, jeśli istnieje rozwiązanie y, nie gorsze od x względem wszystkich kryteriów: i = 1,..., m f i ( x) f ( y) Metody optymalizacji wielokryterialnej: ważone sumowanie kryteriów: i min m i= 1 w i f i ( x ) metoda punktu idealnego: min f ( x) f ( x ) metoda punktu najgorszych oczekiwań: max f ( x) f ( x worst ) best 11