Algorytmy metaheurystyczne Wykład 6. Piotr Syga

Podobne dokumenty
Algorytmy mrówkowe (optymalizacja kolonii mrówek, Ant Colony optimisation)

Algorytmy mrówkowe. H. Bednarz. Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Inteligentne systemy informatyczne

Problem komiwojażera ACO. Zagadnienie optymalizacyjne, polegające na znalezieniu minimalnego cyklu Hamiltona w pełnym grafie ważonym.

Optymalizacja ciągła

Algorytmy mrówkowe. P. Oleksyk. Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Inteligentne systemy informatyczne

Problem Komiwojażera - algorytmy metaheurystyczne

Systemy mrówkowe. Opracowali: Dawid Strucker, Konrad Baranowski

Techniki optymalizacji

Przegląd metod optymalizacji wielowymiarowej. Funkcja testowa. Funkcja testowa. Notes. Notes. Notes. Notes. Tomasz M. Gwizdałła

Algorytmy mrówkowe w dynamicznych problemach transportowych

Spacery losowe generowanie realizacji procesu losowego

ALGORYTMY EWOLUCYJNE W OPTYMALIZACJI JEDNOKRYTERIALNEJ

Algorytmy metaheurystyczne Wykład 11. Piotr Syga

Programowanie Współbieżne. Algorytmy

Algorytmy mrówkowe (ang. Ant Colony Optimization)

Wykład 4. Droga i cykl Eulera i Hamiltona

Droga i cykl Eulera Przykłady zastosowania drogi i cyku Eulera Droga i cykl Hamiltona. Wykład 4. Droga i cykl Eulera i Hamiltona

Wykorzystanie algorytmów mrówkowych w dynamicznym problem

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Algorytmy mrówkowe. Plan. » Algorytm mrówkowy» Warianty» CVRP» Demo» Środowisko dynamiczne» Pomysł modyfikacji» Testowanie

PLAN WYKŁADU OPTYMALIZACJA GLOBALNA ALGORYTM MRÓWKOWY (ANT SYSTEM) ALGORYTM MRÓWKOWY. Algorytm mrówkowy

Algorytm dyskretnego PSO z przeszukiwaniem lokalnym w problemie dynamicznej wersji TSP

Zadania laboratoryjne i projektowe - wersja β

ALHE. prof. Jarosław Arabas semestr 15Z

Strefa pokrycia radiowego wokół stacji bazowych. Zasięg stacji bazowych Zazębianie się komórek

Techniki optymalizacji

Optymalizacja. Przeszukiwanie lokalne

Kompresja danych Streszczenie Studia Dzienne Wykład 10,

Metoda UCT w stochastycznych problemach transportowych

Dobór parametrów algorytmu ewolucyjnego

PLAN WYKŁADU OPTYMALIZACJA GLOBALNA OPERATOR KRZYŻOWANIA ETAPY KRZYŻOWANIA

Prawa potęgowe w grafach przepływu informacji dla geometrycznych sieci neuronowych

Algorytmy genetyczne. Materiały do laboratorium PSI. Studia niestacjonarne

KADD Minimalizacja funkcji

Optymalizacja ciągła

Obliczenia inspirowane Naturą

Algorytmy ewolucyjne - algorytmy genetyczne. I. Karcz-Dulęba

Algorytmy Mrówkowe. Daniel Błaszkiewicz. 11 maja Instytut Informatyki Uniwersytetu Wrocławskiego

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Algorytmy genetyczne. Materiały do laboratorium PSI. Studia stacjonarne i niestacjonarne

ZASTOSOWANIE ALGORYTMÓW MRÓWKOWYCH W ROZWIĄZANIU PROBLEMU SZEREGOWANIA ZADAŃ APPLICATION OF ANT COLONY SYSTEMS IN SOLVING OF TASK SCHEDULING PROBLEM

Algorytmy mrówkowe wprowadzenie.

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

Metody przeszukiwania

Zaawansowane metody numeryczne

Metody Rozmyte i Algorytmy Ewolucyjne

Obliczenia Naturalne - Algorytmy Mrówkowe

Planowanie drogi robota, algorytm A*

Wykład 2 Hipoteza statystyczna, test statystyczny, poziom istotn. istotności, p-wartość i moc testu

Bezgradientowe metody optymalizacji funkcji wielu zmiennych. informacje dodatkowe

WAE Jarosław Arabas Adaptacja i samoczynna adaptacja parametrów AE Algorytm CMA-ES

OSTASZEWSKI Paweł (55566) PAWLICKI Piotr (55567) Algorytmy i Struktury Danych PIŁA

Optymalizacja ciągła

Ruch jednostajnie zmienny prostoliniowy

Rój cząsteczek. Particle Swarm Optimization. Adam Grycner. 18 maja Instytut Informatyki Uniwersytetu Wrocławskiego

Algorytmy stochastyczne laboratorium 03

Ćwiczenia: Ukryte procesy Markowa lista 1 kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II

Algorytm genetyczny (genetic algorithm)-

Kolejny krok iteracji polega na tym, że przechodzimy do następnego wierzchołka, znajdującego się na jednej krawędzi z odnalezionym już punktem, w

Automatyczny dobór parametrów algorytmu genetycznego

Algorytmy ewolucyjne. Łukasz Przybyłek Studenckie Koło Naukowe BRAINS

Obliczenia z wykorzystaniem sztucznej inteligencji

Programowanie Współbieżne. Algorytmy

Algorytmy memetyczne (hybrydowe algorytmy ewolucyjne)

Laboratorium 5 Przybliżone metody rozwiązywania równań nieliniowych

PLAN WYKŁADU OPTYMALIZACJA GLOBALNA ZADANIE KOMIWOJAŻERA METODY ROZWIĄZYWANIA. Specyfika zadania komiwojażera Reprezentacje Operatory

Idea. θ = θ 0, Hipoteza statystyczna Obszary krytyczne Błąd pierwszego i drugiego rodzaju p-wartość

Wykorzystanie algorytmów mrówkowych w dynamicznym problem

Elementy statystyki STA - Wykład 5

Optymalizacja ciągła

Wykład z modelowania matematycznego. Zagadnienie transportowe.

Sieci komputerowe. Wykład 8: Wyszukiwarki internetowe. Marcin Bieńkowski. Instytut Informatyki Uniwersytet Wrocławski

Stochastyczne zagadnienie rozdziału z dyskretnym rozkładem popytu

Reprezentacje grafów nieskierowanych Reprezentacje grafów skierowanych. Wykład 2. Reprezentacja komputerowa grafów

Zadanie transportowe i problem komiwojażera. Tadeusz Trzaskalik

Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych

Algorytmy ewolucyjne 1

2.1 Przykład wstępny Określenie i konstrukcja Model dwupunktowy Model gaussowski... 7

Algorytmy Mrówkowe. Daniel Błaszkiewicz 11 maja 2011

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova

SCHEMAT ROZWIĄZANIA ZADANIA OPTYMALIZACJI PRZY POMOCY ALGORYTMU GENETYCZNEGO

Testowanie hipotez statystycznych

Redukcja wariancji w metodach Monte-Carlo

Algorytmy genetyczne. Paweł Cieśla. 8 stycznia 2009

Modyfikacja schematu SCPF obliczeń energii polaryzacji

1. Algorytmy przeszukiwania. Przeszukiwanie wszerz i w głąb.

Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej

Co to jest grupowanie

WYKŁAD 6 KINEMATYKA PRZEPŁYWÓW CZĘŚĆ 2 1/11

Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11,

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Równoległy algorytm wyznaczania bloków dla cyklicznego problemu przepływowego z przezbrojeniami

ALHE Z11 Jarosław Arabas wykład 11

Matematyka stosowana i metody numeryczne

Obliczenia z wykorzystaniem sztucznej inteligencji

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2014/2015

Analiza autokorelacji

Konrad Słodowicz sk30792 AR22 Zadanie domowe satelita

Algorytm Dijkstry znajdowania najkrótszej ścieżki w grafie

Matematyka ubezpieczeń majątkowych r.

Transkrypt:

Algorytmy metaheurystyczne Wykład 6 Piotr Syga 10.04.2017

Wprowadzenie Inspiracje

Wprowadzenie ACS idea 1 Zaczynamy z pustym rozwiązaniem początkowym 2 Dzielimy problem na komponenty (przedmiot do zabrania, zadanie do przydzielenia, krawędź cyklu, miasto,... ) i utożsamiamy z wierzchołkami grafu 3 Ustalamy liczbę iteracji oraz liczność kolonii, w każdej iteracji: Startujemy mrówki, prawdopodobieństwo wybrania wierzchołka zależy od natężenia feromonów Każda mrówka na wybranej trasie zostawia feromony o natężeniu proporcjonalnym do funkcji celu Feromony ulatniają się 4 Kończymy wybierając najlepsze rozwiązanie na koniec iteracji lub takie, którym podróżują wszystkie mrówki

Wprowadzenie ACS idea 1 Zaczynamy z pustym rozwiązaniem początkowym 2 Dzielimy problem na komponenty (przedmiot do zabrania, zadanie do przydzielenia, krawędź cyklu, miasto,... ) i utożsamiamy z wierzchołkami grafu 3 Ustalamy liczbę iteracji oraz liczność kolonii, w każdej iteracji: Startujemy mrówki, prawdopodobieństwo wybrania wierzchołka zależy od natężenia feromonów Każda mrówka na wybranej trasie zostawia feromony o natężeniu proporcjonalnym do funkcji celu Feromony ulatniają się 4 Kończymy wybierając najlepsze rozwiązanie na koniec iteracji lub takie, którym podróżują wszystkie mrówki GRASP+HC+SA?

ACS Wchodząc w szczegóły Prawdopodobieństwo przejścia Niech t ij będzie natężeniem feromonu pomiędzy wierzchołkami i, j oraz f ij wartością komponenty i, j (np. funkcja celu obcięta do danej komponenty). Wtedy mrówka przechodzi z i do j z prawdopodobieństwem p ij = tα ij f β ij k tα ik f β ik, dla parametrów istotności α i β (dla uproszczenia implementacji przyjmijmy α, β N + ).

ACS Ślad feromonu Po skompletowaniu dopuszczalnego rozwiązania (pusta lista zmiennych do waluacji), obliczamy nowe natężenie feromonów w ścieżce, dla każdej komponenty: t (k +1) ij = t (k ) ij + a t a,ij = { τ f (ˆx) a =1 t a,ij, jeśli i, j użyta przez a w ˆx 0 w p.p. τ może być stałe (np. 1), jak i determinowane przez funkcję najlepszego aktualnie znanego rozwiązania

ACS Ulatnianie feromonu W celu zmniejszenia ryzyka utknięcia w lokalnym optimum stopniowo pozwalamy na stopniowe wietrzenie feromonu: Jak dobrać ρ? t k ij = (1 ρ)t (k ) ij. stała z przedziału (0, 1) im większa, tym bliżej błądzenia losowego stała c z uwzględnieniem liczności kolonii (np.c 1 a ). funkcja liczności kolonii a oraz liczby mrówek korzystających z komponenty i, j ã. funkcja k początkowo chcemy błądzić losowo, następnie zmniejszać ρ

ACS Warianty Elitystyczny Max-Min Rankingowy Hiperkostkowy ANTS Dziel-rządź Przeszukiwanie sterowane

Przykłady TSP losowe rozwiązanie początkowe

Przykłady TSP iteracja 5

Przykłady TSP iteracja 10

Przykłady TSP iteracja 20

Przykłady TSP iteracja 40

Przykłady TSP iteracja 80

Przykłady TSP iteracja 85

Przykłady TSP iteracja 90

Przykłady TSP iteracja 95

Przykłady TSP iteracja 100

Przykłady TSP wyniki Przykładowe wykonania dla n = 50, k = 100, a = 13, 1000 prób. Średnia Min Max ACS 3057.91 3022.11 3230.84 Elitystyczny 3063.08 3041.60 3109.73 Elitystyczny łagodny 3049.85 3019.97 3111.46

Przykłady Parametry liczba iteracji, liczność kolonii początkowe rozmieszczenie feromonów (rozwiązanie początkowe) poziom zostawianego i ulatniającego się feromonu wpływ feromonu vs wpływ funkcji celu poziomu feromonu elity poziom minimalnego i maksymalnego nasycenia feromonami

Idea Zachowania socjalne a grawitacja Zaczynamy z pewną pulą rozwiązań dopuszczalnych nazywanych cząstkami, całą pulę nazywamy rojem. Rój porusza się w n wymiarowej przestrzeni (tzn. określana jest wartość dla każdej zmiennej). Ruch oznacza zmianę waluacji części zmiennych i przejście do nowego rozwiązania. każde rozwiązanie zmienia się w zależności od historii swoich pozycji oraz historii i aktualnej pozycji reszty roju zmiany określa wektor prędkości krok w stronę algorytmów ewolucyjnych

Idea Zarys 1 Określamy rozmiar roju i losujemy początkową populację 2 Określamy v 0 (lub v 0 i ) oraz α - współczynnik hamowania 3 Określamy β oraz η - współczynniki istotności najlepszego swojego wyniku oraz najlepszego wyniku globalnego 4 Dla każdej cząstki i: x i i oraz x min x i 5 Dla każdej cząstki z niezerową prędkością: Dla każdego wymiaru d: β R (0, β), η R (0, η), v (d) α v (d) + β( x i x i ) + η(x x i ) x i x i + v Uaktualniamy x i oraz x 6 Kończymy gdy wszystkie cząstki się zatrzymają, zrównają się pozycją lub skończy się czas

Idea Uwaga: Podatność na utknięcie w lokalnym optimum. zwiększamy znaczenie własnych wyników zmniejszamy wpływ historii globalnej ograniczamy komunikację

Idea Modyfikacje Wybór rodzaju komunikacji (pełna, geograficzna, socjalna) Dobór (pozycji) rozwiązań początkowych Stosowanie obrotów przestrzeni Podejście grawitacyjne (start z zerowymi prędkościami, zmiany rozwiązań na zasadzie siły grawitacji) Podejście wielorojowe (klastry) Hybrydyzacja

Idea Więcej informacji E. Goldbarg et al.: PSO dla TSP X. Yan et al.: PSO dla TSP oraz porównanie tempa zbieżności z alg. genetycznym M. Bonyadi: doktorat na temat PSO M. Bonyadi, Z. Michalewicz: przegląd aktualnych podejść PSO dla pojedynczej (ciągłej) funkcji celu