Algorytm świetlika charakterystyka, własności aplikacyjne i usprawnienia

Podobne dokumenty
Algorytm FIREFLY. Michał Romanowicz Piotr Wasilewski

Algorytmy stadne w problemach optymalizacji

Optymalizacja. Przeszukiwanie lokalne

O dwóch modyfikacjach algorytmu PSO

Optymalizacja. Symulowane wyżarzanie

Algorytmy metaheurystyczne Wykład 6. Piotr Syga

Rój cząsteczek. Particle Swarm Optimization. Adam Grycner. 18 maja Instytut Informatyki Uniwersytetu Wrocławskiego

Seminarium IO. Zastosowanie wielorojowej metody PSO w Dynamic Vehicle Routing Problem. Michał Okulewicz

Optymalizacja. Wybrane algorytmy

Dobór parametrów algorytmu ewolucyjnego

Zastosowanie algorytmów rojowych w zadaniu planowania sieci WLAN Application of rogue algorithms in the WLAN planning task

Przegląd metod optymalizacji wielowymiarowej. Funkcja testowa. Funkcja testowa. Notes. Notes. Notes. Notes. Tomasz M. Gwizdałła

Techniki optymalizacji

SZTUCZNA INTELIGENCJA

Optymalizacja ciągła

Bezgradientowe metody optymalizacji funkcji wielu zmiennych. informacje dodatkowe

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Seminarium IO. Zastosowanie metody PSO w Dynamic Vehicle Routing Problem (kontynuacja) Michał Okulewicz

Zadania laboratoryjne i projektowe - wersja β

HEURYSTYCZNY ALGORYTM SZEREGOWANIA ZADAŃ W SYSTEMIE MASZYN RÓWNOLEGŁYCH Z KRYTERIUM MINIMALNO-CZASOWYM

Optymalizacja ciągła

Strategie Zespołowe (SZ) dr inż. Tomasz Białaszewski

Algorytm dyskretnego PSO z przeszukiwaniem lokalnym w problemie dynamicznej wersji TSP

Symulowane wyżarzanie dla problemu harmonogramowania projektu z ograniczonymi zasobami. Marcin Klimek *

Tabu Search (Poszukiwanie z zakazami)

Metody Optymalizacji: Przeszukiwanie z listą tabu

Algorytmy metaheurystyczne podsumowanie

PRZESZUKIWANIE LOKALNE I ALGORYTMY POPULACYJNE DLA WIELOKRYTERIALNEGO PROBLEMU GNIAZDOWEGO

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Analiza stanów gry na potrzeby UCT w DVRP

ALGORYTM EWOLUCYJNY DLA PROBLEMU SZEREGOWANIA ZADAŃ W SYSTEMIE PRZEPŁYWOWYM

ALGORYTMY EWOLUCYJNE W OPTYMALIZACJI JEDNOKRYTERIALNEJ

RÓWNANIA NIELINIOWE Maciej Patan

AUTOMATYZACJA PROCESÓW DYSKRETNYCH 2016

NOWE WARIANTY OPERATORÓW GENETYCZNYCH DLA PROBLEMÓW Z KRYTERIUM SUMACYJNYM

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Algorytm Genetyczny. zastosowanie do procesów rozmieszczenia stacji raportujących w sieciach komórkowych

WYKORZYSTANIE ALGORYTMÓW PSZCZELICH W PROCESIE POSZUKIWANIA MINIMUM FUNKCJI CELU

Metody optymalizacji dyskretnej

Analiza Algorytmów. Informatyka, WPPT, Politechnika Wroclawska. 1 Zadania teoretyczne (ćwiczenia) Zadanie 1. Zadanie 2. Zadanie 3

ALHE Jarosław Arabas Metaheurystyki w Rn Ewolucja różnicowa EDA CMAES Rój cząstek

PROBLEM PRZEPŁYWOWY Z PRZEZBROJENIAMI ORAZ CIĄGŁĄ PRACĄ MASZYN Wojciech BOŻEJKO, Radosław IDZIKOWSKI, Mieczysław WODECKI

Mrówka Pachycondyla apicalis

ALGORYTM PERTURBACYJNY DLA PROBLEMU PRZEPŁYWOWEGO

Algorytmy ewolucyjne optymalizacji wielokryterialnej sterowane preferencjami decydenta

Techniki optymalizacji

ALGORYTM PERTURBACYJNY DLA PROBLEMU PRZEPŁYWOWEGO

Metody Rozmyte i Algorytmy Ewolucyjne

HARMONOGRAMOWANIE ROBÓT BUDOWLANYCH Z MINIMALIZACJĄ ŚREDNIEGO POZIOMU ZATRUDNIENIA

Metody Programowania

LABORATORIUM 3: Wpływ operatorów krzyżowania na skuteczność poszukiwań AE

Politechnika Wrocławska Wydział Elektroniki INFORMATYKA SYSTEMÓW AUTONOMICZNYCH. Heurystyka, co to jest, potencjalne zastosowania

Optymalizacja. Przeszukiwanie tabu

HISTOGRAM. Dr Adam Michczyński - METODY ANALIZY DANYCH POMIAROWYCH Liczba pomiarów - n. Liczba pomiarów - n k 0.5 N = N =

Strategie ewolucyjne (ang. evolution strategies)

Stochastyczne zagadnienie rozdziału z dyskretnym rozkładem popytu

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska

Matematyka dyskretna - wykład - część Podstawowe algorytmy kombinatoryczne

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań

Optymalizacja ciągła

Problemy z ograniczeniami

Katedra Informatyki Stosowanej. Algorytmy ewolucyjne. Inteligencja obliczeniowa

ROZWÓJ ALGORYTMU EWOLUCJI RÓŻNICOWEJ. Konrad Wypchło

Testowanie metod optymalizacji i hipotez statystycznych Opracowanie: Łukasz Lepak,

Przeszukiwanie lokalne

WYKŁAD 9 METODY ZMIENNEJ METRYKI

PEWNE METODY HYBRYDOWE W JEDNOKRYTERIALNEJ OPTYMALIZACJI KONSTRUKCJI SOME HYBRID METHODS FOR SINGLE CRITERIA DESIGN OPTIMIZATION

ZESZYTY NAUKOWE POLITECHNIKI ŚLĄSKIEJ 2008 Seria: AUTOMATYKA z. 199 Nr kol. 1999

ALGORYTM PRZESZUKIWANIA Z ZABRONIENIAMI DLA DWUKRYTERIALNEGO PROBLEMU PRZEPŁYWOWEGO

Algorytmy mrówkowe (optymalizacja kolonii mrówek, Ant Colony optimisation)

Algorytmy ewolucyjne

Heurystyczne metody przeszukiwania

Planowanie drogi robota, algorytm A*

Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych

ZASTOSOWANIE ALGORYTMÓW MRÓWKOWYCH W ROZWIĄZANIU PROBLEMU SZEREGOWANIA ZADAŃ APPLICATION OF ANT COLONY SYSTEMS IN SOLVING OF TASK SCHEDULING PROBLEM

Algorytmy ewolucji różnicowej (ang. differential evolution -DE) oraz roju cząstek (ang. particle swarm optimization -PSO)

Algorytm genetyczny (genetic algorithm)-

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Elementy wspo łczesnej teorii inwersji

Algorytmy konstrukcyjne dla problemu harmonogramowania projektu z ograniczonymi zasobami. Marcin Klimek *

Metody systemowe i decyzyjne w informatyce

Podejście memetyczne do problemu DCVRP - wstępne wyniki. Adam Żychowski

Jak trudne jest numeryczne całkowanie (O złożoności zadań ciągłych)

Analiza Algorytmów 2018/2019 (zadania na laboratorium)

Wybór / ocena atrybutów na podstawie oceny jakości działania wybranego klasyfikatora.

Risk-Aware Project Scheduling. SimpleUCT

Aproksymacja funkcji a regresja symboliczna

Kombinacja jądrowych estymatorów gęstości w klasyfikacji - zastosowanie na sztucznym zbiorze danych

Kompresja danych Streszczenie Studia Dzienne Wykład 10,

Podstawy Informatyki. Sprawność algorytmów

Algorytm Grovera. Kwantowe przeszukiwanie zbiorów. Robert Nowotniak

Optymalizacja systemów

Algorytmy ewolucyjne

Algorytmy mrówkowe. P. Oleksyk. Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Inteligentne systemy informatyczne

Wybrane podstawowe rodzaje algorytmów

Analiza algorytmów zadania podstawowe

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

Optymalizacja ciągła

Algorytmy heurystyczne w UCB dla DVRP

Transkrypt:

Algorytm świetlika charakterystyka, własności aplikacyjne i usprawnienia Szymon Łukasik Instytut Badań Systemowych PAN Katedra Automatyki i Technik Informacyjnych Politechniki Krakowskiej

Wprowadzenie Algorytm świetlika (ang. Firefly Algorithm, w skrócie FA) jest nową metaheurystyką rojową opracowaną w 2008 roku przez prof. Xin-She Yanga. Jest ona inspirowana zachowaniem społecznym świetlików (owadów z rodziny Lampyridae, w Polsce często określanych mianem robaczków świętojańskich) i fenomenem ich bioluminescencyjnej komunikacji. W zamierzeniu algorytm jest dedykowany do zagadnień optymalizacji ciągłej z ograniczeniami, gdzie rozważany jest problem minimalizacji funkcji kosztu f(x), tj. znalezienie takiego x * że: f(x ) = min f(x) x S przy czym: S R n. Niedawno pokazano również że algorytm świetlika może być z powodzeniem użyty także w problemach optymalizacji kombinatorycznej (przykład: przepływowe szeregowanie zadań). 2

FA podstawy działania Załóżmy że istnieje rój m agentów (świetlików) rozwiązujących iteracyjnie problem optymalizacji, przy czym x i reprezentuje rozwiązanie dla świetlika i w iteracji k, a f(x i ) oznacza jego koszt. Każdy świetlik posiada wyróżniającą go atrakcyjność β która określa jak silnie przyciąga on innych członków roju. Jako atrakcyjność świetlika powinno się użyć malejącej funkcji odległości r j = d(x i, x j ) do wybranego świetlika j, np. jak sugeruje Yang funkcji: β = β 0 e γ r j 2 gdzie β 0 i γ są ustalonymi na wstępie parametrami algorytmu, odpowiednio: maksimum atrakcyjności i współczynnikiem absorpcji. 3

Ruch świetlika Każdy członek roju jest charakteryzowany przez świetlność I i która może być bezpośrednio wyrażona jako odwrotność wartości funkcji kosztu f(x i ). Początkowo wszystkie świetliki są rozmieszczone w S (losowo bądź z użyciem pewnej deterministycznej strategii). By efektywnie eksplorować przestrzeń rozwiązań przyjmuje się że każdy świetlik i zmienia swoje położenie iteracyjnie, biorąc pod uwagę dwa czynniki: atrakcyjność innych członków roju o większej świetlności I j > I i, j = 1,...m, j i która maleje wraz z odległością oraz krok losowy u i. Dla najjaśniejszego świetlika stosuje się jedynie wyżej wymieniony krok losowy. 4

FA w pseudokodzie Wejście: Wyjście: begin repeat f(z), S R n {funkcja kosztu}, S = [a k, b k ], k = 1,..., n {ograniczenia} m, β 0, γ, min u i, max u i {parametry algorytmu} x i min i min = argmin i f(x i ), x i min = argmin xi f(x i ) for i=1 to m and i i min do for j=1 to m do if f(x j ) < f(x i ) then r j =Calculate_Distance(x i,x j ) β=β 0 e r j 2 u i =Generate_Random_Vector (min u i, max u i ) for k=1 to n do x i,k =(1 β)x i,k + βx j,k + u i,k u i min =Generate_Random_Vector (min u i, max u i ) for k=1 to n do x i min,k =x i min,k + u i min,k until stop condition false end 5

FA w akcji: funkcja four peaks 6

Parametry algorytmu Można zauważyć że FA posiada trzy parametry określające wpływ innych rozwiązań i kroku losowego: Maksimum atrakcyjności β 0 [0, 1] determinuje atrakcyjność dla r j = 0 (0 jest równoważne rozproszonemu losowemu przeszukiwaniu, 1 pełnej/maksymalnej zależności od innych członków roju). Współczynnik absorpcji γ określa zmienność atrakcyjności wraz ze zwiększającą się odległością od świetlika z którym bieżący agent się komunikuje (0 oznacza brak zmienności tj. stałą atrakcyjność, to losowe przeszukiwanie). Dolne i górne ograniczenie (min u i, max u i ) określają zakres wartości kroku losowego. Należy także określić rozmiar roju m (warto tu odnotować, że FA posiada złożoność obliczeniową O(m 2 ). 7

Uwagi techniczne Yang w klasycznym schemacie algorytmu proponuje użyć ustalonej wartości współczynnika absorpcji γ zależnej od charakterystycznej długości rozważanego układu (w przedziale: 0,01 do 100) i losowego kroku w postaci: u i,k = α(rand 1/2) z dodatkowym skalowaniem wzdłuż wybranych wymiarów (gdy jest ono wymagane) oraz z rand U(0,1). Zbadaliśmy możliwość zastosowania zamiast ustalonej wartości współczynnika absorpcji jego adaptacyjnej postaci danej wzorem: γ = γ 0 lub γ = γ 0 r max r 2 max z γ 0 [0, 1] i r max = max d(x i, x j ), x i, x j S. Opcja ta wydaje się godna rozważenia (zwłaszcza dla γ 0 [0.7 ; 1.0]). 8

Wyniki eksperymentów Funkcjonowanie algorytmu zostało przebadane dla zestawu 14 dobrze znanych funkcji problemów testowych z zakresu optymalizacji ciągłej (np. himmelblau 2, schwefel 10, easom 2, rastrigin 20, griewank 5, rosenbrock 4...) Wszystkie testy zostały przeprowadzone dla ustalonej liczby iteracji algorytmu i powtórzone w 100 niezależnych próbach. Jako że w/w problemy charakteryzują różne skale wartości funkcji kosztu w celu ewaluacji różnych wariantów FA użyto ich oceny rankingowej, zamiast bezpośredniej analizy wskaźnika f(x * ) f(x i min). Oznacza to, że każdy problem rozważany było osobno, a warianty FA dla niego użyte były szeregowane zgodnie z jakością uzyskanego rozwiązania. Do ostatecznego porównania użyto median tak uzyskanych pozycji rankingowych. 9

Rozmiar populacji (grupa 1) Mediana pozycji rankingowych dla zmiennego rozmiaru populacji (funkcja sphere 3) 10

Rozmiar populacji (grupa 2) Mediana pozycji rankingowych dla zmiennego rozmiaru populacji (schwefel 10, easom 2, rastrigin 20, hartman 3&6, michalewicz 5, powersum 4) 11

Maksimum atrakcyjności Mediana pozycji rankingowych dla zmiennego maksimum funkcji atrakcyjności 12

Porównanie z algorytmem roju cząstek FA został porównany ze znajdującym się na znacznie wyższym stopniu rozwoju algorytmem PSO, zaimplementowanym ze współczynnikiem ograniczeń i zestawem rozsądnie zdefiniowanych parametrów (Schutte & Groenwold, 2005). Oba algorytmy zostały wykonane z tym samym rozmiarem populacji agentów m = 40, liczbą iteracji l = 250 a test powtórzono 100 razy, by uzyskane wyniki można było uznać za reprezentatywne. Użyto 9 wariantów FA ze zmiennym α {0,001; 0,01; 0,1} i γ {0,1; 1, 10} zaś przedmiotem rozważań był zarówno najlepszy wariant (biorąc pod uwagę wszystkie problemy), jak i najlepszy wynik osiągnięty przez FA dla każdego problemu. Wyniki: Najlepsza konfiguracja FA vs PSO: 4 11 Najlepszy wynik uzyskany przez dowolny wariant FA vs PSO 6 9 13

Przykładowe modyfikacje Yang proponuje w swojej najnowszej publikacji dotyczącej FA użycie zamiast prostego kroku losowego generowanego z rozkładu jednostajnego kroku opartego o generator rozkładu Lévy ego : u i,k = α sgn rand 1 2 Le vy Sugeruje także zastosowanie λ = 1.5 jako parametru generatora rozkładu i określa nowy wariant FA mianem Lévy Firefly Algorithm (LFA). Yang używa także FA jako jeden ze składników nowoopracowanej metody heurystycznej zwanej strategią orła (ang. Eagle Strategy). 14

Dalsze badania Obiecującym pomysłem wydaje się być zrównoleglenie algorytmu w sposób asynchroniczny, z przechowywaniem położeń i wartości funkcji kosztu w pamięci dzielonej. Hybrydyzacja FA z wybraną strategią lokalnego przeszukiwania w szczególności z uogólnionym lub szybkim symulowanym wyżarzaniem lub CMA-ES powinna przynieść znaczny wzrost jakości otrzymywanych wyników. Dalszych prac wymaga adaptacja wartości współczynnika absorpcji do rozważanego zagadnienia optymalizacji. W końcu algorytm ten powinien doczekać się rzetelnego porównania z PSO (zwłaszcza z wariantem FIPSO) opartego o benchmarki GECCO/CEC. Zastosowanie w optymalizacji kombinatorycznej na podstawie doświadczeń z prac nad DPSO. 15

Dziękuję Państwu za uwagę!

Ważniejsze pozycje bibliograficzne 1. X.-S. Yang, "Nature-Inspired Metaheuristic Algorithms", Luniver Press, 2008. 2. X.-S. Yang, "Engineering Optimization: An Introduction with Metaheuristic Applications", Wiley, 2010. 3. M. K. Sayadi, R. Ramezanian, N. Ghaffari-Nasab, "A discrete firefly meta-heuristic with local search for makespan minimization in permutation flow shop scheduling problems", International Journal of Industrial Engineering Computations, Vol. 1, 2010. 4. S. Łukasik, S. Żak, "Firefly Algorithm for Continuous Constrained Optimization Tasks", Lecture Notes in Artificial Intelligence, vol. 5796, 2009. 5. K.N. Krishnanand, D. Ghose. "Glowworm swarm optimization for simultaneous capture of multiple local optima of multimodal functions, Swarm Intelligence, vol. 3, 2009. 6. K.N. Krishnanand, D. Ghose, "Glowworm swarm based optimization algorithm for multimodal functions with collective robotics applications", Multi-agent and Grid Systems, vol. 2, 2006. 17