O dwóch modyfikacjach algorytmu PSO

Podobne dokumenty
PSO Rój cząsteczek - Particle Swarm Optimization. Michał Szopiak

Algorytmy stadne w problemach optymalizacji

Rój cząsteczek. Particle Swarm Optimization. Adam Grycner. 18 maja Instytut Informatyki Uniwersytetu Wrocławskiego

Seminarium IO. Zastosowanie wielorojowej metody PSO w Dynamic Vehicle Routing Problem. Michał Okulewicz

Algorytmy ewolucji różnicowej (ang. differential evolution -DE) oraz roju cząstek (ang. particle swarm optimization -PSO)

Dobór parametrów algorytmu ewolucyjnego

Seminarium IO. Zastosowanie metody PSO w Dynamic Vehicle Routing Problem (kontynuacja) Michał Okulewicz

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

Obliczenia Naturalne - Algorytmy rojowe

Zastosowanie algorytmów heurystycznych do rozwiązywania problemu układania tras pojazdów

Zastosowanie sztucznej inteligencji w testowaniu oprogramowania

SZTUCZNA INTELIGENCJA

WYKORZYSTANIE ALGORYTMÓW PSZCZELICH W PROCESIE POSZUKIWANIA MINIMUM FUNKCJI CELU

Analiza stanów gry na potrzeby UCT w DVRP

Algorytm dyskretnego PSO z przeszukiwaniem lokalnym w problemie dynamicznej wersji TSP

Zastosowanie algorytmów rojowych w zadaniu planowania sieci WLAN Application of rogue algorithms in the WLAN planning task

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań

Jak wrócić dziś do domu?

Wstęp do Sztucznej Inteligencji

Algorytm świetlika charakterystyka, własności aplikacyjne i usprawnienia

Algorytmy mrówkowe (optymalizacja kolonii mrówek, Ant Colony optimisation)

Wykorzystanie algorytmów rojowych do klasteryzacji zbioru ofert sprzedaży mieszkań Algorytmy genetyczne - Projekt

Obliczenia naturalne Natural Computing. Informatyka II stopień (I stopień / II stopień) ogólno akademicki (ogólno akademicki / praktyczny)

Podejście memetyczne do problemu DCVRP - wstępne wyniki. Adam Żychowski

Plan. Zakres badań teorii optymalizacji. Teoria optymalizacji. Teoria optymalizacji a badania operacyjne. Badania operacyjne i teoria optymalizacji


Algorytmy heurystyczne w UCB dla DVRP

Rola stacji gazowych w ograniczaniu strat gazu w sieciach dystrybucyjnych

Algorytm genetyczny (genetic algorithm)-

Algorytmy ewolucyjne 1

Kombinacja jądrowych estymatorów gęstości w klasyfikacji - zastosowanie na sztucznym zbiorze danych

SZTUCZNA INTELIGENCJA

Obliczenia z wykorzystaniem sztucznej inteligencji

Ewolucyjne projektowanie i optymalizacja kombinacyjnych układów cyfrowych ze względu na liczbę tranzystorów

Systemy wieloagentowe (Multi Agent Systems - MAS) aspekty wybrane

Optymalizacja optymalizacji

Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner

Zaawansowane programowanie

Badania w sieciach złożonych

Optymalizacja a uczenie się

//warunki początkowe m=500; T=30; c=0.4; t=linspace(0,t,m); y0=[-2.5;2.5];

Obliczenia z wykorzystaniem sztucznej inteligencji

dr inż. SZYMON ŁUKASIK

Porównanie wydajności CUDA i OpenCL na przykładzie równoległego algorytmu wyznaczania wartości funkcji celu dla problemu gniazdowego

Problemy z ograniczeniami

Algorytmy genetyczne

Metody Programowania

Życiorys. Wojciech Paszke. 04/2005 Doktor nauk technicznych w dyscyplinie Informatyka. Promotor: Prof. Krzysztof Ga lkowski

Systemy uczące się Lab 4

Kierunek i rodzaj studiów (Specjalność) Rodzaj pracy Nazwa jednostki Opiekun pracy Temat pracy (j.polski i j.angielski)

Dr. inŝ. Ewa Szlachcic Katedra Automatyki, Mechatroniki i Systemów Sterowania. Przykładowe zadania optymalizacji nieliniowej bez ograniczeń

Parametry wydajnościowe systemów internetowych. Tomasz Rak, KIA

Spis treści WSTĘP... 9

Testowanie metod optymalizacji i hipotez statystycznych Opracowanie: Łukasz Lepak,

Stochastic modelling of phase transformations using HPC infrastructure

Algorytm hybrydowy dla alokacji portfela inwestycyjnego przy ograniczonych zasobach

Algorytm Grovera. Kwantowe przeszukiwanie zbiorów. Robert Nowotniak

Analysis of PCE-based path optimization in multi-domain SDN/MPLS/BGP-LS network

Optymalizacja. Wybrane algorytmy

Hybrydowa analiza transformat w rozpoznawaniu wysokości dźwięków w polifonicznych nagraniach instrumentów muzycznych

FOLIA POMERANAE UNIVERSITATIS TECHNOLOGIAE STETINENSIS Folia Pomer. Univ. Technol. Stetin. 2009, Oeconomica 275 (57), 53 58

Priorytetyzacja przypadków testowych za pomocą macierzy

Algorytmy mrówkowe. Plan. » Algorytm mrówkowy» Warianty» CVRP» Demo» Środowisko dynamiczne» Pomysł modyfikacji» Testowanie

AUTOMATYZACJA PROCESÓW DYSKRETNYCH 2016

Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska

Lista przedmiotów prowadzonych przez pracowników Zakładu Sieci i Systemów Elektroenergetycznych

dr inż. Mirosław Szczepanik ZAŁĄCZNIK 2 do Wniosku

Algorytm FIREFLY. Michał Romanowicz Piotr Wasilewski

Metody Optymalizacji: Przeszukiwanie z listą tabu

ROZWÓJ ALGORYTMU EWOLUCJI RÓŻNICOWEJ. Konrad Wypchło

Metody optymalizacji dyskretnej

Planowanie drogi robota, algorytm A*

Teoria i metody optymalizacji

Systemy wieloagentowe (Multi Agent Systems - MAS) aspekty wybrane

ALGORYTMY EWOLUCYJNE W OPTYMALIZACJI JEDNOKRYTERIALNEJ

Algorytmy ewolucyjne

PEWNE METODY HYBRYDOWE W JEDNOKRYTERIALNEJ OPTYMALIZACJI KONSTRUKCJI SOME HYBRID METHODS FOR SINGLE CRITERIA DESIGN OPTIMIZATION

LABORATORIUM 3: Wpływ operatorów krzyżowania na skuteczność poszukiwań AE

Przegląd metod optymalizacji wielowymiarowej. Funkcja testowa. Funkcja testowa. Notes. Notes. Notes. Notes. Tomasz M. Gwizdałła

PRZEWODNIK PO PRZEDMIOCIE

Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej. Adam Żychowski

Auditorium classes. Lectures

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

Programowanie proceduralne INP001210WL rok akademicki 2017/18 semestr letni. Wykład 3. Karol Tarnowski A-1 p.

Efektywne zarządzanie mocą farm wiatrowych Paweł Pijarski, Adam Rzepecki, Michał Wydra 2/16

IMPLIKACJE ZASTOSOWANIA KODOWANIA OPARTEGO NA LICZBACH CAŁKOWITYCH W ALGORYTMIE GENETYCZNYM

INSTRUKCJA DO ĆWICZENIA NR 1

Zastosowanie algorytmu optymalizacji wieloagentowej do automatycznej kalibracji modeli symulacyjnych

LABORATORIUM 2: Wpływ wielkości populacji i liczby pokoleń na skuteczność poszukiwań AE. opracował: dr inż. Witold Beluch

RÓWNOLEGŁY EWOLUCYJNY ALGORYTM OPTYMALIZACYJNY Z GRADIENTOWĄ POPRAWĄ OSOBNIKÓW

Strategie ewolucyjne. Gnypowicz Damian Staniszczak Łukasz Woźniak Marek

ARMAX (ANN) : :. (ANN) ARMAX.... ARMAX ARMA :..Q47 E27 C53 C45 :JEL

Algorytmy ewolucyjne NAZEWNICTWO

RÓWNOLEGŁY ALGORYTM POSZUKIWANIA Z ZABRONIENIAMI UKŁADANIA PLANU ZAJĘĆ

Opiekun dydaktyczny: dr in. Robert ukomski

Obliczenia inspirowane Naturą

Algorytmy metaheurystyczne Wykład 6. Piotr Syga

Nazwa Wydziału Nazwa jednostki prowadzącej moduł Nazwa modułu kształcenia. Kod modułu Język kształcenia Efekty kształcenia dla modułu kształcenia

OPTYMIZACJA SPRAWNOŚCI SILNIKA INDUKCYJNEGO Z ZASTOSOWANIEM ALGORYTMÓW SZTUCZNEJ INTELIGENCJI

Analiza i Przetwarzanie Obrazów

Transkrypt:

Wydział Matematyki i Nauk Informacyjnych Politechnika Warszawska Seminarium: Inteligencja Obliczeniowa 24 listopada 2011

Plan prezentacji 1 Wprowadzenie 2 3 4 5 6

Definicja problemu Wprowadzenie Definicja problemu Motywacja Znane metody Inteligencja rojowa Porównywane algorytmy Prezentowane algorytmy rozwiązują problem poszukiwania minimum globalnego x funkcji ciągłej f f : R n R x, tż. x R n f (x) f (x ).

Motywacja Wprowadzenie Definicja problemu Motywacja Znane metody Inteligencja rojowa Porównywane algorytmy Poszukiwanie algorytmu łączącego dobrze zdolności eksploracyjne z eksploatacyjnymi Czy zamodelowanie bardziej skomplikowanej sytuacji społecznej poprawi wyniki PSO? Czy modyfikacja strategii działania algorytmu poprawi jego wyniki bardziej niż dostrajanie parametrów?

Znane metody Wprowadzenie Definicja problemu Motywacja Znane metody Inteligencja rojowa Porównywane algorytmy Symulowane Wyżarzanie Algorytmy Ewolucyjne Wielokrotna/równoległa optymalizacja lokalna Optymalizacja Rojowa Algorytm Cywilizacyjny...

Inteligencja rojowa Wprowadzenie Definicja problemu Motywacja Znane metody Inteligencja rojowa Porównywane algorytmy Postulaty Decentralizacja sterowania i samoorganizacja prostych bytów Nieskomplikowany cel każdego z bytów Komunikacja i współpraca pomiędzy bytami Przykładowa realizacja Ant Colony Optimization - wyznaczanie optymalnej trasy Particle Swarm Optimization - optymalizacja globalna Artificial Bee Colony - optymalizacja globalna Symulacja zachowań tłumu - przemysł filmowy

Porównywane algorytmy Definicja problemu Motywacja Znane metody Inteligencja rojowa Porównywane algorytmy Particle Swarm Optimization (PSO) Repulsive Particle Swarm Optimization (RPSO) Mixed Particle Swarm Optimization (MPSO) - Inventors Algorithm (InA) - Explorers Algorithm (ExA)

Opis Wprowadzenie Opis Pseudokod Algorytm opiera swoje działanie na roju cząstek Każda cząsteczka ma swoją prędkość Cząsteczki posiadają pewną bezwładność Cząsteczki mogą być przyciągane przez najlepszy punkt znaleziony przez swoich sąsiadów Cząsteczki są przyciągane przez najlepszy punkt znaleziony przez siebie Cząsteczki mogą być odpychane od innych cząsteczek

Opis Pseudokod PSO - schemat działania algorytmu PSO() { swarm.initializerandomlyparticleslocationandvelocity(); for i from 1 to maxiterations { swarm.updatebestlocation(); for each particle in swarm { particle.updatevelocity(); particle.updatelocation();

Opis Pseudokod PSO - zmiana prędkości cząsteczki Particle { updatevelocity() { for (i from 1 to dimensions) { this.v[i] = random.uniform(0,g)*(swarm.best[i] - this.x[i]) + random.uniform(0,l)*(this.best[i] - this.x[i]) + random.uniform(0,r)*(this.x[i] - swarm.random().x[i]) + a * this.v[i] + y * random.normal(0,1);

Opis Pseudokod PSO - zmiana położenia cząsteczki updatelocation() { for (i from 1 to dimensions) { this.x[i] = this.x[i] + this.v[i]; if (f(this.best) > f(this.x)) { this.best = this.x;

Opis Wprowadzenie Pseudokod Pewną część roju stanowią cząstki wynalazcy Odkrywcy poszukują nowych nie eksploatowanych aktualnie rozwiązań (zachowują się jak cząsteczki w algorytmie RPSO)

Pseudokod Inventors Algorithm - zmiana prędkości cząsteczki InventorsParticle: Particle { updatevelocity() { for (i from 1 to dimensions) { this.v[i] = random.uniform(0,r)*(swarm.best[i] - this.x[i]) + random.uniform(0,l)*(this.best[i] - this.x[i]) + random.uniform(0,g)*(this.x[i] - swarm.random.x[i]) + a * this.v[i] + y * random.normal(0,1);

Opis Wprowadzenie Opis Pseudokod Pewną część roju stanowią cząsteczki odkrywcy Cząsteczki odkrywcy początkowo zachowują się tak samo jak cząsteczki wynalazcy Cząsteczka odkrywca może ulec znudzeniu i zacząć poszukiwać maksimum funkcji Cząsteczka odkrywca poszukująca maksimum może ulec zmęczeniu i zacząć poszukiwać minimum funkcji

Opis Pseudokod Explorers Algorithm - zmiana prędkości cząsteczki ExplorersParticle: InventorsParticle { updatelocation() { for (i from 1 to dimensions) { this.x[i] = this.x[i] + this.v[i]; if (f(this.best[t]) > f(this.x) && this.isserchingforminimum) { this.best[t] = this.x; if (f(this.best[t]) < f(this.x) &&!this.isserchingforminimum) { this.best[t] = this.x; if (!this.isserchingforminimum) { if (fatigue++ > 2 * this.samples_to_switch) { fatigue = 0; this.isserchingforminimum = true; this.samples_to_switch *= 2; if ( this.best[t-samples_to_switch] - this.best[t] < precision_to_switch) { fatigue = 0; this.isserchingforminimum =!this.isserchingforminimum;

Testowane scenariusze Testowane scenariusze Funkcje testowe Wyniki Porównanie jakości działania algorytmu bazowego i jego modyfikacji dla następujących przypadków Standardowa początkowa przestrzeń przeszukiwań Początkowa przestrzeń przeszukiwań nie zawierająca minimum globalnego Początkowa przestrzeń przeszukiwań zawierająca się w bliskim sąsiedztwie minimum lokalnego Warunki eksperymentu Średnia ze 100 przebiegów każdego z algorytmów Każdy przebieg miał 100 cząsteczek i 100 iteracji Przebieg był uznawane za sukces jeżeli x A x < 0.05 lub f (x A ) f (x ) < 0.05 a miarą sukcesu jest liczba obliczeń optymalizowanej funkcji potrzebna do osiągnięcia sukcesu

Funkcje testowe Wprowadzenie Testowane scenariusze Funkcje testowe Wyniki Pierwsza funkcja de Jonga Dolina Rosenbrocka Piąta funkcja de Jonga Funkcja Rastrigina

Pierwsza funkcja de Jonga Testowane scenariusze Funkcje testowe Wyniki f (x) = n i=1 x 2 i. x = (0, 0,..., 0). f (x ) = 0.

Dolina Rosenbrocka Wprowadzenie Testowane scenariusze Funkcje testowe Wyniki f (x) = n 1 [100(x i+1 xi 2 ) 2 + (1 x i) 2 ] i=1 x = (1, 1,..., 1). f (x ) = 0.

Piąta funkcja de Jonga Testowane scenariusze Funkcje testowe Wyniki f (x) = ( 2 2 i= 2 j= 2 x = ( 32, 32). f (x ) = 0.998. ) 1 ( 5(i + 2) + j + 3 + (x1 16j) 6 + (x 2 16i) 6) 1.

Funkcja Rastrigina Wprowadzenie Testowane scenariusze Funkcje testowe Wyniki f (x) = 10n + n [x 2 10 cos(2πx i)] i=1 x = (0, 0,..., 0). f (x ) = 0. i

Wyniki - procent sukcesów I Testowane scenariusze Funkcje testowe Wyniki Funkcja Pierwsza funkcja de Jonga Dolina Rosenbrocka Algorytm Procent sukcesów Test 1 Test 2 Test 3 PSO 100% 100% - RPSO 0% 0% - MPSO 0% 1% - InA 100% 100% - ExA 100% 100% - PSO 1% 0% - RPSO 0% 0% - MPSO 0% 0% - InA 2% 1% - ExA 1% 0% -

Wyniki - procent sukcesów II Testowane scenariusze Funkcje testowe Wyniki Funkcja Piąta funkcja de Jonga Funkcja Rastrigina Algorytm Procent sukcesów Test 1 Test 2 Test 3 PSO 96% 12% 0% RPSO 2% 0% 1% MPSO 28% 15% 7% InA 71% 21% 25% ExA 73% 24% 21% PSO 12% 0% 0% RPSO 0% 0% 0% MPSO 0% 0% 0% InA 4% 1% 0% ExA 5% 0% 2%

Testowane scenariusze Funkcje testowe Wyniki Wyniki - uzyskana wartość funkcji I Funkcja Pierwsza funkcja de Jonga Dolina Rosenbrocka Algorytm Wartość funkcji Test 1 Test 2 Test 3 PSO 0.00 0.00 - RPSO 0.25 1.00 - MPSO 0.01 0.00 - InA 0.00 0.00 - ExA 0.00 0.00 - PSO 0.05 0.20 - RPSO 78.53 9.83 - MPSO 0.91 0.33 - InA 0.05 0.05 - ExA 0.03 0.13 -

Testowane scenariusze Funkcje testowe Wyniki Wyniki - uzyskana wartość funkcji II Funkcja Piąta funkcja de Jonga Funkcja Rastrigina Algorytm Wartość funkcji Test 1 Test 2 Test 3 PSO 1.00 1.00 23.81 RPSO 1.00 1.00 1.00 MPSO 1.00 1.00 1.00 InA 1.00 1.00 1.00 ExA 1.00 1.00 1.00 PSO 0.01 1.01 4.14 RPSO 2.19 12.14 5.35 MPSO 1.22 1.98 1.30 InA 0.11 0.13 1.08 ExA 0.03 1.01 0.15

Wyniki - liczba kroków I Testowane scenariusze Funkcje testowe Wyniki Funkcja First de Jong Rosenbrock s Algorytm Średnia liczba kroków Test 1 Test 2 Test 3 PSO 22 26 - RPSO x x - MPSO x 70 - InA 27 32 - ExA 28 32 - PSO 26 x - RPSO x x - MPSO x x - InA 48 95 - ExA 97 x -

Wyniki - liczba kroków II Testowane scenariusze Funkcje testowe Wyniki Funkcja Fifth de Jong Rastrigin s Algorytm Średnia liczba kroków Test 1 Test 2 Test 3 PSO 27 49 x RPSO 14 x 73 MPSO 45 36 77 InA 32 43 66 ExA 39 45 39 PSO 41 x x RPSO x x x MPSO x x x InA 30 21 x ExA 40 x 62

Wyniki - przykładowy przebieg Testowane scenariusze Funkcje testowe Wyniki 18 (PSO) przebiegów dla funkcji Rastrigina z hiperkostką początkową [1.9;2.1] Wartość znalezionego minimum 16 14 12 10 8 6 4 2 0 8 22 36 50 64 78 92 106 120 134 148 162 176 190 204 218 232 246 260 274 288 1 15 29 43 57 71 85 99 113 127 141 155 169 183 197 211 225 239 253 267 281 295 Iteracje Najlepszy przebieg Najgorszy przebieg Średnia z przebiegów

Wyniki - przykładowy przebieg Testowane scenariusze Funkcje testowe Wyniki 18 przebiegów dla funkcji Rastrigina z hiperkostką początkową [1.9;2.1]^4 16 Wartość znalezionego minimum 14 12 10 8 6 4 2 Najlepszy przebieg Najgorszy przebieg Średnia z przebiegów 0 10 28 46 64 82 100118136154172190208226244262280298316334352370388 1 19 37 55 73 91 109127145163181199217235253271289307325343361379397 Iteracja

Wyniki - przykładowy przebieg Testowane scenariusze Funkcje testowe Wyniki 18 przebiegów dla funkcji Rastrigina z hiperkostką początkową [1.9;2.1]^4 16 14 Wartość znalezionego minimum 12 10 8 6 4 Najlepszy przebieg Najgorszy przebieg Średnia z przebiegów 2 0 9 25 41 57 73 89 105 121 137 153 169 185 201 217 233 249 265 281 297 313 329 345 361 377 393 1 17 33 49 65 81 97 113 129 145 161 177 193 209 225 241 257 273 289 305 321 337 353 369 385 Iteracje

Wnioski Wprowadzenie Wnioski Dalsze działania Dalsze badania Dla przypadków o niewielkiej liczbie wymiarów modyfikacje algorytmu sprostały postawionemu zadaniu wydostania się z minimum lokalnego Modyfikacja nie obniżyły w sposób istotny jakości działania algorytmu bazowego dla prostszych funkcji

Dalsze działania Wprowadzenie Wnioski Dalsze działania Dalsze badania Zaimplementowanie ograniczenia prędkości cząstki Wykorzystanie metaoptymalizacji Jako strategii optymalizacyjnej Jako pomocy w dynamicznym ustalaniu parametrów Jako pomocy w ustalaniu parametrów dla zadania danej klasy

Dalsze badania Wprowadzenie Wnioski Dalsze działania Dalsze badania Zmierzenie rozproszenia roju w czasie Zmierzenie średniej prędkości cząstek roju w czasie Przetestowanie algorytmów benchmarkiem COmparing Continuous Optimisers w ramach Black-Box Optimization Benchmarking 2012 Zaprezentowanie problemu doboru architektury i konfiguracji serwerów mapowych w postaci funkcji i próba jej optymalizacji przy użyciu algorytmów

Appendix Źródła Źródła I Standard PSO 2006, 2006. Ioan Cristian and Trelea. The particle swarm optimization algorithm: convergence analysis and parameter selection. Information Processing Letters, 85(6):317 325, 2003. Kenneth Alan De Jong. An analysis of the behavior of a class of genetic adaptive systems. PhD thesis, 1975. Nikolaus Hansen, Steffen Finck, Raymond Ros, and Anne Auger. Real-parameter black-box optimization benchmarking 2010: Noiseless functions definitions, 2011. D. Karaboga and B. Basturk. On the performance of artificial bee colony (abc) algorithm. Applied Soft Computing, 8(1):687 697, 2008. J. Kennedy and R. Eberhart. Particle swarm optimization. Proceedings of IEEE International Conference on Neural Networks. IV, pages 1942 1948, 1995. Marcin Molga and Czesław Smutnicki. Test functions for optimization needs, kwiecień 2005. http://www.zsd.ict.pwr.wroc.pl/files/docs/functions.pdf.

Appendix Źródła Źródła II H. Mühlenbein, D. Schomisch, and J. Born. The Parallel Genetic Algorithm as Function Optimizer. Parallel Computing, 17(6-7):619 632, 1991. A. Immanuel Selvakumar and K. Thanushkodi. Optimization using civilized swarm: Solution to economic dispatch with multiple minima. Electric Power Systems Research, 79(1):8 16, 2009. Y. Shi and R.C. Eberhart. A modified particle swarm optimizer. Proceedings of IEEE International Conference on Evolutionary Computation, page 69 73, 1998. Y. Shi and R.C. Eberhart. Parameter selection in particle swarm optimization. Proceedings of Evolutionary Programming VII (EP98), page 591 600, 1998. A. Törn and A. Zilinskas. Global Optimization. Lecture Notes in Computer Science, 350, 1989.