RÓWNOLEGŁY EWOLUCYJNY ALGORYTM OPTYMALIZACYJNY Z GRADIENTOWĄ POPRAWĄ OSOBNIKÓW

Podobne dokumenty
ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ

Algorytm genetyczny (genetic algorithm)-

SCHEMAT ROZWIĄZANIA ZADANIA OPTYMALIZACJI PRZY POMOCY ALGORYTMU GENETYCZNEGO

Optymalizacja ciągła

Optymalizacja optymalizacji

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

Dobór parametrów algorytmu ewolucyjnego

Optymalizacja ciągła

Definicja pochodnej cząstkowej

Testy De Jonga. Problemy. 1 Optymalizacja dyskretna i ciągła

LABORATORIUM 4: Algorytmy ewolucyjne cz. 2 wpływ operatorów krzyżowania i mutacji na skuteczność poszukiwań AE

Algorytmy genetyczne

Plan. Zakres badań teorii optymalizacji. Teoria optymalizacji. Teoria optymalizacji a badania operacyjne. Badania operacyjne i teoria optymalizacji

Metody Numeryczne Optymalizacja. Wojciech Szewczuk

PEWNE METODY HYBRYDOWE W JEDNOKRYTERIALNEJ OPTYMALIZACJI KONSTRUKCJI SOME HYBRID METHODS FOR SINGLE CRITERIA DESIGN OPTIMIZATION

ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH

WYKŁAD 9 METODY ZMIENNEJ METRYKI

Algorytmy genetyczne

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

Metody Optymalizacji: Przeszukiwanie z listą tabu

ALGORYTMY EWOLUCYJNE W OPTYMALIZACJI JEDNOKRYTERIALNEJ

1 Równania nieliniowe

KADD Minimalizacja funkcji

LABORATORIUM 3: Wpływ operatorów krzyżowania na skuteczność poszukiwań AE

Algorytmy genetyczne

WYKORZYSTANIE METOD OPTYMALIZACJI DO ESTYMACJI ZASTĘPCZYCH WŁASNOŚCI MATERIAŁOWYCH UZWOJENIA MASZYNY ELEKTRYCZNEJ

Wprowadzenie Metoda bisekcji Metoda regula falsi Metoda siecznych Metoda stycznych RÓWNANIA NIELINIOWE

Przegląd metod optymalizacji wielowymiarowej. Funkcja testowa. Funkcja testowa. Notes. Notes. Notes. Notes. Tomasz M. Gwizdałła

SZTUCZNA INTELIGENCJA

Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych

Wstęp do Sztucznej Inteligencji

Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona) f(x) = 0, gdzie. dla n=2 np.

Aproksymacja funkcji a regresja symboliczna

STEROWANIE ROZPŁYWEM CIEPŁA W WALE KALANDRA Z WYKORZYSTANIEM MATERIAŁÓW GRADIENTOWYCH

Równoważność algorytmów optymalizacji

Algorytm Genetyczny. zastosowanie do procesów rozmieszczenia stacji raportujących w sieciach komórkowych

Kombinacja jądrowych estymatorów gęstości w klasyfikacji - zastosowanie na sztucznym zbiorze danych

ZASTOSOWANIE METOD OPTYMALIZACJI W DOBORZE CECH GEOMETRYCZNYCH KARBU ODCIĄŻAJĄCEGO

Priorytetyzacja przypadków testowych za pomocą macierzy

OPTYMALIZACJA ZBIORNIKA NA GAZ PŁYNNY LPG

INSTRUKCJA DO ĆWICZENIA NR 1

SZTUCZNA INTELIGENCJA

Rys Wykres kosztów skrócenia pojedynczej czynności. k 2. Δk 2. k 1 pp. Δk 1 T M T B T A

Algorytm hybrydowy dla alokacji portfela inwestycyjnego przy ograniczonych zasobach

Gospodarcze zastosowania algorytmów genetycznych

Optymalizacja ciągła

LABORATORIUM 2: Wpływ wielkości populacji i liczby pokoleń na skuteczność poszukiwań AE. opracował: dr inż. Witold Beluch

Obliczenia ewolucyjne - plan wykładu

Algorytmy ewolucyjne 1

KADD Minimalizacja funkcji

PLAN WYKŁADU OPTYMALIZACJA GLOBALNA OPERATOR KRZYŻOWANIA ETAPY KRZYŻOWANIA

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

1 Metody rozwiązywania równań nieliniowych. Postawienie problemu

Wprowadzenie do analizy korelacji i regresji

w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych.

Matematyka dyskretna dla informatyków

Algorytmy ewolucyjne NAZEWNICTWO

Algorytmy genetyczne. Paweł Cieśla. 8 stycznia 2009

LABORATORIUM 1: Program Evolutionary Algorithms

Z-ZIP2-303z Zagadnienia optymalizacji Problems of optimization

Algorytm. Krótka historia algorytmów

Optymalizacja ciągła

Programowanie genetyczne, gra SNAKE

Algorytmy memetyczne (hybrydowe algorytmy ewolucyjne)

Optymalizacja systemów

Algorytmy ewolucyjne. Łukasz Przybyłek Studenckie Koło Naukowe BRAINS

Metody optymalizacji dyskretnej

Strategie ewolucyjne (ang. evolution strategies)

OPTYMALNE PROJEKTOWANIE TARCZ WZMACNIANYCH RÓWNOMIERNIE ROZŁOŻONYMI ŻEBRAMI

lim Np. lim jest wyrażeniem typu /, a

OPTYMALIZACJA KONSTRUKCJI

Problemy z ograniczeniami

Rój cząsteczek. Particle Swarm Optimization. Adam Grycner. 18 maja Instytut Informatyki Uniwersytetu Wrocławskiego

Modelowanie rynków finansowych z wykorzystaniem pakietu R

O dwóch modyfikacjach algorytmu PSO

Wstęp do metod numerycznych 11. Minimalizacja: funkcje wielu zmiennych. P. F. Góra

Katedra Informatyki Stosowanej. Algorytmy ewolucyjne. Inteligencja obliczeniowa

Zadania laboratoryjne i projektowe - wersja β

Analiza efektywności przetwarzania współbieżnego. Wykład: Przetwarzanie Równoległe Politechnika Poznańska Rafał Walkowiak Grudzień 2015

Wstęp do metod numerycznych 9. Minimalizacja: funkcje jednej zmiennej. P. F. Góra

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Metody systemowe i decyzyjne w informatyce

Strategie ewolucyjne. Gnypowicz Damian Staniszczak Łukasz Woźniak Marek

Podejście memetyczne do problemu DCVRP - wstępne wyniki. Adam Żychowski

Metody numeryczne. materiały do wykładu dla studentów. 7. Całkowanie numeryczne

Metody Rozmyte i Algorytmy Ewolucyjne

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Automatyczny dobór parametrów algorytmu genetycznego

Document: Exercise*02*-*manual /11/ :31---page1of8 INSTRUKCJA DO ĆWICZENIA NR 2

Techniki optymalizacji

Algorytmy ewolucyjne - algorytmy genetyczne. I. Karcz-Dulęba

ALGORYTMY GENETYCZNE ćwiczenia

BIOCYBERNETYKA ALGORYTMY GENETYCZNE I METODY EWOLUCYJNE. Adrian Horzyk. Akademia Górniczo-Hutnicza

ALHE Z11 Jarosław Arabas wykład 11

Analiza efektywności przetwarzania współbieżnego

OPTYMALNE PROJEKTOWANIE ROZKŁADU ŹRÓDEŁ CIEPŁA W WALE KALANDRA

Elementy inteligencji obliczeniowej

Algorytmy metaheurystyczne Wykład 6. Piotr Syga

Rozwiązywanie równań nieliniowych

Odkrywanie algorytmów kwantowych za pomocą programowania genetycznego

Transkrypt:

Zeszyty Naukowe WSInf Vol 14, Nr 1, 2015 Jan Turant Politechnika Łódzka Katedra Mechaniki i Informatyki Technicznej, Wyższa Szkoła Informatyki i Umiejętności w Łodzi Katedra Inżynierskich Zastosowań Informatyki email: jan.turant@p.lodz.pl RÓWNOLEGŁY EWOLUCYJNY ALGORYTM OPTYMALIZACYJNY Z GRADIENTOWĄ POPRAWĄ OSOBNIKÓW Streszczenie W pracy zaproponowano hybrydowy algorytm optymalizacyjny zbudowany z równoległego połączenia typowego zmiennoprzecinkowego algorytmu ewolucyjnego z gradientową poprawą grupy najlepszych osobników. Obliczenia przeprowadzono dla testowej funkcji celu dla przypadków różniących się liczbą lokalnie najlepszych rozwiązań, a następnie porównano wydajność i stabilność algorytmu dla różnych ilości osobników poddanych procesowi gradientowej poprawy. Słowa kluczowe: algorytmy hybrydowe, algorytmy ewolucyjne 1 Wstęp Olbrzymie potrzeby efektywnego rozwiązywania różnorakich zadań optymalizacyjnych doprowadziły do rozwoju metod obliczeniowych dedykowanych rozwiązywaniu tych problemów. Na szczególną uwagę zasługują tutaj metody bazujące na zjawiskach i mechanizmach obserwowanych w przyrodzie [1,2,10], które często są odpowiedzią na brak ścisłych, matematycznie udokumentowanych algorytmów mogących sprostać aktualnym potrzebom obliczeniowym. Potrzeba poszukiwania wydajnych algorytmów optymalizacyjnych prowadzi często do powstawania hybrydowych algorytmów, które mają wykorzystywać zalety łączonych technik poszukiwania rozwiązań najlepszych [4,8,9]. Bardzo duże znaczenie w różnorakich technikach optymalizacyjnych odgrywają algorytmy bazujące na procesie ewolucyjnym żywych organizmów, co ma wyraz w wielkiej liczbie publikacji poświęconych tym metodom, np. [3,5,6,7]. Rozwój tak różnorakich metod optymalizacyjnych spowodowany jest wielką różnorodnością problemów optymalizacyjnych spotykanych w różnych dziedzinach działalności człowieka. 82

J. Turant Wybór odpowiedniej strategii optymalizacyjnej ma silny wpływ na szybkość i jakość rozwiązania. Strategia taka musi być uwarunkowana specyfiką zadania optymalizacyjnego, czyli jego fizycznością i rodzajem funkcji celu. W zależności od badanego problemu funkcja celu może mieć charakter jedno- lub wielomodalny, co w znaczący sposób wpływa na wybór metody optymalizacyjnej. W przypadkach zadań, dla których spodziewamy się wielu ekstremów lokalnych, a nie zadawalamy się znalezieniem jednego z nich dążąc do określenia globalnie najlepszego rozwiązania, stosowane są metody ewolucyjne. Metody te mają charakter stochastyczny i eksplorują całą przestrzeń przeszukiwań dając duże szanse na znalezienie globalnego optimum. Metody tego typu charakteryzują się dużą pracochłonnością przekładającą się na konieczność wykonania wielu analiz symulowanego zjawiska. Zakładając, że w inżynierskich zadaniach optymalizacyjnych analizy wykonywane są często metodą elementów skończonych otrzymujemy, dla złożonych procesów, długie czasy pojedynczej analizy i konsekwentnie bardzo długi czas rozwiązania problemu optymalizacyjnego. Jedną z możliwości przyspieszenia takiego ewolucyjnego algorytmu jest tworzenie hybrydowych strategii optymalizacyjnych, w których wykorzystuje się inne metody optymalizacyjne. Jeśli jesteśmy w stanie w zadawalający sposób określić wrażliwość procesu na zmiany zmiennych decyzyjnych to takimi deterministycznymi metodami powinny być metody gradientowe, które są najskuteczniejszymi technikami lokalnej optymalizacji. W takich przypadkach zazwyczaj wystarczają nam wrażliwości pierwszego rzędu, które pozwalają na wykorzystanie najefektywniejszych w tej grupie metod quasi-newtonowskich. W zależności od spodziewanej ilości lokalnie najlepszych rozwiązań problemu można wykorzystywać hybrydowe algorytmy równoległe lub szeregowe. Na nazwę równoległy lub szeregowy algorytm hybrydowy wpływa kolejność stosowania odpowiednich algorytmów, a nie np. zrównoleglenie obliczeń na wielu jednostkach obliczeniowych, co nie jest w tej pracy rozpatrywane. Hybrydowe algorytmy równoległe wykorzystują metody lokalnego poszukiwania dla każdego pokolenia ewolucyjnego algorytmu poprawiając osobniki aktualnego pokolenia. Szeregowe, zaś, przełączają algorytm ewolucyjny na wybraną metodę deterministyczną po zaistnieniu określonych warunków i dalej poszukują rozwiązania już tylko wybraną metodą deterministyczną. Jeśli takie hybrydowe strategie mają być szybciej zbieżne od algorytmów ewolucyjnych to w przypadku metod szeregowych przełączenie metod nie powinno być nazbyt odwlekane w czasie, a z drugiej strony wcześniejsza zmiana algorytmu na lokalny może powodować zbieżność do lokalnie najlepszych rozwiązań. W efekcie metody tego typu mogą być z powodzeniem stosowane do problemów o nie nazbyt dużej liczbie ekstremów lokalnych. Równoległe algorytmy hybrydowe pozbawione są 83

84 Równoległy ewolucyjny algorytm... konieczności całkowitej zmiany procesu stochastycznego na deterministyczny, kontynuując do końca poszukiwania rozwiązania optymalnego zgodnie z zasadami ewolucji co zwiększa szanse znalezienia globalnie najlepszego rozwiązani dla funkcji celu z dużą liczbą punktów stacjonarnych. 2 Równoległy algorytm hybrydowy Jako podstawę tego algorytmu wybrano zmiennoprzecinkowy algorytm ewolucyjny, w którym po analizach numerycznych zaimplementowano reprodukcję turniejową z powtórzeniami (porzucając wcześniej wybraną reprodukcję ruletkową z wyborem deterministycznym) ograniczając się do grup turniejowych o liczności dwa. W algorytmie zrealizowano niejednorodne krzyżowanie heurystyczne i niejednorodną mutację gaussowską zamykając cykl obliczeń, związanych z jedną iteracją, sukcesją elitarną. W przypadku gdyby w wyniku mutacji lub krzyżowania otrzymano osobnika spoza obszaru dopuszczalnego operacje te są powtarzane zadaną liczbę razy albo do znalezienia osobnika dopuszczalnego. Jeśli w wyniku przeprowadzenia maksymalnej ilości powtórzeń mutacji lub krzyżowania nie udało się znaleźć osobnika z dziedziny problemu to oryginalne osobniki poddawane operacjom genetycznym przechodzą dalej. Hybrydyzacja algorytmu polega tutaj na wprowadzeniu gradientowego sposobu poprawy określonej części najlepszych osobników w każdej populacji. Proces poprawy został zrealizowany przy wykorzystaniu metody najszybszego spadku gdzie w trakcie minimalizacji kierunkowej wykonuje się jedną iterację metodę interpolacji kwadratowej. Jak można zauważyć celem lokalnej optymalizacji związanej z poprawą wybranych osobników nie jest za każdym razem osiągnięcie lokalnie najlepszych rozwiązań, a tylko w miarę możliwości efektywna, a mało pracochłonna poprawa rozwiązań związanych z wybranymi osobnikami. Problem pełnych minimalizacji lokalnych może i będzie rozpatrzony w kolejnym opracowaniu, co da pełniejszy obraz możliwości przyspieszenia procesu ewolucyjnego związanego z jego hybrydyzacją. Jako warunek stopu zastosowano kryterium braku poprawy najlepszego osobnika przez zadaną liczbę populacji. Algorytm metody został przedstawiony na rysunku 1. Gradientowa poprawa osobników populacji Na etapie poprawy wybranych osobników danej populacji najistotniejszym elementem jest wybór techniki poprawy. Do technik wykonania etapu poprawy może być wykorzystana dowolna technika deterministyczna w tym oczywiście technika bezgradientowa. Biorąc jednak pod uwagę, że hybrydyzacja algorytmu ewolucyjnego wykonywana jest w dużej mierze ze względu na chęć przyspieszenia

J. Turant obliczeń optymalizacyjnych, nie tracąc jednocześnie walorów poszukiwań ewolucyjnych, należy wybrać najszybciej zbieżne metody lokalnej optymalizacji. Rys. 1. Schemat hybrydowego algorytmu optymalizacyjnego Do tych metod niewątpliwie należą metody gradientowe poczynając od metody najszybszego spadku przez metody Quasi Newtona i Newtona. Wszystkie te metody wymagają od użytkownika dostarczenia gradientu funkcji celu a nawet hesjanu (metoda Newtona). W naszym przypadku ograniczymy się do metod, których algorytmy wykorzystują jedynie gradient, który można stosunkowa łatwo i precyzyjnie obliczyć korzystając z metod analizy wrażliwości. Ograniczając tak nasze rozważania i tak pozostaje olbrzymi wybór technik przeprowadzenia 85

Równoległy ewolucyjny algorytm... etapu poprawy osobników populacji. Rozważmy jako elementarne możliwości dwie strategie realizacji etapu poprawy. Pierwsza niech będzie oparta na maksymalnie prostych, aczkolwiek efektywnych, metodach: jedna iteracja metody interpolacji kwadratowej w kierunku gradientu. Druga na wybranej metodzie Quasi Newtona. Pierwsza metoda charakteryzuje się małym wydatkiem obliczeniowym i związana jest jedynie z poprawą osobnika bez konieczności osiągnięcia lokalnie najlepszego rozwiązania, druga zaś jest dosyć złożona obliczeniowo, ale prowadzi do znalezienia, z zadaną dokładnością, lokalnie najlepszego rozwiązania. W opracowaniu tym zostanie w szczegółach przedstawiona pierwsza z metod, której celem jest możliwie duża poprawa funkcji celu przy wykorzystaniu relatywnie małych nakładów obliczeniowych. Założono, że w etapie poprawy zostanie wykonana tylko jedna niepełna minimalizacja kierunkowa metodą interpolacji kwadratowej w kierunku gradientu. Do obliczenia kierunku przeszukiwań będą musiały być obliczone wszystkie pochodne funkcji celu względem parametrów projektowania, a do wykonania jednej iteracji interpolacji kwadratowej będzie potrzebna dodatkowo jedna wartość funkcji celu na zdefiniowanym wcześniej kierunku oraz w obliczonym minimum paraboli (o ile oczywiście takie będzie istnieć). Co za tym idzie współczynniki paraboli będą wyznaczane w oparciu o informacje w dwóch punktach: w pierwszym (x k ), z którego proces poprawy rozpoczynamy (mamy tu do dyspozycji wcześniej naliczony gradient i wartość funkcji celu) oraz drugim (x k +1) odległym wzdłuż kierunku poprawy o zadany krok h, w którym musimy policzyć jedynie wartość funkcji celu. Współczynniki paraboli y=ax 2 +bx+c, przy tak zdefiniowanych danych mają postać: b = c = a = f ( xk ) f ( xk ) 2 ( f ( x ) bh c) k+ 1 h (1) gdzie x k+1 = x k - h f(x k ). Zaproponowany schemat obliczenia współczynników paraboli odbiega od standardowego (informacje o wartościach funkcji w trzech punktach) gdyż stara się w pełni wykorzystać informacje, które są już znane (gradient funkcji). Tak przeprowadzany dobór współczynników paraboli jest szybszy od standardowego. Niewątpliwie najbardziej kłopotliwym, w zaproponowanym schemacie, jest właściwy dobór odpowiedniego kroku h. Trzeba zauważyć, że wraz ze zbliżaniem się do rozwiązania osobniki populacji wymagają mniejszej poprawy niż na początku działania procesu ewolucyjnego, co sugeruje zmniejszanie się kroku h wraz z kolejnymi pokoleniami. 86

J. Turant 3 Testy numeryczne Na etapie testów zaproponowanego schematu hybrydowego wykorzystano wielomodalną funkcję celu o postaci: f n 2 ( ) = xi ( xi 20) sin ( xi ) x (2) i= 1 gdzie n jest liczbą zmiennych. Wykres tej funkcji (dla n=1) przedstawiono na rysunku 2. Zaprezentowany tutaj przedział zmienności zmiennej niezależnej odpowiada przedziałowi zmian badanemu dalej w testach numerycznych. W tym przypadku poszukiwano globalnego maksimum funkcji celu. (20*x-x^2)*sin(x)^2 100 80 60 40 20 0-20 -40-60 5 10 15 20 x Rys. 2. Wykres testowej funkcji celu dla n=1 Obliczenia zostały przeprowadzone dla n=2 dla różnych przedziałów określoności zmiennych niezależnych, tak aby testowane problemy miały różną liczbę maksimów lokalnych. Rozpatrzono cztery przedziały zmienności: 1. x i <12, 15> - 1 maksimum 2. x i <13, 18> - 8 maksimów 3. x i <7, 18> - 64 maksima 4. x i <4, 23> - 343 maksima Odchylenie standardowe dla mutacji gaussowskiej założono równe 1/6 aktualnego przedziału zmienności x i zaś mnożnik mutacji (zmniejszający wraz z kolejnym pokoleniem odchylenie standardowe) ustalono na 0.98. Początkowa wielkość maksymalnej ekstrapolacji krzyżowania heurystycznego była równa odległości miedzy osobnikami rodzicielskimi 87

Równoległy ewolucyjny algorytm... i zmniejszała się w każdym pokoleniu 0.99 razy. Krok h, doboru kolejnego punktu interpolacyjnego metody interpolacji kwadratowej, ustalono na poziomie odchylenia standardowego mutacji. Pozostałe parametry procesu ustalono w następujący sposób: liczność populacji 100, prawdopodobieństwo krzyżowania 1, prawdopodobieństwo mutacji 0.25, liczba badanych populacji na warunek stopu 10, liczba powtórzeń krzyżowania i mutacji, gdyby doprowadzały do powstawania rozwiązań niedopuszczalnych, była równa 20. Obliczenia przeprowadzono zakładając różny procent (od 0-15%) poprawianych osobników w populacji. Wielkość 0 odpowiada oczywiście czystemu algorytmowi ewolucyjnemu. Dla każdej z wartości wykonano 1000 prób licząc z nich średnie ilości wywołań funkcji celu i jej gradientu, co miało być miarą pracochłonności procesu. Dodatkowo obliczano odchylenie standardowe otrzymanych wartości funkcji celu w optimum. Wyniki przeprowadzonych testów pokazano na rysunkach od 3 do 10. Jako miarę pracochłonności przyjęto tutaj średnią liczbę wywołań funkcji celu powiększoną o podwojoną wartość średniej liczby wywołań gradientu. Przedstawione założenie jest w przybliżeniu słuszne dla rzeczywistych inżynierskich problemów, w których gradienty funkcji celu obliczane są metodą układów sprzężonych analizy wrażliwości. Rys. 3. Pracochłonność obliczeniowa dla przypadku 1 maksimum lokalne Rys. 4. Odchylenie standardowe dla przypadku 1 maksimum lokalne Rys. 5. Pracochłonność obliczeniowa dla przypadku 8 maksimów lokalnych Rys. 6. Odchylenie standardowe dla przypadku 8 maksimów lokalnych 88

J. Turant Rys. 7. Pracochłonność obliczeniowa dla przypadku 64 maksima lokalne Rys. 8. Odchylenie standardowe dla przypadku 64 maksima lokalne Rys. 9. Pracochłonność obliczeniowa dla przypadku 343 maksima lokalne Rys. 10. Odchylenie standardowe dla przypadku 343 maksima lokalne 4 Podsumowanie Na podstawie zaprezentowanych wyników można stwierdzić, że pracochłonność hybrydowego procesu optymalizacyjnego maleje od około 10 do 2 razy w stosunku do algorytmu ewolucyjnego będącego podstawą testowanego schematu. Wraz ze wzrostem liczby maksimów lokalnych zysk ze stosowania procesu poprawy wybranych osobników maleje. Stabilność procesu, mierzona odchyleniem standardowym, we wszystkich badanych przypadkach jest lepsza dla algorytmów hybrydowych a dla przypadków z małą ilością lokalnych maksimów proces jest całkowicie stabilny (odchylenie standardowe równe zero). Najlepsze wyniki ze względu na pracochłonność otrzymano dla 1-3 % populacji poddanej zaproponowanemu schematowi poprawy. W dalszej kolejności powinny być wykonane testy pokazujące wpływ doboru kroku h interpolacji kwadratowej na szybkość badanego procesu hybrydowego jak również wpływ jakości obliczeń gradientu, co ma duże znaczenie dla wyboru metody analizy wrażliwości w praktycznych, inżynierskich zastosowaniach zaproponowanej metody. 89

Równoległy ewolucyjny algorytm... 5 Literatura [1] Altun A. A., A combination of genetic algorithm, particle swarm optimization and neural network for palmprint recognition. Neural Computing and Applications, 22(1), 2013, pp. 27 33 [2] Beluch W., Evolutionary Identification and Optimization of Composite Structures. Mechanics of Advanced Materials and Structures, vol. 14 no. 8, 2007, pp. 677-686 [3] Deb K., Padhye N., Enhancing performance of particle swarm optimization through an algorithmic link with genetic algorithms. Computational Optimization and Applications, 57(3), 2013, pp.761 794 [4] Deng W., Chen R., Gao J., Song Y., Xu J., A novel parallel hybrid intelligence optimization algorithm for a function approximation problem, Computers and Mathematics with Applications 63 (1), 2012, p. 325 336 [5] Dhadwal M. K., Jung S. N., Kim C. J., Advanced particle swarm assisted genetic algorithm for constrained optimization problems. Computational Optimization and Applications, 58(3), 2014, pp. 781 806 [6] Mahmoodabadi M. J., Safaie A. A., Bagheri, A., & Nariman-zadeh, N., A novel combination of particle swarm optimization and genetic algorithm for pareto optimal design of a five-degree of freedom vehicle vibration model. Applied Soft Computing, 13(5), 2013, pp. 2577 2591 [7] Mrozek A., Kuś W., Burczyński T., Nano level optimization of graphene allotropes by means of a hybrid parallel evolutionary algorithm, Computational Materials Science, Vol.106, 2015, pp. 161 169 [8] Orantek P., Hybrid evolutionary algorithms in optimization of structures under dynamical loads, IUTAM Symposium on Evolutionary Methods in Mechanics, Solid Mechanics and Its Applications, vol. 117, Kluwer, pp. 297-308,2004. [9] Valdez F., Melin P., Castillo O., An improved evolutionary method with fuzzy logic for combining particle swarm optimization and genetic algorithm. Applied Soft Computing, 11 (2), 2011, pp. 2625 2632. [10] Zainudin Z., Irving V. P., A Hybrid Optimization Algorithm Based on Genetic Algorithm and Ant Colony Optimization, IJAIA vol 4, no 5, 2013, pp. 63-75 90

J. Turant PARALLEL EVOLUTIONARY OPTIMIZATION ALGORITHM WITH GRADIENT INDIVIDUAL S IMPROVEMENT Summary: In the paper the hybrid optimization algorithm was proposed. The algorithm was build with typical floating-point evolutionary algorithm joined with gradient improvement of a group of the best individuals. The calculations were carried out for a test goal function for cases of different number of locally best solutions and next effectiveness and stability of proposed algorithm were compared for different number of improved individuals. Keywords: hybrid algorithms, evolutionary algorithms 91