HEURYSTYCZNY ALGORYTM OPTYMALIZACJI PARAMETRYCZNEJ DEDYKOWANY PROBLEMOM WIELOWYMIAROWYM
|
|
- Dariusz Komorowski
- 6 lat temu
- Przeglądów:
Transkrypt
1 STUDIA INFORMATICA 2007 Volume 28 Number (70) Dariusz R. AUGUSTYN, Łukasz WYCIŚLIK Politechnika Śląska, Instytut Informatyki HEURYSTYCZNY ALGORYTM OPTYMALIZACJI PARAMETRYCZNEJ DEDYKOWANY PROBLEMOM WIELOWYMIAROWYM Streszczenie. Heurystyczne algorytmy optymalizacyne znane są od początków rozwou dziedziny informatyki, ednak stosunkowo niedawno zaczęto proponować algorytmy bazuące na obserwacach zawisk w otaczaące nas przyrodzie (ewoluca, poszukiwanie pożywienia przez kolonie wieloagentowe, wyżarzanie w procesach metalurgicznych itp.). Każdy z takich algorytmów charakteryzue się inną specyfiką przeszukiwania przestrzeni rozważań. Jednym z problemów optymalizaci parametryczne est przypadek wielowymiarowe przestrzeni przeszukiwań, gdzie liczba wymiarów osiąga setek, a nawet tysięcy. Autorzy opieraąc się na nalepszych cechach znanych z literatury heurystycznych algorytmów optymalizaci, zaproponowali własny algorytm przeznaczony do rozwiązywania takich problemów. Słowa kluczowe: optymalizaca parametryczna, heurystyka, metody ewolucyne, optymalizaca wielowymiarowa HEURISTIC PARAMETRIC OPTIMIZATION ALGORITHM FOR MULTIDIMESIONAL PROBLEMS SOLVING Summary. Heuristic optimization algorithms are known from the beginnings of computer science but ones based on observations of nature phenomenons (evolution, food searching of multiagent colonies, annealing) were introduced relatively late. Each of them have different characteristics of search space exploration. One of known problems of parametric optimization is multidimensional case (hundreds or thousands of dimensions). Authors, inspired by best features of known optimization algorithms, proposed optimization method for such problems solving. Keywords: parametric optimization, heuristics, evolutionary methods, multidimensional optimization
2 56 D. R. Augustyn, Ł. Wyciślik. Wstęp Algorytmy przeszukiwania losowego, stosowane do zadań optymalizaci, to takie, które w sposób iteracyny przeszukuą przestrzeń rozważań w przypadkowych kierunkach, aby znaleźć minimum funkci celu. Każdy taki algorytm rozpoczyna swoe działanie z punktu początkowego (wylosowanego bądź ustalonego). Kierunek poszukiwania est realizacą wektora, którego składowymi są zmienne losowe. Krok, który w wyniku dae mnieszą wartość funkci akości, est krokiem pomyślnym, inne kroki są niepomyślne. W naprostszych algorytmach przeszukiwania losowego kroki niepomyślne są odrzucane, zaś pomyślne staą się punktem startowym dla kolene iteraci algorytmu. Jeżeli w algorytmie wzdłuż obiecuącego kierunku wykonue się serię kroków, algorytm taki nazywany est algorytmem z pamięcią. Algorytmy, w których w każdym kroku przymowany est nowy kierunek poszukiwań, nazywane są algorytmami bez pamięci. Należy zauważyć, że w algorytmach z pamięcią rozkład prawdopodobieństwa wartości składowych wektora zależy od numeru kroku. Jeśli dodatkowo rozkład ten est modyfikowany w trakcie procesu przeszukiwania w celu przyspieszenia zbieżności algorytmu, mówi się o algorytmach przeszukiwania losowego z adaptacą [4]. Wśród podstawowych algorytmów przeszukiwania losowego bez pamięci należy wymienić algorytm z parą kroków próbnych, gdzie po wylosowaniu kierunku przeszukiwań realizowany est krok w kierunku wylosowanym bądź przeciwnym tam, gdzie funkca akości osiąga mnieszą wartość. Innym przykładem algorytmu bez pamięci może być algorytm nalepsze próby, gdzie na początku iteraci realizowanych est wiele kroków próbnych, a ako krok roboczy przymue się ten, który prowadzi do namniesze wartości funkci akości. Dla wybranego kierunku poszukiwań algorytm est realizowany z wykorzystaniem stałego, przyętego wcześnie współczynnika. Przykładem algorytmu z pamięcią może być metoda przypadkowego spadku, w które z danego punktu wykonue się serię kroków w danym kierunku dopóki są to kroki pomyślne. Po wystąpieniu kroku niepomyślnego następue wybór nowego, bardzie obiecuącego kierunku [4]. Opisane wyże podstawowe metody przeszukiwania funkci celu są bardzo zawodne w przypadku zadań optymalizaci globalne, ponieważ dla funkci o wielu minimach lokalnych znalezione minimum lokalne zależy od punktu startowego algorytmu i nie musi być wcale minimum globalnym. Problem ten rozwiązue się czasami przez modyfikace wyże przedstawionych algorytmów optymalizaci lokalne, polegaące bądź to na wielokrotnym uruchamianiu danego algorytmu z różnymi, losowo wybranymi punktami początkowymi (metody wielostartowe), bądź też na dodaniu do wektora kierunku przeszukiwań składowe prędkości wynikaące z ruchu wykonanego w poprzednim kroku (symulaca ruchu punktu materialnego), maące zapewnić możliwość opuszczania płytkich minimów lokalnych [].
3 Heurystyczny algorytm optymalizaci parametryczne dedykowany 57 Inną klasą metod niedeterministycznych są algorytmy cechuące się losowością zarówno w procesie poszukiwań nowych rozwiązań, ak też w procesie przechodzenia między kolenymi rozwiązaniami roboczymi. Nie operue się tuta wektorem kierunku dodawanym do bieżącego rozwiązania, ale przy każde iteraci generue się zupełnie nowe rozwiązania kandyduące. Naprostszym z takich algorytmów est metoda Monte Carlo, gdzie z rozkładem równomiernym dokonue się wielu losowań punktu z przestrzeni rozwiązań, pamiętaąc nalepszy, dotychczas znaleziony. Inną metodą może być algorytm błądzenia przypadkowego, gdzie przetwarzany est eden punkt roboczy, będący realizacą zmienne losowe rozkładu prawdopodobieństwa, według którego losue się następny punkt, który to stae się punktem roboczym bez względu na wartość funkci akości. Podobnie ak w metodzie Monte Carlo, tak i tuta pamiętane est rozwiązanie nalepsze z dotychczas znalezionych []. Oprócz algorytmów, które przetwarzaą dane rozwiązanie krok po kroku, istnieą również metody populacyne, gdzie przetwarza się równolegle (w znaczeniu niezależności rozwiązań) wiele kandyduących rozwiązań. Po ocenie ich wartością funkci akości realizue się grupowanie rozwiązań w celu eliminaci tych, które zbiegaą się do ednego minimum lokalnego. Pozwala to na zmnieszenie nakładu obliczeń. W ostatnich latach zaproponowano algorytmy służące m.in. do optymalizaci globalne, które swoą akością znacznie przewyższyły dotychczas stosowane metody. Należy wśród nich wymienić algorytmy symulowanego wyżarzania, algorytmy genetyczne, metody ewolucyne czy algorytmy mrówkowe. Wykorzystuąc w swoim działaniu czynnik niedeterministyczny, kwalifikuą się one do grupy algorytmów przeszukiwania losowego (naczęście adaptacynych i populacynych), ednak ze względu na swoą genezę, specyfikę i podstawy teoretyczne, zostały wydzielone ako osobne grupy, zwane czasem algorytmami metaheurystycznymi. 2. Propozyca algorytmu optymalizaci heurystyczne dedykowanego problemom wielowymiarowym Pomimo zupełnie różne genezy algorytmów ewolucynych i algorytmów mrówkowych można w nich zauważyć duże podobieństwa, zwłaszcza eśli bierze się pod uwagę werse poszczególnych heurystyk stworzone do rozwiązywania podobnych zadań. Każde z podeść wykorzystue populacę osobników reprezentuących rozwiązanie danego zadania i w każdym z podeść wiedza o rozwiązywanym problemie, zgromadzona przez poszczególne osobniki, est wykorzystywana do stochastycznego wygenerowania nowe populaci osobników. Podstawową różnicą est fakt, że w przypadku algorytmów ewolucynych cała wiedza o rozwiązaniu problemu zawarta est w samych osobnikach dane populaci, zaś w
4 58 D. R. Augustyn, Ł. Wyciślik przypadku algorytmów mrówkowych wiedza ta zawarta est w śladzie feromonowym, na tworzenie którego ma wpływ każdy z osobników. Mechanizmy te służą ednak ednemu celowi, akim est konstrukca stale zmieniaące się w kolenych iteracach algorytmu wielowymiarowe funkci rozkładu gęstości prawdopodobieństwa (w przypadku optymalizaci kombinatoryczne funkca ta est określona na wartościach dyskretnych), na podstawie które generowane są kolene osobniki (o lepsze wartości wskaźnika akości). Algorytmy mrówkowe znaduą szczególne zastosowanie w rozwiązywaniu problemów kombinatorycznych, gdzie liczba wszystkich dopuszczalnych rozwiązań est ograniczona i możliwe est przedstawienie tych rozwiązań za pomocą grafu. Taka specyfika umożliwia zakodowanie zadania w postaci dane implementaci grafu. Cała wiedza o rozwiązywanym problemie wynika z wag poszczególnych krawędzi grafu, których wartości mogą być na bieżąco zmieniane przez kolene osobniki (lepsza wartość funkci przystosowania to większa ilość pozostawionego feromonu). Na postać funkci gęstości prawdopodobieństwa, reprezentowane przez ślad feromonowy, na podstawie które generowane będą następne rozwiązania, maą więc wpływ wszystkie osobniki z wagą wyznaczaną przez zastosowaną funkcę akości oraz funkcę modeluącą parowanie feromonu (starsze rozwiązania są mnie prawdopodobne). Podobna koncepca generowania nowych osobników przyświeca ewolucynemu systemowi PBIL (ang. Population Based Incremental Learning), który został zaproponowany przez S. Balua w 994 r. [3]. W koncepci te wiedza o rozwiązywanym problemie zawarta est w tzw. bazowym wektorze prawdopodobieństwa, który stanowi edyną podstawę do generowania nowych osobników, a który uaktualniany est na podstawie oceny akości rozwiązań reprezentowanych przez generowane koleno osobniki. Prowadzone badania wykazały [3], że algorytm ten dae obiecuące wyniki w zastosowaniu do optymalizaci kombinatoryczne. Natomiast w przypadku optymalizaci parametryczne uzyskiwane wyniki są gorsze niż w przypadku stosowania klasycznych algorytmów ewolucynych. Spowodowane est to zapewne faktem, że w przypadku optymalizowania funkci wielomodalnych nie ma możliwości zakodowania w wektorze bazowym funkci gęstości rozkładu prawdopodobieństwa o bardzie złożonym kształcie, która umożliwiałaby eksploracę rozwiązań wszystkich obiecuących obszarów optymalizowane funkci. Propozyca algorytmu optymalizaci parametryczne polega na ewoluci osobników będących kodowanymi zmiennoprzecinkowo wektorami punktów przestrzeni, na które określona est funkca f ( x) : n, dla które poszukuemy ekstremum. W każde iteraci algorytmu nowy osobnik generowany est na podstawie stałe liczby poprzedników. Prawdopodobieństwo selekci danego osobnika wynika z wartości obliczone dla niego funkci przystosowania oraz czasu, kiedy został wygenerowany, przy czym wpływ czasu, podobnie ak w algorytmach mrówkowych odparowywanie śladu feromonowego, może mieć charakter
5 Heurystyczny algorytm optymalizaci parametryczne dedykowany 59 liniowy, wykładniczy bądź inny. Badania własne wykazały, że w przypadku złożonych funkci wielowymiarowych operatory krzyżowania (zarówno, eśli chodzi o krzyżowanie pozycyne, ak i krzyżowanie arytmetyczne) nie przyczyniaą się do wzrostu skuteczności metody optymalizaci, często stanowiąc wręcz zawadę (we wszystkich testowanych funkcach nie uzyskano poprawy, a w niektórych nastąpiło wręcz pogorszenie), dlatego nowy osobnik tworzony est edynie w oparciu o mutacę, która est realizowana zgodnie ze schematem mutaci nierównomierne [2]. Na potrzeby zobrazowania sposobu funkconowania zaproponowanego algorytmu zastosowano następuące oznaczenia: x x2 x = M x n n wektor, który est punktem przeszukiwane dziedziny funkci f, zwany również osobnikiem, x m = xm xm M x 2 mn osobnik wygenerowany w m-te iteraci, gdzie: k est liczbą osobników biorących udział w każde iteraci algorytmu optymalizaci, M założoną liczbą wszystkich iteraci algorytmu optymalizaci, wartością wskaźnika akości dla xm, czyli wartością f(x m ), a T(m) funkcą określaącą wpływ numeru iteraci, w które został wygenerowany dany osobnik na ego prawdopodobieństwo selekci (wybór wcześnie wygenerowanych osobników est mnie prawdopodobny). Podstawowe zasady funkconowania opisanego algorytmu obrazue rys. (założono, że algorytm realizue właśnie m-ty krok iteraci). Selekci osobnika z populaci bazowe dokonue się na podstawie wartości funkci przystosowania Q m oraz wartości funkci opisuące wpływ numeru iteraci wygenerowania danego osobnika T(m). Proponue się, aby prawdopodobieństwo wyboru m-tego osobnika opisać następuącą zależnością: P m m = k Q T ( m), () Q T ( ) = gdzie Q m est wskaźnikiem akości (funkcą przystosowania) m-tego osobnika, uprawdopodobniaącym wybór osobnika o większe wartości Q, zaś T funkcą określaącą wpływ numeru iteraci, w które został wygenerowany dany osobnik, na ego zdolność do reprodukci (podobnie ak w algorytmach mrówkowych może to być rosnąca funkca liniowa, funkca wykładnicza bądź inna funkca niemaleąca), uprawdopodobniaącą wybór młodszego osobnika. Q m
6 60 D. R. Augustyn, Ł. Wyciślik W ramach badań realizowanych w niniesze pracy wykorzystano funkcę liniową. x m k, x m x m, x m, x m k,2 x m x m,2 x m,2 x m k,n x m k+, x m,n x m,n m- m-k m-k+ m Wybór osobnika do mutaci i = F S (Q m k, m-k, Q m k+, m k+,, Q m, m, m), gdzie i {m k,, m } x i, x i, x i,n Mutaca edne ze składowych (wybór każde ze składowych est równoprawdopodobny) {,, n} x' i = F M (x i, m) x i, x' i, x i,n Rys.. Zobrazowanie funkconowania algorytmu optymalizaci parametryczne Fig.. Visualization of parametric optimization algorithm Podobnie ak w algorytmach symulowanego wyżarzania, tak i tuta wprowadzić można czynnik akceptaci (a w przypadku proponowanego algorytmu selekci) rozwiązania gorszego z prawdopodobieństwem maleącym wraz z postępem procesu optymalizaci. Prawdopodobieństwo wyboru m-tego osobnika może być przedstawione ako: P F ( Q, m) T ( m) A m m ( m) = k, (2) = F ( Q, ) T ( ) A gdzie: m est numerem iteraci algorytmu, a F A funkcą uprawdopodobniaącą rozwiązania o lepsze akości w ramach postępu procesu optymalizaci np.: A m+ M F ( q, m) = a( q + b), (3) A gdzie: M est założoną liczbą iteraci algorytmu, zaś A (A > ) współczynnikiem, z którego wzrostem będzie malało prawdopodobieństwo akceptaci gorszych rozwiązań wraz z postę-
7 Heurystyczny algorytm optymalizaci parametryczne dedykowany 6 pem procesu optymalizaci. a i b to współczynniki liniowego przekształcenia przestrzeni funkci akości, dobierane przy każde iteraci algorytmu tak, aby e wartości dla nagorszego i nalepszego rozwiązania ze zbioru roboczego wynosiły odpowiednio i MAX (gdzie MAX > ). Dla zagadnień minimalizaci współczynnik a będzie przymować wartości uemne. W ramach badań realizowanych w niniesze rozprawie ustalono wartości współczynników A = 2 oraz MAX = 0. Mutaca realizowana est w ten sposób, że zmianie podlega każdorazowo tylko edna składowa wektora rozwiązania, wybrana losowo zgodnie z równomiernym rozkładem prawdopodobieństwa. Zmiana polega na zastąpieniu dane wartości inną, wygenerowaną losowo zgodnie z poniższą formułą [2]: xi, + Δ( m, u xi, ), prawdopodobieństwem 2 x i, = (4) xi, Δ( m, xi, l ), prawdopodobieństwem 2 gdzie: u est górnym krańcem przedziału zmienności -te składowe, zaś l est e dolnym krańcem przedziału zmienności. Funkca Δ(m, y) przymue wartości w zakresie [0,y], a prawdopodobieństwo, że Δ(m, y) est bliskie 0, wzrasta ze wzrostem m. Właściwość ta zapewnia, że w początkowe fazie optymalizaci algorytm eksplorue przestrzeń rozwiązań w szerokim zakresie, by w swoe końcowe fazie eksploatować wytypowane wcześnie obiecuące obszary. Zastosowano następuącą funkcę Δ(m, y) [2]: ( m / M ) b Δ ( m, y) = y( r ), (5) gdzie: r est liczbą z przedziału [0, ], losowaną zgodnie z rozkładem równomiernym, każdorazowo przy obliczaniu wartości funkci Δ, M założoną liczbą iteraci algorytmu, zaś b współczynnikiem dobranym eksperymentalnie (decyduącym o szybkości wymuszania zbieżności) w zależności od nieednorodności kształtu optymalizowane funkci. Na rys. 2 zobrazowano odwzorowanie wartości zmienne losowe na wartość modyfikaci dane składowe, realizowane przez omawiany operator mutaci w zależności od kroku algorytmu. Liczby opisane na konturach to wartości funkci Δ(m,).
8 62 D. R. Augustyn, Ł. Wyciślik Rys. 2. Wizualizaca funkconowania operatora mutaci nierównomierne (M = 000, b = ) Fig. 2. Visualization of nonuniform mutation operator (M = 000, b = ) Poniże przedstawiono uproszczony, formalny opis zaproponowanego algorytmu optymalizaci w pseudokodzie. Przez PPt oznaczono uporządkowany zbiór osobników przetwarzanych w iteraci numer t. Na zbiorze tym operue funkca selekca, która wybiera osobnika do mutaci na podstawie formuły (2) oraz (3). Funkca mutaca realizue operacę mutaci na poedyncze, losowo wybrane składowe, zgodnie ze schematem mutaci nierównomierne (4) oraz (5). Przez O oraz T oznaczono tymczasowe zmienne, pozwalaące operować na poedynczym osobniku. procedure AlgorytmOptymalizaci begin t := 0 t inicaca PP while ( t < założona liczba iteraci ) do begin t T := selekca PP O := mutaca T ocena O P t+ := PPt nastarszy osobnik {O} t := t + end end Inicalizaca początkowego zbioru osobników polega na wygenerowaniu losowych wartości dla każde ze składowych, w granicach określonych przedziałów zmienności, zgodnie z rozkładem równomiernym.
9 Heurystyczny algorytm optymalizaci parametryczne dedykowany 63 Zastosowanie modelu selekci elitarne implementowanego w algorytmach ewolucynych w ten sposób, że do następnego pokolenia przechodzi zawsze η nalepszych osobników, realizowane est tuta przez określenie prawdopodobieństwa selekci (a następnie mutaci) któregoś z η nalepszych osobników, wynoszącego η/(k+η) dla każdego z tych osobników. Realizaca modelu selekci elitarne wymaga oczywiście dodatkowe struktury danych, umożliwiaące przechowywanie informaci o η nalepszych, znalezionych do bieżące iteraci osobnikach. Podsumowuąc sposób funkconowania zaproponowanego algorytmu, można wyliczyć następuące ego cechy: sposób utrzymywania populaci osobnicze podobny est do strategii ewolucyne (μ + ), wpływ numeru iteraci, w które został wygenerowany dany osobnik (a więc ego wieku) na prawdopodobieństwo ego selekci został zaczerpnięty z algorytmów mrówkowych, zmnieszanie prawdopodobieństwa akceptaci rozwiązań gorszych wraz z przebiegiem procesu optymalizaci realizowany est podobnie ak w algorytmach symulowanego wyżarzania, sposób generowania nowego osobnika na podstawie osobnika wybranego w procesie selekci realizowany est za pomocą operatora mutaci nierównomierne. Badania zaproponowanego algorytmu optymalizaci prowadzono w pierwsze koleności na wielu popularnych funkcach testowych, w tym funkci Michalewicza. Przytoczono tylko niektóre wyniki z całości badań nad tymi funkcami, gdyż prawdziwą miarą skuteczności metody optymalizaci będzie realizaca badań na rzeczywistym systemie rozmytym. Z drugie ednak strony weryfikacę algorytmu rozpoczęto od funkci testowych, gdyż narzut potrzebny na obliczenie odpowiedzi systemu rozmytego est dużo większy niż na obliczenie wartości użytych funkci testowych. 3. Testy zaproponowane metody na zestawie funkci testowych De Jonga Do testów wybrano popularny zestaw [2] testowych funkci De Jonga składaący się z pięciu funkci zdefiniowanych w tabeli. Testy przeprowadzono na podstawie porównania funkconowania zaproponowanego algorytmu z klasycznym algorytmem ewolucynym. Podobnie ak w przypadku funkci Michalewicza, tak i tuta maksymalizowano funkce postaci F(x). Ponieważ dla pierwszych czterech funkci liczba wymiarów, na których są one określone, est parametryzowana, więc testy przeprowadzono na funkcach określonych na 00 wymiarach, co może pozwolić na lepszą weryfikacę zaproponowanego algorytmu w za-
10 64 D. R. Augustyn, Ł. Wyciślik stosowaniu do optymalizaci problemów wielowymiarowych. Ostatnią, piątą funkcę optymalizowano w e pierwotne postaci. Nazwa. Funkca De Jonga (ang. Sphere Model) 2. Funkca De Jonga Definice funkci testowych De Jonga Definica funkci Dim x i i= 2 F ( x =, ) dla 5.2 x i 5.2; i =,, Dim 2 ( ) Dim F, i= 2 2 (ang. Rosenbrock s Valley) 2 ( x) = 00( xi xi+ ) + ( xi ) 3. Funkca De Jonga (ang. Step Function) F3 x) = int( x i ) 4. Funkca De Jonga dla x i 2.048; i =,, Dim Dim (, i= dla 5.2 x i 5.2; i =,, Dim Dim 4 (ang. Quartic Gaussian Function) F4 x) = ( ix i + Gauss(0,) ) 5. Funkca De Jonga (ang. Shekel s Foxholes Function) (, i= dla.28 x i.28; i =,, Dim 25 F 5 ( x) = , = f 2 ( xi ai, ) f = +, i= dla x i ; i=, 2 6 Tabela macierz współczynników a i,, przedstawiono poniże: a i, = przez Dim oznaczono liczbę wymiarów, na których określona est funkca Wyniki porównań przedstawiono na poniższych rysunkach, gdzie dla każdego z algorytmów wykreślono po 0 krzywych obrazuących przebieg algorytmu optymalizaci, odpowiadaących 0 kolenym uruchomieniom każdego z programów. Dla niektórych funkci, w celu uzyskania lepsze przerzystości, wykreślono rysunki z logarytmiczną skalą dla osi odciętych.
11 Heurystyczny algorytm optymalizaci parametryczne dedykowany 65 Rys. 3. Porównanie algorytmu ewolucynego z zaproponowaną metodą heurystyczną dla pierwsze funkci De Jonga skala logarytmiczna Fig. 3. Comparison of the evolutionary algorithm and the proposed method for the first De Jong s function logarithmic scale Rys. 4. Porównanie algorytmu ewolucynego z zaproponowaną metodą heurystyczną dla drugie funkci De Jonga skala logarytmiczna Fig. 4. Comparison of the evolutionary algorithm and the proposed method for the second De Jong s function - logarithmic scale
12 66 D. R. Augustyn, Ł. Wyciślik Rys. 5. Porównanie algorytmu ewolucynego z zaproponowaną metodą heurystyczną dla trzecie funkci De Jonga skala liniowa Fig. 5. Comparison of the evolutionary algorithm and the proposed method for the third De Jong s function linear scale Rys. 6. Porównanie algorytmu ewolucynego z zaproponowaną metodą heurystyczną dla czwarte funkci De Jonga skala logarytmiczna Fig. 6. Comparison of the evolutionary algorithm and the proposed method for the fourth De Jong s function - logarithmic scale
13 Heurystyczny algorytm optymalizaci parametryczne dedykowany 67 Rys. 7. Porównanie algorytmu ewolucynego z zaproponowaną metodą heurystyczną dla piąte funkci De Jonga skala liniowa Fig. 7. Comparison of the evolutionary algorithm and the proposed method for the fifth De Jong s function - linear scale 4. Podsumowanie Dla wszystkich przetestowanych powyże funkci zaproponowana metoda znadue lepsze przybliżenie wartości optymalne. Należy również zwrócić uwagę na to, że zaproponowany algorytm cechue o wiele mnieszy rozrzut zarówno końcowego wyniku, ak i wyników pośrednich, uzyskanych w trakcie przebiegu procesu optymalizaci. Istotną zaletą algorytmu est również duża szybkość zbieżności, polegaąca na wypracowaniu dobrych wyników uż we wczesnych iteracach procesu optymalizaci. Dla drugie funkci testowe zaobserwować można pewien rozrzut w znalezionych optimach dla poszczególnych powtórzeń algorytmu, ale uzyskane wyniki są i tak znacznie lepsze od wyników wypracowanych przez system genocop3. Rozrzut ten spowodowany est przez fakt, iż badana funkca est niewspółmiernie bardzie nieednorodna w porównaniu do pozostałych, a należy przypomnieć, że obydwa algorytmy na potrzeby wszystkich testów miały ustalone i niezmienne parametry funkconowania. Piąta funkca De Jonga również charakteryzue się dużym stopniem nieednorodności, ale ponieważ zdefiniowana est ona tylko dla dwóch wymiarów, to obydwa algorytmy przy założone liczbie iteraci uzyskały podobne wyniki, chociaż zaproponowana metoda znacznie przewyższyła szybkością zbieżności.
14 68 D. R. Augustyn, Ł. Wyciślik Skomentować należy również to, iż w początkowe fazie procesu optymalizaci system genocop3 wyprzedza w większości przykładów zaproponowany algorytm. Spowodowane est to faktem, że system genocop3 dla zalecanych wartości parametrów rozpoczyna proces optymalizaci z pokoleniem losowo dobranych osobników. Choć zaproponowana metoda przewidue oczywiście taką możliwość, to przetestowana została wersa z ednym punktem startowym. Miało to na celu zbadanie wpływu losowości punktu startowego na zbieżność wyników dla poszczególnych uruchomień programu. Jak można zobaczyć na wykresach, wpływ ten dla testowanych funkci nie est duży, co stanowi niewątpliwą zaletę. Wszystkie z wyże przeprowadzonych badań zrealizowano z wartościami współczynników zgodnymi z tabelą 2. Tabela 2 Wartości współczynników w funkcach testowych Współczynnik Wartość M (liczba iteraci) 3.5e4 k (liczebność populaci) 5 b (współczynnik nieednorodności) Liczba iteraci została narzucona na potrzeby porównania z systemem Michalewicza (operacą dominuącą w przypadku znadowania ekstremum funkci est obliczenie wartości te funkci dla zadanych argumentów), zaś pozostałe współczynniki zostały dobrane eksperymentalnie. Podobnie ak w przypadku innych metod heurystycznych, wyliczenie wartości współczynników (zapewniaących osiągnięcie nalepszych rezultatów w nakrótszym czasie) steruących pracą algorytmu na drodze analityczne nie est możliwe. Dlatego, aby obrazować ich możliwy wpływ na osiągane wyniki, przeprowadzono poniższe badania z wykorzystaniem funkci Michalewicza (k = 2, n = 00). Rysunek 8 obrazue wpływ liczby iteraci realizowanych przez algorytm w procesie optymalizaci na akość osiąganych wyników.
15 Heurystyczny algorytm optymalizaci parametryczne dedykowany 69 Rys. 8. Zobrazowanie wpływu liczby iteraci algorytmu na akość wyników optymalizaci Fig. 8. Visualization of number of iterations influence on optimization results quality Jak widać na rysunku, dla niewielkie liczby iteraci (0-0 3 ) uzyskiwane są słabe wyniki, a ich zmienność est duża. Dla liczby iteraci większe niż 0 5 uzyskue się bardzo dobre wyniki, przy czym zwiększanie liczby iteraci ponad 0 6 est uż rozrzutnością w gospodarowaniu mocą obliczeniową, gdyż nie uzyskue się uż dalsze poprawy akości wyników. W przypadku funkci Michalewicza z postaci analityczne szacować można e górne ograniczenie, co ułatwia podęcie decyzi o ograniczeniu liczby iteraci do rzędu 0 6, niestety w przypadku przeszukiwania bardzie skomplikowanych funkci często nie est to możliwe. Należy zauważyć, że z praktycznego punktu widzenia liczba iteraci algorytmu est parametrem, od którego zależy czas realizaci procesu optymalizaci, dlatego też, eśli est to możliwe, powinno się tak dobierać wartości pozostałych parametrów, aby możliwe było uzyskanie zadowalaących wyników optymalizaci dla ak namniesze wymagane liczby iteraci algorytmu. Kolenym z badanych parametrów zaproponowanego algorytmu optymalizaci est liczebność roboczego zbioru osobników (liczebność populaci). Przykładowy wpływ zmian wartości tego parametru na akość osiąganych wyników przedstawiono na rys. 9.
16 70 D. R. Augustyn, Ł. Wyciślik Rys. 9. Zobrazowanie wpływu liczebności roboczego zbioru osobników na akość wyników optymalizaci Fig. 9. Visualization of number of agents in working set influence on optimization results quality Należy zauważyć, że w przypadku poszukiwania minimum funkci Michalewicza dobre wyniki osiąga się dla wartości tego parametru do 0 2, a dalsze zwiększanie ego wartości przynosi zauważalne pogorszenie osiąganych wyników. Nalepsze rezultaty w badanym przypadku osiągnięto dla liczebności roboczego zbioru osobników ~25, ale mniesze wartości tego parametru nie wpływaą w zdecydowany sposób na znaczne pogorszenie osiąganych wyników. Należy przypuszczać, że w przypadku przeszukiwania bardzie skomplikowanych funkci, zbyt mała wartość tego parametru może powodować osiadanie procesu optymalizaci w lokalnych ekstremach, zaś zbyt duża ego wartość może powodować ekstensywne eksplorowanie całe przestrzeni, na które określona est przeszukiwana funkca, zamiast intensywniesze eksploataci nabardzie obiecuących obszarów. Ostatnim z naważnieszych parametrów zaproponowanego algorytmu optymalizaci est współczynnik nieednorodności przeszukiwane funkci. Wpływ zmian wartości tego współczynnika na akość osiąganych wyników w przypadku przeszukiwania funkci Michalewicza przedstawiono na rys. 0.
17 Heurystyczny algorytm optymalizaci parametryczne dedykowany 7 Rys. 0. Zobrazowanie wpływu współczynnika nieednorodności przeszukiwane funkci na akość wyników optymalizaci Fig. 0. Visualization of nonuniform mutation factor influence on optimization results quality Współczynnik nieednorodności przeszukiwane funkci ma bezpośredni wpływ na funkconowanie operaci mutaci nierównomierne. Mutaca ta zapewniać ma generowanie nowych osobników w taki sposób, że w początkowe fazie maą być tworzone osobniki odległe od osobników rodzicielskich, zaś w końcowe fazie odległość ta ma stopniowo maleć. Zastosowanie tego mechanizmu umożliwia znalezienie dokładnieszych wartości dla wyszukanego we wcześniesze fazie obiecuącego ekstremum. Należy zauważyć, że zbyt małe wartości tego współczynnika uniemożliwiaą skuteczny przegląd całe przeszukiwane przestrzeni we wczesne fazie procesu optymalizaci, zaś zbyt duże wartości uniemożliwią doprecyzowanie znalezionego rozwiązania w końcowe fazie. Dla stuwymiarowe wersi funkci Michalewicza i liczbie iteraci ustalone na 5 tys. wartości prowadzące do dobrych wyników zawieraą się w granicach od 0. do. Istotnym spostrzeżeniem est ścisły związek tego parametru z doborem liczby iteraci algorytmu. W trakcie realizaci badań zaobserwowano (zgodnie z intuicynymi przewidywaniami), że w przypadku dużego rozrzutu wyników dla kolenych uruchomień programu realizuącego proces optymalizaci (przy stałych wartościach współczynników), rozrzut ulegał zmnieszeniu i akość wyników ulegała poprawie w przypadku zwiększenia liczby iteraci algorytmu bądź też zwiększenia wartości współczynnika nieednorodności (chociaż w tym ostatnim przypadku wyniki były zauważalnie gorsze). Ponieważ zwiększanie liczby iteraci est możliwe tylko do punktu wyznaczonego przez moc środowiska obliczeniowego, więc w przypadku ustalania wartości
18 72 D. R. Augustyn, Ł. Wyciślik tych dwóch parametrów dla procesu przeszukiwania funkci, które ekstremum nie da się oszacować, powinno się ustalić maksymalną możliwą liczbę iteraci algorytmu optymalizaci, a współczynnik nieednorodności przeszukiwane funkci dobrać eksperymentalnie. LITERATURA. Arabas J.: Wykłady z algorytmów ewolucynych. WNT, Warszawa Michalewicz Z.: Algorytmy genetyczne + struktury danych = programy ewolucyne. WNT, Warszawa Balua S.: Population-based incremental learning: A metod for integrating genetics serach based function optimization and competitive learning. Technical Report CMU-CS Carnegie Mellon University Seidler J.:, Badach A., Molisz W.: Metody rozwiązywania zadań optymalizaci. WNT, Warszawa 980. Recenzent: Dr inż. Arkadiusz Sochan Wpłynęło do Redakci 20 listopada 2006 r. Abstract Heuristic optimization algorithms are known from the beginnings of computer science but ones based on observations of nature phenomenons (evolution, food searching of multiagent colonies, annealing) were introduced relatively late. Each of them have different characteristics of search space exploration. One of known problems of parametric optimization is the multidimensional case (hundreds or thousands of dimensions). Authors proposed optimization method for such problems solving being inspired by features of well known best optimization algorithms: the population of agents is managed similarly to the evolutionary strategy (μ + ), the age of agent influence on the probability of selection is similar to used in ant systems, the decrease of acceptance probability of poor agents in latter iterations is based on the simulated annealing algorithm.
19 Heurystyczny algorytm optymalizaci parametryczne dedykowany 73 Proposed method was tested on popular benchmark functions suite (De Jong s functions). The results achieved by the proposed method are comparable and even better then ones achieved by the classical evolutionary system especially in a multidimensional case. Adresy Dariusz Rafał AUGUSTYN: Politechnika Śląska, Instytut Informatyki, ul. Akademicka 6, 44-0 Gliwice, Polska, draugustyn@polsl.pl. Łukasz WYCIŚLIK: Politechnika Śląska, Instytut Informatyki, ul. Akademicka 6, 44-0 Gliwice, Polska, lukasz.wycislik@polsl.pl.
LABORATORIUM 4: Algorytmy ewolucyjne cz. 2 wpływ operatorów krzyżowania i mutacji na skuteczność poszukiwań AE
Instytut Mechaniki i Inżynierii Obliczeniowej Wydział Mechaniczny Technologiczny, Politechnika Śląska www.imio.polsl.pl METODY HEURYSTYCZNE LABORATORIUM 4: Algorytmy ewolucyjne cz. 2 wpływ operatorów krzyżowania
LABORATORIUM 2: Wpływ wielkości populacji i liczby pokoleń na skuteczność poszukiwań AE. opracował: dr inż. Witold Beluch
OBLICZENIA EWOLUCYJNE LABORATORIUM 2: Wpływ wielkości populacji i liczby pokoleń na skuteczność poszukiwań AE opracował: dr inż. Witold Beluch witold.beluch@polsl.pl Gliwice 12 OBLICZENIA EWOLUCYJNE LABORATORIUM
Algorytm genetyczny (genetic algorithm)-
Optymalizacja W praktyce inżynierskiej często zachodzi potrzeba znalezienia parametrów, dla których system/urządzenie będzie działać w sposób optymalny. Klasyczne podejście do optymalizacji: sformułowanie
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 13. PROBLEMY OPTYMALIZACYJNE Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska PROBLEMY OPTYMALIZACYJNE Optymalizacja poszukiwanie
PLAN WYKŁADU OPTYMALIZACJA GLOBALNA OPERATOR KRZYŻOWANIA ETAPY KRZYŻOWANIA
PLAN WYKŁADU Operator krzyżowania Operator mutacji Operator inwersji Sukcesja Przykłady symulacji AG Kodowanie - rodzaje OPTYMALIZACJA GLOBALNA Wykład 3 dr inż. Agnieszka Bołtuć OPERATOR KRZYŻOWANIA Wymiana
Poszukiwanie optymalnego wyrównania harmonogramu zatrudnienia metodą analityczną
Mieczysław POŁOŃSKI Wydział Budownictwa i Inżynierii Środowiska, Szkoła Główna Gospodarstwa Wieskiego, Warszawa, ul. Nowoursynowska 159 e-mail: mieczyslaw_polonski@sggw.pl Poszukiwanie optymalnego wyrównania
wiedzy Sieci neuronowe (c.d.)
Metody detekci uszkodzeń oparte na wiedzy Sieci neuronowe (c.d.) Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 8 Metody detekci uszkodzeń oparte na wiedzy Wprowadzenie
Aproksymacja funkcji a regresja symboliczna
Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(x), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(x), zwaną funkcją aproksymującą
Uczenie sieci typu MLP
Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik
LABORATORIUM 3: Wpływ operatorów krzyżowania na skuteczność poszukiwań AE
Instytut Mechaniki i Inżynierii Obliczeniowej Wydział Mechaniczny Technologiczny, Politechnika Śląska www.imio.polsl.pl OBLICZENIA EWOLUCYJNE LABORATORIUM 3: Wpływ operatorów krzyżowania na skuteczność
(Dantzig G. B. (1963))
(Dantzig G.. (1963)) Uniwersalna metoda numeryczna dla rozwiązywania zadań PL. Ideą metody est uporządkowany przegląd skończone ilości rozwiązań bazowych układu ograniczeń, które możemy utożsamiać, w przypadku
ALHE. prof. Jarosław Arabas semestr 15Z
ALHE prof. Jarosław Arabas semestr 15Z Wykład 5 Błądzenie przypadkowe, Algorytm wspinaczkowy, Przeszukiwanie ze zmiennym sąsiedztwem, Tabu, Symulowane wyżarzanie 1. Błądzenie przypadkowe: Pierwszym krokiem
Algorytmy mrówkowe. P. Oleksyk. Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Inteligentne systemy informatyczne
y mrówkowe P. Oleksyk Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Inteligentne systemy informatyczne 14 kwietnia 2015 1 Geneza algorytmu - biologia 2 3 4 5 6 7 8 Geneza
Optymalizacja. Wybrane algorytmy
dr hab. inż. Instytut Informatyki Politechnika Poznańska www.cs.put.poznan.pl/mkomosinski, Andrzej Jaszkiewicz Problem optymalizacji kombinatorycznej Problem optymalizacji kombinatorycznej jest problemem
Algorytmy genetyczne
9 listopada 2010 y ewolucyjne - zbiór metod optymalizacji inspirowanych analogiami biologicznymi (ewolucja naturalna). Pojęcia odwzorowujące naturalne zjawiska: Osobnik Populacja Genotyp Fenotyp Gen Chromosom
Metody Rozmyte i Algorytmy Ewolucyjne
mgr inż. Wydział Matematyczno-Przyrodniczy Szkoła Nauk Ścisłych Uniwersytet Kardynała Stefana Wyszyńskiego Podstawowe operatory genetyczne Plan wykładu Przypomnienie 1 Przypomnienie Metody generacji liczb
Optymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 8. SZTUCZNE SIECI NEURONOWE INNE ARCHITEKTURY Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska SIEĆ O RADIALNYCH FUNKCJACH BAZOWYCH
OPTYMALIZACJA STRUKTUR ELEKTROENERGETYCZNYCH SIECI PROMIENIOWYCH Z WYKORZYSTANIEM ALGORYTMÓW SZTUCZNEJ INTELIGENCJI
POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 70 Electrical Engineering 2012 Wociech BĄCHOREK* Janusz BROŻEK* OPTYMALIZACJA STRUKTUR ELEKTROENERGETYCZNYCH SIECI PROMIENIOWYCH Z WYKORZYSTANIEM
Algorytm Genetyczny. zastosowanie do procesów rozmieszczenia stacji raportujących w sieciach komórkowych
Algorytm Genetyczny zastosowanie do procesów rozmieszczenia stacji raportujących w sieciach komórkowych Dlaczego Algorytmy Inspirowane Naturą? Rozwój nowych technologii: złożone problemy obliczeniowe w
Testowanie metod optymalizacji i hipotez statystycznych Opracowanie: Łukasz Lepak,
Testowanie metod optymalizacji i hipotez statystycznych Opracowanie: Łukasz Lepak, 277324 Po wyborze i wykorzystaniu pewnej metody optymalizacji nadchodzi czas na ocenę wytworzonych przez nią punktów.
Algorytmy mrówkowe (optymalizacja kolonii mrówek, Ant Colony optimisation)
Algorytmy mrówkowe (optymalizacja kolonii mrówek, Ant Colony optimisation) Jest to technika probabilistyczna rozwiązywania problemów obliczeniowych, które mogą zostać sprowadzone do problemu znalezienie
SZACOWANIE MEDIANY PRZY UŻYCIU DOKŁADNEJ METODY BOOTSTRAPOWEJ
METODY ILOŚCIOWE W BADANIACH EKONOMICZNYCH Tom XV/3, 2014, str. 111 121 SZACOWANIE MEDIANY PRZY UŻYCIU DOKŁADNEJ METODY BOOTSTRAPOWEJ Joanna Kisielińska Wydział Nauk Ekonomicznych Szkoła Główna Gospodarstwa
ALGORYTMY GENETYCZNE ćwiczenia
ćwiczenia Wykorzystaj algorytmy genetyczne do wyznaczenia minimum globalnego funkcji testowej: 1. Wylosuj dwuwymiarową tablicę 100x2 liczb 8-bitowych z zakresu [-100; +100] reprezentujących inicjalną populację
Algorytmy metaheurystyczne podsumowanie
dr hab. inż. Instytut Informatyki Politechnika Poznańska www.cs.put.poznan.pl/mkomosinski, Andrzej Jaszkiewicz Problem optymalizacji kombinatorycznej Problem optymalizacji kombinatorycznej jest problemem
KADD Minimalizacja funkcji
Minimalizacja funkcji n-wymiarowych Forma kwadratowa w n wymiarach Procedury minimalizacji Minimalizacja wzdłuż prostej w n-wymiarowej przestrzeni Metody minimalizacji wzdłuż osi współrzędnych wzdłuż kierunków
BADANIE WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO
BADANIE WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO Lis Anna Lis Marcin Kowalik Stanisław 2 Streszczenie. W pracy przedstawiono rozważania dotyczące określenia zależności pomiędzy wydobyciem
Rozwiązywanie algebraicznych układów równań liniowych metodami iteracyjnymi. Plan wykładu:
Rozwiązywanie algebraicznych układów równań liniowych metodami iteracynymi Plan wykładu: 1. Przykłady macierzy rzadkich i formaty ich zapisu 2. Metody: Jacobiego, Gaussa-Seidla, nadrelaksaci 3. Zbieżność
w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych.
Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(), zwaną funkcją aproksymującą
BADANIA OPERACYJNE ANALITYKA GOSPODARCZA
BADANIA OPERACYJNE ANALITYKA GOSPODARCZA Egzamin pisemny 8.4.7 piątek, salae-6, godz. 8:-9:3 OBECNOŚĆ OBOWIĄZKOWA!!! Układ egzaminu. TEST z teorii: minut (test wielostronnego wyboru; próg 75%). ZADANIA:
Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I
Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:
LABORATORIUM 5: Wpływ reprodukcji na skuteczność poszukiwań AE. opracował: dr inż. Witold Beluch
OBLICZENIA EWOLUCYJNE LABORATORIUM 5: Wpływ reprodukcji na skuteczność poszukiwań AE opracował: dr inż. Witold Beluch witold.beluch@polsl.pl Gliwice 2012 OBLICZENIA EWOLUCYJNE LABORATORIUM 5 2 Cel ćwiczenia
Algorytmy genetyczne. Materiały do laboratorium PSI. Studia niestacjonarne
Algorytmy genetyczne Materiały do laboratorium PSI Studia niestacjonarne Podstawowy algorytm genetyczny (PAG) Schemat blokowy algorytmu genetycznego Znaczenia, pochodzących z biologii i genetyki, pojęć
Algorytmy genetyczne
Algorytmy genetyczne Motto: Zamiast pracowicie poszukiwać najlepszego rozwiązania problemu informatycznego lepiej pozwolić, żeby komputer sam sobie to rozwiązanie wyhodował! Algorytmy genetyczne służą
Strategie ewolucyjne. Gnypowicz Damian Staniszczak Łukasz Woźniak Marek
Strategie ewolucyjne Gnypowicz Damian Staniszczak Łukasz Woźniak Marek Strategie ewolucyjne, a algorytmy genetyczne Podobieństwa: Oba działają na populacjach rozwiązań Korzystają z zasad selecji i przetwarzania
Metody Optymalizacji: Przeszukiwanie z listą tabu
Metody Optymalizacji: Przeszukiwanie z listą tabu Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje: wtorek
Zadania laboratoryjne i projektowe - wersja β
Zadania laboratoryjne i projektowe - wersja β 1 Laboratorium Dwa problemy do wyboru (jeden do realizacji). 1. Water Jug Problem, 2. Wieże Hanoi. Water Jug Problem Ograniczenia dla każdej z wersji: pojemniki
Algorytmy genetyczne
Politechnika Łódzka Katedra Informatyki Stosowanej Algorytmy genetyczne Wykład 2 Przygotował i prowadzi: Dr inż. Piotr Urbanek Powtórzenie Pytania: Jaki mechanizm jest stosowany w naturze do takiego modyfikowania
Algorytm hybrydowy dla alokacji portfela inwestycyjnego przy ograniczonych zasobach
Adam Stawowy Algorytm hybrydowy dla alokacji portfela inwestycyjnego przy ograniczonych zasobach Summary: We present a meta-heuristic to combine Monte Carlo simulation with genetic algorithm for Capital
Strategie ewolucyjne (ang. evolution strategies)
Strategie ewolucyjne (ang. evolution strategies) 1 2 Szybki przegląd Rozwijane w Niemczech w latach 60-70. Wcześni badacze: I. Rechenberg, H.-P. Schwefel (student Rechenberga). Typowe zastosowanie: Optymalizacja
Algorytmy ewolucyjne 1
Algorytmy ewolucyjne 1 2 Zasady zaliczenia przedmiotu Prowadzący (wykład i pracownie specjalistyczną): Wojciech Kwedlo, pokój 205. Konsultacje dla studentów studiów dziennych: poniedziałek,środa, godz
Dobór parametrów algorytmu ewolucyjnego
Dobór parametrów algorytmu ewolucyjnego 1 2 Wstęp Algorytm ewolucyjny posiada wiele parametrów. Przykładowo dla algorytmu genetycznego są to: prawdopodobieństwa stosowania operatorów mutacji i krzyżowania.
Matematyka ubezpieczeń majątkowych r.
Zadanie. Niech łączna wartość szkód: Ma złożony rozkład Poissona. Momenty rozkładu wartości poedyncze szkody wynoszą:, [ ]. Wiemy także, że momenty nadwyżki wartości poedyncze szkody ponad udział własny
Techniki optymalizacji
Techniki optymalizacji Symulowane wyżarzanie Maciej Hapke maciej.hapke at put.poznan.pl Wyżarzanie wzrost temperatury gorącej kąpieli do takiej wartości, w której ciało stałe topnieje powolne zmniejszanie
Laboratorium 5 Przybliżone metody rozwiązywania równań nieliniowych
Uniwersytet Zielonogórski Wydział Informatyki, Elektrotechniki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych Elektrotechnika niestacjonarne-zaoczne pierwszego stopnia z tyt. inżyniera
FOLIA POMERANAE UNIVERSITATIS TECHNOLOGIAE STETINENSIS Folia Pomer. Univ. Technol. Stetin. 2011, Oeconomica 285 (62), 45 50
FOLIA POMERANAE UNIVERSITATIS TECHNOLOGIAE STETINENSIS Folia Pomer. Univ. Technol. Stetin. 2011, Oeconomica 285 (62), 45 50 Anna Landowska KLASYCZNY ALGORYTM GENETYCZNY W DYNAMICZNEJ OPTYMALIZACJI MODELU
Spacery losowe generowanie realizacji procesu losowego
Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z
Problemy z ograniczeniami
Problemy z ograniczeniami 1 2 Dlaczego zadania z ograniczeniami Wiele praktycznych problemów to problemy z ograniczeniami. Problemy trudne obliczeniowo (np-trudne) to prawie zawsze problemy z ograniczeniami.
ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH
Transport, studia I stopnia Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać ogólna równania nieliniowego Często występującym, ważnym problemem obliczeniowym
6. Klasyczny algorytm genetyczny. 1
6. Klasyczny algorytm genetyczny. 1 Idea algorytmu genetycznego została zaczerpnięta z nauk przyrodniczych opisujących zjawiska doboru naturalnego i dziedziczenia. Mechanizmy te polegają na przetrwaniu
Wykład 5. Skręcanie nieskrępowane prętów o przekroju prostokątnym.
Adresy internetowe, pod którymi można znaleźć wykłady z Wytrzymałości Materiałów: Politechnika Krakowska http://limba.wil.pk.edu.pl/kwm-edu.html Politechnika Łódzka http://kmm.p.lodz.pl/dydaktyka Wykład
KADD Minimalizacja funkcji
Minimalizacja funkcji Poszukiwanie minimum funkcji Foma kwadratowa Metody przybliżania minimum minimalizacja Minimalizacja w n wymiarach Metody poszukiwania minimum Otaczanie minimum Podział obszaru zawierającego
ALGORYTMY EWOLUCYJNE W ZASTOSOWANIU DO ROZWIĄZYWANIA WYBRANYCH ZADAŃ OPTYMALIZACJI1
Acta Sci. Pol., Geodesia et Descriptio Terrarum 12 (2) 2013, 21-28 ISSN 1644 0668 (print) ISSN 2083 8662 (on-line) ALGORYTMY EWOLUCYJNE W ZASTOSOWANIU DO ROZWIĄZYWANIA WYBRANYCH ZADAŃ OPTYMALIZACJI1 Józef
METODY SZTUCZNEJ INTELIGENCJI algorytmy ewolucyjne
METODY SZTUCZNEJ INTELIGENCJI algorytmy ewolucyjne dr hab. inż. Andrzej Obuchowicz, prof. UZ Instytut Sterowania i Systemów Informatycznych Uniwersytet Zielonogórski A. Obuchowicz: MSI - algorytmy ewolucyjne
Algorytm dyskretnego PSO z przeszukiwaniem lokalnym w problemie dynamicznej wersji TSP
Algorytm dyskretnego PSO z przeszukiwaniem lokalnym w problemie dynamicznej wersji TSP Łukasz Strąk lukasz.strak@gmail.com Uniwersytet Śląski, Instytut Informatyki, Będzińska 39, 41-205 Sosnowiec 9 grudnia
Metody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium Zadanie nr 3 Osada autor: A Gonczarek Celem poniższego zadania jest zrealizowanie fragmentu komputerowego przeciwnika w grze strategiczno-ekonomicznej
Plan. Zakres badań teorii optymalizacji. Teoria optymalizacji. Teoria optymalizacji a badania operacyjne. Badania operacyjne i teoria optymalizacji
Badania operacyjne i teoria optymalizacji Instytut Informatyki Poznań, 2011/2012 1 2 3 Teoria optymalizacji Teoria optymalizacji a badania operacyjne Teoria optymalizacji zajmuje się badaniem metod optymalizacji
XL Sympozjon "Modelowanie w mechanice" NOWE FUNKCJE INKLUZYJNE W ALGORYTMIE PRZEDZIAŁOWEJ OPTYMALIZACJI GLOBALNEJ
XL Sympozon "Modelowanie w mecanice" NOWE FUNKCJE INKLUZYJNE W ALGORYTMIE PRZEDZIAŁOWEJ OPTYMALIZACJI GLOBALNEJ Andrze Pownuk Politecnika Śląska Wydział Budownictwa Zakład Mecaniki Teoretyczne Przegląd
Algorytmy ewolucyjne NAZEWNICTWO
Algorytmy ewolucyjne http://zajecia.jakubw.pl/nai NAZEWNICTWO Algorytmy ewolucyjne nazwa ogólna, obejmująca metody szczegółowe, jak np.: algorytmy genetyczne programowanie genetyczne strategie ewolucyjne
Optymalizacja. Symulowane wyżarzanie
dr hab. inż. Instytut Informatyki Politechnika Poznańska www.cs.put.poznan.pl/mkomosinski, Maciej Hapke Wyżarzanie wzrost temperatury gorącej kąpieli do takiej wartości, w której ciało stałe topnieje powolne
Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych
inż. Marek Duczkowski Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych słowa kluczowe: algorytm gradientowy, optymalizacja, określanie wodnicy W artykule
Algorytmy metaheurystyczne Wykład 6. Piotr Syga
Algorytmy metaheurystyczne Wykład 6 Piotr Syga 10.04.2017 Wprowadzenie Inspiracje Wprowadzenie ACS idea 1 Zaczynamy z pustym rozwiązaniem początkowym 2 Dzielimy problem na komponenty (przedmiot do zabrania,
Maciej Piotr Jankowski
Reduced Adder Graph Implementacja algorytmu RAG Maciej Piotr Jankowski 2005.12.22 Maciej Piotr Jankowski 1 Plan prezentacji 1. Wstęp 2. Implementacja 3. Usprawnienia optymalizacyjne 3.1. Tablica ekspansji
LABORATORIUM 7: Problem komiwojażera (TSP) cz. 2
Instytut Mechaniki i Inżynierii Obliczeniowej Wydział Mechaniczny Technologiczny, Politechnika Śląska www.imio.polsl.pl OBLICZENIA EWOLUCYJNE LABORATORIUM 7: Problem komiwojażera (TSP) cz. 2 opracował:
ALGORYTMY MEMETYCZNE DLA PEWNEGO PROBLEMU POTOKOWEGO W BUDOWNICTWIE
ALGORYTMY MEMETYCZNE DLA PEWNEGO PROBLEMU POTOKOWEGO W BUDOWNICTWIE Wociech BOŻEJKO, Zdzisław HEJDUCKI, Paweł RAJBA, Mieczysław WODECKI Streszczenie: System pracy potokowe w budownictwie dotyczy realizaci
Metody przeszukiwania
Metody przeszukiwania Co to jest przeszukiwanie Przeszukiwanie polega na odnajdywaniu rozwiązania w dyskretnej przestrzeni rozwiązao. Zwykle przeszukiwanie polega na znalezieniu określonego rozwiązania
Instytut Politechniczny Państwowa Wyższa Szkoła Zawodowa. Diagnostyka i niezawodność robotów
Instytut Politechniczny Państwowa Wyższa Szkoła Zawodowa Diagnostyka i niezawodność robotów Laboratorium nr 6 Model matematyczny elementu naprawialnego Prowadzący: mgr inż. Marcel Luzar Cele ćwiczenia:
Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych
Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych ELEMENTY SZTUCZNEJ INTELIGENCJI Laboratorium nr 9 PRZESZUKIWANIE GRAFÓW Z
Równoważność algorytmów optymalizacji
Równoważność algorytmów optymalizacji Reguła nie ma nic za darmo (ang. no free lunch theory): efektywność różnych typowych algorytmów szukania uśredniona po wszystkich możliwych problemach optymalizacyjnych
Problem Komiwojażera - algorytmy metaheurystyczne
Problem Komiwojażera - algorytmy metaheurystyczne algorytm mrówkowy algorytm genetyczny by Bartosz Tomeczko. All rights reserved. 2010. TSP dlaczego metaheurystyki i heurystyki? TSP Travelling Salesman
SCHEMAT ROZWIĄZANIA ZADANIA OPTYMALIZACJI PRZY POMOCY ALGORYTMU GENETYCZNEGO
SCHEMAT ROZWIĄZANIA ZADANIA OPTYMALIZACJI PRZY POMOCY ALGORYTMU GENETYCZNEGO. Rzeczywistość (istniejąca lub projektowana).. Model fizyczny. 3. Model matematyczny (optymalizacyjny): a. Zmienne projektowania
Optymalizacja. Przeszukiwanie lokalne
dr hab. inż. Instytut Informatyki Politechnika Poznańska www.cs.put.poznan.pl/mkomosinski, Maciej Hapke Idea sąsiedztwa Definicja sąsiedztwa x S zbiór N(x) S rozwiązań, które leżą blisko rozwiązania x
HISTOGRAM. Dr Adam Michczyński - METODY ANALIZY DANYCH POMIAROWYCH Liczba pomiarów - n. Liczba pomiarów - n k 0.5 N = N =
HISTOGRAM W pewnych przypadkach interesuje nas nie tylko określenie prawdziwej wartości mierzonej wielkości, ale także zbadanie całego rozkład prawdopodobieństwa wyników pomiarów. W takim przypadku wyniki
OSTASZEWSKI Paweł (55566) PAWLICKI Piotr (55567) Algorytmy i Struktury Danych PIŁA
OSTASZEWSKI Paweł (55566) PAWLICKI Piotr (55567) 16.01.2003 Algorytmy i Struktury Danych PIŁA ALGORYTMY ZACHŁANNE czas [ms] Porównanie Algorytmów Rozwiązyjących problem TSP 100 000 000 000,000 10 000 000
Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania
Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Metody optymalizacji Metody bezgradientowe optymalizacji bez ograniczeń Materiały pomocnicze do ćwiczeń
Techniki optymalizacji
Techniki optymalizacji Algorytm kolonii mrówek Idea Smuga feromonowa 1 Sztuczne mrówki w TSP Sztuczna mrówka agent, który porusza się z miasta do miasta Mrówki preferują miasta połączone łukami z dużą
Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11,
1 Kwantyzacja skalarna Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11, 10.05.005 Kwantyzacja polega na reprezentowaniu dużego zbioru wartości (być może nieskończonego) za pomocą wartości
Sieci obliczeniowe poprawny dobór i modelowanie
Sieci obliczeniowe poprawny dobór i modelowanie 1. Wstęp. Jednym z pierwszych, a zarazem najważniejszym krokiem podczas tworzenia symulacji CFD jest poprawne określenie rozdzielczości, wymiarów oraz ilości
Politechnika Wrocławska Wydział Elektroniki INFORMATYKA SYSTEMÓW AUTONOMICZNYCH. Heurystyka, co to jest, potencjalne zastosowania
Politechnika Wrocławska Wydział Elektroniki INFORMATYKA SYSTEMÓW AUTONOMICZNYCH Autor: Łukasz Patyra indeks: 133325 Prowadzący zajęcia: dr inż. Marek Piasecki Ocena pracy: Wrocław 2007 Spis treści 1 Wstęp
Numeryczne modelowanie ustalonego pola temperatury
Zakład Aerodynamiki i ermodynamik Instytut echniki Lotnicze, Wydział Mechatroniki Woskowa Akademia echniczna Numeryczne modelowanie ustalonego pola temperatury Piotr Koniorczyk Mateusz Zieliński Warszawa
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 17. ALGORYTMY EWOLUCYJNE Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska KODOWANIE BINARNE Problem różnych struktur przestrzeni
Algorytmy genetyczne. Paweł Cieśla. 8 stycznia 2009
Algorytmy genetyczne Paweł Cieśla 8 stycznia 2009 Genetyka - nauka o dziedziczeniu cech pomiędzy pokoleniami. Geny są czynnikami, które decydują o wyglądzie, zachowaniu, rozmnażaniu każdego żywego organizmu.
Algorytmy ewolucyjne - algorytmy genetyczne. I. Karcz-Dulęba
Algorytmy ewolucyjne - algorytmy genetyczne I. Karcz-Dulęba Algorytmy klasyczne a algorytmy ewolucyjne Przeszukiwanie przestrzeni przez jeden punkt bazowy Przeszukiwanie przestrzeni przez zbiór punktów
Programowanie celowe #1
Programowanie celowe #1 Problem programowania celowego (PC) jest przykładem problemu programowania matematycznego nieliniowego, który można skutecznie zlinearyzować, tzn. zapisać (i rozwiązać) jako problem
ALGORYTMY EWOLUCYJNE W OPTYMALIZACJI JEDNOKRYTERIALNEJ
ALGORYTMY EWOLUCYJNE W OPTYMALIZACJI JEDNOKRYTERIALNEJ Zalety: nie wprowadzają żadnych ograniczeń na sformułowanie problemu optymalizacyjnego. Funkcja celu może być wielowartościowa i nieciągła, obszar
Optymalizacja parametrów w strategiach inwestycyjnych dla event-driven tradingu - metodologia badań
Raport 1/2015 Optymalizacja parametrów w strategiach inwestycyjnych dla event-driven tradingu - metodologia badań autor: Michał Osmoła INIME Instytut nauk informatycznych i matematycznych z zastosowaniem
Metody Programowania
POLITECHNIKA KRAKOWSKA - WIEiK KATEDRA AUTOMATYKI i TECHNIK INFORMACYJNYCH Metody Programowania www.pk.edu.pl/~zk/mp_hp.html Wykładowca: dr inż. Zbigniew Kokosiński zk@pk.edu.pl Wykład 8: Wyszukiwanie
LABORATORIUM 1: Program Evolutionary Algorithms
Instytut Mechaniki i Inżynierii Obliczeniowej Wydział Mechaniczny Technologiczny, Politechnika Śląska www.imio.polsl.pl OBLICZENIA EWOLUCYJNE LABORATORIUM 1: Program Evolutionary Algorithms opracował:
6. ANALIZA POST-OPTYMALIZACYJNA analiza wrażliwości rozwiązania optymalnego
6. ANALIZA POST-OPTYMALIZACYJNA analiza wrażliwości rozwiązania optymalnego Analiza wrażliwości est studium analizy wpływu zmian wartości różnych parametrów modelu PL na rozwiązanie optymalne. Na optymalne
ĆWICZENIE 2: Algorytmy ewolucyjne cz. 1 wpływ wielkości populacji i liczby pokoleń na skuteczność poszukiwań AE
Instytut Mechaniki i Inżynierii Obliczeniowej Wydział Mechaniczny Technologiczny, Politechnika Śląska www.imio.polsl.pl METODY HEURYSTYCZNE studia niestacjonarne ĆWICZENIE 2: Algorytmy ewolucyjne cz. 1
ALHE Z11 Jarosław Arabas wykład 11
ALHE Z11 Jarosław Arabas wykład 11 algorytm ewolucyjny inicjuj P 0 {x 1, x 2... x } t 0 while! stop for i 1: if a p c O t,i mutation crossover select P t, k else O t,i mutation select P t,1 P t 1 replacement
Optymalizacja parametrów w strategiach inwestycyjnych dla event-driven tradingu dla odczytu Australia Employment Change
Raport 4/2015 Optymalizacja parametrów w strategiach inwestycyjnych dla event-driven tradingu dla odczytu Australia Employment Change autor: Michał Osmoła INIME Instytut nauk informatycznych i matematycznych
METODY ROZWIĄZYWANIA RÓWNAŃ NIELINIOWYCH
METODY ROZWIĄZYWANIA RÓWNAŃ NIELINIOWYCH Jednym z zastosowań metod numerycznych jest wyznaczenie pierwiastka lub pierwiastków równania nieliniowego. W tym celu stosuje się szereg metod obliczeniowych np:
Algorytmy genetyczne. Materiały do laboratorium PSI. Studia stacjonarne i niestacjonarne
Algorytmy genetyczne Materiały do laboratorium PSI Studia stacjonarne i niestacjonarne Podstawowy algorytm genetyczny (PAG) Schemat blokowy algorytmu genetycznego Znaczenia, pochodzących z biologii i genetyki,
Metody Rozmyte i Algorytmy Ewolucyjne
mgr inż. Wydział Matematyczno-Przyrodniczy Szkoła Nauk Ścisłych Uniwersytet Kardynała Stefana Wyszyńskiego Podstawy optymalizacji Plan prezentacji 1 Podstawy matematyczne 2 3 Eliminacja ograniczeń Metody
WYKŁAD 9 METODY ZMIENNEJ METRYKI
WYKŁAD 9 METODY ZMIENNEJ METRYKI Kierunki sprzężone. Metoda Newtona Raphsona daje dobre przybliżenie najlepszego kierunku poszukiwań, lecz jest to okupione znacznym kosztem obliczeniowym zwykle postać
Testowanie hipotez statystycznych
Agenda Instytut Matematyki Politechniki Łódzkiej 2 stycznia 2012 Agenda Agenda 1 Wprowadzenie Agenda 2 Hipoteza oraz błędy I i II rodzaju Hipoteza alternatywna Statystyka testowa Zbiór krytyczny Poziom
ROZWÓJ ALGORYTMU EWOLUCJI RÓŻNICOWEJ. Konrad Wypchło
ROZWÓJ ALGORYTMU EWOLUCJI RÓŻNICOWEJ Konrad Wypchło Plan prezentacji 2 Elementy klasycznego algorytmu ewolucyjnego Ewolucja różnicowa DMEA i inne modyfikacje Adaptacja zasięgu mutacji (AHDMEA, SaHDMEA)
METODYKA DIAGNOZOWANIA STANU MASZYN 1. Henryk Tylicki, Joanna Wilczarska, Marzena Bartol
MOTROL, 2006, 8, 230 239 METOYKA IAGNOZOWANIA STANU MASZYN Henryk Tylicki, Joanna Wilczarska, Marzena Bartol Akademia Techniczno-Rolnicza w Bydgoszczy Streszczenie. W opracowaniu przedstawiono problematykę
OPTYMALIZACJA HARMONOGRAMOWANIA MONTAŻU SAMOCHODÓW Z ZASTOSOWANIEM PROGRAMOWANIA W LOGICE Z OGRANICZENIAMI
Autoreferat do rozprawy doktorskiej OPTYMALIZACJA HARMONOGRAMOWANIA MONTAŻU SAMOCHODÓW Z ZASTOSOWANIEM PROGRAMOWANIA W LOGICE Z OGRANICZENIAMI Michał Mazur Gliwice 2016 1 2 Montaż samochodów na linii w