HEURYSTYCZNY ALGORYTM OPTYMALIZACJI PARAMETRYCZNEJ DEDYKOWANY PROBLEMOM WIELOWYMIAROWYM

Wielkość: px
Rozpocząć pokaz od strony:

Download "HEURYSTYCZNY ALGORYTM OPTYMALIZACJI PARAMETRYCZNEJ DEDYKOWANY PROBLEMOM WIELOWYMIAROWYM"

Transkrypt

1 STUDIA INFORMATICA 2007 Volume 28 Number (70) Dariusz R. AUGUSTYN, Łukasz WYCIŚLIK Politechnika Śląska, Instytut Informatyki HEURYSTYCZNY ALGORYTM OPTYMALIZACJI PARAMETRYCZNEJ DEDYKOWANY PROBLEMOM WIELOWYMIAROWYM Streszczenie. Heurystyczne algorytmy optymalizacyne znane są od początków rozwou dziedziny informatyki, ednak stosunkowo niedawno zaczęto proponować algorytmy bazuące na obserwacach zawisk w otaczaące nas przyrodzie (ewoluca, poszukiwanie pożywienia przez kolonie wieloagentowe, wyżarzanie w procesach metalurgicznych itp.). Każdy z takich algorytmów charakteryzue się inną specyfiką przeszukiwania przestrzeni rozważań. Jednym z problemów optymalizaci parametryczne est przypadek wielowymiarowe przestrzeni przeszukiwań, gdzie liczba wymiarów osiąga setek, a nawet tysięcy. Autorzy opieraąc się na nalepszych cechach znanych z literatury heurystycznych algorytmów optymalizaci, zaproponowali własny algorytm przeznaczony do rozwiązywania takich problemów. Słowa kluczowe: optymalizaca parametryczna, heurystyka, metody ewolucyne, optymalizaca wielowymiarowa HEURISTIC PARAMETRIC OPTIMIZATION ALGORITHM FOR MULTIDIMESIONAL PROBLEMS SOLVING Summary. Heuristic optimization algorithms are known from the beginnings of computer science but ones based on observations of nature phenomenons (evolution, food searching of multiagent colonies, annealing) were introduced relatively late. Each of them have different characteristics of search space exploration. One of known problems of parametric optimization is multidimensional case (hundreds or thousands of dimensions). Authors, inspired by best features of known optimization algorithms, proposed optimization method for such problems solving. Keywords: parametric optimization, heuristics, evolutionary methods, multidimensional optimization

2 56 D. R. Augustyn, Ł. Wyciślik. Wstęp Algorytmy przeszukiwania losowego, stosowane do zadań optymalizaci, to takie, które w sposób iteracyny przeszukuą przestrzeń rozważań w przypadkowych kierunkach, aby znaleźć minimum funkci celu. Każdy taki algorytm rozpoczyna swoe działanie z punktu początkowego (wylosowanego bądź ustalonego). Kierunek poszukiwania est realizacą wektora, którego składowymi są zmienne losowe. Krok, który w wyniku dae mnieszą wartość funkci akości, est krokiem pomyślnym, inne kroki są niepomyślne. W naprostszych algorytmach przeszukiwania losowego kroki niepomyślne są odrzucane, zaś pomyślne staą się punktem startowym dla kolene iteraci algorytmu. Jeżeli w algorytmie wzdłuż obiecuącego kierunku wykonue się serię kroków, algorytm taki nazywany est algorytmem z pamięcią. Algorytmy, w których w każdym kroku przymowany est nowy kierunek poszukiwań, nazywane są algorytmami bez pamięci. Należy zauważyć, że w algorytmach z pamięcią rozkład prawdopodobieństwa wartości składowych wektora zależy od numeru kroku. Jeśli dodatkowo rozkład ten est modyfikowany w trakcie procesu przeszukiwania w celu przyspieszenia zbieżności algorytmu, mówi się o algorytmach przeszukiwania losowego z adaptacą [4]. Wśród podstawowych algorytmów przeszukiwania losowego bez pamięci należy wymienić algorytm z parą kroków próbnych, gdzie po wylosowaniu kierunku przeszukiwań realizowany est krok w kierunku wylosowanym bądź przeciwnym tam, gdzie funkca akości osiąga mnieszą wartość. Innym przykładem algorytmu bez pamięci może być algorytm nalepsze próby, gdzie na początku iteraci realizowanych est wiele kroków próbnych, a ako krok roboczy przymue się ten, który prowadzi do namniesze wartości funkci akości. Dla wybranego kierunku poszukiwań algorytm est realizowany z wykorzystaniem stałego, przyętego wcześnie współczynnika. Przykładem algorytmu z pamięcią może być metoda przypadkowego spadku, w które z danego punktu wykonue się serię kroków w danym kierunku dopóki są to kroki pomyślne. Po wystąpieniu kroku niepomyślnego następue wybór nowego, bardzie obiecuącego kierunku [4]. Opisane wyże podstawowe metody przeszukiwania funkci celu są bardzo zawodne w przypadku zadań optymalizaci globalne, ponieważ dla funkci o wielu minimach lokalnych znalezione minimum lokalne zależy od punktu startowego algorytmu i nie musi być wcale minimum globalnym. Problem ten rozwiązue się czasami przez modyfikace wyże przedstawionych algorytmów optymalizaci lokalne, polegaące bądź to na wielokrotnym uruchamianiu danego algorytmu z różnymi, losowo wybranymi punktami początkowymi (metody wielostartowe), bądź też na dodaniu do wektora kierunku przeszukiwań składowe prędkości wynikaące z ruchu wykonanego w poprzednim kroku (symulaca ruchu punktu materialnego), maące zapewnić możliwość opuszczania płytkich minimów lokalnych [].

3 Heurystyczny algorytm optymalizaci parametryczne dedykowany 57 Inną klasą metod niedeterministycznych są algorytmy cechuące się losowością zarówno w procesie poszukiwań nowych rozwiązań, ak też w procesie przechodzenia między kolenymi rozwiązaniami roboczymi. Nie operue się tuta wektorem kierunku dodawanym do bieżącego rozwiązania, ale przy każde iteraci generue się zupełnie nowe rozwiązania kandyduące. Naprostszym z takich algorytmów est metoda Monte Carlo, gdzie z rozkładem równomiernym dokonue się wielu losowań punktu z przestrzeni rozwiązań, pamiętaąc nalepszy, dotychczas znaleziony. Inną metodą może być algorytm błądzenia przypadkowego, gdzie przetwarzany est eden punkt roboczy, będący realizacą zmienne losowe rozkładu prawdopodobieństwa, według którego losue się następny punkt, który to stae się punktem roboczym bez względu na wartość funkci akości. Podobnie ak w metodzie Monte Carlo, tak i tuta pamiętane est rozwiązanie nalepsze z dotychczas znalezionych []. Oprócz algorytmów, które przetwarzaą dane rozwiązanie krok po kroku, istnieą również metody populacyne, gdzie przetwarza się równolegle (w znaczeniu niezależności rozwiązań) wiele kandyduących rozwiązań. Po ocenie ich wartością funkci akości realizue się grupowanie rozwiązań w celu eliminaci tych, które zbiegaą się do ednego minimum lokalnego. Pozwala to na zmnieszenie nakładu obliczeń. W ostatnich latach zaproponowano algorytmy służące m.in. do optymalizaci globalne, które swoą akością znacznie przewyższyły dotychczas stosowane metody. Należy wśród nich wymienić algorytmy symulowanego wyżarzania, algorytmy genetyczne, metody ewolucyne czy algorytmy mrówkowe. Wykorzystuąc w swoim działaniu czynnik niedeterministyczny, kwalifikuą się one do grupy algorytmów przeszukiwania losowego (naczęście adaptacynych i populacynych), ednak ze względu na swoą genezę, specyfikę i podstawy teoretyczne, zostały wydzielone ako osobne grupy, zwane czasem algorytmami metaheurystycznymi. 2. Propozyca algorytmu optymalizaci heurystyczne dedykowanego problemom wielowymiarowym Pomimo zupełnie różne genezy algorytmów ewolucynych i algorytmów mrówkowych można w nich zauważyć duże podobieństwa, zwłaszcza eśli bierze się pod uwagę werse poszczególnych heurystyk stworzone do rozwiązywania podobnych zadań. Każde z podeść wykorzystue populacę osobników reprezentuących rozwiązanie danego zadania i w każdym z podeść wiedza o rozwiązywanym problemie, zgromadzona przez poszczególne osobniki, est wykorzystywana do stochastycznego wygenerowania nowe populaci osobników. Podstawową różnicą est fakt, że w przypadku algorytmów ewolucynych cała wiedza o rozwiązaniu problemu zawarta est w samych osobnikach dane populaci, zaś w

4 58 D. R. Augustyn, Ł. Wyciślik przypadku algorytmów mrówkowych wiedza ta zawarta est w śladzie feromonowym, na tworzenie którego ma wpływ każdy z osobników. Mechanizmy te służą ednak ednemu celowi, akim est konstrukca stale zmieniaące się w kolenych iteracach algorytmu wielowymiarowe funkci rozkładu gęstości prawdopodobieństwa (w przypadku optymalizaci kombinatoryczne funkca ta est określona na wartościach dyskretnych), na podstawie które generowane są kolene osobniki (o lepsze wartości wskaźnika akości). Algorytmy mrówkowe znaduą szczególne zastosowanie w rozwiązywaniu problemów kombinatorycznych, gdzie liczba wszystkich dopuszczalnych rozwiązań est ograniczona i możliwe est przedstawienie tych rozwiązań za pomocą grafu. Taka specyfika umożliwia zakodowanie zadania w postaci dane implementaci grafu. Cała wiedza o rozwiązywanym problemie wynika z wag poszczególnych krawędzi grafu, których wartości mogą być na bieżąco zmieniane przez kolene osobniki (lepsza wartość funkci przystosowania to większa ilość pozostawionego feromonu). Na postać funkci gęstości prawdopodobieństwa, reprezentowane przez ślad feromonowy, na podstawie które generowane będą następne rozwiązania, maą więc wpływ wszystkie osobniki z wagą wyznaczaną przez zastosowaną funkcę akości oraz funkcę modeluącą parowanie feromonu (starsze rozwiązania są mnie prawdopodobne). Podobna koncepca generowania nowych osobników przyświeca ewolucynemu systemowi PBIL (ang. Population Based Incremental Learning), który został zaproponowany przez S. Balua w 994 r. [3]. W koncepci te wiedza o rozwiązywanym problemie zawarta est w tzw. bazowym wektorze prawdopodobieństwa, który stanowi edyną podstawę do generowania nowych osobników, a który uaktualniany est na podstawie oceny akości rozwiązań reprezentowanych przez generowane koleno osobniki. Prowadzone badania wykazały [3], że algorytm ten dae obiecuące wyniki w zastosowaniu do optymalizaci kombinatoryczne. Natomiast w przypadku optymalizaci parametryczne uzyskiwane wyniki są gorsze niż w przypadku stosowania klasycznych algorytmów ewolucynych. Spowodowane est to zapewne faktem, że w przypadku optymalizowania funkci wielomodalnych nie ma możliwości zakodowania w wektorze bazowym funkci gęstości rozkładu prawdopodobieństwa o bardzie złożonym kształcie, która umożliwiałaby eksploracę rozwiązań wszystkich obiecuących obszarów optymalizowane funkci. Propozyca algorytmu optymalizaci parametryczne polega na ewoluci osobników będących kodowanymi zmiennoprzecinkowo wektorami punktów przestrzeni, na które określona est funkca f ( x) : n, dla które poszukuemy ekstremum. W każde iteraci algorytmu nowy osobnik generowany est na podstawie stałe liczby poprzedników. Prawdopodobieństwo selekci danego osobnika wynika z wartości obliczone dla niego funkci przystosowania oraz czasu, kiedy został wygenerowany, przy czym wpływ czasu, podobnie ak w algorytmach mrówkowych odparowywanie śladu feromonowego, może mieć charakter

5 Heurystyczny algorytm optymalizaci parametryczne dedykowany 59 liniowy, wykładniczy bądź inny. Badania własne wykazały, że w przypadku złożonych funkci wielowymiarowych operatory krzyżowania (zarówno, eśli chodzi o krzyżowanie pozycyne, ak i krzyżowanie arytmetyczne) nie przyczyniaą się do wzrostu skuteczności metody optymalizaci, często stanowiąc wręcz zawadę (we wszystkich testowanych funkcach nie uzyskano poprawy, a w niektórych nastąpiło wręcz pogorszenie), dlatego nowy osobnik tworzony est edynie w oparciu o mutacę, która est realizowana zgodnie ze schematem mutaci nierównomierne [2]. Na potrzeby zobrazowania sposobu funkconowania zaproponowanego algorytmu zastosowano następuące oznaczenia: x x2 x = M x n n wektor, który est punktem przeszukiwane dziedziny funkci f, zwany również osobnikiem, x m = xm xm M x 2 mn osobnik wygenerowany w m-te iteraci, gdzie: k est liczbą osobników biorących udział w każde iteraci algorytmu optymalizaci, M założoną liczbą wszystkich iteraci algorytmu optymalizaci, wartością wskaźnika akości dla xm, czyli wartością f(x m ), a T(m) funkcą określaącą wpływ numeru iteraci, w które został wygenerowany dany osobnik na ego prawdopodobieństwo selekci (wybór wcześnie wygenerowanych osobników est mnie prawdopodobny). Podstawowe zasady funkconowania opisanego algorytmu obrazue rys. (założono, że algorytm realizue właśnie m-ty krok iteraci). Selekci osobnika z populaci bazowe dokonue się na podstawie wartości funkci przystosowania Q m oraz wartości funkci opisuące wpływ numeru iteraci wygenerowania danego osobnika T(m). Proponue się, aby prawdopodobieństwo wyboru m-tego osobnika opisać następuącą zależnością: P m m = k Q T ( m), () Q T ( ) = gdzie Q m est wskaźnikiem akości (funkcą przystosowania) m-tego osobnika, uprawdopodobniaącym wybór osobnika o większe wartości Q, zaś T funkcą określaącą wpływ numeru iteraci, w które został wygenerowany dany osobnik, na ego zdolność do reprodukci (podobnie ak w algorytmach mrówkowych może to być rosnąca funkca liniowa, funkca wykładnicza bądź inna funkca niemaleąca), uprawdopodobniaącą wybór młodszego osobnika. Q m

6 60 D. R. Augustyn, Ł. Wyciślik W ramach badań realizowanych w niniesze pracy wykorzystano funkcę liniową. x m k, x m x m, x m, x m k,2 x m x m,2 x m,2 x m k,n x m k+, x m,n x m,n m- m-k m-k+ m Wybór osobnika do mutaci i = F S (Q m k, m-k, Q m k+, m k+,, Q m, m, m), gdzie i {m k,, m } x i, x i, x i,n Mutaca edne ze składowych (wybór każde ze składowych est równoprawdopodobny) {,, n} x' i = F M (x i, m) x i, x' i, x i,n Rys.. Zobrazowanie funkconowania algorytmu optymalizaci parametryczne Fig.. Visualization of parametric optimization algorithm Podobnie ak w algorytmach symulowanego wyżarzania, tak i tuta wprowadzić można czynnik akceptaci (a w przypadku proponowanego algorytmu selekci) rozwiązania gorszego z prawdopodobieństwem maleącym wraz z postępem procesu optymalizaci. Prawdopodobieństwo wyboru m-tego osobnika może być przedstawione ako: P F ( Q, m) T ( m) A m m ( m) = k, (2) = F ( Q, ) T ( ) A gdzie: m est numerem iteraci algorytmu, a F A funkcą uprawdopodobniaącą rozwiązania o lepsze akości w ramach postępu procesu optymalizaci np.: A m+ M F ( q, m) = a( q + b), (3) A gdzie: M est założoną liczbą iteraci algorytmu, zaś A (A > ) współczynnikiem, z którego wzrostem będzie malało prawdopodobieństwo akceptaci gorszych rozwiązań wraz z postę-

7 Heurystyczny algorytm optymalizaci parametryczne dedykowany 6 pem procesu optymalizaci. a i b to współczynniki liniowego przekształcenia przestrzeni funkci akości, dobierane przy każde iteraci algorytmu tak, aby e wartości dla nagorszego i nalepszego rozwiązania ze zbioru roboczego wynosiły odpowiednio i MAX (gdzie MAX > ). Dla zagadnień minimalizaci współczynnik a będzie przymować wartości uemne. W ramach badań realizowanych w niniesze rozprawie ustalono wartości współczynników A = 2 oraz MAX = 0. Mutaca realizowana est w ten sposób, że zmianie podlega każdorazowo tylko edna składowa wektora rozwiązania, wybrana losowo zgodnie z równomiernym rozkładem prawdopodobieństwa. Zmiana polega na zastąpieniu dane wartości inną, wygenerowaną losowo zgodnie z poniższą formułą [2]: xi, + Δ( m, u xi, ), prawdopodobieństwem 2 x i, = (4) xi, Δ( m, xi, l ), prawdopodobieństwem 2 gdzie: u est górnym krańcem przedziału zmienności -te składowe, zaś l est e dolnym krańcem przedziału zmienności. Funkca Δ(m, y) przymue wartości w zakresie [0,y], a prawdopodobieństwo, że Δ(m, y) est bliskie 0, wzrasta ze wzrostem m. Właściwość ta zapewnia, że w początkowe fazie optymalizaci algorytm eksplorue przestrzeń rozwiązań w szerokim zakresie, by w swoe końcowe fazie eksploatować wytypowane wcześnie obiecuące obszary. Zastosowano następuącą funkcę Δ(m, y) [2]: ( m / M ) b Δ ( m, y) = y( r ), (5) gdzie: r est liczbą z przedziału [0, ], losowaną zgodnie z rozkładem równomiernym, każdorazowo przy obliczaniu wartości funkci Δ, M założoną liczbą iteraci algorytmu, zaś b współczynnikiem dobranym eksperymentalnie (decyduącym o szybkości wymuszania zbieżności) w zależności od nieednorodności kształtu optymalizowane funkci. Na rys. 2 zobrazowano odwzorowanie wartości zmienne losowe na wartość modyfikaci dane składowe, realizowane przez omawiany operator mutaci w zależności od kroku algorytmu. Liczby opisane na konturach to wartości funkci Δ(m,).

8 62 D. R. Augustyn, Ł. Wyciślik Rys. 2. Wizualizaca funkconowania operatora mutaci nierównomierne (M = 000, b = ) Fig. 2. Visualization of nonuniform mutation operator (M = 000, b = ) Poniże przedstawiono uproszczony, formalny opis zaproponowanego algorytmu optymalizaci w pseudokodzie. Przez PPt oznaczono uporządkowany zbiór osobników przetwarzanych w iteraci numer t. Na zbiorze tym operue funkca selekca, która wybiera osobnika do mutaci na podstawie formuły (2) oraz (3). Funkca mutaca realizue operacę mutaci na poedyncze, losowo wybrane składowe, zgodnie ze schematem mutaci nierównomierne (4) oraz (5). Przez O oraz T oznaczono tymczasowe zmienne, pozwalaące operować na poedynczym osobniku. procedure AlgorytmOptymalizaci begin t := 0 t inicaca PP while ( t < założona liczba iteraci ) do begin t T := selekca PP O := mutaca T ocena O P t+ := PPt nastarszy osobnik {O} t := t + end end Inicalizaca początkowego zbioru osobników polega na wygenerowaniu losowych wartości dla każde ze składowych, w granicach określonych przedziałów zmienności, zgodnie z rozkładem równomiernym.

9 Heurystyczny algorytm optymalizaci parametryczne dedykowany 63 Zastosowanie modelu selekci elitarne implementowanego w algorytmach ewolucynych w ten sposób, że do następnego pokolenia przechodzi zawsze η nalepszych osobników, realizowane est tuta przez określenie prawdopodobieństwa selekci (a następnie mutaci) któregoś z η nalepszych osobników, wynoszącego η/(k+η) dla każdego z tych osobników. Realizaca modelu selekci elitarne wymaga oczywiście dodatkowe struktury danych, umożliwiaące przechowywanie informaci o η nalepszych, znalezionych do bieżące iteraci osobnikach. Podsumowuąc sposób funkconowania zaproponowanego algorytmu, można wyliczyć następuące ego cechy: sposób utrzymywania populaci osobnicze podobny est do strategii ewolucyne (μ + ), wpływ numeru iteraci, w które został wygenerowany dany osobnik (a więc ego wieku) na prawdopodobieństwo ego selekci został zaczerpnięty z algorytmów mrówkowych, zmnieszanie prawdopodobieństwa akceptaci rozwiązań gorszych wraz z przebiegiem procesu optymalizaci realizowany est podobnie ak w algorytmach symulowanego wyżarzania, sposób generowania nowego osobnika na podstawie osobnika wybranego w procesie selekci realizowany est za pomocą operatora mutaci nierównomierne. Badania zaproponowanego algorytmu optymalizaci prowadzono w pierwsze koleności na wielu popularnych funkcach testowych, w tym funkci Michalewicza. Przytoczono tylko niektóre wyniki z całości badań nad tymi funkcami, gdyż prawdziwą miarą skuteczności metody optymalizaci będzie realizaca badań na rzeczywistym systemie rozmytym. Z drugie ednak strony weryfikacę algorytmu rozpoczęto od funkci testowych, gdyż narzut potrzebny na obliczenie odpowiedzi systemu rozmytego est dużo większy niż na obliczenie wartości użytych funkci testowych. 3. Testy zaproponowane metody na zestawie funkci testowych De Jonga Do testów wybrano popularny zestaw [2] testowych funkci De Jonga składaący się z pięciu funkci zdefiniowanych w tabeli. Testy przeprowadzono na podstawie porównania funkconowania zaproponowanego algorytmu z klasycznym algorytmem ewolucynym. Podobnie ak w przypadku funkci Michalewicza, tak i tuta maksymalizowano funkce postaci F(x). Ponieważ dla pierwszych czterech funkci liczba wymiarów, na których są one określone, est parametryzowana, więc testy przeprowadzono na funkcach określonych na 00 wymiarach, co może pozwolić na lepszą weryfikacę zaproponowanego algorytmu w za-

10 64 D. R. Augustyn, Ł. Wyciślik stosowaniu do optymalizaci problemów wielowymiarowych. Ostatnią, piątą funkcę optymalizowano w e pierwotne postaci. Nazwa. Funkca De Jonga (ang. Sphere Model) 2. Funkca De Jonga Definice funkci testowych De Jonga Definica funkci Dim x i i= 2 F ( x =, ) dla 5.2 x i 5.2; i =,, Dim 2 ( ) Dim F, i= 2 2 (ang. Rosenbrock s Valley) 2 ( x) = 00( xi xi+ ) + ( xi ) 3. Funkca De Jonga (ang. Step Function) F3 x) = int( x i ) 4. Funkca De Jonga dla x i 2.048; i =,, Dim Dim (, i= dla 5.2 x i 5.2; i =,, Dim Dim 4 (ang. Quartic Gaussian Function) F4 x) = ( ix i + Gauss(0,) ) 5. Funkca De Jonga (ang. Shekel s Foxholes Function) (, i= dla.28 x i.28; i =,, Dim 25 F 5 ( x) = , = f 2 ( xi ai, ) f = +, i= dla x i ; i=, 2 6 Tabela macierz współczynników a i,, przedstawiono poniże: a i, = przez Dim oznaczono liczbę wymiarów, na których określona est funkca Wyniki porównań przedstawiono na poniższych rysunkach, gdzie dla każdego z algorytmów wykreślono po 0 krzywych obrazuących przebieg algorytmu optymalizaci, odpowiadaących 0 kolenym uruchomieniom każdego z programów. Dla niektórych funkci, w celu uzyskania lepsze przerzystości, wykreślono rysunki z logarytmiczną skalą dla osi odciętych.

11 Heurystyczny algorytm optymalizaci parametryczne dedykowany 65 Rys. 3. Porównanie algorytmu ewolucynego z zaproponowaną metodą heurystyczną dla pierwsze funkci De Jonga skala logarytmiczna Fig. 3. Comparison of the evolutionary algorithm and the proposed method for the first De Jong s function logarithmic scale Rys. 4. Porównanie algorytmu ewolucynego z zaproponowaną metodą heurystyczną dla drugie funkci De Jonga skala logarytmiczna Fig. 4. Comparison of the evolutionary algorithm and the proposed method for the second De Jong s function - logarithmic scale

12 66 D. R. Augustyn, Ł. Wyciślik Rys. 5. Porównanie algorytmu ewolucynego z zaproponowaną metodą heurystyczną dla trzecie funkci De Jonga skala liniowa Fig. 5. Comparison of the evolutionary algorithm and the proposed method for the third De Jong s function linear scale Rys. 6. Porównanie algorytmu ewolucynego z zaproponowaną metodą heurystyczną dla czwarte funkci De Jonga skala logarytmiczna Fig. 6. Comparison of the evolutionary algorithm and the proposed method for the fourth De Jong s function - logarithmic scale

13 Heurystyczny algorytm optymalizaci parametryczne dedykowany 67 Rys. 7. Porównanie algorytmu ewolucynego z zaproponowaną metodą heurystyczną dla piąte funkci De Jonga skala liniowa Fig. 7. Comparison of the evolutionary algorithm and the proposed method for the fifth De Jong s function - linear scale 4. Podsumowanie Dla wszystkich przetestowanych powyże funkci zaproponowana metoda znadue lepsze przybliżenie wartości optymalne. Należy również zwrócić uwagę na to, że zaproponowany algorytm cechue o wiele mnieszy rozrzut zarówno końcowego wyniku, ak i wyników pośrednich, uzyskanych w trakcie przebiegu procesu optymalizaci. Istotną zaletą algorytmu est również duża szybkość zbieżności, polegaąca na wypracowaniu dobrych wyników uż we wczesnych iteracach procesu optymalizaci. Dla drugie funkci testowe zaobserwować można pewien rozrzut w znalezionych optimach dla poszczególnych powtórzeń algorytmu, ale uzyskane wyniki są i tak znacznie lepsze od wyników wypracowanych przez system genocop3. Rozrzut ten spowodowany est przez fakt, iż badana funkca est niewspółmiernie bardzie nieednorodna w porównaniu do pozostałych, a należy przypomnieć, że obydwa algorytmy na potrzeby wszystkich testów miały ustalone i niezmienne parametry funkconowania. Piąta funkca De Jonga również charakteryzue się dużym stopniem nieednorodności, ale ponieważ zdefiniowana est ona tylko dla dwóch wymiarów, to obydwa algorytmy przy założone liczbie iteraci uzyskały podobne wyniki, chociaż zaproponowana metoda znacznie przewyższyła szybkością zbieżności.

14 68 D. R. Augustyn, Ł. Wyciślik Skomentować należy również to, iż w początkowe fazie procesu optymalizaci system genocop3 wyprzedza w większości przykładów zaproponowany algorytm. Spowodowane est to faktem, że system genocop3 dla zalecanych wartości parametrów rozpoczyna proces optymalizaci z pokoleniem losowo dobranych osobników. Choć zaproponowana metoda przewidue oczywiście taką możliwość, to przetestowana została wersa z ednym punktem startowym. Miało to na celu zbadanie wpływu losowości punktu startowego na zbieżność wyników dla poszczególnych uruchomień programu. Jak można zobaczyć na wykresach, wpływ ten dla testowanych funkci nie est duży, co stanowi niewątpliwą zaletę. Wszystkie z wyże przeprowadzonych badań zrealizowano z wartościami współczynników zgodnymi z tabelą 2. Tabela 2 Wartości współczynników w funkcach testowych Współczynnik Wartość M (liczba iteraci) 3.5e4 k (liczebność populaci) 5 b (współczynnik nieednorodności) Liczba iteraci została narzucona na potrzeby porównania z systemem Michalewicza (operacą dominuącą w przypadku znadowania ekstremum funkci est obliczenie wartości te funkci dla zadanych argumentów), zaś pozostałe współczynniki zostały dobrane eksperymentalnie. Podobnie ak w przypadku innych metod heurystycznych, wyliczenie wartości współczynników (zapewniaących osiągnięcie nalepszych rezultatów w nakrótszym czasie) steruących pracą algorytmu na drodze analityczne nie est możliwe. Dlatego, aby obrazować ich możliwy wpływ na osiągane wyniki, przeprowadzono poniższe badania z wykorzystaniem funkci Michalewicza (k = 2, n = 00). Rysunek 8 obrazue wpływ liczby iteraci realizowanych przez algorytm w procesie optymalizaci na akość osiąganych wyników.

15 Heurystyczny algorytm optymalizaci parametryczne dedykowany 69 Rys. 8. Zobrazowanie wpływu liczby iteraci algorytmu na akość wyników optymalizaci Fig. 8. Visualization of number of iterations influence on optimization results quality Jak widać na rysunku, dla niewielkie liczby iteraci (0-0 3 ) uzyskiwane są słabe wyniki, a ich zmienność est duża. Dla liczby iteraci większe niż 0 5 uzyskue się bardzo dobre wyniki, przy czym zwiększanie liczby iteraci ponad 0 6 est uż rozrzutnością w gospodarowaniu mocą obliczeniową, gdyż nie uzyskue się uż dalsze poprawy akości wyników. W przypadku funkci Michalewicza z postaci analityczne szacować można e górne ograniczenie, co ułatwia podęcie decyzi o ograniczeniu liczby iteraci do rzędu 0 6, niestety w przypadku przeszukiwania bardzie skomplikowanych funkci często nie est to możliwe. Należy zauważyć, że z praktycznego punktu widzenia liczba iteraci algorytmu est parametrem, od którego zależy czas realizaci procesu optymalizaci, dlatego też, eśli est to możliwe, powinno się tak dobierać wartości pozostałych parametrów, aby możliwe było uzyskanie zadowalaących wyników optymalizaci dla ak namniesze wymagane liczby iteraci algorytmu. Kolenym z badanych parametrów zaproponowanego algorytmu optymalizaci est liczebność roboczego zbioru osobników (liczebność populaci). Przykładowy wpływ zmian wartości tego parametru na akość osiąganych wyników przedstawiono na rys. 9.

16 70 D. R. Augustyn, Ł. Wyciślik Rys. 9. Zobrazowanie wpływu liczebności roboczego zbioru osobników na akość wyników optymalizaci Fig. 9. Visualization of number of agents in working set influence on optimization results quality Należy zauważyć, że w przypadku poszukiwania minimum funkci Michalewicza dobre wyniki osiąga się dla wartości tego parametru do 0 2, a dalsze zwiększanie ego wartości przynosi zauważalne pogorszenie osiąganych wyników. Nalepsze rezultaty w badanym przypadku osiągnięto dla liczebności roboczego zbioru osobników ~25, ale mniesze wartości tego parametru nie wpływaą w zdecydowany sposób na znaczne pogorszenie osiąganych wyników. Należy przypuszczać, że w przypadku przeszukiwania bardzie skomplikowanych funkci, zbyt mała wartość tego parametru może powodować osiadanie procesu optymalizaci w lokalnych ekstremach, zaś zbyt duża ego wartość może powodować ekstensywne eksplorowanie całe przestrzeni, na które określona est przeszukiwana funkca, zamiast intensywniesze eksploataci nabardzie obiecuących obszarów. Ostatnim z naważnieszych parametrów zaproponowanego algorytmu optymalizaci est współczynnik nieednorodności przeszukiwane funkci. Wpływ zmian wartości tego współczynnika na akość osiąganych wyników w przypadku przeszukiwania funkci Michalewicza przedstawiono na rys. 0.

17 Heurystyczny algorytm optymalizaci parametryczne dedykowany 7 Rys. 0. Zobrazowanie wpływu współczynnika nieednorodności przeszukiwane funkci na akość wyników optymalizaci Fig. 0. Visualization of nonuniform mutation factor influence on optimization results quality Współczynnik nieednorodności przeszukiwane funkci ma bezpośredni wpływ na funkconowanie operaci mutaci nierównomierne. Mutaca ta zapewniać ma generowanie nowych osobników w taki sposób, że w początkowe fazie maą być tworzone osobniki odległe od osobników rodzicielskich, zaś w końcowe fazie odległość ta ma stopniowo maleć. Zastosowanie tego mechanizmu umożliwia znalezienie dokładnieszych wartości dla wyszukanego we wcześniesze fazie obiecuącego ekstremum. Należy zauważyć, że zbyt małe wartości tego współczynnika uniemożliwiaą skuteczny przegląd całe przeszukiwane przestrzeni we wczesne fazie procesu optymalizaci, zaś zbyt duże wartości uniemożliwią doprecyzowanie znalezionego rozwiązania w końcowe fazie. Dla stuwymiarowe wersi funkci Michalewicza i liczbie iteraci ustalone na 5 tys. wartości prowadzące do dobrych wyników zawieraą się w granicach od 0. do. Istotnym spostrzeżeniem est ścisły związek tego parametru z doborem liczby iteraci algorytmu. W trakcie realizaci badań zaobserwowano (zgodnie z intuicynymi przewidywaniami), że w przypadku dużego rozrzutu wyników dla kolenych uruchomień programu realizuącego proces optymalizaci (przy stałych wartościach współczynników), rozrzut ulegał zmnieszeniu i akość wyników ulegała poprawie w przypadku zwiększenia liczby iteraci algorytmu bądź też zwiększenia wartości współczynnika nieednorodności (chociaż w tym ostatnim przypadku wyniki były zauważalnie gorsze). Ponieważ zwiększanie liczby iteraci est możliwe tylko do punktu wyznaczonego przez moc środowiska obliczeniowego, więc w przypadku ustalania wartości

18 72 D. R. Augustyn, Ł. Wyciślik tych dwóch parametrów dla procesu przeszukiwania funkci, które ekstremum nie da się oszacować, powinno się ustalić maksymalną możliwą liczbę iteraci algorytmu optymalizaci, a współczynnik nieednorodności przeszukiwane funkci dobrać eksperymentalnie. LITERATURA. Arabas J.: Wykłady z algorytmów ewolucynych. WNT, Warszawa Michalewicz Z.: Algorytmy genetyczne + struktury danych = programy ewolucyne. WNT, Warszawa Balua S.: Population-based incremental learning: A metod for integrating genetics serach based function optimization and competitive learning. Technical Report CMU-CS Carnegie Mellon University Seidler J.:, Badach A., Molisz W.: Metody rozwiązywania zadań optymalizaci. WNT, Warszawa 980. Recenzent: Dr inż. Arkadiusz Sochan Wpłynęło do Redakci 20 listopada 2006 r. Abstract Heuristic optimization algorithms are known from the beginnings of computer science but ones based on observations of nature phenomenons (evolution, food searching of multiagent colonies, annealing) were introduced relatively late. Each of them have different characteristics of search space exploration. One of known problems of parametric optimization is the multidimensional case (hundreds or thousands of dimensions). Authors proposed optimization method for such problems solving being inspired by features of well known best optimization algorithms: the population of agents is managed similarly to the evolutionary strategy (μ + ), the age of agent influence on the probability of selection is similar to used in ant systems, the decrease of acceptance probability of poor agents in latter iterations is based on the simulated annealing algorithm.

19 Heurystyczny algorytm optymalizaci parametryczne dedykowany 73 Proposed method was tested on popular benchmark functions suite (De Jong s functions). The results achieved by the proposed method are comparable and even better then ones achieved by the classical evolutionary system especially in a multidimensional case. Adresy Dariusz Rafał AUGUSTYN: Politechnika Śląska, Instytut Informatyki, ul. Akademicka 6, 44-0 Gliwice, Polska, draugustyn@polsl.pl. Łukasz WYCIŚLIK: Politechnika Śląska, Instytut Informatyki, ul. Akademicka 6, 44-0 Gliwice, Polska, lukasz.wycislik@polsl.pl.

LABORATORIUM 4: Algorytmy ewolucyjne cz. 2 wpływ operatorów krzyżowania i mutacji na skuteczność poszukiwań AE

LABORATORIUM 4: Algorytmy ewolucyjne cz. 2 wpływ operatorów krzyżowania i mutacji na skuteczność poszukiwań AE Instytut Mechaniki i Inżynierii Obliczeniowej Wydział Mechaniczny Technologiczny, Politechnika Śląska www.imio.polsl.pl METODY HEURYSTYCZNE LABORATORIUM 4: Algorytmy ewolucyjne cz. 2 wpływ operatorów krzyżowania

Bardziej szczegółowo

LABORATORIUM 2: Wpływ wielkości populacji i liczby pokoleń na skuteczność poszukiwań AE. opracował: dr inż. Witold Beluch

LABORATORIUM 2: Wpływ wielkości populacji i liczby pokoleń na skuteczność poszukiwań AE. opracował: dr inż. Witold Beluch OBLICZENIA EWOLUCYJNE LABORATORIUM 2: Wpływ wielkości populacji i liczby pokoleń na skuteczność poszukiwań AE opracował: dr inż. Witold Beluch witold.beluch@polsl.pl Gliwice 12 OBLICZENIA EWOLUCYJNE LABORATORIUM

Bardziej szczegółowo

Algorytm genetyczny (genetic algorithm)-

Algorytm genetyczny (genetic algorithm)- Optymalizacja W praktyce inżynierskiej często zachodzi potrzeba znalezienia parametrów, dla których system/urządzenie będzie działać w sposób optymalny. Klasyczne podejście do optymalizacji: sformułowanie

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 13. PROBLEMY OPTYMALIZACYJNE Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska PROBLEMY OPTYMALIZACYJNE Optymalizacja poszukiwanie

Bardziej szczegółowo

PLAN WYKŁADU OPTYMALIZACJA GLOBALNA OPERATOR KRZYŻOWANIA ETAPY KRZYŻOWANIA

PLAN WYKŁADU OPTYMALIZACJA GLOBALNA OPERATOR KRZYŻOWANIA ETAPY KRZYŻOWANIA PLAN WYKŁADU Operator krzyżowania Operator mutacji Operator inwersji Sukcesja Przykłady symulacji AG Kodowanie - rodzaje OPTYMALIZACJA GLOBALNA Wykład 3 dr inż. Agnieszka Bołtuć OPERATOR KRZYŻOWANIA Wymiana

Bardziej szczegółowo

Poszukiwanie optymalnego wyrównania harmonogramu zatrudnienia metodą analityczną

Poszukiwanie optymalnego wyrównania harmonogramu zatrudnienia metodą analityczną Mieczysław POŁOŃSKI Wydział Budownictwa i Inżynierii Środowiska, Szkoła Główna Gospodarstwa Wieskiego, Warszawa, ul. Nowoursynowska 159 e-mail: mieczyslaw_polonski@sggw.pl Poszukiwanie optymalnego wyrównania

Bardziej szczegółowo

wiedzy Sieci neuronowe (c.d.)

wiedzy Sieci neuronowe (c.d.) Metody detekci uszkodzeń oparte na wiedzy Sieci neuronowe (c.d.) Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 8 Metody detekci uszkodzeń oparte na wiedzy Wprowadzenie

Bardziej szczegółowo

Aproksymacja funkcji a regresja symboliczna

Aproksymacja funkcji a regresja symboliczna Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(x), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(x), zwaną funkcją aproksymującą

Bardziej szczegółowo

Uczenie sieci typu MLP

Uczenie sieci typu MLP Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik

Bardziej szczegółowo

LABORATORIUM 3: Wpływ operatorów krzyżowania na skuteczność poszukiwań AE

LABORATORIUM 3: Wpływ operatorów krzyżowania na skuteczność poszukiwań AE Instytut Mechaniki i Inżynierii Obliczeniowej Wydział Mechaniczny Technologiczny, Politechnika Śląska www.imio.polsl.pl OBLICZENIA EWOLUCYJNE LABORATORIUM 3: Wpływ operatorów krzyżowania na skuteczność

Bardziej szczegółowo

(Dantzig G. B. (1963))

(Dantzig G. B. (1963)) (Dantzig G.. (1963)) Uniwersalna metoda numeryczna dla rozwiązywania zadań PL. Ideą metody est uporządkowany przegląd skończone ilości rozwiązań bazowych układu ograniczeń, które możemy utożsamiać, w przypadku

Bardziej szczegółowo

ALHE. prof. Jarosław Arabas semestr 15Z

ALHE. prof. Jarosław Arabas semestr 15Z ALHE prof. Jarosław Arabas semestr 15Z Wykład 5 Błądzenie przypadkowe, Algorytm wspinaczkowy, Przeszukiwanie ze zmiennym sąsiedztwem, Tabu, Symulowane wyżarzanie 1. Błądzenie przypadkowe: Pierwszym krokiem

Bardziej szczegółowo

Algorytmy mrówkowe. P. Oleksyk. Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Inteligentne systemy informatyczne

Algorytmy mrówkowe. P. Oleksyk. Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Inteligentne systemy informatyczne y mrówkowe P. Oleksyk Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Inteligentne systemy informatyczne 14 kwietnia 2015 1 Geneza algorytmu - biologia 2 3 4 5 6 7 8 Geneza

Bardziej szczegółowo

Optymalizacja. Wybrane algorytmy

Optymalizacja. Wybrane algorytmy dr hab. inż. Instytut Informatyki Politechnika Poznańska www.cs.put.poznan.pl/mkomosinski, Andrzej Jaszkiewicz Problem optymalizacji kombinatorycznej Problem optymalizacji kombinatorycznej jest problemem

Bardziej szczegółowo

Algorytmy genetyczne

Algorytmy genetyczne 9 listopada 2010 y ewolucyjne - zbiór metod optymalizacji inspirowanych analogiami biologicznymi (ewolucja naturalna). Pojęcia odwzorowujące naturalne zjawiska: Osobnik Populacja Genotyp Fenotyp Gen Chromosom

Bardziej szczegółowo

Metody Rozmyte i Algorytmy Ewolucyjne

Metody Rozmyte i Algorytmy Ewolucyjne mgr inż. Wydział Matematyczno-Przyrodniczy Szkoła Nauk Ścisłych Uniwersytet Kardynała Stefana Wyszyńskiego Podstawowe operatory genetyczne Plan wykładu Przypomnienie 1 Przypomnienie Metody generacji liczb

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 8. SZTUCZNE SIECI NEURONOWE INNE ARCHITEKTURY Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska SIEĆ O RADIALNYCH FUNKCJACH BAZOWYCH

Bardziej szczegółowo

OPTYMALIZACJA STRUKTUR ELEKTROENERGETYCZNYCH SIECI PROMIENIOWYCH Z WYKORZYSTANIEM ALGORYTMÓW SZTUCZNEJ INTELIGENCJI

OPTYMALIZACJA STRUKTUR ELEKTROENERGETYCZNYCH SIECI PROMIENIOWYCH Z WYKORZYSTANIEM ALGORYTMÓW SZTUCZNEJ INTELIGENCJI POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 70 Electrical Engineering 2012 Wociech BĄCHOREK* Janusz BROŻEK* OPTYMALIZACJA STRUKTUR ELEKTROENERGETYCZNYCH SIECI PROMIENIOWYCH Z WYKORZYSTANIEM

Bardziej szczegółowo

Algorytm Genetyczny. zastosowanie do procesów rozmieszczenia stacji raportujących w sieciach komórkowych

Algorytm Genetyczny. zastosowanie do procesów rozmieszczenia stacji raportujących w sieciach komórkowych Algorytm Genetyczny zastosowanie do procesów rozmieszczenia stacji raportujących w sieciach komórkowych Dlaczego Algorytmy Inspirowane Naturą? Rozwój nowych technologii: złożone problemy obliczeniowe w

Bardziej szczegółowo

Testowanie metod optymalizacji i hipotez statystycznych Opracowanie: Łukasz Lepak,

Testowanie metod optymalizacji i hipotez statystycznych Opracowanie: Łukasz Lepak, Testowanie metod optymalizacji i hipotez statystycznych Opracowanie: Łukasz Lepak, 277324 Po wyborze i wykorzystaniu pewnej metody optymalizacji nadchodzi czas na ocenę wytworzonych przez nią punktów.

Bardziej szczegółowo

Algorytmy mrówkowe (optymalizacja kolonii mrówek, Ant Colony optimisation)

Algorytmy mrówkowe (optymalizacja kolonii mrówek, Ant Colony optimisation) Algorytmy mrówkowe (optymalizacja kolonii mrówek, Ant Colony optimisation) Jest to technika probabilistyczna rozwiązywania problemów obliczeniowych, które mogą zostać sprowadzone do problemu znalezienie

Bardziej szczegółowo

SZACOWANIE MEDIANY PRZY UŻYCIU DOKŁADNEJ METODY BOOTSTRAPOWEJ

SZACOWANIE MEDIANY PRZY UŻYCIU DOKŁADNEJ METODY BOOTSTRAPOWEJ METODY ILOŚCIOWE W BADANIACH EKONOMICZNYCH Tom XV/3, 2014, str. 111 121 SZACOWANIE MEDIANY PRZY UŻYCIU DOKŁADNEJ METODY BOOTSTRAPOWEJ Joanna Kisielińska Wydział Nauk Ekonomicznych Szkoła Główna Gospodarstwa

Bardziej szczegółowo

ALGORYTMY GENETYCZNE ćwiczenia

ALGORYTMY GENETYCZNE ćwiczenia ćwiczenia Wykorzystaj algorytmy genetyczne do wyznaczenia minimum globalnego funkcji testowej: 1. Wylosuj dwuwymiarową tablicę 100x2 liczb 8-bitowych z zakresu [-100; +100] reprezentujących inicjalną populację

Bardziej szczegółowo

Algorytmy metaheurystyczne podsumowanie

Algorytmy metaheurystyczne podsumowanie dr hab. inż. Instytut Informatyki Politechnika Poznańska www.cs.put.poznan.pl/mkomosinski, Andrzej Jaszkiewicz Problem optymalizacji kombinatorycznej Problem optymalizacji kombinatorycznej jest problemem

Bardziej szczegółowo

KADD Minimalizacja funkcji

KADD Minimalizacja funkcji Minimalizacja funkcji n-wymiarowych Forma kwadratowa w n wymiarach Procedury minimalizacji Minimalizacja wzdłuż prostej w n-wymiarowej przestrzeni Metody minimalizacji wzdłuż osi współrzędnych wzdłuż kierunków

Bardziej szczegółowo

BADANIE WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO

BADANIE WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO BADANIE WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO Lis Anna Lis Marcin Kowalik Stanisław 2 Streszczenie. W pracy przedstawiono rozważania dotyczące określenia zależności pomiędzy wydobyciem

Bardziej szczegółowo

Rozwiązywanie algebraicznych układów równań liniowych metodami iteracyjnymi. Plan wykładu:

Rozwiązywanie algebraicznych układów równań liniowych metodami iteracyjnymi. Plan wykładu: Rozwiązywanie algebraicznych układów równań liniowych metodami iteracynymi Plan wykładu: 1. Przykłady macierzy rzadkich i formaty ich zapisu 2. Metody: Jacobiego, Gaussa-Seidla, nadrelaksaci 3. Zbieżność

Bardziej szczegółowo

w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych.

w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych. Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(), zwaną funkcją aproksymującą

Bardziej szczegółowo

BADANIA OPERACYJNE ANALITYKA GOSPODARCZA

BADANIA OPERACYJNE ANALITYKA GOSPODARCZA BADANIA OPERACYJNE ANALITYKA GOSPODARCZA Egzamin pisemny 8.4.7 piątek, salae-6, godz. 8:-9:3 OBECNOŚĆ OBOWIĄZKOWA!!! Układ egzaminu. TEST z teorii: minut (test wielostronnego wyboru; próg 75%). ZADANIA:

Bardziej szczegółowo

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:

Bardziej szczegółowo

LABORATORIUM 5: Wpływ reprodukcji na skuteczność poszukiwań AE. opracował: dr inż. Witold Beluch

LABORATORIUM 5: Wpływ reprodukcji na skuteczność poszukiwań AE. opracował: dr inż. Witold Beluch OBLICZENIA EWOLUCYJNE LABORATORIUM 5: Wpływ reprodukcji na skuteczność poszukiwań AE opracował: dr inż. Witold Beluch witold.beluch@polsl.pl Gliwice 2012 OBLICZENIA EWOLUCYJNE LABORATORIUM 5 2 Cel ćwiczenia

Bardziej szczegółowo

Algorytmy genetyczne. Materiały do laboratorium PSI. Studia niestacjonarne

Algorytmy genetyczne. Materiały do laboratorium PSI. Studia niestacjonarne Algorytmy genetyczne Materiały do laboratorium PSI Studia niestacjonarne Podstawowy algorytm genetyczny (PAG) Schemat blokowy algorytmu genetycznego Znaczenia, pochodzących z biologii i genetyki, pojęć

Bardziej szczegółowo

Algorytmy genetyczne

Algorytmy genetyczne Algorytmy genetyczne Motto: Zamiast pracowicie poszukiwać najlepszego rozwiązania problemu informatycznego lepiej pozwolić, żeby komputer sam sobie to rozwiązanie wyhodował! Algorytmy genetyczne służą

Bardziej szczegółowo

Strategie ewolucyjne. Gnypowicz Damian Staniszczak Łukasz Woźniak Marek

Strategie ewolucyjne. Gnypowicz Damian Staniszczak Łukasz Woźniak Marek Strategie ewolucyjne Gnypowicz Damian Staniszczak Łukasz Woźniak Marek Strategie ewolucyjne, a algorytmy genetyczne Podobieństwa: Oba działają na populacjach rozwiązań Korzystają z zasad selecji i przetwarzania

Bardziej szczegółowo

Metody Optymalizacji: Przeszukiwanie z listą tabu

Metody Optymalizacji: Przeszukiwanie z listą tabu Metody Optymalizacji: Przeszukiwanie z listą tabu Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje: wtorek

Bardziej szczegółowo

Zadania laboratoryjne i projektowe - wersja β

Zadania laboratoryjne i projektowe - wersja β Zadania laboratoryjne i projektowe - wersja β 1 Laboratorium Dwa problemy do wyboru (jeden do realizacji). 1. Water Jug Problem, 2. Wieże Hanoi. Water Jug Problem Ograniczenia dla każdej z wersji: pojemniki

Bardziej szczegółowo

Algorytmy genetyczne

Algorytmy genetyczne Politechnika Łódzka Katedra Informatyki Stosowanej Algorytmy genetyczne Wykład 2 Przygotował i prowadzi: Dr inż. Piotr Urbanek Powtórzenie Pytania: Jaki mechanizm jest stosowany w naturze do takiego modyfikowania

Bardziej szczegółowo

Algorytm hybrydowy dla alokacji portfela inwestycyjnego przy ograniczonych zasobach

Algorytm hybrydowy dla alokacji portfela inwestycyjnego przy ograniczonych zasobach Adam Stawowy Algorytm hybrydowy dla alokacji portfela inwestycyjnego przy ograniczonych zasobach Summary: We present a meta-heuristic to combine Monte Carlo simulation with genetic algorithm for Capital

Bardziej szczegółowo

Strategie ewolucyjne (ang. evolution strategies)

Strategie ewolucyjne (ang. evolution strategies) Strategie ewolucyjne (ang. evolution strategies) 1 2 Szybki przegląd Rozwijane w Niemczech w latach 60-70. Wcześni badacze: I. Rechenberg, H.-P. Schwefel (student Rechenberga). Typowe zastosowanie: Optymalizacja

Bardziej szczegółowo

Algorytmy ewolucyjne 1

Algorytmy ewolucyjne 1 Algorytmy ewolucyjne 1 2 Zasady zaliczenia przedmiotu Prowadzący (wykład i pracownie specjalistyczną): Wojciech Kwedlo, pokój 205. Konsultacje dla studentów studiów dziennych: poniedziałek,środa, godz

Bardziej szczegółowo

Dobór parametrów algorytmu ewolucyjnego

Dobór parametrów algorytmu ewolucyjnego Dobór parametrów algorytmu ewolucyjnego 1 2 Wstęp Algorytm ewolucyjny posiada wiele parametrów. Przykładowo dla algorytmu genetycznego są to: prawdopodobieństwa stosowania operatorów mutacji i krzyżowania.

Bardziej szczegółowo

Matematyka ubezpieczeń majątkowych r.

Matematyka ubezpieczeń majątkowych r. Zadanie. Niech łączna wartość szkód: Ma złożony rozkład Poissona. Momenty rozkładu wartości poedyncze szkody wynoszą:, [ ]. Wiemy także, że momenty nadwyżki wartości poedyncze szkody ponad udział własny

Bardziej szczegółowo

Techniki optymalizacji

Techniki optymalizacji Techniki optymalizacji Symulowane wyżarzanie Maciej Hapke maciej.hapke at put.poznan.pl Wyżarzanie wzrost temperatury gorącej kąpieli do takiej wartości, w której ciało stałe topnieje powolne zmniejszanie

Bardziej szczegółowo

Laboratorium 5 Przybliżone metody rozwiązywania równań nieliniowych

Laboratorium 5 Przybliżone metody rozwiązywania równań nieliniowych Uniwersytet Zielonogórski Wydział Informatyki, Elektrotechniki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych Elektrotechnika niestacjonarne-zaoczne pierwszego stopnia z tyt. inżyniera

Bardziej szczegółowo

FOLIA POMERANAE UNIVERSITATIS TECHNOLOGIAE STETINENSIS Folia Pomer. Univ. Technol. Stetin. 2011, Oeconomica 285 (62), 45 50

FOLIA POMERANAE UNIVERSITATIS TECHNOLOGIAE STETINENSIS Folia Pomer. Univ. Technol. Stetin. 2011, Oeconomica 285 (62), 45 50 FOLIA POMERANAE UNIVERSITATIS TECHNOLOGIAE STETINENSIS Folia Pomer. Univ. Technol. Stetin. 2011, Oeconomica 285 (62), 45 50 Anna Landowska KLASYCZNY ALGORYTM GENETYCZNY W DYNAMICZNEJ OPTYMALIZACJI MODELU

Bardziej szczegółowo

Spacery losowe generowanie realizacji procesu losowego

Spacery losowe generowanie realizacji procesu losowego Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z

Bardziej szczegółowo

Problemy z ograniczeniami

Problemy z ograniczeniami Problemy z ograniczeniami 1 2 Dlaczego zadania z ograniczeniami Wiele praktycznych problemów to problemy z ograniczeniami. Problemy trudne obliczeniowo (np-trudne) to prawie zawsze problemy z ograniczeniami.

Bardziej szczegółowo

ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH

ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH Transport, studia I stopnia Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać ogólna równania nieliniowego Często występującym, ważnym problemem obliczeniowym

Bardziej szczegółowo

6. Klasyczny algorytm genetyczny. 1

6. Klasyczny algorytm genetyczny. 1 6. Klasyczny algorytm genetyczny. 1 Idea algorytmu genetycznego została zaczerpnięta z nauk przyrodniczych opisujących zjawiska doboru naturalnego i dziedziczenia. Mechanizmy te polegają na przetrwaniu

Bardziej szczegółowo

Wykład 5. Skręcanie nieskrępowane prętów o przekroju prostokątnym.

Wykład 5. Skręcanie nieskrępowane prętów o przekroju prostokątnym. Adresy internetowe, pod którymi można znaleźć wykłady z Wytrzymałości Materiałów: Politechnika Krakowska http://limba.wil.pk.edu.pl/kwm-edu.html Politechnika Łódzka http://kmm.p.lodz.pl/dydaktyka Wykład

Bardziej szczegółowo

KADD Minimalizacja funkcji

KADD Minimalizacja funkcji Minimalizacja funkcji Poszukiwanie minimum funkcji Foma kwadratowa Metody przybliżania minimum minimalizacja Minimalizacja w n wymiarach Metody poszukiwania minimum Otaczanie minimum Podział obszaru zawierającego

Bardziej szczegółowo

ALGORYTMY EWOLUCYJNE W ZASTOSOWANIU DO ROZWIĄZYWANIA WYBRANYCH ZADAŃ OPTYMALIZACJI1

ALGORYTMY EWOLUCYJNE W ZASTOSOWANIU DO ROZWIĄZYWANIA WYBRANYCH ZADAŃ OPTYMALIZACJI1 Acta Sci. Pol., Geodesia et Descriptio Terrarum 12 (2) 2013, 21-28 ISSN 1644 0668 (print) ISSN 2083 8662 (on-line) ALGORYTMY EWOLUCYJNE W ZASTOSOWANIU DO ROZWIĄZYWANIA WYBRANYCH ZADAŃ OPTYMALIZACJI1 Józef

Bardziej szczegółowo

METODY SZTUCZNEJ INTELIGENCJI algorytmy ewolucyjne

METODY SZTUCZNEJ INTELIGENCJI algorytmy ewolucyjne METODY SZTUCZNEJ INTELIGENCJI algorytmy ewolucyjne dr hab. inż. Andrzej Obuchowicz, prof. UZ Instytut Sterowania i Systemów Informatycznych Uniwersytet Zielonogórski A. Obuchowicz: MSI - algorytmy ewolucyjne

Bardziej szczegółowo

Algorytm dyskretnego PSO z przeszukiwaniem lokalnym w problemie dynamicznej wersji TSP

Algorytm dyskretnego PSO z przeszukiwaniem lokalnym w problemie dynamicznej wersji TSP Algorytm dyskretnego PSO z przeszukiwaniem lokalnym w problemie dynamicznej wersji TSP Łukasz Strąk lukasz.strak@gmail.com Uniwersytet Śląski, Instytut Informatyki, Będzińska 39, 41-205 Sosnowiec 9 grudnia

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium Zadanie nr 3 Osada autor: A Gonczarek Celem poniższego zadania jest zrealizowanie fragmentu komputerowego przeciwnika w grze strategiczno-ekonomicznej

Bardziej szczegółowo

Plan. Zakres badań teorii optymalizacji. Teoria optymalizacji. Teoria optymalizacji a badania operacyjne. Badania operacyjne i teoria optymalizacji

Plan. Zakres badań teorii optymalizacji. Teoria optymalizacji. Teoria optymalizacji a badania operacyjne. Badania operacyjne i teoria optymalizacji Badania operacyjne i teoria optymalizacji Instytut Informatyki Poznań, 2011/2012 1 2 3 Teoria optymalizacji Teoria optymalizacji a badania operacyjne Teoria optymalizacji zajmuje się badaniem metod optymalizacji

Bardziej szczegółowo

XL Sympozjon "Modelowanie w mechanice" NOWE FUNKCJE INKLUZYJNE W ALGORYTMIE PRZEDZIAŁOWEJ OPTYMALIZACJI GLOBALNEJ

XL Sympozjon Modelowanie w mechanice NOWE FUNKCJE INKLUZYJNE W ALGORYTMIE PRZEDZIAŁOWEJ OPTYMALIZACJI GLOBALNEJ XL Sympozon "Modelowanie w mecanice" NOWE FUNKCJE INKLUZYJNE W ALGORYTMIE PRZEDZIAŁOWEJ OPTYMALIZACJI GLOBALNEJ Andrze Pownuk Politecnika Śląska Wydział Budownictwa Zakład Mecaniki Teoretyczne Przegląd

Bardziej szczegółowo

Algorytmy ewolucyjne NAZEWNICTWO

Algorytmy ewolucyjne NAZEWNICTWO Algorytmy ewolucyjne http://zajecia.jakubw.pl/nai NAZEWNICTWO Algorytmy ewolucyjne nazwa ogólna, obejmująca metody szczegółowe, jak np.: algorytmy genetyczne programowanie genetyczne strategie ewolucyjne

Bardziej szczegółowo

Optymalizacja. Symulowane wyżarzanie

Optymalizacja. Symulowane wyżarzanie dr hab. inż. Instytut Informatyki Politechnika Poznańska www.cs.put.poznan.pl/mkomosinski, Maciej Hapke Wyżarzanie wzrost temperatury gorącej kąpieli do takiej wartości, w której ciało stałe topnieje powolne

Bardziej szczegółowo

Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych

Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych inż. Marek Duczkowski Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych słowa kluczowe: algorytm gradientowy, optymalizacja, określanie wodnicy W artykule

Bardziej szczegółowo

Algorytmy metaheurystyczne Wykład 6. Piotr Syga

Algorytmy metaheurystyczne Wykład 6. Piotr Syga Algorytmy metaheurystyczne Wykład 6 Piotr Syga 10.04.2017 Wprowadzenie Inspiracje Wprowadzenie ACS idea 1 Zaczynamy z pustym rozwiązaniem początkowym 2 Dzielimy problem na komponenty (przedmiot do zabrania,

Bardziej szczegółowo

Maciej Piotr Jankowski

Maciej Piotr Jankowski Reduced Adder Graph Implementacja algorytmu RAG Maciej Piotr Jankowski 2005.12.22 Maciej Piotr Jankowski 1 Plan prezentacji 1. Wstęp 2. Implementacja 3. Usprawnienia optymalizacyjne 3.1. Tablica ekspansji

Bardziej szczegółowo

LABORATORIUM 7: Problem komiwojażera (TSP) cz. 2

LABORATORIUM 7: Problem komiwojażera (TSP) cz. 2 Instytut Mechaniki i Inżynierii Obliczeniowej Wydział Mechaniczny Technologiczny, Politechnika Śląska www.imio.polsl.pl OBLICZENIA EWOLUCYJNE LABORATORIUM 7: Problem komiwojażera (TSP) cz. 2 opracował:

Bardziej szczegółowo

ALGORYTMY MEMETYCZNE DLA PEWNEGO PROBLEMU POTOKOWEGO W BUDOWNICTWIE

ALGORYTMY MEMETYCZNE DLA PEWNEGO PROBLEMU POTOKOWEGO W BUDOWNICTWIE ALGORYTMY MEMETYCZNE DLA PEWNEGO PROBLEMU POTOKOWEGO W BUDOWNICTWIE Wociech BOŻEJKO, Zdzisław HEJDUCKI, Paweł RAJBA, Mieczysław WODECKI Streszczenie: System pracy potokowe w budownictwie dotyczy realizaci

Bardziej szczegółowo

Metody przeszukiwania

Metody przeszukiwania Metody przeszukiwania Co to jest przeszukiwanie Przeszukiwanie polega na odnajdywaniu rozwiązania w dyskretnej przestrzeni rozwiązao. Zwykle przeszukiwanie polega na znalezieniu określonego rozwiązania

Bardziej szczegółowo

Instytut Politechniczny Państwowa Wyższa Szkoła Zawodowa. Diagnostyka i niezawodność robotów

Instytut Politechniczny Państwowa Wyższa Szkoła Zawodowa. Diagnostyka i niezawodność robotów Instytut Politechniczny Państwowa Wyższa Szkoła Zawodowa Diagnostyka i niezawodność robotów Laboratorium nr 6 Model matematyczny elementu naprawialnego Prowadzący: mgr inż. Marcel Luzar Cele ćwiczenia:

Bardziej szczegółowo

Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych

Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych ELEMENTY SZTUCZNEJ INTELIGENCJI Laboratorium nr 9 PRZESZUKIWANIE GRAFÓW Z

Bardziej szczegółowo

Równoważność algorytmów optymalizacji

Równoważność algorytmów optymalizacji Równoważność algorytmów optymalizacji Reguła nie ma nic za darmo (ang. no free lunch theory): efektywność różnych typowych algorytmów szukania uśredniona po wszystkich możliwych problemach optymalizacyjnych

Bardziej szczegółowo

Problem Komiwojażera - algorytmy metaheurystyczne

Problem Komiwojażera - algorytmy metaheurystyczne Problem Komiwojażera - algorytmy metaheurystyczne algorytm mrówkowy algorytm genetyczny by Bartosz Tomeczko. All rights reserved. 2010. TSP dlaczego metaheurystyki i heurystyki? TSP Travelling Salesman

Bardziej szczegółowo

SCHEMAT ROZWIĄZANIA ZADANIA OPTYMALIZACJI PRZY POMOCY ALGORYTMU GENETYCZNEGO

SCHEMAT ROZWIĄZANIA ZADANIA OPTYMALIZACJI PRZY POMOCY ALGORYTMU GENETYCZNEGO SCHEMAT ROZWIĄZANIA ZADANIA OPTYMALIZACJI PRZY POMOCY ALGORYTMU GENETYCZNEGO. Rzeczywistość (istniejąca lub projektowana).. Model fizyczny. 3. Model matematyczny (optymalizacyjny): a. Zmienne projektowania

Bardziej szczegółowo

Optymalizacja. Przeszukiwanie lokalne

Optymalizacja. Przeszukiwanie lokalne dr hab. inż. Instytut Informatyki Politechnika Poznańska www.cs.put.poznan.pl/mkomosinski, Maciej Hapke Idea sąsiedztwa Definicja sąsiedztwa x S zbiór N(x) S rozwiązań, które leżą blisko rozwiązania x

Bardziej szczegółowo

HISTOGRAM. Dr Adam Michczyński - METODY ANALIZY DANYCH POMIAROWYCH Liczba pomiarów - n. Liczba pomiarów - n k 0.5 N = N =

HISTOGRAM. Dr Adam Michczyński - METODY ANALIZY DANYCH POMIAROWYCH Liczba pomiarów - n. Liczba pomiarów - n k 0.5 N = N = HISTOGRAM W pewnych przypadkach interesuje nas nie tylko określenie prawdziwej wartości mierzonej wielkości, ale także zbadanie całego rozkład prawdopodobieństwa wyników pomiarów. W takim przypadku wyniki

Bardziej szczegółowo

OSTASZEWSKI Paweł (55566) PAWLICKI Piotr (55567) Algorytmy i Struktury Danych PIŁA

OSTASZEWSKI Paweł (55566) PAWLICKI Piotr (55567) Algorytmy i Struktury Danych PIŁA OSTASZEWSKI Paweł (55566) PAWLICKI Piotr (55567) 16.01.2003 Algorytmy i Struktury Danych PIŁA ALGORYTMY ZACHŁANNE czas [ms] Porównanie Algorytmów Rozwiązyjących problem TSP 100 000 000 000,000 10 000 000

Bardziej szczegółowo

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Metody optymalizacji Metody bezgradientowe optymalizacji bez ograniczeń Materiały pomocnicze do ćwiczeń

Bardziej szczegółowo

Techniki optymalizacji

Techniki optymalizacji Techniki optymalizacji Algorytm kolonii mrówek Idea Smuga feromonowa 1 Sztuczne mrówki w TSP Sztuczna mrówka agent, który porusza się z miasta do miasta Mrówki preferują miasta połączone łukami z dużą

Bardziej szczegółowo

Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11,

Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11, 1 Kwantyzacja skalarna Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11, 10.05.005 Kwantyzacja polega na reprezentowaniu dużego zbioru wartości (być może nieskończonego) za pomocą wartości

Bardziej szczegółowo

Sieci obliczeniowe poprawny dobór i modelowanie

Sieci obliczeniowe poprawny dobór i modelowanie Sieci obliczeniowe poprawny dobór i modelowanie 1. Wstęp. Jednym z pierwszych, a zarazem najważniejszym krokiem podczas tworzenia symulacji CFD jest poprawne określenie rozdzielczości, wymiarów oraz ilości

Bardziej szczegółowo

Politechnika Wrocławska Wydział Elektroniki INFORMATYKA SYSTEMÓW AUTONOMICZNYCH. Heurystyka, co to jest, potencjalne zastosowania

Politechnika Wrocławska Wydział Elektroniki INFORMATYKA SYSTEMÓW AUTONOMICZNYCH. Heurystyka, co to jest, potencjalne zastosowania Politechnika Wrocławska Wydział Elektroniki INFORMATYKA SYSTEMÓW AUTONOMICZNYCH Autor: Łukasz Patyra indeks: 133325 Prowadzący zajęcia: dr inż. Marek Piasecki Ocena pracy: Wrocław 2007 Spis treści 1 Wstęp

Bardziej szczegółowo

Numeryczne modelowanie ustalonego pola temperatury

Numeryczne modelowanie ustalonego pola temperatury Zakład Aerodynamiki i ermodynamik Instytut echniki Lotnicze, Wydział Mechatroniki Woskowa Akademia echniczna Numeryczne modelowanie ustalonego pola temperatury Piotr Koniorczyk Mateusz Zieliński Warszawa

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 17. ALGORYTMY EWOLUCYJNE Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska KODOWANIE BINARNE Problem różnych struktur przestrzeni

Bardziej szczegółowo

Algorytmy genetyczne. Paweł Cieśla. 8 stycznia 2009

Algorytmy genetyczne. Paweł Cieśla. 8 stycznia 2009 Algorytmy genetyczne Paweł Cieśla 8 stycznia 2009 Genetyka - nauka o dziedziczeniu cech pomiędzy pokoleniami. Geny są czynnikami, które decydują o wyglądzie, zachowaniu, rozmnażaniu każdego żywego organizmu.

Bardziej szczegółowo

Algorytmy ewolucyjne - algorytmy genetyczne. I. Karcz-Dulęba

Algorytmy ewolucyjne - algorytmy genetyczne. I. Karcz-Dulęba Algorytmy ewolucyjne - algorytmy genetyczne I. Karcz-Dulęba Algorytmy klasyczne a algorytmy ewolucyjne Przeszukiwanie przestrzeni przez jeden punkt bazowy Przeszukiwanie przestrzeni przez zbiór punktów

Bardziej szczegółowo

Programowanie celowe #1

Programowanie celowe #1 Programowanie celowe #1 Problem programowania celowego (PC) jest przykładem problemu programowania matematycznego nieliniowego, który można skutecznie zlinearyzować, tzn. zapisać (i rozwiązać) jako problem

Bardziej szczegółowo

ALGORYTMY EWOLUCYJNE W OPTYMALIZACJI JEDNOKRYTERIALNEJ

ALGORYTMY EWOLUCYJNE W OPTYMALIZACJI JEDNOKRYTERIALNEJ ALGORYTMY EWOLUCYJNE W OPTYMALIZACJI JEDNOKRYTERIALNEJ Zalety: nie wprowadzają żadnych ograniczeń na sformułowanie problemu optymalizacyjnego. Funkcja celu może być wielowartościowa i nieciągła, obszar

Bardziej szczegółowo

Optymalizacja parametrów w strategiach inwestycyjnych dla event-driven tradingu - metodologia badań

Optymalizacja parametrów w strategiach inwestycyjnych dla event-driven tradingu - metodologia badań Raport 1/2015 Optymalizacja parametrów w strategiach inwestycyjnych dla event-driven tradingu - metodologia badań autor: Michał Osmoła INIME Instytut nauk informatycznych i matematycznych z zastosowaniem

Bardziej szczegółowo

Metody Programowania

Metody Programowania POLITECHNIKA KRAKOWSKA - WIEiK KATEDRA AUTOMATYKI i TECHNIK INFORMACYJNYCH Metody Programowania www.pk.edu.pl/~zk/mp_hp.html Wykładowca: dr inż. Zbigniew Kokosiński zk@pk.edu.pl Wykład 8: Wyszukiwanie

Bardziej szczegółowo

LABORATORIUM 1: Program Evolutionary Algorithms

LABORATORIUM 1: Program Evolutionary Algorithms Instytut Mechaniki i Inżynierii Obliczeniowej Wydział Mechaniczny Technologiczny, Politechnika Śląska www.imio.polsl.pl OBLICZENIA EWOLUCYJNE LABORATORIUM 1: Program Evolutionary Algorithms opracował:

Bardziej szczegółowo

6. ANALIZA POST-OPTYMALIZACYJNA analiza wrażliwości rozwiązania optymalnego

6. ANALIZA POST-OPTYMALIZACYJNA analiza wrażliwości rozwiązania optymalnego 6. ANALIZA POST-OPTYMALIZACYJNA analiza wrażliwości rozwiązania optymalnego Analiza wrażliwości est studium analizy wpływu zmian wartości różnych parametrów modelu PL na rozwiązanie optymalne. Na optymalne

Bardziej szczegółowo

ĆWICZENIE 2: Algorytmy ewolucyjne cz. 1 wpływ wielkości populacji i liczby pokoleń na skuteczność poszukiwań AE

ĆWICZENIE 2: Algorytmy ewolucyjne cz. 1 wpływ wielkości populacji i liczby pokoleń na skuteczność poszukiwań AE Instytut Mechaniki i Inżynierii Obliczeniowej Wydział Mechaniczny Technologiczny, Politechnika Śląska www.imio.polsl.pl METODY HEURYSTYCZNE studia niestacjonarne ĆWICZENIE 2: Algorytmy ewolucyjne cz. 1

Bardziej szczegółowo

ALHE Z11 Jarosław Arabas wykład 11

ALHE Z11 Jarosław Arabas wykład 11 ALHE Z11 Jarosław Arabas wykład 11 algorytm ewolucyjny inicjuj P 0 {x 1, x 2... x } t 0 while! stop for i 1: if a p c O t,i mutation crossover select P t, k else O t,i mutation select P t,1 P t 1 replacement

Bardziej szczegółowo

Optymalizacja parametrów w strategiach inwestycyjnych dla event-driven tradingu dla odczytu Australia Employment Change

Optymalizacja parametrów w strategiach inwestycyjnych dla event-driven tradingu dla odczytu Australia Employment Change Raport 4/2015 Optymalizacja parametrów w strategiach inwestycyjnych dla event-driven tradingu dla odczytu Australia Employment Change autor: Michał Osmoła INIME Instytut nauk informatycznych i matematycznych

Bardziej szczegółowo

METODY ROZWIĄZYWANIA RÓWNAŃ NIELINIOWYCH

METODY ROZWIĄZYWANIA RÓWNAŃ NIELINIOWYCH METODY ROZWIĄZYWANIA RÓWNAŃ NIELINIOWYCH Jednym z zastosowań metod numerycznych jest wyznaczenie pierwiastka lub pierwiastków równania nieliniowego. W tym celu stosuje się szereg metod obliczeniowych np:

Bardziej szczegółowo

Algorytmy genetyczne. Materiały do laboratorium PSI. Studia stacjonarne i niestacjonarne

Algorytmy genetyczne. Materiały do laboratorium PSI. Studia stacjonarne i niestacjonarne Algorytmy genetyczne Materiały do laboratorium PSI Studia stacjonarne i niestacjonarne Podstawowy algorytm genetyczny (PAG) Schemat blokowy algorytmu genetycznego Znaczenia, pochodzących z biologii i genetyki,

Bardziej szczegółowo

Metody Rozmyte i Algorytmy Ewolucyjne

Metody Rozmyte i Algorytmy Ewolucyjne mgr inż. Wydział Matematyczno-Przyrodniczy Szkoła Nauk Ścisłych Uniwersytet Kardynała Stefana Wyszyńskiego Podstawy optymalizacji Plan prezentacji 1 Podstawy matematyczne 2 3 Eliminacja ograniczeń Metody

Bardziej szczegółowo

WYKŁAD 9 METODY ZMIENNEJ METRYKI

WYKŁAD 9 METODY ZMIENNEJ METRYKI WYKŁAD 9 METODY ZMIENNEJ METRYKI Kierunki sprzężone. Metoda Newtona Raphsona daje dobre przybliżenie najlepszego kierunku poszukiwań, lecz jest to okupione znacznym kosztem obliczeniowym zwykle postać

Bardziej szczegółowo

Testowanie hipotez statystycznych

Testowanie hipotez statystycznych Agenda Instytut Matematyki Politechniki Łódzkiej 2 stycznia 2012 Agenda Agenda 1 Wprowadzenie Agenda 2 Hipoteza oraz błędy I i II rodzaju Hipoteza alternatywna Statystyka testowa Zbiór krytyczny Poziom

Bardziej szczegółowo

ROZWÓJ ALGORYTMU EWOLUCJI RÓŻNICOWEJ. Konrad Wypchło

ROZWÓJ ALGORYTMU EWOLUCJI RÓŻNICOWEJ. Konrad Wypchło ROZWÓJ ALGORYTMU EWOLUCJI RÓŻNICOWEJ Konrad Wypchło Plan prezentacji 2 Elementy klasycznego algorytmu ewolucyjnego Ewolucja różnicowa DMEA i inne modyfikacje Adaptacja zasięgu mutacji (AHDMEA, SaHDMEA)

Bardziej szczegółowo

METODYKA DIAGNOZOWANIA STANU MASZYN 1. Henryk Tylicki, Joanna Wilczarska, Marzena Bartol

METODYKA DIAGNOZOWANIA STANU MASZYN 1. Henryk Tylicki, Joanna Wilczarska, Marzena Bartol MOTROL, 2006, 8, 230 239 METOYKA IAGNOZOWANIA STANU MASZYN Henryk Tylicki, Joanna Wilczarska, Marzena Bartol Akademia Techniczno-Rolnicza w Bydgoszczy Streszczenie. W opracowaniu przedstawiono problematykę

Bardziej szczegółowo

OPTYMALIZACJA HARMONOGRAMOWANIA MONTAŻU SAMOCHODÓW Z ZASTOSOWANIEM PROGRAMOWANIA W LOGICE Z OGRANICZENIAMI

OPTYMALIZACJA HARMONOGRAMOWANIA MONTAŻU SAMOCHODÓW Z ZASTOSOWANIEM PROGRAMOWANIA W LOGICE Z OGRANICZENIAMI Autoreferat do rozprawy doktorskiej OPTYMALIZACJA HARMONOGRAMOWANIA MONTAŻU SAMOCHODÓW Z ZASTOSOWANIEM PROGRAMOWANIA W LOGICE Z OGRANICZENIAMI Michał Mazur Gliwice 2016 1 2 Montaż samochodów na linii w

Bardziej szczegółowo