WIELOKRYTERIALNA OPTYMALIZACJA PRACY SYSTEMU WYTWARZANIA O STRUKTURZE PRZEPŁYWOWEJ
|
|
- Krystian Zawadzki
- 9 lat temu
- Przeglądów:
Transkrypt
1 WIELOKRYTERIALNA OPTYMALIZACJA PRACY SYSTEMU WYTWARZANIA O STRUKTURZE PRZEPŁYWOWEJ Dominik ŻELAZNY Streszczenie: Praca dotyczy harmonogramowania zadań w sekwencyjnym przepływowym systemie produkcyjnym. W systemach wytwarzania o takiej strukturze różne produkty przechodzą przez tę samą ścieżkę technologiczną. Celem harmonogramowania w takim systemie jest wyznaczenie harmonogramu wykonywania zadań minimalizującego zadaną funkcję kryterialną. W opracowaniu rozważa się optymalizację dwukryterialną, na którą składają się niezwykle użyteczne funkcje jakimi są: najkrótszy czas zakończenia realizacji zadań oraz średni czas przepływu zadań przez system produkcyjny. W celu znalezienia przybliżonej granicy Pareto, zaproponowano nowy efektywny algorytm bazujący na Elitist Non-dominated Sorting Genetic Algorithm (NSGA-II). Znaleziono również nowe właściwości problemu, które wykorzystano do skonstruowania i zmodyfikowania algorytmu NSGA-II. Przedstawiono również wyniki badań. Słowa kluczowe: problem przepływowy, algorytm genetyczny, funkcja wielokryterialna, średni czas przepływu, długość uszeregowania. 1. Wstęp Szeroko pojęta optymalizacja jest w dzisiejszych czasach nieodłącznym elementem sprawnie rozwijających się i działających na dużą skalę przedsiębiorstw oraz fabryk. Korzenie jednej z jej dziedzin sięgają aż początku XX wieku, gdy w latach Henry Ford zaprojektował swoją pierwszą ruchomą linię montażową. Wynalazek ten doprowadził zarówno do przyśpieszenia produkcji jak i obniżenia jej kosztów, a co za tym idzie zrewolucjonizował wytwarzanie na masową skalę. Wraz z popularyzacją linii i taśm produkcyjnych i rozrostem skali produkcji, coraz trudniejsze stało się optymalne zaplanowanie wykonywania czynności produkcyjnych w tego typu systemach. Zaczęto więc szukać matematycznych rozwiązań, pozwalających na maksymalne wykorzystanie potencjału w nich drzemiącego. W ten oto sposób zapoczątkowana została nowa teoria matematyczna, zwana teorią szeregowania zadań. W dzisiejszych czasach optymalne wykorzystanie czasu pracy jest istotnym aspektem rozwoju firm i przedsiębiorstw. W związku z tym szeregowanie zadań odgrywa istotną rolę w systemach wytwarzania przedsiębiorstw chcących utrzymać konkurencyjną pozycję na szybko zmieniającym się rynku, więc opracowywanie efektywnych i wydajnych zaawansowanych metod (lub algorytmów) szeregowania jest niezwykle istotne. Niniejsza praca dotyczy optymalnego harmonogramowania zadań przeznaczonych do wykonania w systemie produkcyjnym o szeregowej strukturze agregatów ciągu technologicznego. Jest to tak zwany problem przepływowy, który reprezentuje klasę szeroko badanych przypadków, bazujących na pomysłach pochodzących z inżynierii produkcji, która modeluje obecnie niemal jedną czwartą systemów produkcji, linii montażowych, informacyjnych obiektów usługowych [5]. Problem harmonogramowania zadań w systemie przepływowym jest z punktu widzenia złożoności obliczeniowej problemem NP trudnym 620
2 [2]. Większość z obecnie stosowanych kryteriów oceny jest łatwo adaptowalna do zastosowań rzeczywistych. Znaczącym krokiem postępu w rozwoju teorii szeregowania zadań było opracowanie metody ścieżki krytycznej (CPM) w latach pięćdziesiątych. Jednymi z pierwszych, którzy zajmowali się problemem szeregowania, byli J.R. Jackson i E.R. Smith. Algorytm Jacksona został zaprojektowany w 1955 roku na potrzeby przemysłu, który zdaje się być głównym czynnikiem napędzającym rozwój wszelkich form optymalizacji. Od pionierskich prac z lat pięćdziesiątych zeszłego wieku, permutacyjny problem przepływowy (ang. Permutation Flow Shop Scheduling Problem PFSSP) był wielokrotnie badany teoretycznie, matematycznie oraz empirycznie. Ze względu na jego złożoność, powstały metody podziału i ograniczeń oraz klasycznego programowania matematycznego [4], które dostarczają rozwiązań dokładnych, ale są użyteczne wyłącznie dla małych instancji problemów. W związku z tym powstało wiele algorytmów przybliżonych, włączając w to heurystyki konstrukcyjne, metaheurystyki popraw oraz algorytmy hybrydowe. Próba rozwiązania wielokryterialnego problemu przepływowego jest naturalną ewolucja modeli oraz metod rozwiązania, zorientowanego na praktykę. W rzeczywistości, decyzje dotyczące szeregowania muszą brać pod uwagę kilka wskaźników ekonomicznych równocześnie. W przeciągu ostatniej dekady zaproponowano szereg algorytmów rozwiązujących problemy wielokryterialne, głównie ze względu na ich zdolność do znajdywania w jednym przebiegu kilku rozwiązań optymalnych w sensie Pareto. Jako że nie jest możliwe, by jedno rozwiązanie było równocześnie optymalne dla wszystkich kryteriów, algorytmy dające rozwiązania znajdujące się bezpośrednio na lub w pobliżu frontu Pareto-optymalnego są niezwykle użyteczne w praktyce. 2. Opis problemu Problem przepływowy składa się z dwóch głównych elementów, grupy m maszyn ze zbioru M = {1,2,,m} oraz n zadań należących do zbioru J = {1,2,,n}, które zostaną przetworzone na tych maszynach. Każde zadanie musi przejść przez każdą maszynę, przy czym kolejność odwiedzania maszyn jest następująca: 1,2,,m. Każde zadanie wykonywane jest tylko raz na jednej maszynie. Raz rozpoczęta operacja musi zostać wykonana do końca i zakończyć się przed operacjami, które poprzedza. W związku z tym zadanie j,j J, składa się z sekwencji m operacji. Zadanie j przetwarzane jest na maszynie k w nieprzerwanym czasie p jk > 0. Każda maszyna k, k M, może wykonać nie więcej niż jedno zadanie w tym samym czasie, każde zadanie może być wykonywane w jednej chwili tylko na jednej maszynie oraz zakłada się, że każda maszyna wykonuje zadania w tym samym porządku. Dozwolone uszeregowanie jest zdefiniowane przez czasy zakończenia C jk, j J, k M zadania jna maszynie k, spełniające powyższe ograniczenia. Dla zadanej kolejności wykonywania zadań reprezentowane permutacjąπ = (π(1),,π(n)) na zbiorze J, dozwolone uszeregowanie może być znalezione z pomocą poniższego wzoru rekurencyjnego: C π ( j), k = max( Cπ ( j 1), k, Cπ ( j), k 1 ) + pπ ( j), k (1) gdzie: π (0)=0, C j,0 =0, j J, C 0,k =0, k M. 621
3 Funkcja oceny składa się z średniego czasu przepływu oraz całkowitej długości uszeregowania. Wartości w/w liczy się jak następuje: C 1 n avg ( ) = Cπ ( j), n n j = 1 π - średni czas przepływu, (2) C max ( π ) = max 1 s n Cπ ( s), m = Cπ ( n), m - długość uszeregowania. (3) 3. Algorytmy przybliżone, problemy wielokryterialne Wielokryterialny problem przepływowy badany był głównie w oparciu o algorytmy ewolucyjne. Stosowane metody to między innymi metoda ważonych celów, metakryterium, minimalizacja odległości od punktu idealnego oraz optymalność w sensie Pareto Początki optymalizacji wielokryterialnej Algorytm VEGA (ang. Vector Evaluated Genetic Algorithm) został opisany w roku 1985 przez J.D. Schaffera [7]. Polega on na podziale populacji na npodpopulacji o jednakowych liczebnościach (n liczba kryteriów). Każda podpopulacja poddawana jest niezależnej od innych selekcji, odpowiadającej innemu kryterium. Operacje mutacji i krzyżowania przeprowadzane są na całej populacji. Niewątpliwą zaletą jest łatwość implementacji, niestety algorytm ma tendencje do pomijania rozwiązań pośrednich, które dają dobre rozwiązania ze względu na wszystkie kryteria, ale nienajlepsze ze względu na każde z nich z osobna. Algorytm HLGA (ang. Hajela s and Lin s Weighting-based Genetic Algorithm) opiera się o metodę celów ważonych. Oznacza to, że sprowadza zadanie wielowymiarowe (wielokryterialne) do zadania jednowymiarowego. Cel ten osiąga poprzez połączenie poszczególnych funkcji celu kryterialnych w jedną ważoną funkcję celu: gdzie: F x) = k ( (4) i= 1 k liczba kryteriów optymalizacji; x rozwiązanie; f i (x) i-ta funkcja kryterialna, w i wagi takie, że: k w i [0,1] oraz w i i= 1 w f ( x) i = 1 Różne wektory wag dają różne rozwiązania optymalne w sensie Pareto. Funkcję optymalizuje się przy użyciu opisanego już w niniejszej pracy algorytmu genetycznego. Podstawową wadą tej metody jest problem w doborze odpowiednich wartości wag dla poszczególnych kryteriów, co utrudnia uzyskanie dobrych jakościowo rozwiązań. i 622
4 3.2. Algorytmy i metody obecnie używane Ostatnie badania [9] jednoznacznie wykazują, że elitarność może znacząco zwiększyć wydajność algorytmów genetycznych. Dodatkowo pomaga zapobiec utracie dobrych rozwiązań, kiedy już się takie pojawią.wśród elitarnych wielokryterialnych algorytmów ewolucyjnych (MOEA), najlepiej znane są algorytmy Strength Pareto Evolutionary Algorithm (SPEA) Zitzlera i Thiele a [10], Pareto-archived Evolution Strategy (PAES) Knowlesa i Corne a [3] oraz Elitist GA (EGA) Rudolpha [6]. Strength Pareto EA jest elitarnym wielokryterialnym algorytmem ewolucyjnym z koncepcją niezdominowania. Zasugerowano w nim utrzymywanie w każdej generacji zewnętrznej populacji zachowującej (kolekcjonującej) wszystkie poznane rozwiązania niezdominowane. Jest ona brana pod uwagę w trakcie operacji genetycznych, czyli krzyżowania i mutacji. Wszystkim rozwiązaniom niezdominowanym przypisywana jest wartość przystosowania, bazująca na liczbie rozwiązań przez nie zdominowanych, podczas gdy rozwiązaniom zdominowanym przypisywana jest wartość przystosowania gorsza od najgorszej wartości przystosowania rozwiązań niezdominowanych. W ten sposób kieruje się poszukiwania na rozwiązania niezdominowane. Dodatkowo wykorzystywana jest technika klasteryzacji mająca na celu zapewnienie zróżnicowania wyników. W Pareto-archived ES, potomkowie porównywani są z rodzicami. Jeśli potomek dominuje rodzica, to ten ostatni zostaje odrzucony i zastąpiony w następnej iteracji swoim potomkiem. Gdy potomek jest zdominowany przez rodzica, zostaje odrzucony i nowy potomek zostaje wygenerowany. Gdy potomek i rodzic nie dominują się nawzajem, wtedy potomek porównywany jest z archiwum w celu sprawdzenia czy dominuje któregoś z członków archiwum niezdominowanych rozwiązań. Jeśli tak, potomek zostaje zaakceptowany jako nowy rodzic w następnej iteracji, a rozwiązania zdominowane zostają usunięte z archiwum. W przeciwnym wypadku, zarówno rodzic jak i potomek są porównywane pod względem bliskości do rozwiązań z archiwum i to, które zajmuje mniej zatłoczony obszar przestrzeni parametrycznej zostaje zaakceptowane jako rodzic i dodane do archiwum. Rudolph zaproponował prosty elitarny wielokryterialny algorytm ewolucyjny, bazujący na systematycznym porównywaniu osobników z populacji rodziców i potomków. Rozwiązania niezdominowane z obu populacji są porównywane, by utworzyć nowy zbiór rozwiązań niezdominowanych, który staje się populacją rodziców w kolejnej iteracji algorytmu. Jeśli rozmiar tego zbioru jest mniejszy niż pożądany rozmiar populacji, uwzględniane są inne rozwiązania z populacji potomków. Niestety, algorytm ten nie utrzymuje zróżnicowania wyników optymalnych w sensie Pareto. W pracy [1] Deb zaproponował algorytm Elitist Non-dominated Sorting Genetic Algorithm (NSGA-II). Bazujący na algorytmie Non-dominited Sorting GA (NSGA), który krytykowano ze względu na wysoką złożoność obliczeniową niezdominowanego sortowania, brak elitarności i potrzebę sprecyzowana parametru współdzielenia, zmodyfikowano tak, by złagodzić powyższe problemy. Zastosowano szybkie sortowanie rozwiązań niezdominowanych, estymację gęstości i operator porównania zatłoczenia, które umożliwiły zmniejszenie złożoności obliczeniowej i poprowadzenie procesu selekcji w kierunku jednolicie rozpiętego frontu Pareto-optymalnego. 4. Zmodyfikowany algorytm NSGA-II Liczne badania problemu przepływowego wykazują dość oczywistą tendencję, tj. rozwiązania o małej długości uszeregowania mają z reguły małą wartość średniego czasu 623
5 przepływu, natomiast rozwiązania dużej długości uszeregowania mają duży średni czas przepływu. Dodatkowo zaobserwowano, że dobre rozwiązania znajdują się zazwyczaj w okolicy innych dobrych rozwiązań dla problemu przepływowego z oboma kryteriami optymalizacji. Te właściwości wykorzystano w konstruowaniu modyfikacji algorytmu NSGA-II w celu zapewnienia większej efektywności. Algorytm memetyczny Local Search Elitist Non-dominated Sorting GA (LS NSGA-II) wykorzystuje dwie techniki znane z oryginalnego algorytmu NSGA-II, mianowicie szybkie sortowanie rozwiązań niezdominowanych i estymację gęstości. Szybkie sortowanie rozwiązań niezdominowanych polega na tym, że wpierw dla każdego rozwiązania z populacji obliczane są dwa podmioty: (1)n i, liczbę rozwiązań dominujących rozwiązanieite oraz (2)S i, zestaw rozwiązań zdominowanych przez i-te rozwiązanie. Wszystkie rozwiązania, których współczynnik n i = 0 dodaje się do listy F 1, która staje się obecnym frontem. Dla każdego rozwiązania i,i = 1,, F 1, w obecnym froncie przegląda się odpowiadającą mu listę S i i zmniejsza o jeden współczynnik n j każdego jej członka (j),j= 1,, S i. Jeśli, po wykonaniu przeglądu, któreś zj rozwiązań osiągnie wartość współczynnika n j = 0, należy dodać je do osobnej listy H. Wszystkich zebranych członkówf 1 deklaruje się jako członków pierwszego frontu, a listę H nazywa obecnym frontem. Zabieg powtarzany jest, aż wszystkie zadania zostaną przydzielone do odpowiadających im frontom. Algorytm szybkiego wyszukiwania rozwiązań niezdominowanych można zapisać w poniższym pseudokodzie: fast-nondominated-sort(p) for each p P for each q P if (p q) then S p = S p {q} else if (q p) then n p = n p + 1 if n p = 0 then F 1 = F 1 {p} i = 1 while F i H = for each p F i for each q S p n q = n q 1 if n q = 0 then H = H {q} i = i +1 F i = H Aby oszacować gęstość rozwiązań otaczających i-ty punkt, bierzemy średnią odległość dwóch najbliższych punktów otaczających i-ty punkt ze wszystkich stron ze względu na wszystkie kryteria. Wartość i distance służy za estymator rozmiaru największego prostopadłościanu nie zawierającego innych niż i-ty punktów z frontu. Nazywa się to zatłoczeniem. Na rys. 1. przedstawiono zatłoczenie i-tego rozwiązania z jego frontu (zaznaczony wypełnionymi kropkami). 624
6 Rys. 1. Zatłoczenie punktu i-tego z frontu Pareto Do policzenia zatłoczenia frontu F j wykorzystywany jest poniższy algorytm: crowding-distance-assignment(f j )pochylić indeksy dolne l = F j for each i, set F j [i] distance = 0 for each objective m F j = sort(f j, m) F j [1] distance = F j [l] distance = for i = 2 to (l 1) F j [i] distance = F j [i] distance + (F j [i+1].m - F j [i-1].m) gdzie F j [i].m odwołuje się do wartości m-tego kryterium i-tego rozwiązania w j-tym froncie. W funkcji selekcji wykorzystywany jest operator porównania zatłoczenia ( n ), który kieruje w/w w różnych stadiach algorytmu, tak aby front Pareto-optymalny był jednolicie rozłożony. Każdy osobnik w populacji posiada dwa atrybuty: (1) stopień niezdominowania oraz (2) lokalny współczynnik zatłoczenia. Pomiędzy dwoma rozwiązaniami o różnych stopniach niezdominowania preferowane jest to o niższym froncie. W innym wypadku, gdy oba rozwiązania należą do jednego frontu, wybieramy to otoczone większym prostopadłościanem. Innymi słowy to, które znajduje się w obszarze mniej zatłoczonym. Zmodyfikowany algorytm LS NSGA-II w każdej iteracji dokonuje dodatkowo ustalonej liczby iteracji stochastycznego przeszukiwania lokalnego (LS)dla każdego z osobników populacji potomnej, w celu polepszenia jakości rozwiązań potomnych. Lokalne przeszukiwanie obejmuje sąsiedztwo rozwiązań generowane przez przestawienia sąsiednie. Nowe rozwiązanie generowane jest przez losową zamianę dwóch przyległych zadań w obecnej permutacji. Jeśli dominuje stare rozwiązanie, to zastępuje je w kolejnej iteracji LS. W przeciwnym wypadku zostaje odrzucone. Osobniki w populacji reprezentowane są przez permutację zadań, wartości funkcji kryterialnych, rangę Pareto oraz współczynnik gęstości. Algorytm LS NSGA-II wykorzystuje krzyżowanie o schemacie PMX oraz selekcję turniejową, jednocześnie 625
7 zachowując zewnętrzny zbiór rozwiązań niezdominowanych, aktualizowany w każdej iteracji. Dzięki takiemu podejściu algorytm może zachować do kolejnej iteracji rozwiązania zdominowane, które poprzez operatory genetyczne mogą prowadzić do lepszych rozwiązań niezdominowanych. 5. Wyniki obliczeń Algorytmy NSGA-II oraz LS NSGA-II zaprogramowano w języku programowania C++ i skompilowano w Microsoft Visual Studio 2010, pracującym na komputerze PC z procesorem Intel Core i GHz, 2x 4GB DDR3 1600MHz i systemie operacyjnym Windows 7 Profesional. Algorytmy były testowane na instancjach benchmarków dostarczonych przez Taillarda [8]. W pierwszym teście, obejmującym pięć instancji problemów, oba algorytmy wykonały 100,000 iteracji dla każdej z instancji. Dla każdego testowanej instancji zebrano zbiory rozwiązań Pareto-optymalnych P A, A {NSGA-II, LS NSGA-II}. Następnie ustalono zbiór P* zawierający rozwiązania niezdominowane z obu zbiorów. Na koniec dla każdego algorytmu A ustalono liczbę rozwiązań d(a) z P A, które znalazły się w P*. Liczba niezdominowanych rozwiązań dla obu algorytmów, a także liczba elementów z każdego zbioru pokazane są w tabeli 1. Tab. 1. Liczba rozwiązań Pareto-optymalnych NSGA-II LS NSGA-II Instancja d P d P P* TA TA TA TA TA TA Można zauważyć, że dla tej samej liczby iteracji niemal wszystkie rozwiązania znalezione przez algorytm NSGA-II zostały zdominowane przez rozwiązania zaproponowane przez algorytm LS NSGA-II. Dodatkowo, liczba rozwiązań Paretooptymalnych znalezionych przez LS NSGA-II jest większa niż odpowiadająca jej liczba rozwiązań klasycznego algorytmu NSGA-II, co algorytm LS NSGA-II niewątpliwie zawdzięcza zastosowaniu metody lokalnego przeszukiwania. Należy nadmienić, że z trzech rozwiązań znalezionych przez algorytm NSGA-II dla instancji TA41 aż dwa pokrywały się z rozwiązaniami znalezionymi przez algorytm LS NSGA-II. W związku z tym liczność zbioru P*, będącego rozwiązaniami niezdominowanymi z sumy zbiorów rozwiązań obu algorytmów, jest w rzeczywistości mniejsza i wynosi 9. Nie licząc powtarzających się rozwiązań niezdominowanych algorytmy znalazły jedno i sześć, odpowiednio dla NSGA-II i LS NSGA-II, z rozwiązań niezdominowanych zebranych w P*. 626
8 Rys. 2. Zbiór punktów minimalnych dla przypadku TA05 Dodatkowo, podczas badań zweryfikowano zależność obu funkcji od rozwiązań dla problemu przepływowego. W tym celu podczas działania algorytmu LS NSGA-II zachowano wartości obu funkcji dla wszystkich wygenerowanych rozwiązań. Niech Z={(x,y)} będzie zbiorem par wartości funkcji, gdzie x oznacza długość uszeregowania, natomiast y oznacza średni czas przepływu. Na podstawie zbioru stabelaryzowano funkcję M ( x ) = min y (4) ( x, y) Z Na wykresie rys. 2. przedstawiono wykres funkcji M(x)z przebiegu obu algorytmów dla instancji Taillarda TA05. Jak łatwo zauważyć, zbiór minimów algorytmu LS NSGA-II 627
9 osiągnął mniejsze wartości niż zbiór odpowiadający mu zbiór rozwiązań znalezionych przez algorytm NSGA-II. Jedynie niektóre z rozwiązań dostarczonych przez algorytm klasyczny znalazły się w pobliżu rozwiązań przedstawionych przez algorytm LS NSGA-II. Rys. 3. Zbiór punktów minimalnych dla przypadku TA60 Zbiory podobne do tych z wykresu rys. 2. przedstawiono na wykresie rys. 3., w celu zobrazowania popraw, w stosunku do algorytmu pierwotnego, wynikających z działania algorytmu LS NSGA-II. Warto również zauważyć, że wraz ze zwiększeniem rozmiaru instancji zwiększa się również różnica, na niekorzyść klasycznego NSGA-II, pomiędzy oboma algorytmami. Ma to zapewne związek z większą liczbą zadań i co za tym idzie większą liczbą dostępnych rozwiązań. Na zbadanych problemach, nie opublikowanych w postaci wykresów w 628
10 niniejszej pracy, można zaobserwować iż oba algorytmy posiadają zbliżone zbiory minimów dla małych wielkości instancji, natomiast różnice między nimi rosną wraz ze wzrostem liczby zadań. Tab. 2. Procentowa liczba rozwiązań niezdominowanych NSGA-II LS NSGA-II Rozmiar instancji d / P* [%] d/ P* [%] 20x5 20,55 79,45 20x10 30,49 69,51 20x20 34,26 65,74 50x5 3,80 96,20 50x10 20,51 79,49 50x20 21,67 78,33 100x5 34,09 65,91 100x10 40,00 60,00 100x20 21,99 78,01 200x10 4,76 95,24 200x20 0,00 100,00 Zbadano również zdolność obu algorytmów do znajdywania rozwiązań niezdominowanych w przypadku wprowadzenia dla obu tego samego ograniczenia czasu działania. W porównaniu do klasycznego algorytmu NSGA-II liczba iteracji algorytmu LS NSGA-II uległa zmniejszeniu.w trakcie testów zebrano liczbę rozwiązań niezdominowanych, które znalazły się w zbiorach P*, a następnie policzono udział tych rozwiązań dla obu algorytmów. W tabeli 2 przedstawiono wyżej wymieniony w zależności od rozmiarów instancji. Można łatwo zaobserwować, że co najmniej 60,00% znalezionych rozwiązań Pareto-optymalnych należało do algorytmu LS NSGA-II. Podczas gdy algorytm klasyczny znalazł średnio jedynie 21,10% rozwiązań niezdominowanych. 6. Wnioski W pracy [1] przedstawiono algorytm NSGA-II oraz efekty jego działania dla problemów ciągłych. Przystosowany do problemu przepływowego dał zadowalające wyniki, jednak przedstawiony w niniejszej pracy algorytm LS NSGA-II pozwolił na znalezienie rozwiązań, które w znacznej mierze zdominowały rozwiązania prezentowane przez algorytm klasyczny. Technika przeszukiwania lokalnego, zastosowana w celu zwiększenia efektywności, okazała się skuteczna pomimo zwiększonej złożoności obliczeniowej. Algorytm LS NSGA-II nawet w przypadku wykonania blisko pięciokrotnie mniejszej liczby iteracji znalazł znacznie więcej rozwiązań niezdominowanych. Jak już wspomniano, algorytm memetyczny LS NSGA-II znajdywał rozwiązania Pareto-optymalne, które dominowały rozwiązania Pareto-optymalne znalezione przez algorytm NSGA-II. Dodatkowo, przebiegi funkcji M(x)wyznaczonej w trakcie działania algorytmu LS NSGA-II były położone bliżej osi wartości C max niż analogiczne przebiegi funkcji M(x) wyznaczone w trakcie działania algorytmu klasycznego. Różnice te 629
11 zwiększały się wraz ze zwiększeniem rozmiaru instancji. Jest to niewątpliwie zasługa zastosowania metody przeszukiwania lokalnego, która pozwoliła na znalezienie większej liczby rozwiązań i poprawienie już znalezionych. W trakcie badań zaobserwowano również pewną właściwość problemu przepływowego z kryteriami maksymalnej długości uszeregowania i średniego czasu przepływu. Mianowicie, dobre rozwiązania mają tendencję do znajdywania się w okolicy innych dobrych rozwiązań, a wraz ze wzrostem wartości jednej funkcji zauważalnie rośnie wartości drugiej funkcji kryterialnej. Przedstawione na wykresach rys.2. oraz rys. 3. zależności obu funkcji doskonale obrazują powyższe. W ogonie funkcji znajdują się rozwiązania dalekie od optymalnych, podczas gdy w głowie funkcji znalazł się pierwszy i kolejne fronty Pareto-optymalne. Warto również zwrócić uwagę na fakt, iż bardzo mała liczba ze znalezionych przez algorytmy rozwiązań, była optymalna w sensie Pareto. Literatura 1. Deb K., Pratap A., Agarwal S., Meyarivan T.: A fast and elitist multi-objective genetic algorithm NSGA-II. IEEE Transaction on Evolutionary Computation, 6(2), 2002, Garey M.R., Johnson D.S.: A Guide to the Theory of NP-Completeness, CA: Freeman, San Francisco, Knowles, J. Corne, D., The Paretoarchi ved evolution strategy: A new baseline algorithm for multiobjective optimisation. Congress on Evolutionary Computation, Piscatway: New Jersey: IEEE Service Center, 1999, Lageweg B. J., Lenstra J. K., Rinnooy Kan A. H. G., A general bounding scheme for the permutation flow-shop problem, Oper. Res., vol. 26, no. 1, 1978, Pinedo M.: Scheduling: Theory, Algorithms and Systems, 2end ed., NJ: Prentice-Hall, Englewood Cliffs, Rudolph G.: Evolutionary search under partially ordered sets. Technical Report No. CI- 67/99, Dortmund:Department of Computer Science/LS11, University of Dortmund, Germany, Schaffer J.D. Multiple Objective Optimization with Vector Evaluated Genetic Algorithms. - New Jersey : L. Erlbaum Associates Inc. Hillsdale, Taillard E.: Benchmarks for basic scheduling problems. European Journal of Operational Research vol. 64, 1993, Zitzler E., Deb K., Thiele L.: (in press) Comparison of multiobjective evolutionary algorithms: Empirical results. Evolutionary Computation, Zitzler E. Thiele L.: Multiobjective optimization using evolutionary Algorithms - A comparati ve case study. In Eiben, A. E., Back, T., Schoenauer, M., and Schwefel, H.- P., editors, Parallel Problem Solving from Nature, V, , Springer, Berlin, Germany, Mgr inż. Dominik ŻELAZNY Instytut Informatyki, Automatyki i Robotyki Politechnika Wrocławska Wrocław, ul. Janiszewskiego 11/17 Tel: (0-71) / dominik.zelazny@pwr.wroc.pl 630
NOWE WARIANTY OPERATORÓW GENETYCZNYCH DLA PROBLEMÓW Z KRYTERIUM SUMACYJNYM
NOWE WARIANTY OPERATORÓW GENETYCZNYCH DLA PROBLEMÓW Z KRYTERIUM SUMACYJNYM Mariusz MAKUCHOWSKI Streszczenie: W pracy analizuje się własności sumacyjnego kryterium w permutacyjnym problemie przepływowym.
Algorytmy ewolucyjne
Algorytmy ewolucyjne Dr inż. Michał Bereta p. 144 / 10, Instytut Modelowania Komputerowego mbereta@pk.edu.pl beretam@torus.uck.pk.edu.pl www.michalbereta.pl Problemy świata rzeczywistego często wymagają
Algorytmy metaheurystyczne podsumowanie
dr hab. inż. Instytut Informatyki Politechnika Poznańska www.cs.put.poznan.pl/mkomosinski, Andrzej Jaszkiewicz Problem optymalizacji kombinatorycznej Problem optymalizacji kombinatorycznej jest problemem
NIETYPOWE WŁASNOŚCI PERMUTACYJNEGO PROBLEMU PRZEPŁYWOWEGO Z OGRANICZENIEM BEZ PRZESTOJÓW
NIETYPOWE WŁASNOŚCI PERMUTACYJNEGO PROBLEMU PRZEPŁYWOWEGO Z OGRANICZENIEM BEZ PRZESTOJÓW Mariusz MAKUCHOWSKI Streszczenie: W pracy rozważa się permutacyjny problem przepływowy z kryterium będącym momentem
Algorytm genetyczny (genetic algorithm)-
Optymalizacja W praktyce inżynierskiej często zachodzi potrzeba znalezienia parametrów, dla których system/urządzenie będzie działać w sposób optymalny. Klasyczne podejście do optymalizacji: sformułowanie
Optymalizacja. Wybrane algorytmy
dr hab. inż. Instytut Informatyki Politechnika Poznańska www.cs.put.poznan.pl/mkomosinski, Andrzej Jaszkiewicz Problem optymalizacji kombinatorycznej Problem optymalizacji kombinatorycznej jest problemem
ALGORYTMY GENETYCZNE ćwiczenia
ćwiczenia Wykorzystaj algorytmy genetyczne do wyznaczenia minimum globalnego funkcji testowej: 1. Wylosuj dwuwymiarową tablicę 100x2 liczb 8-bitowych z zakresu [-100; +100] reprezentujących inicjalną populację
OSTASZEWSKI Paweł (55566) PAWLICKI Piotr (55567) Algorytmy i Struktury Danych PIŁA
OSTASZEWSKI Paweł (55566) PAWLICKI Piotr (55567) 16.01.2003 Algorytmy i Struktury Danych PIŁA ALGORYTMY ZACHŁANNE czas [ms] Porównanie Algorytmów Rozwiązyjących problem TSP 100 000 000 000,000 10 000 000
ALGORYTM EWOLUCYJNY DLA PROBLEMU SZEREGOWANIA ZADAŃ W SYSTEMIE PRZEPŁYWOWYM
ALGORYTM EWOLUCYJNY DLA PROBLEMU SZEREGOWANIA ZADAŃ W SYSTEMIE PRZEPŁYWOWYM Adam STAWOWY, Marek ŚWIĘCHOWICZ Streszczenie: W pracy zaprezentowano algorytm strategii ewolucyjnej do problemu szeregowania
HARMONOGRAMOWANIE ROBÓT BUDOWLANYCH Z MINIMALIZACJĄ ŚREDNIEGO POZIOMU ZATRUDNIENIA
HARMONOGRAMOWANIE ROBÓT BUDOWLANYCH Z MINIMALIZACJĄ ŚREDNIEGO POZIOMU ZATRUDNIENIA Wojciech BOśEJKO, Zdzisław HEJDUCKI, Michał PODOLSKI, Mariusz UCHROŃSKI Streszczenie: w pracy proponujemy zastosowanie
ALGORYTM PERTURBACYJNY DLA PROBLEMU PRZEPŁYWOWEGO
ALGORYTM PERTURBACYJNY DLA PROBLEMU PRZEPŁYWOWEGO Mariusz MAKUCHOWSKI Streszczenie: Proponowany w tej pracy algorytm perturbacyjny PNEH (dedykowany permutacyjnemu problemowi przepływowemu) pozwala na dostarczanie
Równoległy algorytm wyznaczania bloków dla cyklicznego problemu przepływowego z przezbrojeniami
Równoległy algorytm wyznaczania bloków dla cyklicznego problemu przepływowego z przezbrojeniami dr inż. Mariusz Uchroński Wrocławskie Centrum Sieciowo-Superkomputerowe Agenda Cykliczny problem przepływowy
ALGORYTM RÓWNOLEGŁY DLA PROBLEMU MARSZRUTYZACJI
ALGORYTM RÓWNOLEGŁY DLA PROBLEMU MARSZRUTYZACJI Szymon JAGIEŁŁO, Dominik ŻELAZNY Streszczenie: Transport odgrywa znaczącą rolę zarówno w produkcji jak i usługach przemysłowych. W dzisiejszych czasach,
Problemy z ograniczeniami
Problemy z ograniczeniami 1 2 Dlaczego zadania z ograniczeniami Wiele praktycznych problemów to problemy z ograniczeniami. Problemy trudne obliczeniowo (np-trudne) to prawie zawsze problemy z ograniczeniami.
MODEL OPTYMALIZACJI TRAS PRZEJAZDOWYCH JAKO NARZĘDZIE ZMNIEJSZENIA KOSZTÓW LOGISTYCZNYCH
Małgorzata Baryła-Paśnik 1, Wiesław Piekarski 2, Andrzej Kuranc 3, Anna Piecak 4, Szymon Ignaciuk 5, Jacek Wawrzosek 6 Uniwersytet Przyrodniczy w Lublinie MODEL OPTYMALIZACJI TRAS PRZEJAZDOWYCH JAKO NARZĘDZIE
9.9 Algorytmy przeglądu
14 9. PODSTAWOWE PROBLEMY JEDNOMASZYNOWE 9.9 Algorytmy przeglądu Metody przeglądu dla problemu 1 r j,q j C max były analizowane między innymi w pracach 25, 51, 129, 238. Jak dotychczas najbardziej elegancka
Algorytmy memetyczne (hybrydowe algorytmy ewolucyjne)
Algorytmy memetyczne (hybrydowe algorytmy ewolucyjne) 1 2 Wstęp Termin zaproponowany przez Pablo Moscato (1989). Kombinacja algorytmu ewolucyjnego z algorytmem poszukiwań lokalnych, tak że algorytm poszukiwań
Algorytmy genetyczne
9 listopada 2010 y ewolucyjne - zbiór metod optymalizacji inspirowanych analogiami biologicznymi (ewolucja naturalna). Pojęcia odwzorowujące naturalne zjawiska: Osobnik Populacja Genotyp Fenotyp Gen Chromosom
WAE Jarosław Arabas Pełny schemat algorytmu ewolucyjnego
WAE Jarosław Arabas Pełny schemat algorytmu ewolucyjnego Algorytm ewolucyjny algorytm ewolucyjny inicjuj P 0 {P 0 1, P 0 2... P 0 μ } t 0 H P 0 while! stop for (i 1: λ) if (a< p c ) O t i mutation(crossover
Nowe warianty operatorów genetycznych dla problemów z kryterium sumacyjnym
Nowe warianty operatorów genetycznych dla problemów z kryterium sumacyjnym Mariusz MAKUCHOWSKI Politechnika Wrocławska, Instytut Informatyki, Automatyki i Robotyki 50-370 Wrocław, Wybrzeże Wyspiańskiego
Metody optymalizacji dyskretnej
Metody optymalizacji dyskretnej Spis treści Spis treści Metody optymalizacji dyskretnej...1 1 Wstęp...5 2 Metody optymalizacji dyskretnej...6 2.1 Metody dokładne...6 2.2 Metody przybliżone...6 2.2.1 Poszukiwanie
Algorytmy genetyczne. Materiały do laboratorium PSI. Studia stacjonarne i niestacjonarne
Algorytmy genetyczne Materiały do laboratorium PSI Studia stacjonarne i niestacjonarne Podstawowy algorytm genetyczny (PAG) Schemat blokowy algorytmu genetycznego Znaczenia, pochodzących z biologii i genetyki,
Analiza wielokryterialna wstęp do zagadnienia
Organizacja, przebieg i zarządzanie inwestycją budowlaną Analiza wielokryterialna wstęp do zagadnienia dr hab. Mieczysław Połoński prof. SGGW 1 Wprowadzenie Jednym z podstawowych, a równocześnie najważniejszym
Optymalizacja. Przeszukiwanie lokalne
dr hab. inż. Instytut Informatyki Politechnika Poznańska www.cs.put.poznan.pl/mkomosinski, Maciej Hapke Idea sąsiedztwa Definicja sąsiedztwa x S zbiór N(x) S rozwiązań, które leżą blisko rozwiązania x
Zadania laboratoryjne i projektowe - wersja β
Zadania laboratoryjne i projektowe - wersja β 1 Laboratorium Dwa problemy do wyboru (jeden do realizacji). 1. Water Jug Problem, 2. Wieże Hanoi. Water Jug Problem Ograniczenia dla każdej z wersji: pojemniki
znalezienia elementu w zbiorze, gdy w nim jest; dołączenia nowego elementu w odpowiednie miejsce, aby zbiór pozostał nadal uporządkowany.
Przedstawiamy algorytmy porządkowania dowolnej liczby elementów, którymi mogą być liczby, jak również elementy o bardziej złożonej postaci (takie jak słowa i daty). Porządkowanie, nazywane również często
Algorytmy ewolucyjne 1
Algorytmy ewolucyjne 1 2 Zasady zaliczenia przedmiotu Prowadzący (wykład i pracownie specjalistyczną): Wojciech Kwedlo, pokój 205. Konsultacje dla studentów studiów dziennych: poniedziałek,środa, godz
Algorytmy genetyczne. Materiały do laboratorium PSI. Studia niestacjonarne
Algorytmy genetyczne Materiały do laboratorium PSI Studia niestacjonarne Podstawowy algorytm genetyczny (PAG) Schemat blokowy algorytmu genetycznego Znaczenia, pochodzących z biologii i genetyki, pojęć
Programowanie genetyczne, gra SNAKE
STUDENCKA PRACOWNIA ALGORYTMÓW EWOLUCYJNYCH Tomasz Kupczyk, Tomasz Urbański Programowanie genetyczne, gra SNAKE II UWr Wrocław 2009 Spis treści 1. Wstęp 3 1.1. Ogólny opis.....................................
Wielokryteriowa optymalizacja liniowa
Wielokryteriowa optymalizacja liniowa 1. Przy decyzjach złożonych kierujemy się zwykle więcej niż jednym kryterium. Postępowanie w takich sytuacjach nie jest jednoznaczne. Pojawiło się wiele sposobów dochodzenia
Algorytm memetyczny w grach wielokryterialnych z odroczoną preferencją celów. Adam Żychowski
Algorytm memetyczny w grach wielokryterialnych z odroczoną preferencją celów Adam Żychowski Definicja problemu dwóch graczy: P 1 (minimalizator) oraz P 2 (maksymalizator) S 1, S 2 zbiory strategii graczy
Strategie ewolucyjne (ang. evolu4on strategies)
Strategie ewolucyjne (ang. evolu4on strategies) Strategia ewolucyjna (1+1) W Strategii Ewolucyjnej(1 + 1), populacja złożona z jednego osobnika generuje jednego potomka. Kolejne (jednoelementowe) populacje
Generowanie i optymalizacja harmonogramu za pomoca
Generowanie i optymalizacja harmonogramu za pomoca na przykładzie generatora planu zajęć Matematyka Stosowana i Informatyka Stosowana Wydział Fizyki Technicznej i Matematyki Stosowanej Politechnika Gdańska
ALGORYTM PERTURBACYJNY DLA PROBLEMU PRZEPŁYWOWEGO
ALGORYTM PERTURBACYJNY DLA PROBLEMU PRZEPŁYWOWEGO Mariusz MAKUCHOWSKI Streszczenie: Proponowany w tej pracy algorytm perturbacyjny PNEH (dedykowany permutacyjnemu problemowi przepływowemu) pozwala na dostarczanie
Algorytmy ewolucyjne NAZEWNICTWO
Algorytmy ewolucyjne http://zajecia.jakubw.pl/nai NAZEWNICTWO Algorytmy ewolucyjne nazwa ogólna, obejmująca metody szczegółowe, jak np.: algorytmy genetyczne programowanie genetyczne strategie ewolucyjne
Strategie ewolucyjne (ang. evolution strategies)
Strategie ewolucyjne (ang. evolution strategies) 1 2 Szybki przegląd Rozwijane w Niemczech w latach 60-70. Wcześni badacze: I. Rechenberg, H.-P. Schwefel (student Rechenberga). Typowe zastosowanie: Optymalizacja
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 13. PROBLEMY OPTYMALIZACYJNE Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska PROBLEMY OPTYMALIZACYJNE Optymalizacja poszukiwanie
Sterowanie procesami dyskretnymi
Politechnika Rzeszowska Wydział Elektrotechniki i Informatyki Katedra Informatyki i Automatyki Laboratorium Sterowanie procesami dyskretnymi Stanowisko 3 Algorytmy harmonogramowania zadań pakiet LiSA Rzeszów
Podejście memetyczne do problemu DCVRP - wstępne wyniki. Adam Żychowski
Podejście memetyczne do problemu DCVRP - wstępne wyniki Adam Żychowski Na podstawie prac X. S. Chen, L. Feng, Y. S. Ong A Self-Adaptive Memeplexes Robust Search Scheme for solving Stochastic Demands Vehicle
Zadanie 5 - Algorytmy genetyczne (optymalizacja)
Zadanie 5 - Algorytmy genetyczne (optymalizacja) Marcin Pietrzykowski mpietrzykowski@wi.zut.edu.pl wersja 1.0 1 Cel Celem zadania jest zapoznanie się z Algorytmami Genetycznymi w celu rozwiązywanie zadania
Algorytmy genetyczne
Algorytmy genetyczne Motto: Zamiast pracowicie poszukiwać najlepszego rozwiązania problemu informatycznego lepiej pozwolić, żeby komputer sam sobie to rozwiązanie wyhodował! Algorytmy genetyczne służą
Systemy wbudowane. Uproszczone metody kosyntezy. Wykład 11: Metody kosyntezy systemów wbudowanych
Systemy wbudowane Wykład 11: Metody kosyntezy systemów wbudowanych Uproszczone metody kosyntezy Założenia: Jeden procesor o znanych parametrach Znane parametry akceleratora sprzętowego Vulcan Początkowo
Obliczenia ewolucyjne - plan wykładu
Obliczenia ewolucyjne - plan wykładu Wprowadzenie Algorytmy genetyczne Programowanie genetyczne Programowanie ewolucyjne Strategie ewolucyjne Inne modele obliczeń ewolucyjnych Podsumowanie Ewolucja Ewolucja
Techniki optymalizacji
Techniki optymalizacji Dokładne algorytmy optymalizacji Maciej Hapke maciej.hapke at put.poznan.pl Problem optymalizacji kombinatorycznej Problem optymalizacji kombinatorycznej jest problemem minimalizacji
Grupowanie Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 201/633
Grupowanie Grupowanie 7 6 5 4 y 3 2 1 0-3 -2-1 0 1 2 3 4 5-1 -2-3 -4 x Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 201/633 Wprowadzenie Celem procesu grupowania jest podział zbioru
AiSD zadanie trzecie
AiSD zadanie trzecie Gliwiński Jarosław Marek Kruczyński Konrad Marek Grupa dziekańska I5 5 czerwca 2008 1 Wstęp Celem postawionym przez zadanie trzecie było tzw. sortowanie topologiczne. Jest to typ sortowania
OPTYMALIZACJA HARMONOGRAMOWANIA MONTAŻU SAMOCHODÓW Z ZASTOSOWANIEM PROGRAMOWANIA W LOGICE Z OGRANICZENIAMI
Autoreferat do rozprawy doktorskiej OPTYMALIZACJA HARMONOGRAMOWANIA MONTAŻU SAMOCHODÓW Z ZASTOSOWANIEM PROGRAMOWANIA W LOGICE Z OGRANICZENIAMI Michał Mazur Gliwice 2016 1 2 Montaż samochodów na linii w
Optymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
Wybrane podstawowe rodzaje algorytmów
Wybrane podstawowe rodzaje algorytmów Tomasz Głowacki tglowacki@cs.put.poznan.pl Zajęcia finansowane z projektu "Rozwój i doskonalenie kształcenia na Politechnice Poznańskiej w zakresie technologii informatycznych
Programowanie genetyczne - gra SNAKE
PRACOWNIA Z ALGORYTMÓW EWOLUCYJNYCH Tomasz Kupczyk, Tomasz Urbański Programowanie genetyczne - gra SNAKE II UWr Wrocław 2009 Spis treści 1. Wstęp 3 1.1. Ogólny opis.....................................
Analiza wielokryterialna
Analiza wielokryterialna dr hab. inż. Krzysztof Patan, prof. PWSZ Instytut Politechniczny Państwowa Wyższa Szkoła Zawodowa w Głogowie k.patan@issi.uz.zgora.pl Wprowadzenie Wielokryterialny wybór wariantu
Algorytm Genetyczny. zastosowanie do procesów rozmieszczenia stacji raportujących w sieciach komórkowych
Algorytm Genetyczny zastosowanie do procesów rozmieszczenia stacji raportujących w sieciach komórkowych Dlaczego Algorytmy Inspirowane Naturą? Rozwój nowych technologii: złożone problemy obliczeniowe w
Programowanie w VB Proste algorytmy sortowania
Programowanie w VB Proste algorytmy sortowania Sortowanie bąbelkowe Algorytm sortowania bąbelkowego polega na porównywaniu par elementów leżących obok siebie i, jeśli jest to potrzebne, zmienianiu ich
Odkrywanie algorytmów kwantowych za pomocą programowania genetycznego
Odkrywanie algorytmów kwantowych za pomocą programowania genetycznego Piotr Rybak Koło naukowe fizyków Migacz, Uniwersytet Wrocławski Piotr Rybak (Migacz UWr) Odkrywanie algorytmów kwantowych 1 / 17 Spis
prowadzący dr ADRIAN HORZYK /~horzyk e-mail: horzyk@agh tel.: 012-617 Konsultacje paw. D-13/325
PODSTAWY INFORMATYKI WYKŁAD 8. prowadzący dr ADRIAN HORZYK http://home home.agh.edu.pl/~ /~horzyk e-mail: horzyk@agh agh.edu.pl tel.: 012-617 617-4319 Konsultacje paw. D-13/325 DRZEWA Drzewa to rodzaj
Dobór parametrów algorytmu ewolucyjnego
Dobór parametrów algorytmu ewolucyjnego 1 2 Wstęp Algorytm ewolucyjny posiada wiele parametrów. Przykładowo dla algorytmu genetycznego są to: prawdopodobieństwa stosowania operatorów mutacji i krzyżowania.
Algorytmy ewolucyjne
Algorytmy ewolucyjne wprowadzenie Piotr Lipiński lipinski@ii.uni.wroc.pl Piotr Lipiński Algorytmy ewolucyjne p.1/16 Cel wykładu zapoznanie studentów z algorytmami ewolucyjnymi, przede wszystkim nowoczesnymi
Badania operacyjne: Wykład Zastosowanie kolorowania grafów w planowaniu produkcji typu no-idle
Badania operacyjne: Wykład Zastosowanie kolorowania grafów w planowaniu produkcji typu no-idle Paweł Szołtysek 12 czerwca 2008 Streszczenie Planowanie produkcji jest jednym z problemów optymalizacji dyskretnej,
Katedra Informatyki Stosowanej. Algorytmy ewolucyjne. Inteligencja obliczeniowa
Wydział Zarządzania AGH Katedra Informatyki Stosowanej Algorytmy ewolucyjne Treść wykładu Wprowadzenie Zasada działania Podział EA Cechy EA Algorytm genetyczny 2 EA - wprowadzenie Algorytmy ewolucyjne
PLAN WYKŁADU OPTYMALIZACJA GLOBALNA OPERATOR KRZYŻOWANIA ETAPY KRZYŻOWANIA
PLAN WYKŁADU Operator krzyżowania Operator mutacji Operator inwersji Sukcesja Przykłady symulacji AG Kodowanie - rodzaje OPTYMALIZACJA GLOBALNA Wykład 3 dr inż. Agnieszka Bołtuć OPERATOR KRZYŻOWANIA Wymiana
ALGORYTM PRZESZUKIWANIA Z ZABRONIENIAMI DLA DWUKRYTERIALNEGO PROBLEMU PRZEPŁYWOWEGO
ALGORYTM PRZESZUKIWANIA Z ZABRONIENIAMI DLA DWUKRYTERIALNEGO PROBLEMU PRZEPŁYWOWEGO Jarosław PEMPERA, Dominik ŻELAZNY Streszczenie: Praca poświęcona jest problemowi przepływowemu z dwukryterialną funkcją
Metody Rozmyte i Algorytmy Ewolucyjne
mgr inż. Wydział Matematyczno-Przyrodniczy Szkoła Nauk Ścisłych Uniwersytet Kardynała Stefana Wyszyńskiego Podstawowe operatory genetyczne Plan wykładu Przypomnienie 1 Przypomnienie Metody generacji liczb
LABORATORIUM 4: Algorytmy ewolucyjne cz. 2 wpływ operatorów krzyżowania i mutacji na skuteczność poszukiwań AE
Instytut Mechaniki i Inżynierii Obliczeniowej Wydział Mechaniczny Technologiczny, Politechnika Śląska www.imio.polsl.pl METODY HEURYSTYCZNE LABORATORIUM 4: Algorytmy ewolucyjne cz. 2 wpływ operatorów krzyżowania
Algorytm dyskretnego PSO z przeszukiwaniem lokalnym w problemie dynamicznej wersji TSP
Algorytm dyskretnego PSO z przeszukiwaniem lokalnym w problemie dynamicznej wersji TSP Łukasz Strąk lukasz.strak@gmail.com Uniwersytet Śląski, Instytut Informatyki, Będzińska 39, 41-205 Sosnowiec 9 grudnia
SYSTEM WSPOMAGANIA HARMONOGRAMOWANIA PRZEDSIĘWZIĘĆ BUDOWLANYCH
SYSTEM WSPOMAGANIA HARMONOGRAMOWANIA PRZEDSIĘWZIĘĆ BUDOWLANYCH Wojciech BOŻEJKO, Zdzisław HEJDUCKI, Mariusz UCHROŃSKI, Mieczysław WODECKI Streszczenie: W pracy przedstawiamy system wspomagający harmonogramowanie
Optymalizacja wielokryterialna
Optymalizacja wielokryterialna Optymalizacja wielokryterialna Dział badań operacyjnych zajmujący się wyznaczaniem optymalnej decyzji w przypadku, gdy występuje więcej niż jedno kryterium Problem wielokryterialny
Teoria algorytmów ewolucyjnych
Teoria algorytmów ewolucyjnych 1 2 Dlaczego teoria Wynik analiza teoretycznej może pokazać jakie warunki należy spełnić, aby osiągnąć zbieżność do minimum globalnego. Np. sukcesja elitarystyczna. Może
Algorytm hybrydowy dla alokacji portfela inwestycyjnego przy ograniczonych zasobach
Adam Stawowy Algorytm hybrydowy dla alokacji portfela inwestycyjnego przy ograniczonych zasobach Summary: We present a meta-heuristic to combine Monte Carlo simulation with genetic algorithm for Capital
ALTERNATYWNE KODOWANIE W ALGORYTMACH PROBLEM PRZEPŁYWOWY Z SUMĄ SPÓŹNIEŃ
ALTERNATYWNE KODOWANIE W ALGORYTMACH PROBLEM PRZEPŁYWOWY Z SUMĄ SPÓŹNIEŃ Mariusz MAKUCHOWSKI Streszczenie: W pracy rozważa się permutacyjny problem przepływowy z kryterium będącym sumą spóźnień realizacji
CMAES. Zapis algorytmu. Generacja populacji oraz selekcja Populacja q i (t) w kroku t generowana jest w następujący sposób:
CMAES Covariance Matrix Adaptation Evolution Strategy Opracowanie: Lidia Wojciechowska W algorytmie CMAES, podobnie jak w algorytmie EDA, adaptowany jest rozkład prawdopodobieństwa generacji punktów, opisany
Algorytm memetyczny dla rzeczywistego problemu planowania tras pojazdów
Algorytm memetyczny dla rzeczywistego problemu planowania tras pojazdów Andrzej Jaszkiewicz, Przemysław Wesołek 3 grudnia 2013 Kontekst problemu Firma dystrybucyjna Kilka statystyk (wiedza z danych miesięcznych)
Ewolucyjna optymalizacja wielokryterialna
Algorytmy genetyczne (seminarium) SURZDG]F\ GULQ*+DOLQD.ZDQLFND termin: URGD 15 13 00 data: 2000.05.10 autor: 0DUFLQ:FLXELDN nr ind. 82443 informatyka, semestr 6. Ewolucyjna optymalizacja wielokryterialna
PRZESZUKIWANIE LOKALNE I ALGORYTMY POPULACYJNE DLA WIELOKRYTERIALNEGO PROBLEMU GNIAZDOWEGO
Przeszukiwanie lokalne i algorytmy... Jarosław RUDY, Dominik ŻELAZNY Politechnika Wrocławska PRZESZUKIWANIE LOKALNE I ALGORYTMY POPULACYJNE DLA WIELOKRYTERIALNEGO PROBLEMU GNIAZDOWEGO Streszczenie. W pracy
Metody Optymalizacji: Przeszukiwanie z listą tabu
Metody Optymalizacji: Przeszukiwanie z listą tabu Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje: wtorek
Algorytmy Równoległe i Rozproszone Część V - Model PRAM II
Algorytmy Równoległe i Rozproszone Część V - Model PRAM II Łukasz Kuszner pokój 209, WETI http://www.sphere.pl/ kuszner/ kuszner@sphere.pl Oficjalna strona wykładu http://www.sphere.pl/ kuszner/arir/ 2005/06
Wielokryteriowa optymalizacja liniowa cz.2
Wielokryteriowa optymalizacja liniowa cz.2 Metody poszukiwania końcowych rozwiązań sprawnych: 1. Metoda satysfakcjonujących poziomów kryteriów dokonuje się wyboru jednego z kryteriów zadania wielokryterialnego
PROBLEMY HAROMONOGRAMOWANIA PRODUKCJI
Łukasz Sobaszek, mgr inż. Wydział Mechaniczny, Politechnika Lubelska PROBLEMY HAROMONOGRAMOWANIA PRODUKCJI Artykuł zawiera informacje dotyczące procesu harmonogramowania produkcji, problemów występujących
ALGORYTMY EWOLUCYJNE W OPTYMALIZACJI JEDNOKRYTERIALNEJ
ALGORYTMY EWOLUCYJNE W OPTYMALIZACJI JEDNOKRYTERIALNEJ Zalety: nie wprowadzają żadnych ograniczeń na sformułowanie problemu optymalizacyjnego. Funkcja celu może być wielowartościowa i nieciągła, obszar
Wielokryterialne harmonogramowanie portfela projektów. Bogumiła Krzeszowska Katedra Badań Operacyjnych
Wielokryterialne harmonogramowanie portfela projektów Bogumiła Krzeszowska Katedra Badań Operacyjnych Problem Należy utworzyć harmonogram portfela projektów. Poprzez harmonogram portfela projektów będziemy
1 Problemyprzepływowe
Problemyprzepływowe Problemy przepływowe należą do jednych z prostszych i często analizowanych modeli systemów produkcyjnych. Poniżej zostanie przedstawiony podstawowy problem przepływowy, permutacyjny
Algorytmy genetyczne. Dariusz Banasiak. Katedra Informatyki Technicznej Wydział Elektroniki
Dariusz Banasiak Katedra Informatyki Technicznej Wydział Elektroniki Obliczenia ewolucyjne (EC evolutionary computing) lub algorytmy ewolucyjne (EA evolutionary algorithms) to ogólne określenia używane
CUDA Median Filter filtr medianowy wykorzystujący bibliotekę CUDA sprawozdanie z projektu
CUDA Median Filter filtr medianowy wykorzystujący bibliotekę CUDA sprawozdanie z projektu inż. Daniel Solarz Wydział Fizyki i Informatyki Stosowanej AGH 1. Cel projektu. Celem projektu było napisanie wtyczki
AKADEMIA GÓRNICZO HUTNICZA IM. STANISŁAWA STASZICA W KRAKOWIE WYDZIAŁ INFORMATYKI ELEKTRONIKI I TELEKOMUNIKACJI. Projekt inżynierski
AKADEMIA GÓRNICZO HUTNICZA IM. STANISŁAWA STASZICA W KRAKOWIE WYDZIAŁ INFORMATYKI ELEKTRONIKI I TELEKOMUNIKACJI Projekt inżynierski Komponentowy system ewolucyjny przeznaczony do optymalizacji wielomodalnej
Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych
Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych ELEMENTY SZTUCZNEJ INTELIGENCJI Laboratorium nr 9 PRZESZUKIWANIE GRAFÓW Z
SCHEMAT ROZWIĄZANIA ZADANIA OPTYMALIZACJI PRZY POMOCY ALGORYTMU GENETYCZNEGO
SCHEMAT ROZWIĄZANIA ZADANIA OPTYMALIZACJI PRZY POMOCY ALGORYTMU GENETYCZNEGO. Rzeczywistość (istniejąca lub projektowana).. Model fizyczny. 3. Model matematyczny (optymalizacyjny): a. Zmienne projektowania
WEKTOROWE KODOWANIE PERMUTACJI. NOWE OPERATORY GENETYCZNE
WEKTOROWE KODOWANIE PERMUTACJI. NOWE OPERATORY GENETYCZNE Mariusz MAKUCHOWSKI Streszczenie: W pracy proponuje się alternatywny sposób kodowania permutacji. Prezentuje się szereg jego własności niewystępujących
Technologie cyfrowe. Artur Kalinowski. Zakład Cząstek i Oddziaływań Fundamentalnych Pasteura 5, pokój 4.15
Technologie cyfrowe Artur Kalinowski Zakład Cząstek i Oddziaływań Fundamentalnych Pasteura 5, pokój 4.15 Artur.Kalinowski@fuw.edu.pl Semestr letni 2014/2015 Zadanie algorytmiczne: wyszukiwanie dane wejściowe:
RÓWNOLEGŁY ALGORYTM POSZUKIWANIA Z ZABRONIENIAMI UKŁADANIA PLANU ZAJĘĆ
RÓWNOLEGŁY ALGORYTM POSZUKIWANIA Z ZABRONIENIAMI UKŁADANIA PLANU ZAJĘĆ Wojciech BOŻEJKO, Łukasz GNIEWKOWSKI Streszczenie: Praca dotyczy zastosowania równoległego algorytmu poszukiwania z zabronieniami
ZASADY PROGRAMOWANIA KOMPUTERÓW ZAP zima 2014/2015. Drzewa BST c.d., równoważenie drzew, kopce.
POLITECHNIKA WARSZAWSKA Instytut Automatyki i Robotyki ZASADY PROGRAMOWANIA KOMPUTERÓW ZAP zima 204/205 Język programowania: Środowisko programistyczne: C/C++ Qt Wykład 2 : Drzewa BST c.d., równoważenie
Strategie ewolucyjne. Gnypowicz Damian Staniszczak Łukasz Woźniak Marek
Strategie ewolucyjne Gnypowicz Damian Staniszczak Łukasz Woźniak Marek Strategie ewolucyjne, a algorytmy genetyczne Podobieństwa: Oba działają na populacjach rozwiązań Korzystają z zasad selecji i przetwarzania
K.Pieńkosz Badania Operacyjne Wprowadzenie 1. Badania Operacyjne. dr inż. Krzysztof Pieńkosz
K.Pieńkosz Wprowadzenie 1 dr inż. Krzysztof Pieńkosz Instytut Automatyki i Informatyki Stosowanej Politechniki Warszawskiej pok. 560 A tel.: 234-78-64 e-mail: K.Pienkosz@ia.pw.edu.pl K.Pieńkosz Wprowadzenie
Analiza stanów gry na potrzeby UCT w DVRP
Analiza stanów gry na potrzeby UCT w DVRP Seminarium IO na MiNI 04.11.2014 Michał Okulewicz based on the decision DEC-2012/07/B/ST6/01527 Plan prezentacji Definicja problemu DVRP DVRP na potrzeby UCB Analiza
Metody Kompilacji Wykład 3
Metody Kompilacji Wykład 3 odbywa się poprzez dołączenie zasad(reguł) lub fragmentów kodu do produkcji w gramatyce. Włodzimierz Bielecki WI ZUT 2 Na przykład, dla produkcji expr -> expr 1 + term możemy
Rój cząsteczek. Particle Swarm Optimization. Adam Grycner. 18 maja Instytut Informatyki Uniwersytetu Wrocławskiego
Rój cząsteczek Particle Swarm Optimization Adam Grycner Instytut Informatyki Uniwersytetu Wrocławskiego 18 maja 2011 Adam Grycner Rój cząsteczek 1 / 38 Praca Kennedy ego i Eberhart a Praca Kennedy ego
Rekurencja. Rekurencja zwana także rekursją jest jedną z najważniejszych metod konstruowania rozwiązań i algorytmów.
Rekurencja Rekurencja zwana także rekursją jest jedną z najważniejszych metod konstruowania rozwiązań i algorytmów. Zgodnie ze znaczeniem informatycznym algorytm rekurencyjny to taki który korzysta z samego
BADANIA OPERACYJNE PROGRAMOWANIE WIELOKRYTERIALNE
DR ADAM SOJDA Czasem istnieje wiele kryteriów oceny. Kupno samochodu: cena prędkość maksymalna spalanie kolor typ nadwozia bagażnik najniższa najwyższa najniższe {czarny*, czerwony, } {sedan, coupe, SUV,
Wstęp do Sztucznej Inteligencji
Wstęp do Sztucznej Inteligencji Rozwiązywanie problemów-i Joanna Kołodziej Politechnika Krakowska Wydział Fizyki, Matematyki i Informatyki Rozwiązywanie problemów Podstawowe fazy: Sformułowanie celu -
System wspomagania harmonogramowania przedsięwzięć budowlanych
System wspomagania harmonogramowania przedsięwzięć budowlanych Wojciech Bożejko 1 Zdzisław Hejducki 2 Mariusz Uchroński 1 Mieczysław Wodecki 3 1 Instytut Informatyki, Automatyki i Robotyki Politechnika
Działanie algorytmu oparte jest na minimalizacji funkcji celu jako suma funkcji kosztu ( ) oraz funkcji heurystycznej ( ).
Algorytm A* Opracowanie: Joanna Raczyńska 1.Wstęp Algorytm A* jest heurystycznym algorytmem służącym do znajdowania najkrótszej ścieżki w grafie. Jest to algorytm zupełny i optymalny, co oznacza, że zawsze
Metody Programowania
POLITECHNIKA KRAKOWSKA - WIEiK KATEDRA AUTOMATYKI i TECHNIK INFORMACYJNYCH Metody Programowania www.pk.edu.pl/~zk/mp_hp.html Wykładowca: dr inż. Zbigniew Kokosiński zk@pk.edu.pl Wykład 8: Wyszukiwanie