Technika optymalizacji

Podobne dokumenty
Technika optymalizacji

Teoria i metody optymalizacji

II. Optymalizacja globalna. Metody optymalizacji. dr inŝ. Ewa Szlachcic

Optymalizacja. Wybrane algorytmy

Metody Optymalizacji: Przeszukiwanie z listą tabu

Algorytm genetyczny (genetic algorithm)-

Algorytm Genetyczny. zastosowanie do procesów rozmieszczenia stacji raportujących w sieciach komórkowych

Algorytmy genetyczne

Plan. Zakres badań teorii optymalizacji. Teoria optymalizacji. Teoria optymalizacji a badania operacyjne. Badania operacyjne i teoria optymalizacji

Algorytmy metaheurystyczne podsumowanie

Algorytmy ewolucyjne 1

Katedra Informatyki Stosowanej. Algorytmy ewolucyjne. Inteligencja obliczeniowa

Rój cząsteczek. Particle Swarm Optimization. Adam Grycner. 18 maja Instytut Informatyki Uniwersytetu Wrocławskiego

Algorytmy ewolucyjne NAZEWNICTWO

Wstęp do Sztucznej Inteligencji

ALGORYTMY EWOLUCYJNE W OPTYMALIZACJI JEDNOKRYTERIALNEJ

SZTUCZNA INTELIGENCJA

SCHEMAT ROZWIĄZANIA ZADANIA OPTYMALIZACJI PRZY POMOCY ALGORYTMU GENETYCZNEGO

Algorytmy genetyczne w optymalizacji

ALGORYTMY GENETYCZNE ćwiczenia

Równoważność algorytmów optymalizacji

Metody Programowania

METODY SZTUCZNEJ INTELIGENCJI algorytmy ewolucyjne

ALGORYTMY GENETYCZNE (wykład + ćwiczenia)

PLAN WYKŁADU OPTYMALIZACJA GLOBALNA OPERATOR KRZYŻOWANIA ETAPY KRZYŻOWANIA

Politechnika Wrocławska Wydział Elektroniki INFORMATYKA SYSTEMÓW AUTONOMICZNYCH. Heurystyka, co to jest, potencjalne zastosowania

LABORATORIUM 3: Wpływ operatorów krzyżowania na skuteczność poszukiwań AE

Wybrane podstawowe rodzaje algorytmów

Problemy metody gradientowej

Algorytmy genetyczne. Materiały do laboratorium PSI. Studia niestacjonarne

Algorytmy ewolucyjne - algorytmy genetyczne. I. Karcz-Dulęba

LABORATORIUM 4: Algorytmy ewolucyjne cz. 2 wpływ operatorów krzyżowania i mutacji na skuteczność poszukiwań AE

Generowanie i optymalizacja harmonogramu za pomoca

Algorytmy genetyczne. Materiały do laboratorium PSI. Studia stacjonarne i niestacjonarne

Algorytmy mrówkowe (optymalizacja kolonii mrówek, Ant Colony optimisation)

Heurystyki. Strategie poszukiwań

Optymalizacja ciągła

Algorytmy memetyczne (hybrydowe algorytmy ewolucyjne)

Algorytm indukcji klasyfikatora za pomocą EA z automatycznym przełączaniem ukierunkowań

Zadanie 5 - Algorytmy genetyczne (optymalizacja)

Techniki optymalizacji

Algorytmy metaheurystyczne Wykład 6. Piotr Syga

Algorytmy genetyczne

Metody Rozmyte i Algorytmy Ewolucyjne

Algorytmy genetyczne. Paweł Cieśla. 8 stycznia 2009

SZTUCZNA INTELIGENCJA

Algorytmy ewolucyjne. Łukasz Przybyłek Studenckie Koło Naukowe BRAINS

Gospodarcze zastosowania algorytmów genetycznych

FOLIA POMERANAE UNIVERSITATIS TECHNOLOGIAE STETINENSIS Folia Pomer. Univ. Technol. Stetin. 2009, Oeconomica 275 (57), 53 58

Algorytmy genetyczne (AG)

Zadania laboratoryjne i projektowe - wersja β

Algorytmy mrówkowe. P. Oleksyk. Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Inteligentne systemy informatyczne

Algorytmy genetyczne. Dariusz Banasiak. Katedra Informatyki Technicznej Wydział Elektroniki

Odkrywanie algorytmów kwantowych za pomocą programowania genetycznego

Metody przeszukiwania

Wstęp do Sztucznej Inteligencji

Optymalizacja. Przeszukiwanie lokalne

Problem Komiwojażera - algorytmy metaheurystyczne

Obliczenia ewolucyjne - plan wykładu

Algorytmy ewolucyjne optymalizacji wielokryterialnej sterowane preferencjami decydenta

Technologie Informacyjne

Techniki optymalizacji

Algorytmy mrówkowe. Plan. » Algorytm mrówkowy» Warianty» CVRP» Demo» Środowisko dynamiczne» Pomysł modyfikacji» Testowanie

Schemat programowania dynamicznego (ang. dynamic programming)

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

Techniki optymalizacji

Zastosowanie algorytmów heurystycznych do rozwiązywania problemu układania tras pojazdów

Przeszukiwanie lokalne

Strefa pokrycia radiowego wokół stacji bazowych. Zasięg stacji bazowych Zazębianie się komórek

LABORATORIUM 2: Wpływ wielkości populacji i liczby pokoleń na skuteczność poszukiwań AE. opracował: dr inż. Witold Beluch

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

6. Klasyczny algorytm genetyczny. 1

Rekurencje. Jeśli algorytm zawiera wywołanie samego siebie, jego czas działania moŝe być określony rekurencją. Przykład: sortowanie przez scalanie:

Dobór parametrów algorytmu ewolucyjnego

Zaawansowane programowanie

Strategie ewolucyjne. Gnypowicz Damian Staniszczak Łukasz Woźniak Marek

Techniki optymalizacji

ALHE. prof. Jarosław Arabas semestr 15Z

Optymalizacja. Przeszukiwanie tabu

Wielokryteriowa optymalizacja liniowa

Algorytmy ewolucyjne `

Algorytm hybrydowy dla alokacji portfela inwestycyjnego przy ograniczonych zasobach

Projektowanie i Analiza Algorytmów

Rachunek prawdopodobieństwa projekt Ilustracja metody Monte Carlo obliczania całek oznaczonych

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Inspiracje soft computing. Soft computing. Terminy genetyczne i ich odpowiedniki w algorytmach genetycznych. Elementarny algorytm genetyczny

Mrówka Pachycondyla apicalis

Problemy z ograniczeniami

Optymalizacja. Symulowane wyżarzanie

Jacek Skorupski pok. 251 tel konsultacje: poniedziałek , sobota zjazdowa

WYKORZYSTANIE ALGORYTMÓW GENETYCZNYCH I MRÓWKOWYCH W PROBLEMACH TRANSPORTOWYCH

Zadanie transportowe i problem komiwojażera. Tadeusz Trzaskalik

Przegląd metod optymalizacji wielowymiarowej. Funkcja testowa. Funkcja testowa. Notes. Notes. Notes. Notes. Tomasz M. Gwizdałła

Tabu Search (Poszukiwanie z zakazami)

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Aproksymacja funkcji a regresja symboliczna

Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych

Metody Rozmyte i Algorytmy Ewolucyjne

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

SZTUCZNA INTELIGENCJA

Transkrypt:

II. Optymalizacja globalna Nieliniowe zadanie optymalizacji statycznej bez ograniczeń - nieliniowe algorytmy optymalizacji globalnej dr inŝ. Ewa Szlachcic Do tej grupy naleŝą stochastyczne iteracyjne algorytmy przeszukiwania przestrzeni rozwiązań : metody przeszukiwania lokalnego metody przeszukiwania populacyjnego. SCHEMAT ALGORYTMU 1. Wygeneruj początkowy zbiór rozwiązań W i oceń kaŝde z nich. 2. Wygeneruj i oceń zbiór nowych kandydatów W drogą losowych zmian u wybranych osobników z W. 3. Zastąp pewne osobniki z W osobnikami z W i wróć do kroku 2, o ile nie jest spełniony warunek zatrzymania algorytmu. Idea: generuj i testuj Metody przeszukiwania lokalnego algorytm największego wzrostu Przeszukiwanie losowe generowanie nowego rozwiązania Ocena jakości rozwiązania 1. Kolejni kandydaci są niewielkimi modyfikacjami poprzednich kandydatów. 2. Nowy kandydat powstaje w drodze rekombinacji pewnych cech dwóch lub więcej poprzedników 3. Rodzice nowych kandydatów (generowanych za pomocą metody 1 lub 2) wybierani są drogą losowych i konkurencyjnych strategii, które faworyzują lepsze rozwiązania. Trzy zasady generowania nowych osobników 1. Wygeneruj i oceń początkowe aktualne rozwiązanie s. 2. Zmodyfikuj s otrzymując s i oceń s. 3. JeŜeli s jest lepsze niŝ s, podstaw, s s 4. Wróć do kroku 2, chyba Ŝe jest spełniony warunek zatrzymania algorytmu. W tym algorytmie wykorzystano pomysł (1): nowe potencjalne rozwiązania generowane są drogą niewielkich modyfikacji aktualnego rozwiązania. Podstawowa róŝnica uwidacznia się w kroku 3. Czasem moŝna zaakceptować rozwiązanie s nawet wtedy gdy jest ono gorsze niŝ s. Pozwala to uniknąć (choć nie zawsze) stabilizacji aktualnego rozwiązania w lokalnym optimum. Metody przeszukiwania populacyjnego 1. Techniki heurystyczne W populacyjnych metodach przeszukiwania stosuje się zamiast pojedynczego rozwiązania aktualnego populację (zazwyczaj róŝnych) rozwiązań aktualnych. Nowe rozwiązania uzyskiwane są drogą wyboru z populacji rodziców i odpowiedniego modyfikowania ich. Tutaj pomysł (2) odgrywa główna rolę: Nowy kandydat powstaje w drodze rekombinacji pewnych cech dwóch lub więcej poprzedników. Algorytmy lokalnego poszukiwania klasa algorytmów przybliŝonych, w których rozwiązanie problemu jest iteracyjnie poprawiane poprzez przeglądanie sąsiedztwa rozwiązania. Elementy algorytmu: o I Generowanie dopuszczalnego rozwiązania początkowego o II Wybór operatorów do przeglądania sąsiedztwa rozwiązania o III Kryteria akceptacji ruchu o IV Warunek stopu algorytmu.

Metaheurystyki, inteligentne heurystyki Metaheurystyki Matehaurystyki (inteligentne heurystyki bazują na analogiach do procesów ze świata rzeczywistego (fizyki, biologii), które moŝna interpretować w kategoriach optymalizacji, a które często prowadzą do wyników bliskich optimum. Algorytmy genetyczne algorytmy poszukiwania oparte na mechanizmach doboru naturalnego oraz łączenia cech rozwiązań Uczenie się systemu - kaŝda autonomiczna zmiana w systemie, zachodząca na podstawie doświadczeń, która prowadzi do poprawy jakości jego działania. Symulowane wyŝarzanie (ang. Simulated annealing SA ) Przeszukiwanie Tabu (Przeszukiwanie z zakazami) (ang. Tabu Search TS) Systemy mrówkowe (ang. Ant systems AS- Ant Colony Optimization) Algorytmy ewolucyjne (ang. Evolutionary algorithms EA) Optymalizacja rojem cząstek (ang. Particle swarm optimization PSO) Optymalizacja z wykorzystaniem harmonii ( ang. Harmony search HS). Symulowane wyŝarzanie inspiracja z procesu wyŝarzania metalu (ang. Simulated annealing S.A.) Metoda symulowanego wyŝarzania- jako modyfikacja błądzenia przypadkowego Kawałek metalu jest podgrzewany do wysokiej temperatury, a następnie powoli schładzany. Powolne i regularne chłodzenie się metalu pozwala atomom na obniŝenie poziomu swej energii do momentu znalezienia się w stanie metastabilnym (o minimalnej energii). Gwałtowne ochłodzenie zamroziłoby atomy na przypadkowych pozycjach, na których aktualnie znajdowałyby się. Otrzymana w rezultacie struktura metalu jest silniejsza i bardziej stabilna. Zamiast minimalizowania energii bloku metalu (czy maksymalizowania jego wytrzymałości), program minimalizuje lub maksymalizuje funkcję celu związaną z problemem. Nowo wygenerowany punkt staje się rozwiązaniem zaniem roboczym, gdy poprawia on wartość funkcji celu, Nowo wygenerowany punkt staje się rozwiązaniem zaniem roboczym. Jego akceptacja następuje z prawdopodobieństwem równym r n s ( x ) f( x ) f p exp α =, dlat 0 T T oznacza temperaturę, x n, x s wektor rozwiązań nowy i stary. Odpowiednie dobranie sposobu obniŝania temperatury w kolejnych generacjach. Zbyt szybkie obniŝanie temperatury odbija się negatywnie na dokładności algorytmu, Zbyt powolne obniŝanie temperatury znacznie wydłuŝa czas obliczeń. Przeszukiwanie TABU (ang. Tabu search algorithm TS) Przeszukiwanie TABU (poszukiwanie z zakazami). Przeszukiwanie tabu jest wielokrotną procedurą stosowaną do rozwiązywania problemów optymalizacyjnych z zakresu kombinatoryki dyskretnej. Podstawową ideą przeszukiwania tabu jest eksploracja przestrzeni, stworzonej ze wszystkich moŝliwych do realizacji rozwiązań, za pomocą sekwencji ruchów. Wyjście z lokalnie optymalnego, ale nie optymalnego globalnie, rozwiązania i tym samym uniemoŝliwienie wykonania pewnych ruchów w danym przejściu klasyfikowane jest jako ruch niedozwolony, czy teŝ jako ruch tabu. Ruchy tabu to ruchy oparte na krótko- bądź długoterminowej historii sekwencji ruchów. Dla przykładu prosta implementacja moŝe zakwalifikować ruch jako tabu, jeŝeli ruch do niego przeciwny wykonany został ostatnio lub wykonywany był często. Jest to metoda pozwalająca uniknąć niebezpieczeństwa wielokrotnego powracania do tego samego rozwiązania. Algorytm jest wyposaŝony w pamięć dotychczas odwiedzanych punktów. Ponowne odwiedzenie punktów znajdujących się w pamięci tabu jest zakazane. Czasami, gdy uwaŝane jest to za korzystne, ruch tabu moŝe być uniewaŝniony. Takie kryterium aspiracyjne obejmuje równieŝ przypadek, kiedy przez zapomnienie, iŝ dany ruch jest tabu, dojdziemy do rozwiązania najlepszego z uzyskanych dotychczas.

Optymalne działanie kolonii mrówek systemy mrówkowe (ang. Ant Colony Optimization Ant systems AS) 1. Niektóre gatunki mrówek podczas wędrówki z mrowiska w kierunku źródła poŝywienia pozostawiają na podłoŝu substancję chemiczną zwaną feromonem. 2. Gdy proces ten powtarza się, feromon pozostawiany jest przez mrówki w coraz większych ilościach na coraz krótszych odcinkach. 3. Kiedy inne mrówki dojdą do punktu decyzyjnego, którym jest skrzyŝowanie wielu moŝliwych ścieŝek, dokonują wyboru trasy na podstawie ilości pozostawionej przez poprzedniczki substancji. 4. Po kilku chwilach juŝ prawie wszystkie mrówki uŝywają najkrótszej ścieŝki ze względu na najwyŝszą koncentrację znajdującego się na niej feromonu Optymalne działanie kolonii mrówek systemy mrówkowe cd. Systemy mrówkowe są to systemy wielu przedstawicieli, w których zachowanie poszczególnego przedstawiciela inspirowane jest rzeczywistym zachowaniem mrówek. Wielokrotne uŝycie algorytmu pozwala na zidentyfikowanie trasy optymalnej. Algorytmy mrówkowe są najlepszym przykładem systemu bazującego na inteligencji masowej. Algorytmy mrówkowe wykorzystywane w programach komputerowych symulują pozostawianie feromonu wzdłuŝ wykorzystywanych ścieŝek. Wykorzystywane są do rozwiązywania problemów optymalizacji, począwszy od klasycznego problemu komiwojaŝera ( VRP, CVRP, VRPTW itp.), a skończywszy na wyznaczaniu tras w sieciach telekomunikacyjnych. Algorytmy ewolucyjne (ang. Evolutionary algorithms EA) (populacyjne algorytmy przeszukiwania) Algorytmy genetyczne Programowanie genetyczne Programowanie ewolucyjne Strategie ewolucyjne Algorytmy immunogenetyczne Algorytm genetyczny Zasada ich działania opiera się na obserwacji praw natury i przeniesieniu ich na grunt informatyki. U podstaw algorytmów genetycznych znajduje się dobór naturalny oraz dziedziczność. Najlepiej przystosowane jednostki (niosące rozwiązania zbliŝone do właściwego) są powielane oraz krzyŝowane ze sobą w celu powielenia informacji. Tworzone kolejno populacje są wypełniane losowo wygenerowanymi osobnikami wraz z obliczoną funkcją przystosowania Proces sztucznej ewolucji Operatory genetyczne Reprodukcja skopiowanie do populacji tymczasowej T t losowo wybranych osobników z populacji bazowej. Proces losowania odbywa się ze zwracaniem. Osobniki o większej wartości funkcji przystosowania mają większe szanse reprodukcji. W wyniku reprodukcji w populacji tymczasowej znajdzie się większa liczba kopii lepiej przystosowanych osobników. Operator krzyŝowania - Osobnicy są kojarzeni w rozłączne pary. Parametr algorytmu prawdopodobieństwo krzyŝowania p c Osobniki potomne zastępują rodziców. Operator mutacji - Mutacja zmiana genotypu Osobniki poddane mutacji stanowią populację potomną O t. Parametr algorytmu prawdopodobieństwo mutacji p m Algorytm działa do chwili spełnienia warunku zatrzymania. Operacje genetyczne krzyŝowanie i mutacja.

Kryteria zatrzymania algorytmu ZbieŜność algorytmów ewolucyjnych ma charakter asymptotyczny tzn, gdy liczba generacji dąŝy do nieskończoności, prawdopodobieństwo osiągnięcia minimum globalnego wzrasta. DWIE GRUPY KRYTERIÓW: Kryteria zatrzymania, polegające na monitorowaniu wartości funkcji przystosowania najlepszego wygenerowanego osobnika, (kryterium maksymalnego kosztu, zadowalającego poziomu funkcji przystosowania, minimalnej szybkości poprawy). Kryteria zatrzymania, polegające na monitorowaniu zdolności algorytmu do eksploracji przestrzeni genotypów, co warunkuje odporność algorytmu na maksima lokalne. Monitorowanie rozwiązań generowanych przez algorytm ewolucyjny Kryterium maksymalnego kosztu K>K max Często rozumiane jako maksymalna dopuszczalna liczba generacji algorytmu.. x k Kryterium zadowalającego poziomu funkcji przystosowania dla - najlepszy dotychczas znaleziony osobnik. k f x fs Kryterium minimalnej szybkości poprawy jeŝeli w kolejnych ε iteracjach nie uda się poprawić wyniku algorytmu o więcej niŝ τ. f x( t+ τ) f x( t) ε, x (t) - najlepszy znaleziony osobnik w t iteracjach. Zalety i wady algorytmów genetycznych Optymalizacja Rojem Cząstek (ang. Particle swarm optimization PSO) Zalety: Odporność - unikanie ekstremów lokalnych, Prawdopodobieństwo znalezienia dobrych rozwiązań jest w duŝym stopniu niezaleŝne od wyboru punktów początkowych Wydajność duŝa liczba przetwarzanych schematów - ok. m 3, gdzie m - liczba osobników w populacji Łatwość zastosowania w niemal kaŝdym zadaniu optymalizacji Wady: Brak gwarancji zbieŝności do optymalnego rozwiązania Opierając się na zachowaniach stad ptaków i ławic ryb, technika ta przedstawia moŝliwe rozwiązania jako cząsteczki lecące jak rój przez obszar rozwiązań. Metoda rozpoznana w 1995 r. przez dr E. Eberhart a i dr J. Kennedy ego. Podobnie jak stado ptaków, rój podąŝa za przywódcą, bieŝącym, najlepszym znanym rozwiązaniem, przyspieszając i zmieniając kierunek, gdy lepsze rozwiązanie zostanie znalezione. Badania nad tymi systemami pokazały, Ŝe optymalizacja rojem cząstek moŝe skuteczniej od innych technik znaleźć lepsze rozwiązanie złoŝonych problemów. 21 Optymalizacja z wykorzystaniem harmonii (ang. Harmony Search Optimization HSO) Algorytm HS naleŝy do grupy algorytmów meta-heurystycznych, opracowany przez Zong Woo Geem w roku 2001. Wykorzystuje podobieństwa procesu jazzowej improwizacji do procesu poszukiwania globalnego optimum w zadaniach optymalizacji Jazzowa improwizacja poszukuje najlepszego stanu harmonii (fantastic harmony), określanego jako estetyczna estymacja procesu, właśnie tak jak algorytm optymalizacji poszukuje najlepszego stanu (globalnego optimum), określanego jako badanie wartości funkcji celu Estetyczna estymacja stanowi zbiór tonów, granych przez instrument muzyczny, właśnie tak jak określenie wartości (ewaluacja) funkcji celu jest realizowane z wykorzystaniem zbioru wartości zmiennych decyzyjnych. KaŜdemu członkowi zespołu odpowiada jedna zmienna decyzyjna. Oznacza to, Ŝe zakres tonalny instrumentu tego muzyka odwzorowany jest w zbiór wartości zmiennej decyzyjnej mu przyporządkowanej. Jednej harmonii (współdźwiękowi stworzonemu przez cały zespół) odpowiada jedno rozwiązanie problemu. KaŜda harmonia ma przyporządkowaną subiektywną ocenę zespołu. Ocenie tej odpowiada wartość funkcji celu dla danego rozwiązania. Pamięć zawiera zbiór rozwiązań, dla których wartości funkcji celu są najlepsze spośród wszystkich wygenerowanych do tej pory rozwiązań. Generacja nowego rozwiązania prowadzona jest na bazie rozwiązań zawartych w pamięci i jest analogiczna do improwizacji nowej harmonii.

Definicje reguł wyboru zmiennych decyzyjnych są następujące : W przypadku algorytmu HS wprowadza się dwa parametry, które decydują o sposobie wyboru zmiennej decyzyjnej wchodzącej do nowego rozwiązania. Parametry te oznacza się symbolami HMCR (ang. harmony memory consideration ratio - współczynnik wyboru tonu z pamięci) oraz PAR (ang. pitch adjustment ratio - współczynnik dostosowania tonu). Wartość zmiennej decyzyjnej jest wybierana ze zbioru wartości, które przyjmuje ta zmienna w rozwiązaniach utrzymywanych w HM ta operacja wykonywana jest z prawdopodobieństwem równym HMCR. Wartość zmiennej decyzyjnej jest losowana z całego dopuszczalnego zbioru wartości tej zmiennej z prawdopodobieństwem (1-HMCR). Jeśli zmienna została ustalona na podstawie reguły 1, jest ona modyfikowana (dostosowywana) z prawdopodobieństwem równym PAR, co oznacza, Ŝe reguła ta stosowana jest z prawdopodobieństwem równym HMCR*PAR. Obszary podjęcia decyzji o zastosowaniu reguł wyboru wartości wchodzącej do nowo tworzonego rozwiązania. Obszar D k odpowiada regule k-tej Diagram decyzyjny dla procedury optymalizacyjnej opartej na algorytmie HS Krok 1: - inicjalizacja parametrów (HMS, HMCR, PAR, b, NI) Krok 2 : - inicjalizacja HM - sortowanie HM według rosnących wartości ocen rozwiązań Krok 3 : - improwizacja nowego rozwiązania na podstawie HM, parametrów algorytmu oraz reguł wyboru Nie Prawdopodobieństwa wyboru reguł moŝna zdefiniować następująco : Reguła 1 : P(D1) = HMCR Reguła 2 : P(D2) = 1 HMCR Reguła 3 : P(D3) = HMCR * PAR Kryterium stopu algorytmu jest przewaŝnie dopuszczalna liczba iteracji, oznaczana zwykle przez NI (ang. numberofimprovisations). Tak h STOP Krok 5 : Spełniony jest warunek zatrzymania algorytmu? Nie Krok 4 : - modyfikacja zawartości pamięci Nowe rozwiązanie jest lepsze od najgorszego z zawartych w pamięci? Tak h Przykład optymalizacja funkcji dwóch zmiennych za pomocą algorytmu HS 2 4 1 6 2 4 f ( x) = 4x1 2.1x1 + x1 + x1x 2 4x2 + 4x2 min 3 Minima globalne zlokalizowane są w punktach x = (-0,08984; 0,71266) oraz x = (0,08984; -0,71266), przy czym f(x ) = f(x ) = -1,0316285. Przyjęto następujące parametry algorytmu: HMS = 10 HMCR = 0.85 PAR = 0.45 Zakres zmienności x1 oraz x2 wynosił [-10; 10]. Harmonią w tym zadaniu jest jedno rozwiązanie problemu czyli para liczb (x1, x2). Zawartość pamięci harmonii algorytmu HS dla zadania minimalizacji funkcji 2 zmiennych po inicjalizacji Harmonia x 1 x 2 f(x) 1 3,18-0,40 169,95 2-6,60 5,08 26274,83 3 6,66 7,43 37334,24 4 6,76 8,32 46694,70 5-7,58 5,56 60352,77 6 7,76 4,70 67662,40 7-8,25 2,75 95865,20 8-8,30 8,53 120137,09 9-9,01-8,05 182180,00 10-9,50 3,33 228704,72

Zawartość HM po 4870 iteracjach Harmonia x x f(x) -1,0316285 1 0,08984-0,71269-1,0316284 2 0,09000-0,71269-1,0316283 3 0,09000-0,71277-1,0316281 4 0,09013-0,71269-1,0316280 5 0,08951-0,71269-1,0316279 6 0,08951-0,71277 NaleŜy zaznaczyć, Ŝe: rozwiązania początkowe zostały wybrane całkowicie losowo, mechanizmy zastosowane w algorytmie HS wymagają w tym konkretnym przypadku bardzo niewielkich nakładów obliczeniowych. 7 0,08951-0,71279 8 0,09628-0,71269 9 0,08980-0,71300 10 0,09000-0,71300-1,0316278-1,0316277-1,0316275-1,0316274 Współczesne trendy w optymalizacji Algorytmy genetyczne - literatura Rozwój metod dokładnych programowania matematycznego, np. wstępne przetwarzanie w programowaniu liniowym Dedykowane metody dokładne i przybliŝone np. dla problemu pokrycia zbioru Algorytmy meta-heurystyczne Algorytmy hybrydowe John Holland, Adaptation in natural and artificial systems, The University of Michigan Press, 1975 David E. Goldberg, Algorytmy genetyczne i ich zastosowania, WNT, Warszawa 1995 Michalewicz Algorytmy genetyczne i struktury danych= Warszawa, WNT 1998 Jarosław Arabas, Wykłady z algorytmów ewolucyjnych, WNT, Warszawa 2001 Robert Schaefer, Podstawy genetycznej optymalizacji globalnej, Wydawnictwo Uniwersytetu Jagiellońskiego, Kraków 2002 René Decartes - Kartezjusz Nie wystarczy mieć sprawny umysł, ale trzeba go jeszcze dobrze uŝywać Kartezjusz (fr. René Descartes, łac. Renatus Cartesius, ur. 31 marca 1596 w La Haye-en-Touraine w Turenii, zm. 11 lutego 1650 w Sztokholmie) francuski filozof, matematyk i fizyk, jeden z najwybitniejszych uczonych XVII wieku, uwaŝany za prekursora nowoŝytnej kultury umysłowej. Twórca podstaw geometrii analitycznej. Sformułował twierdzenie znane pod nazwą twierdzenia Bezout Oryginalny pomysł nadania kaŝdemu punktowi na płaszczyźnie nazwy przez przypisanie mu dwóch liczb- układ współrzędnych = układ kartezjański. Prekursor fizyki klasycznej - twórca prawa załamania i odbicia światła Sformułował zasadę zachowania pędu.