Algorytmy ewolucyjne

Podobne dokumenty
Strategie ewolucyjne (ang. evolu4on strategies)

WAE Jarosław Arabas Adaptacja i samoczynna adaptacja parametrów AE Algorytm CMA-ES

Metody Rozmyte i Algorytmy Ewolucyjne

Strategie ewolucyjne (ang. evolution strategies)

CMAES. Zapis algorytmu. Generacja populacji oraz selekcja Populacja q i (t) w kroku t generowana jest w następujący sposób:

Algorytmy ewolucyjne `

Strategie ewolucyjne. Gnypowicz Damian Staniszczak Łukasz Woźniak Marek

METODY SZTUCZNEJ INTELIGENCJI algorytmy ewolucyjne

Dobór parametrów algorytmu ewolucyjnego

Prawdopodobieństwo i statystyka

Statystyka i eksploracja danych

Ważne rozkłady i twierdzenia c.d.

Prawdopodobieństwo i statystyka r.

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów

ALHE Z11 Jarosław Arabas wykład 11

Spis treści 3 SPIS TREŚCI

Metody systemowe i decyzyjne w informatyce

Prawdopodobieństwo i statystyka

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa

ALGORYTMY EWOLUCYJNE W ZASTOSOWANIU DO ROZWIĄZYWANIA WYBRANYCH ZADAŃ OPTYMALIZACJI1

ALHE Jarosław Arabas Metaheurystyki w Rn Ewolucja różnicowa EDA CMAES Rój cząstek

Janusz Adamowski METODY OBLICZENIOWE FIZYKI Kwantowa wariacyjna metoda Monte Carlo. Problem własny dla stanu podstawowego układu N cząstek

Spis treści Wstęp Estymacja Testowanie. Efekty losowe. Bogumiła Koprowska, Elżbieta Kukla

Rozkład normalny. Marcin Zajenkowski. Marcin Zajenkowski () Rozkład normalny 1 / 26

ALGORYTMY GENETYCZNE ćwiczenia

KADD Minimalizacja funkcji

SZTUCZNA INTELIGENCJA

AKADEMIA GÓRNICZO-HUTNICZA Wydział Matematyki Stosowanej ROZKŁAD NORMALNY ROZKŁAD GAUSSA

MATEMATYKA Z ELEMENTAMI STATYSTYKI LABORATORIUM KOMPUTEROWE DLA II ROKU KIERUNKU ZARZĄDZANIE I INŻYNIERIA PRODUKCJI ZESTAWY ZADAŃ

Podstawowe modele probabilistyczne

Centralne twierdzenie graniczne

Modele DSGE. Jerzy Mycielski. Maj Jerzy Mycielski () Modele DSGE Maj / 11

ALGORYTMY EWOLUCYJNE W OPTYMALIZACJI JEDNOKRYTERIALNEJ

Testowanie hipotez statystycznych.

Algorytmy genetyczne w optymalizacji

Na A (n) rozważamy rozkład P (n) , który na zbiorach postaci A 1... A n określa się jako P (n) (X n, A (n), P (n)

Algorytmy ewolucyjne - algorytmy genetyczne. I. Karcz-Dulęba

Estymacja parametrów w modelu normalnym

Oznacza to, że chcemy znaleźć minimum, a właściwie wartość najmniejszą funkcji

Aproksymacja funkcji a regresja symboliczna

Metoda największej wiarygodności

Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX = 4 i EY = 6. Rozważamy zmienną losową Z =.

Prawdopodobieństwo i statystyka

Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1

ROZWÓJ ALGORYTMU EWOLUCJI RÓŻNICOWEJ. Konrad Wypchło

Instytut Fizyki Politechniki Łódzkiej Laboratorium Metod Analizy Danych Doświadczalnych Ćwiczenie 3 Generator liczb losowych o rozkładzie Rayleigha.

Komputerowa Analiza Danych Doświadczalnych

STATYSTYKA MATEMATYCZNA

Zmienne losowe ciągłe i ich rozkłady

Optymalizacja systemów

Procesy stochastyczne

Idea. θ = θ 0, Hipoteza statystyczna Obszary krytyczne Błąd pierwszego i drugiego rodzaju p-wartość

Metody eksploracji danych 2. Metody regresji. Piotr Szwed Katedra Informatyki Stosowanej AGH 2017

KADD Metoda najmniejszych kwadratów funkcje nieliniowe

1 Wykład 3 Generatory liczb losowych o dowolnych rozkładach.

Testowanie hipotez statystycznych.

Redukcja wariancji w metodach Monte-Carlo

Weryfikacja hipotez statystycznych za pomocą testów statystycznych

Próbkowanie. Wykład 4 Próbkowanie i rozkłady próbkowe. Populacja a próba. Błędy w póbkowaniu, cd, Przykład 1 (Ochotnicy)

Weryfikacja hipotez statystycznych

Algorytmy genetyczne

Zmienne losowe ciągłe i ich rozkłady

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski

Testowanie hipotez statystycznych.

SPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization

Procesy stochastyczne

Algorytmy genetyczne. Materiały do laboratorium PSI. Studia niestacjonarne

SCHEMAT ROZWIĄZANIA ZADANIA OPTYMALIZACJI PRZY POMOCY ALGORYTMU GENETYCZNEGO

7. Estymacja parametrów w modelu normalnym( ) Pojęcie losowej próby prostej

Rozpoznawanie obrazów

Modele zapisane w przestrzeni stanów

Algorytm Genetyczny. zastosowanie do procesów rozmieszczenia stacji raportujących w sieciach komórkowych

Prawdopodobieństwo i statystyka r.

Wykład 12 Testowanie hipotez dla współczynnika korelacji

Elementy statystyki wielowymiarowej

Metody systemowe i decyzyjne w informatyce

WAE Jarosław Arabas Pełny schemat algorytmu ewolucyjnego

Statystyka w przykładach

Tablica Wzorów Rachunek Prawdopodobieństwa i Statystyki

Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/

Metody probabilistyczne

Prawdopodobieństwo i statystyka

Wykład 12 Testowanie hipotez dla współczynnika korelacji

PDF created with FinePrint pdffactory Pro trial version

Badania operacyjne egzamin

dla t ściślejsze ograniczenie na prawdopodobieństwo otrzymujemy przyjmując k = 1, zaś dla t > t ściślejsze ograniczenie otrzymujemy przyjmując k = 2.

Algorytmy genetyczne. Materiały do laboratorium PSI. Studia stacjonarne i niestacjonarne

Katedra Informatyki Stosowanej. Algorytmy ewolucyjne. Inteligencja obliczeniowa

Metody systemowe i decyzyjne w informatyce

STATYSTYKA I DOŚWIADCZALNICTWO Wykład 7

Wykład 1 Próba i populacja. Estymacja parametrów z wykorzystaniem metody bootstrap

HISTOGRAM. Dr Adam Michczyński - METODY ANALIZY DANYCH POMIAROWYCH Liczba pomiarów - n. Liczba pomiarów - n k 0.5 N = N =

Własności eksploatacyjne i eksploracyjne algorytmów ewolucyjnych z mutacja. α stabilna. Andrzej Obuchowicz i Przemysław Prętki

Statystyka matematyczna

Algorytm grupowania danych typu kwantyzacji wektorów

LABORATORIUM 3: Wpływ operatorów krzyżowania na skuteczność poszukiwań AE

w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych.

Testowanie hipotez statystycznych.

Transkrypt:

Algorytmy ewolucyjne strategie ewolucyjne Piotr Lipiński Podstawowe algorytmy ewolucyjne Podstawowe algorytmy ewolucyjne algorytmy genetyczne zwykle przestrzeń poszukiwań to {0, 1} d niektóre wersje działają na przestrzeni poszukiwań złożonej z permutacji (na przykład SGA z operatorami PMX, CX czy OX) strategie ewolucyjne przestrzeń poszukiwań to R d występuje mechanizm auto-adaptacji programowanie genetyczne przestrzeń poszukiwań to pewien zbiór drzew programowanie ewolucyjne przestrzeń poszukiwań to zbiór wyrażeń pewnej gramatyki Piotr Lipiński, Wykład z algorytmów ewolucyjnych 2 1

Strategie ewolucyjne Strategie ewolucyjne (ang. Evolution Strategies, ES) zostały opracowane w Niemczech w latach sześćdziesiątych ubiegłego wieku jako jedna z metod rozwiązywania problemów optymalizacji. Badania nad strategiami ewolucyjnymi rozpoczął I. Rechenberg i H.-P. Schwefel na Politechnice Berlińskiej w 1964 r. Strategie ewolucyjne: zajmują się optymalizacją funkcji celu F : Ω R określonych na przestrzeni poszukiwań Ω = R d, kładą duży nacisk na operator mutacji, a mniejszy na operator rekombinacji (w wielu algorytmach operator rekombinacji albo nie występuje albo jest małoistotny), operator mutacji opiera się zazwyczaj na dodawaniu do osobnika zaburzenia losowego generowanego z rozkładem normalnym o zadanych parametrach, używają mechanizmów w auto-adaptacji adaptacji dostosowujących parametry operatorów ewolucyjnych (m.in. zasięg mutacji) w trakcie działania algorytmu do aktualnego stanu poszukiwań. Podstawowe strategie ewolucyjne: ES(1+1), ES(µ + λ) i ES(µ, λ), ES(µ, λ, ρ, κ), CMA-ES(µ/µ w, λ). Piotr Lipiński, Wykład z algorytmów ewolucyjnych 3 Strategie ewolucyjne Popularne testowe funkcje celu to m.in.: Sphere Function Ackley Function Griewank Function Powell Function Rastrigin Function Schwefel Function Na konkursach towarzyszących konferencjom Congress of Evolutionary Computation (CEC) publikuje się i uaktualnia zbiory testowych problemów optymalizacji służących do rzetelnego testowania efektywności strategii ewolucyjnych. Źródło: A. Hedar, Global Optimization Test Problems, http://www-optima.amp.i.kyoto-u.ac.jp/member/student/hedar/hedar_files/testgo.htm. Piotr Lipiński, Wykład z algorytmów ewolucyjnych 4 2

Parę słów o rozkładzie normalnym gęstość rozkładu normalnego N(µ, σ 2 ) o wartości oczekiwanej µ i wariancji σ 2 to 2 1 ( x µ ) f ( x; µ, σ ) = exp( ) 2 2 2πσ 2σ wykresem gęstości jest krzywa Gaussa, wartość oczekiwana wpływa na przesunięcie krzywej, a wariancja na jej kształt Piotr Lipiński, Wykład z algorytmów ewolucyjnych 5 Parę słów o rozkładzie normalnym generując liczby losowe z rozkładem N(µ, σ 2 ) powinniśmy dostawać histogramy zgodne z odpowiednią krzywą Gaussa UWAGA: Jest kilka popularnych algorytmów generowania liczb pseudolosowych z rozkładem normalnym (zazwyczaj są one już zaimplementowane w popularnych narzędziach programistycznych), m.in. algorytm Boxa-Mullera czy algorytm Ziggurata. przykład: histogram dla 1000 liczb losowych wygenerowanych z rozkładem N(0, 1) Piotr Lipiński, Wykład z algorytmów ewolucyjnych 6 3

Parę słów o wielowymiarowym rozkładzie normalnym gęstość d-wymiarowego rozkładu normalnego N(µ, Σ) o wartości oczekiwanej µ R d i macierzy kowariancji Σ R d x d to 1 1 T 1 f ( x; µ, Σ) = exp( ( x µ ) Σ ( x µ )) d (2π ) Σ 2 przykład: 500 losowych punktów wygenerowanych z dwuwymiarowym rozkładem normalnym (dla czterech różnych rozkładów) Piotr Lipiński, Wykład z algorytmów ewolucyjnych 7 Parę słów o wielowymiarowym rozkładzie normalnym Podstawowe własności wielowymiarowego rozkładu normalnego: Jeśli X ~ N(µ, Σ), to AX + b ~ N(Aµ + b, AΣΑ T ), dla dowolnej macierzy A i dowolnego wektora b (odpowiednich rozmiarów). estymator wartości oczekiwanej: estymator kowariancji (o największej wiarygodności): estymator kowariancji (nieobciążony): jak generować dane? rozkład Choleskiego macierzy kowariancji Σ = AA T, X = A z + µ, gdzie z to zmienna losowa o standardowym rozkładzie normalnym Piotr Lipiński, Wykład z algorytmów ewolucyjnych 8 4

ES(1+1) Rozpatrujemy problem minimalizacji funkcji celu F : Ω R określonej na przestrzeni poszukiwań Ω = R d. Algorytm ES(1 + 1) to prosta strategia ewolucyjna (stosowana jedynie do bardzo prostych problemów optymalizacji) populacja złożona z jednego osobnika generuje jednego potomka kolejne (jednoelementowe) populacje są wybierane z sumy mnogościowej (jednoelementowej) populacji rodziców i (jednoelementowej) populacji potomków mechanizm auto-adaptacji realizowany jest przez tzw. regułę 1/5 sukcesów Rechenberga Piotr Lipiński, Wykład z algorytmów ewolucyjnych 9 ES(1+1) Algorytm σ = σ 0 ; x = Random-Individual(); Individual-Evaluation(x, F); while not Termination-Condition() y = Mutation(x, σ); Individual-Evaluation(y, F); if F(y) F(x) then x = y; Sigma-Updating(σ, k, θ 1, θ 2 ); return x; Znaczenie parametrów: σ 0 > 0 początkowy zasięg mutacji k, θ 1 > 1, θ 2 < 1 parametry auto-adaptacji Piotr Lipiński, Wykład z algorytmów ewolucyjnych 10 5

ES(1+1) Operator mutacji przekształca osobnika x = (x 1, x 2,, x d ) w osobnika y = (y 1, y 2,, y d ) przez dodanie zaburzenia losowego, niezależnie do każdej współrzędnej i = 1, 2,, d, w następujący sposób: y i = x i + ε i, gdzie ε i jest liczbą rzeczywistą wygenerowaną losowo z rozkładem normalnym N(0, σ 2 ) o średniej 0 i wariancji σ 2 (parametr σ określający zasięg mutacji zmienia się w czasie działania algorytmu). Parametr σ aktualizowany jest w każdej iteracji algorytmu przez regułę 1/5 sukcesów Rechenberga z parametrami θ 1 i θ 2. przez udaną mutację rozumiemy mutację, której wynik y jest lepszy od argumentu x jeśli przez ostatnie k iteracji liczba udanych mutacji była większa niż 1/5 wszystkich wykonanych mutacji, to zasięg mutacji jest zwiększany, tzn. σ = θ 1 σ (dla θ 1 > 1) jeśli przez ostatnie k iteracji liczba udanych mutacji była mniejsza niż 1/5 wszystkich wykonanych mutacji, to zasięg mutacji jest zmniejszany, tzn. σ = θ 2 σ (dla θ 2 < 1) (k jest parametrem odpowiadającym za uwzględniany horyzont czasowy) Badania pokazały, że dobre wyniki osiąga się dla θ 1 = 1/0.82 i θ 2 = 0.82. Piotr Lipiński, Wykład z algorytmów ewolucyjnych 11 ES(1+1) Źródło: A. Auger, N. Hansen, Tutorial: CMA-ES Evolution Strategies and Covariance Matrix Adaptation, https://www.lri.fr/~hansen/gecco2011-cma-es-tutorial.pdf Piotr Lipiński, Wykład z algorytmów ewolucyjnych 12 6

ES(µ+λ) i ES(µ, λ) Rozpatrujemy problem minimalizacji funkcji celu F : Ω R określonej na przestrzeni poszukiwań Ω = R d. Algorytm ES(µ+λ) to strategia ewolucyjna, w której populacja złożona z µ osobnika generuje λ potomków kolejne populacje są wybierane z sumy mnogościowej populacji rodziców i populacji potomków mechanizm auto-adaptacji opiera się na parametrach zakodowanych w dodatkowych chromosomach osobników W algorytmie ES(µ+λ) osobnik składa się z dwóch chromosomów: tradycyjnego chromosomu x R d kodującego element przestrzeni poszukiwań dodatkowego chromosomu σ R d kodującego parametry mutacji Algorytm ES(µ, λ) różni się od ES(µ+λ) jedynie sposobem wyboru kolejnych populacji są one wybierane wyłącznie z populacji potomków. Piotr Lipiński, Wykład z algorytmów ewolucyjnych 13 ES(µ+λ) Algorytm P = Random-Population(µ); Population-Evaluation(P, F); while not Termination-Condition() P c = Parent-Selection(P, λ); Mutation(P c, τ, τ 0 ); Replacement(P, P c ); Population-Evaluation(P, F); return best of P; Znaczenie parametrów: µ liczba osobników w populacji głównej P λ liczba osobników w populacji potomnej P c τ, τ 0 parametry auto-adaptacji Piotr Lipiński, Wykład z algorytmów ewolucyjnych 14 7

ES(µ+λ) Operator mutacji przetwarza każdego osobnika (x c, σ c ) = ((x c 1, xc 2,, xc d ), (σc 1, σ c 2,, σc d )) z populacji Pc. Najpierw modyfikowany jest chromosom σ c przez dodanie zaburzenia losowego, niezależnie do każdej współrzędnej i = 1, 2,, d, w następujący sposób: σ c i = σc i exp(ε i + ε 0 ), gdzie ε i jest liczbą rzeczywistą wygenerowaną losowo z rozkładem normalnym N(0, τ 2 ) o średniej 0 i wariancji τ 2 oraz ε 0 jest liczbą rzeczywistą wygenerowaną losowo z rozkładem normalnym N(0, τ 2 0 ) o średniej 0 i wariancji τ 2 0 wspólną dla wszystkich współrzędnych. Następnie modyfikowany jest chromosom x c przez dodanie zaburzenia losowego, niezależnie do każdej współrzędnej i = 1, 2,, d, w następujący sposób: x c i = xc i + ε i, gdzie ε i jest liczbą rzeczywistą wygenerowaną losowo z rozkładem normalnym N(0, σ c i 2 ) o średniej 0 i wariancji σ c i 2. Badania pokazały, że dobre wyniki osiąga się dla τ = K/ (2d) i τ 0 = K/ (2 d), gdzie K jest pewnym współczynnikiem uczenia. Piotr Lipiński, Wykład z algorytmów ewolucyjnych 15 Przykład problem Inverse Kinematics Inverse Kinematics: Dane jest ramię robota, przytwierdzone do podłoża, składające się z kilku segmentów o ustalonej długości, które może się wyginać (może zmieniać się kąt między segmentami). Celem jest takie ustawienie ramienia robota (określenie wartości kątów między segmentami), żeby koniec ramienia dosięgał podanego punktu docelowego. Problem rozpatrujemy w dwóch (łatwiej) lub trzech (trudniej) wymiarach. Problem można skomplikować: dodając ograniczenia na zakres wartości każdego kąta (segmenty nie mogą przekręcać się o 360 stopni), wprowadzając przeszkody, które ramię musi ominąć, rozpatrując problem w aspekcie dynamicznym (punkt docelowy lub przeszkody mogą się poruszać). Problem taki można sformułować jako problem optymalizacji i rozwiązywać strategiami ewolucyjnymi. α 1 Piotr Lipiński, Wykład z algorytmów ewolucyjnych 16 8

CMA-ES(µ/µ w, λ) ES(1+1) to prosta strategia ewolucyjna (stosowana jedynie do bardzo prostych problemów optymalizacji). ES(µ + λ) i ES(µ, λ) są bardziej efektywne, ale: traktują poszczególne zmienne losowe (wymiary przestrzeni poszukiwań) jako niezależne w wielu popularnych benchmarkach zmienne są niezależne, więc algorytm będzie działał skutecznie w wielu problemach praktycznych zmienne są zależne, więc algorytm mógłby wykorzystać to przykład: budowa klasyfikatora zdjęć satelitarnych z określonych reguł klasyfikujących w niektórych przypadkach używanie nieskorelowanego rozkładu normalnego może opóźniać znajdowanie dobrych punktów przestrzeni poszukiwań Źródło: Nikolaus Hansen, The CMA Evolution Strategy: A Tutorial, https://www.lri.fr/~hansen/cmatutorial.pdf Bardziej zaawansowane strategie ewolucyjne nie zakładają niezależności zmiennych losowych. ES(µ, λ, ρ, κ) CMA-ES(µ/µ w, λ) Piotr Lipiński, Wykład z algorytmów ewolucyjnych 17 CMA-ES(µ/µ w, λ) Algorytm Covariance Matrix Adaptation Evolution Strategy, CMA-ES(µ/µ w, λ), to nowoczesna strategia ewolucyjna niezakładająca niezależności zmiennych losowych, ale używająca macierzy kowariancji do określenia tych zależności. Podstawowe cechy algorytmu CMA-ES(µ/µ w, λ) maksymalizacja funkcji wiarygodności celem jest zwiększenie prawdopodobieństwa generowania dobrych rozwiązań wartość oczekiwana rozkładu prawdopodobieństwa jest uaktualniana, tak aby funkcja wiarygodności dla poprzednio otrzymanych dobrych rozwiązań (przewyższających dotychczas najlepszych) była maksymalna macierz kowariancji jest uaktualniana, tak aby wiarygodność poprzednich kroków rosła obie modyfikacje są oparte na metodzie natural gradient descent Piotr Lipiński, Wykład z algorytmów ewolucyjnych 18 9

CMA-ES(µ/µ w, λ) Rozpatrujemy problem minimalizacji funkcji celu F : Ω R określonej na przestrzeni poszukiwań Ω = R d. Algorytm CMA-ES(µ/µ w, λ) to strategia ewolucyjna, w której populacja złożona z µ osobnika generuje λ potomków kolejne populacje są wybierane z sumy mnogościowej populacji rodziców i populacji potomków mechanizm auto-adaptacji opiera się na parametrach zakodowanych w dodatkowych chromosomach osobników Algorytm CMA-ES(µ/µ w, λ) używa trzech zmiennych modelujących rozkład prawdopodobieństwa opisujący rozwiązania problemu optymalizacji m R d σ R C R d x d osobniki są losowane z użyciem wielowymiarowego rozkładu normalnego N(m, σ 2 C) opisywanego przez powyższe parametry początkowe ustawienie parametrów to m = 0, σ = 1, C = I. Algorytm CMA-ES(µ/µ w, λ) używa też dwóch zmiennych pomocniczych p σ (isotropic evolution path) p C (anisotropic evolution path) Piotr Lipiński, Wykład z algorytmów ewolucyjnych 19 CMA-ES(µ/µ w, λ) W algorytmie CMA-ES(µ/µ w, λ) auto-adaptacja realizowana jest przez kontrolę długości ścieżki ewolucyjnej (ang. Path Length Control) przy użyciu mechanizmu Cumulative Step-Size Adaptation (CSA). Źródło: A. Auger, N. Hansen, Tutorial: CMA-ES Evolution Strategies and Covariance Matrix Adaptation, https://www.lri.fr/~hansen/gecco2011-cma-es-tutorial.pdf Piotr Lipiński, Wykład z algorytmów ewolucyjnych 20 10

CMA-ES(µ/µ w, λ) Cumulative Step-Size Adaptation (CSA) m R d, σ R, σ > 0, p σ = 0 c σ 4/n, d σ 1 (współczynniki uczenia), y := średnia wybranych osobników z populacji aktualizacja wektora średniej m: m := m + σ y, aktualizacja rozmiaru kroku σ: p σ := (1 c σ ) p σ + sqrt( 1 (1 c σ ) 2 ) sqrt(µ) y σ = σ exp(c σ / d σ. ( p σ / E N(0, I) ) ) gdzie µ to czynnik normalizujący (równy sumie odwrotności kwadratów wag użytych przy obliczaniu średniej ważonej y) Piotr Lipiński, Wykład z algorytmów ewolucyjnych 21 CMA-ES(µ/µ w, λ) Covariance Matrix Adaptation (CMA) Rank-One Update m R d, C = I R d x d, σ = 1 R c cov 2/n 2 (współczynnik uczenia), generowanie osobników nowej populacji: y i := N(0, C) x i := m + σ y i y := średnia wybranych osobników z populacji aktualizacja wektora średniej m: m := m + σ y, aktualizacja macierzy kowariancji C: C := (1 c cov ) C + c cov µ y y T gdzie µ to czynnik normalizujący (równy sumie odwrotności kwadratów wag użytych przy obliczaniu średniej ważonej y) Piotr Lipiński, Wykład z algorytmów ewolucyjnych 22 11

CMA-ES(µ/µ w, λ) Algorytm (m, σ, C) = Model-Initialization(); P = Random-Population(m, C); Population-Evaluation(P, F); while not Termination-Condition() Cumulative-Step-size-Adaptation(); Covariance-Matrix-Adaptation(); P = Random-Population(m, C); Population-Evaluation(P, F); return best of P; Znaczenie parametrów: m R d σ R C R d x d osobniki są losowane z użyciem wielowymiarowego rozkładu normalnego N(m, σ 2 C) opisywanego przez powyższe parametry początkowe ustawienie parametrów to m = 0, σ = 1, C = I. Piotr Lipiński, Wykład z algorytmów ewolucyjnych 23 12