WAE Jarosław Arabas Adaptacja i samoczynna adaptacja parametrów AE Algorytm CMA-ES

Podobne dokumenty
CMAES. Zapis algorytmu. Generacja populacji oraz selekcja Populacja q i (t) w kroku t generowana jest w następujący sposób:

ALHE Jarosław Arabas Metaheurystyki w Rn Ewolucja różnicowa EDA CMAES Rój cząstek

ALHE Z11 Jarosław Arabas wykład 11

WAE Jarosław Arabas Pełny schemat algorytmu ewolucyjnego

Strategie ewolucyjne (ang. evolution strategies)

ROZWÓJ ALGORYTMU EWOLUCJI RÓŻNICOWEJ. Konrad Wypchło

Algorytmy ewolucyjne

Metody Rozmyte i Algorytmy Ewolucyjne

Algorytmy ewolucyjne `

Strategie ewolucyjne. Gnypowicz Damian Staniszczak Łukasz Woźniak Marek

Dobór parametrów algorytmu ewolucyjnego

METODY SZTUCZNEJ INTELIGENCJI algorytmy ewolucyjne

WAE Jarosław Arabas Ewolucja różnicowa Rój cząstek EDA

Algorytm Genetyczny. zastosowanie do procesów rozmieszczenia stacji raportujących w sieciach komórkowych

Algorytmy ewolucyjne - algorytmy genetyczne. I. Karcz-Dulęba

Algorytm genetyczny (genetic algorithm)-

Własności eksploatacyjne i eksploracyjne algorytmów ewolucyjnych z mutacja. α stabilna. Andrzej Obuchowicz i Przemysław Prętki

SZTUCZNA INTELIGENCJA

Obliczenia Naturalne - Strategie ewolucyjne

LABORATORIUM 5: Wpływ reprodukcji na skuteczność poszukiwań AE. opracował: dr inż. Witold Beluch

Algorytmy memetyczne (hybrydowe algorytmy ewolucyjne)

ALGORYTMY EWOLUCYJNE W ZASTOSOWANIU DO ROZWIĄZYWANIA WYBRANYCH ZADAŃ OPTYMALIZACJI1

Obliczenia z wykorzystaniem sztucznej inteligencji

Równoważność algorytmów optymalizacji

Techniki optymalizacji

ALGORYTMY EWOLUCYJNE. INTELIGENTNE TECHNIKI KOMPUTEROWE wykład 011. Napór selekcyjny (selektywny nacisk. Superosobniki: SELEKCJA

METODY HEURYSTYCZNE wykład 3

Algorytmy genetyczne. Dariusz Banasiak. Katedra Informatyki Technicznej Wydział Elektroniki

METODY HEURYSTYCZNE wykład 3

Modyfikacje i ulepszenia standardowego algorytmu genetycznego

Algorytmy genetyczne

ALGORYTMY EWOLUCYJNE W OPTYMALIZACJI JEDNOKRYTERIALNEJ

SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

Estymacja parametrów rozkładu cechy

OBLICZENIA EWOLUCYJNE

Bezgradientowe metody optymalizacji funkcji wielu zmiennych. informacje dodatkowe

PLAN WYKŁADU OPTYMALIZACJA GLOBALNA OPERATOR KRZYŻOWANIA ETAPY KRZYŻOWANIA

Rój cząsteczek. Particle Swarm Optimization. Adam Grycner. 18 maja Instytut Informatyki Uniwersytetu Wrocławskiego

Wykorzystanie metod optymalizacji globalnej w ekstrakcji parametrów tranzystora MOS

ALGORYTMY GENETYCZNE ćwiczenia

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych

Algorytmy metaheurystyczne Wykład 6. Piotr Syga

Zadanie 1. Liczba szkód N w ciągu roku z pewnego ryzyka ma rozkład geometryczny: k =

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

Obliczenia ewolucyjne - plan wykładu

LABORATORIUM 4: Algorytmy ewolucyjne cz. 2 wpływ operatorów krzyżowania i mutacji na skuteczność poszukiwań AE

Podejście memetyczne do problemu DCVRP - wstępne wyniki. Adam Żychowski

Fuzja sygnałów i filtry bayesowskie

Ważne rozkłady i twierdzenia c.d.

Algorytmy genetyczne i memetyczne Strategie ewolucyjne

Algorytmy estymacji stanu (filtry)

Rozkłady wielu zmiennych

Programowanie genetyczne, gra SNAKE

Algorytmy ewolucyjne NAZEWNICTWO

Algorytmy genetyczne. Materiały do laboratorium PSI. Studia stacjonarne i niestacjonarne

DE/mid nowy wariant algorytmu ewolucji różnicowej wykorzystujący punkt środkowy populacji

Algorytmy genetyczne. Materiały do laboratorium PSI. Studia niestacjonarne

Matematyka ubezpieczeń majątkowych r.

10. Redukcja wymiaru - metoda PCA

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Metoda największej wiarygodności

Algorytmy stochastyczne, wykład 02 Algorytmy genetyczne

Zawansowane modele wyborów dyskretnych

Estymacja przedziałowa - przedziały ufności dla średnich. Wrocław, 5 grudnia 2014

Algorytmy genetyczne (AG)

Stochastyczne równania różniczkowe, model Blacka-Scholesa

Stosowana Analiza Regresji

Zadania ze statystyki, cz.7 - hipotezy statystyczne, błąd standardowy, testowanie hipotez statystycznych

Algorytmy genetyczne w optymalizacji

Automatyczny dobór parametrów algorytmu genetycznego

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

Algorytmy genetyczne

Wykład 10 Estymacja przedziałowa - przedziały ufności dla średn

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów

METODY STATYSTYCZNE W BIOLOGII

N ma rozkład Poissona z wartością oczekiwaną równą 100 M, M M mają ten sam rozkład dwupunktowy o prawdopodobieństwach:

Katedra Informatyki Stosowanej. Algorytmy ewolucyjne. Inteligencja obliczeniowa

Michał Startek BIOFIZMAT, 12.XII.2014

Procesy stochastyczne

Algorytmy ewolucyjne. Łukasz Przybyłek Studenckie Koło Naukowe BRAINS

Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej

LABORATORIUM 2: Wpływ wielkości populacji i liczby pokoleń na skuteczność poszukiwań AE. opracował: dr inż. Witold Beluch

Prawdopodobieństwo i statystyka

Programowanie genetyczne - gra SNAKE

Procesy stochastyczne

Algorytmy genetyczne

Algorytmy ewolucyjne Część II

Modele i wnioskowanie statystyczne (MWS), sprawozdanie z laboratorium 1

OBLICZENIA EWOLUCYJNE

GRA Przykład. 1) Zbiór graczy. 2) Zbiór strategii. 3) Wypłaty. n = 2 myśliwych. I= {1,,n} S = {polować na jelenia, gonić zająca} S = {1,,m} 10 utils

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa

Problem Komiwojażera - algorytmy metaheurystyczne

Statystyka i eksploracja danych

Parametr Λ w populacji ubezpieczonych ma rozkład dany na półosi dodatniej gęstością: 3 f

Janusz Adamowski METODY OBLICZENIOWE FIZYKI Kwantowa wariacyjna metoda Monte Carlo. Problem własny dla stanu podstawowego układu N cząstek

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova

ALHE. prof. Jarosław Arabas semestr 15Z

Stochastyczne dynamiki z opóźnieniami czasowymi w grach ewolucyjnych

Transkrypt:

WAE Jarosław Arabas Adaptacja i samoczynna adaptacja parametrów AE Algorytm CMA-ES

Dynamika mutacyjnego AE Mutacja gaussowska σ=0.1 Wszystkie wygenerowane punkty Wartość średnia jakości punktów populacji

Dynamika mutacyjnego AE Mutacja gaussowska σ=0.55 Wszystkie wygenerowane punkty Wartość średnia jakości punktów populacji

Dynamika mutacyjnego AE Mutacja gaussowska σ=5 Wszystkie wygenerowane punkty Wartość średnia jakości punktów populacji

Eksploracja i eksploatacja Sterowanie presją selekcji Reprodukcja progowa wartość turniejowa wielkość szranek s θ proporcjonalna modyfikacja wartości funkcji celu (fitness scaling) Im większe zróżnicowanie prawdopodobieństwa selekcji, tym większa presja selekcji Sukcesja jeśli jest elitarna, to zwiększa presję selekcji Rozłożenie populacji w przestrzeni zależne od funkcji celu

Eksploracja i eksploatacja Rozpraszanie populacji w sposób niezależny od wartości funkcji celu Mutacja - zasięg mutacji (wariancja v m ) - im jest większa, tym większa różnorodność Krzyżowanie uśredniające im większe jego prawdopodobieństwo p c, tym mniejsza różnorodność Krzyżowanie wymieniające rozprasza populację poprzez częściową dekorelację wymiarów

Adaptacja parametrów AE Wartości parametrów Sterowanie parametrami uchyb Algorytm ewolucyjny Monitor dynamiki AE wielkości zagregowane generacja rozwiązań Model odniesienia

Zaprogramowane sterowanie parametrami AE Wartości parametrów Sterowanie parametrami Algorytm ewolucyjny generacja rozwiązań

Samoczynna adaptacja parametrów AE Sterowanie AE Populacja punkt przestrzeni przeszukiwań parametry mutacji mutacja z wbudowaną modyfikacją parametrów punkt przestrzeni przeszukiwań parametry mutacji generacja rozwiązań Reprezentacja osobnika zawiera parametry Parametry określają sposób przekształcania punktu

Samoczynna adaptacja parametrów AE Populacja punkt przestrzeni przeszukiwań adaptowane parametry Reprezentacja osobnika zawiera parametry punkt przestrzeni przeszukiwań adaptowane parametry Parametry określają sposób przekształcania punktu generacja rozwiązań

Przykład adaptacji mutacji Sterowanie zaprogramowane Reguła 1/5 liczby sukcesów Samoczynna adaptacja (Schwefel, Rechenberg) adaptacja parametrów

Zaprogramowane sterowanie parametrami

Liczba sukcesów w wyniku mutacji

Zależność tempa zbieżności od zasięgu mutacji (alg. wspinaczkowy) Rysunek z: A. Auger, N. Hansen: CMA-ES Evolution Strategies and Covariance Matrix Adaptation, tutorial, GECCO'2011

Zależność tempa zbieżności od zasięgu mutacji (alg. wspinaczkowy) okno ewolucji Rysunek z: A. Auger, N. Hansen: CMA-ES Evolution Strategies and Covariance Matrix Adaptation, tutorial, GECCO'2011

Reguła 1/5 liczby sukcesów Średnia odległość mutantów od rodzica(średnia długość kroku) jest równa standardowemu odchyleniu Empirycznie dobrana wartość minimalizująca czas dojścia do akceptowalnego poziomu wartości funkcji celu Wraz ze wzrostem wariancji spada proporcja mutantów o jakości lepszej od rodzica

Reguła 1/5 liczby sukcesów Liczba mutacji w wyniku których mutant jest lepszy od rodzica powinna wynosić 1/5 Sterowanie wariancją mutacji Pierwotnie stosowana do (1+1)-ES, czyli algorytmu wspinaczkowego σ(t+k)=a σ(t) gdy p(sukces)>0.2 σ(t+k)= 1 a σ(t) gdy p(sukces)<0.2 0.817 a 1

Mutacja wariantowa z wyborem zależnym od poprawy Wariant mutacji #1 p 1 wybór Wariant mutacji #K p K Prawdopodobieństwo wyboru zależne od tego, ile mutantów było lepsze od ich rodziców Zapominanie

Mutacja wariantowa z wyborem zależnym od poprawy procedure mutation( x) j =select j where p sel ( j)= n s ( j) y=mutation(x, j ) if (success( j )) n s ( j )=n s ( j )+α n s ( j)=β n s ( j) return( y) K k=1 n s (k) ns skumulowana liczba sukcesów dla każdego wariantu mutacji

Samoczynna adaptacja zasięgu mutacji procedure mutation(x) σ j =σ j exp(τ a+τ' a j ) where τ= 1 2n, τ '=1 2 n, a N (0,1),a j N (0,1) y j =x j +σ j d j where d j N (0,1) return( y)

Adaptacja skumulowanego kroku algorytm CSA-ES Rysunek z: A. Auger, N. Hansen: CMA-ES Evolution Strategies and Covariance Matrix Adaptation, tutorial, GECCO'2011

Adaptacja skumulowanego kroku algorytm CSA-ES c σ 4/n, d σ 1, p σ =0 while! stop generuj d i (t) N (0, I ),i=1... λ oblicz q i (t)=q (m(t)+σ(t) d i (t )) sortuj według q i (t) μ Δ(t )= μ 1 i=1 d i (t) m(t+1)=m(t)+σ(t) Δ(t) p σ (t+1)=(1 c σ ) p σ (t )+ 1 (1 c σ ) 2 μ Δ(t) σ(t+1)=σ(t) exp( c ( p σ σ d σ E N (0, I ) 1 )) t t+1

Adaptacja skumulowanego kroku algorytm CSA-ES Rysunek z: A. Auger, N. Hansen: CMA-ES Evolution Strategies and Covariance Matrix Adaptation, tutorial, GECCO'2011

Modyfikacja macierzy kowariancji algorytm CMA-ES (wersja 0) C(1)=I while! stop generuj d i (t) N (0,C (t)),i=1... λ oblicz q i (t)=q (m(t)+σ(t) d i (t )) sortuj według q i (t) μ Δ(t )= μ 1 i=1 d i (t) m(t+1)=m(t)+σ(t ) Δ(t ) C (t+1)=(1 c cov )C (t )+c cov μ Δ(t)Δ(t ) T t t+1

Adaptacja macierzy kowariancji algorytm CMA-ES μ Δ(t)= 1 μ i=1 d i (t) d i (t) σ(t ) N (0,C (t )),i=1...λ C(t+1)=(1 c cov )C(t)+c cov μ Δ(t)Δ(t) T Rysunek z: A. Auger, N. Hansen: CMA-ES Evolution Strategies and Covariance Matrix Adaptation, tutorial, GECCO'2011

Adaptacja macierzy kowariancji algorytm CMA-ES Δ(1) Δ(2) Rysunek z: A. Auger, N. Hansen: CMA-ES Evolution Strategies and Covariance Matrix Adaptation, tutorial, GECCO'2011

Modyfikacja macierzy kowariancji algorytm CMA-ES (wersja 1) C(1)=I, p c (1)=0 while! stop generuj d i (t) N (0,C (t)),i=1... λ oblicz q i (t)=q (m(t)+σ(t) d i (t )) sortuj według q i (t) μ Δ(t )= μ 1 i=1 d i (t) m(t+1)=m(t)+σ(t ) Δ(t) p c (t+1)=(1 c c ) p c (t)+ 1 (1 c c ) 2 μ Δ(t) C (t+1)=(1 c cov )C (t )+c cov p c (t+1) p c (t+1) T t t+1 bezwładność

Adaptacja skumulowanego kroku algorytm CMA-ES C(1) C(2) Δ(2) p c (t+1)=(1 c c ) p c (t)+ 1 (1 c c ) 2 μ Δ(t) C (t+1)=(1 c cov )C (t )+c cov p c (t+1) p c (t+1) T Rysunek z: A. Auger, N. Hansen: CMA-ES Evolution Strategies and Covariance Matrix Adaptation, tutorial, GECCO'2011

Modyfikacja macierzy kowariancji algorytm CMA-ES (wersja 2) C(1)=I while! stop generuj d i (t) N (0,C (t)),i=1... λ oblicz q i (t)=q (m(t)+σ(t) d i (t )) sortuj według q i (t) μ Δ(t )= μ 1 i=1 d i (t) m(t+1)=m(t)+σ(t ) Δ(t) C (t+1)=(1 c cov )C (t )+c cov i=1 d i (t)d i (t) T t t+1 μ uwzględniene wielu wektorów różnic

Pełny CMA-ES C(1)=I, p c (1)=0, p σ (1)=0 while! stop generuj d i (t) N (0,C (t )),i=1... λ oblicz q i (t )=q (m(t )+σ(t ) d i (t)) sortuj według q i (t) μ Δ(t )= μ 1 i=1 d i (t ) m(t+1)=m(t )+σ(t ) Δ(t) p σ (t+1)=(1 c σ ) p σ (t )+ 1 (1 c σ ) 2 μ Δ(t) σ(t+1)=σ(t) exp( c ( p σ σ d σ E N (0, I ) 1 )) p c (t+1)=(1 c c ) p c (t )+ 1 (1 c c ) 2 μ Δ(t ) C(t+1)=(1 c 1 c μ )C (t )+c 1 p c (t+1) p c (t+1) T +c μ i=1 t t+1 μ d i (t)d i (t ) T