Algorytmy genetyczne jako metoda wyszukiwania wzorców. Seminarium Metod Inteligencji Obliczeniowej Warszawa 26 X 2005 mgr inż.

Podobne dokumenty
Algorytmy genetyczne w interpolacji wielomianowej

Algorytmy genetyczne i wielomiany w zagadnieniu interpolacji

PLAN WYKŁADU OPTYMALIZACJA GLOBALNA OPERATOR KRZYŻOWANIA ETAPY KRZYŻOWANIA

Zadanie 5 - Algorytmy genetyczne (optymalizacja)

Obrona rozprawy doktorskiej Neuro-genetyczny system komputerowy do prognozowania zmiany indeksu giełdowego

Algorytm Genetyczny. zastosowanie do procesów rozmieszczenia stacji raportujących w sieciach komórkowych

SCHEMAT ROZWIĄZANIA ZADANIA OPTYMALIZACJI PRZY POMOCY ALGORYTMU GENETYCZNEGO

Algorytm genetyczny (genetic algorithm)-

Metody przeszukiwania

6. Klasyczny algorytm genetyczny. 1

ALGORYTMY GENETYCZNE ćwiczenia

Algorytmy ewolucyjne. Łukasz Przybyłek Studenckie Koło Naukowe BRAINS

Optymalizacja optymalizacji

Algorytmy ewolucyjne - algorytmy genetyczne. I. Karcz-Dulęba

Algorytmy genetyczne w optymalizacji

Algorytmy genetyczne. Paweł Cieśla. 8 stycznia 2009

Obliczenia ewolucyjne - plan wykładu

Algorytmy memetyczne (hybrydowe algorytmy ewolucyjne)

Algorytmy genetyczne. Dariusz Banasiak. Katedra Informatyki Technicznej Wydział Elektroniki

Dobór parametrów algorytmu ewolucyjnego

Algorytmy genetyczne

LABORATORIUM 4: Algorytmy ewolucyjne cz. 2 wpływ operatorów krzyżowania i mutacji na skuteczność poszukiwań AE

Techniki optymalizacji

Algorytmy genetyczne. Materiały do laboratorium PSI. Studia stacjonarne i niestacjonarne

Strategie ewolucyjne (ang. evolu4on strategies)

Algorytmy genetyczne. Materiały do laboratorium PSI. Studia niestacjonarne

Zadania laboratoryjne i projektowe - wersja β

Strefa pokrycia radiowego wokół stacji bazowych. Zasięg stacji bazowych Zazębianie się komórek

Algorytmy ewolucyjne 1

Optymalizacja ciągła

Aproksymacja funkcji a regresja symboliczna

Automatyczny dobór parametrów algorytmu genetycznego

Strategie ewolucyjne. Gnypowicz Damian Staniszczak Łukasz Woźniak Marek

Algorytmy genetyczne

ALHE Z11 Jarosław Arabas wykład 11

Generowanie i optymalizacja harmonogramu za pomoca

Równoważność algorytmów optymalizacji

w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych.

Program "FLiNN-GA" wersja 2.10.β

Algorytmy ewolucyjne NAZEWNICTWO

Standardowy algorytm genetyczny

Programowanie genetyczne, gra SNAKE

Algorytmy stochastyczne, wykład 02 Algorytmy genetyczne

wiedzy Sieci neuronowe

Wstęp do Sztucznej Inteligencji

Algorytmy ewolucyjne Część II

Systemy uczące się Lab 4

Algorytmy genetyczne

Modyfikacja algorytmów retransmisji protokołu TCP.

Teoria algorytmów ewolucyjnych

5. Algorytm genetyczny przykład zastosowania

METODY INŻYNIERII WIEDZY

SZTUCZNA INTELIGENCJA

Programowanie genetyczne - gra SNAKE

Algorytm indukcji klasyfikatora za pomocą EA z automatycznym przełączaniem ukierunkowań

Wielokryterialne harmonogramowanie portfela projektów. Bogumiła Krzeszowska Katedra Badań Operacyjnych

ALGORYTMICZNA I STATYSTYCZNA ANALIZA DANYCH

Metody Rozmyte i Algorytmy Ewolucyjne

LABORATORIUM 3: Wpływ operatorów krzyżowania na skuteczność poszukiwań AE

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16

SZTUCZNA INTELIGENCJA

Inspiracje soft computing. Soft computing. Terminy genetyczne i ich odpowiedniki w algorytmach genetycznych. Elementarny algorytm genetyczny

KORELACJE I REGRESJA LINIOWA

SIECI REKURENCYJNE SIECI HOPFIELDA

Modyfikacje i ulepszenia standardowego algorytmu genetycznego

Testowanie hipotez statystycznych

Haszowanie. dr inż. Urszula Gałązka

METODY HEURYSTYCZNE wykład 3

Plan. Sztuczne systemy immunologiczne. Podstawowy słownik. Odporność swoista. Architektura systemu naturalnego. Naturalny system immunologiczny

Algorytmy ewolucyjne (3)

Algorytmy metaheurystyczne Wykład 11. Piotr Syga

OBLICZENIA EWOLUCYJNE

Katedra Informatyki Stosowanej. Algorytmy ewolucyjne. Inteligencja obliczeniowa

Modelowanie interakcji helis transmembranowych

przetworzonego sygnału

OBLICZENIA EWOLUCYJNE

Algorytmy genetyczne

1.7. Eksploracja danych: pogłębianie, przeszukiwanie i wyławianie

Metody Prognozowania

Regresja logistyczna (LOGISTIC)

Algorytm memetyczny dla rzeczywistego problemu planowania tras pojazdów

Kompletna dokumentacja kontenera C++ vector w -

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Heurystyki. Strategie poszukiwań

PLAN WYKŁADU OPTYMALIZACJA GLOBALNA ZADANIE KOMIWOJAŻERA METODY ROZWIĄZYWANIA. Specyfika zadania komiwojażera Reprezentacje Operatory

Konkurs z przedmiotu eksploracja i analiza danych: problem regresji i klasyfikacji

ALGORYTMY GENETYCZNE (wykład + ćwiczenia)

Kompresja dźwięku w standardzie MPEG-1

Odkrywanie algorytmów kwantowych za pomocą programowania genetycznego

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

METODY INŻYNIERII WIEDZY

UML cz. III. UML cz. III 1/36

Testy De Jonga. Problemy. 1 Optymalizacja dyskretna i ciągła

Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych

Asocjacyjna reprezentacja danych i wnioskowanie

Technologie Informacyjne

Algorytmy i struktury danych

Ćwiczenia nr 7. TEMATYKA: Krzywe Bézier a

METODY HEURYSTYCZNE wykład 3

Transkrypt:

Algorytmy genetyczne jako metoda wyszukiwania wzorców Seminarium Metod Inteligencji Obliczeniowej Warszawa 26 X 2005 mgr inż. Marcin Borkowski

Krótko i na temat: Cel pracy Opis modyfikacji AG Zastosowania testowe i planowane Wyniki testów Uwagi i komentarze

Cel pracy: Pełniejsze wykorzystanie możliwosci Algorytmu Genetycznego [AG] Szybsze działanie Wyszukiwanie wielu rozwiązań naraz Interakcja rozwiązań Wykluczanie sprzeczności Rozłączne pokrycie przestrzeni rozwiązań Unika się kłopotliwego integrowania wyników pochodzących z wielokrotnego użycia klasycznego AG

Cel prac: Znalezienie praktycznych zastosowań zmodyfikowanego AG [MAG] Publikacje ISDA2005 CORES2005 Doktorat :-)

AG vs MAG Jako odnośnik użyty zostanie prosty AG z klasycznymi operatorami i kodowaniem Następne slajdy prezentują nie tylko różnice w budowie obu algorytmów ale również różnice w efektach działania

AG vs MAG Stała populacja Kodowanie binarne Nabór ruletkowy Stała populacja Kodowanie binarne Nabór: Osobniki w populacji są sortowane względem ich przystosowania. Osobniki najsłabsze są następnie zastępowane przez wyniki operatorów genetycznych. Pozwala to najlepszym osobnikom unikać śmierci tak długo aż zostaną wyparte przez osobniki jeszcze lepsze. Wyniki operatorów są umieszczane w tymczasowej kopii populacji co daje równe szanse także osobnikom spisanym na straty

AG vs MAG Klasyczna mutacja zależna od pm. Mutacja sterowana dwoma parametrami: Każdy osobnik podlega mutacji z zadanym prawdopodobieństwem mutacji struktury pms. Każdy bit osobnika wylosowanego do mutacji podlega mutacji (inversja) z prawdopodobieństwem pm. Pm maleje w kolejnych generacjach aż do granicy jednej mutacji na osobnika Wynik mutacji wypiera z populacji osobnika najsłabszego z jeszcze niepodmienionych

AG vs MAG Krzyżowanie jedno punktowe Krzyżowanie jednopunktowe: Wyniki krzyżowania, podobnie jak mutacji, zastępują najsłabsze osobniki w kopii populacji Nabór powoduje namnażanie się osobników lepszych co zwiększa ich szanse na przetrwanie Nabór nie namnaża super osobników, dłuższe przetrwanie w populacji gwarantuje ich pozycja w rankingu

AG vs MAG Klonowanie jest powszechne i pożądane - zwieksza zbieżność Rozwiązaniem jest jedno z optimów w przeszukiwanej przestrzeni Nie ma klonowania, unika się wielu osobników tej samej postaci Rozwiązań jest kilka, są to najlepsze optima w przeszukiwanej przestrzeni. Ilość tych optimów zależy od rozmiaru populacji

AG vs MAG Funkcja oceny uwzględnia wiedzę tylko o jednym osobniku Funkcja oceny: Ocena rozbita jest na dwa etapy, poza zwyczajową ewaluacją osobnika następuje redukcja oceny na skutek działania czynnika ścisku. Ścisk wyznaczany jest dopiero gdy znane są wszystkie funkcje oceny Dla problemów reprezentowanych seriami wylicza się serię ocen cząstkowych. Do oceny końcowej brana jest wartość uśredniona

AG vs MAG Brak czynnika ścisku Ścisk: W zamyśle ma działać jako narzędzie limitujące ilość podobnych do siebie osobników zamieszkujących tą samą niszę poprzez redukowanie ich wartości dopasowania. Nie wszystkie osobniki w niszy będą tak samo zredukowane - redukcja jest proporcjonalna do dotychczasowej wartości dopasowania. Poza numeryczną wartością dopasowania pod uwagę brane są także inne czynniki np:. skuteczność rozwiązania, długość itp Osobniki są podobne wtedy, gdy dla tych samych zadanych problemów dają podobne wyniki ( podobna fizyczna budowa nie wystarcza)

AG vs MAG Rozłączne pokrycie przestrzeni rozwiązań brak Rozwiązania niesprzeczne zawsze :-) Ściśk zapewnia rozłączne pokrycie, osobniki należące do więcej niż jednej niszy cierpią na większy ścisk. Sprzeczności występują tylko w problemach prezentowanych seriamii

AG vs MAG Działa teza o cegiełkach Populacja ma zbiegać do optimum Za różnorodność populacji odpowiada mutacja Działa teza o cegiełkach, wymaga modyfikacji dowodu Populacja ma nieustannie poszukiwać lepszego zestawu optimów Za różnorodność populacji odpowiada mutacja i ścisk

AG vs MGA Algorytm wychodzi od losowej populacji Po osiągnięciu zbieżności dalsze działanie nie ma sensu Algorytm wychodzi od losowej populacji Po osiągnięciu pierwszych wyników zawsze można oczekiwać lepszych lub zmienić probem i pozwolić populacji przemigrować do nowych nisz

AG vs MAG W jednym przebiegu można rozwiązać jeden problem naraz W jednym przebiegu można szukać rozwiązania (rozwiązań) wspólnego dla serii problemów

Aplikacje MAG Testowane: Predykcja szeregów czasowych Uzupełnianie braków w szeregach czasowych Drugie zastosowanie obejmuje pierwsze Planowane Wyszukiwanie powtarzalnych sekwencji (okresowość) Wyszukiwanie zbioru reguł opisujących sieć neuronową Heurystyki do gier oparte na regułach

Data Fitting Postać zadania: Szereg czasowy pozbawiony części danych Szereg taki jest traktowany jako zbiór zadań, dla których poszukiwane są wspólne rozwiązania tutaj wzorce. Wzorce nie mogą być sprzeczne Wzorce mają odwzorowywać możliwie największą część szeregu Wzorce będą użyte do odtworzenia braków w szeregu

Data Fitting Postać rozwiązania: Wzorzec ma postać: (v 1,0)(v 2,o 2 )...(v n,o n ) Odstęp pomiędzy węzłami jest limitowany Dane wejściowe i wartości v i są skalowane do przedziału <-1,1> Uzupełnianie wzorca nie jest częścią MGA, ale oba procesy można przeplatać dość swobodnie

Data Fitting Każdy wzorzec/osobnik sprawdza się tylko w pewnych określonych warunkach, stopień zgodności jest reprezentowany współczynnikiem zaufania Do zadania można włączyć liniowe skalowanie wzorców co rozszerza ich użyteczność Do rozwiązania są brane tylko wzorce o dużym współczynniku zaufania i wysokiej wartości dopasowania Możliwe jest kilka alternatywnych rozwiązań lub też kompletny brak rozwiązania

Data Fitting Oceny dopasowania (fitness) Do wyszukania wzorców wykorzystuje się dane uczące (znaną część szeregu). Jedna znana dana jest z szeregu usuwana, a następnie uzupełniana przez wzorce Jeśli predykcja jest zgodna z przewidywaniem - ocena cząstkowa jest wysoka, jeśli nie i jednocześnie współczynnik zaufania jest wysoki ocena cząstkowa jest niska Proces ten jest powtarzany dla wszystkich znanych danych w szeregu Finalna ocena jest średnią z najlepszych ocen cząstkowych

Data Fitting Parametry procesu MAG ilość bitów wartości w węźle 12 maksymalny dystans między węzłami 4 ilość węzłów we wzorcu <3,4> prawdopodobieństwo krzyżowania 45% prawdopodobieństwo mutacji struktury 50% rozmiar populacji 70 Początkowe generacje MAG <300,3000> Wtórne kroki MAG <100,300> Oczekiwany minimalny poziom zaufania <75,95>

Data Fitting Wyniki: Odtwarzanie prostego szeregu (52% braków - kwadraty) Najlepsze wzorce bez skalowania: (1.00,0)(0.00,1)(-1.00,2)(1.00,4) (-1.00,0)(0.00,1)(1.00,2)(-1.00,4) Najlepsze wzorce ze skalowaniem: (0.768,0)(0.768,4)(0.768,8) 1 0 0 5 1 0 1 5 2 0 2 5 3 0 3 5 4 0 4 5 50-1

Data Fitting Wyniki: Sinus 26 % braków Najlepsze wzorce ze skalowaniem: (-0.75,0)(-0.55,1)(-0.35,2) ( 0.86,0)( 0.72,1)( 0.59,2) ( 0.89,0)(-0.07,1)(-0.99,2) (-1.00,0)( 0.03,1)( 0.99,2) 0,8-0,2 0 1 0 2 0 3 0 4 0 50 60-1,2

To już wszystko! Dziękuję za uwagę, proszę o pytania i komentarze. Marcin Borkowski marcinbo@mini.pw.edu.pl