Wyk ady z algorytmów genetycznych Cz¾eść 2: Model algorytmu genetycznego przy dowolnej reprezentacji rozwi azań ¾

Podobne dokumenty
Teoria algorytmów ewolucyjnych

Pochodne cz ¾astkowe i ich zastosowanie.

Równania ró znicowe wg A. Ostoja - Ostaszewski "Matematyka w ekonomii. Modele i metody".

1 Rozk ad normalny. Szczególnym przypadkiem jest standardowy rozk ad normalny N (0; 1), wartości

Wyznaczniki, macierz odwrotna, równania macierzowe

Wyk ad II. Stacjonarne szeregi czasowe.

Ocena ryzyka kredytowego

1 Praktyczne metody wyznaczania podstawowych miar bez zastosowania komputerów

Ekstrema funkcji wielu zmiennych.

Funkcje dwóch zmiennych

Wprowadzenie do równań ró znicowych i ró zniczkowych.

Konkurs Matematyczny, KUL, 30 marca 2012 r.

O zgodności procedur jednoczesnego testowania zastosowanych do problemu selekcji zmiennych w modelu liniowym

Wyk ady z algorytmów genetycznych Cz¾eść 1: Podstawowe informacje o algorytmach. genetycznych.

1 Testy statystyczne. 2 Rodzaje testów

1 Próba a populacja. Nasze rozwa zania zaczniemy od przedyskutowania podstawowych poj ¾eć statystycznych,

PRAWA ZACHOWANIA. Podstawowe terminy. Cia a tworz ce uk ad mechaniczny oddzia ywuj mi dzy sob i z cia ami nie nale cymi do uk adu za pomoc

1 Wieloczynnikowa analiza wariancji

1 Regresja liniowa cz. I

1 Rekodowanie w podgrupach i obliczanie wartości w podgrupach

Wyk lad 7 Baza i wymiar przestrzeni liniowej

Spacery losowe generowanie realizacji procesu losowego

1 Praktyczne metody wyznaczania podstawowych miar przy zastosowaniu programu EXCEL

Wyk lad 4 Dzia lania na macierzach. Określenie wyznacznika

1 Miary asymetrii i koncentracji

Teoretyczne podstawy algorytmów komputerowego modelowania procesów Markowa

Wyk lad 3 Wyznaczniki

1 Analiza wariancji H 1 : 1 6= 2 _ 1 6= 3 _ 1 6= 4 _ 2 6= 3 _ 2 6= 4 _ 3 6= 4

Podstawowe działania w rachunku macierzowym

WSTEP ¾ DO ANALIZY MATEMATYCZNEJ

Statystyka w analizie i planowaniu eksperymentu

Rozdzia l 11. Przestrzenie Euklidesowe Definicja, iloczyn skalarny i norma. iloczynem skalarnym.

1 Poj ¾ecie szeregu czasowego

Statystyka w analizie i planowaniu eksperymentu

(wymiar macierzy trójk¹tnej jest równy liczbie elementów na g³ównej przek¹tnej). Z twierdzen 1 > 0. Zatem dla zale noœci

Bardzo silnie z poj ¾eciem populacji statystycznej zwiazane ¾ jest poj ¾ecie próby statystycznej.

Wyk lad 7 Metoda eliminacji Gaussa. Wzory Cramera

Wyk lad 5 W lasności wyznaczników. Macierz odwrotna

Wyk ady z analizy portfelowej, cz ¾eść II

Układy równań i nierówności liniowych

Rachunek prawdopodobieństwa

SCHEMAT ROZWIĄZANIA ZADANIA OPTYMALIZACJI PRZY POMOCY ALGORYTMU GENETYCZNEGO

Normy wektorów i macierzy

Wyk lad 8 macierzy i twierdzenie Kroneckera-Capellego

Indukcja. Materiały pomocnicze do wykładu. wykładowca: dr Magdalena Kacprzak

Ocena ryzyka kredytowego

1. Rozwiązać układ równań { x 2 = 2y 1

Algorytm genetyczny (genetic algorithm)-

A i. i=1. i=1. i=1. i=1. W dalszej części skryptu będziemy mieli najczęściej do czynienia z miarami określonymi na rodzinach, które są σ - algebrami.

Matematyczne Podstawy Kognitywistyki

IV. UK ADY RÓWNAÑ LINIOWYCH

ALGORYTMY GENETYCZNE ćwiczenia

Wyk lad 9 Podpierścienie, elementy odwracalne, dzielniki zera

Statystyka w analizie i planowaniu eksperymentu

(α + β) a = α a + β a α (a + b) = α a + α b (α β) a = α (β a). Definicja 4.1 Zbiór X z dzia laniami o wyżej wymienionych w lasnościach

Metoda Simplex bez użycia tabel simplex 29 kwietnia 2010

1 Wieloczynnikowa analiza wariancji ciag ¾ dalszy

1 Działania na zbiorach

Spis treści. 3 Geometria analityczna 20

TEORIA GIER W EKONOMII WYKŁAD 1: GRY W POSTACI EKSTENSYWNEJ I NORMALNEJ

Wyk ady z analizy portfelowej, cz¾eść II

2.1. Ruch, gradient pr dko ci, tensor pr dko ci odkszta cenia, Ruchem cia a B nazywamy dostatecznie g adko zale ne od czasu t jego odkszta cenie

Algorytmy genetyczne. Paweł Cieśla. 8 stycznia 2009

Zastosowania wyznaczników

Proste Procesy Stochastyczne i ich zastosowania.

Zagadnienie Dualne Zadania Programowania Liniowego. Seminarium Szkoleniowe Edyta Mrówka

Wyk lad 11 1 Wektory i wartości w lasne

Rozdzia l 10. Formy dwuliniowe i kwadratowe Formy dwuliniowe Definicja i przyk lady

Dekompozycje prostej rzeczywistej

Wyk lad 4 Macierz odwrotna i twierdzenie Cramera

Wyk lad 6 Podprzestrzenie przestrzeni liniowych

Matematyka II. De nicje, twierdzenia 21 czerwca 2011

Zadanie 5 - Algorytmy genetyczne (optymalizacja)

EGZAMIN MATURALNY Z MATEMATYKI

WNIOSKOWANIE W MODELU REGRESJI LINIOWEJ

Wykład 4. Określimy teraz pewną ważną klasę pierścieni.

Algorytmy ewolucyjne - algorytmy genetyczne. I. Karcz-Dulęba

RACHUNEK MACIERZOWY. METODY OBLICZENIOWE Budownictwo, studia I stopnia, semestr 6. Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska

Algorytmy genetyczne. Materiały do laboratorium PSI. Studia niestacjonarne

ep do matematyki aktuarialnej Micha l Jasiczak Wyk lad 2 Tablice trwania życia

Suma i przeciȩcie podprzestrzeni, przestrzeń ilorazowa Javier de Lucas

Formy kwadratowe. Mirosław Sobolewski. Wydział Matematyki, Informatyki i Mechaniki UW. 14. wykład z algebry liniowej Warszawa, styczeń 2017

ZASADA SZUFLADKOWA DIRICHLETA

1 Wiadomości wst ¾epne

Marcin Studniarski. Wyk ady z analizy portfelowej, cz ¾eść I. semestr letni 2018/19.

Opis programu do wizualizacji algorytmów z zakresu arytmetyki komputerowej

Ciała i wielomiany 1. przez 1, i nazywamy jedynką, zaś element odwrotny do a 0 względem działania oznaczamy przez a 1, i nazywamy odwrotnością a);

Rozdział 6. Pakowanie plecaka. 6.1 Postawienie problemu

F t+ := s>t. F s = F t.

gdy wielomian p(x) jest podzielny bez reszty przez trójmian kwadratowy x rx q. W takim przypadku (5.10)

Zaawansowane metody numeryczne

w ramach Europejskiego Funduszu Spo ecznego Marcin Studniarski Wyk ady z analizy portfelowej, cz ¾eść I

5. Rozwiązywanie układów równań liniowych

1 Układy równań liniowych

6. Projektowanie składu chemicznego stali szybkotn cych o wymaganej twardo ci i odporno ci na p kanie

Ryzyko inwestycji nansowych

Ryzyko inwestycji nansowych

P (A B) = P (A), P (B) = P (A), skąd P (A B) = P (A) P (B). P (A)

Wyk lad 14 Cia la i ich w lasności

Transkrypt:

Wyk ady z algorytmów genetycznych Cz¾eść 2: Model algorytmu genetycznego przy dowolnej reprezentacji rozwi azań ¾ Marcin Studniarski Wydzia Matematyki i Informatyki Uniwersytetu ódzkiego Algorytm RHS i jego w asności Algorytm RHS (Random Heuristic Search poszukiwanie losowe heurystyczne) jest określony przez populacj ¾e poczatkow ¾ a¾ P 0 oraz regu ¾e przej scia, która dla danej populacji P i wyznacza nowa¾ populacj¾e P i+. Iterujac ¾, otrzymujemy ciag ¾ populacji: P 0! P! P 2! ::: Ka zda populacja sk ada si ¾e ze skończonej ilości osobników b ¾ed acych ¾ elementami ustalonego zbioru skończonego, zwanego przestrzenia¾ poszukiwań. Populacje sa¾ multizbiorami, co oznacza, ze te same osobniki moga¾ wyst ¾epować wielokrotnie w danej populacji. Aby formalnie opisać dowoln a¾ populacj ¾e P jako obiekt matematyczny, za ó zmy, ze = fc 0 ; c ; :::; c n g. Liczb ¾e n nazywamy rozmiarem przestrzeni poszukiwań. Niech K f0; ; :::; n g b ¾edzie podzbiorem z o zonym z indeksów osobników, które sa¾ reprezentowane w populacji P. Przypuśćmy, ze osobnik c i wyst¾epuje v i 2 N razy w populacji P (i 2 K). Wówczas populacj¾e P mo zemy zde niować jako zbiór par uporzadkowanych ¾ P = f(c i ; v i ) : i 2 Kg : Rozmiarem populacji P nazywamy liczb ¾e r := X i2k Zadanie 2. Wykazać, ze ilo sć ró znych populacji o rozmiarze r, jakie mo zna utworzyć z elementów przestrzeni poszukiwań o rozmiarze n, wynosi n + r : r v i :

Przedstawiony powy zej model osobnika i populacji mo zna uprościć, identy kuj ac ¾ z podzbiorem liczb ca kowitych = f0; ; :::; n g. Wówczas populacja mo ze być reprezentowana jako wektor cz ¾esto sci v = (v 0 ; v ; :::; v n ) T ; () gdzie v i jest liczba¾ egzemplarzy osobnika i 2 w populacji (liczba ta wynosi zero, jeśli i-ty osobnik w populacji nie wyst ¾epuje). Zauwa zmy, ze taka reprezentacja populacji zawiera w sobie informacj ¾e o jej rozmiarze, który wynosi Xn r = v i : (2) W dalszych rozwa zaniach b ¾edzie przydatna ogólniejsza reprezentacja populacji, która nie jest uzale zniona od konkretnego rozmiaru. Mianowicie przyjmujemy, ze populacja jest opisana przez wektor p = (p 0 ; p ; :::; p n ) T ; (3) gdzie p i jest proporcja, ¾ w jakiej osobnik i 2 jest reprezentowany w populacji. Wspó rz ¾edne wektora p musza ¾zatem być nieujemne i sumować si¾e do, co oznacza, ze wektory populacji sa¾ elementami zbioru ( ) Xn := x 2 R n : x i 0 (8i); x i = : (4) Jeśli dany jest rozmiar populacji r, to zale zność mi ¾edzy wektorami () i (3) jest dana wzorem v = rp. Zbiór (4) jest sympleksem w przestrzeni R n. Jednak nie wszystkie punkty tego sympleksu odpowiadaja¾ skończonym populacjom. Dla ustalonego r 2 N, wszystkie populacje rozmiaru r tworza¾ nast¾epuj acy ¾ podzbiór sympleksu : ( ) r Xr n = Xn x 2 R n : x i 2 N [ f0g (8i); x i = r : r Zde niujemy teraz odwzorowanie G :! zwane heurystyka ¾[6] lub operatorem generacyjnym [4], w nast ¾epuj acy ¾ sposób: dla danego wektora p 2 opisujacego ¾ aktualn a¾ populacj ¾e, wartość G(p) jest 2

wektorem wyznaczajacym ¾ rozk ad prawdopodobieństwa, z którego losowana jest próba r-elementowa tworz aca ¾ nast ¾epn a¾ populacj ¾e. Zatem i-ta wspó rz ¾edna G(p) i wektora G(p) jest prawdopodobieństwem wylosowania osobnika i 2 do nowej populacji (w ka zdym z r niezale znych losowań ze zwracaniem). Regu ¾e przejścia nazywamy dopuszczalna, ¾ je zeli jest z o zeniem heurystyki G z losowaniem próby w wy zej opisany sposób: (p) = próba(g(p)) dla p 2 : Oczywiście tak zde niowana regu a przejścia jest niedeterministyczna, tzn. stosujac ¾ ja¾ wielokrotnie do tego samego wektora p, otrzymujemy na ogó ró zne wyniki. Twierdzenie Dla dowolnej populacji p o rozmiarze r prawdopodobieństwo, ze nast ¾epn a¾ populacja ¾(równie z o rozmiarze r) jest q, wynosi r! (G(p) j ) rq j (rq j )! Dowód. Poniewa z populacje o rozmiarze r sa¾ elementami zbioru r Xr n, mo zemy za o zyć, ze q = v dla pewnego wektora v o wspó rz¾ednych b ¾ed acych ¾ r nieujemnymi liczbami ca kowitymi, spe niaj acymi ¾ warunek (2). Aby wektor q zosta wybrany jako nast¾epna populacja, wynikiem v 0 losowań spośród wszystkich r losowań musi być (osobnik o numerze) 0, wynikiem v losowań musi być, itd. Prawdopodobieństwo wylosowania j-tego osobnika w pojedynczym losowaniu wynosi G(p) j. Obliczymy teraz prawdopodobieństwo wybrania wektora q w wyniku r niezale znych losowań. Poni zsze rozumowanie jest uogólnieniem schematu Bernoulliego (por. [2, str. 49]) na przypadek, gdy zamiast dwóch mo zliwych wyników ka zdego doświadczenia ( sukces lub pora zka ) mamy n mo zliwych wyników (wylosowanie osobnika 0; ; :::; n ). Przestrzenia¾ zdarzeń elementarnych jest tutaj zbiór r = f! = (! 0 ;! ; :::;! r ) :! i 2 ; i = 0; ; :::; r g; gdzie! i oznacza wynik i-tego losowania. Prawdopodobieństwo otrzymania konkretnego ciagu ¾ wyników! wynosi Pr(f!g) = (G(p) j ) #j ; 3 :

gdzie #j oznacza liczb ¾e wspó rz¾ednych wektora! równych j. Niech S(q) r oznacza zbiór zdarzeń elementarnych sprzyjajacych ¾ wylosowaniu populacji q, tzn. ( ) Xn S(q) :=! 2 r : #j = v j ; j = 0; ; :::; n ; v i = r : Zadanie 3. Wykazać, ze liczba elementów zbioru S(q) jest dana wzorem r r v0 r (v0 + ::: + v ::: n 3 ) r! = v 0 v v n 2 v 0!v!:::v n! : Wówczas prawdopodobieństwo wylosowania populacji q wynosi Pr(S(q)) = X!2S(q) (G(p) j ) #j = X!2S(q) (G(p) j ) v j : (5) Zauwa zmy, ze (dla ustalonego q) wszystkie sk adniki sumy po prawej stronie wzoru (5) sa¾ jednakowe, poniewa z nie zale z a¾ od!. Zatem suma ta jest równa jednemu sk adnikowi pomno zonemu przez liczb ¾e elementów S(q): n r! Y Pr(S(q)) = (G(p) j ) v j (G(p) j ) v j = r! v 0!v!:::v n! v j! = r! (G(p) j ) rq j (rq j )! : 2 Algorytm RHS jako ańcuch Markowa Ciag ¾ zmiennych losowych fx t g t2n0 (gdzie N 0 := N [ f0g) określonych na tej samej przestrzeni probabilistycznej (Z; F; Pr), o wartościach w przeliczalnym zbiorze S (przestrzeni stanów) nazywamy ańcuchem Markowa, je zeli dla ka zdego t 2 N i ka zdego ciagu ¾ s 0 ; s ; :::; s t 2 S spe niony jest warunek Pr (X t = s t j X t = s t ; :::; X = s ; X 0 = s 0 ) = Pr (X t = s t j X t = s t ) ; (6) o ile Pr(X t = s t ; :::; X = s ; X 0 = s 0 ) > 0 (por. [2, str. 264]). Macierz P = [p i;j ] i;j2s nazywamy macierza¾ stochastyczn a, ¾ je zeli wszystkie jej wyrazy sa¾ nieujemne oraz suma ka zdego wiersza wynosi : X p i;j 0 (8i; j 2 S), p i;j = (8i 2 S): 4 j2s

Macierz stochastyczn a¾ (t) = [ i;j (t)] i;j2s nazywamy macierza¾ przej scia ańcucha Markowa fx t g t2n0 w t-tym kroku, t, je zeli i;j (t) = Pr (X t = s j j X t = s i ) (7) dla wszystkich j 2 S oraz i takich, ze Pr(X t = s i ) > 0. Je zeli fx t g t2n0 jest ańcuchem Markowa, to rozk ad zmiennej losowej X 0 nazywamy rozk adem pocz atkowym. ¾ ańcuch Markowa nazywamy jednorodnym (w czasie), gdy istnieje macierz = [ i;j ] i;j2s b ¾ed aca ¾ dla ka zdego t jego macierza¾ przejścia w t-tym kroku. Powróćmy teraz do opisu algorytmu RHS przedstawionego w. Algorytm ten generuje ciag ¾ populacji ^p, (^p), 2 (^p); :::, (8) gdzie ^p jest ustalona¾ populacja¾ poczatkow ¾ a. ¾ Algorytm RHS mo zna uwa zać za ańcuch Markowa, gdzie zbiorem stanów jest r Xr n, a wartościami kolejnych zmiennych losowych (wektorów losowych) X 0, X, X 2,... sa¾ populacje (8). Poniewa z populacja poczatkowa ¾ jest ustalona, wi ¾ec mo zna przyjać, ¾ ze X 0 jest wektorem losowym przyjmujacym ¾ z prawdopodobieństwem pojedyncza¾ wartość ^p. Oznaczmy przez Pr (q j p) = Pr((p) = q) prawdopodobieństwo otrzymania populacji q w aktualnej iteracji algorytmu RHS pod warunkiem, ze poprzednia¾ populacja¾ jest p. Z Twierdzenia otrzymujemy Pr(q j p) = r! (G(p) j ) rq j (rq j )! : (9) Poniewa z powy zsze wyra zenie nie zale zy od numeru iteracji t, wnioskujemy stad, ¾ ze algorytm RHS jest jednorodnym ańcuchem Markowa ze sta ¾ a macierza¾ przejścia = [ p;q ] p;, gdzie S = r Xr n, a elementy p;q = Pr(q j p) sa¾ dane wzorem (9). 3 Wyznaczenie macierzy przejścia dla algorytmu genetycznego Obecnie wyznaczymy macierz przejścia dla algorytmu genetycznego, b ¾ed acego ¾ szczególnym przypadkiem algorytmu RHS. Za ó zmy, ze pojedyncza iteracja 5

algorytmu genetycznego sk ada si ¾e z trzech kolejno wykonywanych operacji: selekcji proporcjonalnej (zwanej inaczej ruletkowa), ¾ krzy zowania i mutacji. Rozwa zmy najpierw algorytm, który w ka zdej iteracji dokonuje jedynie selekcji. W procesie selekcji proporcjonalnej wykorzystywana jest funkcja przystosowania f :! R +. Funkcj¾e t¾e mo zemy rozwa zać jako wektor f = (f 0 ; f ; :::; f n ) 2 R n, którego wspó rz¾edne sa¾ dane wzorem f k := f(k). Przy za o zeniu, ze poprzednia¾ populacja¾ jest p, prawdopodobieństwo wylosowania osobnika i 2 przy pojedynczym uruchomieniu ko a ruletki wynosi G(p) i = Pr([i] j p) s = v i f i P n v jf j = p i f i P n p jf j ; (0) gdzie symbol [i] oznacza, ze wybieramy pojedynczego osobnika i, a nie ca ¾ a populacj ¾e, a dolny indeks s oznacza, ze mamy do czynienia z algorytmem genetycznym wykorzystuj acym ¾ jeden operator selekcj ¾e. Aby otrzymać ca ¾ a nowa¾ populacj ¾e, nale zy wylosować r-elementow a¾ prób ¾e z rozk adu prawdopodobieństwa (0). Prawdopodobieństwo wygenerowania populacji q w ten sposób wynosi na podstawie wzorów (9) i (0) Pr(q j p) s = r! (Pr([j] j p) s ) rq j : () (rq j )! Przejdźmy teraz do przypadku, gdy iteracja algorytmu genetycznego przebiega w dwóch etapach: najpierw selekcja, potem krzy zowanie. Oznaczmy przez c i;j;k prawdopodobieństwo, ze w wyniku krzy zowania osobnika i z osobnikiem j otrzymujemy osobnika k. Dok adny sposób realizacji krzy zowania pary osobników nie jest w tym opisie istotny zale zy on od reprezentacji osobnika i przyj ¾etego wariantu krzy zowania (np. jednopunktowe lub wielopunktowe). Poniewa z do niniejszego modelu potrzebny jest nam jeden potomek dla pary rodziców, przyjmujemy, ze jest on losowany z prawdopodobieństwem /2 spośród dwóch potomków wytworzonych przez dany wariant krzy zowania. Gwarantuje to spelnienie warunku c i;j;k = c j;i;k ; (2) poniewa z prawdopodobieństwo otrzymania osobnika k z pary rodziców (i; j) jest takie samo jak z pary (j; i), tj. przy zamianie rodziców rolami. Prawdopodobieństwo wygenerowania osobnika k przy poprzedniej populacji p po- 6

przez zastosowanie najpierw selekcji, a potem krzy zowania, wynosi Xn Xn Pr([k] j p) sc = c i;j;k Pr([i] j p) s Pr([j] j p) s : (3) Podobnie jak w przypadku wzoru (), otrzymujemy nast ¾epuj acy ¾ wzór na elementy macierzy przejścia: Pr(q j p) sc = r! (Pr([j] j p) sc ) rq j : (4) (rq j )! Rozwa zmy teraz sytuacj ¾e, gdy pojedyncza iteracja obejmuje wszystkie trzy etapy: selekcj ¾e, krzy zowanie i mutacj ¾e (w podanej kolejności). Za ó zmy, ze mutacja polega na zamianie jednego elementu przestrzeni poszukiwań na inny, z określonym prawdopodobieństwem. Oznaczmy przez u i;j prawdopodobieństwo, ze osobnik i 2 w wyniku mutacji zostanie zamieniony na osobnika j. Otrzymujemy w ten sposób macierz U = [u i;j ] i;j2 o wymiarach n n. Prawdopodobieństwo wygenerowania osobnika j 2 w wyniku kolejnego zastosowania trzech wymienionych operacji, wynosi (przy za o zeniu, ze poprzednia¾ populacja¾ jest p) Xn Pr([j] j p) scm = u ij Pr([i] j p) sc : (5) Elementy macierzy przejścia algorytmu genetycznego sa¾ zatem dane wzorem Pr(q j p) scm = r! (Pr([j] j p) scm ) rq j : (6) (rq j )! 4 Wyznaczenie heurystyki algorytmu genetycznego Podobnie jak w poprzednim rozdziale zak adamy, ze iteracja algorytmu genetycznego sk ada si ¾e z selekcji proporcjonalnej, krzy zowania i mutacji (wykonywanych w podanej kolejności). 7

!, otrzymujemy na pod- Rozwa zaj ac ¾ selekcj¾e jako operator F : stawie wzoru (0) F(p) = f T p (f 0p 0 ; f p ; :::; f n p n ) T = diag(f)p ; (7) f T p gdzie diag(f) jest macierza¾ diagonalna¾ o wyrazach na g ównej przekatnej ¾ b ¾ed acych ¾ kolejnymi wspó rz ¾ednymi wektora f. Opiszemy teraz dzia anie krzy zowania na wektor populacji. W tym celu zde niujemy operator C :! taki, ze k-ta wspó rz¾edna C(p) k wektora C(p) jest prawdopodobieństwem, ze osobnik k 2 zostanie utworzony w wyniku jednokrotnego wykonania operacji krzy zowania na populacji p. Operacja ta polega na wylosowaniu (ze zwracaniem) dwóch osobników i, j 2 (stanowi acych ¾ par ¾e rodziców) wed ug rozk adu prawdopodobieństwa p, a nast ¾epnie wykonaniu krzy zowania tych osobników w sposób opisany w 3, co daje w wyniku jednego potomka. Prawdopodobieństwo uzyskania w ten sposób osobnika k otrzymujemy przez zsumowanie prawdopodobieństw wszystkich mo zliwych zdarzeń prowadzacych ¾ do takiego wyniku: Xn Xn C(p) k = c i;j;k p i p j : (8) Dla ka zedgo k 2 zde niujmy macierz C k := [c i;j;k ] i;j2 ; (9) ktora na podstawie wzoru (2) jest symetryczna. Wówczas poszczególne wzory (8) dla ró znych osobników k mo zna po ¾ aczyć w jeden wzór zapisany w postaci macierzowej: C(p) = p T C 0 p; p T C p; :::; p T C n p T : (20) Przejdźmy teraz do opisu dzia ania mutacji. Odpowiedni operator U :! powinien mieć t¾e w asność, ze U(p) k jest prawdopodobieństwem wygenerowania osobnika k 2 w wyniku jednokrotnego wykonania operacji na populacji p Odbywa si¾e to poprzez wylosowanie osobnika i 2 z populacji wed ug rozkladu p, a nast ¾epnie poddanie go mutacji (której konkretny sposób wykonania nie jest tu istotny) w celu otrzymania innego osobnika. Uwzgledniajac ¾ wszystkie zdarzenia prowadzace ¾ do wyniku k, otrzymamy Xn U(p) k = p i u ik : (2) 8

Zatem w postaci macierzowej U(p) = (p T U) T = U T p: (22) Heurystyka algorytmu genetycznego jest z o zeniem trzech odwzorowań: G = U C F: (23) Zatem, uwzgl¾edniaj ac ¾ wzory (7), (20) i (22) i oznaczajac ¾ dla skrócenia D f := diag(f), otrzymujemy G(p) = U(C(F(p))) = U T C(F(p)) = U T F(p) T C 0 F(p); F(p) T C F(p); :::; F(p) T C n F(p) T = (f T p) 2 U T p T Df T C 0 D f p; p T Df T C D f p; :::; p T Df T C n D f p T (24) : 5 Kryteria zatrzymania algorytmu genetycznego Rozwa zamy ponownie algorytm RHS w ogólnej postaci. Za ó zmy, ze przestrzeń poszukiwań daje si ¾e przedstawić w postaci sumy dwóch roz ¾ acznych podzbiorów: = + [ ; + \ = ;: (25) Przyjmujemy, ze celem algorytmu RHS jest znalezienie jakiegokolwiek elementu zbioru +. Element i uwa zamy za znaleziony w iteracji t, je zeli aktualna populacja t (^p) zawiera przynajmniej jeden egzemplarz osobnika i, co jest równowa zne nierówności t (^p) i > 0. W szczególności jako zbiór + mo zemy przyjać ¾. zbiór elementów optymalnych: + = j 2 : f(j) = max f(i) ; (26) i2 2. zbiór elementów "-optymalnych dla pewnego " > 0: + = j 2 : f(j) max f(i) " : (27) i2 9

Niech S oznacza podzbiór zbioru stanów S = r Xr n z o zony z populacji nie zawierajacych ¾ zadnego elementu zbioru + : S := p 2 S : p i = 0; 8i 2 + : (28) Symbolem S + b ¾edziemy oznaczać zbiór pozosta ych populacji: S + := SnS. Populacje nale z ace ¾ do S + zawieraja¾ przynajmniej jeden egzemplarz jakiegoś osobnika nale z acego ¾ do +. Mo zemy zatem powiedzieć, ze element zbioru + zosta znaleziony w iteracji t, je zeli populacja wygenerowana w iteracji t nale zy do S +. W dalszym ciagu ¾ A t b ¾edzie oznaczać zdarzenie, ze w iteracji t nie znaleziono elementu + : A t := t (^p) 2 S : (29) Twierdzenie 2 [2, str. 38] Niech fh g 2 b ¾edzie rozbiciem zbioru zdarzeń elementarnych Z na zdarzenia o dodatnim prawdopodobieństwie. Dla dowolnych zdarzeń A i B, je sli Pr(B) > 0, to X Pr(A j B) = Pr(A j B \ H ) Pr(H j B): f:pr(b\h )>0g Nast¾epuj acy ¾ lemat podaje oszacowanie z góry prawdopodobieństwa, ze w ciagu ¾ t pierwszych iteracji nie znaleziono elementu zbioru +. Lemat 3 Za ó zmy, ze dla pewnej liczby 2 (0; ) zachodzi nierówno sć X p;q ; 8p 2 S: (30) Wówczas dla ka zdego t 2 N mamy Pr (A \ A 2 \ ::: \ A t ) t : (3) Dowód. Stosujemy indukcj ¾e ze wzgl ¾edu na t. Sprawdzimy najpierw, ze nierówność (3) zachodzi dla t =. Istotnie, z za o zenia (30) dla p = ^p otrzymujemy Pr(A ) = X Pr(q j ^p) = X ^p;q : Przypuśćmy teraz, ze (3) zachodzi dla t = s. Bez zmniejszenia ogólności mo zemy za o zyć, ze Pr (A \ A 2 \ ::: \ A s ) > 0; (32) 0

gdy z w przeciwnym przypadku warunek (3) jest automatycznie spe niony dla wszystkich t s. Uwzgl ¾edniaj ac ¾ (32), mamy z de nicji prawdopodobieństwa warunkowego i z za o zenia indukcyjnego Pr (A \ A 2 \ ::: \ A s \ A s+ ) = Pr(A \ A 2 \ ::: \ A s ) Pr(A s+ j A \ A 2 \ ::: \ A s ) s Pr(A s+ j A \ A 2 \ ::: \ A s ): (33) Niech fh sg 2 b ¾edzie rodzina¾ zdarzeń postaci H s := k (^p) = p ;k ; k = ; :::; s : (34) Inaczej mówiac, ¾ H s jest zdarzeniem, ze w ciagu ¾ s pierwszych iteracji wygenerowano nast ¾epuj acy ¾ ciag ¾ populacji: ^p; p ; ; :::; p ;s : (35) Poniewa z zbiór populacji S jest skończony, wi¾ec tak ze rodzina fh sg 2 jest skończona. Dla ró znych indeksów i 2, ciagi ¾ populacji (35) sa¾ ró zne, jeśli p ;k 6= p 2 ;k dla przynajmniej jednego k 2 f; :::; sg; wówczas H s 6= H s 2. Odrzucajac ¾ zdarzenia H s o zerowym prawdopodobieństwie, mo zemy za o zyć, ze Pr(H s ) > 0 dla ka zdego 2. Zatem rodzina zdarzeń (34) jest rozbiciem Z na roz ¾ aczne zdarzenia o dodatnim prawdopodobieństwie. Z twierdzenia 2 otrzymujemy = Pr(A s+ j A \ A 2 \ ::: \ A s ) (36) X Pr(A s+ j A \ ::: \ A s \ H) s Pr(H s j A \ ::: \ A s ): f:pr(a \:::\A s\h s)>0g Jeśli Pr(A \ ::: \ A s \ H s) > 0, to A \ ::: \ A s \ H s 6= ;. Stad ¾ i z de nicji odpowiednich zbiorów (równości (29) i (34)) wynika, ze p ; ; :::; p ;s 2 S i w konsekwencji H s A \ ::: \ A s. Zatem A \ ::: \ A s \ H s = H: s (37) Z równości (36) i (37) otrzymujemy = Pr(A s+ j A \ A 2 \ ::: \ A s ) X f:pr(a \:::\A s\h s )>0g Pr(A s+ j H s ) Pr(H s j A \ ::: \ A s ): (38)

Zajmiemy si¾e teraz oszacowaniem wyra zenia Pr(A s+ j H s ). Z de nicji ańcucha Markowa (równość (6)) oraz z za o zenia (30) wynika, ze Pr(A s+ j H) s = Pr( s+ (^p) 2 S j k (^p) = p ;k ; k = ; :::; s) = X Pr( s+ (^p) = q j k (^p) = p ;k ; k = ; :::; s) = X Pr( s+ (^p) = q j s (^p) = p ;s ) = X p;s ;q : (39) Z warunków (38) i (39) dostajemy Pr(A s+ j A \ A 2 \ ::: \ A s ) X Pr(H s j A \ ::: \ A s ) = ; (40) f:pr(a \:::\A s\h s)>0g gdzie ostatnia równość wynika z faktu, ze rodzina fh s : Pr(A \ ::: \ A s \ H s) > 0g jest rozbiciem A \:::\A s na zdarzenia o dodatnim prawdopodobieństwie. ¾ aczac ¾ nierówności (33) i (40), otrzymujemy Pr (A \ A 2 \ ::: \ A s \ A s+ ) s+ ; co kończy dowód indukcyjny nierówności (3). Korzystajac ¾ z lematu 3, mo zna atwo oszacować z do u prawdopodobieństwo, ze w ciagu ¾ t pierwszych iteracji zosta znaleziony element +. Istotnie, oznaczmy przez B t zdarzenie, ze w iteracji t znaleziono element + : B t := ZnA t := t (^p) 2 S + : (4) Z wzorów (3) i (4) wynika, ze przy za o zeniach lematu 3 Pr (B [ ::: [ B t ) = Pr((ZnA ) [ ::: [ (ZnA t )) = Pr(Zn(A \ ::: \ A t )) = Pr(A \ ::: \ A t ) t : (42) Zajmiemy si ¾e teraz oszacowaniem prawdopodobieństwa znalezienia poszukiwanego elementu przez algorytm genetyczny. 2

Twierdzenie 4 Rozwa zamy ogólny model algorytmu genetycznego opisany w 3, b ¾ed acy ¾ szczególnym przypadkiem algorytmu RHS,w którym losowanie próby (p) polega na kolejnym wykonaniu operacji selekcji, krzy zowania i mutacji. Za ó zmy, ze zbiór poszukiwanych elementów + ma postać + = fj ; j 2 ; :::; j m g; (43) gdzie ilo sć poszukiwanych rozwiazań ¾ m jest ograniczona z do u przez pewna¾ znana¾ liczb ¾e naturalna ¾ m. Za ó zmy ponadto, ze istnieje liczba 2 (0; =n] spe niaj aca ¾ warunek u i;j ; 8i; j 2 : (44) Wówczas prawdopodobieństwo znalezienia elementu zbioru + w ciagu ¾ pierwszych t iteracji jest równe co najmniej ( m) rt : (45) Dowód. Wyka zemy, ze spe nione sa¾ za o zenia lematu 3 przy = ( m) r. Lewa¾ stron¾e warunku (30) mo zna zapisać w postaci X p;q = X Pr(q j p) scm = Pr(S j p) scm = Pr([ ] j p) scm r = Pr([ + ] j p) scm r ; (46) gdzie Pr(S j p) scm oznacza prawdopodobieństwo wygenerowania populacji nale z acej ¾ do S z populacji p poprzez zastosowanie heurystyki algorytmu genetycznego G danej wzorem (23), a nast ¾epnie wylosowanie r-elementowej próby z rozk adu prawdopodobieństwa G(p). Natomiast Pr([ ] j p) scm oznacza prawdopodobieństwo wygenerowania osobnika nale z acego ¾ do z populacji p poprzez jednokrotne wykonanie operacji selekcji, krzy zowania i mutacji (co odpowiada wylosowaniu próby jednoelementowej z rozk adu G(p)). Trzecia równość w (46) wynika z niezale zności r zmiennych losowych tworza- ¾ cych prób ¾e r-elementow a. ¾ Z warunków (5) i (44) wynika, ze dla dowolnych p 2 S i j 2 Xn Pr([j] j p) scm Pr([i] j p) sc = ; (47) 3

gdzie końcowa rowność wynika stad, ¾ ze sumujemy prawdopodobieństwa roz- ¾ acznych zdarzeń, które w sumie stanowia¾ zdarzenie pewne. Z (43) i (47) otrzymujemy mx mx Pr([ + ] j p) scm = Pr([j l ] j p) scm = m m: (48) l= Teraz z warunków (46) i (48) wynika nierówność X p;q ( m) r : Stad ¾ na podstawie lematu 3 mamy dla ka zdego t 2 N l= Pr (A \ ::: \ A t ) ( m) rt : Zatem, korzystajac ¾ z (42), prawdopodobieństwo znalezienia elementu zbioru + w ciagu ¾ pierwszych t iteracji mo zna oszacować nast ¾epuj aco: ¾ Pr (B [ ::: [ B t ) = Pr(A \ ::: \ A t ) ( m) rt ; (49) co kończy dowód twierdzenia. Wniosek 5 Dla dowolnej liczby 2 (0; ) oznaczmy przez t min () najmniejsza¾ liczb ¾e iteracji gwarantuj ac ¾a¾ znalezienie elementu zbioru + z prawdopodobieństwem. Wówczas ln( ) t min () ; (50) r ln( m) gdzie dxe oznacza najmniejsza¾ liczb ¾e ca kowit a¾ wi ¾eksz a¾ lub równa¾ x. Dowód. Wybieraj ac ¾ liczb ¾e iteracji t spe niaj ac ¾ a¾ nierówność ( m) rt ; (5) mamy zagwarantowane znalezienie elementu zbioru + z prawdopodobieństwem równym co najmniej. Nierówność (5) jest równowa zna nierówności t ln( ) r ln( m) : (52) Dla ka zdej liczby naturalnej t spe niaj acej ¾ (5) (a wi¾ec tak ze (52)) zachodzi nierówność t min () t. Zatem t min () musi spe niać tak ze nierówność (50), co nale za o wykazać. 4

6 Przypadek kodowania o dowolnej liczebności alfabetu B ¾edziemy teraz rozwa zać model algorytmu genetycznego opisany w pracy [3], w którym osobniki reprezentowane sa¾ jako ańcuchy symboli z pewnego alfabetu. Bez zmniejszenia ogólności mo zna zak adać, ze symbolami tymi sa¾ elementy zbioru liczb ca kowitych modulo c: Z c := f0; ; :::; c g; (53) gdzie c 2. Dla dowolnych a; b 2 Z c de niujemy operator dodawania modulo c nast ¾epuj aco: ¾ a b := (a + b) mod c: (54) Ka zdy element a 2 Z c posiada dok adnie jeden element odwrotny wzgl¾edem dzia ania, który oznaczamy a. Dla uproszczenia zapisu u zywamy oznaczenia a b := a ( b): (55) Zakladamy, ze przestrzeń poszukiwań algorytmu genetycznego jest zbiorem wszystkich ańcuchów o d ugości ` z o zonych z elementów zbioru Z c ( ańcuch rozumiemy jako skończony ciag ¾ elementów). Dzia ania i mo zemy w naturalny sposób rozszerzyć na zbiór, wykonuj ac ¾ je na odpowiednich wspó rz ¾ednych. Zadanie 4. Wykazać, ze (Z c ; ) jest grupa. ¾ Zak adamy dalej, ze operacja mutacji w tym modelu algorytmu genetycznego dzia a w nast ¾epuj acy ¾ sposób: najpierw losowana jest maska mutacji m 2, a nast ¾epnie wybrany osobnik y 2 jest zamieniany na y m. Liczb ¾e 2 [0; =2) nazywamy wska znikiem mutacji, je zeli wyznacza ona rozk ad prawdopodobieństwa ^ 2 w nast ¾epuj acy ¾ sposób: n(m) ^ m := ( )` n(m) ; (56) c gdzie n(m) jest liczba¾ niezerowych elementów (cyfr) ańcucha m. We wzorze (56) liczba ^ m jest prawdopodobieństwem wyboru ańcucha m jako maski mutacji, n(m) jest ilościa¾ wspó rz ¾ednych wektora y podlegajacych ¾ mutacji (tj. zamianie na jedna¾ z pozosta ych c cyfr, co odbywa si¾e przez dodanie modulo c odpowiedniej niezerowej wspó rz ¾ednej maski), a ` n(m) jest ilościa¾ wspó rz ¾ednych wektora y nie podlegajacych ¾ mutacji. 5

Zadanie 5. Wykazać, ze prawdopodobieństwo zamiany osobnika i 2 w wyniku tak określonej mutacji na osobnika j wynosi (por. [5, str. 474]) n(j i) u i;j = j i = ( )` n(j i) : (57) c Wniosek 6 Przy za o zeniach wniosku 5, je sli elementy macierzy U dane sa¾ wzorem (57), wówczas 2 3 t min () ln( ) ` 6r ln m 7 : (58) c, sk ad ¾ po prostych przeksz- Dowód. Poniewa z 2 [0; =2), wi¾ec c c ta ceniach otrzymujemy Stad ¾ i z (57) otrzymujemy c : (59) u i;j c ` : Przyjmujac ¾ := c ` widzimy, ze spe nione sa¾ za o zenia twierdzenia 4. Nierówność (58) wynika zatem z (50). Uwaga. Wniosek 6 dla m = pokrywa si¾e z wynikiem uzyskanym w [] dla przypadku, gdy zachodzi nierówność (59). Dla m > wynik uzyskany tutaj jest istotnie lepszy. References [] D. Greenhalgh, S. Marshall, Convergence criteria for genetic algorithms, SIAM Journal on Computing 30 (2000), 269-282. [2] J. Jakubowski, R. Sztencel, Wst ¾ep do teorii prawdopodobieństwa, Wydanie II, Script, Warszawa, 200. [3] G.J. Koehler, S. Bhattacharya, M.D. Vose, General cardinality genetic algorithms, Evolutionary Computation 5 (998), 439-459. 6

[4] C.R. Reeves, J.E. Rowe, Genetic Algorithms Principles and Perspectives: A Guide to GA Theory, Kluwer, Boston, 2003. [5] J.E. Rowe, M.D. Vose, A.H. Wright, Structural search spaces and genetic operators, Evolutionary Computation 2 (2004), 46-493. [6] M.D. Vose, The Simple Genetic Algorithm: Foundations and Theory, MIT Press, Cambridge, Massachusetts, 999. 7