Wyk lad 2: Algorytmy heurystyczne

Podobne dokumenty
Wyk lad 3: Klasy P, NP i Algorytmy heurystyczne

Algorytmy zrandomizowane

Optymalizacja. Symulowane wyżarzanie

Techniki optymalizacji

Algorytmy zrandomizowane

Statystyka w analizie i planowaniu eksperymentu

Wyk lad 9 Podpierścienie, elementy odwracalne, dzielniki zera

Optymalizacja. Wybrane algorytmy

Statystyka w analizie i planowaniu eksperymentu

Przeszukiwanie lokalne

Statystyka w analizie i planowaniu eksperymentu

Ekonomia matematyczna i dynamiczna optymalizacja

Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa

Matematyka dyskretna - wykład - część Podstawowe algorytmy kombinatoryczne

Elementy wspo łczesnej teorii inwersji

Układy stochastyczne

Procesy stochastyczne

Statystyka w analizie i planowaniu eksperymentu

Wyk lad 7 Baza i wymiar przestrzeni liniowej

Statystyka w analizie i planowaniu eksperymentu

Algorytmy MCMC (Markowowskie Monte Carlo) dla skokowych procesów Markowa

Wyk lad 7 Metoda eliminacji Gaussa. Wzory Cramera

Wyk lad 4 Macierz odwrotna i twierdzenie Cramera

Struktury danych i złożoność obliczeniowa Wykład 7. Prof. dr hab. inż. Jan Magott

WYK LAD 2: PODSTAWOWE STRUKTURY ALGEBRAICZNE, PIERWIASTKI WIELOMIANÓW, ROZK LAD FUNKCJI WYMIERNEJ NA U LAMKI PROSTE

Prawa wielkich liczb, centralne twierdzenia graniczne

Wyk lad 10 Przestrzeń przekszta lceń liniowych

Algorytmy metaheurystyczne podsumowanie

Metody Rozmyte i Algorytmy Ewolucyjne

19 marzec, Łańcuchy Markowa z czasem dyskretnym. Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136

Teoria systemów uczacych się i wymiar Vapnika-Chervonenkisa

1 Wykład 4. Proste Prawa wielkich liczb, CTG i metody Monte Carlo

Optymalizacja. Przeszukiwanie lokalne

Wyk lad 11 1 Wektory i wartości w lasne

Prawdopodobieństwo i statystyka

Wyk lad 9 Baza i wymiar przestrzeni liniowej

Algorytm Metropolisa-Hastingsa

komputery? Andrzej Skowron, Hung Son Nguyen Instytut Matematyki, Wydział MIM, UW

Generowanie ciągów pseudolosowych o zadanych rozkładach przykładowy raport

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova

Spacery losowe generowanie realizacji procesu losowego

Drzewa decyzyjne. Nguyen Hung Son. Nguyen Hung Son () DT 1 / 34

Rozdzia l 11. Przestrzenie Euklidesowe Definicja, iloczyn skalarny i norma. iloczynem skalarnym.

Przykłady problemów optymalizacyjnych

Prawdopodobieństwo i statystyka

Wyk lad 9 Przekszta lcenia liniowe i ich zastosowania

Wyk lad 12. (ii) najstarszy wspó lczynnik wielomianu f jest elementem odwracalnym w P. Dowód. Niech st(f) = n i niech a bedzie

Teoretyczne podstawy informatyki

STYSTYSTYKA dla ZOM II dr inż Krzysztof Bryś Wykad 1

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Struktury danych i złożoność obliczeniowa Wykład 5. Prof. dr hab. inż. Jan Magott

Prawdopodobieństwo i statystyka

STATYSTYKA MATEMATYCZNA dla ZPM I dr inż Krzysztof Bryś wyk lad 1,2 KLASYCZNY RACHUNEK PRAWDOPODOBIEŃSTWA

Wykład na Politechnice Krakowskiej w dniu 18 stycznia 2012 r. ZADAŃ I ALGORYTMÓW W OPTYMALIZACJI DYSKRETNEJ

Wyk lad 3 Wielomiany i u lamki proste

Prawdopodobieństwo i statystyka

Uczenie nienadzorowane

Wyk lad 8 macierzy i twierdzenie Kroneckera-Capellego

Typy algorytmów losowych. ALP520 - Wykład z Algorytmów Probabilistycznych p.2

Wstęp do sieci neuronowych, wykład 14 Maszyna Boltzmanna

Grzegorz Mazur. Zak lad Metod Obliczeniowych Chemii UJ. 14 marca 2007

Modelowanie komputerowe

Techniki optymalizacji

Wstęp do programowania

Komputerowa Analiza Danych Doświadczalnych

26 marzec, Łańcuchy Markowa z czasem ciągłym. Procesy Stochastyczne, wykład 7, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136

Metody Rozmyte i Algorytmy Ewolucyjne

Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna.

Wyk lad 5 W lasności wyznaczników. Macierz odwrotna

Metody inwersji Bayesowskiej -L7- IGF PAN, 21.IV.2005

Technologie Informacyjne

Wybrane rozkłady zmiennych losowych. Statystyka

po lożenie cz astki i od czasu (t). Dla cz astki, która może poruszać siȩ tylko w jednym wymiarze (tu x)

Metody teorii gier. ALP520 - Wykład z Algorytmów Probabilistycznych p.2

Wyk lad 4 Dzia lania na macierzach. Określenie wyznacznika

ZŁOŻONOŚĆ OBLICZENIOWA ALGORYTMÓW

Normy wektorów i macierzy

9. Schematy aproksymacyjne

Wyk lad 9 Baza i wymiar przestrzeni liniowej

Algorytmy MCMC i ich zastosowania statystyczne

1 Wykład 3 Generatory liczb losowych o dowolnych rozkładach.

Wyk lad 2 Podgrupa grupy

Równoległy algorytm wyznaczania bloków dla cyklicznego problemu przepływowego z przezbrojeniami

Stopę zbieżności ciagu zmiennych losowych a n, takiego, że E (a n ) < oznaczamy jako a n = o p (1) prawdopodobieństwa szybciej niż n α.

Spis treści 3 SPIS TREŚCI

Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.

Techniki optymalizacji

Zagadnienie Dualne Zadania Programowania Liniowego. Seminarium Szkoleniowe Edyta Mrówka

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie

Optymalizacja ciągła

Analiza Algorytmów 2018/2019 (zadania na laboratorium)

Literatura. Leitner R., Zacharski J., Zarys matematyki wyŝszej dla studentów, cz. III.

Podstawy symulacji komputerowej

METODY SZTUCZNEJ INTELIGENCJI algorytmy ewolucyjne

Struktury danych i złozoność obliczeniowa. Prof. dr hab. inż. Jan Magott

1 Metody rozwiązywania równań nieliniowych. Postawienie problemu

Programowanie dynamiczne i algorytmy zachłanne

Metody Numeryczne Optymalizacja. Wojciech Szewczuk

Indeks odwzorowania zmiennej zespolonej wzgl. krzywej zamknietej

Transkrypt:

Wyk lad 2: Algorytmy heurystyczne Nguyen Hung Son son@mimuw.edu.pl Streszczenie Page 1 of 21

Page 2 of 21 1. Algorytmy aproksymacji Przyk lad: Problem szeregowania zadań: Dane: n zadań wraz z czasem ich realizacji, m identycznych maszyn. Problem: Uszeregować te zadania w taki sposób, aby minimalizować okres realizacji wszystkich zadań. Przyk lad rozwiazania: Algorytm List scheduling : Idea: Wybierz kolejne zadanie z listy zadań i uszereguj go do pierwszej wolnej maszyny. Czy ten algorytm jest dobry?

Page 3 of 21 PROBLEM: Co zrobić z problemami, które sa NP-trudne? Zak ladajac, że instancje sa losowo generowane, oszacuj óczekiwany wynik. Np. ścieżka Hamiltona w grafach. Problem: jak ustalić w laściwy rozk lad prawdopodobieństwa? Wykonaj algorytm nad-wielomianowy z nadzieja, że czasem skończy on w rozsadnym czasie. Używaj jakiegoś algorytmu heurystycznego + pokaż, że dzia la dostatecznie dobrze (pod naszym nadzorem)

Page 4 of 21 DEFINICJA PROBLEMU OPTYMALIZACJI: Dla każdej instancji I definiujemy: S(I) - zbiór możliwych rozwiazań; f : S(I) R - jakość rozwiazań; Problem maksymalizacji/minimalizacji = szukanie w S(I) rozwiazania maksymalizujacego/mimimalizuj acego funkcje f; OP T (I) = arg max σ S(I) f(σ) najlepsze rozwiazanie. Np. problem plecaku. Za lożenie techniczne: dane wejściowe i wartości funkcji f sa liczbami wymiernymi. f(σ) jest wielomianowa wzg. σ. używamy kodu binarnego do obliczenia rozmiaru problemu. dane wejściowe i wartości funkcji f s a liczbami wymiernymi. f(σ) jest wielomianowa wzg. σ. używamy kodu binarnego do obliczenia rozmiaru problemu.

Page 5 of 21 1.1. NPtrudny problem optymalizacji problem optymalizacji Π jest NP-trudny, jeśli można redukować jakiś inny, NP-trudny problem decyzyjnego do niego. czyli istnieje wielomianowa transformacja Turinga. Algorytm aproksymacji: każdy algorytm, który zwraca rozs adne rozwi azanie ; chcemy mieć dobry algorytm. Jak mierzyć?

1.2. Absolutny wsp. aproksymacji Def.: Algorytm A ma absolutny wsp. aproksymacji k, jeśli dla każdej instancji I A(I) OP T (I) k 1.3. Wzgl edny wsp. aproksymacji Def.: Algorytm A ma wzgl edny wsp. aproksymacji α, jeśli dla każdej instancji I mamy: Page 6 of 21 A(I) α OP T (I) A(I) α OP T (I) dla problemu minimalizacji dla problemu maksimalizacji

Page 7 of 21 2. Algorytmy zrandomizowane Sa to algorytmy, których dzia lania jest uzależnione od pewnych czynników losowych. Istnieja 2 typy randomizacji: Monte Carlo: typ algorytmów dajacych wynik optymalny z prawdopodobieństwem bliskim 1 (po dostatecznie d lugim czasie dzia lania); Las Vegas: typ algorytmów daj acych zawsze wynik optymalny, a randomizacja s luży jedynie przyspieszeniu algorytmu;

Page 8 of 21 2.1. Przyk lad metody Las Vegas 1. zrandomizowany QuickSort: Wybierzmy losowy element x ze zbioru S; Podzielmy S na podzbiory S 1 zawierajacy elementy mniejsze od x, i S 2 zawierajacy elementy wieksze od x; rekurencyjnie stosujemy powyższe kroki dla S 1 i S 2 uwaga: z lożoność średnia jest taka sama, jak w przypadku QuickSort, ale losowość elementu dzielacego zapobiega pojawieniu z lośliwych danych. 2. drzewo BST:

Page 9 of 21 2.2. Przyk lad metody Monte Carlo 1. Sprawdzić czy AB = C, gdzie A, B, C sa macierzami rzedu n n: Dok ladny algorytm mnożenia macierzy dzia la w czasie n 3 ; zrandomizowany algoprytm: Losowo wybierz kilka wektorów x i sprawdź, czy A(Bx) = Cx ; jeśli nie zachodzi równość, to bardzo szybko można znaleźć kontr-przyk lady! 2. Ca lkowanie: Liczymy średnia wartość funkcji w losowych punktach; 3. Problem komiwojażera: Losujemy kolejna permutacje;

3. Algorytmy aproksymacji Page 10 of 21 Źród la prawdziwej losowości: zegar systemowy; użytkownik komputera (czas naciśniecia klawisza, ruch myszki); przyrzady pomiarowe (szumy, licznik Geigera próbki promieniotwórczej) W praktyce te źród la s luża do inicjalizacji ciagów liczb pseudolosowych w generatorach programowych. Np. Generator Marsaglii (1991): x n = (x n s + x n r + c)modm gdzie c = 1 jeśli poprzednia suma przekroczy la M, c = 0 w p.p.; np. x n = (x n 2 + x n 21 + c) mod 6, okres 10 16 np. x n = (x n 22 x n 43 c) mod 2 32 5, okres 10 414

Page 11 of 21 3.1. Liczby losowe o zadanym rozk ladzie Metoda ogólna: Odwracanie dystrybuanty: Mamy generować zm. losowa X o gestości f(x). Niech F (x) bedzie dystrybuanta tego rozk ladu. Wówczas X = F 1 (u) bedzie zmienna o żadanym rozk ladzie, gdzie u jest zm. o rozk ladzie jednostajnym na przedziale [0, 1]; Metoda eliminacji: Znamy g estości f(x) na dziedzinie D, jednak nie znamy F 1. Niech M b edzie ograniczeniem górnym rozk ladu f(x); repeat u1 = random(d); u2 = random(0,m); until u2 < f(u1);

Page 12 of 21 4. Simulated Annealing: Analogia do fizyki Monte Carlo Annealing Probabilistyczna metoda wspinaczkowa Statystyczne sch lodzenie Stochastyczna relaksacja Cechy charakterystyczne: Znajduje rozsadne rozwiazanie niezależnie od punktu startowego Kontrolowany czas obliczeń Latwe w użyciu: zaczynamy od rozwi azania nie koniecznie optymalnego, a algorytm wykonuje reszt e roboty!!!

5. Algorytmy aproksymacji Page 13 of 21 Wych ladzanie: proces termiczny do otrzymania materia lu o niskim stanie energii. 2-etapowy proces: 1. Zwiekszamy temperature do maksymalnej (temp. topnienia) 2. Bardzo powoli obniżamy temperature dopóki czastki materialne rozmieszczaja sie w stanie krystalicznym. Ciecz: chaotyczny ruch czastek, wysoki stan energii wewnetrznej. Kryszta l: czastki sa uk ladane w uporzadkowanej strukturze, niski stan energetyczny Stan krystaliczny można otrzymać jeśli maks. temp. jest dostatecznie wysoka i sch lodzenie jest dostatecznie wolne. W p.p. materia l b edzie zamrożony do meta-stabilnego stanu (lokalne minimum) Szybkie sch lodzenie hartowanie stan meta-stabilny

5.1. Pierwsze pomys ly Algorytmy aproksymacji Page 14 of 21 (1953, Metropolous, Rosenbluth, Teller and Teller) Problem optymalizacji: Zbiór możliwych konfiguracji (stanów, rozwiazań) R = {k 1, k 2,..., k N } Każda konfiguracja k i ma otoczenie R i R. Funkcja kosztu C : R R +. Koszty moga być interpretowane jako energie. Zamiast C(k i ) piszemy C i. Stan k j jest akceptowany z k i z prawdopodobieństwem { 1 jeśli Cj C i 0, P accept (j, i) = wpp. e C j C i c gdzie c jest temperatura uk ladu.

Page 15 of 21 5.2. Schemat Algorytmu begin INITIALIZE(c 0,konfiguracja poczatkowa K 0 ); M := 0; repeat repeat LOSUJ now a konfiguracjȩ K j R i ; C ij = C j C i ; if ( C ij 0) then K i := K j ; ) else if (e C ij c M > random(0, 1) end then K i := K j ; until Równowaga jest prawie osi agalna c M+1 := f(c M ); M := M + 1; until Kryterium STOPU zachodzi (system zamrożony)

6. Algorytmy aproksymacji Page 16 of 21 1. Stany R = {1, 2,..., N} 2. Macierz generacji: G(c k ) = [G ij (c k )] G ij (c k ) = χ R i (j) R i = p-wo generowania j z i 3. Macierz akceptacji: A(c k ) = [A ij (c k )] { 1 jeśli Cj C i 0, A ij (c k ) = e C j C i c k wpp. 4. Stochastyczna macierz przejść: P(c k ) = [P ij (c k )] { Gij (c k ) A ij (c k ) jeśli i j, P ij (c k ) = 1 P il (c k ) wpp. l i

Page 17 of 21 6.1. Zbieżność lokalna SA Twierdzenie 1: Lańcuch Markowa o macierzy przejść [P ij (c k )] jest stacjonarny, tzn. istnieje niezależnie od j, oraz gdzie N 0 (c) = j R q i = lim k P r({x(k) = i X(0) = j}) q i (c) = 1 N 0 (c) C(i) e c e C(i) c <,

Page 18 of 21 6.2. Lańcuch Markowa Kiedy istnieje stan stacjonarny? Lemat (o istnieniu) Jeśli lańcuch Markowa o macierzy przejść [P ij (c k )] jest skończony, nieprzywiedlny, acykliczny i jednorodny to istnieje jednoznaczny rozk lad stacjonarny q = (q i ) i R Lemat Jeśli ij q i P ij = q j P ji to q = (q i ) i R jest jednoznacznym rozk ladem stacjonarnym dla LM.

6.3. Dowód zbieżności lokalnej 1. Jednorodność, skończoność... 2. Nieprzywiedlność: wynika z wyboru otoczeń. i,j R k 1 ( P k ) ij > 0 3. Jeśli lańcuch Markowa ( LM) o macierzy przejść P ij (c k ) jest nieprzywiedlny oraz ( j R P jj > 0) to LM jest acykliczny tzn i R NW D({n N {0} : (P n ) ii > 0}) = 1 Page 19 of 21 4. Wystarczy pokazać, że rozk lad q i (c) = 1 N 0 (c) C(i) e c (1) gdzie N 0 (c) = j R 2) e C(i) c <, jest stacjonarny. (wynika z lematu

Page 20 of 21 6.4. Zbieżność globalna SA Twierdzenie Algorytm Simulated Annealing jest asymptotycznie zbieżny (tzn. lim k P r({x(k) R opt}) = 1 Dowód Jeśli rozk lad stacjonarny jest określony wzorem (1) to lim q i(c k ) = lim P r({x(k) = i} c k ) = q i k k jest prawdopodobieństwem osi agania stanu i w. Wówczas q i = lim c 0 + q i(c k ) = 1 R opt χ R opt (i)

Page 21 of 21 Literatura [1] S. Kirkpatrick, C. Gelatt, Jr., and M. Vecchi, Optimization by Simulated Annealing, Science, 220, No. 4598. 498-516, May 1983. [2] N. Metropolis, A. Rosenbluth, A. Teller and E. Teller, Equation of State Calculations by Fast Computing Machines, J. Chem. Phys. 21 1087, 1953. [3] David E Goldberg, Genetic Algorithms in Search, Optimization, and Machine Learning, Addison-Wesley, 1989 [4] Emile Aarts and Jan Korst, Simulated Annealing and Boltzmann Machines, John Wiley & Sons, 1990