Heurystyczne przeszukiwanie przestrzeni stanów

Podobne dokumenty
Heurystyczne przeszukiwanie przestrzeni stanów

Heurystyczne przeszukiwanie przestrzeni stanów

Wprowadzenie do Sztucznej Inteligencji

Wprowadzenie do Sztucznej Inteligencji

Wprowadzenie do Sztucznej Inteligencji

Przeszukiwanie przestrzeni stanów. Wprowadzenie do Sztucznej Inteligencji. Podstawowe problemy teorii przeszukiwania przestrzeni stanów

Metody przeszukiwania

Sztuczna Inteligencja i Systemy Doradcze

Heurystyczne metody przeszukiwania

Rozwiązywanie problemów metodą przeszukiwania

Heurystyki. Strategie poszukiwań

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD V: Agent wciąż szuka rozwiązania (choć już nie na ślepo)

Sztuczna Inteligencja i Systemy Doradcze

Zastosowania algorytmów heurystycznych do sterowania systemami autonomicznymi

Heurystyczne przeszukiwanie grafów w gier dwuosobowych

SZTUCZNA INTELIGENCJA

Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych

Wysokość drzewa Głębokość węzła

Podstawy sztucznej inteligencji

Optymalizacja. Wybrane algorytmy

Sortowanie topologiczne skierowanych grafów acyklicznych

Zadanie 1: Piętnastka

Wstęp do Sztucznej Inteligencji

LABORATORIUM 2: Przeszukiwanie grafów cz. 2 strategie heurystyczne

Przeszukiwanie przestrzeni rozwiązań, szukanie na ślepo, wszerz, wgłąb

Rekurencje. Jeśli algorytm zawiera wywołanie samego siebie, jego czas działania moŝe być określony rekurencją. Przykład: sortowanie przez scalanie:

Heurystyczne przeszukiwanie grafów gier dwuosobowych

Grafem nazywamy strukturę G = (V, E): V zbiór węzłów lub wierzchołków, Grafy dzielimy na grafy skierowane i nieskierowane:

Działanie algorytmu oparte jest na minimalizacji funkcji celu jako suma funkcji kosztu ( ) oraz funkcji heurystycznej ( ).

a) 7 b) 19 c) 21 d) 34

ALHE Jarosław Arabas. Przeszukiwanie przestrzeni ścieżek w grafie. Algorytm A*

Algorytmy i struktury danych

Marcel Stankowski Wrocław, 23 czerwca 2009 INFORMATYKA SYSTEMÓW AUTONOMICZNYCH

Porównanie algorytmów wyszukiwania najkrótszych ścieżek międz. grafu. Daniel Golubiewski. 22 listopada Instytut Informatyki

Podstawy sztucznej inteligencji

Ogólne wiadomości o grafach

Krzysztof Jakubczyk. Zadanie 2

Sortowanie. Kolejki priorytetowe i algorytm Heapsort Dynamiczny problem sortowania:

Drzewa spinające MST dla grafów ważonych Maksymalne drzewo spinające Drzewo Steinera. Wykład 6. Drzewa cz. II

Algorytmy i struktury danych. Drzewa: BST, kopce. Letnie Warsztaty Matematyczno-Informatyczne

Wstęp do programowania. Drzewa. Piotr Chrząstowski-Wachtel

Planowanie drogi robota, algorytm A*

Struktury danych i złożoność obliczeniowa Wykład 5. Prof. dr hab. inż. Jan Magott

TEORETYCZNE PODSTAWY INFORMATYKI

prowadzący dr ADRIAN HORZYK /~horzyk tel.: Konsultacje paw. D-13/325

Porządek symetryczny: right(x)

Algorytmy i str ruktury danych. Metody algorytmiczne. Bartman Jacek

Wykład 2. Drzewa zbalansowane AVL i 2-3-4

Algorytmiczna teoria grafów

Wstęp do programowania. Listy. Piotr Chrząstowski-Wachtel

ĆWICZENIE 1: Przeszukiwanie grafów cz. 1 strategie ślepe

Wstęp do Programowania potok funkcyjny

Wyznaczanie strategii w grach

Znajdowanie wyjścia z labiryntu

Podstawy Sztucznej Inteligencji (PSZT)

Wykład 8. Drzewo rozpinające (minimum spanning tree)

Algorytmy i Struktury Danych

ĆWICZENIE 1: Przeszukiwanie grafów strategie heurystyczne

Wybrane podstawowe rodzaje algorytmów

Algorytmy metaheurystyczne podsumowanie

Optymalizacja. Przeszukiwanie lokalne

Co to są drzewa decyzji

Programowanie w VB Proste algorytmy sortowania

Metody numeryczne I Równania nieliniowe

Programowanie obiektowe

Wykład 3. Złożoność i realizowalność algorytmów Elementarne struktury danych: stosy, kolejki, listy

Definicja pochodnej cząstkowej

Algorytmy i struktury danych

Techniki optymalizacji

Problem straŝaka w drzewach. Agnieszka Skorupka Matematyka Stosowana FTiMS

Co to jest algorytm? przepis prowadzący do rozwiązania zadania, problemu,

Indukowane Reguły Decyzyjne I. Wykład 3

operacje porównania, a jeśli jest to konieczne ze względu na złe uporządkowanie porównywanych liczb zmieniamy ich kolejność, czyli przestawiamy je.

Programowanie obiektowe

Algorytmy dla gier dwuosobowych

Zofia Kruczkiewicz, Algorytmu i struktury danych, Wykład 14, 1

Wykład2,24II2010,str.1 Przeszukiwanie przestrzeni stanów powtórka

Optymalizacja. Symulowane wyżarzanie

Metody teorii gier. ALP520 - Wykład z Algorytmów Probabilistycznych p.2

Grafy (3): drzewa. Wykłady z matematyki dyskretnej dla informatyków i teleinformatyków. UTP Bydgoszcz

Struktury danych: stos, kolejka, lista, drzewo

Zaawansowane programowanie

Informatyka wprowadzenie do algorytmów (II) dr hab. inż. Mikołaj Morzy

Matematyczne Podstawy Informatyki

Elementy kognitywistyki II:

Przykłady grafów. Graf prosty, to graf bez pętli i bez krawędzi wielokrotnych.

Algorytmy i Struktury Danych.

Luty 2001 Algorytmy (4) 2000/2001

PoniŜej znajdują się pytania z egzaminów zawodowych teoretycznych. Jest to materiał poglądowy.

procesów Współbieżność i synchronizacja procesów Wykład prowadzą: Jerzy Brzeziński Dariusz Wawrzyniak

Kolejkowanie. Graf sekwencyjny. Graf sekwencyjny: biegunowy, acykliczny Graf acykliczny to graf nie zawierający cykli G(V,E)

Strategie ewolucyjne. Gnypowicz Damian Staniszczak Łukasz Woźniak Marek

Przeszukiwanie z nawrotami. Wykład 8. Przeszukiwanie z nawrotami. J. Cichoń, P. Kobylański Wstęp do Informatyki i Programowania 238 / 279

Wykład 7 i 8. Przeszukiwanie z adwersarzem. w oparciu o: S. Russel, P. Norvig. Artificial Intelligence. A Modern Approach

Kolorowanie wierzchołków grafu

Wstęp do programowania. Drzewa podstawowe techniki. Piotr Chrząstowski-Wachtel

Podstawy Informatyki. Sprawność algorytmów

1 Wprowadzenie do algorytmiki

Algorytmy grafowe. Wykład 2 Przeszukiwanie grafów. Tomasz Tyksiński CDV

Algorytmy i struktury danych

Transkrypt:

Heurystyczne przeszukiwanie przestrzeni stanów Wykład Informatyka Studia InŜynierskie Realizacja przeszukiwania heurystycznego Systemy eksperckie Gdy problem nie posiada dokładnego rozwiązania zania ze względu na swoją charakterystykę: * niejednoznaczność zadania (jaki jest cel, który mamy osiągn gnąć?) * nieprecyzyjne lub niepewne dane (błę łędy w danych) * brak wszystkich niezbędnych danych (niepełne ne dane) Algorytmy przeszukiwania z numeryczną funkcją oceny stanu Gdy istnieją dokładne rozwiązania, zania, ale wymagania zasobowe (pamięć ęć,, czas) sąs zbyt duŝe e (kombinatoryczna eksplozja stanów w w problemach rzeczywistych!)

Podstawowe pojęcia teorii grafów przeszukiwania Korzeń grafu Stan, od którego zaczynamy przeszukiwanie grafu (drzewa) początkowy stan problemu (instancja problemu) Wierzchołek ek końcowy (terminalny) Stan, który ma określon loną wartość oceny z punktu widzenia wyniku danego zadania (np. poraŝka, zwycięstwo, remis w grze) Liść Dowolny stan w grafie, w którym zatrzymujemy proces przeszukiwania i przypisujemy mu ocenę heurystyczną Wierzchołek ek wewnętrzny KaŜdy inny stan, którego wartość oceny zaleŝy y od jego poprzedników w lub następnik pników Podstawowe pojęcia teorii grafów przeszukiwania c.d. Głębokość przeszukiwania (aktualna) Liczba przejść stanów w (ruchów) od korzenia grafu do stanu aktualnego Branching factor Średnia liczba następnik pników w stanu (śr.(. liczba ruchów w w stanie) Drzewa przeszukiwania/dag Większo kszość grafów w przeszukiwania to DAG (acykliczne grafy skierowane), część z nich to drzewa 2

Podstawowe pojęcia Korzeń Branching factor Generowanie następnik pników Wierzchołek ek wewnętrzny Stan Głębokość przeszukiwania Stan końcowy Ocena heurystyczna (liść ść) Heurystyczne przeszukiwanie Połą łączenie wiedzy przedmiotowej dotyczącej cej danego zadania i metod przeszukiwania dla efektywnego poszukiwania rozwiązania zania Stosowane w celu ograniczenie kombinatorycznej eksplozji stanów w w grafie przeszukiwania Nie gwarantuje znalezienia rozwiązania, zania, pozwala jednak wybierać lub odrzucać pewne stany, określaj lając c tym samym dalsze kierunki przeszukiwania

Rola heurystyki w przeszukiwaniu Zwiększa niepewność otrzymania wyniku w procesie konstrukcji rozwiązania zania ze względu na wykorzystywanie nieformalnej wiedzy przedmiotowej (zasady, reguły, intuicje itp.), której słuszność/uŝyteczność nie do końca jest znana Pozwala w naturalny sposób b wykorzystywać informacje niepewne i nieprecyzyjne, które często towarzyszą przetwarzaniu danych pochodzących cych ze świata rzeczywistego Poprawia efektywność algorytmu poszukiwania rozwiązania zania danego problemu bezpośrednio (przez wskazywanie najlepszych kierunków w przeszukiwania) lub pośrednio (przez eliminowanie najmniej obiecujących cych kierunków) Gdzie stosujemy przeszukiwanie heurystyczne? Problemy jednoosobowe (np.zagadki logiczne: arytmografy, labirynty, itp.) Problemy optymalizacji (np. nawigacja robota, znajdowanie najkrótszej ścieŝki, szeregowanie, harmonogramowanie itd.) Gry dwuosobowe Systemy automatycznego dowodzenia twierdzeń Systemy planowania działań

Przykład zastosowania heurystyki Ruch najlepszy wg heurystyki Rozmiary przestrzeni: Pełna - 9! Symetria i powtórzenia - 2 7! Heurystyka -. 9 Algorytmy przeszukiwania heurystycznego Problemy jednoosobowe Algorytm wspinaczkowy Algorytm Best-first first-searchsearch Algorytm A * Algorytm IDA * Algorytm RBFS Gry dwuosobowe Algorytm min-max max Algorytm alfa-beta

Składowe algorytmów w przeszukiwania heurystycznego Reprezentacja stanu przestrzeni (silnie zaleŝna od zastosowania) Stany startowe (początkowe, inicjujące) ce) Stany końcowe (terminalne) Generator następnik pników w stanu (zbiór r dopuszczalnych operatorów/akcji/ruch w/akcji/ruchów) w) Procedura przeszukiwania Mechanizm wyboru następnego wierzchołka w grafie Mechanizm nawrotów Mechanizmy wykrywania cykli Funkcja heurystycznej oceny stanu Algorytm wspinaczkowy (ang. hill climbing) procedure hill_climbing(initial_state initial_state) begin current_node = initial_state; next = []; if current_node = goal then return(success); while true do begin generate all children of current_node; if any of children is a goal state then return(success); assign heuristic value to each child state; set next to a lowest-valued child of current_node; if value of next > value of current_node then return(success); % stop! - no improvements set current_node to next; end; % while end.

Algorytm wspinaczkowy - przykład A- B- C- D- E F G H I J K L M N O P Q R S T U Algorytm wspinaczkowy - przykład A- B- C- D- E- F- G H I J K L M N O P Q R S T U 7

Algorytm wspinaczkowy - przykład A- B- C- D- E- F- G H I J K- L- M N O P Q R S T U Algorytm wspinaczkowy - przykład A- B- C- D- E- F- G H I J K- L- M N O P Q R S T-2 U 8

Algorytm wspinaczkowy - przykład A- B- C- D- E- F- G H I J K- L- M N O P Q R S T-2 U koniec! Algorytm wspinaczkowy: charakterystyka Cechy szczególne Ocena heurystyczna stanu z reguły y traktowana jako koszt Małe e wymagania pamięciowe (brak historii!) Brak mechanizmu nawrotów Nieoptymalny? Wady Lokalne ekstrema funkcji Plateaux - brak postępu pu w przeszukiwaniu Grzbiety funkcji powolny postęp p w przeszukiwaniu 9

Algorytm wspinaczkowy: metody poprawy Nawroty do poprzednich stanów w i próba wykorzystania innych, niemal równie r dobrych, następnik pników w jak ten pierwotnie wybrany (trzeba zarezerwować dodatkową pamięć ęć!) Wykonywanie "duŝych skoków" tzn. wybieranie operatorów, które wprowadzają ogromne zmiany stanu problemu lub, jeśli brak takowych, wykonywanie kilku drobnych kroków w "pod rząd" w jednym wybranym kierunku przestrzeni stanów Wykonywanie kilku kroków w w róŝnych r kierunkach, ale bez sprawdzania wartości osiąganych stanów RóŜne punkty startowe (stany początkowe) algorytmu Algorytm best-first first-searchsearch (zachłanny) anny) procedure best_first_search( _first_search(initial_state) begin open = [initial_state[ initial_state]; closed = []; while open [] do begin remove the leftmost state from open,, call it X; if X is goal state then return(success); generate all children of X; put X on closed; eliminate any children of X already on either open or closed, as this will cause loops in the search; assign heuristic value to the child state; add the child state to open; re-order states on open according to heuristic merit (lower( values first); end end.

Algorytm Best-first search - przykład A B C D E F G H I J K L M N O P Q R Open Closed B- Ocena stanu S T U Algorytm Best-first search - przykład A B- C- D- E F G H I J K L M N O P Q R Open Closed B- Ocena stanu S T U

Algorytm Best-first search - przykład A B- C- D- E- F- G H I J K L M N O P Q R Open Closed B- Ocena stanu S T U Algorytm Best-first search - przykład A B- C- D- E- F- G H I J K- L- M N O P Q R Open Closed B- Ocena stanu S T U 2

Algorytm Best-first search - przykład A B- C- D- E- F- G H I J K- L- M N O P Q R Open Closed B- Ocena stanu S T-2 U Algorytm Best-first search - przykład A B- C- D- E- F- G H I J K- L- M N O P Q R Open Closed B- Ocena stanu S T-2 U

Algorytm Best-first search - przykład A B- C- D- E- F- G H I J K- L- M- N O P Q R Open Closed B- Ocena stanu S T-2 U Algorytm Best-first search - przykład A B- C- D- E- F- G H I J K- L- M- N O P Q R Open Closed B- Ocena stanu S T-2 U

Algorytm Best-first search - przykład A B- C- D- E- F- G- H- I J K- L- M- N O P Q R Open Closed B- Ocena stanu S T-2 U Algorytm Best-first search - przykład A B- C- D- E- F- G- H- I J K- L- M- N O-2 P- Q R Open Closed B- Ocena stanu S T-2 U

Algorytm Best-first search - przykład A B- C- D- E- F- G- H- I J K- L- M- N O-2 P- Q R Open Closed B- Ocena stanu S T-2 U Algorytm Best-first search - przykład A B- C- D- E- F- G- H- I J K- L- M- N O-2 P- Q R Open Closed B- Ocena stanu S T-2 U- Po wybraniu z listy Open będzie koniec!

Algorytm Best-first first-search: : charakterystyka Cechy szczególne Mechanizm nawrotów lista OPEN Historia ruchów wykrywanie cykli lista OPEN i CLOSED Wielokierunkowe przeszukiwanie przestrzeni Im lepsza ocena heurystyczna stanów, tym mniejszy obszar przeszukiwania Wady DuŜe e wymagania pamięciowe (złoŝono oność pamięciowa O(b d ), b branching factor, d głębokość przeszukiwania) Nieoptymalny (w ogólnym przypadku, ale...) Algorytm Best-fist fist-searchsearch - przykład 2 8 7 2 8 7 2 8 7 2 8 7 Ocena heurystyczna: : liczba płytek (elementów) poza swoim połoŝeniem docelowym 2 8 7 2 8 7 2 8 7 2 8 7 2 8 7 8 2 7 2 8 7 8 2 7 2 8 7 2 8 7 2 8 7 2 8 7 2 8 7 2 8 7 2 8 7 8 2 7 2 8 7 2 8 7 2 8 7 8 2 7 2 8 7 2 8 7 2 8 7 2 7 8 2 8 7 2 8 7 2 8 7 2 8 7 2 7 8 8 2 7 8 2 7 2 8 7 2 8 7 2 8 7 2 8 7 2 8 7 2 8 7 8 2 7 8 2 7 2 8 7 2 8 7 2 7 8 2 8 cel 7

Ocena heurystyczna jaka? 2 8 7 7 2 8 7 2 8 7 Proponowana heurystyczna ocena 0 0 0 Próba : Liczba płytek p poza pozycjami docelowymi Wada: Nie uwzględnia jak daleko jest kaŝda płytka od miejsca docelowego Próba 2: Suma odległości wszystkich płytek p od miejsca docelowego Wada: Ignoruje fakt (podobnie jak poprzednia heurystyka), Ŝe e prosta zamiana miejscami dwóch płytek to więcej niŝ dwa ruchy Próba : Liczba odwróconych par płytek p pomnoŝona ona przez mały y współczynnik (np. 2) Wada: Nie uwzględnia sekwencji ruchów Funkcja oceny heurystycznej - definicja Funkcją oceny heurystycznej nazywamy funkcję rzeczywistą określon loną na zbiorze wierzchołków w grafu przestrzeni stanów postaci: f(n) ) = g(n) ) + h(n), gdzie: g(n) jest aktualną długość ścieŝki od stanu n do stanu początkowego, h(n) jest heurystycznym oszacowaniem odległości od stanu n do celu. 8

Przykład zastosowania funkcji oceny heurystycznej OPEN CLOSED 2 8 7 Stan b f(b) ) = 2 8 7 2 8 7 Stan a f(a) ) = Stan c f(c) ) = 2 8 7 Stan d f(d) ) = g(n) = 0 g(n) = 2 8 7 Stan e f(e) ) = 2 8 7 Stan f f(f) ) = 2 8 7 Stan g f(g) ) = g(n) = 2 8 2 7 Stan h f(h) ) = 2 8 7 Stan i f(i) ) =7 2 8 7 Stan j f(j) ) = 2 8 7 Stan k f(k) ) =7 g(n) = f(n) ) = g(n) ) + h(n), gdzie: g(n) ) rzeczywista odległość od startu do stanu n, h(n) ) liczba płytek p (elementów) poza swoim połoŝeniem docelowym cel 2 8 2 7 Stan m f(m) ) = 2 8 7 Stan l f(l) ) = 2 7 8 2 Stan n f(n) ) =7 g(n) = g(n) = Funkcja oceny heurystycznej a algorytm Best-first first-searchsearch Niech dany będzie b algorytm Best-first first-searchsearch z oceną heurystyczną postaci: f(n) ) = g(n) ) + h(n), jeŝeli eli dla kaŝdego stanu g(n) ) = 0 to otrzymujemy tzw. przeszukiwanie zachłanne anne (brak gwarancji znalezienia optymalnego rozwiązania) zania) jeŝeli eli dla kaŝdego stanu h(n) ) = 0 i g(n) ) = depth(n) to mamy przeszukiwanie wszerz (moŝliwe znalezienie optymalnego rozwiązania) zania) 9

Algorytm BFS z ogóln lną funkcją () procedure Astar_search(initial_state) begin open = [initial_state]; closed = []; while open [] do begin remove the next state from open,, call it X; if X is a goal state then return(solution path that led to X); process X,, generating all its children; for each child of X do case the child is not already on open nor closed:... the child is already on open:... the child is already on closed:... end; %case put X on closed; re-order states on open according to heuristic merit (lower( values first); end; % while return(failure); % open is exhausted end....... Algorytm BFS z ogóln lną funkcją (2) case the child is not already on open or closed: begin assign heuristic value to the child state; add the child state to open; end; the child is already on open: begin if the child was reached along shorter path than the state currently on open then give the state on open this shorter path value; end; the child is already on closed: begin if the child was reached along shorter path than the state currently on closed then begin give the state on closed this shorter path value; move the state from closed to open; end end; end; %case 20

Algorytm A - przykład A B- C- D- E- F- G- H- I- J- K-2 L-2 M-2 N- O-2 P-2 Q- R-2 S- T- U-0 7 2 2 Open Closed koszt operacji B- Ocena stanu Algorytm A - przykład A B- C- D- E- F- G- H- I- J- K-2 L-2 M-2 N- O-2 P-2 Q- R-2 S- T- U-0 7 2 2 2 Open Closed koszt operacji B- Ocena stanu 2

Algorytm A - przykład A B- C- D- E- F- G- H- I- J- K-2 L-2 M-2 N- O-2 P-2 Q- R-2 S- T- U-0 7 2 2 2 Open Closed koszt operacji B- Ocena stanu Algorytm A - przykład A B- C- D- E- F- G- H- I- J- K-2 L-2 M-2 N- O-2 P-2 Q- R-2 S- T- U-0 7 2 2 2 Open Closed koszt operacji B- Ocena stanu 22

Algorytm A - przykład A B- C- D- E- F- G- H- I- J- K-2 L-2 M-2 N- O-2 2 P-2 Q- R-2 S- T- U-0 7 2 2 2 Open Closed koszt operacji B- Ocena stanu Algorytm A - przykład A B- C- D- E- F- G- H- I- J- K-2 L-2 M-2 N- O-2 2 P-2 Q- R-2 S- T- U-0 7 2 2 Open Closed koszt operacji B- Ocena stanu 2

Algorytm A - przykład A B- C- D- E- F- G- H- I- J- K-2 L-2 M-2 N- O-2 P-2 Q- R-2 S- T- U-0 7 2 2 Open Closed koszt operacji B- Ocena stanu Algorytm A - przykład A B- C- D- E- F- G- H- I- J- K-2 L-2 M-2 N- O-2 P-2 Q- R-2 S- T- U-0 7 2 2 Open Closed koszt operacji B- Ocena stanu 2

Algorytm A - przykład A B- C- D- E- F- G- H- I- J- K-2 L-2 2 M-2 N- O-2 P-2 Q- R-2 S- T- U-0 7 2 2 Open Closed koszt operacji B- Ocena stanu Algorytm A - przykład S- A B- C- D- E- F- G- H- I- J- K-2 L-2 M-2 T- 2 7 2 N- O-2 P-2 Q- R-2 2 U-0 Open Closed koszt operacji B- Ocena stanu 2

Algorytm A - przykład A B- C- D- E- F- G- H- I- J- K-2 L-2 M-2 N- O-2 P-2 Q- R-2 S- T- U-0 7 2 2 Open Closed koszt operacji B- Ocena stanu Algorytm A - przykład A B- C- D- E- F- G- H- I- J- K-2 L-2 M-2 N- O-2 P-2 Q- R-2 S- T- U-0 7 2 2 Open Closed koszt operacji B- Ocena stanu 2

Algorytm A - przykład S- A B- C- D- E- F- G- H- I- J- K-2 L-2 M-2 T- 7 2 N- O-2 P-2 Q- R-2 U-0 prawie koniec ;-); Open Closed koszt operacji B- Ocena stanu Teoretyczne własnow asności heurystyk a procedura przeszukiwania Czy algorytm znajduje najkrótsz tszą ścieŝkę do celu? Dopuszczalność heurystyki (ang. admissibility) Czy kaŝdy stan w przestrzeni jest osiągany przy najniŝszym koszcie? Monotoniczność heurystyki (ang. monotonicity) Czy moŝna szybciej znaleźć rozwiązanie zanie przy pomocy innej (lepszej) heurystyki? Informatywność heurystyki (ang. informedness) 27

Teoretyczne własnow asności heurystyk: idealna funkcja oceny heurystycznej Przyjmijmy następuj pujące oznaczenia: g * (n) koszt najkrótszej ścieŝki od stanu początkowego do stanu n, h * (n) jest rzeczywistym kosztem przejścia najkrótsz tszą ścieŝką od stanu n do celu, f * (n) rzeczywisty koszt optymalnej ścieŝki prowadzącej od stanu początkowego przez stan n do celu (tj. f * (n)= g * (n)+ h * (n)), Funkcja f * (n) to idealna wyrocznia - jej istnienie eliminowałoby oby potrzebę przeszukiwania! W trakcie przeszukiwania z reguły g(n) g * (n),, dopóki nie odkryjemy najkrótszej ścieŝki do n,, wtedy g(n) ) = g * (n). Nie jesteśmy w stanie podać wartości h * (n) przed zakończeniem przeszukiwania, dlatego stosujemy jego oszacowanie, czyli h(n). Dopuszczalność (ang. admissibility) Definicja Algorytm przeszukiwania jest dopuszczalny,, jeŝeli eli dla dowolnego grafu zawsze kończy się na optymalnej ścieŝce ce do rozwiązania, zania, o ile taka ścieŝka istnieje. Przykład Algorytm przeszukiwania wszerz 28

Algorytm A * Definicja JeŜeli eli algorytm A wykorzystuje funkcję oceny taką, Ŝe h(n) ) jest mniejsze lub równe r kosztowi minimalnej ścieŝki od wierzchołka n do celu (tj. h(n) h * (n)), to otrzymany w ten sposób b algorytm nazywa się algorytmem A *. Twierdzenie Wszystkie algorytmy A * są dopuszczalne. Niedoszacowanie wartości oceny heurystycznej A f = (h ( + g) n g(n)= depth(n) 2 B (+) (+) C D (+) E (+2) G F (2+) (+) ZaniŜenie wartości, tzn. h < h * H (+) X goal 29

Przeszacowanie wartości oceny heurystycznej A f = (h ( + g) n g(n)= depth(n) 2 B (+) (+) C D (+) E (2+2) F (+) G (0+) X goal ZawyŜenie wartości, tzn. h > h * Monotoniczność (ang. monotonicity) Funkcja oceny heurystycznej f jest monotoniczna,, gdy: dla dowolnych stanów s i oraz s j, gdzie s j jest następnikiem s i zachodzi: h(s i ) - h(s j ) cost(s i, s j ) gdzie cost(s i, s j ) jest rzeczywistym kosztem (w liczbie ruchów) przejścia od stanu s i do s j, i oszacowanie heurystyczne stanu docelowego jest równe r zero h(goal) ) = 0 0

Monotoniczność ść,, czyli spójno jność heurystyki Monotoniczność to tzw. lokalna dopuszczalność ść,, która oznacza, iŝi kaŝdy stan (a nie tylko stany docelowe) osiągany jest po najkrótszej ścieŝce. ce. Monotoniczność oznacza równier wnieŝ, Ŝe e heurystyka jest spójna w całej przeszukiwanej przestrzeni. s i h(s i ) s i cost(s i, s j ) s j h(s j ) h(s i ) - h(s j ) cost(s i, s j ) h(s i ) cost(s i, s j ) + h(s j ) goal goal Monotoniczność ść,, czyli spójno jność heurystyki Heurystyka jest monotoniczna (inaczej: lokalnie dopuszczalna) jeŝeli eli dla kaŝdego stanu s i, kaŝdy jego następnik s j generowany przez akcję a,, która spełnia warunek: h(s i ) cost(s i, a, s j ) + h(s j ) h(s i ) s i goal cost(s i,a,s j ) s j h(s j ) Nierówno wność trójk jkątów!!! Jeśli h jest monotoniczna, to: f (s j ) = g(s j ) + h(s j ) = g(s i ) + cost(s i,a,s j ) + h(s j ) g(s i ) + h(s i ) = f(s i ) f (s j ) f(s i ) tzn. f(s k ) nigdy nie maleje podczas przeszukiwania!

Czy monotoniczny to równier wnieŝ dopuszczalny? RozwaŜmy dowolną ścieŝkę w przestrzeni stanów s, s 2,..., s g, prowadzącą od stanu początkowego s do stanu końcowego s g. Dla dowolnego ciągu ruchów w na tej ścieŝce ce zachodzi: od s do s 2 h(s ) - h(s 2 ) cost(s, s 2 ) od s 2 do s h(s 2 ) - h(s ) cost(s 2, s ) od s do s h(s ) - h(s ) cost(s, s )...... od s g- do s g h(s g- ) - h(s g ) cost(s g-, s g ) dodając c obustronnie stronami otrzymujemy: ścieŝka od s do s g h(s ) - h(s g ) cost(s, s g ). Na podstawie własnow asności monotoniczności ci wiemy, Ŝe h(s g ) = 0,, więc: h(s ) cost(s, s g ). PoniewaŜ cost(s, s g ) = h * (s ), to h(s ) h * (s ), czyli heurystyka monotoniczna jest dopuszczalna. Jak uzyskać monotoniczność ść? JeŜeli eli funkcja oceny heurystycznej f nie jest monotoniczna,, ale jest dopuszczalna, zawsze moŝliwe jest zapewnienie monotoniczności ci za pomocą tzw. reguły y PATHMAX. Reguła a PATHMAX Jeśli dla dowolnych stanów s i oraz s j, gdzie s j jest następnikiem s i zachodzi: f(s i ) > f(s j ), to nową wartość funkcji oceny dla s j naleŝy y wyznaczyć według zaleŝno ności: f(s j ) = max( f(s i ), g(s j ) + h(s j ) ) 2

Jakie korzyści przynosi monotoniczność ść? procedure MonotonicBFS(initial_state (initial_state) begin open = [initial_state]; closed = []; while open [] do begin remove the next state from open,, not already on closed,c,call it X; if X is a goal state then return(solution path that led to X); process X,, generating all its children; for each child of X do begin assign heuristic value to the child state; add the child state to open;!!! end; put X on closed; re-order states on open according to monotonic heuristic merit (lower values first); end; % while return(failure); % open is exhausted end. Informatywność (ang. informedness) Dla dwóch heurystyk h i h 2 typu A *, jeŝeli eli h (n) h 2 (n),, dla dowolnego stanu n w przeszukiwanej przestrzeni, to o h 2 mówi się, Ŝe e zawiera więcej informacji niŝ h (jest lepiej poinformowana). JeŜeli eli heurystyka h 2 jest lepiej poinformowana niŝ h, to zbiór r stanów w odwiedzanych przez h 2 jest podzbiorem stanów odwiedzanych przez h. h h 2 h h 2 h *

NajwaŜniejsze twierdzenia dot. algorytmu A * JeŜeli eli oszacowanie h(n) ) jest dopuszczalne,, to algorytm A* jest optymalny dla drzew przeszukiwania JeŜeli eli oszacowanie h(n) ) jest monotoniczne,, to algorytm A* jest optymalny dla dowolnych grafów przeszukiwania JeŜeli eli heurystyka jest monotoniczna,, to jest równier wnieŝ dopuszczalna JeŜeli eli oszacowanie h(n) ) jest monotoniczne,, to wartości f(n) ) w trakcie przeszukiwania nigdy nie maleją Funkcje heurystyczne - jak definiować? Uproszczenie oryginalnego zadania poprzez rozluźnienie ograniczeń nałoŝonych onych na definicję operatorów w ruchu (generację następnika) Koszt optymalnego rozwiązania zania dla tak uproszczonego problemu jest dopuszczalną heurystyką zadania oryginalnego! Przykłady dla układanki 8-polowej8. JeŜeli eli załoŝymy, Ŝe e moŝna dokonywać przesunięć płytkami na dowolne miejsce (a nie tylko puste), to znajdziemy najkrótsze rozwiązanie zanie - taka heurystyka jest dopuszczalna. 2. JeŜeli eli załoŝymy, Ŝe e moŝna dokonywać przesunięć płytkami na dowolne ortogonalnie sąsiednie s siednie pole (a nie tylko puste), to znajdziemy najkrótsze rozwiązanie zanie - tak heurystyka jest równier wnieŝ dopuszczalna.

IDA * - algorytm A * z iteracyjnym pogłę łębianiem Przeszukiwanie z ograniczoną zajęto tością pamięci Schemat iteracyjnego pogłę łębiania Limit dopuszczalnej głęg łębokości zastąpiony przez limit wartości funkcji oceny heurystycznej Algorytm IDA * - cz. procedure IDA * -Search( Search(initial_state) begin f_limit f(initial_state initial_state); while true do begin (solution, f_limit ) DFS-Contour( Contour(initial_state, f_limit); if solution null then return(solution solution); if f_limit = then return(failure failure); f_limit f_limit ; end; end.

Algorytm IDA * - cz.2 function DFS-Contour( Contour(current_state, f_limit) begin next_f ; if f(current_state) ) > f_limit then return(null, f(current_state)); if current_state is a goal then return(current_state current_state, f_limit); while current_state has unexamined children do begin child := next unexamined child of current_state; (solution, new_f) DFS-Contour( Contour(child, f_limit); if solution null then return(current_state current_state+solution, f_limit); next_f min( min(next_f, new_f ); end return(null, next_f); end. Algorytm IDA * - przykład f_limit=?

Algorytm IDA * - przykład f_limit= B- Algorytm IDA * - przykład f_limit= E- B- 7

Algorytm IDA * - przykład f_limit= B- E- F- Algorytm IDA * - przykład B- C- f_limit= E- F- 8

Algorytm IDA * - przykład B- C- f_limit= E- F- G- Algorytm IDA * - przykład B- C- f_limit= E- F- G- H- 9

Algorytm IDA * - przykład B- C- D- 2 f_limit= E- F- G- H- Algorytm IDA * - przykład f_limit= 0

Algorytm IDA * - przykład f_limit= B- Algorytm IDA * - przykład f_limit= E- B-

Algorytm IDA * - przykład f_limit= B- E- F- Algorytm IDA * - przykład B- C- f_limit= E- F- 2

Algorytm IDA * - przykład B- C- f_limit= E- F- G- Algorytm IDA * - przykład B- C- f_limit= E- F- G- H-

Algorytm IDA * - przykład B- C- f_limit= E- F- G- H- 2 O-2 2 Algorytm IDA * - przykład B- C- f_limit= E- F- G- H- 2 O-22 P-2 2

Algorytm IDA * - przykład B- C- D- 2 f_limit= E- F- G- H- 2 O-22 P-2 2 Algorytm IDA * - przykład f_limit=2

Algorytm IDA * - przykład f_limit=2 B- Algorytm IDA * - przykład f_limit=2 E- B-

Algorytm IDA * - przykład f_limit=2 B- E- F- Algorytm IDA * - przykład B- C- f_limit=2 E- F- 7

Algorytm IDA * - przykład B- C- f_limit=2 E- F- G- Algorytm IDA * - przykład B- C- f_limit=2 E- F- G- H- 8

Algorytm IDA * - przykład B- C- f_limit=2 E- F- G- H- 2 O-2 2 Algorytm IDA * - przykład B- C- f_limit=2 E- F- G- H- 2 O-22 P-2 2 9

Algorytm IDA * - przykład B- C- D- 2 f_limit=2 E- F- G- H- 2 O-22 P-2 2 Algorytm IDA * - przykład B- C- D- 2 f_limit=2 E- F- G- H- I- 2 O-22 P-2 2 0

Algorytm IDA * - przykład B- C- D- 7 2 f_limit=2 E- F- G- H- I- J- 2 O-22 P-2 2 Algorytm IDA * - przykład f_limit=

Algorytm IDA * - przykład f_limit= B- Algorytm IDA * - przykład f_limit= E- B- 2

Algorytm IDA * - przykład f_limit= K-2 E- B- Algorytm IDA * - przykład f_limit= E- K-2L-2 B-

Algorytm IDA * - przykład f_limit= K-2L-2 B- E- F- Algorytm IDA * - przykład f_limit= B- E- F- 2 K-2 L-2 L-2

Algorytm IDA * - przykład f_limit= B- E- F- 2 K-2 L-2 L-2 T- Algorytm IDA * - przykład f_limit= B- E- F- 2 K-2 L-2 L-2 M-2 T-

Algorytm IDA * - przykład B- C- f_limit= E- F- 2 K-2 L-2 L-2 M-2 T- Algorytm IDA * - przykład B- C- f_limit= E- F- G- 2 K-2 L-2 L-2 M-2 T-

Algorytm IDA * - przykład B- C- f_limit= E- F- G- 2 K-2 L-2 L-2 M-2 N- T- Algorytm IDA * - przykład B- C- f_limit= E- F- G- H- 2 K-2 L-2 L-2 M-2 N- T- 7

Algorytm IDA * - przykład B- C- f_limit= E- F- G- H- 2 K-2 L-2 L-2 M-2 N- T- 2 O-2 2 Algorytm IDA * - przykład B- C- f_limit= E- F- G- H- 2 K-2 L-2 L-2 M-2 N- O-2 T- 2 2 P-2 8

Algorytm IDA * - przykład B- C- f_limit= E- F- G- H- 2 K-2 L-2 L-2 M-2 N- 2 O-2 2 P-2 T- U-0 Algorytm IDA * - przykład B- C- D- 2 f_limit= E- F- G- H- 2 K-2 L-2 L-2 M-2 N- 2 O-2 2 P-2 T- U-0 9

Algorytm IDA * - przykład B- C- D- 2 f_limit= E- F- G- H- 2 K-2 L-2 L-2 M-2 N- 2 I- O-2 2 P-2 T- U-0 Algorytm IDA * - przykład B- C- D- 7 2 f_limit= E- F- G- H- 2 K-2 L-2 L-2 M-2 N- 2 I- J- O-2 2 P-2 T- U-0 0

Algorytm IDA * - przykład f_limit= Algorytm IDA * - przykład f_limit= B-

Algorytm IDA * - przykład f_limit= E- B- Algorytm IDA * - przykład f_limit= K-2 E- B- 2

Algorytm IDA * - przykład f_limit= E- K-2L-2 B- Algorytm IDA * - przykład f_limit= E- K-2L-2 B- T-

Algorytm IDA * - przykład f_limit= K-2L-2 B- E- F- T- Algorytm IDA * - przykład f_limit= B- E- F- 2 K-2 L-2 L-2 T-

Algorytm IDA * - przykład f_limit= B- E- F- 2 K-2 L-2 L-2 T- T- Algorytm IDA * - przykład f_limit= B- E- F- 2 K-2 L-2 L-2 M-2 T- T-

Algorytm IDA * - przykład B- C- f_limit= E- F- 2 K-2 L-2 L-2 M-2 T- T- Algorytm IDA * - przykład B- C- f_limit= E- F- G- 2 K-2 L-2 L-2 M-2 T- T-

Algorytm IDA * - przykład B- C- f_limit= E- F- G- 2 K-2 L-2 L-2 M-2 N- T- T- Algorytm IDA * - przykład B- C- f_limit= E- F- G- H- 2 K-2 L-2 L-2 M-2 N- T- T- 7

Algorytm IDA * - przykład B- C- f_limit= E- F- G- H- 2 K-2 L-2 L-2 M-2 N- T- T- 2 O-2 2 Algorytm IDA * - przykład B- C- f_limit= E- F- G- H- 2 K-2 L-2 L-2 M-2 N- O-2 T- T- 2 2 P-2 8

Algorytm IDA * - przykład B- C- f_limit= E- F- G- H- 2 K-2 L-2 L-2 M-2 N- 2 O-2 2 P-2 T- T- U-0 koniec! Algorytm IDA * : charakterystyka Cechy szczególne Brak historii nie ma list OPEN i CLOSED NiŜsze wymagania pamięciowe niŝ A * - proporcjonalne do najdłuŝszej badanej ścieŝki - O(d) Limit wartości f w następnej iteracji jest najmniejszą wartości cią spośród d wszystkich tych ocen, które przekroczyły y aktualny limit sukcesywnie powiększany obszar przeszukiwania śadna ścieŝka w trakcie przeszukiwania nie moŝe e mieć kosztu o wartości, która byłaby między dwoma kolejnymi limitami na wartość f Optymalny i pełny dla tych samych warunków w co algorytm A * Wady W grafach DAG wielokrotnie moŝe e docierać do tego samego stanu róŝnymi r ścieŝkami Słabe wykorzystanie pamięci: kiedy ocena heurystyczna dla kaŝdego stanu jest inna, to liczba nowych stanów, którego zostaną objęte przeszukiwaniem w kolejnej iteracji wynosi dokładnie (dla N róŝnych r stanów w konieczne będzie b wykonanie N iteracji!!!) 9

Mechanizm przeszukiwania algorytmu IDA * Tylko dla monotonicznego oszacowania h(n) zachowuje się jak algorytm Best-First Search W grafach z cyklami gdy f(n)=h(n) moŝe e wpadać w pętle, p jeŝeli eli maksymalna ocena wierzchołka jest mniejsza od aktualnej wartości limitu pogłę łębiania (konieczne sprawdzanie cykli na ścieŝce) ce) IDA*: niemonotoniczna oszacowanie heurystyczne f_limit= 2 2 2 2 Algorytm Best-First First-Search Algorytm IDA* Dla stanów w z wartości cią oceny f_limit algorytm IDA* ignoruje te oceny i przeszukuje strategią Depth-first Kolejność odwiedzin ocena stanu 70

Algorytm RBFS function RBFS(current_state current_state, f_limit): solution, new_f-limit begin if current_state is a goal then return(current_state current_state, current_state.f); successors [] for all unexamined children of current_state do add child into successors; if successors is empty then return(null, ); for each s in successors do s.f max(s.g + s.h, current_state.f); repeat re-order nodes in successors according to f-value; best the the lowest f-value node in successors; if best.f > f_limit then return(null null, best.f); alternative the second-lowest f-value node in successors; (solution, best.f ) RBFS( FS(best, min( f_limit, alternative.f ));); until solution null; return(current_state current_state+solution, best.f ); end. Algorytm RBFS (Recursive Best-First Search) Dwa parametry wywołania: rozwijany wierzchołek ek oraz górne ograniczenie na wartość oceny (na starcie: stan inicjujący cy oraz ) Lokalne ograniczenie wartości oceny przy kaŝdym zagnieŝdŝeniu eniu przeszukiwania Wartość górnego ograniczenia wierzchołka to minimum z wartości ograniczenia ojca oraz oceny jego najniŝej ocenionego rodzeństwa Przeszukuje graf leŝą Ŝący pod wierzchołkiem tak długo, d aŝa nie zostanie przekroczone ograniczenie, wtedy zwraca najmniejszą wartość przekraczającą ograniczenie 7

Algorytm RBFS - przykład B- C- D- 2 zaczynamy z największ kszą moŝliw liwą wartości cią Algorytm RBFS - przykład B- C- D- E- F- 2 72

Algorytm RBFS - przykład nowa ocena przypisana po rekurencji 2 B- C- D- G- H- 2 Algorytm RBFS - przykład B- C- D- 2 2 G- H- 2 O-22 P-2 2 2 bo ograniczenie przodka jest mniejsze od najlepszego brata () 7

Algorytm RBFS - przykład B- C- D- 2 G- H- 2 O-22 P-2 2 2 Nie ma następnik pników Algorytm RBFS - przykład B- C- D- G- H- 2 2 7

Algorytm RBFS - przykład B- C- D- 2 7 I- J- Algorytm RBFS - przykład B- C- D- 2 7

Algorytm RBFS - przykład 2 B- C- D- G- H- monotoniczność (PATHMAX) Algorytm RBFS - przykład 2 B- C- D- G- H- N- 7

Algorytm RBFS - przykład 2 B- C- D- G- H- 2 O-2 2 P-2 bo ograniczenie przodka jest mniejsze od najlepszego brata monotoniczność (PATHMAX) Algorytm RBFS - przykład 2 B- C- D- G- H- 2 O-22 P-2 2 Nie ma następnik pników U-0 77

Algorytm RBFS - przykład 2 B- C- D- G- H- 2 O-22 P-2 2 Algorytm RBFS - przykład 2 B- C- D- G- H- 78

Algorytm RBFS - przykład B- C- D- 2 Algorytm RBFS - przykład B- C- D- E- F- 2 79

Algorytm RBFS - przykład K-2 L-2 B- C- D- E- F- 2 bo ograniczenie najlepszego brata jest mniejsze od ogr.. przodka Algorytm RBFS - przykład B- C- D- E- F- 2 80

Algorytm RBFS - przykład B- C- D- E- F- 2 L-2 M-2 2 Algorytm RBFS - przykład B- C- D- E- F- 2 L-2 M-2 2 T- Nie ma następnik pników 8

Algorytm RBFS - przykład B- C- D- E- F- 2 L-2 M-2 2 Algorytm RBFS - przykład B- C- D- E- F- 2 82

Algorytm RBFS - przykład K-2 L-2 B- C- D- E- F- 2 Algorytm RBFS - przykład K-2 L-2 B- C- D- E- F- 2 T- Nie ma następnik pników 8

Algorytm RBFS - przykład K-2 L-2 B- C- D- E- F- 2 Dead end Algorytm RBFS - przykład B- C- D- E- F- 2 8

Algorytm RBFS - przykład B- C- D- 2 Algorytm RBFS - przykład B- C- D- G- H- 2 8

Algorytm RBFS - przykład B- C- D- G- H- N- 2 Algorytm RBFS - przykład B- C- D- G- H- 2 8

Algorytm RBFS - przykład B- C- D- G- H- 2 2 O-22 P-2 2 monotoniczność (PATHMAX) Algorytm RBFS - przykład B- C- D- G- H- 2 2 O-22 P-2 2 U-0 Koniec! 87

Algorytm RBFS (Recursive Best-First Search) Algorytm wykorzystuje dwie wartości oceny kaŝdego wierzchołka: najpierw statyczną a potem zapamiętan taną (z przeszukiwania) Wierzchołek ek jest rozwijany tylko wtedy, gdy wartość jego ograniczenia jest niemniejsza od jego oceny Jeśli wierzchołek ek był juŝ przeszukiwany, jego wartość zapamiętana/przechowywana będzie b większa od statycznej oceny heurystycznej Jeśli wartość przechowywana oceny jest większa od statycznej oceny heurystycznej, to wartość ta jest najmniejszą spośród d wartości przechowywanych jego potomków Ogólnie: wartości przechowywane rodziców w sąs przekazywane do potomków, o ile przekraczają one zarówno ocenę statyczną rodzica, jak i potomstwa Algorytm RBFS (Recursive Best-First Search) Algorytm zawsze odwiedza wierzchołki zgodnie ze strategią Best-First niezaleŝnie od funkcji h(n) Niska złoŝonoz oność pamięciowa - liniowa O(bd),, gdzie b branching factor, d głębokość przeszukiwania) Kiedy funkcja oceny nie jest monotoniczna algorytmy IDA* oraz RBFS sąs nieporównywalne Kiedy funkcja oceny jest monotoniczna algorytm IDA* oraz RBFS przeszukują te same wierzchołki w przestrzeni i zwracają takie same rozwiązanie, zanie, ale RBFS odwiedza mniejszą liczbą wierzchołków 88