wykład 1 Inteligentny agent i jego otoczenie Szukanie jako metoda rozwiązywania problemów dr inż. Joanna Kołodziejczyk

Podobne dokumenty
wykład 2 Inteligentny agent i jego otoczenie Przeszukiwanie dla problem-solving dr inż. Joanna Kołodziejczyk Zakład Sztucznej Inteligencji ISZiMM

Sztuczna Inteligencja i Systemy Doradcze

Sztuczna Inteligencja i Systemy Doradcze

wykład 1 Wprowadzanie do sztucznej inteligencji dr inż. Joanna Kołodziejczyk Zakład Sztucznej Inteligencji ISZiMM

Heurystyczne metody przeszukiwania

SID Wykład 1 Wprowadzenie

Inteligentne Agenty. Na podstawie: AIMA ch2 i slajdów S. Russel a. Wojciech Jaśkowski. 14 marca

Podstawy sztucznej inteligencji

Inteligentne Agenty. Na podstawie: AIMA ch2 i slajdów S. Russel a. Wojciech Jaśkowski. 18 marca Inteligentne Agenty

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD III: Problemy agenta

WPROWADZENIE DO SZTUCZNEJ INTELIGENCJI

Podstawy sztucznej inteligencji

Wstęp do Sztucznej Inteligencji

Elementy kognitywistyki II:

Podstawy sztucznej inteligencji

SID Wykład 2 Przeszukiwanie

Sztuczna Inteligencja i Systemy Doradcze

WPROWADZENIE DO SZTUCZNEJ INTELIGENCJI

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD II: Agent i jego środowisko

Rozwiązywanie problemów przez przeszukiwanie. w oparciu o: S. Russel, P. Norvig. Artificial Intelligence. A Modern Approach

Wykład 2. Inteligentni agenci. w oparciu o: S. Russel, P. Norvig. Artificial Intelligence. A Modern Approach. Inteligentni agenci (2g)

Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych

Heurystyki. Strategie poszukiwań

Rozwiązywanie problemów metodą przeszukiwania

Wprowadzenie do teorii systemów ekspertowych

O badaniach nad SZTUCZNĄ INTELIGENCJĄ

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD V: Agent wciąż szuka rozwiązania (choć już nie na ślepo)

Wprowadzenie do Sztucznej Inteligencji

O badaniach nad SZTUCZNĄ INTELIGENCJĄ

Wprowadzenie do Sztucznej Inteligencji

ĆWICZENIE 1: Przeszukiwanie grafów cz. 1 strategie ślepe

SZTUCZNA INTELIGENCJA

Marcel Stankowski Wrocław, 23 czerwca 2009 INFORMATYKA SYSTEMÓW AUTONOMICZNYCH

Wykład 7 i 8. Przeszukiwanie z adwersarzem. w oparciu o: S. Russel, P. Norvig. Artificial Intelligence. A Modern Approach

SZTUCZNA INTELIGENCJA

Strategie przeszukiwania ślepe i heurystyczne

JAKIEGO RODZAJU NAUKĄ JEST

Elementy kognitywistyki II: Sztuczna inteligencja

Podstawy Sztucznej Inteligencji (PSZT)

Wprowadzenie do Sztucznej Inteligencji

Sztuczna inteligencja - wprowadzenie

MODELOWANIE RZECZYWISTOŚCI

Ćwiczenie 1 Planowanie trasy robota mobilnego w siatce kwadratów pól - Algorytm A

O badaniach nad SZTUCZNĄ INTELIGENCJĄ

Sztuczna inteligencja

SZTUCZNA INTELIGENCJA

Metoda tabel semantycznych. Dedukcja drogi Watsonie, dedukcja... Definicja logicznej konsekwencji. Logika obliczeniowa.

Stefan Sokołowski SZTUCZNAINTELIGENCJA. Inst. Informatyki UG, Gdańsk, 2009/2010

prowadzący dr ADRIAN HORZYK /~horzyk tel.: Konsultacje paw. D-13/325

Podstawy programowania 2. Temat: Drzewa binarne. Przygotował: mgr inż. Tomasz Michno

Analiza i projektowanie oprogramowania. Analiza i projektowanie oprogramowania 1/32

Systemy Agentowe główne cechy. Mariusz.Matuszek WETI PG

PRZEWODNIK PO PRZEDMIOCIE

Festiwal Myśli Abstrakcyjnej, Warszawa, Czy SZTUCZNA INTELIGENCJA potrzebuje FILOZOFII?

Metody przeszukiwania

Alan M. TURING. Matematyk u progu współczesnej informatyki

Teoria obliczeń i złożoność obliczeniowa

Sztuczna Inteligencja i Systemy Doradcze

Planowanie drogi robota, algorytm A*

Elementy kognitywistyki III: Modele i architektury poznawcze

Kognitywistyka: odkrywanie labiryntu umysłu z różnymi nićmi Ariadny w ręku

O ALGORYTMACH I MASZYNACH TURINGA

Przeszukiwanie z nawrotami. Wykład 8. Przeszukiwanie z nawrotami. J. Cichoń, P. Kobylański Wstęp do Informatyki i Programowania 238 / 279

Wykład2,24II2010,str.1 Przeszukiwanie przestrzeni stanów powtórka

Algorytm. Krótka historia algorytmów

Sztuczna Inteligencja

Wstęp do kognitywistyki. Wykład 3: Logiczny neuron. Rachunek sieci neuronowych

Sztuczna inteligencja stan wiedzy, perspektywy rozwoju i problemy etyczne. Piotr Bilski Instytut Radioelektroniki i Technik Multimedialnych

Problemy Decyzyjne Markowa

Sztuczna inteligencja w grach

Sztuczna Inteligencja (SI)

WIEDZA METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING. Adrian Horzyk. Akademia Górniczo-Hutnicza

Algorytmy sztucznej inteligencji

Systemy agentowe. Uwagi organizacyjne i wprowadzenie. Jędrzej Potoniec

Algorytmy z powrotami. Algorytm minimax

Metoda Tablic Semantycznych

OpenAI Gym. Adam Szczepaniak, Kamil Walkowiak

Psychologia decyzji. Struktura wykładu DR BEATA BAJCAR ZAKŁAD PSYCHOLOGII I ERGONOMII. wykład 15 godzin

Algorytmy i str ruktury danych. Metody algorytmiczne. Bartman Jacek

Formacyjne znaczenie programowania w kształceniu menedżerów

Elementy kognitywistyki III: Modele i architektury poznawcze

Maszyna Turinga języki

Wykład 6. Drzewa poszukiwań binarnych (BST)

Wykład 2. Drzewa poszukiwań binarnych (BST)

Modelowanie hierarchicznych struktur w relacyjnych bazach danych

Uniwersytet w Białymstoku Wydział Ekonomiczno-Informatyczny w Wilnie SYLLABUS na rok akademicki 2012/2013

Między umysłem, mózgiem i maszyną. O kognitywistyce

Problemy Decyzyjne Markowa

Wstęp do kognitywistyki. Wykład 12: Wprowadzenie do SI. Obliczeniowa teoria umysłu

Definicje. Algorytm to:

Tworzenie gier na urządzenia mobilne

METODY HEURYSTYCZNE wykład 1

METODY HEURYSTYCZNE wykład 1

Gry. wykład 5. dr inż. Joanna Kołodziejczyk. Zakład Sztucznej Inteligencji ISZiMM. ESI - wykład 5 p. 1

LABORATORIUM 2: Przeszukiwanie grafów cz. 2 strategie heurystyczne

M T E O T D O ZI Z E E A LG L O G R O Y R TM

Metody Kompilacji Wykład 3


Jazda autonomiczna Delphi zgodna z zasadami sztucznej inteligencji

Elementy kognitywistyki III: Modele i architektury poznawcze

Transkrypt:

Inteligentny agent i jego otoczenie Szukanie jako metoda rozwiązywania problemów wykład 1 dr inż. Joanna Kołodziejczyk jkolodziejczyk@wi.ps.pl Zakład Sztucznej Inteligencji ISZiMM ESI - wykład 1 p. 1

Literatura Slajdy z wykładów: http://ksir.wi.ps.pl/esi Linki podane na ww stronie Podręczniki podawane na slajdach z wykładu Artificial Intelligence: A Modern Approach by Stuart Russell and Peter Norvig, Prince Hall, 1995 http://www.cs.berkeley.edu/~russell/aima/ ESI - wykład 1 p. 2

Plan wykładu 1. Wprowadzenie do sztucznej inteligencji 2. Inteligentny agent (a) Agent i jego otoczenie (b) Racjonalność (c) Ocena działania, otoczenie, czujniki (d) Typy środowisk w jakim może pracować agent (e) Typy agentów 3. Rozwiazywanie problemów (a) Agent z zadaniem rozwiazania problemu (b) Typy problemów (c) Sformułowanie problemu (d) Przykłady problemów ESI - wykład 1 p. 3

Dlaczego chcemy studiować SI? SI próbuje odkryć jak działaja jednosteki inteligentne SI próbuje budować inteligentne jednostki SI na pewno ma i będzie miała wpływ na nasza przyszłość SI jest dziedzina silnie interdyscyplinarna SI w chwili obecnej składa się z wielu poddziedzin (niektóre zostana omówione na wykładzie) Czy można zrozumieć jak to jest możliwe, że za pomoca małego i wolnego mózgu można postrzegać, rozumieć, przewidywać i manipulować elementami świata dużo bardziej złożonego? ESI - wykład 1 p. 4

Czym jest inteligencja? Psychologia: cecha umysłu odpowiadajaca za sprawność w zakresie myślenia, rozwiazywania problemów i innych czynności poznawczych. Filozofia: czynność intelektu, polegajaca na aktualnym rozumieniu poznawanej rzeczy; INTELEKT - umysł, rozum; całokształt wiedzy, doświadczenia i zdolności umysłowych człowieka; utożsamiany niekiedy z inteligencja. Biologia: obserwowana w warunkach naturalnych lub eksperymentalnych umiejętność niektórych zwierzat szybkiego znalezienia najtrafniejszego postępowania w nowej, nieznanej sytuacji. ESI - wykład 1 p. 5

Czym jest sztuczna inteligencja? Różne definicje według różnych kryteriów. Dwa wymiary: 1. myślenie/rozumowanie kontra działanie/zachowanie 2. sukces w naśladowaniu ludzkich standardów kontra sukces w osiagnięciu idealnej inteligencji (niezawodnej) nazwijmy ja racjonalnej System, który myśli jak człowiek. System, który zachowuje się jak człowiek. System, który myśli racjonalnie. System, który zachowuje się racjonalnie. ESI - wykład 1 p. 6

Ludzkie myślenie (zachowanie) Alan Turing (1950) Computing machinery and intelligence : Czy maszyna myśli? Czy maszyna może zachowywać się inteligentnie? Test operacyjny na inteligentne zachowanie: Gra w naśladownictwo (Imitation Game) ESI - wykład 1 p. 7

Dziedzictwo pomysłu Turinga Turing twierdził, że do 2000 roku będzie można mówić o myślacych maszynach i taka maszyna będzie miała 30% szans by w 5 minutowej konwersacji zwieść odpytujacego. Maszyna wymaga współdziałania wszystkich głównych komponentów SI: wiedzy, wnioskowania, rozumienia języka naturalnego, uczenia się. Dodatkowo w pełnym teście potrzebne będa takie elementy jak widzenie i robotyka. Myślenie w sensie Turinga Myślenie jest domena człowieka i nie dotyczy maszyn? Asking whether computers can think is like asking whether submarines can swim. Jak sprawdzić czy ktoś myśli? Problemy z testem: nie da się go powtórzyć i nie da się go matematycznie przeanalizować. ESI - wykład 1 p. 8

Nagroda Loebnera What is the Loebner Prize? The Loebner Prize for artificial intelligence ( AI ) is the first formal instantiation of a Turing Test. The test is named after Alan Turing the brilliant British mathematician... In 1990 Hugh Loebner agreed with The Cambridge Center for Behavioral Studies to underwrite a contest designed to implement the Turing Test. Dr. Loebner pledged a Grand Prize of $100,000 and a Gold Medal (pictured above) for the first computer whose responses were indistinguishable from a human s. Such a computer can be said "to think. Each year an annual prize of $2000 and a bronze medal is awarded to the most human-like computer. The winner of the annual contest is the best entry relative to other entries that year, irrespective of how good it is in an absolute sense. http://www.loebner.net/prizef/loebner-prize.html ESI - wykład 1 p. 9

Myślenie ludzkie: kognitywistka Jak ludzie myśla? Wymagana jest teoria naukowa wewnętrznej aktywności mózgu. Dwie drogi badań introspekcja próba przechwycenia myśli podczas ich pojawiania się testowanie zachowań na ludziach w oparciu o neurologię (a dokładnie cognitive neuroscience) (odkrycie zasad działania mózgu da szansę na jego implementację) Dostępne teorie nie wyjaśniaja niczego, co byłoby podobne do ludzkiej inteligencji w ujęciu ogólnym. ESI - wykład 1 p. 10

Podstawy sztucznej inteligencji Filozofia Matematyka Psychologia Ekonomia Lingwistyka logika, metody dowodzenia rozum jako fizyczny model podstawy uczenia się, język naturalny, rozumowanie formalna reprezentacja i dowodzenie algorytmy, obliczenia, teoria złożoności prawdopodobieństwo adaptacja zjawisko postrzegania i sterowania motorycznego techniki eksperymentalne formalna teoria racjonalnych decyzji reprezentacja wiedzy gramatyka ESI - wykład 1 p. 11

Myślenie racjonalne Normatywne (lub niepodważalne), nie domyślne. Arystoteles: Na czym polega poprawny proces myślenia? > sylogizm. W Grecji opracowano różne logiki: notacje, reguły wyprowadzania wniosków ( myśli ). Tradycja logistyczna dała nadzieję na zmechanizowanie myślenia i stworzenie systemów z użyciem programowania logicznego. Główne problemy: Nie cała inteligencja jest oparta na żelaznej logice. Jest różnica w rozwiazaniach praktycznych i teoretycznych. ESI - wykład 1 p. 12

Działanie racjonalne Racjonalne zachowanie: działanie poprawne. Działanie poprawne: to takie, dzięki któremu maksymalizujemy szansę osiagnięcia celu. Działanie odbywa się na podstawie dostępnych informacji. Z pewnych działań można nawet wyłaczyć myślenie np. refleks. Zalety: Bardziej uogólniona idea niż myślenie. Daje łatwiejszy grunt dla badań naukowych. Racjonalność jest możliwa do osiagnięcia w warunkach idealnych. Racjonalność nie jest dobrym modelem rzeczywistości. ESI - wykład 1 p. 13

Racjonalny agent Agent jest jednostka, która postrzega i działa. Niniejszy kurs jest o tym, jak projektować racjonalnych agentów. Formalizujac, agent jest funkcja odwzorowujac a zanotowane spostrzeżenia w akcje. f : P A Dla każdej klasy otoczenia, w którym agent będzie działał będziemy poszukiwać agenta lub grupy agentów o najlepszych osiagach. Ograniczenia obliczeniowe sa główna przyczyna porażki w poszukiwaniu idealnego racjonalizmu stad celem jest opracowanie najlepszego programu na obecne zasoby obliczeniowe. ESI - wykład 1 p. 14

Agent i jego otoczenie sensors environment percepts actions? agent actuators Za inteligentnego agenta uznamy człowieka, robota, softbota, termostat, itp. Funkcja agent mapuje historię percepcji (odczyty z czujników, klawiatury) na akcje: f : P A Program agent uruchamiany jest w urzadzeniu (hardware:) by realizować f. ESI - wykład 1 p. 15

Odkurzacz i jego świat A B Percepcja: lokalizacja i stan podłogi, np., [A, Brud] Akcja: Lewo, Prawo, Odkurz, Nic ESI - wykład 1 p. 16

Agent - odkurzacz Sekwencje percepcji [A, Czysto] [A, Brud] [B, Czysto] [B, Brud] [A, Czysto], [A, Czysto] [A, Czysto], [A, Brud] [A, Czysto], [B, Czysto]. Działanie P rawo Odkurz Lewo Odkurz P rawo Odkurz Lewo. 1 function Reflex-Vacuum-Agent(location,status) return action 2 if status = Brud then return Odkurz 3 else if location = A then return Prawo 4 else if location = B then return Lewo ESI - wykład 1 p. 17

Oczekiwane zachowanie agenta Funkcja, która agent ma wypełnić ma dawać takie efekty, iż zachowanie agenta będzie można określić jako dobre. W przybliżeniu dobre akcje, to takie, które przynosza jak najwięcej korzyści. Zatem należy znaleźć sposób na mierzenie odnoszonych przez agenta korzyści (miarę jego sukcesu). Pełna specyfikacja agenta obejmuje: jak mierzyć korzyści z działania agenta, w jakim środowisku (z czym ma kontakt) agent i jak to wpływa na jego zachowanie o ile w ogóle, jak i jakie informacje przekazywane sa do agenta, jak i jakie informacje stanowia informację zwrotna od agenta. ESI - wykład 1 p. 18

Mierzenie korzyści z działania agaetna Miara osiagów to kryterium sukcesu. Nie ma uniwersalnego miernika dla agentów. Dla każdego zadania konstruktor określa takowa miarę. Przykład miary osiagów dla agenta-odkurzacza: Ile razy odkurzono brud w ciagu ośmiogodzinnej zmiany. Jedno pole sprzatane w jednostce czasu T. Jeden punkt za posprzatanie pola w jednostce czasu minus jeden punkt za ruch, który powoduje zużycie energii. Lepiej konstruować miarę osiagów według tego jak agent ma zmieniać środowisko, a nie jak ma się zachowywać w oderwaniu od niego. ESI - wykład 1 p. 19

Agent racjonalny Agent racjonalny wybiera taka akcję dla pojawiajacej się sekwencji wejściowej, która maksymalizuje oczekiwana wartość miary osiagów, określona na podstawie wejść i wiedzy jaka jest w agencie zapamiętana. Racjonalny wszechwiedzacy percepcja nie musi dostarczać całkowitej wymaganej informacji Racjonalny jasnowidzacy wynik akcji nie musi być zgodny z oczekiwaniami Racjonalny odnoszacy zawsze sukces Racjonalny zbiera informacje (zwiększenie szans na nagrodę), uczy się (rozszerzanie wiedzy), jest autonomiczny (więcej niż tylko wbudowana wiedza - zmiana zachowań na podstawie doświadczenia). ESI - wykład 1 p. 20

Automatyczna taksówka Aby stworzyć racjonalnego agenta należy określić PEAS, czyli Performace, Environement, Actuators, Sensors. Ważne jest, że agent mysi działać zgodnie z oczekiwaniami czyli miara osiagów. Rozważmy agenta - automatyczna taksówka: 1. Ocena osiagów ESI - wykład 1 p. 21

Automatyczna taksówka Aby stworzyć racjonalnego agenta należy określić PEAS, czyli Performace, Environement, Actuators, Sensors. Ważne jest, że agent mysi działać zgodnie z oczekiwaniami czyli miara osiagów. Rozważmy agenta - automatyczna taksówka: 1. Ocena osiagów bezpieczeństwo, cel podróży, profit, legalność, komfort 2. Otoczenie ulice, ruch uliczny, piesi, pogoda 3. Aktualizatory kierownica, pedał gazu, hamulec, klakson, mikrofon 4. Czujniki wideo, prędkościomierz, wskaźnik poziomu paliwa, czujniki silnika, klawiatura, GPS ESI - wykład 1 p. 21

Agent zakupów internetowych 1. Ocena osiagów ESI - wykład 1 p. 22

Agent zakupów internetowych 1. Ocena osiagów cena, jakość, zgodność z upodobaniami, efektywność 2. Otoczenie obecne i przyszłe strony WWW, sprzedawca, dostawca 3. Aktualizatory wyświetlacz dla użytkownika, śledzenie linków, wypełnianie formularzy 4. Czujniki tekst, grafika, pismo ESI - wykład 1 p. 22

Typy otoczenia Obserwowalne Krzyżówka Warcaby Analiza obrazów taksówka ESI - wykład 1 p. 23

Typy otoczenia Otoczenie w pełni obserwowalne (czujniki wykrywaja wszystkie istotne aspekty, które sa niezbędna dla wykonania dobrej akcji) lub częściowo obserwowalne. Krzyżówka Warcaby Analiza obrazów taksówka Obserwowalne w pełni w pełni w pełni częściowo Deterministyczne ESI - wykład 1 p. 23

Typy otoczenia Deterministyczne lub stochastyczne: jeżeli kolejny stan otoczenia jest całkowicie określony na podstawie stanu bieżacego i wykonanej akcji, to otoczenie jest deterministyczne. Niepewność skutkuje otoczeniem stochatycznym. Krzyżówka Warcaby Analiza obrazów taksówka Obserwowalne w pełni w pełni w pełni częściowo Deterministyczne tak stochast. tak stochast. Epizodyczne ESI - wykład 1 p. 23

Typy otoczenia Epizodyczne lub sekwencyjne: W otoczeniu epizodycznym doświadczenie agenta może być podzielone na atomowe kroki, w których agent postrzega i wykonuje pojedyncza akcję. Wybór działania zależy jedynie od listy epizodów, a nie od działania wykonanego poprzednio. Krzyżówka Warcaby Analiza obrazów taksówka Obserwowalne w pełni w pełni w pełni częściowo Deterministyczne tak stochast. tak stochast. Epizodyczne sekwen. sekwen. tak sekwen. Statyczne ESI - wykład 1 p. 23

Typy otoczenia Statyczne lub dynamiczne: Jeżeli otoczenie może zmieniać się w czasie kiedy agent wybiera akcję, to środowisko jest dynamiczne. Semi-dynamiczne to takie, gdy miara osiagów agenta zmienia się nawet, gdy otoczenie jest niezmienne w czasie. Krzyżówka Warcaby Analiza obrazów taksówka Obserwowalne w pełni w pełni w pełni częściowo Deterministyczne tak stochast. tak stochast. Epizodyczne sekwen. sekwen. tak sekwen. Statyczne tak tak semi dynamic. Dyskretne ESI - wykład 1 p. 23

Typy otoczenia Dyskretne lub ciagłe: Zależy od tego jak widziany jest czas zmian stanu otoczenia oraz percepcji i dziania agenta. Krzyżówka Warcaby Analiza obrazów taksówka Obserwowalne w pełni w pełni w pełni częściowo Deterministyczne tak stochast. tak stochast. Epizodyczne sekwen. sekwen. tak sekwen. Statyczne tak tak semi dynamic. Dyskretne tak tak ciagłe Pojedynczy agent ciagłe ESI - wykład 1 p. 23

Typy otoczenia Pojedynczy lub multiagent: Czy otoczenie zawiera innych agentów, którzy również maksymalizuja swoja miarę osiagów? Ich działanie zależy od działania rozpatrywanego agenta. Krzyżówka Warcaby Analiza obrazów taksówka Obserwowalne w pełni w pełni w pełni częściowo Deterministyczne tak stochast. tak stochast. Epizodyczne sekwen. sekwen. tak sekwen. Statyczne tak tak semi dynamic. Dyskretne tak tak ciagłe ciagłe Pojedynczy agent tak multi tak multi ESI - wykład 1 p. 23

Typy otoczenia Krzyżówka Warcaby Analiza obrazów taksówka Obserwowalne w pełni w pełni w pełni częściowo Deterministyczne tak stochast. tak stochast. Epizodyczne sekwen. sekwen. tak sekwen. Statyczne tak tak semi dynamic. Dyskretne tak tak ciagłe ciagłe Pojedynczy agent tak multi tak multi Typ otoczenia silnie wpływa na projekt agenta. Rzeczywistość jest częściowo obserwowalna, stochastyczna, sekwencyjna, dynamiczna, ciagła, wielo-agentowy. ESI - wykład 1 p. 23

Struktura agenta agent = harware + program Hardware, to rodzaj urzadzenia zapewniajacego sensory i aktualizatory. Program musi być dostosowany do sprzętu. Kurs poświęcony jest projektowaniu programów agentów (część sprzętowa jest pomijana). ESI - wykład 1 p. 24

Typy agentów Cztery główne typy w kolejności zwiększajacej się ogólności ich zastosowań Prosty agent działajacy na zasadzie odruchów reflex agent. Prosty agent działajacy na zasadzie odruchów ze stanem reflex agent with state. Agent ukierunkowany goal-based agent. Agent użyteczny utility-based agent. Wszystkie moga dodatkowo zawierać moduł odpowiedzialny za uczenie się. ESI - wykład 1 p. 25

Reflex agent Agent Sensors Condition action rules What the world is like now What action I should do now Environment Actuators 1 function Simple-Reflex-Agent(percept) return action 2 static: rules: a set of condition-action rules 3 4 state = InterpretInput(percept) 5 rule = RuleMatch(state, rules) 6 action = RuleAction[rule] ESI - wykład 1 p. 26

Reflex agent nie wykorzystuje historii percepcji condition-action rule to np.: if samochód przed toba then zainicjalizuj hamowanie może pracować tylko w środowisku w pełni obserwowalnym sposobem na uniknięcie nieskończonych pętli zachowań (powstajacych przy niepełnej obserwowalności) jest stosowanie losowych zmian w akcjach ESI - wykład 1 p. 27

Model-based reflex agents State Sensors How the world evolves What my actions do Condition action rules What the world is like now What action I should do now Environment Agent Actuators 1 function Model-based-Reflex-Agent(percept) return action 2 static: rules: a set of condition-action rules 3 state: a description of the current world state 4 action: the most recent action, initially none 5 6 state = UpdateState(state,action,percept) 7 rule = RuleMatch(state, rules) 8 action = RuleAction[rule] ESI - wykład 1 p. 28

Model-based reflex agents przechowuje pewna wiedzę o stanach np. przeszłych, które teraz nie sa obserwowalne podjęcie akcji zależy od tego jak wyewoluowało środowisko przechowuje informacje jak jego własne akcje wpłyna na otoczenie, czyli przechowuje wiedzę how the world works, co nazywa się modelem świata funkcja uaktualniania stanu jest odpowiedzialna za stworzenie wewnętrznego opisu stanu jak i interpretację w świetle wiedzy o świecie i tym jak się zmienił ESI - wykład 1 p. 29

Goal-based agents State How the world evolves What my actions do Goals Sensors What the world is like now What it will be like if I do action A What action I should do now Environment Agent Actuators ESI - wykład 1 p. 30

Goal-based agents podejmowana decyzja może być zależna nie tylko od bieżacego stanu, ale od celu jaki agent ma postawiony jeżeli cel osiagnie się przez wykonanie pojedynczej akcji, to zadanie jest proste w rzeczywistych zadaniach należy znaleźć długi i nie zawsze łatwy do znalezienie ciag akcji prowadzacy do celu przeszukiwanie i planowanie, to poddziedziny, w których wykorzystuje się goal-based agentów wiedza, na podstawie której podejmuje decyzje jest zewnętrzna i dlatego łatwiej ja zmieniać, a agent jest przenośny ESI - wykład 1 p. 31

Utility-based agents State How the world evolves What my actions do Utility Sensors What the world is like now What it will be like if I do action A How happy I will be in such a state What action I should do now Environment Agent Actuators ESI - wykład 1 p. 32

Utility-based agents sam cel nie zawsze wystarczy, można również oceniać jak osiagn ać go wydajniej tworzy się funkcję użyteczności, która oszacowuje jakość bieżacego stanu w wypadku kilku akceptowalnych sekwencji prowadzacych do celu pozwala wybrać taka, o najlepszych parametrach użyteczności ESI - wykład 1 p. 33

Learning agents Performance standard Critic Sensors feedback learning goals Learning element changes knowledge Performance element Environment Problem generator Agent Actuators ESI - wykład 1 p. 34

Learning agents learning element odpowiedzialny za postępy performance element wybór akcji (wcześniej prezentowane typy agentów dokładnie tym się zajmowały) critic ocenia zachowanie bieżace agenta, by ewentualnie skorygować jego zachowanie w przyszłości i przekazuje te informacje do modułu uczacego się problem generator sugeruje akcje prowadzace do nowych doświadczeń ESI - wykład 1 p. 35

Rozwiazywanie problemów przez przeszukiwanie czyli jak zbudować agenta, który znajdzie sekwencję akcji prowadzac a do oczekiwanego celu (lub celów). Problem-solving agent to agent typu goal-based. Problem, to elementy, wśród których szuka się elementu solution. ESI - wykład 1 p. 36

Problem-solving agent Cztery główne kroki w zadaniach (problem-solving) 1. Sformułowanie celu: Jaki stan dla rozpatrywanego mikroświata jest stanem oczekiwanym (zwycięskim)? 2. Określenie problemu: Jakie stany i akcje należy rozważyć by osiagn ać cel? 3. Poszukiwanie rozwiazania: Określenie możliwej sekwencji akcji, która prowadzi do stanów o znanych wartościach i wybór najlepszej sekwencji. 4. Wykonanie: Podaj rozwiazanie jako ciag wykonanych akcji. ESI - wykład 1 p. 37

Przykład: Rumunia 71 Oradea Neamt Zerind 75 Arad 140 118 Timisoara 111 70 75 Dobreta 151 Sibiu 99 Fagaras 80 Rimnicu Vilcea Lugoj Mehadia 120 Pitesti 211 97 146 101 85 138 Bucharest Craiova 90 Giurgiu 87 Iasi 92 142 98 Urziceni Vaslui Hirsova 86 Eforie ESI - wykład 1 p. 38

Przykład: Rumunia Jesteś na wakacjach w Ruminii. Obecnie w Aradzie. Jutro masz samolot z Bukaresztu. Określenie celu: dotrzeć do Bukaresztu Określenie problemu: stany: różne miasta akcje: podróż pomiędzy miastami Określenie rozwiazania: porzadek odwiedzanych miast np. Arad, Sibiu, Fagaras, Bukareszt ESI - wykład 1 p. 39

W jakim środowisku pracuje problem-solving agent? Statyczne problem-solving (stanów i rozwiazania) jest określane bez udziału wpływu środowiska i zmian jakie moga w nim nastapić. W pełni obserwowalne stan inicjalizujacy jest dany. Dyskretne alternatywne akcje maja charakter wyliczeniowy. Deterministyczne rozwiazanie jest sekwencja akcji i nie ma możliwości wystapienia nieprzewidzianych wydarzeń. ESI - wykład 1 p. 40

Poprawne określanie problem-solving Problem definiuje się przez : Stan poczatkowy: np. Arad Akcja - funkcja generujaca potomka: S(X) zbiór par < akcja, stannastpny > np. S(Arad) = {< Arad Zerind, Zerind >,...} Stan końcowy - cel: Wyraźny: np. X = Bukareszt Ukryty: np. szach mat(x) Koszt ścieżki: funkcja przypisujaca numeryczna wartości do sekwencji stanów prowadzacych do rozwiazania lub innego stanu pośredniego (informacja dodatkowa) np. suma odległości, numer wykonanej akcji, itp. c(x, a, y) jest kosztem wykonania kroku i zakłada się, że 0 Rozwiazanie: To ciag, w którym zapisane sa kolejne akcje, jakie wykonano przechodzac od stany poczatkowego do stanu końcowego. Optymalne rozwiazanie ma najmniejszy koszt ścieżki. ESI - wykład 1 p. 41

Szczegóły o określaniu problem-solving Rzeczywistość jest szalenie skomplikowana i wymaga uproszczenia (abstraction) (wycięcia szczegółowych informacji) reprezentacji by możliwe było rozpatrywanie przestrzeni stanów. (Uproszczony) stan: zbiór stanów rzeczywistych (Uproszczona) akcja: kombinacja rzeczywistych działań np: Arad Zerind reprezentuje złożony zbiór możliwych dróg, miejsc na odpoczynek, itp. Uproszczenie jest dopuszczalne jeżeli ścieżka odzwierciedli rzeczywisty świat. (Uproszczone) rozwiazanie: zbiór ścieżek, które występuja w świecie rzeczywistym. Każda uproszczona akcja jest łatwiejsza niż problem rzeczywisty. ESI - wykład 1 p. 42

Przykład: odkurzacz L R L R S S L R R L R R L L S S S S L R L R S S Stany: Stan poczatkowy: Akcja: Jak sprawdzić cel: Koszt ścieżki: ESI - wykład 1 p. 43

Przykład: odkurzacz L R L R S S L R R L R R L L S S S S L R L R S S Stany: dwa pola z brudem lub bez: 2 2 2 = 8 stanów. Stan poczatkowy: Każdy stan może nim być. Akcja:{Lewo, P rawo, Odkurz} Jak sprawdzić cel: Czy oba pola czyste? Koszt ścieżki: Liczba wykonanych akcji do osiagnięcia celu. ESI - wykład 1 p. 43

Przykład: układanka ośmioelementowa 7 2 4 51 2 3 5 6 4 5 6 8 3 1 7 8 Start State Goal State Stany: Stan poczatkowy: Akcja: Jak sprawdzić cel: Koszt ścieżki: ESI - wykład 1 p. 44

Przykład: układanka ośmioelementowa 7 2 4 51 2 3 5 6 4 5 6 8 3 1 7 8 Start State Goal State Stany: integer: położenie każdego klocka. Stan poczatkowy: Każdy stan może nim być. Akcja:{Lewo, P rawo, Gra, D} Jak sprawdzić cel: Sprawdź czy położenie końcowe zostało uzyskane. Koszt ścieżki: Liczba wykonanych akcji do osiagnięcia celu. ESI - wykład 1 p. 44

Przykład: 8 hetmanów Podejście inkrementacyjne Stany: Stan poczatkowy: Akcja: Jak sprawdzić cel: Koszt ścieżki: ESI - wykład 1 p. 45

Przykład: 8 hetmanów Podejście inkrementacyjne Stany: dowolne położenie od 0 do 8 hetmanów na szachownicy. Stan poczatkowy: Pusta szachownica. Akcja: Dodaj hetmana na pustym polu. Jak sprawdzić cel: Czy ustawione na szachownicy hetmany nie atakuja się? Koszt ścieżki: zero - nie interesuje nas. Istnieje 64 8 możliwych sekwencji do przebadania. ESI - wykład 1 p. 45

Przykład: 8 hetmanów Podejście inkrementacyjne Stany: Ustawienie od 0 do 8 hetmanów nie atakujacych się. Stan poczatkowy: Pusta szachownica. Akcja: Dodawaj hetmana w kolejnych kolumnach zaczynajac od lewej dbajac, by ustawiaby hetman nie atakował innych. Jak sprawdzić cel: Czy ustawione na szachownicy hetmany nie atakuja się? Koszt ścieżki: zero - nie interesuje nas. Istnieje 2057 możliwych sekwencji do przebadania. Zatem właściwe sformułowanie problemu może mieć duże znaczenie dla wyników. ESI - wykład 1 p. 45

Przykład: robot montażowy P R R R R R Stany: Stan poczatkowy: Akcja: Jak sprawdzić cel: Koszt ścieżki: ESI - wykład 1 p. 46

Przykład: robot montażowy P R R R R R Stany: koordynaty położenia ramienia robota; części elementów do montażu. Stan poczatkowy: Dowolne położenie ramienia i dowolna konfiguracja elementów. Akcja: Ciagłe obroty ramienia w przegubach. Jak sprawdzić cel: Pełen montaż. Koszt ścieżki: Czas wykonania. ESI - wykład 1 p. 46

Podstawowy algorytm przeszukiwania Jak znaleźć rozwiazanie na zdefiniowane problemy? Przeszukać przestrzeń stanów - należy pamiętać, że przestrzeń stanów zależy silnie od reprezentacji stanu. Przeszukiwanie przez jawne rozwijanie drzewa: korzeń drzewa = stan poczatkowy; węzły i liście generowane poprzez zastosowanie funkcji tworzacej potomków. Uogólniajac, przeszukiwanie generuje graf, w którym ten sam węzeł może być wygenerowany na różnych ścieżkach. ESI - wykład 1 p. 47

Przykład przeszukiwania drzewa Stan poczatkowy Arad Sibiu Timisoara Zerind Arad Fagaras Oradea Rimnicu Vilcea Arad Lugoj Arad Oradea ESI - wykład 1 p. 48

Przykład przeszukiwania drzewa Po rozwinięciu węzła Arad Arad Sibiu Timisoara Zerind Arad Fagaras Oradea Rimnicu Vilcea Arad Lugoj Arad Oradea ESI - wykład 1 p. 48

Przykład przeszukiwania drzewa Po rozwinięciu węzła Sibiu Arad Sibiu Timisoara Zerind Arad Fagaras Oradea Rimnicu Vilcea Arad Lugoj Arad Oradea ESI - wykład 1 p. 48

Implementacja stanów - węzły parent, action State 5 6 4 1 8 Node depth = 6 g = 6 7 3 2 state Stan jest reprezentacja fizycznej konfiguracji. Węzeł jest struktura danych stanowiac a część drzewa przeszukiwań. Węzeł ma rodzica, dzieci, głębokość, koszt ścieżki g(x). node =< state, parent node, action, path cost, depth > Węzły skrajne czekaja na rozwinięcie z użyciem funkcji generujacej potomków węzła rozwijanego. ESI - wykład 1 p. 49

Implementacja: przeszukiwanie drzewa 1 function TREE-SEARCH(problem,fringe) return a solution or failure 2 fringe = INSERT(MAKE-NODE(INITIAL-STATE[problem]), fringe) 3 4 do 5 if fringe is EMPTY then return failure 6 node = REMOVE-FIRST(fringe) 7 if GOAL-TEST(problem, STATE[node]) then return node 8 fringe = INSERT-ALL(EXPAND(node, problem), fringe) 1 function Expand( node, problem) returns a set of nodes 2 successors = the empty set 3 do for each action, result in Successor-Fn(problem, State[node]) 4 s = a new Node 5 Parent-Node[s] = node; Action[s] = action; State[s] = result 6 Path-Cost[s] = Path-Cost[node] + Step-Cost(node, action, s) 7 Depth[s] = Depth[node] + 1 8 add s to successors 9 return successors ESI - wykład 1 p. 50

Strategie przeszukiwania Strategie (node expanding) sa definiowane przez wybór kolejności rozwijania węzłów. Kryteria oceny strategii przeszukiwania: Zupełność (completeness): czy zawsze znajdzie rozwiazanie jeżeli ono istnieje? Złożoność czasowa (time complexity): liczba węzłów generowana/rozwijana. Obszar zajmowanej pamięci (space complexity): maksymalna liczba węzłów w pamięci. Optymalność (optimality): czy zawsze znajdzie najmniej kosztowne rozwiazanie? Złożoność obliczeniowa mierzona jest z uwzględnieniem: b maksymalnego współczynnika rozgałęzienia w drzewie, d głębokości najmniej kosztownego rozwiazania, m maksymalnej głębokości przestrzeni stanów (może być ). ESI - wykład 1 p. 51

Ślepe (uninformed) strategie przeszukiwania Strategie ślepe używaja tylko informacji podanej w definicji problemu. Przeszukiwanie wszerz BFS (Breadth-first search). Przeszukiwanie o stałym koszcie UCS (Uniform-cost search). Przeszukiwanie w głab DFS (Depth-first search). Przeszukiwanie w głab z ograniczeniem (Depth-limited search). Iteracyjne zagłębianie (Iterative deepening search). ESI - wykład 1 p. 52