Na podstawie: AIMA, ch13. Wojciech Jaśkowski. 15 marca 2013

Podobne dokumenty
Modelowanie Niepewności

Algorytmy stochastyczne, wykład 08 Sieci bayesowskie

Systemy ekspertowe - wiedza niepewna

Algorytmy estymacji stanu (filtry)

Klasyfikacja metodą Bayesa

Metody systemowe i decyzyjne w informatyce

Fuzja sygnałów i filtry bayesowskie

Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Wnioskowanie statystyczne i oparte na współczynnikach wiarygodności. Wprowadzenie teoretyczne Wnioskowanie probabilistyczne Przykłady

Elementy wspo łczesnej teorii inwersji

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne

P(F=1) F P(C1 = 1 F = 1) P(C1 = 1 F = 0) P(C2 = 1 F = 1) P(C2 = 1 F = 0) P(R = 1 C2 = 1) P(R = 1 C2 = 0)

Przestrzeń probabilistyczna

Sztuczna Inteligencja i Systemy Doradcze

Metody systemowe i decyzyjne w informatyce

WYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska

Wnioskowanie statystyczne i oparte na współczynnikach wiarygodności

Sieci Bayesa mgr Tomasz Xięski, Instytut Informatyki, Uniwersytet Śląski Sosnowiec, 2011

Wnioskowanie statystyczne i oparte na współczynnikach wiarygodności

Wnioskowanie bayesowskie

Metody systemowe i decyzyjne w informatyce

Metody probabilistyczne

Rozkład normalny Parametry rozkładu zmiennej losowej Zmienne losowe wielowymiarowe

11. Gry Macierzowe - Strategie Czyste i Mieszane

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski

Układy stochastyczne

W2 Podstawy rachunku prawdopodobieństwa (przypomnienie)

STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA

STATYSTYKA MATEMATYCZNA

WYKŁAD 2 i 3. Podstawowe pojęcia związane z prawdopodobieństwem. Podstawy teoretyczne. autor: Maciej Zięba. Politechnika Wrocławska

Pojęcie przestrzeni probabilistycznej

Gdzie: N zbiór wierzchołków grafu, E zbiór krawędzi grafu, Cp zbiór prawdopodobieostw warunkowych.

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności

Rachunek prawdopodobieństwa - Teoria - Przypomnienie.. A i B są niezależne, gdy P(A B) = P(A)P(B). P(A B i )P(B i )

Klasyfikacja bayesowska

Sztuczna Inteligencja i Systemy Doradcze

Weryfikacja hipotez statystycznych

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa

Prawdopodobieństwo i statystyka

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe

Sztuczna inteligencja : Naiwny klasyfikator Bayesa

Algorytmy stochastyczne Wykład 12, Uczenie parametryczne w sieciach bayesowskich

Przypomnienie elementów z rachunku prawdopodobieństwa. Naiwny klasyfikator Bayesa. Aktualizacja rozkładów wg reguły Bayesa.

STATYSTYKA MATEMATYCZNA

Modele DSGE. Jerzy Mycielski. Maj Jerzy Mycielski () Modele DSGE Maj / 11

Mikroekonometria 12. Mikołaj Czajkowski Wiktor Budziński

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe

Sztuczna inteligencja : Tworzenie sieci Bayesa

WYKŁAD 2. Problem regresji - modele liniowe

Inżynieria wiedzy Wnioskowanie oparte na wiedzy niepewnej Opracowane na podstawie materiałów dra Michała Berety

Systemy uczące się wykład 1

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 13 i 14 - Statystyka bayesowska

PRZEWODNIK PO PRZEDMIOCIE

+ r arcsin. M. Przybycień Rachunek prawdopodobieństwa i statystyka π r x

Uczenie ze wzmocnieniem aplikacje

Wykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa

Rachunek prawdopodobieństwa

Zmienne losowe, statystyki próbkowe. Wrocław, 2 marca 2015

Funkcje charakterystyczne zmiennych losowych, linie regresji 1-go i 2-go rodzaju

MATEMATYKA - CYKL 5 GODZINNY. DATA : 8 czerwca 2009

Rachunek Prawdopodobieństwa Rozdział 5. Rozkłady łączne

Metody probabilistyczne

Testy zgodności. Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Inteligencji i Metod Matematycznych. Wykład 11

Przypomnienie elementów z rachunku prawdopodobieństwa. Naiwny klasyfikator Bayesa. Aktualizacja rozkładów wg reguły Bayesa.

Podstawy metod probabilistycznych. dr Adam Kiersztyn

SID Wykład XI Sieci Bayesowskie

Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału

Modele zapisane w przestrzeni stanów

Statystyka w zarzadzaniu / Amir D. Aczel, Jayavel Sounderpandian. Wydanie 2. Warszawa, Spis treści

Rozkład normalny. Marcin Zajenkowski. Marcin Zajenkowski () Rozkład normalny 1 / 26

Statystyka i eksploracja danych

Wykład 13. Podstawowe pojęcia rachunku prawdopodobieństwa

Metody probabilistyczne

Algorytmy MCMC (Markowowskie Monte Carlo) dla skokowych procesów Markowa

Podstawowe modele probabilistyczne

STATYSTYKA wykład 1. Wanda Olech. Katedra Genetyki i Ogólnej Hodowli Zwierząt

L.Kowalski zadania z rachunku prawdopodobieństwa-zestaw 4 ZADANIA - ZESTAW 4

Stanisław Cichocki. Natalia Nehrebecka. Wykład 9

Rozkłady wielu zmiennych

Mikroekonometria 9. Mikołaj Czajkowski Wiktor Budziński

Komputerowa analiza danych doświadczalnych

Rozpoznawanie obrazów

Diagramy Venna. Uwagi:

Własności statystyczne regresji liniowej. Wykład 4

Rozkład normalny Parametry rozkładu zmiennej losowej Zmienne losowe wielowymiarowe

i=7 X i. Zachodzi EX i = P(X i = 1) = 1 2, i {1, 2,..., 11} oraz EX ix j = P(X i = 1, X j = 1) = 1 7 VarS 2 2 = 14 3 ( 5 2 =

Matematyka z el. statystyki, # 1 /Geodezja i kartografia I/

Niepewność Belief Networks SE. Zarządzanie wiedzą. Wykład 9 Reprezentacja niepewności w systemach inteligentnych Probabilistyka. Joanna Kołodziejczyk

Wykład 3: Prawdopodobieństwopodstawowe

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I (SGH)

Wprowadzenie. { 1, jeżeli ˆr(x) > 0, pozatym. Regresja liniowa Regresja logistyczne Jądrowe estymatory gęstości. Metody regresyjne

Rachunku prawdopodobieństwa: rys historyczny, aksjomatyka, prawdopodobieństwo warunkowe,

Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/

Rozpoznawanie obrazów

Wojciech Jaśkowski. 6 marca 2014

Zadania z Zasad planowania eksperymentu i opracowania wyników pomiarów. Zestaw 3

Dynamiczne stochastyczne modele równowagi ogólnej

Kurs do wyboru Wstęp do analizy algorytmów Instytut Matematyki i Informatyki UO 2011/2012

Zadania o numerze 4 z zestawów licencjat 2014.

Transkrypt:

Na podstawie: AIMA, ch13 Instytut Informatyki, Politechnika Poznańska 15 marca 2013

Źródła niepewności Świat częściowo obserwowalny Świat niedeterministyczny Także: Lenistwo i ignorancja (niewiedza) Cel: Racjonalne decyzje w obecności niepewności

Świat Wumpus a 4 Stench Breeze Breeze PIT 3 Stench PIT Breeze Gold 2 Stench Breeze 1 Breeze PIT Breeze START 1 2 3 4

Świat Wumpus a 1,4 2,4 3,4 4,4 1,3 2,3 3,3 4,3 1,2 2,2 3,2 4,2 B OK 1,1 2,1 3,1 4,1 B OK OK

Podstawy I Notacja: zmienne losowa Cancer = { c, c} Prawdopodobieństwo warunkowe: P(c t)p(t) = P(c t) (reguła produkcji) Rozkład prawdopodobieństwa: P(Cancer) = P(c), P( c) Rozkład prawd. łącznego: P(Cancer, Test) - wektor wszystkich kombinacji wartości zmiennych losowych Cancer i Test. Niezależność zdarzeń losowych: P(c) = P(c t) P(t) = P(t c) P(c)P(t) = P(c t) Niezależność zmiennych losowych: P(T ) = P(T C) wiedza o niezależności zmiennych jest zwykle wiedzą dziedzinową.

(Pełny) rozkład łączny ból ból test test test test dziura 0.108 0.012 0.072 0.008 dziura 0.016 0.064 0.144 0.576

Prawd. marginalne (marginalizacja) ból ból test test test test dziura 0.108 0.012 0.072 0.008 dziura 0.016 0.064 0.144 0.576 P(dziura) =? P(Dziura) =? Ogólnie: P(Y) = x X P(Y, x)

Prawd. całkowite ból ból test test test test dziura 0.108 0.012 0.072 0.008 dziura 0.016 0.064 0.144 0.576 P(dziura ból) =? Ogólnie: P(Y) = x X P(Y x)p(x), gdzie Y i X są wektorami zmiennych losowych

Normalizacja ból ból test test test test dziura 0.108 0.012 0.072 0.008 dziura 0.016 0.064 0.144 0.576 P(dziura ból) =? P( dziura ból) =? P(Dziura ból) =? Ogólnie: P(X e) = αp(x, e), gdzie X jest wektorem zmiennych losowych

Niezależność Czwarta zmienna: pogoda P(Pogoda = s loneczna, ból, test, dziura) = P(Pogoda = s loneczna ból, test, dziura)p(ból, test, dziura) P(Pogoda = s loneczna ból, test, dziura) = P(Pogoda = s loneczna), więc: P(Pogoda = s loneczna, ból, test, dziura) = P(Pogoda = s loneczna)p(ból, test, dziura) Ogólnie: P(X Y ) = P(X ), albo P(X, Y ) = P(X )P(Y )

Niezależność Cavity Toothache Weather Catch Coin 1 Coin n decomposes into decomposes into Cavity Toothache Catch Weather Coin 1 Coin n

Reguła Bayesa P(a b) = P(b a)p(a) P(b) To proste równanie leży u większości nowoczesnych systemów sztucznej inteligencji opartych na wnioskowaniu probabilistycznym. P(b) prawd. marginalne, P(a b) prawd. a posteriori, P(a) prawd. a priori P(b) zwykle jest nieznane i rozpisuje się je jako praw. całkowite. Wersja bardziej ogólna (z dodatkową wartością zmiennej E): P(Y X, e) = P(X Y, e)p(y e) P(X e) Kierunek przyczynowy: P(efekt przyczyna) Kierunek diagnostyczny: P(przyczyna efekt)

Przykład zapalenie opon mózgowych (M) i sztywność karku (S) P(s m) = 0.7 P(m) = 1/50000 P(s) = 0.01 P(M s) =?

Warunkowa niezależność zmiennych P(Dziura ból, test) =? Ale to się nie skaluje... P(Dziura ból, test) = αp(ból, test Dziura)P(Dziura) = αp(ból Dziura)P(test Dziura)P(Dziura)

Warunkowa niezależność zmiennych C rak, T 1 jakiś test na obecność raka, T 2 jakiś inny test na obecność raka C jest zmienną ukrytą. Ale jeśli znalibyśmy C jakakolwiek wiedza o T 1 nie da nam żadnej dodatkowej wiedzy dot. T 2, czyli T 1 i T 2 są niezależne warunkowo pod warunkiem C. P(T 2 C, T 1 ) = P(T 2 C) P(T 1, T 2 C) = P(T 1 C)P(T 2 C) Notacja: T 1 T 2 C

Wumpus 1,4 2,4 3,4 4,4 1,4 2,4 3,4 4,4 1,3 2,3 3,3 4,3 1,3 2,3 3,3 4,3 OTHER QUERY 1,2 2,2 3,2 4,2 B OK 1,1 2,1 3,1 4,1 B 1,2 2,2 3,2 4,2 FRONTIER 1,1 2,1 3,1 4,1 KNOWN OK OK Jakie jest prawd, że w polu (1,3) jest jama jeśli wiatr poczuliśmy w polu (1,2) i (2,1)? Innymi słowy zapytanie wygląda tak: P(P 1,3 b 1,2, b 2,1, b 1,2, p 1,2, p 2,1, p 1,1 ) =?