Na podstawie: AIMA, ch13 Instytut Informatyki, Politechnika Poznańska 15 marca 2013
Źródła niepewności Świat częściowo obserwowalny Świat niedeterministyczny Także: Lenistwo i ignorancja (niewiedza) Cel: Racjonalne decyzje w obecności niepewności
Świat Wumpus a 4 Stench Breeze Breeze PIT 3 Stench PIT Breeze Gold 2 Stench Breeze 1 Breeze PIT Breeze START 1 2 3 4
Świat Wumpus a 1,4 2,4 3,4 4,4 1,3 2,3 3,3 4,3 1,2 2,2 3,2 4,2 B OK 1,1 2,1 3,1 4,1 B OK OK
Podstawy I Notacja: zmienne losowa Cancer = { c, c} Prawdopodobieństwo warunkowe: P(c t)p(t) = P(c t) (reguła produkcji) Rozkład prawdopodobieństwa: P(Cancer) = P(c), P( c) Rozkład prawd. łącznego: P(Cancer, Test) - wektor wszystkich kombinacji wartości zmiennych losowych Cancer i Test. Niezależność zdarzeń losowych: P(c) = P(c t) P(t) = P(t c) P(c)P(t) = P(c t) Niezależność zmiennych losowych: P(T ) = P(T C) wiedza o niezależności zmiennych jest zwykle wiedzą dziedzinową.
(Pełny) rozkład łączny ból ból test test test test dziura 0.108 0.012 0.072 0.008 dziura 0.016 0.064 0.144 0.576
Prawd. marginalne (marginalizacja) ból ból test test test test dziura 0.108 0.012 0.072 0.008 dziura 0.016 0.064 0.144 0.576 P(dziura) =? P(Dziura) =? Ogólnie: P(Y) = x X P(Y, x)
Prawd. całkowite ból ból test test test test dziura 0.108 0.012 0.072 0.008 dziura 0.016 0.064 0.144 0.576 P(dziura ból) =? Ogólnie: P(Y) = x X P(Y x)p(x), gdzie Y i X są wektorami zmiennych losowych
Normalizacja ból ból test test test test dziura 0.108 0.012 0.072 0.008 dziura 0.016 0.064 0.144 0.576 P(dziura ból) =? P( dziura ból) =? P(Dziura ból) =? Ogólnie: P(X e) = αp(x, e), gdzie X jest wektorem zmiennych losowych
Niezależność Czwarta zmienna: pogoda P(Pogoda = s loneczna, ból, test, dziura) = P(Pogoda = s loneczna ból, test, dziura)p(ból, test, dziura) P(Pogoda = s loneczna ból, test, dziura) = P(Pogoda = s loneczna), więc: P(Pogoda = s loneczna, ból, test, dziura) = P(Pogoda = s loneczna)p(ból, test, dziura) Ogólnie: P(X Y ) = P(X ), albo P(X, Y ) = P(X )P(Y )
Niezależność Cavity Toothache Weather Catch Coin 1 Coin n decomposes into decomposes into Cavity Toothache Catch Weather Coin 1 Coin n
Reguła Bayesa P(a b) = P(b a)p(a) P(b) To proste równanie leży u większości nowoczesnych systemów sztucznej inteligencji opartych na wnioskowaniu probabilistycznym. P(b) prawd. marginalne, P(a b) prawd. a posteriori, P(a) prawd. a priori P(b) zwykle jest nieznane i rozpisuje się je jako praw. całkowite. Wersja bardziej ogólna (z dodatkową wartością zmiennej E): P(Y X, e) = P(X Y, e)p(y e) P(X e) Kierunek przyczynowy: P(efekt przyczyna) Kierunek diagnostyczny: P(przyczyna efekt)
Przykład zapalenie opon mózgowych (M) i sztywność karku (S) P(s m) = 0.7 P(m) = 1/50000 P(s) = 0.01 P(M s) =?
Warunkowa niezależność zmiennych P(Dziura ból, test) =? Ale to się nie skaluje... P(Dziura ból, test) = αp(ból, test Dziura)P(Dziura) = αp(ból Dziura)P(test Dziura)P(Dziura)
Warunkowa niezależność zmiennych C rak, T 1 jakiś test na obecność raka, T 2 jakiś inny test na obecność raka C jest zmienną ukrytą. Ale jeśli znalibyśmy C jakakolwiek wiedza o T 1 nie da nam żadnej dodatkowej wiedzy dot. T 2, czyli T 1 i T 2 są niezależne warunkowo pod warunkiem C. P(T 2 C, T 1 ) = P(T 2 C) P(T 1, T 2 C) = P(T 1 C)P(T 2 C) Notacja: T 1 T 2 C
Wumpus 1,4 2,4 3,4 4,4 1,4 2,4 3,4 4,4 1,3 2,3 3,3 4,3 1,3 2,3 3,3 4,3 OTHER QUERY 1,2 2,2 3,2 4,2 B OK 1,1 2,1 3,1 4,1 B 1,2 2,2 3,2 4,2 FRONTIER 1,1 2,1 3,1 4,1 KNOWN OK OK Jakie jest prawd, że w polu (1,3) jest jama jeśli wiatr poczuliśmy w polu (1,2) i (2,1)? Innymi słowy zapytanie wygląda tak: P(P 1,3 b 1,2, b 2,1, b 1,2, p 1,2, p 2,1, p 1,1 ) =?