Sieci Bayesowskie. Agnieszka Nowak Brzezińska



Podobne dokumenty
Sieci Bayesowskie. Agnieszka Nowak Brzezińska Wykład III i IV

Sieci Bayesowskie. Agnieszka Nowak Brzezińska

Klasyfikacja metodą Bayesa

Agnieszka Nowak Brzezińska

Algorytmy stochastyczne, wykład 08 Sieci bayesowskie

Systemy ekspertowe - wiedza niepewna

Gdzie: N zbiór wierzchołków grafu, E zbiór krawędzi grafu, Cp zbiór prawdopodobieostw warunkowych.

Sieci Bayesa mgr Tomasz Xięski, Instytut Informatyki, Uniwersytet Śląski Sosnowiec, 2011

Spacery losowe generowanie realizacji procesu losowego

Wnioskowanie bayesowskie

Agnieszka Nowak Brzezińska Wykład III

Prawdopodobieństwo czerwonych = = 0.33

Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji

Zadania o numerze 4 z zestawów licencjat 2014.

Agnieszka Nowak Brzezińska Wykład III

Przestrzeń probabilistyczna

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Rachunek prawdopodobieństwa

Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1

Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/

P(F=1) F P(C1 = 1 F = 1) P(C1 = 1 F = 0) P(C2 = 1 F = 1) P(C2 = 1 F = 0) P(R = 1 C2 = 1) P(R = 1 C2 = 0)

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Elementy modelowania matematycznego

Indukowane Reguły Decyzyjne I. Wykład 3

Zadanie 0 gdy nie mamy logiki rozmytej. Zadanie 1- gdy już mamy logikę rozmytą

Prawdopodobieństwo warunkowe Twierdzenie o prawdopodobieństwie całkowitym

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa

Algorytmy klasyfikacji

III. ZMIENNE LOSOWE JEDNOWYMIAROWE

+ r arcsin. M. Przybycień Rachunek prawdopodobieństwa i statystyka π r x

Metoda tabel semantycznych. Dedukcja drogi Watsonie, dedukcja... Definicja logicznej konsekwencji. Logika obliczeniowa.

Zdarzenia losowe i prawdopodobieństwo

W narzędziu typu Excel, Calc czy Gnumeric napisz formułę logiczną która wyznaczy wartośd przynależności dla podanej temperatury do zbioru gorąco.

PODSTAWY WNIOSKOWANIA STATYSTYCZNEGO czȩść II

Sztuczna inteligencja : Tworzenie sieci Bayesa

Testowanie hipotez statystycznych

Metoda Tablic Semantycznych

STATYSTYKA wykład 1. Wanda Olech. Katedra Genetyki i Ogólnej Hodowli Zwierząt

Modelowanie Niepewności

STATYSTYKA wykład 1. Wanda Olech. Katedra Genetyki i Ogólnej Hodowli Zwierząt

Klasyfikacja bayesowska

Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak

Metody probabilistyczne klasyfikatory bayesowskie

ALGORYTMICZNA I STATYSTYCZNA ANALIZA DANYCH

Systemy ekspertowe i ich zastosowania. Katarzyna Karp Marek Grabowski

Inżynieria Wiedzy i Systemy Ekspertowe. Niepewność wiedzy. dr inż. Michał Bereta Politechnika Krakowska

Na podstawie: AIMA, ch13. Wojciech Jaśkowski. 15 marca 2013

Wykład 9 Testy rangowe w problemie dwóch prób

Statystyka i eksploracja danych

Podstawy Teorii Prawdopodobieństwa

Korzystanie z podstawowych rozkładów prawdopodobieństwa (tablice i arkusze kalkulacyjne)

Sortowanie topologiczne skierowanych grafów acyklicznych

Rozkłady statystyk z próby

Elementy rachunku prawdopodobieństwa (M. Skośkiewicz, A. Siejka, K. Walczak, A. Szpakowska)

Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności. dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl

Weryfikacja hipotez statystycznych

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16

Systemy uczące się wykład 2

Podstawy metod probabilistycznych. dr Adam Kiersztyn

E: Rekonstrukcja ewolucji. Algorytmy filogenetyczne

Niepewność Belief Networks SE. Zarządzanie wiedzą. Wykład 9 Reprezentacja niepewności w systemach inteligentnych Probabilistyka. Joanna Kołodziejczyk

Prawdopodobieństwo i statystyka

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne

STATYSTYKA MATEMATYCZNA

Modele DSGE. Jerzy Mycielski. Maj Jerzy Mycielski () Modele DSGE Maj / 11

Testowanie hipotez statystycznych. Wnioskowanie statystyczne

Wstęp do rachunku prawdopodobieństwa

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova

), którą będziemy uważać za prawdziwą jeżeli okaże się, że hipoteza H 0

Rachunek prawdopodobieństwa- wykład 2

Testowanie hipotez statystycznych.

TEORETYCZNE PODSTAWY INFORMATYKI

Indukcja. Materiały pomocnicze do wykładu. wykładowca: dr Magdalena Kacprzak

Pochodna i różniczka funkcji oraz jej zastosowanie do obliczania niepewności pomiarowych

Wykład 2 Hipoteza statystyczna, test statystyczny, poziom istotn. istotności, p-wartość i moc testu

Statystyka i eksploracja danych

PRZYKŁADY ZADAŃ MATURALNYCH Z MATEMATYKI NA POSZCZEGÓLNE STANDARDY DLA WYBRANYCH TREŚCI PROGRAMOWYCH Z POZIOMU PODSTAWOWEGO I ROZSZERZONEGO

Systemy ekspertowe. Wykład 4 Reprezentacja wiedzy Probabilistyczne wyrażanie niepewności. Joanna Kołodziejczyk

Sztuczna Inteligencja Projekt

Rachunek prawdopodobieństwa dla informatyków

Inżynieria wiedzy Wnioskowanie oparte na wiedzy niepewnej Opracowane na podstawie materiałów dra Michała Berety

Testowanie hipotez statystycznych

Metody probabilistyczne

5. Wprowadzenie do prawdopodobieństwa Wprowadzenie Wyniki i zdarzenia Różne podejścia do prawdopodobieństwa Zdarzenia wzajemnie wykluczające się i

Rozpoznawanie obrazów

Reprezentacje grafów nieskierowanych Reprezentacje grafów skierowanych. Wykład 2. Reprezentacja komputerowa grafów

5. OKREŚLANIE WARTOŚCI LOGICZNEJ ZDAŃ ZŁOŻONYCH

166 Wstęp do statystyki matematycznej

Zastosowanie rozmytych map kognitywnych do badania scenariuszy rozwoju jednostek naukowo-dydaktycznych

Elementy logiki i teorii mnogości

CZEŚĆ PIERWSZA. Wymagania na poszczególne oceny,,matematyka wokół nas Klasa III I. POTĘGI

Metody probabilistyczne

Metody systemowe i decyzyjne w informatyce

Analiza wariancji. dr Janusz Górczyński

STATYSTYKA MATEMATYCZNA WYKŁAD 1

Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa

WYMAGANIA Z MATEMATYKI NA POSZCZEGÓLNE OCENY KLASYFIKACYJNE DLA UCZNIÓW KLAS TRZECICH. Sposoby sprawdzania wiedzy i umiejętności uczniów

Systemy uczące się Lab 4

LABORATORIUM Z FIZYKI

Transkrypt:

Sieci Bayesowskie Agnieszka Nowak Brzezińska

Rodzaje niepewności Niepewność stochastyczna np. nieszczęśliwy wypadek, ryzyko ubezpieczenia, wygrana w lotto metody rachunku prawdopodobieństwa Niepewność wynikająca z niedokładności pomiarowej np. temp, czasu, wymiarów obiektu metody statystyki Niepewność informacyjna np. wiarygodny kredytobiorca, wiarygodność informacji data mining, szukanie prawidłowości Niepewność lingwistyczna wysoko, mało, zimno, szybko zbiory rozmyte, zbiory przybliżone

Kim był Thomas Bayes? Thomas Bayes ur. ok. 1702 w Londynie zm. 17 kwietnia 1761 brytyjski matematyk i duchowny prezbiteriański, znany ze sformułowania opublikowanego pośmiertnie twierdzenia Bayesa, które to zapoczątkowało dział statystyki.

Twierdzenie Bayesa od nazwiska Thomasa Bayesa to twierdzenie teorii prawdopodobieostwa, wiążące prawdopodobieostwa warunkowe zdarzeo. Na przykład, jeśli jest zdarzeniem "u pacjenta występuje wysoka gorączka", a jest zdarzeniem "pacjent ma grypę", twierdzenie Bayesa pozwala przeliczyd znany odsetek gorączkujących wśród chorych na grypę i znane odsetki gorączkujących i chorych na grypę w całej populacji, na prawdopodobieostwo, że ktoś jest chory na grypę, gdy wiemy że ma wysoką gorączkę. Twierdzenie stanowi podstawę teoretyczną sieci bayesowskich, stosowanych w eksploracji danych.

Przykład Twierdzenia Bayesa można użyć do interpretacji rezultatów badania przy użyciu testów wykrywających narkotyki. Załóżmy, że przy badaniu narkomana test wypada pozytywnie w 99% przypadków, zaś przy badaniu osoby nie zażywającej narkotyków wypada negatywnie w 99% przypadków. Pewna firma postanowiła przebadać swoich pracowników takim testem wiedząc, że 0,5% z nich to narkomani. Chcemy obliczyć prawdopodobieństwo, że osoba u której test wypadł pozytywnie rzeczywiście zażywa narkotyki.

Oznaczenia dla zdarzeń D - dana osoba jest narkomanem N - dana osoba nie jest narkomanem + - u danej osoby test dał wynik pozytywny - u danej osoby test dał wynik negatywny Wiemy, że: PD = 0,005, gdyż 0,5% pracowników to narkomani PN = 1 PD = 0,995 P + D = 0,99, gdyż taką skuteczność ma test przy badaniu narkomana P N = 0,99, gdyż taką skuteczność ma test przy badaniu osoby nie będącej narkomanem P + N = 1 P N = 0,01

Mając te dane chcemy obliczyć prawdopodobieństwo, że osoba u której test wypadł pozytywnie, rzeczywiście jest narkomanem. Tak więc: Mimo potencjalnie wysokiej skuteczności testu, prawdopodobieństwo, że narkomanem jest badany pracownik, u którego test dał wynik pozytywny, jest równe około 33%, więc jest nawet bardziej prawdopodobnym, ze taka osoba nie zażywa narkotyków. Ten przykład pokazuje, dlaczego ważne jest, aby nie polegać na wynikach tylko pojedynczego testu. Innymi słowy, pozorny paradoks polegający na dużej dokładności testu 99% wykrywalności narkomanów wśród narkomanów i nieuzależnionych wśród nieuzależnionych i niskiej dokładności badania bierze się stąd, że w badanej próbie tylko niewielka część osób to narkomani. Przykładowo jeśli badamy 1000 osób, 0,5% z nich czyli 5 to narkomani, a 995 nie. Natomiast test wskaże jako narkomanów 1% nieuzależnionych 995*1% 10, oraz 99% uzależnionych 5*99% 5. Ostatecznie test wypadł pozytywnie dla 15 osób, jednak tylko 5 z nich to narkomani.

Definicja sieci Bayesowskiej Sied bayesowska to acykliczny nie zawierający cykli graf skierowany, w którym: węzły reprezentują zmienne losowe np. temperaturę jakiegoś źródła, stan pacjenta, cechę obiektu itp. łuki skierowane reprezentują zależnośd typu zmienna X ma bezpośredni wpływ na zmienna Y, każdy węzeł X ma stowarzyszona z nim tablice prawdopodobieostw warunkowych określających wpływ wywierany na X przez jego poprzedników rodziców w grafie, Zmienne reprezentowane przez węzły przyjmują wartości dyskretne np.: TAK, NIE.

Konstruowanie sieci bayesowskiej zdefiniowanie zmiennych, zdefiniowanie połączeń pomiędzy zmiennymi, określenie prawdopodobieństw warunkowych i a priori łac. z założenia wprowadzenie danych do sieci, uaktualnienie sieci, wyznaczenie prawdopodobieństw a posteriori łac. z następstwa

Bayesian networks Sieci Bayesowskie belief networks, Bayesian belief networks nazywane są czasami tzw. sieciami przekonaniowymi lub przyczynowymi. Bayesowskie dlatego, że bazują na podstawach teorii decyzji i teorii prawdopodobieostwa Twierdzenie bayesa wyraża obliczenie konieczne do wykonania w celu przekonania się o prawdziwości wcześniejszych przekonao w świetle nowych dowodów: P A, B P B A P A B * P A P B P B

P A, B P B A P A B * P A P B P B Wyrażenie PA B oznacza prawdopodobieostwo wystąpienia zdarzenia A zależnego od zdarzenia B a więc A jest prawdziwe, jeśli B miało miejsce. Dwie wartości są istotne: 1. Iloraz prawdopodobieostw PB A/PB które mówi jak ważne pod względem informacyjnym jest zdarzenie B w odniesieniu do zdarzenia A, 2. Prawdopodobieostwo zdarzenia A PA wyliczone jeszcze przed zajściem zdarzenia B.

Twierdzenie Bayesa dla prostych zdarzeo Jeśli A i B są prostymi zdarzeniami w przestrzeni prób, to prawdopodobieostwo warunkowe PA/B będzie określone jako: P A B P A B P B liczba wyników liczba zarówno wyników w w A jak B Również PB/A = PAB/PA. Przekształcając ten wzór, otrzymujemy wzór na przecięcie zdarzeo PAB = PB/APA i po podstawieniu mamy: P B / A P A P A B P B Co jest tezą twierdzenia Bayesa dla prostych zdarzeo. i B

Sied bayesowska koduje informacje o określonej dziedzinie za pomocą wykresu, którego wierzchołki wyrażają zmienne losowe, a krawędzie obrazują probabilistyczne zależności między nimi.

Rozkład łączny prawdopodobieństwa jest iloczynem rozkładów węzłowych Wnioskowanie na podstawie sieci Bayesa jest analogiczne do wnioskowania z rozkładu łącznego.

Węzeł A jest rodzicem lub poprzednikiem wierzchołka X, a wierzchołek X jest potomkiem lub następnikiem węzła A, jeżeli istnieje bezpośrednia krawędź z wierzchołka A do X. p X m 1 x1, X 2 x2,..., X m xm p X i xi rodzice X i i1 A więc prawdopodobieostwo pojawienia się wierzchołka potomnego zależy tylko od jego rodziców!

Sieć Bayesowska - graf A pogoda słonecznie/pochmurno/deszczowo/wietrznie B czas wolny tak/nie X humor bardzo dobry/dobry/nietęgi C zajęcie na zewnątrz spacer/basen/rower D zajęcie w domukomputer/książka/gotowanie A X B C D

If A=a1 and B=b1 then X=x1 with 30% If A=a1 and B=b1 then X=x2 with 30% If A=a1 and B=b1 then X=x2 with 40% If A=a1 and B=b2 then X=x1 with 20% If A=a1 and B=b2 then X=x2 with 40% If A=a1 and B=b2 then X=x2 with 40% If A=a2 and B=b1 then X=x1 with 10% If A=a2 and B=b1 then X=x2 with 30% If A=a2 and B=b1 then X=x2 with 60% If A=a2 and B=b2 then X=x1 with 5% If A=a2 and B=b2 then X=x2 with 35% If A=a2 and B=b2 then X=x2 with 60% If A=a3 and B=b1 then X=x1 with 40% If A=a3 and B=b1 then X=x2 with 40% If A=a3 and B=b1 then X=x2 with 20% PX A,B x1 x2 x3 a1b1 0.3 0.3 0.4 a1b2 0.2 0.4 0.4 a2b1 0.1 0.3 0.6 a2b2 0.05 0.35 0.6 a3b1 0.4 0.4 0.2 a3b2 0.2 0.5 0.3 a4b1 0.6 0.35 0.05 a4b2 0.3 0.4 0.3 If A=a3 and B=b2 then X=x1 with 20% If A=a3 and B=b2 then X=x2 with 50% If A=a3 and B=b2 then X=x2 with 30% If A=a4 and B=b1 then X=x1 with 60% If A=a4 and B=b1 then X=x2 with 35% If A=a4 and B=b1 then X=x2 with 5% If A=a4 and B=b2 then X=x1 with 30% If A=a4 and B=b2 then X=x2 with 40% If A=a4 and B=b2 then X=x2 with 30%

A a1 0.25 a2 0.25 a3 0.25 a4 0.25 PX A,B x1 x2 x3 a1b1 0.3 0.3 0.4 a1b2 0.2 0.4 0.4 a2b1 0.1 0.3 0.6 a2b2 0.05 0.35 0.6 a3b1 0.4 0.4 0.2 a3b2 0.2 0.5 0.3 a4b1 0.6 0.35 0.05 a4b2 0.3 0.4 0.3 B b1 0.4 b2 0.6 PC X c1 c2 c3 X1 0.1 0.2 0.7 X2 0.2 0.6 0.2 X3 0.5 0.4 0.1 PDX d1 d2 d3 X1 0.1 0.3 0.6 X2 0.7 0.2 0.1 X3 0.3 0.4 0.3

A a1 0.25 a2 0.25 a3 0.25 a4 0.25 B b1 0.4 b2 0.6 PX A,B X1 x2 x3 a1b1 0.3 0.3 0.4 a1b2 0.2 0.4 0.4 a2b1 0.1 0.3 0.6 a2b2 0.05 0.35 0.6 a3b1 0.4 0.4 0.2 a3b2 0.2 0.5 0.3 a4b1 0.6 0.35 0.05 a4b2 0.3 0.4 0.3 PC X c1 c2 c3 X1 0.1 0.2 0.7 X2 0.2 0.6 0.2 X3 0.5 0.4 0.1 PDX d1 d2 d3 X1 0.1 0.3 0.6 X2 0.7 0.2 0.1 X3 0.3 0.4 0.3 0.001 0.25*0.4*0.05*0.5*0.4,,,,,,,, 3 2 3 1 2 4 3 2 4 3 2 1 2 4 3 2 3 1 2 4 3 2 4 3 2 1 2 4 x X d D p x X c C p b B a A x X p b B p a A p x X d D c C b B a A p x X d D p x X c C p b B a A x X p b B p a A p x X d D c C b B a A p

A a1 0.25 a2 0.25 a3 0.25 a4 0.25 PX A,B X1 x2 x3 a1b1 0.3 0.3 0.4 a1b2 0.2 0.4 0.4 a2b1 0.1 0.3 0.6 a2b2 0.05 0.35 0.6 a3b1 0.4 0.4 0.2 a3b2 0.2 0.5 0.3 a4b1 0.6 0.35 0.05 a4b2 0.3 0.4 0.3 B b1 0.4 b2 0.6 p X x1 A a1 B b1 * p A a1* p B b1 0.3*0.25*0.4 0.3*0.1 0.03

A a1 0.25 a2 0.25 a3 0.25 a4 0.25 B b1 0.4 b2 0.6 PC X c1 c2 c3 X1 0.1 0.2 0.7 X2 0.2 0.6 0.2 X3 0.5 0.4 0.1 PDX d1 d2 d3 X1 0.1 0.3 0.6 X2 0.7 0.2 0.1 X3 0.3 0.4 0.3 0.2525 0.3*0.15 0.6*0.1 0.2*0.15 0.4*0.1 0.05*0.15 0.1*0.1 0.2*0.15 0.3*0.1 2 4 2 4 1 1 4 1 4 1 2 3 2 3 1 1 3 1 3 1 2 2 2 2 1 1 2 1 2 1 2 1 2 1 1 1 1 1 1 1 1 b B a A p b B a A x X p b B a A p b B a A x X p b B a A p b B a A x X p b B a A p b B a A x X p b B a A p b B a A x X p b B a A p b B a A x X p b B a A p b B a A x X p b B a A p b B a A x X p x X p PX A,B X1 x2 x3 a1b1 0.3 0.3 0.4 a1b2 0.2 0.4 0.4 a2b1 0.1 0.3 0.6 a2b2 0.05 0.35 0.6 a3b1 0.4 0.4 0.2 a3b2 0.2 0.5 0.3 a4b1 0.6 0.35 0.05 a4b2 0.3 0.4 0.3

Przykład wnioskowanie w sytuacji niepewności Jakie są szanse zdania ustnego egzaminu u prof. X, który jest kibicem Wisły i nie lubi deszczu? Wynik egzaminu zależy od: dobrego przygotowania studenta dobrego humor egzaminatora awansu Wisły do Ligi Mistrzów Deszczu by nie padał!!!

Jak prawdopodobne jest zdanie egzaminu gdy humor egzaminatora i przygotowanie studenta jest pewne w skali pół na pół?

Jak prawdopodobne jest zdanie egzaminu gdy humor egzaminatora i przygotowanie studenta jest pewne przynajmniej w 70 %?

Jak prawdopodobne jest zdanie egzaminu gdy humor egzaminatora jest dobry ale przygotowanie studenta niestety fatalne!?

Zastosowanie Sieci Bayesowskich Sieci te mają wiele zastosowao m.in. w Sztucznej inteligencji, medycynie w diagnozowaniu, w genetyce, statystyce, w ekonomii. O popularności SB zadecydowało to, że są dla nich wydajne metody wnioskowania. Możliwe jest proste wnioskowanie o zależności względnej i bezwzględnej badanych atrybutów. Niezależnośd może tak zmodularyzowad naszą wiedzę, że wystarczy zbadanie tylko części informacji istotnej dla danego zapytania, zamiast potrzeby eksploracji całej wiedzy. Sieci Bayesowskie mogą byd ponadto rekonstruowane, nawet jeśli tylko częśd właściwości warunkowej niezależności zmiennych jest znana. Inną cechą SB jest to, że taką sied można utworzyd mając niepełne dane na temat zależności warunkowej atrybutów.

Definicja SB Sięcią Bayesowską Jensen, 1996 nazywamy parę D,P, gdzie D jest skierowanym grafem acyklicznym directed acyclic graph DAG a P- rozkładem prawdopodobieostwa. Każdy wierzchołek w sieci przechowuje rozkład PX i i gdzie X i jest zbiorem wierzchołków odpowiadających i poprzednikom rodzicom wierzchołka i.

Rozkład prawdopodobieostw w SB Rozkład prawdopodobieostw zapisuje się jako: P x n,..., x P x X 1 n i i i1 W grafie wierzchołki są etykietowane nazwami atrybutów. Przy każdym wierzchołku występuje tabela prawdopodobieostw warunkowych pomiędzy danym wierzchołkiem i jego rodzicami.

Rodzaje wnioskowań w SB: O wiarygodności poszczególnych hipotez dla zdanych obserwacji Poszukiwanie uzasadnienia dla zadanej hipotezy i obserwacji Znalezienie prawdodobieostwa prawdziwości wyrażenia logicznego przedstawionego w postaci koniunkcji wyrażeo elementarnych atrybut = wartośd Znalezienie odpowiedzi na złożone zapytanie O brzegowej i warunkowej niezależności zmiennych.

Metoda propagacji niepewności metodą lokalnych obliczeo 1990 rok Shafer i Shenoy oraz Lauritzen i Jensen niezależnie opracowują tę samą efektywną metodę polegającą na tym, że: Wnioskowanie w danym węźle odbywa się tylko na podstawie własnego wartościowania i wiadomości uzyskanych od wszystkich sąsiadów bezpośrednich. Węzeł wysyła do drugiego węzła wiadomośd będącą złożeniem wiadomości uzyskanych od wszystkich pozostałych sąsiadów i własnego wartościowania. Gdy węzeł uzyska wiadomości od wszystkich sąsiadów wówczas na ich podstawie aktualizuje własne wartościowanie, otrzymując wartościowanie pod warunkiem zadanych obserwacji.

Własności prawdopodobieństwa Bayesa

Klasyfikacja metodą Bayesa prawdopodobieostwo warunkowe i bezwarunkowe Klasyfikacja Bayesowska jest klasyfikacją statystyczną. Pozwala przewidzied prawdopodobieostwo przynależności obiektu do klasy. Opiera się na twierdzeniu Bayesa. Niech dany będzie obiekt o o właściwości X. Niech H będzie hipotezą, że obiekt o należy do klasy C. Z punktu widzenia zadania klasyfikacji chcemy obliczyd prawdopodobieostwo PH X tego, że dla obiektów o właściwości X prawdziwa jest hipoteza H. PH X jest tzw. prawdopodobieostwem warunkowym a posteriori zdarzenia H pod warunkiem zajścia zdarzenia X. Przykład: Rozważamy populację owoców. Przypuśdmy, że rozważaną właściwością X obiektu o jest:x : o jest owocem okrągłym i czerwonym, a H jest hipotezą: H : o jest jabłkiem. Wówczas PH X wyraża nasze przekonanie, że owoc jest jabłkiem, jeśli zaobserwowaliśmy, że jest on okrągły i czerwony.

Przeciwieostwem prawdopodobieostwa warunkowego jest prawdopodobieostwo bezwarunkowe. W naszym przypadku PH wyrażające prawdopodobieostwo, że każdy zaobserwowany owoc jest jabłkiem, jest prawdopodobieostwem bezwarunkowym a priori. Prawdopodobieostwo warunkowe, PH X, uwzględnia więcej informacji wiedza X, podczas gdy prawdopodobieostwo bezwarunkowe PH jest niezależne od X. Podobnie, PX H jest prawdopodobieostwem warunkowym zajścia zdarzenia X pod warunkiem zajścia zdarzenia H. Jest więc na przykład prawdopodobieostwem, że owoc jest okrągły i czerwony, jeśli wiadomo, że jest jabłkiem. PX jest prawdopodobieostwem bezwarunkowym. Jest więc na przykład prawdopodobieostwem tego, że obserwowany wybrany losowo owoc jest czerwony i okrąg

W klasyfikacji Bayesa maksymalizujemy: Ponieważ PX jest stałe, więc wystarczy maksymalizowad iloczynpx CiPCi. Ponadto przyjmujemy:pci = si/ s, gdzie s oznacza liczbę obiektów w zbiorze treningowym, a si oznacza liczbę obiektów w klasie Ci. Dla X = x1, x2,..., xn, wartośd PX Ci obliczamy jako iloczyn:px Ci = Px1 Ci*Px2 Ci*... *Pxn Ci,przy czym:pxk Ci = sik / si, gdzie sik oznacza liczbę obiektów klasy Ci, dla których wartośd atrybutu Ak jest równa xk, a si oznacza liczbę wszystkich obiektów klasy Ci w zadanym zbiorze treningowym.

Celem propagacji niepewności w sieciach bayesowskich jest obliczenie prawdopodobieństwa warunkowego pewnej zmiennej zwykle oznaczającej hipotezę: diagnozę czy prognozę względem zadanych wartości innych zmiennych zwykle obserwacji, symptomów.

Zaobserwowano mokrą trawę. Mogą byd tego 2 przyczyny: padający deszcz bądź działania zraszacza. Która z nich jest bardziej prawdopodobna? Jak widad, bardziej prawdopodobnym jest, że trawa jest mokro po tym jak padał deszcz.

Wiadomo, że jeśli mamy m zmiennych, to występuje dokładnie 2 m możliwych przypadków do rozważenia.

Wnioskowanie

Przykład wnioskowania od początku do kooca

W pewnej klinice 15 % pacjentów stwierdzono obecnośd wirusa HIV. Załóżmy, że wykonano badanie krwi. Jeśli pacjent ma wirusa HTV to na 95 % test krwi wyjdzie pozytywny. Jeśli pacjent nie ma wirusa HIV to test krwi wyjdzie pozytywny jedynie z prawdopodobieostwem równym 0.02. Jeśli więc wiemy, że test wyszedł pozytywnie to jakie są prawdopodobieostwa, że pacjent: a Ma wirus HIV? b Nie ma wirusa HIV? Jeśli test wyszedł negatywnie jakie są prawdopodobieostwa, że pacjent: a Ma wirus HIV? b Nie ma wirusa HIV?

Jeśli założymy, że: H = zdarzenie polegające na tym, że pacjent ma wirusa HIV P = zdarzenie polegające na tym, że wynik testu krwi wyszedł pozytywnie Wówczas: PH = 0.15 PP H = 0.95 PP ~H = 0.02 Teraz pozostaje nam ustalid wartości następujących prawdopodobieostw: a PH P b P~H P c PH ~P d P~H ~P Aby je wyznaczyd potrzebujemy skorzystad ze wzoru na prawdopodobieostwo warunkowe Bayesa: P H P P P H P H P P

Mamy dwie wartości z prawej strony PP H i PH ale nie mamy wartości PP a więc prawdopodobieostwa, że test wyszedł pozytywnie. Musimy je ustalid. Są 2 drogi do stwierdzenia, że pacjent ma pozytywny wynik testu krwi: Ma wirusa i wtedy ma test pozytywny test krwi: HP Nie ma wirusa a mimo to test krwi wyszedł pozytywnie: ~HP Musimy teraz ustalid wartości tych prawdopodobieostw i dodad je do siebie: Wówczas mamy: oraz P H P P H P P P H P H P P P H P H P H P P P H P

Skoro wiadomo, że wartośd PP wyliczymy jako sumę: To podstawiając wartości do wzoru otrzymamy: = 0.95 0.15 + 0.02 0.85 = 0.1595 Możemy to teraz podstawid do wzoru na prawdopodobieostwo warunkowe by uzyskad PH P: = 0.95 0.15 / 0.1595 = 0.8934 H P H P P H P H P P P P H P H P P H P H P H P H P P H P

Aby więc odpowiedzied sobie na pytanie o wartośd prawdopodobieostwa zdarzenia P~H P wystarczy obliczyd go jako dopełnienie do wartości 1 dla prawdopodobieostwa wyliczonego wyżej. P H P 1 P H P = 1 0.8934 = 0.1066 Teraz by wyznaczyd wartośd dla PH ~P podstawiamy go do wzoru na prawdopodobieostwa warunkowego: P H P PH ~P= 0.05 0.15/1-0.1595 = 0.008923 1 PH ~P= 1-0.008923 = 0.99107 P P H P H P P

Rozważmy teraz zdarzenie H powodujące zdarzenia P1 i P2. Taki diagram możemy nazwad siecią bayesowską. Przypuśdmy, że oba zdarzenia P1 i P2 są pozytywne. Chcemy wyznaczyd prawdopodobieostwa zdarzeo, że pacjenci mają wirusa. Innymi słowy, chcemy znaleźd wartośd prawdopodobieostwa: P H P1 P2 Zatem możemy wyznaczyd prawdopodobieostwo warunkowe: P H P1 P2 P P1 P2 H P H P P1 P2 Mamy więc dwa obliczenia, których na razie nie znamy:pp1^p2 H i PP1 ^ P2. W celu wyznaczenia PP1^P2 H potrzebujemy wiedzied na pewno, że dwa testy są niezależne. Ponieważ wiemy, że tak jest możemy zapisad, że: PP1^P2 H = P1 HPP2 H

Teraz musimy znaleźd wartośd PP1 P2. Tak jak poprzednio musimy rozważyd teraz dwa przypadki gdy wyznaczamy PP: Pacjent ma wirusa i oba testy wypadły pozytywnie, Pacjent nie ma wirusa i oba testy wyszły pozytywnie. Tak jak poprzednio potrzebujemy użyd drugiego aksjomatu prawdopodobieostwa. P P1 P2 P P1 P2 H P H P P1 P2 H P H Widzimy, że oba testy są niezależne dając H, wiec zapiszemy to jako: P P1 P2 P P1 H P P2 H P H P P1 H P P2 H P H = 0.95 0.95 0.15 + 0.02 0.02 0.85 = 0.135715

Podstawiając wartości do wzoru na prawdopodobieostwo Bayesa otrzymamy: 0.950.950.15 P H P1 P2 0.135715 0.99749 Poprzednio obliczyliśmy prawdopodobieostwo zdarzenia, że pacjent ma wirusa HIV na podstawie jednego testu pozytywnego, i wynosiło ono 0.8934. Teraz po przeprowadzeniu dwóch testów prawdopodobieostwo wzrasta do wartości 0.99749. Więc po dwóch testach możemy byd bardziej pewni co do tego, że pacjent ma wirusa HIV.

Należy jeszcze rozważyd przypadek gdy jeden test będzie pozytywny a drugi negatywny. Oczywiście będzie to oznaka błędu w jednym z testów, ale przecież nie wiemy w którym. Czy jednak możemy coś powiedzied o tym, czy pacjent ma wirus czy nie? Musimy obliczyd prawdopodobieostwo zdarzenia: P H P1 P2 Możemy to zrobid postępując tak samo jak w przypadku dwóch testów pozytywnych. Twierdzenie Bayesa będzie wyglądad następująco: P H P1 P2 P P1 P2 H P H P P1 P2

Teraz wystarczy wyznaczyd prawdopodobieostwo zdarzeo: P P1 P2 H oraz P P1 P2 Podobnie jak poprzednio możemy wykorzystad fakt, że zdarzenia P1 i P2 są niezależne dla zdarzenia H: P P1 P2 P P1 P2 H P H P P1 P2 H P H P P1 H P P2 H P H P P1 H P P2 H P H co po podstawieniu odpowiednich wartości daje: = 0.95 0.05 0.15 + 0.02 0.98 0.85 = 0.023785

Możemy podstawid tę wartośd do wzoru na prawdopodobieostwo warunkowe by uzyskad: 0.95 0.05 0.15 P H P1 P2 0.023785 0.299 Zauważmy, że nasza wiara w zdarzenie H wzrosła. Na początku było to tylko 15 % a teraz jest to już 29,9%. Prawdopodobieostwo pozytywnego testu gdy pacjent nie jest chory na wirus HIV jest niewielkie 0.02.Prawdopodobieostwo pozytywnego testu gdy pacjent jest chory na HIV jest równe 0.05. Przez to jesteśmy bardziej skłonni uwierzyd w błąd w 2 teście i to znacznie zwiększa wiarę, że pacjent jest chory na HIV.

Genie & Smile SMILE Zestaw klas C++ implementujących różne modele decyzyjne w oparciu o analizę probabilistyczną. Wśród nich sieci Bayesa, modele równań strukturalnych. SMILE doskonałe sprawdzi się w roli engine'u dla różnego rodzaju aplikacji, których celem jest tworzenia graficznej reprezentacji model probabilistycznego. Biblioteka została zaprojektowana w ten sposób, iż może być wykorzystana w kodzie C poprzez wywołania funkcji. Co więcej, istnieje również wersja przeznaczona dla platformy.net. Platforma: Macintosh, Linux, Solaris, Windows Licencja: Decision Systems Laboratory, University of Pittsburgh License http://www.sis.pitt.edu/~genie/smile/smile.htm GeNIe 2 GeNIe stanowi komplementarny element dla SMILE. Jest graficzną nakładką dla tej biblioteki. Z uwagi na to, że twórcy SMILE rozwijali również GeNIe, można być pewnym bezproblemowej współpracy. Za sprawą wbudowanego edytora modeli GeNIe pozwala na swobodną modyfikację modeli probabilistycznych. Możliwa jest także wymiana danych z innymi aplikacjami Excel. Platforma: Windows Licencja: Decision Systems Laboratory, University of Pittsburgh License http://www.sis.pitt.edu/~genie/genie/genie.htm

Przedstawione na grafie zależności są modelowane przez przedstawione liczbowo prawdopodobieostwo wyrażające siłę, z jaką oddziałują na siebie zmienne. Prawdopodobieostwo jest kodowane w tabelach dołączanych do każdego węzła i indeksowanych przez węzły nadrzędne. Górne wiersze tabeli przedstawiają wszystkie kombinacje stanów zmiennych nadrzędnych.

Węzły bez poprzedników są opisane głównymi prawdopodobieństwami. Węzeł Success będzie opisany przez rozkład prawdopodobieństw tylko jego dwóch wyników możliwych: Success i Failure. Węzeł Forecast będzie natomiast opisany przez rozkład prawdopodobieństw wyjściowych wartości Good, Moderate, Poor uwarunkowanych dodatkowo przez ich poprzedniki węzeł Success, i wyjściowe wartości Success i Failure.

Sieci bayesowskie wnioskowanie w sytuacji niepewności Przykład: jakie są szanse zdania ustnego egzaminu u prof. X, który jest kibicem Wisły i nie lubi deszczu? Z - zaliczony egzamin N - dobre przygotowanie H - dobry humor egzaminatora A - awans Wisły do Ligi Mistrzów D - deszcz Łączny rozkład prawdopodobieństwa JPD: PZ, N, H, A,D wyznaczony przez 2 5 wartości 32 wartości

Sieci bayesowskie - wprowadzenie Prawdopodobieństwo dobrego humoru, jeżeli Wisła awansowała: PH=trueA=true: D N Z D A H N Z P A H P,,,,,,, D H N Z D A H N Z P A P,,,,,,, 8 sumowań 16 sumowań, A P A H P A H P obliczymy z łącznego rozkładu PZ, N, H, A,D, na podstawie prawdopodobieństw brzegowych:

Sieci bayesowskie sieci przekonań - definicja Acykliczny graf skierowany Wierzchołki - zmienne losowe Topologa sieci: krawędzie reprezentują bezpośrednią zależność przyczyna skutek każda zmienna jest niezależna od nie-potomków w szczególności dalekich przodków pod warunkiem rodziców, np.: PZ H,D = PZ H Dla każdego węzła X zdefiniowana jest tablica prawdopodobieństw warunkowych X pod warunkiem jego rodziców w grafie

Sieci bayesowskie - definicja, przykład PA 0.20 PD 0.30 PN 0.20 A D PH T 0.95 T F 0.99 T 0.05 F F 0.15 PZ H,D = PZ H N H PZ T 0.90 T F 0.55 T 0.45 F F 0.05

Sieci bayesowskie - faktoryzacja Reguła łańcuchowa: z def. PX 1,X 2 =PX 1 X 2 PX 2 P X,..., X n P X i X i1,..., X 1 n i Numerując wierzchołki grafu tak aby indeks każdej zmiennej był mniejszy niż indeks przypisany jego przodkom oraz korzystając z warunkowej niezależności otrzymujemy: P Xi X i1,..., X n P Xi Parents Xi Model zupełny P X1,..., X n P X i i Parents X i

Sieci bayesowskie - faktoryzacja PZ,N,H,A,D = PZ N,H PN PH A,D PA PD Jaka jest szansa zaliczenia dla nieprzygotowanego studenta, gdy pada, Wisła odpadłą i egzaminator jest w złym humorze PZ N H A D = 0.05 0.8 0.05 0.8.30 = 0.0048 PA 0.20 PD 0.30 PN 0.20 N H PZ T 0.90 T F 0.55 T 0.45 F F 0.05 A D PH T 0.95 T F 0.99 T 0.05 F F 0.15

Sieci bayesowskie - korzyści Musimy pamiętać mniej wartości: w naszym przypadku 11 zamiast 31 ogólnie n2 k, n-liczba wierzchołków, k - maksymalna liczba rodziców; zamiast 2 n -1 wszystkich wartości w rozkładzie pełnym Naturalne modelowanie: łatwiej oszacować prawd. warunkowe bezpośrednich zależności niż koniunkcji wszystkich możliwych zdarzeń Dowolny kierunek wnioskowania Czytelna reprezentacja wiedzy Łatwa modyfikacja

Sieci bayesowskie wnioskowanie w sieci, twierdzenie Bayesa F pozwany jest ojcem G dziecko posiada tę samą co pozwany, unikalną 1/1000 osób cechę genetyczną PG = PG F*PF+PG F* PF = = 1.0*0.5+0.001*0.5 = 0.5005 Jeżeli wiemy, że dziecko posiada w/w cechę genetyczną, to z tw. Bayesa: PF 0.50 F PG F True 1 False 0.001 P G F P F 10.5 P F G 0.9990 P G 0.5005 Posługując się regułą Bayesa, odpowiednie algorytmy w ogólności problem wnioskowania np. trudny pozwalają wnioskować w sieci Bayesowskiej w dowolnym kierunku

Sieci bayesowskie możliwości wnioskowania: predykcja Prawdopodobieństwo Zaliczenia 74%

Sieci bayesowskie wnioskowanie diagnostyczne, wykluczanie Egzamin zaliczony, jakie były tego przyczyny? Wzrost PA z 20% do 40%, przy spadku PD - wykluczanie

Sieci bayesowskie analiza scenariuszy Jeśli się przygotowaliśmy, to jaka jest szansa na zaliczenie? Spadek PZ z 26% do 17%

Sieci bayesowskie wspomaganie podejmowania decyzji... ale dodatkowo, Wisła awansowała i świeci słońce! Wzrost PZ z 17% do 45%. Podchodzić?

Sieci bayesowskie bayesowskie drzewo decyzyjne influence diagram Dodajemy wierzchołki decyzyjne Podejście oraz użyteczności Stypendium i możemy mierzyć wpływ ilościowy decyzji Podchodzić, Nie Podchodzić Podej Zalicz Styp true false true true 7000 5000 false false 2500 5000

Sieci bayesowskie drzewa decyzyjne Czy warto iść gdy jesteśmy nieprzygotowani, świeci słońce i Wisła awansowała?

Podsumowanie Sieci bayesowskie - efektywne narzędzie w zagadnieniach systemów eksperckich oraz sztucznej inteligencji Szerokie zastosowania: NASA-AutoClass, Microsoft-Office Assistant, w przemyśle - www.hugin.com, medycyna, sądownictwo, itd. Sieci Bayesa stanowią naturalną reprezentację niezależności warunkowej indukowanej przyczynowo. Topologia sieci i tablice prawdopodobieństwa warunkowego CPT pozwalają na zwartą reprezentację rozkładu łącznego prawdopodobieństwa. Sieci Bayesa są szczególnie przydane i łatwe do zastosowania w systemach ekspertowych.

Referencje Eugene Charniak, Bayesian Networks without Tears AI Magazine 1991,www.aaai.org W przykładach wykorzystano system Smile&GeNIe stworzony przez Decision Systems Laboratory http://genie.sis.pitt.edu Kwabena Adusei-Poku, Operational Risk Management Implementing Bayesian Network for Foreiign Exchange and Money Market Settlement Ernest P. Chiodo: Genetic evidence in paternity cases: what the lawyer must know. http://www.fa-ir.org/alabama/cs/cs_dna.htm The Profesional Riak Managers Handbook, www.prmia.org Sound Practices for the Management and Supervision of Operational Risk, Banl For International Settlement, http://www.bis.org Wykaz dostępnych programów do tworzenia BN: http://www.cs.ubc.ca/~murphyk/software/bnt/bnsoft.html