Systemy ekspertowe - wiedza niepewna



Podobne dokumenty
Reprezentacja niepewności w wiedzy w systemach ekspertowych

Gdzie: N zbiór wierzchołków grafu, E zbiór krawędzi grafu, Cp zbiór prawdopodobieostw warunkowych.

Sieci Bayesa mgr Tomasz Xięski, Instytut Informatyki, Uniwersytet Śląski Sosnowiec, 2011

Sztuczna inteligencja : Tworzenie sieci Bayesa

Inżynieria Wiedzy i Systemy Ekspertowe. Niepewność wiedzy. dr inż. Michał Bereta Politechnika Krakowska

Systemy ekspertowe. Reprezentacja wiedzy niepewnej i wnioskowanie w warunkach niepewności. Model współczynników pewności.

Algorytmy stochastyczne, wykład 08 Sieci bayesowskie

P(F=1) F P(C1 = 1 F = 1) P(C1 = 1 F = 0) P(C2 = 1 F = 1) P(C2 = 1 F = 0) P(R = 1 C2 = 1) P(R = 1 C2 = 0)

Inżynieria wiedzy Wnioskowanie oparte na wiedzy niepewnej Opracowane na podstawie materiałów dra Michała Berety

Wnioskowanie bayesowskie

Modelowanie Niepewności

Klasyfikacja metodą Bayesa

Na podstawie: AIMA, ch13. Wojciech Jaśkowski. 15 marca 2013

Klasyfikacja bayesowska


Zadanie 0 gdy nie mamy logiki rozmytej. Zadanie 1- gdy już mamy logikę rozmytą

Agnieszka Nowak Brzezińska

Jeśli X jest przestrzenią o nieskończonej liczbie elementów:

Niepewność Belief Networks SE. Zarządzanie wiedzą. Wykład 9 Reprezentacja niepewności w systemach inteligentnych Probabilistyka. Joanna Kołodziejczyk

Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak

Lekcja 3: Elementy logiki - Rachunek zdań

Systemy ekspertowe : program PCShell

Niepewność w wiedzy. Agnieszka Nowak - Brzezińska

Prawdopodobieństwo warunkowe Twierdzenie o prawdopodobieństwie całkowitym

III. ZMIENNE LOSOWE JEDNOWYMIAROWE

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Sztuczna inteligencja: zbiory rozmyte

1. Logika, funkcje logiczne, preceptron.

Agnieszka Nowak Brzezińska Wykład III

Systemy ekspertowe i ich zastosowania. Katarzyna Karp Marek Grabowski

W narzędziu typu Excel, Calc czy Gnumeric napisz formułę logiczną która wyznaczy wartośd przynależności dla podanej temperatury do zbioru gorąco.

Metody probabilistyczne

Systemy ekspertowe. Wnioskowanie w systemach regułowych. Część piąta. Autor Roman Simiński.

Agnieszka Nowak Brzezińska Wykład III

Algorytmy uczenia maszynowego

Instytut Politechniczny Państwowa Wyższa Szkoła Zawodowa. Diagnostyka i niezawodność robotów

Metody wnioskowania. Wnioskowanie w przód (ang. forward chaining) Wnioskowanie w tył (ang. Backward chaining) Od przesłanki do konkluzji Np..

Instytut Politechniczny Państwowa Wyższa Szkoła Zawodowa. Diagnostyka i niezawodność robotów

Sztuczna inteligencja : Zbiory rozmyte cz. III

Fuzja sygnałów i filtry bayesowskie

PRACE NAUKOWE POLITECHNIKI WARSZAWSKIEJ. z. 104 Transport Marek Stawowy. Politechnika Warszawska, Streszczenie: lepsza. [4].

Cel projektu: Wymogi dotyczące sprawozdania:

Logika intuicjonistyczna

Sztuczna inteligencja : Zbiory rozmyte cz. 2

Systemy uczące się wykład 1

Mechanika kwantowa Schrödingera

SZTUCZNA INTELIGENCJA

Metody systemowe i decyzyjne w informatyce

Modelowanie niezawodności prostych struktur sprzętowych

Podstawy metod probabilistycznych. dr Adam Kiersztyn

PDM 3. Zakres podstawowy i rozszerzony. Plan wynikowy. STEREOMETRIA (22 godz.) W zakresie TREŚCI PODSTAWOWYCH uczeń potrafi:

Podstawy sztucznej inteligencji

Katalog wymagań programowych na poszczególne stopnie szkolne. Matematyka. Poznać, zrozumieć

Indukowane Reguły Decyzyjne I. Wykład 3

Sieci Bayesowskie. Agnieszka Nowak Brzezińska

Rachunek prawdopodobieństwa Rozdział 4. Zmienne losowe

Sztuczna Inteligencja Projekt

Przykłady do zadania 6.1 :

MATEMATYKA DYSKRETNA - MATERIAŁY DO WYKŁADU GRAFY

PROGRAMOWANIE SIECIOWE. METODA ŚCIEŻKI KRYTYCZNEJ

Instytut Politechniczny Państwowa Wyższa Szkoła Zawodowa. Diagnostyka i niezawodność robotów

Rozpoznawanie obrazów

Definicja pochodnej cząstkowej

Spacery losowe generowanie realizacji procesu losowego

Elementy rachunku prawdopodobieństwa (M. Skośkiewicz, A. Siejka, K. Walczak, A. Szpakowska)

Rozmyte systemy doradcze

10. Elementy kombinatoryki geometrycznej: suma kątów wielokąta,

Wymagania edukacyjne z matematyki - klasa III (poziom rozszerzony) wg programu nauczania Matematyka Prosto do matury

Wnioskowanie statystyczne i oparte na współczynnikach wiarygodności. Wprowadzenie teoretyczne Wnioskowanie probabilistyczne Przykłady

6. Zagadnienie parkowania ciężarówki.

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

STATYSTYKA. Rafał Kucharski. Uniwersytet Ekonomiczny w Katowicach 2015/16 ROND, Finanse i Rachunkowość, rok 2

Rachunek Prawdopodobieństwa i Statystyka

Zadanie 0 gdy nie mamy logiki rozmytej

Kształcenie w zakresie rozszerzonym. Klasa IV

WYMAGANIA Z WIEDZY I UMIEJĘTNOŚCI NA POSZCZEGÓLNE STOPNIE SZKOLNE DLA KLASY CZWARTEJ H. zakres rozszerzony. Wiadomości i umiejętności

Inżynieria Wiedzy i Systemy Ekspertowe. Logika rozmyta. dr inż. Michał Bereta Politechnika Krakowska

WYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska

OWO-MODELOWE SKORUPOWE SYSTEMY EKSPERTOWE

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów

Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych

Modelowanie komputerowe

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne

Inteligencja obliczeniowa

3. Instrukcje warunkowe

SZTUCZNA INTELIGENCJA

Prawdopodobieństwo geometryczne

Wnioskowanie rozmyte. Krzysztof Patan

Wprowadzenie Sformułowanie problemu Typy reguł asocjacyjnych Proces odkrywania reguł asocjacyjnych. Data Mining Wykład 2

Elementy logiki. Wojciech Buszkowski Wydział Matematyki i Informatyki UAM Zakład Teorii Obliczeń

Metoda Tablic Semantycznych

REGUŁOWO-MODELOWE SKORUPOWE SYSTEMY EKSPERTOWE

Technologie baz danych

Wykład 2 Hipoteza statystyczna, test statystyczny, poziom istotn. istotności, p-wartość i moc testu

STANDARDOWE FUNKCJE PRZYNALEŻNOŚCI. METODY HEURYSTYCZNE wykład 6. (alternatywa dla s) (zdef. poprzez klasę s) GAUSSOWSKA F.

Uczenie sieci neuronowych i bayesowskich

WYMAGANIE EDUKACYJNE Z MATEMATYKI W KLASIE II GIMNAZJUM. dopuszczającą dostateczną dobrą bardzo dobrą celującą

Maksymalne powtórzenia w tekstach i zerowa intensywność entropii

PRÓBNY EGZAMIN MATURALNY

Transkrypt:

Instytut Informatyki Uniwersytetu Śląskiego lab 8

Rozpatrzmy następujący przykład: Miażdżyca powoduje często zwężenie tętnic wieńcowych. Prowadzi to zazwyczaj do zmniejszenia przepływu krwi w tych naczyniach, co może wywołać niedotlenienie mięśnia sercowego, zwłaszcza przy wysiłku fizycznym. Które fragmenty wskazują na niepewność wnioskowania? Jak przekształcić powyższy tekst w taki sposób, aby można było do niego zastosować jedną z poznanych dotychczas reprezentacji wiedzy. Czy do tak przekształconego tekstu można zadać pytania: jaki ma wpływ wysiłek fizyczny na niedotlenienie mięśnia sercowego u ludzi z jednakowo posuniętą miażdżycą, wykonujących wysiłek fizyczny o różnym natężeniu? w jakim stopniu człowiek, u którego nie występuje niedotlenienie z powodu wysiłku, narażony jest na zwężenie tętnic z powodu miażdżycy?

Podejście probabilistyczne: Mająć dany zbiór hipotez: dla których: Mając zbiór pewnych obserwacji: H = {h 1,..., h n } P(h i ) > 0 dla każdego i E = {e 1,..., e m } każdy fragment obserwacji e j jest niezależny warunkowo względem każdej hipotezy.

Rysunek: Przesłanka a hipoteza Obserwacja e oraz hipoteza h są reprezentowane przez wierzchołki grafu, natomiast natomiast wnioskowanie przez krawędź. Rozpatrywana reguła może być rozpatrywana w modelu Bayesa następująco: P(h e) = P(e h) P(h) P(e)

Rysunek: Sieć wnioskowania

Sieć Bayesowska: B = {N, E, CP} gdzie dwójka {N, E} jest skierowanym grafem acyklicznym zbudowanym na podstawie zadanych prawdopodobieństw warunkowych zawartych w zbiorze CP. Przykład: Dany jest zbiór pewnych zmiennych identyfikujących obserwacje i hipotezy. P Niech zbiór tych zmiennych ma następującą postać: Z = A, B, C, D, E, F, G, H

Dane są również informacje opisujące związki przyczynowo-skutkowe pomiędzy tymi zmiennymi w postaci zbiory prawdopodobieństw warunkowych CP: CP = {P(A), P(B A), P(C B), P(C F ), P(D C), P(E CH), P(F G), P(G), P(H G)}

Rysunek: Wynikowa sieć Bayesa

Współczynniki pewności CF: gdzie: Jeżeli e(&e2&...&e n ) To h ze stopniem pewności CF e(, e2,..., e n ) to przesłanki reguły a h to konkluzja, & to operator logiczny And.

Współczynnik CF: CF nie jest interpretowany jako klasyczne prawdopodobieństwo Współczynnik pewności CF jest połączeniem stopnia wiedzy, oraz niewiedzy. Stopień wiedzy - inaczej miara wiarygodności - MB. Stopień niewiedzy - miara niewiarygodności - MD. Załóżmy istnienie prostej reguły: Jeżeli e to h

Współczynniki dla powyższej reguły określone są następująco: MB(h,e) MD(h,e) CF(h,e) Sam współczynnik CF definiowany jest jako: CF (h, e) = MB(h, e) MD(h, e)

Interpretacja powyższych miar może być następująca: jeżeli P(h e) = 1 to h jest prawdziwe na pewno, wtedy MB(h, e) = 1, MD(h, e) = 0, oraz CF (h, e) = 1, jeżeli P( h e) = 1 to h jest fałszywe na pewno, wtedy MB(h, e) = 0, MD(h, e) = 1, oraz CF (h, e) = 1, jeżeli P(h e) = P(h) to h co znaczy, że h i e są niezależne, wtedy MB(h, e) = 0, oraz MD(h, e) = 0, CF (h, e) = 0.

Rysunek: Wartości CF

Propagacja współczynników niepewności: Mając daną regułę R: Jeżeli e to h ze stopniem pewności CF przesłanka reguły e ma pewien współczynnik CF konkluzja reguły h również ma współczynnik CF Końcowy współczynnik pewności wyznaczany jest w następujący sposób: CF (h, e) = CF (e) CF (h)

W przypadku gdy przesłanka reguły zawiera wyrażenie zawierające operator AND (&) : Jeżeli e1&e2 to h ze stopniem pewności CF to współczynnik pewności konkluzji h wyznaczany jest w następujący sposób: CF (h, e1&e2) = Minimum {CF (e1), CF (e2)} CF (h) W przypadku gdy przesłanka reguły zawiera wyrażenie zawierajace funktor OR ( ) : Jeżeli e1 e2 to h ze stopniem pewności CF to współczynnik pewności konkluzji h wyznaczany jest w następujący sposób: CF (h, e1 e2) = Maksimum {CF (e1), CF (e2)} CF (h)

W przypadku, gdy jedna hipoteza h jest konkluzją więcej niż jednej reguły: Jeżeli e1 to h Jeżeli e2 to h Rysunek: Obliczanie CF Rysunek: Obliczanie CF

Połączenie szeregowe reguł: Jeżeli e1 to e2 Jeżeli e2 to h Rysunek: Szeregowe połączenie reguł CF (h, e1) = CF (e2, e1) CF (h, e2)

Rysunek: Propagacja CF CF (e4, e1e2) = CF (e2, e1) CF (e4, e2)

CF (e4, e1e2e3) = Rysunek: Propagacja CF CF (e4,e1e2)+cf (e4,e3) 1 min( CF (e4,e1e2), CF (e4,e3) ) CF (e4, e1e2e3) = 0.25 1 0.2 = 0.25 0.8 = 0.3125

Rysunek: Propagacja CF CF (h, e1e2e3e4) = CF (e4, e1e2e3) CF (h, e4)

Rysunek: Propagacja CF CF (h, e1e2e3e4e5) = CF (h, e1e2e3e4) + CF (h, e5) CF (h, e1e2e3e4) CF (h, e5)

CF (h, e1e2e3e4e5) = 0.5937 Rysunek: Propagacja CF

Mając dane obserwacje O, hipotezy H, oraz prawdopodobieństwa warunkowe CP - narysować graf stanowiący graficzną reprezentację sieci Bayes a. O = {A, B, C, D, E} H = {X, Y, Z} CP = {P(A), P(B), P(C), P(D), P(E), P(C A, B), P(X C, D), P(Y C, D), P(Z E)}

O = {A, B, C, D, E} H = {X, Y, Z} CP = {P(A), P(B), P(C), P(D), P(E), P(X A, B), P(C X ), P(Y C, D, E), P(Z C, E), P(B Z)}

Obliczyć wynikowy współczynnik pewności CF dla hipotezy h. Narysować kolejne etapy redukowania grafu. Rysunek: Propagacja CF

Rysunek: Propagacja CF

Dla podanej poniżej bazy wiedzy obliczyć współczynnik pewności dla hipotezy ciepła odzież tak zakładając, że wszystkie przesłanki poniższych reguł są spełnione. if pogoda = mróz then łyżwy= tak with 0.5 if pogoda = oenieg then narty tak with 0.5 if pogoda = mróz then narty tak with 0.5 if pogoda = śnieg then łyżwy= tak with 0.5 if łyżwy tak then ciepla odziez tak with 0.7 if narty = tak then ciepla odziez = tak with 0.7

if pogoda = ładna then wycieczka rowerowa = tak with 0.6 if pogoda = kiepska then wycieczka piesza = tak with 0.6 if wycieczka piesza = tak then kurtka przeciwdeszczowa = tak with -0.8 if wycieczka rowerowa = tak then kurtka przeciwdeszczowa = tak with -0.8

W podanym niżej tekśecie występują pewne zależności opisane liczbowo prawdopodobieństwami warunkowymi. Proszę podać zbiór CP oraz narysować graf przyczynowo skutkowy. Czy otrzymany graf jest siecią Bayes a proszę uzasadnić odpowiedź. Wyjazd na narty jest pewny, gdy jest dużo śniegu, jest mróz i dysponujemy wolnym czasem. Wyjazd na snowboard jest również pewny, gdy jest dużo śniegu, jest mróz i dysponujemy wolnym czasem. W przypadku wyjazdu na narty, na 50% pojedziemy na polskie trasy, jeżeli wolnego czasu jest mało, na 30% pojedziemy na Słowację, na 20% pojedziemy gdzieś dalej. W przypadku wyjazdu na snowboard na 50% pojedziemy na gdzieś dalej. Jeżeli pojedziemy gdzieś dalej to na 50% jest dużo śniegu i dysponujemy wolnym czasem.

Prawdopodobieństwo wystąpienia anginy w przypadku objawów takich jak ból gardła i gorączka jest wysokie i wynosić może 0.8. Jednak wystąpienie gorączki i bólu głowy może świadczyć o grypie, co jest hipotezą prawdopodobną na 0.6. W przypadku, gdy pacjent cierpiący na grypę nie wyleczył się całkowicie może dojść do zapalenia oskrzeli z prawdopodobieństwem 0.4. Zapalenie oskrzeli może spowodować ból gardła z prawdopodobieństwem 0.3.