Elementy Sztucznej Inteligencji

Podobne dokumenty
Wnioskowanie statystyczne i oparte na współczynnikach wiarygodności

Wnioskowanie statystyczne i oparte na współczynnikach wiarygodności

Wnioskowanie statystyczne i oparte na współczynnikach wiarygodności. Wprowadzenie teoretyczne Wnioskowanie probabilistyczne Przykłady

Inżynieria Wiedzy i Systemy Ekspertowe. Niepewność wiedzy. dr inż. Michał Bereta Politechnika Krakowska

Niepewność Belief Networks SE. Zarządzanie wiedzą. Wykład 9 Reprezentacja niepewności w systemach inteligentnych Probabilistyka. Joanna Kołodziejczyk

Inżynieria wiedzy Wnioskowanie oparte na wiedzy niepewnej Opracowane na podstawie materiałów dra Michała Berety

Systemy ekspertowe. Reprezentacja wiedzy niepewnej i wnioskowanie w warunkach niepewności. Model współczynników pewności.

Systemy ekspertowe. Wykład 4 Reprezentacja wiedzy Probabilistyczne wyrażanie niepewności. Joanna Kołodziejczyk

Bazy danych. Plan wykładu. Podzapytania - wskazówki. Podzapytania po FROM. Wykład 5: Zalenoci wielowartociowe. Sprowadzanie do postaci normalnych.

Systemy ekspertowe - wiedza niepewna

Na podstawie: AIMA, ch13. Wojciech Jaśkowski. 15 marca 2013

Algorytmy stochastyczne, wykład 08 Sieci bayesowskie

Weryfikacja hipotez statystycznych

Planowanie adresacji IP dla przedsibiorstwa.

Modelowanie Niepewności

Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji

Wnioskowanie bayesowskie

Statystyka matematyczna Testowanie hipotez i estymacja parametrów. Wrocław, r

E2 - PROBABILISTYKA - Zadania do oddania

Bazy danych. Plan wykładu. Zalenoci funkcyjne. Wykład 4: Relacyjny model danych - zalenoci funkcyjne. SQL - podzapytania A B

STATYSTYKA MATEMATYCZNA. rachunek prawdopodobieństwa

166 Wstęp do statystyki matematycznej

PROBABILISTYKA I STATYSTYKA - Zadania do oddania

WYKŁAD 8 TESTOWANIE HIPOTEZ STATYSTYCZNYCH

Rachunek prawdopodobieństwa

Podstawowe modele probabilistyczne

STATYSTYKA MATEMATYCZNA

In»ynierskie zastosowania statystyki wiczenia

Testowanie hipotez statystycznych.

Temat: Technika zachłanna. Przykłady zastosowania. Własno wyboru zachłannego i optymalnej podstruktury.

Metody statystyczne w biologii - Wykªad 8. Uniwersytet Przyrodniczy we Wrocªawiu Katedra Genetyki i Ogólnej Hodowli Zwierz t

Testowanie hipotez statystycznych

Prawdopodobieństwo. Prawdopodobieństwo. Jacek Kłopotowski. Katedra Matematyki i Ekonomii Matematycznej SGH. 16 października 2018

Wykład 2 Hipoteza statystyczna, test statystyczny, poziom istotn. istotności, p-wartość i moc testu

Wykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa

Testowanie hipotez statystycznych. Wprowadzenie

), którą będziemy uważać za prawdziwą jeżeli okaże się, że hipoteza H 0

stopie szaro ci piksela ( x, y)

Rozmyte systemy doradcze

5. (8 punktów) EGZAMIN MAGISTERSKI, r Matematyka w ekonomii i ubezpieczeniach

Zmienne losowe, statystyki próbkowe. Wrocław, 2 marca 2015

Po co nam statystyka matematyczna? Żeby na podstawie próby wnioskować o całej populacji

Indukowane Reguły Decyzyjne I. Wykład 3

Wykªad 6: Model logitowy

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 3 - model statystyczny, podstawowe zadania statystyki matematycznej

Algorytmy kodowania predykcyjnego

Statystyka matematyczna dla leśników

Projektowanie i analiza zadaniowa interfejsu na przykładzie okna dialogowego.

ODPOWIEDZI I SCHEMAT PUNKTOWANIA ZESTAW NR 2 POZIOM PODSTAWOWY. 1. x y x y

Teoretyczne podstawy informatyki

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Sposoby przekazywania parametrów w metodach.

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 13 i 14 - Statystyka bayesowska

PROWIZJE Menad er Schematy rozliczeniowe

Agnieszka Nowak Brzezińska Wykład III

Statystyka. Rozkład prawdopodobieństwa Testowanie hipotez. Wykład III ( )

STATYSTYKA wykład 1. Wanda Olech. Katedra Genetyki i Ogólnej Hodowli Zwierząt

Komputerowa Ksiga Podatkowa Wersja 11.4 ZAKOCZENIE ROKU

Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności. dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl

Metody systemowe i decyzyjne w informatyce

Hipotezy statystyczne

SZTUCZNA INTELIGENCJA

Hipotezy statystyczne

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Zastosowanie programu Microsoft Excel do analizy wyników nauczania

Wykład 8 Dane kategoryczne

Sztuczna inteligencja : Tworzenie sieci Bayesa

Rachunek zdań i predykatów

Ekonometria Bayesowska

Ekonometria Bayesowska

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 9 i 10 - Weryfikacja hipotez statystycznych

Ekonometria - wykªad 8

Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak

Agnieszka Nowak Brzezińska Wykład III

KLUCZ ODPOWIEDZI DO ZADA ZAMKNITYCH POPRAWNA ODPOWIED 1 D 2 C 3 C 4 B 5 D 6 A 7 D 8 D 9 A 10 C 11 B 12 A 13 A 14 B 15 D 16 B 17 C 18 A 19 B 20 D

Wykład 13. Podstawowe pojęcia rachunku prawdopodobieństwa

Rachunek Prawdopodobieństwa i Statystyka

Konspekt lekcji matematyki klasa 4e Liceum Ogólnokształcce

Amortyzacja rodków trwałych

ALGORYTMICZNA I STATYSTYCZNA ANALIZA DANYCH

Elementarna statystyka Dwie próby: porównanie dwóch proporcji (Two-sample problem: comparing two proportions)

ANALITYKA JAKO W ANALITYCE. JAKO oczekiwania. Jako? SEMINARIUM KCA

Statystyka matematyczna i ekonometria

Multipro GbE. Testy RFC2544. Wszystko na jednej platformie

WSTĘP DO REGRESJI LOGISTYCZNEJ. Dr Wioleta Drobik-Czwarno

Systemy uczące się wykład 2

LOGIKA I TEORIA ZBIORÓW

Rachunek prawdopodobieństwa Rozdział 2. Aksjomatyczne ujęcie prawdopodobieństwa

Problem decyzyjny naley do klasy NP. (Polynomial), jeeli moe by rozwizany w czasie conajwyej wielomianowym przez algorytm A dla DTM.

Modele liniowe i mieszane na przykªadzie analizy danych biologicznych - Wykªad 6

Temat: Problem najkrótszych cieek w grafach waonych, cz. I: Algorytmy typu label - setting.

Statystyka Matematyczna Anna Janicka

Prawa wielkich liczb, centralne twierdzenia graniczne

Inżynieria Wiedzy i Systemy Ekspertowe. Niepewność wiedzy. dr inż. Michał Bereta Politechnika Krakowska

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I (SGH)

Bazy danych. Plan wykładu. Pierwsza posta normalna. Druga posta normalna. Wykład 7: Sprowadzanie do postaci normalnych. DDL, DML

Gramatyki regularne i automaty skoczone

Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału

Prawdopodobieństwo i statystyka r.

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Transkrypt:

Elementy Sztucznej Inteligencji Wnioskowanie statystyczne i oparte na współczynnikach wiarygodnoci Elementy Sztucznej Inteligencji - wykład 8 Plan wykładu Niepewno Wnioskowanie statystyczne: Wprowadzenie teoretyczne Wnioskowanie probabilistyczne Przykłady Wnioskowanie ze współczynnikami wiarygodnoci Wprowadzenie, definicje. Przykład Porównanie technik Elementy Sztucznej Inteligencji - wykład 8 2

Typy niepewnoci Niepewno wiedzy podstawowej: np.. pewne przyczyny chorób s nieznane i nie s prezentowane w podstawach wiedzy medycznej. Niepewno działa: np.. działania mona przedstawi jako relatywnie krótk list warunków pocztkowych. W rzeczywistoci liczba faktów do uwzgldnienia jest przytłaczajco dua. Niepewno postrzegania: np.. czujniki agenta nie zwracaj dokładnej informacji o wiecie i agent nigdy nie wie wszystkiego o swoim połoeniu szum. Elementy Sztucznej Inteligencji - wykład 8 3 Przykład Przykład niepewnoci działania: By rano odjecha samochodem: Samochód nie mógł by w nocy ukradziony. Opony nie mog by dziurawe. Musi by benzyna w baku. Akumulator musi by sprawny. Zapłon musi działa. Kluczyk do stacyjki nie mogły zosta zgubione. Ciarówka nie moe zablokowa wyjazdu. Nie mona nagle straci wzroku. itd... Elementy Sztucznej Inteligencji - wykład 8 4

Metody radzenia sobie z wiedz niepewn Wnioskowanie niemonotoniczne np.. Zakładam, e samochód nie ma dziury w oponie problem: jakie załoenia s poprawne, jak radzi sobie ze sprzecznociami powstałymi w wyniki wprowadzenia nowego załoenia. Zastosowanie współczynników wiarygodnoci np. reguły: zraszacz mokra trawa cf = 0.99 problemy: problemy ze składaniem i ledzeniem zalenoci. Prawdopodobiestwo wykorzystuje stopie przekonania degree of belief działa dla systemów z dostpnymi dowodami Logika rozmyta opisuje stopie prawdziwoci a nie niepewnoci Elementy Sztucznej Inteligencji - wykład 8 5 Prawdopodobiestwo Prawdopodobiestwo jest subiektywne: prawdopodobiestwa okrelaj proporcje wynikajce z indywidualnej oceny agenta. np.. Pdojad na dworzec 5min nie stwierdzono wypadku = 0,06 Nie formułuje twierdze o wiecie prawdopodobnych tendencji, jednak moe si uczy z własnych dowiadcze o podobnych sytuacjach. Przedstawione prawdopodobiestwa nie okrelaj stopnia prawdziwoci reguły która moe by albo prawdziwa, albo fałszywa, ale stopie wiary oczekiwana czsto w jej wystpienie. Prawdopodobiestwa hipotez wniosków zmieniaj si wraz nowymi dowodami np.. Pdojad na dworzec 5min nie stwierdzono wypadku, 7:00 = 0,6 Elementy Sztucznej Inteligencji - wykład 8 6

Podejmowanie decyzji w niepewnoci Zakładamy, e jestemy przekonani o PA 25 gets me there on time = 0.04 PA 90 gets me there on time = 0.70 PA 20 gets me there on time = 0.95 PA 440 gets me there on time = 0.9999 Jak akcj podj? Naley rozway czy chcemy si spóni i jak długo chcemy czeka. Teoria uytecznoci jest stosowana do okrelenia preferowanych wniosków Teoria decyzji = teoria uytecznoci + teoria prawdopodobiestwa. Elementy Sztucznej Inteligencji - wykład 8 7 Podstawy teorii prawdopodobiestwa Prawdopodobiestwo wystpienia zdarzenia jest odsetkiem jego wystpie. Miara prawdopodobiestwa okrelana jest wartociami z zakresu 0 zdarzenie niemoliwe do zdarzenie pewne. Dla kadego zdarzenia mona poda dwie miary: prawdopodobiestwo powodzenia: Ppowodzenie = = liczba powodze/liczba moliwych wyników prób prawdopodobiestwo poraki: Pporaka = = liczba poraek/ liczba moliwych wyników prób Ppowodzenie + Pporaka = Zdarzenie A jest dowolnym podzbiorem Ω przestrze prób PA = Σ ω A Pω Przut koci < 4 = P + P2 + P3 = /6 + /6 + /6 = ½ Elementy Sztucznej Inteligencji - wykład 8 8

Zmienne losowe Zmienna losowa jest funkcj z próbki w pewien zakres np.. liczb rzeczywistych czy binarnych,. np.. Odd=true. P okrela rozkład prawdopodobiestwa dla kadej zmiennej losowej X: PX =x i = Σ ω:xω= xi Pω np., POdd=true = P + P3 + P5 = /6 + /6 + /6 = /2 Elementy Sztucznej Inteligencji - wykład 8 9 Składnia Boolowska zmienne losowe np, cavity Czy mam ubytek? cavity = true jest zdarzeniem, zapisana równie cavity Dyskretne zmienne losowe np., Weather moe by jedn a {sunny; rain; cloudy; snow} Weather =rain jest zdarzeniem Wartoci musz by wyczerpujce i wzajemnie wykluczajce si. Cigła zmienna losowa ograniczona i nieograniczona np, Temp=2,6; moliwe inne przedstawienie np., Temp < 22,00. Elementy Sztucznej Inteligencji - wykład 8 0

Zdarzenia niezalene i zalene Zdarzenie niezalene - zdarzenie wzajemnie wykluczajce si, tj. nie mog wystpi równolegle np.. wyrzucenie i 6 w jednym rzucie kostk s niezalene Zdarzenia zalene: wydarzenia wystpujce równolegle, takie zdarzenia wpływaj wzajemnie na prawdopodobiestwa wystpienia, np.. jeeli wiemy, e przy rzucie kostk na pewno nie wystpi to uzyskanie 6 przy pojedynczym rzucie: s p = s + f = = 0.2 + 5 Elementy Sztucznej Inteligencji - wykład 8 Składnia Zdarzenie elementarne: Pełna specyfikacja stanu wiata niepewnego np, jeeli wiat zawiera tylko boolowskie zmienne losowe cavity i toothache, to istniej 4 odrbne zdarzenia elementarne: cavity = false toothache = false cavity = false toothache = true cavity = true toothache = false cavity = true toothache = true Zdarzenia elementarne s wzajemnie wykluczajce si i wyczerpujce. Elementy Sztucznej Inteligencji - wykład 8 2

Aksjomaty prawdopodobiestwa Dla dowolnych zdarze A, B 0 PA Ptrue = i Pfalse = 0 PA B = PA + PB - PA B Elementy Sztucznej Inteligencji - wykład 8 3 Prawdopodobiestwo a priori Prawdopodobiestwo a priori zdarze np, Pcavity = true = 0.2 and PWeather = sunny = 0.72 odnosi si do miary przekonania a priori bez pojawienia si nowych zdarze dowodów. adne obserwacje mogce mie wpływ na p nie zostały uwzgldnione. Rozkład prawdopodobiestwa daje wartoci dla wszystkich moliwych zdarze: PWeather = <0.72,0.,0.08,0.> znormalizowane, tj., P sumuje si do Łczny rozkład prawdopodobiestwa dla zbioru zmiennych losowych okrela prawdopodobiestwa kadego zdarzenia elementarnego. PWeather,Cavity = macierz 4 2: Weather = sunny rainy cloudy snow Cavity = true 0.44 0.02 0.06 0.02 Cavity = false 0.576 0.08 0.064 0.08 Na kade zapytanie z dziedziny mona uzyska odpowied na podstawie łcznego rozkładu prawdopodobiestwa dlatego, e kade zdarzenie jest sum zdarze elementarnych np. PCavity = 0.44 + 0.02 + 0.06 + 0.02 = 0.2 Elementy Sztucznej Inteligencji - wykład 8 4

Prawdopodobiestwo warunkowe Prawdopodobiestwo warunkowe lub a posteriori np., PCavity Toothache = 0.8 tj., Wszystko o czym wiem to toothache Notacja rozkładu warunkowego: PCavity Toothache dwuelementowy wektor dwuelementowych wektorów Jeeli wiemy wicej, np., dane jest cavity, to mamy Pcavity toothache,cavity = Nowy dowód moe by nieznaczcy, zezwala na uproszczenia, np, Pcavity toothache, sunny = Pcavity toothache = 0.8 Takie wnioskowanie poparte jest przez teori prawdopodobiestwa. Elementy Sztucznej Inteligencji - wykład 8 5 Prawdopodobiestwo warunkowe Prawdopodobiestwo warunkowe wzór.: odpowiednio.2: a b a b =, b > 0 b b a b a =, a > 0 a Elementy Sztucznej Inteligencji - wykład 8 6

Prawdopodobiestwo łczne Ze wzoru.2 prawdopodobiestwo łczne.3: p b a = b a a Główna wersja zachowana dla całego rozkładu,np., PWeather,Cavity = PWeather Cavity PCavity Prawdopodobiestwo łczne jest przechodnie.4: b a = a b Elementy Sztucznej Inteligencji - wykład 8 7 Wyprowadzenie reguły Bayes a Dany jest wzór na prawdopodobiestwo warunkowe: a b a b =, b > 0 b Podstawiajc ze wzoru.3 prawdopodobiestwo łczne i korzystajc z własnoci.4 uzyskujemy.5: p a b = b a a b Elementy Sztucznej Inteligencji - wykład 8 8

Rozpatrywanie wielu zdarze a zaley od zdarze b,...b n niezalenych, std.6: n i= a b = i= a b b Jeeli n jest pełn list zdarze warunkowych, to.7: n i= a b std, z.6 i z.7 wynika.8: a = n i= i i = n a a b i b i i i Elementy Sztucznej Inteligencji - wykład 8 9 Reguła Bayesa dla dwóch zdarze Jeeli badamy wystpienie zdarzenia b zalenego od zmiennej losowej boolowskiej a, która moe mie dwie wartoci to wzór.8 przybiera form.9: p b = b a a + b a a, Korzystajc z.9 reguła Bayesa ma posta.0: b a a a b =, b a a + b a a Elementy Sztucznej Inteligencji - wykład 8 20

Wnioskowanie z zastosowaniem reguły Bayesa Reguły reprezentowane s w formie: IF Dowód jest TRUE TEN ipoteza jest TRUE z prawdopodobiestwem p D to dowód na wystpienie zdarzenia, zatem reguła Bayes a z.0: D D =, D + D gdzie: - dane prawdopodobiestwo, e hipoteza jest TRUE, D - hipoteza jest TRUE pod wpływem dowodu D, prawdopodobiestwo, gdy hipoteza jest FALSE, D - prawdopodobiestwo znalezienia dowodu D, gdy hipoteza jest FALSE. Elementy Sztucznej Inteligencji - wykład 8 2 Jakie dane trzeba zna? musi by dane zanim jakikolwiek dowód D zostanie przedstawiony. Ponadto dane musi by: prawdopodobiestwo, e hipoteza jest TRUE to zaobserwowano dowód D, czyli: D ; oraz prawdopodobiestwo wystpienia D, gdy hipoteza była FALSE: D. Dane dostarczane s przez ekspertów, lub wynikaj ze zgromadzonych danych i oblicze statystycznych. Elementy Sztucznej Inteligencji - wykład 8 22

Elementy Sztucznej Inteligencji - wykład 8 23 Wiele hipotez dla jednego dowodu Wiele hipotez dla jednego dowodu ipotezy,..., m musz by wzajemnie wykluczajce si, wówczas.:, = = m k k k i i i p D p p D p D p Elementy Sztucznej Inteligencji - wykład 8 24 Wiele hipotez i wiele dowodów Wiele hipotez i wiele dowodów ipotezy,..., m jak i dowody D,..,D n musz by wzajemnie wykluczajce si niezalene. Wówczas.2: Upraszczajc, ze wzgldu na niemoliw do uzyskania informacj o prawdopodobiestwie kombinacji wszystkich dowodów dla danej hipotezy uzyskuje si zaleno.3:, 2 2 2 = = m k k k n i i n n i p D D D p p D D D p D D D p, 2 2 2 = = m k k k n k k i i n i i n i p D p D p D p p D p D p D p D D D p

Prosty przykład oceny degree of belief Dane s przez eksperta nastpujce wartoci prawdopodobiestw np.. =grypa, 2= alergia, 3=przezibienie D = katar, D2 = gorczka, D3 = ból głowy ipote zy pra wdopodobie s two i= i=2 i=3 i 0,4 0,35 0,25 D i 0,3 0,8 0,5 D2 i 0,9 0 0,7 D3 i 0,6 0,7 0,9 Elementy Sztucznej Inteligencji - wykład 8 25 Został zaobserwowany dowód D3 Jak długo nie ma adnych dodatkowych informacji wiemy, e moe pojawi si z prawdopodobiestwem 0.4, 2 z 0.35, a 3 z 0.25. Pojawia si jednak dowód D3, co dzieje si z przekonaniami o hipotezach, 2 i 3? Korzystajc z zalenoci wiele hipotez dowód. obliczamy: Elementy Sztucznej Inteligencji - wykład 8 26

Jak zmienia si, 2 i 3 2 3 0,6 0,4 D3 = = 0,34 0,6 0,4 + 0,7 0,35 + 0,9 0,25 0,7 0,35 D3 = = 0,35 0,6 0,4 + 0,7 0,35 + 0,9 0,25 0,9 0,25 D3 = = 0,32 0,6 0,4 + 0,7 0,35 + 0,9 0,25 Elementy Sztucznej Inteligencji - wykład 8 27 Wnioski Poprzez przedstawienie dowodu D3 przekonanie o hipotezie zmalało 0.4 do 0.34, przekonanie o 2 prawie zrównało si z 0.35, ale si nie zmieniło przekonanie o 3 wzrosło 0.25 do 0.32. Elementy Sztucznej Inteligencji - wykład 8 28

Został zaobserwowany dowód D Po zaobserwowaniu dowodu D3 zaobserwowano kolejny dowód D. Naley zatem uwzgldni sytuacj, gdy operujemy na wielu hipotezach i wielu dowodach. Do wyznaczania nowego przekonania o hipotezach skorzystamy ze wzoru. 3. Elementy Sztucznej Inteligencji - wykład 8 29 Jak zmienia si, 2 i 3 0,3 0,6 0,4 DD 3 = = 0, 9 0,3 0,6 0,4 + 0,8 0,7 0,35 + 0,5 0,9 0,25 2 0,8 0,7 0,35 DD 3 = = 0,52 0,3 0,6 0,4 + 0,8 0,7 0,35 + 0,5 0,9 0,25 0,5 0,9 0,25 3 DD 3 = = 0,30 0,3 0,6 0,4 + 0,8 0,7 0,35 + 0,5 0,9 0,25 Elementy Sztucznej Inteligencji - wykład 8 30

Wnioski Poprzez przedstawienie dowodu D i D3 przekonanie o hipotezie powanie zmalało 0.34 do 0.9, dla 2 prawdopodobiestwo wzrosło 0.35 do 0.52, a 3 obniyło si 0.32 do 0.30. Elementy Sztucznej Inteligencji - wykład 8 3 Został zaobserwowany dowód D2 Analogicznie do sytuacji poprzednich przedstawiono kolejny dowód D2. Bdzie on miał wpływ na zmian przekonania o wystpieniu hipotez, 2 i 3. 2 3 0,3 0,9 0,6 0,4 DD 2D3 = = 0,45 0,3 0,9 0,6 0,4 + 0,8 0 0,7 0,35 + 0,5 0,7 0,9 0,25 0,8 0 0,7 0,35 D D2D3 = = 0 0,3 0,9 0,6 0,4 + 0,8 0 0,7 0,35 + 0,5 0,7 0,9 0,25 0,5 0,7 0,9 0,25 D D2D3 = = 0,55 0,3 0,9 0,6 0,4 + 0,8 0 0,7 0,35 + 0,5 0,7 0,9 0,25 Elementy Sztucznej Inteligencji - wykład 8 32

Wnioski Poprzez przedstawienie dowodu D2 sytuacja diametralnie si zmienia: przekonanie o hipotezie wzrasta 0.9 do 0.45, hipoteza 2 jest nieprawdopodobna 0, a 3 znacznie wzrosło 0.30 do 0.55. Zatem dla dowodów D, D2, D3 najbardziej prawdopodobna jest hipoteza 3. Elementy Sztucznej Inteligencji - wykład 8 33 L i O W niektórych zastosowaniach przekształca si wzór Bayes a. stosujc dwa współczynniki: L likelihood ratio wskanik wiarygodnoci, O odds ratio iloraz szans. Dzielc wzór. przez odpowiedni form dla hipotezy komplementarnej uzyskujemy.4: D = D D D Elementy Sztucznej Inteligencji - wykład 8 34

Przekonanie o hipotezie w nowym ujciu Iloraz szans to.5: O = = a wskanik wiarygodnoci.6: L D = D D Zatem.7: O D = D D A z.4 podstawiajc.5,.6 i.7 wynika.8: O D = L D O Elementy Sztucznej Inteligencji - wykład 8 35 Przykład W rodku nocy budzi nas alarm informujcy o włamaniu. Jaki jest stopie przekonania o włamaniu? Istnieje 95% szansy, e włamanie włczy alarm: alarm włamanie=0.95. W oparciu o wczeniejsze fałszywe alarmy obliczono, e jest niewielka szansa %, e alarm włczył si bez przyczyny: alarm nie włamanie=0,0. W oparciu o dane o przestpczoci jest szansa na 000, e danej nocy do danego domu nastpi włamanie: włamanie = 0-4 Elementy Sztucznej Inteligencji - wykład 8 36

Czy jest włamanie? Korzystajc z wzoru.8 uzyskujemy: O wlamanie alarm = L alarm wlamanie O wlamanie = 4 0.95 0 = 0.0095 4 0.0 0 Z zalenoci.9 wyprowadzonej z.5: uzyskujemy: O A A = + O A 0.0095 wlamanie alarm = = 0.0094 + 0.0095 Elementy Sztucznej Inteligencji - wykład 8 37 Wnioski Retrospektywne wsparcie dla hipotezy o włamaniu dawane przez dowód w postaci włczonego alarmu zostało wzmocnione ponad stukrotnie 0.000 do 0.0094. Elementy Sztucznej Inteligencji - wykład 8 38

Prognozowanie pogody Zadanie: okreli czy bdzie, lub czy nie bdzie padał deszcz nastpnego dnia. Z biura prognozowania zebrane s dane: minimalna temperatura w cigu dnia, maksymalna temperatura w cigu dnia, opady w mm, liczba godzin słonecznych, aktualny stan: pada lub nie pada. System prognozowania poda z jakim prawdopodobiestwem bdzie padało lub nie bdzie padało dnia nastpnego. Elementy Sztucznej Inteligencji - wykład 8 39 Reguły główne Główne reguły z prawdopodobiestwem i wskanikami:. IF dzi pada [LS=2,5 LN=0,6] TEN jutro pada {p=0,5} 2. IF dzi nie pada [LS=,6 LN=0,4] TEN jutro nie pada {p=0,5} Elementy Sztucznej Inteligencji - wykład 8 40

Podział L na LS i LN Wprowadzamy podział wskanika wiarygodnoci L na LS i LN, gdzie.9 i.20: D D LS D = LN D = D D Współczynnik LS jest miar ufnoci w hipotez, jeeli przedstawiony został dowód D. LS = dzi pada jutro pada / dzi pada jutro nie pada Współczynnik LN jest miar pomniejszenia przekonania o hipotezie, gdy brak dowodu D LN = dzi nie pada jutro pada / dzi nie pada jutro nie pada LN nie moe by wyprowadzony z LS i wartoci te podawane s przez ekspertów lub z danych. Elementy Sztucznej Inteligencji - wykład 8 4 Okrelanie wartoci LN i LS Aby je okreli nie trzeba opiera si na prawdopodobiestwie warunkowym. Wartoci podawane s niezalenie: due LS >> silnie potwierdza hipotez, a niskie LN 0< LN < oznacza, e reguła silnie osłabia hipotez, gdy nie ma dowodu D. Z LN i LS łatwo wyprowadzi prawdopodobiestwa warunkowe i zastosowa reguł Bayes a. W przykładzie: LS=2,5 oznacza, e jeeli dzi pada, to z duym prawdopodobiestwem bdzie pada jutro, LN=0,6 oznacza, e istnieje szansa, e pomimo, e dzi nie pada to jutro bdzie pada. Elementy Sztucznej Inteligencji - wykład 8 42

Iloraz szans dla LN i LS Rewidujc wzór.8 z zastosowaniem.9 i.20 uzyskujemy: O D = LS O, O D = LN O Poszukiwane prawdopodobiestwa oblicza si zatem: O D D =, + O D O D D = + O D Elementy Sztucznej Inteligencji - wykład 8 43 Przykład: odpalenie reguły Dowód D: Dzi pada. Reguła jest odpalana i prawdopodobiestwa s uyte do obliczenia szansy wystpienia deszczu: 0,5 O jutro pada = = 0,5 Dowód D zwiksza szans na opad przez wskanik wiarygodnoci LS=2,5 O jutro pada dzi pada = 2,5 = 2,5 2,5 jutro pada dzi pada = = 0,7 + 2,5 Wniosek: Prawdopodobiestwo jutrzejszego opadu wzrasta z 0,5 do 0,7 poprzez przedstawienie dowodu D. Elementy Sztucznej Inteligencji - wykład 8 44

Przykład: odpalenie reguły 2 Dowód D: Dzi pada. Reguła 2 jest odpalana i prawdopodobiestwa s uyte do obliczenia szansy, e jutro nie bdzie pada: 0,5 O jutro nie pada = = 0,5 Dowód D wpływa hipotez, e jutro nie bdzie padało ze współczynnikiem LN=0,4 O jutro nie pada dzi pada = 0,4 = 0,4 0,4 jutro nie pada dzi pada = = 0,29 + 0,4 Wniosek: prawdopodobiestwo, e jutro nie bdzie pada, gdy dzi pada jest 0,29, czyli zmniejszyło si z powody zaistnienia D. Elementy Sztucznej Inteligencji - wykład 8 45 Przykład: D = Dzi nie pada. W analogiczny sposób oblicza si prawdopodobiestwa, e jutro nie bdzie pada, lub bdzie deszczowo, gdy dowód D mówi, e dzi nie pada. Wyniki dla obu reguł to: 62% szans, e nie bdzie pada, gdy dzi nie pada. 38% szans, e bdzie padało, gdy dzi nie padało. Elementy Sztucznej Inteligencji - wykład 8 46

Dodajemy kolejne reguły Powikszamy nasz baz wiedzy na temat prognozowania pogody o inne parametry. Wskaniki s uzyskiwane poprzez analiz danych zbieranych z lat poprzednich. Pewne zalenoci s widoczne i mona je uj w reguły, które uszczegółowi analiz i sprawi, e wnioskowanie bdzie bardziej wiarygodne. Elementy Sztucznej Inteligencji - wykład 8 47 Zestaw reguł. IF dzi pada [LS=2,5 LN=0,6] TEN jutro pada {p=0,5} 2. IF dzi nie pada [LS=,6 LN=0,4] TEN jutro nie pada {p=0,5} 3. IF dzi pada AND wilgotno jest niska [LS=0 LN=] TEN jutro nie pada {p=0,5} Elementy Sztucznej Inteligencji - wykład 8 48

Zestaw reguł cd. 4. IF dzi pada AND wilgotno jest niska AND temperatura jest niska [LS=,5 LN=] TEN jutro nie pada {p=0,5} 5. IF dzi nie pada AND temperatura jest wysoka [LS=2 LN=0,9] TEN jutro pada {p=0,5} 6. IF dzi nie pada AND temperatura jest wysoka AND niebo jest pochmurne [LS=5 LN=] TEN jutro pada {p=0,5} Elementy Sztucznej Inteligencji - wykład 8 49 Działanie systemu wnioskowania dialog Jaka jest dzi pogoda? Odp: PADA Obliczenia przedstawione na slajdach 4-42: na podstawie reguły : jutro pada dzi pada=0,7 na podstawie reguły 2: jutro nie pada dzi pada=0,29 Wniosek: jutro: pada [0,7], nie pada [0,29] Elementy Sztucznej Inteligencji - wykład 8 50

Działanie systemu wnioskowania dialog cd. Jaka jest dzi wilgotno? Odp: NISKA Obliczenia: na podstawie reguły 3 prawdopodobiestwo opadu pobrane z poprzedniego kroku 0,29: 0,29 O jutro nie pada = = 0,4 0,29 O jutro nie pada dzis pada niska wilgotnosc = 0 0,4 = 4, 4, jutro nie pada dzis pada niska wilgotnosc = = 0,8 + 4, Wniosek: jutro: pada [0,7], nie pada [0,8] Elementy Sztucznej Inteligencji - wykład 8 5 Działanie systemu wnioskowania dialog cd. Jaka jest dzi temperatura? Odp: NISKA Obliczenia: na podstawie reguły 4 LS: O jutro jutro nie pada dzis pada nie pada dzis pada 0,8 O jutro nie pada = = 4,26 0,8 niska wilgotnosc niska temp =,5 4,26 = 6,4 6,4 niska wilgotnosc niskatemp = = 0,86 + 6,4 na podstawie reguły 5 LN: 0,7 O jutro pada = = 2,45 0,7 O jutro pada dzis pada niskatemp = 0,9 2,45 = 2,2 jutro pada dzis pada 2,2 niskatemp = = 0,69 + 2,2 Wniosek: jutro: pada [0,69], nie pada [0,86] Elementy Sztucznej Inteligencji - wykład 8 52

Działanie systemu wnioskowania dialog cd. Jakie jest niebo? Odp: NIEZACMURZONE Obliczenia: na podstawie reguły 6 LN: jutro 0,69 O jutro pada = = 2,23 0,69 O jutro pada dzis pada niska wilgotnosc niska temp niebo pochmurne = 2,23 = 2,23 pada dzis pada 2,23 niska wilgotnosc niska temp niebo pochmurne = = 0,69 + 2,23 Wniosek: jutro: pada [0,69], nie pada [0,86] Elementy Sztucznej Inteligencji - wykład 8 53 Zastosowanie Mozilla Mozilla Autor Paul Graham filtr do spamu. Filtr oparty jest na wnioskowaniu Bayes a. Uytkownik wskazuje wiadomoci typu spam i normalne dwie klasy i na ich podstawie tworzone s wagi dla słów oparte na prawdopodobiestwie. Skuteczno jest niezwykle wysoka: program przepucił 5 na 000 wiadomoci typu spam, nie odrzucił adnej z dobrych wiadomoci. Elementy Sztucznej Inteligencji - wykład 8 54

Jak to działa? Podział wiadomoci na dwie klasy:. dobre 2. spam. Skanowanie całego tekstu cała wiadomo z nagłówkami, osadzony html i javascript i wyłuskiwanie tokenów, odrzucane: separatory, wartoci całkowicie liczbowe, komentarze z html a. Zliczenie wystpie kadego tokena i obliczenie prawdopodobiestwa jego wystpienia: liczba dobrych tokenów jest podwajana, by nie wpadały przez przypadek jako spam, rozwaane s słowa, które pojawiły si wicej ni 5 razy, prawdopodobiestwo a priori pojawienia si słowa w jednym bloku, ale nie w drugim jest 0,0 i 0,99. Elementy Sztucznej Inteligencji - wykład 8 55 Jak to działa? Jeeli pojawi si nowa wiadomo, to jest skanowana. Pobieranych jest 5 najbardziej interesujcych tokenów, przy czym interesujcy znaczy daleki od neutralnej wartoci spam czy nie spam, czyli 0.5. Oblicza si łczne prawdopodobiestwo 5 tokenów i otrzymuje odpowied. Słowa, które nigdy si nie pojawiły maj przypisane prawdopodobiestwo 0.4 czyli zakładamy, e jest niewinne i nie pochodzi ze spamu. Mail traktowany jest jako spam, gdy prawdopodobiestwo, e jest podejrzane jest wiksze od 0.9 Elementy Sztucznej Inteligencji - wykład 8 56

Zalety Nie trzeba czyta duej liczby spamu, by okreli filtry. Metoda bierze pod uwag wszystkie dowody za i przeciw. Dla kadego uytkownika mona policzy prawdopodobiestwo wystpowania tokenów dla jego indywidualnych i wybranych wiadomoci. Nie musi by łczony z biał list list adresów, z których akceptujemy wiadomoci. Ewoluuje wraz ze spamem. Zmiany w mailach powoduj zmiany w statystykach. Elementy Sztucznej Inteligencji - wykład 8 57 Przykład madam 0.99 promotion 0.99 republic 0.99 shortest 0.04722503 mandatory 0.04722503 standardization 0.07347802 sorry 0.082298 supported 0.0909077 people's 0.0909077 enter 0.907500 quality 0.892298 organization 0.2454646 investment 0.856843 very 0.4758544 valuable 0.82347786 Słówka "madam" czy "promotion" przyczyniaj si do oceny na korzy spamu a słówko shortest wrcz przeciwnie. Jednak przewaga jest słów z prawdopodobiestwem wskazujcym na spam. Reguła Bayes a dała temu mailowi miar 0.9027, czyli spam Elementy Sztucznej Inteligencji - wykład 8 58

Metody oparte na współczynniku wiarygodnoci Alternatywa dla wnioskowania Bayes a. MYCIN system, w którym wprowadzono współczynniki wiarygodnoci jest to medyczny system ekspertowy okrelajcy sił przekonania o wiarygodnoci hipotezy nie oparty na logicznych i matematycznych zalenociach midzy danymi. Jego przeznaczeniem było stawianie diagnozy i wyznaczanie terapii przy chorobach krwi. Zastosowanie, gdy brak spójnych danych statystycznych. Naladuj procesy mylowe przy wnioskowaniu prowadzonym przez eksperta - człowieka. Elementy Sztucznej Inteligencji - wykład 8 59 Współczynnik wiarygodnoci Współczynnik wiarygodnoci cf jest miar przekona eksperta. Ma warto z przedziału fałsz do prawda. Wartoci >0 s miar przekonania o hipotezie. Wartoci <0 s miar braku przekonania o hipotezie. Elementy Sztucznej Inteligencji - wykład 8 60

Reguły w systemie dowodzenia Reguły maj posta: IF D <dowód> TEN <hipoteza> {cf} cf jest miar ufnoci w hipotez, gdy dany jest dowód D. Elementy Sztucznej Inteligencji - wykład 8 6 MB measure of belief Wykorzystuje si dwie funkcje oceny maj wartoci od 0 do : miara przekonania o hipotezie oparta o prawdopodobiestwo: MB,D: MB, D = D if = otherwise Ekspert ocenia jak bardzo przedstawiony dowód D redukuje jego wtpliwoci w wypadku braku dowodu. Jeeli dowód jest słaby, to D jest bliskie 0 i jego wtpliwoci nie ulegn zmianie. Elementy Sztucznej Inteligencji - wykład 8 62

MD measure of disbelief miara braku przekonania w hipotez w oparciu o prawdopodobiestwo: MD,D: MD, D = D if = 0 otherwise Ekspert ocenia jak bardzo przedstawiony dowód D redukuje jego przekonanie o hipotezie. prawdopodobiestwo a priori, e jest TRUE, Elementy Sztucznej Inteligencji - wykład 8 63 Całkowity współczynnik W oparciu o MB i MD wyznaczamy cf: cf MB, D MD, D = min[ MB, D, MD, D] std cf ma wartoci z zakresu do, które oznacza całkowite przekonanie o hipotezie. Elementy Sztucznej Inteligencji - wykład 8 64

Jak działa MYCIN? Najczciej reguły s złoone, tzn. e zaobserwowanie pewnej wartoci moe pociga róne wyniki: IF A jest X TEN B jest Y {cf 0,7} B jest Z {cf 0,2} Oznacza, to e w 0% wypadków nie wiemy jaka jest odpowied jest to warto odpowied, której dotychczas nie zaobserwowano. Elementy Sztucznej Inteligencji - wykład 8 65 Obliczanie cf pojedynczy dowód cf,d dla reguły z jednym dowodem oblicza si jako mnoenie cfd dowodu i cf reguły: cf, D = cf D cf Przykład: IF niebo czyste TEN prognozujemy słoce {cf 0.8} cfd dla czyste niebo to 0.5 zatem cf,d=0.5*0.8=0.4 co czytamy, e moe by słonecznie. Elementy Sztucznej Inteligencji - wykład 8 66

Obliczanie cf przy koniunkcji wielu dowodów Zasady: IF <dowód D> AND <dowód D2>... AND <dowód Dn> TEN <hipoteza> {cf} to: cf 2, D D2 Dn = min[ cf D, cf D,, cf Dn ] cf Przykład: IF niebo czyste AND prognozujemy słoce TEN no okulary {cf 0.8}, gdzie: cfd=0,9 i cfd2=0.7 cf 2, D D = min[0.9,0.7] 0.8 = 0.56 Elementy Sztucznej Inteligencji - wykład 8 67 Obliczanie cf przy dysjunkcji wielu dowodów Zasady: IF <dowód D> OR <dowód D2>... OR <dowód Dn> TEN <hipoteza> {cf} to: cf, D D2 D Przykład: IF niebo zachmurzone OR prognozujemy deszcz TEN we parasol {cf 0.9}, gdzie: cfd=0,6 cfd2=0.8 2 n = max[ cf D, cf D,, cf Dn ] cf cf, D D2 = max[0.6,0.8] 0.9 = 0.72 Elementy Sztucznej Inteligencji - wykład 8 68

Obliczanie cf,, gdy wiele zdarze wpływa na t sam hipotez Zasady: IF A jest X TEN B jest Y {cf} IF C jest Z TEN B jest Y {cf2} to: cf cf, cf 2 cf + cf2 cf cf + cf2 = min[ cf, cf2 ] cf + cf2 + cf Przykład: cfd= cfd2=.0 cf,d=*0.8=0.8 cfcf, cf 2 = cf +cf 2 *[-cf ] = 0.92 if cf if cf if cf > 0 and cf > 0or cf < 0 and cf cf 2,D2=*0.6=0.6 2 2 > 0 > 0 2 < 0 Elementy Sztucznej Inteligencji - wykład 8 69 Analiza wzoru Jeeli wiele zdarze wpływa na t sam hipotez, to: jeeli oba zdarzenia wzmacniaj przekonanie o hipotezie przekonanie wzrasta przy złoeniu obu warunków, jeeli jedno zdarzenie wzmacnia, a drugie osłabia przekonanie o hipotezie to całkowity współczynnik wiarygodnoci zmniejszy si, jeeli oba zdarzenia osłabiaj hipotez to ich złoenie da jeszcze bardziej osłabiajcy współczynnik wiarygodnoci. Elementy Sztucznej Inteligencji - wykład 8 70

Przykład dla prognozowania pogody- reguły. IF dzi pada TEN jutro pada {cf=0,5} 2. IF dzi nie pada TEN jutro nie pada {cf=0,5} 3. IF dzi pada AND wilgotno jest niska TEN jutro nie pada {cf=0,6} Elementy Sztucznej Inteligencji - wykład 8 7 Przykład dla prognozowania pogody- reguły 4. IF dzi pada AND wilgotno jest niska AND temperatura jest niska TEN jutro nie pada {cf=0,7} 5. IF dzi nie pada AND temperatura jest wysoka TEN jutro pada {cf=0,65} 6. IF dzi nie pada AND temperatura jest wysoka AND niebo jest pochmurne TEN jutro pada {cf=0,55} Elementy Sztucznej Inteligencji - wykład 8 72

Działanie systemu wnioskowania dialog Jaka jest dzi pogoda? Odp: PADA Obliczenia: na podstawie reguły : cfjutro pada,dzi pada=*0,5=0,5 Wnioski: jutro: pada [0,5] Elementy Sztucznej Inteligencji - wykład 8 73 Działanie systemu wnioskowania dialog cd. Jaka jest dzi wilgotno? Odp: NISKA Jaka jest stopie wilgotnoci podaj współczynnik od 0 do? Odp: 0.8 Odpowiedzi: na podstawie reguły 3: cf jutro = min[ cf dzis nie pada, dzis pada, cf niska = min[,0.8] 0.6 = 0.48 pada niska Wniosek: jutro: pada [0,5], nie pada [0,48] wilgotnosc = wilgotnosc] cf = Elementy Sztucznej Inteligencji - wykład 8 74

Działanie systemu wnioskowania dialog cd. Jaka jest dzi temperatura? Odp: NISKA Jaka jest stopie wiarygodnoci stwierdzenia, e temperatura jest niska? Odp: 0.9 Obliczenia: na podstawie reguły 4: cf jutro nie pada, dzis pada niska wilgotnosc niska temp = = min[ cf dzi = min[,0.8,0.9] 0.7 = 0.56 pada, cf niska wilgotnosc, cf niska temp] cf = Wniosek: jutro: pada [0,50], nie pada [0,56] Elementy Sztucznej Inteligencji - wykład 8 75 Działanie systemu wnioskowania dialog cd. Złoenie reguł 3 i 4 w ocenie hipotezy nie pada: cf cfregula3, cfregula4 = cfregula3 + cfregula4 cfregula3 = 0.48 + 0.56 0.48 = 0.77 Wniosek: jutro: pada [0,50], nie pada [0,77] Elementy Sztucznej Inteligencji - wykład 8 76

Porównanie wnioskowanie Bayes a i współczynnik wiarygodnoci Zastosowanie: planowanie, prognozowanie, tam gdzie dostpne s dane statystyczne. Przykład działajcego systemu: PROSPECTOR geologia. Matematycznie poprawny teoria prawdopodobiestwa. Zastosowanie: planowanie, prognozowanie, tam gdzie brak danych statystycznych. Przykład działajcego systemu: MYCIN medycyna. Brak matematycznej poprawnoci. Dane pochodz z ocen ekspertów z dziedziny. Elementy Sztucznej Inteligencji - wykład 8 77 Cechy wspólne Propagowanie przekona wzrasta wykładniczo, dlatego nie nadaje si dla bardzo duych baz wiedzy. Problemem jest znalezienie właciwej metody okrelania prawdopodobiestw i współczynników, poniewa ludzie s tendencyjni w ocenach. Elementy Sztucznej Inteligencji - wykład 8 78