Elementy Sztucznej Inteligencji Wnioskowanie statystyczne i oparte na współczynnikach wiarygodnoci Elementy Sztucznej Inteligencji - wykład 8 Plan wykładu Niepewno Wnioskowanie statystyczne: Wprowadzenie teoretyczne Wnioskowanie probabilistyczne Przykłady Wnioskowanie ze współczynnikami wiarygodnoci Wprowadzenie, definicje. Przykład Porównanie technik Elementy Sztucznej Inteligencji - wykład 8 2
Typy niepewnoci Niepewno wiedzy podstawowej: np.. pewne przyczyny chorób s nieznane i nie s prezentowane w podstawach wiedzy medycznej. Niepewno działa: np.. działania mona przedstawi jako relatywnie krótk list warunków pocztkowych. W rzeczywistoci liczba faktów do uwzgldnienia jest przytłaczajco dua. Niepewno postrzegania: np.. czujniki agenta nie zwracaj dokładnej informacji o wiecie i agent nigdy nie wie wszystkiego o swoim połoeniu szum. Elementy Sztucznej Inteligencji - wykład 8 3 Przykład Przykład niepewnoci działania: By rano odjecha samochodem: Samochód nie mógł by w nocy ukradziony. Opony nie mog by dziurawe. Musi by benzyna w baku. Akumulator musi by sprawny. Zapłon musi działa. Kluczyk do stacyjki nie mogły zosta zgubione. Ciarówka nie moe zablokowa wyjazdu. Nie mona nagle straci wzroku. itd... Elementy Sztucznej Inteligencji - wykład 8 4
Metody radzenia sobie z wiedz niepewn Wnioskowanie niemonotoniczne np.. Zakładam, e samochód nie ma dziury w oponie problem: jakie załoenia s poprawne, jak radzi sobie ze sprzecznociami powstałymi w wyniki wprowadzenia nowego załoenia. Zastosowanie współczynników wiarygodnoci np. reguły: zraszacz mokra trawa cf = 0.99 problemy: problemy ze składaniem i ledzeniem zalenoci. Prawdopodobiestwo wykorzystuje stopie przekonania degree of belief działa dla systemów z dostpnymi dowodami Logika rozmyta opisuje stopie prawdziwoci a nie niepewnoci Elementy Sztucznej Inteligencji - wykład 8 5 Prawdopodobiestwo Prawdopodobiestwo jest subiektywne: prawdopodobiestwa okrelaj proporcje wynikajce z indywidualnej oceny agenta. np.. Pdojad na dworzec 5min nie stwierdzono wypadku = 0,06 Nie formułuje twierdze o wiecie prawdopodobnych tendencji, jednak moe si uczy z własnych dowiadcze o podobnych sytuacjach. Przedstawione prawdopodobiestwa nie okrelaj stopnia prawdziwoci reguły która moe by albo prawdziwa, albo fałszywa, ale stopie wiary oczekiwana czsto w jej wystpienie. Prawdopodobiestwa hipotez wniosków zmieniaj si wraz nowymi dowodami np.. Pdojad na dworzec 5min nie stwierdzono wypadku, 7:00 = 0,6 Elementy Sztucznej Inteligencji - wykład 8 6
Podejmowanie decyzji w niepewnoci Zakładamy, e jestemy przekonani o PA 25 gets me there on time = 0.04 PA 90 gets me there on time = 0.70 PA 20 gets me there on time = 0.95 PA 440 gets me there on time = 0.9999 Jak akcj podj? Naley rozway czy chcemy si spóni i jak długo chcemy czeka. Teoria uytecznoci jest stosowana do okrelenia preferowanych wniosków Teoria decyzji = teoria uytecznoci + teoria prawdopodobiestwa. Elementy Sztucznej Inteligencji - wykład 8 7 Podstawy teorii prawdopodobiestwa Prawdopodobiestwo wystpienia zdarzenia jest odsetkiem jego wystpie. Miara prawdopodobiestwa okrelana jest wartociami z zakresu 0 zdarzenie niemoliwe do zdarzenie pewne. Dla kadego zdarzenia mona poda dwie miary: prawdopodobiestwo powodzenia: Ppowodzenie = = liczba powodze/liczba moliwych wyników prób prawdopodobiestwo poraki: Pporaka = = liczba poraek/ liczba moliwych wyników prób Ppowodzenie + Pporaka = Zdarzenie A jest dowolnym podzbiorem Ω przestrze prób PA = Σ ω A Pω Przut koci < 4 = P + P2 + P3 = /6 + /6 + /6 = ½ Elementy Sztucznej Inteligencji - wykład 8 8
Zmienne losowe Zmienna losowa jest funkcj z próbki w pewien zakres np.. liczb rzeczywistych czy binarnych,. np.. Odd=true. P okrela rozkład prawdopodobiestwa dla kadej zmiennej losowej X: PX =x i = Σ ω:xω= xi Pω np., POdd=true = P + P3 + P5 = /6 + /6 + /6 = /2 Elementy Sztucznej Inteligencji - wykład 8 9 Składnia Boolowska zmienne losowe np, cavity Czy mam ubytek? cavity = true jest zdarzeniem, zapisana równie cavity Dyskretne zmienne losowe np., Weather moe by jedn a {sunny; rain; cloudy; snow} Weather =rain jest zdarzeniem Wartoci musz by wyczerpujce i wzajemnie wykluczajce si. Cigła zmienna losowa ograniczona i nieograniczona np, Temp=2,6; moliwe inne przedstawienie np., Temp < 22,00. Elementy Sztucznej Inteligencji - wykład 8 0
Zdarzenia niezalene i zalene Zdarzenie niezalene - zdarzenie wzajemnie wykluczajce si, tj. nie mog wystpi równolegle np.. wyrzucenie i 6 w jednym rzucie kostk s niezalene Zdarzenia zalene: wydarzenia wystpujce równolegle, takie zdarzenia wpływaj wzajemnie na prawdopodobiestwa wystpienia, np.. jeeli wiemy, e przy rzucie kostk na pewno nie wystpi to uzyskanie 6 przy pojedynczym rzucie: s p = s + f = = 0.2 + 5 Elementy Sztucznej Inteligencji - wykład 8 Składnia Zdarzenie elementarne: Pełna specyfikacja stanu wiata niepewnego np, jeeli wiat zawiera tylko boolowskie zmienne losowe cavity i toothache, to istniej 4 odrbne zdarzenia elementarne: cavity = false toothache = false cavity = false toothache = true cavity = true toothache = false cavity = true toothache = true Zdarzenia elementarne s wzajemnie wykluczajce si i wyczerpujce. Elementy Sztucznej Inteligencji - wykład 8 2
Aksjomaty prawdopodobiestwa Dla dowolnych zdarze A, B 0 PA Ptrue = i Pfalse = 0 PA B = PA + PB - PA B Elementy Sztucznej Inteligencji - wykład 8 3 Prawdopodobiestwo a priori Prawdopodobiestwo a priori zdarze np, Pcavity = true = 0.2 and PWeather = sunny = 0.72 odnosi si do miary przekonania a priori bez pojawienia si nowych zdarze dowodów. adne obserwacje mogce mie wpływ na p nie zostały uwzgldnione. Rozkład prawdopodobiestwa daje wartoci dla wszystkich moliwych zdarze: PWeather = <0.72,0.,0.08,0.> znormalizowane, tj., P sumuje si do Łczny rozkład prawdopodobiestwa dla zbioru zmiennych losowych okrela prawdopodobiestwa kadego zdarzenia elementarnego. PWeather,Cavity = macierz 4 2: Weather = sunny rainy cloudy snow Cavity = true 0.44 0.02 0.06 0.02 Cavity = false 0.576 0.08 0.064 0.08 Na kade zapytanie z dziedziny mona uzyska odpowied na podstawie łcznego rozkładu prawdopodobiestwa dlatego, e kade zdarzenie jest sum zdarze elementarnych np. PCavity = 0.44 + 0.02 + 0.06 + 0.02 = 0.2 Elementy Sztucznej Inteligencji - wykład 8 4
Prawdopodobiestwo warunkowe Prawdopodobiestwo warunkowe lub a posteriori np., PCavity Toothache = 0.8 tj., Wszystko o czym wiem to toothache Notacja rozkładu warunkowego: PCavity Toothache dwuelementowy wektor dwuelementowych wektorów Jeeli wiemy wicej, np., dane jest cavity, to mamy Pcavity toothache,cavity = Nowy dowód moe by nieznaczcy, zezwala na uproszczenia, np, Pcavity toothache, sunny = Pcavity toothache = 0.8 Takie wnioskowanie poparte jest przez teori prawdopodobiestwa. Elementy Sztucznej Inteligencji - wykład 8 5 Prawdopodobiestwo warunkowe Prawdopodobiestwo warunkowe wzór.: odpowiednio.2: a b a b =, b > 0 b b a b a =, a > 0 a Elementy Sztucznej Inteligencji - wykład 8 6
Prawdopodobiestwo łczne Ze wzoru.2 prawdopodobiestwo łczne.3: p b a = b a a Główna wersja zachowana dla całego rozkładu,np., PWeather,Cavity = PWeather Cavity PCavity Prawdopodobiestwo łczne jest przechodnie.4: b a = a b Elementy Sztucznej Inteligencji - wykład 8 7 Wyprowadzenie reguły Bayes a Dany jest wzór na prawdopodobiestwo warunkowe: a b a b =, b > 0 b Podstawiajc ze wzoru.3 prawdopodobiestwo łczne i korzystajc z własnoci.4 uzyskujemy.5: p a b = b a a b Elementy Sztucznej Inteligencji - wykład 8 8
Rozpatrywanie wielu zdarze a zaley od zdarze b,...b n niezalenych, std.6: n i= a b = i= a b b Jeeli n jest pełn list zdarze warunkowych, to.7: n i= a b std, z.6 i z.7 wynika.8: a = n i= i i = n a a b i b i i i Elementy Sztucznej Inteligencji - wykład 8 9 Reguła Bayesa dla dwóch zdarze Jeeli badamy wystpienie zdarzenia b zalenego od zmiennej losowej boolowskiej a, która moe mie dwie wartoci to wzór.8 przybiera form.9: p b = b a a + b a a, Korzystajc z.9 reguła Bayesa ma posta.0: b a a a b =, b a a + b a a Elementy Sztucznej Inteligencji - wykład 8 20
Wnioskowanie z zastosowaniem reguły Bayesa Reguły reprezentowane s w formie: IF Dowód jest TRUE TEN ipoteza jest TRUE z prawdopodobiestwem p D to dowód na wystpienie zdarzenia, zatem reguła Bayes a z.0: D D =, D + D gdzie: - dane prawdopodobiestwo, e hipoteza jest TRUE, D - hipoteza jest TRUE pod wpływem dowodu D, prawdopodobiestwo, gdy hipoteza jest FALSE, D - prawdopodobiestwo znalezienia dowodu D, gdy hipoteza jest FALSE. Elementy Sztucznej Inteligencji - wykład 8 2 Jakie dane trzeba zna? musi by dane zanim jakikolwiek dowód D zostanie przedstawiony. Ponadto dane musi by: prawdopodobiestwo, e hipoteza jest TRUE to zaobserwowano dowód D, czyli: D ; oraz prawdopodobiestwo wystpienia D, gdy hipoteza była FALSE: D. Dane dostarczane s przez ekspertów, lub wynikaj ze zgromadzonych danych i oblicze statystycznych. Elementy Sztucznej Inteligencji - wykład 8 22
Elementy Sztucznej Inteligencji - wykład 8 23 Wiele hipotez dla jednego dowodu Wiele hipotez dla jednego dowodu ipotezy,..., m musz by wzajemnie wykluczajce si, wówczas.:, = = m k k k i i i p D p p D p D p Elementy Sztucznej Inteligencji - wykład 8 24 Wiele hipotez i wiele dowodów Wiele hipotez i wiele dowodów ipotezy,..., m jak i dowody D,..,D n musz by wzajemnie wykluczajce si niezalene. Wówczas.2: Upraszczajc, ze wzgldu na niemoliw do uzyskania informacj o prawdopodobiestwie kombinacji wszystkich dowodów dla danej hipotezy uzyskuje si zaleno.3:, 2 2 2 = = m k k k n i i n n i p D D D p p D D D p D D D p, 2 2 2 = = m k k k n k k i i n i i n i p D p D p D p p D p D p D p D D D p
Prosty przykład oceny degree of belief Dane s przez eksperta nastpujce wartoci prawdopodobiestw np.. =grypa, 2= alergia, 3=przezibienie D = katar, D2 = gorczka, D3 = ból głowy ipote zy pra wdopodobie s two i= i=2 i=3 i 0,4 0,35 0,25 D i 0,3 0,8 0,5 D2 i 0,9 0 0,7 D3 i 0,6 0,7 0,9 Elementy Sztucznej Inteligencji - wykład 8 25 Został zaobserwowany dowód D3 Jak długo nie ma adnych dodatkowych informacji wiemy, e moe pojawi si z prawdopodobiestwem 0.4, 2 z 0.35, a 3 z 0.25. Pojawia si jednak dowód D3, co dzieje si z przekonaniami o hipotezach, 2 i 3? Korzystajc z zalenoci wiele hipotez dowód. obliczamy: Elementy Sztucznej Inteligencji - wykład 8 26
Jak zmienia si, 2 i 3 2 3 0,6 0,4 D3 = = 0,34 0,6 0,4 + 0,7 0,35 + 0,9 0,25 0,7 0,35 D3 = = 0,35 0,6 0,4 + 0,7 0,35 + 0,9 0,25 0,9 0,25 D3 = = 0,32 0,6 0,4 + 0,7 0,35 + 0,9 0,25 Elementy Sztucznej Inteligencji - wykład 8 27 Wnioski Poprzez przedstawienie dowodu D3 przekonanie o hipotezie zmalało 0.4 do 0.34, przekonanie o 2 prawie zrównało si z 0.35, ale si nie zmieniło przekonanie o 3 wzrosło 0.25 do 0.32. Elementy Sztucznej Inteligencji - wykład 8 28
Został zaobserwowany dowód D Po zaobserwowaniu dowodu D3 zaobserwowano kolejny dowód D. Naley zatem uwzgldni sytuacj, gdy operujemy na wielu hipotezach i wielu dowodach. Do wyznaczania nowego przekonania o hipotezach skorzystamy ze wzoru. 3. Elementy Sztucznej Inteligencji - wykład 8 29 Jak zmienia si, 2 i 3 0,3 0,6 0,4 DD 3 = = 0, 9 0,3 0,6 0,4 + 0,8 0,7 0,35 + 0,5 0,9 0,25 2 0,8 0,7 0,35 DD 3 = = 0,52 0,3 0,6 0,4 + 0,8 0,7 0,35 + 0,5 0,9 0,25 0,5 0,9 0,25 3 DD 3 = = 0,30 0,3 0,6 0,4 + 0,8 0,7 0,35 + 0,5 0,9 0,25 Elementy Sztucznej Inteligencji - wykład 8 30
Wnioski Poprzez przedstawienie dowodu D i D3 przekonanie o hipotezie powanie zmalało 0.34 do 0.9, dla 2 prawdopodobiestwo wzrosło 0.35 do 0.52, a 3 obniyło si 0.32 do 0.30. Elementy Sztucznej Inteligencji - wykład 8 3 Został zaobserwowany dowód D2 Analogicznie do sytuacji poprzednich przedstawiono kolejny dowód D2. Bdzie on miał wpływ na zmian przekonania o wystpieniu hipotez, 2 i 3. 2 3 0,3 0,9 0,6 0,4 DD 2D3 = = 0,45 0,3 0,9 0,6 0,4 + 0,8 0 0,7 0,35 + 0,5 0,7 0,9 0,25 0,8 0 0,7 0,35 D D2D3 = = 0 0,3 0,9 0,6 0,4 + 0,8 0 0,7 0,35 + 0,5 0,7 0,9 0,25 0,5 0,7 0,9 0,25 D D2D3 = = 0,55 0,3 0,9 0,6 0,4 + 0,8 0 0,7 0,35 + 0,5 0,7 0,9 0,25 Elementy Sztucznej Inteligencji - wykład 8 32
Wnioski Poprzez przedstawienie dowodu D2 sytuacja diametralnie si zmienia: przekonanie o hipotezie wzrasta 0.9 do 0.45, hipoteza 2 jest nieprawdopodobna 0, a 3 znacznie wzrosło 0.30 do 0.55. Zatem dla dowodów D, D2, D3 najbardziej prawdopodobna jest hipoteza 3. Elementy Sztucznej Inteligencji - wykład 8 33 L i O W niektórych zastosowaniach przekształca si wzór Bayes a. stosujc dwa współczynniki: L likelihood ratio wskanik wiarygodnoci, O odds ratio iloraz szans. Dzielc wzór. przez odpowiedni form dla hipotezy komplementarnej uzyskujemy.4: D = D D D Elementy Sztucznej Inteligencji - wykład 8 34
Przekonanie o hipotezie w nowym ujciu Iloraz szans to.5: O = = a wskanik wiarygodnoci.6: L D = D D Zatem.7: O D = D D A z.4 podstawiajc.5,.6 i.7 wynika.8: O D = L D O Elementy Sztucznej Inteligencji - wykład 8 35 Przykład W rodku nocy budzi nas alarm informujcy o włamaniu. Jaki jest stopie przekonania o włamaniu? Istnieje 95% szansy, e włamanie włczy alarm: alarm włamanie=0.95. W oparciu o wczeniejsze fałszywe alarmy obliczono, e jest niewielka szansa %, e alarm włczył si bez przyczyny: alarm nie włamanie=0,0. W oparciu o dane o przestpczoci jest szansa na 000, e danej nocy do danego domu nastpi włamanie: włamanie = 0-4 Elementy Sztucznej Inteligencji - wykład 8 36
Czy jest włamanie? Korzystajc z wzoru.8 uzyskujemy: O wlamanie alarm = L alarm wlamanie O wlamanie = 4 0.95 0 = 0.0095 4 0.0 0 Z zalenoci.9 wyprowadzonej z.5: uzyskujemy: O A A = + O A 0.0095 wlamanie alarm = = 0.0094 + 0.0095 Elementy Sztucznej Inteligencji - wykład 8 37 Wnioski Retrospektywne wsparcie dla hipotezy o włamaniu dawane przez dowód w postaci włczonego alarmu zostało wzmocnione ponad stukrotnie 0.000 do 0.0094. Elementy Sztucznej Inteligencji - wykład 8 38
Prognozowanie pogody Zadanie: okreli czy bdzie, lub czy nie bdzie padał deszcz nastpnego dnia. Z biura prognozowania zebrane s dane: minimalna temperatura w cigu dnia, maksymalna temperatura w cigu dnia, opady w mm, liczba godzin słonecznych, aktualny stan: pada lub nie pada. System prognozowania poda z jakim prawdopodobiestwem bdzie padało lub nie bdzie padało dnia nastpnego. Elementy Sztucznej Inteligencji - wykład 8 39 Reguły główne Główne reguły z prawdopodobiestwem i wskanikami:. IF dzi pada [LS=2,5 LN=0,6] TEN jutro pada {p=0,5} 2. IF dzi nie pada [LS=,6 LN=0,4] TEN jutro nie pada {p=0,5} Elementy Sztucznej Inteligencji - wykład 8 40
Podział L na LS i LN Wprowadzamy podział wskanika wiarygodnoci L na LS i LN, gdzie.9 i.20: D D LS D = LN D = D D Współczynnik LS jest miar ufnoci w hipotez, jeeli przedstawiony został dowód D. LS = dzi pada jutro pada / dzi pada jutro nie pada Współczynnik LN jest miar pomniejszenia przekonania o hipotezie, gdy brak dowodu D LN = dzi nie pada jutro pada / dzi nie pada jutro nie pada LN nie moe by wyprowadzony z LS i wartoci te podawane s przez ekspertów lub z danych. Elementy Sztucznej Inteligencji - wykład 8 4 Okrelanie wartoci LN i LS Aby je okreli nie trzeba opiera si na prawdopodobiestwie warunkowym. Wartoci podawane s niezalenie: due LS >> silnie potwierdza hipotez, a niskie LN 0< LN < oznacza, e reguła silnie osłabia hipotez, gdy nie ma dowodu D. Z LN i LS łatwo wyprowadzi prawdopodobiestwa warunkowe i zastosowa reguł Bayes a. W przykładzie: LS=2,5 oznacza, e jeeli dzi pada, to z duym prawdopodobiestwem bdzie pada jutro, LN=0,6 oznacza, e istnieje szansa, e pomimo, e dzi nie pada to jutro bdzie pada. Elementy Sztucznej Inteligencji - wykład 8 42
Iloraz szans dla LN i LS Rewidujc wzór.8 z zastosowaniem.9 i.20 uzyskujemy: O D = LS O, O D = LN O Poszukiwane prawdopodobiestwa oblicza si zatem: O D D =, + O D O D D = + O D Elementy Sztucznej Inteligencji - wykład 8 43 Przykład: odpalenie reguły Dowód D: Dzi pada. Reguła jest odpalana i prawdopodobiestwa s uyte do obliczenia szansy wystpienia deszczu: 0,5 O jutro pada = = 0,5 Dowód D zwiksza szans na opad przez wskanik wiarygodnoci LS=2,5 O jutro pada dzi pada = 2,5 = 2,5 2,5 jutro pada dzi pada = = 0,7 + 2,5 Wniosek: Prawdopodobiestwo jutrzejszego opadu wzrasta z 0,5 do 0,7 poprzez przedstawienie dowodu D. Elementy Sztucznej Inteligencji - wykład 8 44
Przykład: odpalenie reguły 2 Dowód D: Dzi pada. Reguła 2 jest odpalana i prawdopodobiestwa s uyte do obliczenia szansy, e jutro nie bdzie pada: 0,5 O jutro nie pada = = 0,5 Dowód D wpływa hipotez, e jutro nie bdzie padało ze współczynnikiem LN=0,4 O jutro nie pada dzi pada = 0,4 = 0,4 0,4 jutro nie pada dzi pada = = 0,29 + 0,4 Wniosek: prawdopodobiestwo, e jutro nie bdzie pada, gdy dzi pada jest 0,29, czyli zmniejszyło si z powody zaistnienia D. Elementy Sztucznej Inteligencji - wykład 8 45 Przykład: D = Dzi nie pada. W analogiczny sposób oblicza si prawdopodobiestwa, e jutro nie bdzie pada, lub bdzie deszczowo, gdy dowód D mówi, e dzi nie pada. Wyniki dla obu reguł to: 62% szans, e nie bdzie pada, gdy dzi nie pada. 38% szans, e bdzie padało, gdy dzi nie padało. Elementy Sztucznej Inteligencji - wykład 8 46
Dodajemy kolejne reguły Powikszamy nasz baz wiedzy na temat prognozowania pogody o inne parametry. Wskaniki s uzyskiwane poprzez analiz danych zbieranych z lat poprzednich. Pewne zalenoci s widoczne i mona je uj w reguły, które uszczegółowi analiz i sprawi, e wnioskowanie bdzie bardziej wiarygodne. Elementy Sztucznej Inteligencji - wykład 8 47 Zestaw reguł. IF dzi pada [LS=2,5 LN=0,6] TEN jutro pada {p=0,5} 2. IF dzi nie pada [LS=,6 LN=0,4] TEN jutro nie pada {p=0,5} 3. IF dzi pada AND wilgotno jest niska [LS=0 LN=] TEN jutro nie pada {p=0,5} Elementy Sztucznej Inteligencji - wykład 8 48
Zestaw reguł cd. 4. IF dzi pada AND wilgotno jest niska AND temperatura jest niska [LS=,5 LN=] TEN jutro nie pada {p=0,5} 5. IF dzi nie pada AND temperatura jest wysoka [LS=2 LN=0,9] TEN jutro pada {p=0,5} 6. IF dzi nie pada AND temperatura jest wysoka AND niebo jest pochmurne [LS=5 LN=] TEN jutro pada {p=0,5} Elementy Sztucznej Inteligencji - wykład 8 49 Działanie systemu wnioskowania dialog Jaka jest dzi pogoda? Odp: PADA Obliczenia przedstawione na slajdach 4-42: na podstawie reguły : jutro pada dzi pada=0,7 na podstawie reguły 2: jutro nie pada dzi pada=0,29 Wniosek: jutro: pada [0,7], nie pada [0,29] Elementy Sztucznej Inteligencji - wykład 8 50
Działanie systemu wnioskowania dialog cd. Jaka jest dzi wilgotno? Odp: NISKA Obliczenia: na podstawie reguły 3 prawdopodobiestwo opadu pobrane z poprzedniego kroku 0,29: 0,29 O jutro nie pada = = 0,4 0,29 O jutro nie pada dzis pada niska wilgotnosc = 0 0,4 = 4, 4, jutro nie pada dzis pada niska wilgotnosc = = 0,8 + 4, Wniosek: jutro: pada [0,7], nie pada [0,8] Elementy Sztucznej Inteligencji - wykład 8 5 Działanie systemu wnioskowania dialog cd. Jaka jest dzi temperatura? Odp: NISKA Obliczenia: na podstawie reguły 4 LS: O jutro jutro nie pada dzis pada nie pada dzis pada 0,8 O jutro nie pada = = 4,26 0,8 niska wilgotnosc niska temp =,5 4,26 = 6,4 6,4 niska wilgotnosc niskatemp = = 0,86 + 6,4 na podstawie reguły 5 LN: 0,7 O jutro pada = = 2,45 0,7 O jutro pada dzis pada niskatemp = 0,9 2,45 = 2,2 jutro pada dzis pada 2,2 niskatemp = = 0,69 + 2,2 Wniosek: jutro: pada [0,69], nie pada [0,86] Elementy Sztucznej Inteligencji - wykład 8 52
Działanie systemu wnioskowania dialog cd. Jakie jest niebo? Odp: NIEZACMURZONE Obliczenia: na podstawie reguły 6 LN: jutro 0,69 O jutro pada = = 2,23 0,69 O jutro pada dzis pada niska wilgotnosc niska temp niebo pochmurne = 2,23 = 2,23 pada dzis pada 2,23 niska wilgotnosc niska temp niebo pochmurne = = 0,69 + 2,23 Wniosek: jutro: pada [0,69], nie pada [0,86] Elementy Sztucznej Inteligencji - wykład 8 53 Zastosowanie Mozilla Mozilla Autor Paul Graham filtr do spamu. Filtr oparty jest na wnioskowaniu Bayes a. Uytkownik wskazuje wiadomoci typu spam i normalne dwie klasy i na ich podstawie tworzone s wagi dla słów oparte na prawdopodobiestwie. Skuteczno jest niezwykle wysoka: program przepucił 5 na 000 wiadomoci typu spam, nie odrzucił adnej z dobrych wiadomoci. Elementy Sztucznej Inteligencji - wykład 8 54
Jak to działa? Podział wiadomoci na dwie klasy:. dobre 2. spam. Skanowanie całego tekstu cała wiadomo z nagłówkami, osadzony html i javascript i wyłuskiwanie tokenów, odrzucane: separatory, wartoci całkowicie liczbowe, komentarze z html a. Zliczenie wystpie kadego tokena i obliczenie prawdopodobiestwa jego wystpienia: liczba dobrych tokenów jest podwajana, by nie wpadały przez przypadek jako spam, rozwaane s słowa, które pojawiły si wicej ni 5 razy, prawdopodobiestwo a priori pojawienia si słowa w jednym bloku, ale nie w drugim jest 0,0 i 0,99. Elementy Sztucznej Inteligencji - wykład 8 55 Jak to działa? Jeeli pojawi si nowa wiadomo, to jest skanowana. Pobieranych jest 5 najbardziej interesujcych tokenów, przy czym interesujcy znaczy daleki od neutralnej wartoci spam czy nie spam, czyli 0.5. Oblicza si łczne prawdopodobiestwo 5 tokenów i otrzymuje odpowied. Słowa, które nigdy si nie pojawiły maj przypisane prawdopodobiestwo 0.4 czyli zakładamy, e jest niewinne i nie pochodzi ze spamu. Mail traktowany jest jako spam, gdy prawdopodobiestwo, e jest podejrzane jest wiksze od 0.9 Elementy Sztucznej Inteligencji - wykład 8 56
Zalety Nie trzeba czyta duej liczby spamu, by okreli filtry. Metoda bierze pod uwag wszystkie dowody za i przeciw. Dla kadego uytkownika mona policzy prawdopodobiestwo wystpowania tokenów dla jego indywidualnych i wybranych wiadomoci. Nie musi by łczony z biał list list adresów, z których akceptujemy wiadomoci. Ewoluuje wraz ze spamem. Zmiany w mailach powoduj zmiany w statystykach. Elementy Sztucznej Inteligencji - wykład 8 57 Przykład madam 0.99 promotion 0.99 republic 0.99 shortest 0.04722503 mandatory 0.04722503 standardization 0.07347802 sorry 0.082298 supported 0.0909077 people's 0.0909077 enter 0.907500 quality 0.892298 organization 0.2454646 investment 0.856843 very 0.4758544 valuable 0.82347786 Słówka "madam" czy "promotion" przyczyniaj si do oceny na korzy spamu a słówko shortest wrcz przeciwnie. Jednak przewaga jest słów z prawdopodobiestwem wskazujcym na spam. Reguła Bayes a dała temu mailowi miar 0.9027, czyli spam Elementy Sztucznej Inteligencji - wykład 8 58
Metody oparte na współczynniku wiarygodnoci Alternatywa dla wnioskowania Bayes a. MYCIN system, w którym wprowadzono współczynniki wiarygodnoci jest to medyczny system ekspertowy okrelajcy sił przekonania o wiarygodnoci hipotezy nie oparty na logicznych i matematycznych zalenociach midzy danymi. Jego przeznaczeniem było stawianie diagnozy i wyznaczanie terapii przy chorobach krwi. Zastosowanie, gdy brak spójnych danych statystycznych. Naladuj procesy mylowe przy wnioskowaniu prowadzonym przez eksperta - człowieka. Elementy Sztucznej Inteligencji - wykład 8 59 Współczynnik wiarygodnoci Współczynnik wiarygodnoci cf jest miar przekona eksperta. Ma warto z przedziału fałsz do prawda. Wartoci >0 s miar przekonania o hipotezie. Wartoci <0 s miar braku przekonania o hipotezie. Elementy Sztucznej Inteligencji - wykład 8 60
Reguły w systemie dowodzenia Reguły maj posta: IF D <dowód> TEN <hipoteza> {cf} cf jest miar ufnoci w hipotez, gdy dany jest dowód D. Elementy Sztucznej Inteligencji - wykład 8 6 MB measure of belief Wykorzystuje si dwie funkcje oceny maj wartoci od 0 do : miara przekonania o hipotezie oparta o prawdopodobiestwo: MB,D: MB, D = D if = otherwise Ekspert ocenia jak bardzo przedstawiony dowód D redukuje jego wtpliwoci w wypadku braku dowodu. Jeeli dowód jest słaby, to D jest bliskie 0 i jego wtpliwoci nie ulegn zmianie. Elementy Sztucznej Inteligencji - wykład 8 62
MD measure of disbelief miara braku przekonania w hipotez w oparciu o prawdopodobiestwo: MD,D: MD, D = D if = 0 otherwise Ekspert ocenia jak bardzo przedstawiony dowód D redukuje jego przekonanie o hipotezie. prawdopodobiestwo a priori, e jest TRUE, Elementy Sztucznej Inteligencji - wykład 8 63 Całkowity współczynnik W oparciu o MB i MD wyznaczamy cf: cf MB, D MD, D = min[ MB, D, MD, D] std cf ma wartoci z zakresu do, które oznacza całkowite przekonanie o hipotezie. Elementy Sztucznej Inteligencji - wykład 8 64
Jak działa MYCIN? Najczciej reguły s złoone, tzn. e zaobserwowanie pewnej wartoci moe pociga róne wyniki: IF A jest X TEN B jest Y {cf 0,7} B jest Z {cf 0,2} Oznacza, to e w 0% wypadków nie wiemy jaka jest odpowied jest to warto odpowied, której dotychczas nie zaobserwowano. Elementy Sztucznej Inteligencji - wykład 8 65 Obliczanie cf pojedynczy dowód cf,d dla reguły z jednym dowodem oblicza si jako mnoenie cfd dowodu i cf reguły: cf, D = cf D cf Przykład: IF niebo czyste TEN prognozujemy słoce {cf 0.8} cfd dla czyste niebo to 0.5 zatem cf,d=0.5*0.8=0.4 co czytamy, e moe by słonecznie. Elementy Sztucznej Inteligencji - wykład 8 66
Obliczanie cf przy koniunkcji wielu dowodów Zasady: IF <dowód D> AND <dowód D2>... AND <dowód Dn> TEN <hipoteza> {cf} to: cf 2, D D2 Dn = min[ cf D, cf D,, cf Dn ] cf Przykład: IF niebo czyste AND prognozujemy słoce TEN no okulary {cf 0.8}, gdzie: cfd=0,9 i cfd2=0.7 cf 2, D D = min[0.9,0.7] 0.8 = 0.56 Elementy Sztucznej Inteligencji - wykład 8 67 Obliczanie cf przy dysjunkcji wielu dowodów Zasady: IF <dowód D> OR <dowód D2>... OR <dowód Dn> TEN <hipoteza> {cf} to: cf, D D2 D Przykład: IF niebo zachmurzone OR prognozujemy deszcz TEN we parasol {cf 0.9}, gdzie: cfd=0,6 cfd2=0.8 2 n = max[ cf D, cf D,, cf Dn ] cf cf, D D2 = max[0.6,0.8] 0.9 = 0.72 Elementy Sztucznej Inteligencji - wykład 8 68
Obliczanie cf,, gdy wiele zdarze wpływa na t sam hipotez Zasady: IF A jest X TEN B jest Y {cf} IF C jest Z TEN B jest Y {cf2} to: cf cf, cf 2 cf + cf2 cf cf + cf2 = min[ cf, cf2 ] cf + cf2 + cf Przykład: cfd= cfd2=.0 cf,d=*0.8=0.8 cfcf, cf 2 = cf +cf 2 *[-cf ] = 0.92 if cf if cf if cf > 0 and cf > 0or cf < 0 and cf cf 2,D2=*0.6=0.6 2 2 > 0 > 0 2 < 0 Elementy Sztucznej Inteligencji - wykład 8 69 Analiza wzoru Jeeli wiele zdarze wpływa na t sam hipotez, to: jeeli oba zdarzenia wzmacniaj przekonanie o hipotezie przekonanie wzrasta przy złoeniu obu warunków, jeeli jedno zdarzenie wzmacnia, a drugie osłabia przekonanie o hipotezie to całkowity współczynnik wiarygodnoci zmniejszy si, jeeli oba zdarzenia osłabiaj hipotez to ich złoenie da jeszcze bardziej osłabiajcy współczynnik wiarygodnoci. Elementy Sztucznej Inteligencji - wykład 8 70
Przykład dla prognozowania pogody- reguły. IF dzi pada TEN jutro pada {cf=0,5} 2. IF dzi nie pada TEN jutro nie pada {cf=0,5} 3. IF dzi pada AND wilgotno jest niska TEN jutro nie pada {cf=0,6} Elementy Sztucznej Inteligencji - wykład 8 7 Przykład dla prognozowania pogody- reguły 4. IF dzi pada AND wilgotno jest niska AND temperatura jest niska TEN jutro nie pada {cf=0,7} 5. IF dzi nie pada AND temperatura jest wysoka TEN jutro pada {cf=0,65} 6. IF dzi nie pada AND temperatura jest wysoka AND niebo jest pochmurne TEN jutro pada {cf=0,55} Elementy Sztucznej Inteligencji - wykład 8 72
Działanie systemu wnioskowania dialog Jaka jest dzi pogoda? Odp: PADA Obliczenia: na podstawie reguły : cfjutro pada,dzi pada=*0,5=0,5 Wnioski: jutro: pada [0,5] Elementy Sztucznej Inteligencji - wykład 8 73 Działanie systemu wnioskowania dialog cd. Jaka jest dzi wilgotno? Odp: NISKA Jaka jest stopie wilgotnoci podaj współczynnik od 0 do? Odp: 0.8 Odpowiedzi: na podstawie reguły 3: cf jutro = min[ cf dzis nie pada, dzis pada, cf niska = min[,0.8] 0.6 = 0.48 pada niska Wniosek: jutro: pada [0,5], nie pada [0,48] wilgotnosc = wilgotnosc] cf = Elementy Sztucznej Inteligencji - wykład 8 74
Działanie systemu wnioskowania dialog cd. Jaka jest dzi temperatura? Odp: NISKA Jaka jest stopie wiarygodnoci stwierdzenia, e temperatura jest niska? Odp: 0.9 Obliczenia: na podstawie reguły 4: cf jutro nie pada, dzis pada niska wilgotnosc niska temp = = min[ cf dzi = min[,0.8,0.9] 0.7 = 0.56 pada, cf niska wilgotnosc, cf niska temp] cf = Wniosek: jutro: pada [0,50], nie pada [0,56] Elementy Sztucznej Inteligencji - wykład 8 75 Działanie systemu wnioskowania dialog cd. Złoenie reguł 3 i 4 w ocenie hipotezy nie pada: cf cfregula3, cfregula4 = cfregula3 + cfregula4 cfregula3 = 0.48 + 0.56 0.48 = 0.77 Wniosek: jutro: pada [0,50], nie pada [0,77] Elementy Sztucznej Inteligencji - wykład 8 76
Porównanie wnioskowanie Bayes a i współczynnik wiarygodnoci Zastosowanie: planowanie, prognozowanie, tam gdzie dostpne s dane statystyczne. Przykład działajcego systemu: PROSPECTOR geologia. Matematycznie poprawny teoria prawdopodobiestwa. Zastosowanie: planowanie, prognozowanie, tam gdzie brak danych statystycznych. Przykład działajcego systemu: MYCIN medycyna. Brak matematycznej poprawnoci. Dane pochodz z ocen ekspertów z dziedziny. Elementy Sztucznej Inteligencji - wykład 8 77 Cechy wspólne Propagowanie przekona wzrasta wykładniczo, dlatego nie nadaje si dla bardzo duych baz wiedzy. Problemem jest znalezienie właciwej metody okrelania prawdopodobiestw i współczynników, poniewa ludzie s tendencyjni w ocenach. Elementy Sztucznej Inteligencji - wykład 8 78