Klasyfikacja bayesowska



Podobne dokumenty
Klasyfikacja metodą Bayesa

Systemy ekspertowe - wiedza niepewna

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Podstawy Teorii Prawdopodobieństwa

Zdarzenia losowe Zmienne losowe Prawdopodobieństwo Niezależność

Modelowanie Niepewności

Data Mining Wykład 6. Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa.

Wnioskowanie bayesowskie

Metody probabilistyczne klasyfikatory bayesowskie

Elementy modelowania matematycznego

Algorytmy stochastyczne, wykład 08 Sieci bayesowskie

Przestrzeń probabilistyczna

Analiza autokorelacji








Agnieszka Nowak Brzezińska Wykład III

Zadania o numerze 4 z zestawów licencjat 2014.

Grawitacja. =2,38 km/s. Promień Księżyca jest równy R=1737km. Zadanie - Pierwsza prędkość kosmiczna fizyka.biz 1

Na podstawie: AIMA, ch13. Wojciech Jaśkowski. 15 marca 2013

Metody probabilistyczne

PODYPLOMOWE STUDIA ZAAWANSOWANE METODY ANALIZY DANYCH I DATA MINING W BIZNESIE

Moneta 1 Moneta 2 Kostka O, R O,R 1,2,3,4,5, Moneta 1 Moneta 2 Kostka O O ( )

Co to jest klasyfikacja? Klasyfikacja a grupowanie Naiwny klasyfikator Bayesa

Agnieszka Nowak Brzezińska Wykład III

Sztuczna inteligencja : Tworzenie sieci Bayesa

+ r arcsin. M. Przybycień Rachunek prawdopodobieństwa i statystyka π r x

Algorytmy klasyfikacji

Spam or Not Spam That is the question

Statystyczna analiza Danych

L.Kowalski zadania z rachunku prawdopodobieństwa-zestaw 1 ZADANIA - ZESTAW 1. (odp. a) B A C, b) A, c) A B, d) Ω)

Prawdopodobieństwo czerwonych = = 0.33

Metody systemowe i decyzyjne w informatyce

b) Niech: - wśród trzech wylosowanych opakowań jest co najwyżej jedno o dawce 15 mg. Wówczas:

i=7 X i. Zachodzi EX i = P(X i = 1) = 1 2, i {1, 2,..., 11} oraz EX ix j = P(X i = 1, X j = 1) = 1 7 VarS 2 2 = 14 3 ( 5 2 =

Drugie kolokwium z Rachunku Prawdopodobieństwa, zestaw A

Metody systemowe i decyzyjne w informatyce

Rachunek prawdopodobieństwa

Algorytmy, które estymują wprost rozkłady czy też mapowania z nazywamy algorytmami dyskryminacyjnymi.

LISTA 1 ZADANIE 1 a) 41 x =5 podnosimy obustronnie do kwadratu i otrzymujemy: 41 x =5 x 5 x przechodzimy na system dziesiętny: 4x 1 1=25 4x =24

Przypomnienie elementów z rachunku prawdopodobieństwa. Naiwny klasyfikator Bayesa. Aktualizacja rozkładów wg reguły Bayesa.

Metody probabilistyczne

Propozycje rozwiązań zadań z matematyki - matura rozszerzona

Kilka ciekawostek czyli licznik. Metodologia badania naukowego. Mianownik czyli wiedza ogółem. Globalny naukowy dorobek podwaja się co lat

Rozwiązania listopad 2016 Zadania zamknięte = = = 2. = =1 (D) Zad 3. Październik x; listopad 1,1x; grudzień 0,6x. (D) Zad 5. #./ 0'!

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova

TEST STATYSTYCZNY. Jeżeli hipotezę zerową odrzucimy na danym poziomie istotności, to odrzucimy ją na każdym większym poziomie istotności.

Tablice trwania życia

MODELE MATEMATYCZNE W UBEZPIECZENIACH

Testowanie hipotez statystycznych.

Przykłady do zadania 3.1 :

Prawdopodobeństwo, test χ 2

Agnieszka Nowak Brzezińska

Regresyjne metody łączenia klasyfikatorów

Fuzja sygnałów i filtry bayesowskie

Podstawy fizyki sezon 1 III. Praca i energia

Metody systemowe i decyzyjne w informatyce

Rozkłady statystyk z próby

WIELOMIANY SUPER TRUDNE

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Porównanie dwóch rozkładów normalnych

Ważne rozkłady i twierdzenia

PRÓBNA MATURA ZADANIA PRZYKŁADOWE

Sieci Bayesa mgr Tomasz Xięski, Instytut Informatyki, Uniwersytet Śląski Sosnowiec, 2011

Biostatystyka, # 3 /Weterynaria I/

WYKŁAD 3. Klasyfikacja: modele probabilistyczne

Funkcja kwadratowa. f(x) = ax 2 + bx + c,

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.

TECHNIKA DRZWI ZATRZAŚNIĘTE PRZED NOSEM

Rozkład zajęć, statystyka matematyczna, Rok akademicki 2015/16, semestr letni, Grupy dla powtarzających (C15; C16)

Prawdopodobieństwo

DODATKOWA PULA ZADAŃ DO EGZAMINU. Rozważmy ciąg zdefiniowany tak: s 0 = a. s n+1 = 2s n +b (dla n=0,1,2 ) Pokaż, że s n = 2 n a +(2 n =1)b

Podstawy metod probabilistycznych. dr Adam Kiersztyn

WYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska

KOMINKI WENTYLACYJNE DN110 / DN150

Clockwork as a solution to the flavour puzzle

Funkcje wymierne. Jerzy Rutkowski. Teoria. Działania dodawania i mnożenia funkcji wymiernych określa się wzorami: g h + k l g h k.

Stabilność. Krzysztof Patan

Pojęcie przestrzeni probabilistycznej

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne

Statystyka Inżynierska

Klasyfikacja naiwny Bayes

STATYSTYKA wykład 1. Wanda Olech. Katedra Genetyki i Ogólnej Hodowli Zwierząt

19 marzec, Łańcuchy Markowa z czasem dyskretnym. Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136

Rachunek Prawdopodobieństwa i Statystyka

Wykład 2. Zdarzenia niezależne i prawdopodobieństwo całkowite

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.

Wielkości liczbowe. Wykład z Podstaw Informatyki dla I roku BO. Piotr Mika

Chcąc wyróżnić jedno z działań, piszemy np. (, ) i mówimy, że działanie wprowadza w STRUKTURĘ ALGEBRAICZNĄ lub, że (, ) jest SYSTEMEM ALGEBRAICZNYM.

Skrypt 2. Liczby wymierne dodatnie i niedodatnie. 3. Obliczanie odległości między dwiema liczbami na osi liczbowej

Arytmetyka. Działania na liczbach, potęga, pierwiastek, logarytm

Funkcje wymierne. Jerzy Rutkowski. Działania dodawania i mnożenia funkcji wymiernych określa się wzorami: g h + k l g h k.

Rzucamy dwa razy sprawiedliwą, sześcienną kostką do gry. Oblicz prawdopodobieństwo otrzymania:

Wykład 9 Testy rangowe w problemie dwóch prób

Klasyfikacja i regresja Wstęp do środowiska Weka

Rozpoznawanie obrazów

Transkrypt:

Wykład14,26V2010,str.1 Przykład: (Bishop) M Jabłka i pomarańcze: Wyciągnięto pomarańczę; jakie jest prawdopodobieństwo, że naczynie było niebieskie?

Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) M

Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami

Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i.

Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i. Wtedy P(T k X)= P(X T k) P(T k ) P(X) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i )

Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i. Wtedy Dowód: P(T k X)= P(X T k) P(T k ) P(X) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i )

Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i. Wtedy Dowód: P(T k X)= P(X T k) P(T k ) P(X) Zdefinicji:P(A B)= P(A,B) P(B) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i )

Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i. Wtedy P(T k X)= P(X T k) P(T k ) P(X) Dowód: Zdefinicji:P(A B)= P(A,B) P(B) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i ) Dlarozłącznychzdarzeń:P( n i=1 A i)= n i=1 P(A i)

Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i. Wtedy P(T k X)= P(X T k) P(T k ) P(X) Dowód: Zdefinicji:P(A B)= P(A,B) P(B) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i ) Dlarozłącznychzdarzeń:P( n i=1 A i)= n i=1 P(A i) P(T k X)= P(T k,x) P(X)

Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i. Wtedy P(T k X)= P(X T k) P(T k ) P(X) Dowód: Zdefinicji:P(A B)= P(A,B) P(B) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i ) Dlarozłącznychzdarzeń:P( n i=1 A i)= n i=1 P(A i) P(T k X)= P(T k,x) P(X) = P(X,T k) P(T k ) P(T k) P(X)

Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i. Wtedy P(T k X)= P(X T k) P(T k ) P(X) Dowód: Zdefinicji:P(A B)= P(A,B) P(B) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i ) Dlarozłącznychzdarzeń:P( n i=1 A i)= n i=1 P(A i) P(T k X)= P(T k,x) P(X) = P(X T k) P(T k ) P(X) = P(X,T k) P(T k ) P(T k) P(X)

Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i. Wtedy P(T k X)= P(X T k) P(T k ) P(X) Dowód: Zdefinicji:P(A B)= P(A,B) P(B) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i ) Dlarozłącznychzdarzeń:P( n i=1 A i)= n i=1 P(A i) P(T k X)= P(T k,x) P(X) = P(X,T k) P(T k ) P(T k) P(X) = P(X T k) P(T k ) P(X) = P(X T k) P(T k ) n i=1 P(X,T i)

Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) MZałóżmy, że T 1,...,T n sąrozłącznymizdarzeniami,oraz X n i=1 T i. Wtedy P(T k X)= P(X T k) P(T k ) P(X) Dowód: Zdefinicji:P(A B)= P(A,B) P(B) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i ) Dlarozłącznychzdarzeń:P( n i=1 A i)= n i=1 P(A i) P(T k X)= P(T k,x) P(X) = P(X,T k) P(T k ) P(T k) P(X) = P(X T k) P(T k ) P(X) = P(X T k) P(T k ) n i=1 P(X,T i) = P(X T k ) P(T k ) n i=1 P(X T i) P(T i )

Wykład14,26V2010,str.3 Przykład: (Bishop) M P(pom)= 7 = 7 P(nb)= 4 = 1 7+5 12 8+4 3 P(pom nb)= 1 4

Wykład14,26V2010,str.3 Przykład: (Bishop) M P(pom)= 7 = 7 P(nb)= 4 = 1 7+5 12 8+4 3 P(pom nb)= 1 4

Wykład14,26V2010,str.3 Przykład: (Bishop) M P(pom)= 7 = 7 P(nb)= 4 = 1 7+5 12 8+4 3 P(pom nb)= 1 4

Wykład14,26V2010,str.3 Przykład: (Bishop) M P(pom)= 7 = 7 P(nb)= 4 = 1 7+5 12 8+4 3 P(pom nb)= 1 4

Wykład14,26V2010,str.3 Przykład: (Bishop) M P(pom)= 7 = 7 P(nb)= 4 = 1 7+5 12 8+4 3 P(pom nb)= 1 4 P(nb pom)

Wykład14,26V2010,str.3 Przykład: (Bishop) M P(pom)= 7 7+5 = 7 12 P(nb)= 4 8+4 =1 3 P(nb pom)= P(pom nb)= 1 4 = P(pom nb) P(nb) P(pom)

Wykład14,26V2010,str.3 Przykład: (Bishop) M P(pom)= 7 = 7 P(nb)= 4 = 1 7+5 12 8+4 3 P(nb pom)= P(pom nb)= 1 4 = P(pom nb) P(nb) P(pom) = 1 4 1 3 7 12

Wykład14,26V2010,str.3 Przykład: (Bishop) M P(pom)= 7 = 7 P(nb)= 4 = 1 7+5 12 8+4 3 P(nb pom)= P(pom nb)= 1 4 = P(pom nb) P(nb) P(pom) = 1 4 1 3 7 12 = 1 4 1 3 12 7

Wykład14,26V2010,str.3 Przykład: (Bishop) M P(pom)= 7 = 7 P(nb)= 4 = 1 7+5 12 8+4 3 P(nb pom)= P(pom nb)= 1 4 = P(pom nb) P(nb) P(pom) = 1 4 1 3 7 12 = 1 4 1 3 12 7 = 1 7

Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki.

Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99

Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99 więc P( nark)=0.01

Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99 więc P( nark)=0.01; prawd. że wynik tego testu dla nienarkomana jest ujemny: P( nark)=0.99

Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99 więc P( nark)=0.01; prawd. że wynik tego testu dla nienarkomana jest ujemny: P( nark)=0.99 więc P(+ nark)=0.01

Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99 więc P( nark)=0.01; prawd. że wynik tego testu dla nienarkomana jest ujemny: P( nark)=0.99 więc P(+ nark)=0.01; 0.005 społeczeństwa to narkomani.

Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99 więc P( nark)=0.01; prawd. że wynik tego testu dla nienarkomana jest ujemny: P( nark)=0.99 więc P(+ nark)=0.01; 0.005 społeczeństwa to narkomani. Badamy konkretną osobę i test daje wynik pozytywny. Jakie jest prawdopodobieństwo, że trafiliśmy na narkomana?

Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99 więc P( nark)=0.01; prawd. że wynik tego testu dla nienarkomana jest ujemny: P( nark)=0.99 więc P(+ nark)=0.01; 0.005 społeczeństwa to narkomani. Badamy konkretną osobę i test daje wynik pozytywny. Jakie jest prawdopodobieństwo, że trafiliśmy na narkomana? P(nark +) = P(+ nark) P(nark) P(+ nark) P(nark)+P(+ nark) P( nark)

Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99 więc P( nark)=0.01; prawd. że wynik tego testu dla nienarkomana jest ujemny: P( nark)=0.99 więc P(+ nark)=0.01; 0.005 społeczeństwa to narkomani. Badamy konkretną osobę i test daje wynik pozytywny. Jakie jest prawdopodobieństwo, że trafiliśmy na narkomana? P(nark +) = P(+ nark) P(nark) P(+ nark) P(nark)+P(+ nark) P( nark)

Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99 więc P( nark)=0.01; prawd. że wynik tego testu dla nienarkomana jest ujemny: P( nark)=0.99 więc P(+ nark)=0.01; 0.005 społeczeństwa to narkomani. Badamy konkretną osobę i test daje wynik pozytywny. Jakie jest prawdopodobieństwo, że trafiliśmy na narkomana? P(nark +) = P(+ nark) P(nark) P(+ nark) P(nark)+P(+ nark) P( nark) = 0.99 0.005 0.99 0.005+0.01 0.995

Wykład14,26V2010,str.4 Przykład: (Wikipedia) MZałóżmy, że badamy ludzi testem na narkotyki. I że prawd. że wynik tego testu dla narkomana jest dodatni: P(+ nark)=0.99 więc P( nark)=0.01; prawd. że wynik tego testu dla nienarkomana jest ujemny: P( nark)=0.99 więc P(+ nark)=0.01; 0.005 społeczeństwa to narkomani. Badamy konkretną osobę i test daje wynik pozytywny. Jakie jest prawdopodobieństwo, że trafiliśmy na narkomana? P(nark +) = P(+ nark) P(nark) P(+ nark) P(nark)+P(+ nark) P( nark) = 0.99 0.005 0.99 0.005+0.01 0.995 0.332

Wykład14,26V2010,str.5 Przykład: (amerykańskie zaliczenia) M

Wykład14,26V2010,str.5 Przykład: (amerykańskie zaliczenia) M wśród słuchaczy byli Amerykanie i Chińczycy: P(A)=0.9 P(C)=0.1

Wykład14,26V2010,str.5 Przykład: (amerykańskie zaliczenia) M wśród słuchaczy byli Amerykanie i Chińczycy: P(A)=0.9 P(C)=0.1 wśród Amerykanów było znacznie więcej mężczyzn niż kobiet; wśród Chińczyków po równo: P(k A)=0.1 P(m A)=0.9 P(k C)=0.5 P(m C)=0.5

Wykład14,26V2010,str.5 Przykład: (amerykańskie zaliczenia) M wśród słuchaczy byli Amerykanie i Chińczycy: P(A)=0.9 P(C)=0.1 wśród Amerykanów było znacznie więcej mężczyzn niż kobiet; wśród Chińczyków po równo: P(k A)=0.1 P(m A)=0.9 P(k C)=0.5 P(m C)=0.5 Chińczycy nie mieli problemu z zaliczeniem, niezależnie od płci: P(zal C,k)=1 P(zal C,m)=1

Wykład14,26V2010,str.5 Przykład: (amerykańskie zaliczenia) M wśród słuchaczy byli Amerykanie i Chińczycy: P(A)=0.9 P(C)=0.1 wśród Amerykanów było znacznie więcej mężczyzn niż kobiet; wśród Chińczyków po równo: P(k A)=0.1 P(m A)=0.9 P(k C)=0.5 P(m C)=0.5 Chińczycy nie mieli problemu z zaliczeniem, niezależnie od płci: P(zal C,k)=1 P(zal C,m)=1 Amerykanie byli słabsi a Amerykanki beznadziejnie słabe: P(zal A,k)=0.2 P(zal A,m)=0.4

Wykład14,26V2010,str.5 Przykład: (amerykańskie zaliczenia) M wśród słuchaczy byli Amerykanie i Chińczycy: P(A)=0.9 P(C)=0.1 wśród Amerykanów było znacznie więcej mężczyzn niż kobiet; wśród Chińczyków po równo: P(k A)=0.1 P(m A)=0.9 P(k C)=0.5 P(m C)=0.5 Chińczycy nie mieli problemu z zaliczeniem, niezależnie od płci: P(zal C,k)=1 P(zal C,m)=1 Amerykanie byli słabsi a Amerykanki beznadziejnie słabe: P(zal A,k)=0.2 P(zal A,m)=0.4 Na tej podstawie zespół d/s equal opportunity(równego traktowania) zarzucił mi szykanowanie kobiet.

Wykład14,26V2010,str.6 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1

Wykład14,26V2010,str.6 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)=0.1 0.9=0.09

Wykład14,26V2010,str.6 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)=0.1 0.9=0.09 P(C,k)=P(k C) P(C)=0.5 0.1=0.05 P(A,m)=P(m A) P(A)=0.9 0.9=0.81 P(C,m)=P(m C) P(C)=0.5 0.1=0.05

Wykład14,26V2010,str.6 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)=0.1 0.9=0.09 P(C,k)=P(k C) P(C)=0.5 0.1=0.05 P(A,m)=P(m A) P(A)=0.9 0.9=0.81 P(C,m)=P(m C) P(C)=0.5 0.1=0.05 więc P(zal k)= P(zal,k) P(k)

Wykład14,26V2010,str.6 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)=0.1 0.9=0.09 P(C,k)=P(k C) P(C)=0.5 0.1=0.05 P(A,m)=P(m A) P(A)=0.9 0.9=0.81 P(C,m)=P(m C) P(C)=0.5 0.1=0.05 więc P(zal k)= P(zal,k) P(k) = P(zal,A,k)+P(zal,C,k) P(A,k)+P(C,k)

Wykład14,26V2010,str.6 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem więc P(A,k)=P(k A) P(A)=0.1 0.9=0.09 P(C,k)=P(k C) P(C)=0.5 0.1=0.05 P(A,m)=P(m A) P(A)=0.9 0.9=0.81 P(C,m)=P(m C) P(C)=0.5 0.1=0.05 P(zal k)= P(zal,k) P(k) = P(zal,A,k)+P(zal,C,k) P(A,k)+P(C,k) = P(zal A,k) P(A,k)+P(zal C,k) P(C,k) P(A,k)+P(C,k)

Wykład14,26V2010,str.6 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem więc P(A,k)=P(k A) P(A)=0.1 0.9=0.09 P(C,k)=P(k C) P(C)=0.5 0.1=0.05 P(A,m)=P(m A) P(A)=0.9 0.9=0.81 P(C,m)=P(m C) P(C)=0.5 0.1=0.05 P(zal k)= P(zal,k) P(k) = P(zal,A,k)+P(zal,C,k) P(A,k)+P(C,k) = P(zal A,k) P(A,k)+P(zal C,k) P(C,k) P(A,k)+P(C,k) = 0.2 0.09+1 0.05 0.09+0.05

Wykład14,26V2010,str.6 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)=0.1 0.9=0.09 P(C,k)=P(k C) P(C)=0.5 0.1=0.05 P(A,m)=P(m A) P(A)=0.9 0.9=0.81 P(C,m)=P(m C) P(C)=0.5 0.1=0.05 więc P(zal k)= P(zal,k) P(k) = P(zal,A,k)+P(zal,C,k) P(A,k)+P(C,k) = P(zal A,k) P(A,k)+P(zal C,k) P(C,k) P(A,k)+P(C,k) 0.486 = 0.2 0.09+1 0.05 0.09+0.05

Wykład14,26V2010,str.7 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)=0.1 0.9=0.09 P(C,k)=P(k C) P(C)=0.5 0.1=0.05 P(A,m)=P(m A) P(A)=0.9 0.9=0.81 P(C,m)=P(m C) P(C)=0.5 0.1=0.05

Wykład14,26V2010,str.7 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)=0.1 0.9=0.09 P(C,k)=P(k C) P(C)=0.5 0.1=0.05 P(A,m)=P(m A) P(A)=0.9 0.9=0.81 P(C,m)=P(m C) P(C)=0.5 0.1=0.05 więc P(zal m)= P(zal,m) P(m)

Wykład14,26V2010,str.7 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)=0.1 0.9=0.09 P(C,k)=P(k C) P(C)=0.5 0.1=0.05 P(A,m)=P(m A) P(A)=0.9 0.9=0.81 P(C,m)=P(m C) P(C)=0.5 0.1=0.05 więc P(zal m)= P(zal,m) P(m) = P(zal,A,m)+P(zal,C,m) P(A,m)+P(C,m)

Wykład14,26V2010,str.7 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem więc P(A,k)=P(k A) P(A)=0.1 0.9=0.09 P(C,k)=P(k C) P(C)=0.5 0.1=0.05 P(A,m)=P(m A) P(A)=0.9 0.9=0.81 P(C,m)=P(m C) P(C)=0.5 0.1=0.05 P(zal m)= P(zal,m) P(m) = P(zal,A,m)+P(zal,C,m) P(A,m)+P(C,m) = P(zal A,m) P(A,m)+P(zal C,m) P(C,m) P(A,m)+P(C,m)

Wykład14,26V2010,str.7 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem więc P(A,k)=P(k A) P(A)=0.1 0.9=0.09 P(C,k)=P(k C) P(C)=0.5 0.1=0.05 P(A,m)=P(m A) P(A)=0.9 0.9=0.81 P(C,m)=P(m C) P(C)=0.5 0.1=0.05 P(zal m)= P(zal,m) P(m) = P(zal,A,m)+P(zal,C,m) P(A,m)+P(C,m) = P(zal A,m) P(A,m)+P(zal C,m) P(C,m) P(A,m)+P(C,m) = 0.4 0.81+1 0.05 0.81+0.05

Wykład14,26V2010,str.7 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)=0.1 0.9=0.09 P(C,k)=P(k C) P(C)=0.5 0.1=0.05 P(A,m)=P(m A) P(A)=0.9 0.9=0.81 P(C,m)=P(m C) P(C)=0.5 0.1=0.05 więc P(zal m)= P(zal,m) P(m) = P(zal,A,m)+P(zal,C,m) P(A,m)+P(C,m) = P(zal A,m) P(A,m)+P(zal C,m) P(C,m) P(A,m)+P(C,m) 0.435 = 0.4 0.81+1 0.05 0.81+0.05

Wykład14,26V2010,str.7 Przykład: (amerykańskie zaliczenia) M P(A)=0.9 P(C)=0.1 P(k A)=0.1 P(k C)=0.5 P(m A)=0.9 P(m C)=0.5 P(zal A,k)=0.2 P(zal C,k)=1 P(zal A,m)=0.4 P(zal C,m)=1 Tymczasem P(A,k)=P(k A) P(A)=0.1 0.9=0.09 P(C,k)=P(k C) P(C)=0.5 0.1=0.05 P(A,m)=P(m A) P(A)=0.9 0.9=0.81 P(C,m)=P(m C) P(C)=0.5 0.1=0.05 więc P(zal m)= P(zal,m) P(m) = P(zal,A,m)+P(zal,C,m) P(A,m)+P(C,m) = P(zal A,m) P(A,m)+P(zal C,m) P(C,m) P(A,m)+P(C,m) 0.435<0.486=P(zal k) = 0.4 0.81+1 0.05 0.81+0.05

Wykład14,26V2010,str.8 TWIERDZENIE: (uogólnione Bayesa) MZałóżmy,żee 1,...,e n,e,hsązdarzeniami;ozn.:ē def =e 1 &...&e n.wtedy P(h e,ē)= P(e h,ē) P(h ē) P(e ē)

Wykład14,26V2010,str.8 TWIERDZENIE: (uogólnione Bayesa) MZałóżmy,żee 1,...,e n,e,hsązdarzeniami;ozn.:ē def =e 1 &...&e n.wtedy Dowód: P(h e,ē)= P(e h,ē) P(h ē) P(e ē) P(h e,ē)= P(h,e,ē) P(e,ē)

Wykład14,26V2010,str.8 TWIERDZENIE: (uogólnione Bayesa) MZałóżmy,żee 1,...,e n,e,hsązdarzeniami;ozn.:ē def =e 1 &...&e n.wtedy Dowód: P(h e,ē)= P(e h,ē) P(h ē) P(e ē) P(h e,ē)= P(h,e,ē) P(e,ē) = P(e h,ē) P(h,ē) P(e ē) P(ē)

Wykład14,26V2010,str.8 TWIERDZENIE: (uogólnione Bayesa) MZałóżmy,żee 1,...,e n,e,hsązdarzeniami;ozn.:ē def =e 1 &...&e n.wtedy Dowód: P(h e,ē)= P(e h,ē) P(h ē) P(e ē) P(h e,ē)= P(h,e,ē) P(e,ē) = P(e h,ē) P(h,ē) P(e ē) P(ē) = P(e h,ē) P(h ē) P(ē) P(e ē) P(ē)

Wykład14,26V2010,str.8 TWIERDZENIE: (uogólnione Bayesa) MZałóżmy,żee 1,...,e n,e,hsązdarzeniami;ozn.:ē def =e 1 &...&e n.wtedy Dowód: P(h e,ē)= P(e h,ē) P(h ē) P(e ē) P(h e,ē)= P(h,e,ē) P(e,ē) = P(e h,ē) P(h,ē) P(e ē) P(ē) = P(e h,ē) P(h ē) P(ē) P(e ē) P(ē) = P(e h,ē) P(h ē) P(e ē)

Wykład14,26V2010,str.8 TWIERDZENIE: (uogólnione Bayesa) MZałóżmy,żee 1,...,e n,e,hsązdarzeniami;ozn.:ē def =e 1 &...&e n.wtedy Dowód: P(h e,ē)= P(e h,ē) P(h ē) P(e ē) P(h e,ē)= P(h,e,ē) P(e,ē) = P(e h,ē) P(h,ē) P(e ē) P(ē) = P(e h,ē) P(h ē) P(ē) P(e ē) P(ē) = P(e h,ē) P(h ē) P(e ē) Wniosek: MJeślizdarzeniae 1,...,e n sąniezależne,to P(h e,ē)= P(e h) P(e) P(h ē)

Wykład14,26V2010,str.9 Wniosek: MJeślizdarzeniae 1,...,e n sąniezależne,to P(h e,ē)= P(e h) P(e) P(h ē)

Wykład14,26V2010,str.9 Wniosek: MJeślizdarzeniae 1,...,e n sąniezależne,to P(h e,ē)= P(e h) P(e) P(h ē) wniosek z uogólnionego tw. Bayesa stosowany jest do wyliczania prawdopodobieństwa,żezachodzihipotezah,woparciuohipotezyē

Wykład14,26V2010,str.9 Wniosek: MJeślizdarzeniae 1,...,e n sąniezależne,to P(h e,ē)= P(e h) P(e) P(h ē) wniosek z uogólnionego tw. Bayesa stosowany jest do wyliczania prawdopodobieństwa,żezachodzihipotezah,woparciuohipotezyē; założenie o niezależności obserwacji, bardzo upraszczające obliczenia, zwykle jest spełnione, lub przynajmniej spełnione w przybliżeniu

Wykład14,26V2010,str.9 Wniosek: MJeślizdarzeniae 1,...,e n sąniezależne,to P(h e,ē)= P(e h) P(e) P(h ē) wniosek z uogólnionego tw. Bayesa stosowany jest do wyliczania prawdopodobieństwa,żezachodzihipotezah,woparciuohipotezyē; założenie o niezależności obserwacji, bardzo upraszczające obliczenia, zwykle jest spełnione, lub przynajmniej spełnione w przybliżeniu; wniosek pokazuje, jak zmienia się prawdopodobieństwo spełnienia h w wyniku dodania kolejnej obserwacji

Wykład14,26V2010,str.9 Wniosek: MJeślizdarzeniae 1,...,e n sąniezależne,to P(h e,ē)= P(e h) P(e) P(h ē) wniosek z uogólnionego tw. Bayesa stosowany jest do wyliczania prawdopodobieństwa,żezachodzihipotezah,woparciuohipotezyē; założenie o niezależności obserwacji, bardzo upraszczające obliczenia, zwykle jest spełnione, lub przynajmniej spełnione w przybliżeniu; wniosek pokazuje, jak zmienia się prawdopodobieństwo spełnienia h w wyniku dodania kolejnej obserwacji; dysponujemy trzema równościami: P(h e,ē)= P(e h) P(h ē) P(e) P( h e,ē)= P(e h) P( h ē) P(e) P(h e,ē)+p( h e,ē)=1

Wykład14,26V2010,str.9 Wniosek: MJeślizdarzeniae 1,...,e n sąniezależne,to P(h e,ē)= P(e h) P(e) P(h ē) wniosek z uogólnionego tw. Bayesa stosowany jest do wyliczania prawdopodobieństwa,żezachodzihipotezah,woparciuohipotezyē; założenie o niezależności obserwacji, bardzo upraszczające obliczenia, zwykle jest spełnione, lub przynajmniej spełnione w przybliżeniu; wniosek pokazuje, jak zmienia się prawdopodobieństwo spełnienia h w wyniku dodania kolejnej obserwacji; dysponujemy trzema równościami: P(h e,ē)= P(e h) P(h ē) P(e) P( h e,ē)= P(e h) P( h ē) P(e) P(h e,ē)+p( h e,ē)=1 nieznamyp(e),p(h e,ē),p( h e,ē)

Wykład14,26V2010,str.9 Wniosek: MJeślizdarzeniae 1,...,e n sąniezależne,to P(h e,ē)= P(e h) P(e) P(h ē) wniosek z uogólnionego tw. Bayesa stosowany jest do wyliczania prawdopodobieństwa,żezachodzihipotezah,woparciuohipotezyē; założenie o niezależności obserwacji, bardzo upraszczające obliczenia, zwykle jest spełnione, lub przynajmniej spełnione w przybliżeniu; wniosek pokazuje, jak zmienia się prawdopodobieństwo spełnienia h w wyniku dodania kolejnej obserwacji; dysponujemy trzema równościami: P(h e,ē)= P(e h) P(h ē) P(e) P( h e,ē)= P(e h) P( h ē) P(e) P(h e,ē)+p( h e,ē)=1 nieznamyp(e),p(h e,ē),p( h e,ē) znamyp(e h),p(e h),p(h ē),p( h ē)

Wykład14,26V2010,str.10 Przykład: (prof. Wierzchoń) MObserwacje: e 1 pacjentmagorączkę, e 2 pacjentkaszle, e 3 pacjentmakatar.

Wykład14,26V2010,str.10 Przykład: (prof. Wierzchoń) MObserwacje: e 1 pacjentmagorączkę, e 2 pacjentkaszle, e 3 pacjentmakatar. Hipoteza: h pacjent ma grypę.

Wykład14,26V2010,str.10 Przykład: (prof. Wierzchoń) MObserwacje: e 1 pacjentmagorączkę, e 2 pacjentkaszle, e 3 pacjentmakatar. Hipoteza: h pacjent ma grypę. Panuje grypa; prawdopodobieństwo, że pacjent, zgłaszający się do lekarza, magrypę,wynosip(h)=0.8.

Wykład14,26V2010,str.10 Przykład: (prof. Wierzchoń) MObserwacje: e 1 pacjentmagorączkę, e 2 pacjentkaszle, e 3 pacjentmakatar. Hipoteza: h pacjent ma grypę. Panuje grypa; prawdopodobieństwo, że pacjent, zgłaszający się do lekarza, magrypę,wynosip(h)=0.8.zpodręcznikamedycyny: P(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6

Wykład14,26V2010,str.10 Przykład: (prof. Wierzchoń) MObserwacje: e 1 pacjentmagorączkę, e 2 pacjentkaszle, e 3 pacjentmakatar. Hipoteza: h pacjent ma grypę. Panuje grypa; prawdopodobieństwo, że pacjent, zgłaszający się do lekarza, magrypę,wynosip(h)=0.8.zpodręcznikamedycyny: P(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4

Wykład14,26V2010,str.10 Przykład: (prof. Wierzchoń) MObserwacje: e 1 pacjentmagorączkę, e 2 pacjentkaszle, e 3 pacjentmakatar. Hipoteza: h pacjent ma grypę. Panuje grypa; prawdopodobieństwo, że pacjent, zgłaszający się do lekarza, magrypę,wynosip(h)=0.8.zpodręcznikamedycyny: P(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 Konkretny pacjent ma gorączkę i katar, ale nie kaszle; jakie jest prawdopodobieństwo, że ma grypę?

Wykład14,26V2010,str.10 Przykład: (prof. Wierzchoń) MObserwacje: e 1 pacjentmagorączkę, e 2 pacjentkaszle, e 3 pacjentmakatar. Hipoteza: h pacjent ma grypę. Panuje grypa; prawdopodobieństwo, że pacjent, zgłaszający się do lekarza, magrypę,wynosip(h)=0.8.zpodręcznikamedycyny: P(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 Konkretny pacjent ma gorączkę i katar, ale nie kaszle; jakie jest prawdopodobieństwo, że ma grypę? P(h e 1, e 2,e 3 )=?

Wykład14,26V2010,str.11 Przykład: (prof. Wierzchoń) P(h)=0.8 MP(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4

Wykład14,26V2010,str.11 Przykład: (prof. Wierzchoń) P(h)=0.8 MP(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )= P(e 1 h) P(e 1 ) P(h)= 0.7 P(e 1 ) 0.8

Wykład14,26V2010,str.11 Przykład: (prof. Wierzchoń) P(h)=0.8 MP(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )= P(e 1 h) P(e 1 ) P( h e 1 )= P(e 1 h) P(e 1 ) P(h)= 0.7 P(e 1 ) 0.8 P( h)= 0.6 P(e 1 ) 0.2

Wykład14,26V2010,str.11 Przykład: (prof. Wierzchoń) P(h)=0.8 MP(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )= P(e 1 h) P(e 1 ) P( h e 1 )= P(e 1 h) P(e 1 ) P(h)= 0.7 P(e 1 ) 0.8 1= 1 P(e 1 ) (0.7 0.8+0.6 0.2) P( h)= 0.6 P(e 1 ) 0.2

Wykład14,26V2010,str.11 Przykład: (prof. Wierzchoń) P(h)=0.8 MP(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )= P(e 1 h) P(e 1 ) P( h e 1 )= P(e 1 h) P(e 1 ) P(h)= 0.7 P(e 1 ) 0.8 1= 1 P(e 1 ) (0.7 0.8+0.6 0.2) P(e 1 )=0.7 0.8+0.6 0.2=0.68 P( h)= 0.6 P(e 1 ) 0.2

Wykład14,26V2010,str.11 Przykład: (prof. Wierzchoń) P(h)=0.8 MP(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )= P(e 1 h) P(e 1 ) P( h e 1 )= P(e 1 h) P(e 1 ) P(h)= 0.7 P(e 1 ) 0.8 1= 1 P(e 1 ) (0.7 0.8+0.6 0.2) P(e 1 )=0.7 0.8+0.6 0.2=0.68 P( h)= 0.6 P(e 1 ) 0.2 P(h e 1 )= 0.7 0.68 0.8=0.82

Wykład14,26V2010,str.11 Przykład: (prof. Wierzchoń) P(h)=0.8 MP(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )= P(e 1 h) P(e 1 ) P( h e 1 )= P(e 1 h) P(e 1 ) P(h)= 0.7 P(e 1 ) 0.8 1= 1 P(e 1 ) (0.7 0.8+0.6 0.2) P(e 1 )=0.7 0.8+0.6 0.2=0.68 P( h)= 0.6 P(e 1 ) 0.2 P(h e 1 )= 0.7 0.68 0.8=0.82 P( h e 1)= 0.6 0.68 0.2=0.18

Wykład14,26V2010,str.12 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e M 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18

Wykład14,26V2010,str.12 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e M 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18 P(h e 1, e 2 )= P( e 2 h) P( e 2 ) P(h e 1 )= 0.6 P( e 2 ) 0.82

Wykład14,26V2010,str.12 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e M 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18 P(h e 1, e 2 )= P( e 2 h) P( e 2 ) P( h e 1, e 2 )= P( e 2 h) P( e 2 ) P(h e 1 )= 0.6 P( e 2 ) 0.82 P( h e 1 )= 0.7 P( e 2 ) 0.18

Wykład14,26V2010,str.12 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e M 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18 P(h e 1, e 2 )= P( e 2 h) P( e 2 ) P( h e 1, e 2 )= P( e 2 h) P( e 2 ) 1= 1 P( e 2 ) (0.6 0.82+0.7 0.18) P(h e 1 )= 0.6 P( e 2 ) 0.82 P( h e 1 )= 0.7 P( e 2 ) 0.18

Wykład14,26V2010,str.12 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e M 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18 P(h e 1, e 2 )= P( e 2 h) P( e 2 ) P( h e 1, e 2 )= P( e 2 h) P( e 2 ) 1= 1 P( e 2 ) (0.6 0.82+0.7 0.18) P( e 2 )=0.6 0.82+0.7 0.18=0.62 P(h e 1 )= 0.6 P( e 2 ) 0.82 P( h e 1 )= 0.7 P( e 2 ) 0.18

Wykład14,26V2010,str.12 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e M 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 P(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18 P(h e 1, e 2 )= P( e 2 h) P( e 2 ) P( h e 1, e 2 )= P( e 2 h) P( e 2 ) 1= 1 P( e 2 ) (0.6 0.82+0.7 0.18) P( e 2 )=0.6 0.82+0.7 0.18=0.62 P(h e 1 )= 0.6 P( e 2 ) 0.82 P( h e 1 )= 0.7 P( e 2 ) 0.18 P(h e 1, e 2 )= 0.6 0.62 0.82=0.8 P( h e 1, e 2 )= 0.7 0.62 0.18=0.2

Wykład14,26V2010,str.13 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 MP(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18 P(h e 1, e 2 )=0.8 P( h e 1, e 2 )=0.2

Wykład14,26V2010,str.13 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 MP(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18 P(h e 1, e 2 )=0.8 P( h e 1, e 2 )=0.2 P(h e 1, e 2,e 3 )= P(e 3 h) P(e 3 ) P( h e 1, e 2,e 3 )= P(e 3 h) P(e 3 ) 1= 1 P(e 3 ) (0.6 0.8+0.4 0.2) P(e 3 )=0.6 0.8+0.4 0.2=0.56 P(h e 1, e 2 )= 0.6 P(e 3 ) 0.8 P( h e 1, e 2 )= 0.4 P(e 3 ) 0.2

Wykład14,26V2010,str.13 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 MP(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18 P(h e 1, e 2 )=0.8 P( h e 1, e 2 )=0.2 P(h e 1, e 2,e 3 )= P(e 3 h) P(e 3 ) P( h e 1, e 2,e 3 )= P(e 3 h) P(e 3 ) 1= 1 P(e 3 ) (0.6 0.8+0.4 0.2) P(e 3 )=0.6 0.8+0.4 0.2=0.56 P(h e 1, e 2 )= 0.6 P(e 3 ) 0.8 P(h e 1, e 2,e 3 )= 0.6 0.56 0.8=0.86 P( h e 1, e 2 )= 0.4 P(e 3 ) 0.2

Wykład14,26V2010,str.13 Przykład: (prof. Wierzchoń) P(h)=0.8 P(e 1 h)=0.7 P(e 2 h)=0.4 P(e 3 h)=0.6 MP(e 1 h)=0.6 P(e 2 h)=0.3 P(e 3 h)=0.4 P(h e 1 )=0.82 P( h e 1 )=0.18 P(h e 1, e 2 )=0.8 P( h e 1, e 2 )=0.2 P(h e 1, e 2,e 3 )= P(e 3 h) P(e 3 ) P( h e 1, e 2,e 3 )= P(e 3 h) P(e 3 ) 1= 1 P(e 3 ) (0.6 0.8+0.4 0.2) P(e 3 )=0.6 0.8+0.4 0.2=0.56 P(h e 1, e 2 )= 0.6 P(e 3 ) 0.8 P(h e 1, e 2,e 3 )= 0.6 0.56 0.8=0.86 P( h e 1, e 2 )= 0.4 P(e 3 ) 0.2

Wykład14,26V2010,str.14 Jak nowe obserwacje zmieniają prawdopodobieństwo spełnienia hipotezy h?

Wykład14,26V2010,str.14 Jak nowe obserwacje zmieniają prawdopodobieństwo spełnienia hipotezy h: P(h)=0.8 P(h e 1 )=0.82 P(h e 1, e 2 )=0.8 P(h e 1, e 2,e 3 )=0.86

Wykład14,26V2010,str.14 Jak nowe obserwacje zmieniają prawdopodobieństwo spełnienia hipotezy h: P(h)=0.8 P(h e 1 )=0.82 P(h e 1, e 2 )=0.8 P(h e 1, e 2,e 3 )=0.86

Wykład14,26V2010,str.14 Jak nowe obserwacje zmieniają prawdopodobieństwo spełnienia hipotezy h: P(h)=0.8 P(h e 1 )=0.82 P(h e 1, e 2 )=0.8 P(h e 1, e 2,e 3 )=0.86

Wykład14,26V2010,str.14 Jak nowe obserwacje zmieniają prawdopodobieństwo spełnienia hipotezy h: P(h)=0.8 P(h e 1 )=0.82 P(h e 1, e 2 )=0.8 P(h e 1, e 2,e 3 )=0.86

Wykład14,26V2010,str.15 Naiwny klasyfikator Bayesowski

Wykład14,26V2010,str.15 Naiwny klasyfikator Bayesowski Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM rynek wygrałeś szybko SPAM

Wykład14,26V2010,str.15 Naiwny klasyfikator Bayesowski Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM rynek wygrałeś szybko SPAM Jak zaklasyfikować nowy dokument?

Wykład14,26V2010,str.15 Naiwny klasyfikator Bayesowski Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM rynek wygrałeś szybko SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM?

Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= 2 8+5 13 P(szybko S)= 2+1= 3 8+5 13 prawd., że spam: P(S) P(rynek S) P(szybko S)= 3 2 3 4 13 13 prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= 1+1 2+5 = 2 7 P(szybko S)= 0+1 2+5 =1 7 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM? rynek wygrałeś szybko SPAM

Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= 2 8+5 13 P(szybko S)= 2+1= 3 8+5 13 prawd., że spam: P(S) P(rynek S) P(szybko S)= 3 2 3 4 13 13 prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= 1+1 2+5 = 2 7 P(szybko S)= 0+1 2+5 = 1 7 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM? rynek wygrałeś szybko SPAM

Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= 2 8+5 13 P(szybko S)= 2+1= 3 8+5 13 prawd., że spam: P(S) P(rynek S) P(szybko S)= 3 2 3 4 13 13 prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= 1+1 2+5 = 2 7 P(szybko S)= 0+1 2+5 = 1 7 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM? rynek wygrałeś szybko SPAM

Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= 2 8+5 13 P(szybko S)= 2+1= 3 8+5 13 prawd., że spam: P(S) P(rynek S) P(szybko S)= 3 2 3 4 13 13 prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= 1+1 2+5 = 2 7 P(szybko S)= 0+1 2+5 = 1 7 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM? rynek wygrałeś szybko SPAM

Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= 2 8+5 13 P(szybko S)= 2+1= 3 8+5 13 prawd., że spam: P(S) P(rynek S) P(szybko S)= 3 2 3 4 13 13 prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= 1+1 2+5 = 2 7 P(szybko S)= 0+1 2+5 = 1 7 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM? rynek wygrałeś szybko SPAM

Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= 2 8+5 13 P(szybko S)= 2+1= 3 8+5 13 prawd., że spam: P(S) P(rynek S) P(szybko S)= 3 2 3 4 13 13 prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= 1+1 2+5 = 2 7 P(szybko S)= 0+1 2+5 = 1 7 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM? rynek wygrałeś szybko SPAM

Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= 2 8+5 13 P(szybko S)= 2+1= 3 8+5 13 prawd., że spam: P(S) P(rynek S) P(szybko S)= 3 2 3 4 13 13 prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= 1+1 2+5 = 2 7 P(szybko S)= 0+1 2+5 = 1 7 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM? rynek wygrałeś szybko SPAM

Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= 2 8+5 13 P(szybko S)= 2+1= 3 8+5 13 prawd., że spam: P(S) P(rynek S) P(szybko S)= 3 2 3 4 13 13 prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= 1+1 2+5 = 2 7 P(szybko S)= 0+1 2+5 = 1 7 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM? rynek wygrałeś szybko SPAM

Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= 2 8+5 13 P(szybko S)= 2+1= 3 8+5 13 prawd., że spam: P(S) P(rynek S) P(szybko S)= 3 2 3 4 13 13 prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= 1+1 2+5 =2 7 P(szybko S)= 0+1 2+5 =1 7 prawd., że nie spam: P( S) P(rynek S) P(szybko S) Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek szybko CZY SPAM? rynek wygrałeś szybko SPAM

Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= 2 8+5 13 P(szybko S)= 2+1= 3 8+5 13 prawd., że spam: P(S) P(rynek S) P(szybko S)= 3 2 3 4 13 13 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek wygrałeś szybko SPAM prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= 1+1 2+5 =2 7 P(szybko S)= 0+1 2+5 =1 7 prawd., że nie spam: P( S) P(rynek S) P(szybko S)= 1 2 1 4 7 7 rynek szybko CZY SPAM?

Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= 2 8+5 13 P(szybko S)= 2+1= 3 8+5 13 prawd., że spam: P(S) P(rynek S) P(szybko S)= 3 2 3 4 13 13 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek wygrałeś szybko SPAM prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= 1+1= 2 2+5 7 P(szybko S)= 0+1= 1 2+5 7 prawd., że nie spam: P( S) P(rynek S) P(szybko S)= 1 2 1 4 7 7 rynek szybko CZY SPAM? P(S rynek,szybko)= 3 2 3 4 13 13

Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= 2 8+5 13 P(szybko S)= 2+1= 3 8+5 13 prawd., że spam: P(S) P(rynek S) P(szybko S)= 3 2 3 4 13 13 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek wygrałeś szybko SPAM prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= 1+1= 2 2+5 7 P(szybko S)= 0+1= 1 2+5 7 prawd., że nie spam: P( S) P(rynek S) P(szybko S)= 1 2 1 4 7 7 rynek szybko CZY SPAM? P(S rynek,szybko)= 3 2 3 4 13 13 0.0266

Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= 2 8+5 13 P(szybko S)= 2+1= 3 8+5 13 prawd., że spam: P(S) P(rynek S) P(szybko S)= 3 2 3 4 13 13 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek wygrałeś szybko SPAM prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= 1+1= 2 2+5 7 P(szybko S)= 0+1= 1 2+5 7 prawd., że nie spam: P( S) P(rynek S) P(szybko S)= 1 2 1 4 7 7 rynek szybko CZY SPAM? P(S rynek,szybko)= 3 2 3 4 13 13 0.0266 P( S rynek,szybko)= 1 2 1 4 7 7 0.0102

Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= 2 8+5 13 P(szybko S)= 2+1= 3 8+5 13 prawd., że spam: P(S) P(rynek S) P(szybko S)= 3 2 3 4 13 13 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek wygrałeś szybko SPAM prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= 1+1= 2 2+5 7 P(szybko S)= 0+1= 1 2+5 7 prawd., że nie spam: P( S) P(rynek S) P(szybko S)= 1 2 1 4 7 7 rynek szybko CZY SPAM? P(S rynek,szybko)= 3 2 3 4 13 13 0.0266 P( S rynek,szybko)= 1 2 1 4 7 7 0.0102<P(S rynek,szybko)

Wykład14,26V2010,str.16 prawd.apriori,żespam:p(s)= 3 4 P(rynek S)= 1+1= 2 8+5 13 P(szybko S)= 2+1= 3 8+5 13 prawd., że spam: P(S) P(rynek S) P(szybko S)= 3 2 3 4 13 13 Treningowy zbiór dokumentów: szybko SPAM wygrałeś SPAM rynek analiza NIE SPAM Jak zaklasyfikować nowy dokument? rynek wygrałeś szybko SPAM prawd.apriori,żeniespam:p( S)= 1 4 P(rynek S)= 1+1 2+5 =2 7 P(szybko S)= 0+1 2+5 =1 7 prawd., że nie spam: P( S) P(rynek S) P(szybko S)= 1 2 1 4 7 7 rynek szybko CZY SPAM? P(S rynek,szybko)= 3 2 3 4 13 13 0.0266 P( S rynek,szybko)= 1 2 1 4 7 7 0.0102<P(S rynek,szybko) Więc spam.

Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh

Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki).

Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n )

Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n ) 1 = P(x 1,...,x ) P(h) P(x 1 h)... P(x n h) n

Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n ) 1 = P(x 1,...,x ) P(h) P(x 1 h)... P(x n h) n P(h)= D h D

Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n ) 1 = P(x 1,...,x ) P(h) P(x 1 h)... P(x n h) n P(h)= D h D prawd.hapriori: D htoliczbadok.spełniającychh

Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n ) 1 = P(x 1,...,x ) P(h) P(x 1 h)... P(x n h) n P(h)= D h D prawd.hapriori: D htoliczbadok.spełniającychh, D to liczba wszystkich dok.

Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n ) 1 = P(x 1,...,x ) P(h) P(x 1 h)... P(x n h) n P(h)= D h D prawd.hapriori: D htoliczbadok.spełniającychh, D to liczba wszystkich dok. P(x i h) T i +1 Z k=1 (T k+1)

Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n ) 1 = P(x 1,...,x ) P(h) P(x 1 h)... P(x n h) n P(h)= D h D prawd.hapriori: D htoliczbadok.spełniającychh, D to liczba wszystkich dok. P(x i h) T i +1 Z k=1 (T k+1) = T i +1 ( Z k=1 T k)+z

Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n ) 1 = P(x 1,...,x ) P(h) P(x 1 h)... P(x n h) n P(h)= D h D prawd.hapriori: D htoliczbadok.spełniającychh, D to liczba wszystkich dok. T i +1 P(x i h) Z k=1 (T k+1) = T i +1 ( Z k=1 T k)+z T i toliczbawystąpieńcechyx i wdokumentachspełniającychh

Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n ) 1 = P(x 1,...,x ) P(h) P(x 1 h)... P(x n h) n P(h)= D h D prawd.hapriori: D htoliczbadok.spełniającychh, D to liczba wszystkich dok. T i +1 P(x i h) Z k=1 (T k+1) = T i +1 ( Z k=1 T k)+z T i toliczbawystąpieńcechyx i wdokumentachspełniającychh, Z to liczba cech występujących w dokumentach spełniających h

Wykład14,26V2010,str.17 Zakładamy,żeobserwacjex 1,...,x n sąwarunkowoniezależnewzględemhipotezyh: P(h,x 1,...,x n )=P(h) P(x 1 h)... P(x n h) (założenie z sufitu, ale daje zadziwiająco dobre wyniki). Wtedy P(h x 1,...,x n )= P(h,x 1,...,x n ) P(x 1,...,x n ) 1 = P(x 1,...,x ) P(h) P(x 1 h)... P(x n h) n P(h)= D h D prawd.hapriori: D htoliczbadok.spełniającychh, D to liczba wszystkich dok. T i +1 P(x i h) Z k=1 (T k+1) = T i +1 ( Z k=1 T k)+z T i toliczbawystąpieńcechyx i wdokumentachspełniającychh, Z to liczba cech występujących w dokumentach spełniających h, Z k=1 T ktoliczbawystąpieńwszystkichcechwewszystkichdok.spełniającychh

Wykład14,26V2010,str.18 P(x i h) T i +1 Zk=1 (T k +1)

Wykład14,26V2010,str.18 P(x i h) T i +1 Zk=1 (T k +1) Wygładzanie Laplace a jedynki dodane po to, żeby żaden czynnik iloczynu nie był zerem; wprowadzają niewielki błąd.

Wykład14,26V2010,str.18 P(x i h) T i +1 Zk=1 (T k +1) Wygładzanie Laplace a jedynki dodane po to, żeby żaden czynnik iloczynu nie był zerem; wprowadzają niewielki błąd. Do licznika dodajemy 1; ile dodać do mianownika, żeby wartość ułamka się nie zmieniła? a b =a+1 b+x

Wykład14,26V2010,str.18 P(x i h) T i +1 Zk=1 (T k +1) Wygładzanie Laplace a jedynki dodane po to, żeby żaden czynnik iloczynu nie był zerem; wprowadzają niewielki błąd. Do licznika dodajemy 1; ile dodać do mianownika, żeby wartość ułamka się nie zmieniła? a b =a+1 b+x x= b a

Wykład14,26V2010,str.18 P(x i h) T i +1 Zk=1 (T k +1) Wygładzanie Laplace a jedynki dodane po to, żeby żaden czynnik iloczynu nie był zerem; wprowadzają niewielki błąd. Do licznika dodajemy 1; ile dodać do mianownika, żeby wartość ułamka się nie zmieniła? a b =a+1 b+x x= b a Jeśliwartościa 1,...,a n niewielesięróżnią,to a i ni=1 a i 1 n.

Wykład14,26V2010,str.18 P(x i h) T i +1 Zk=1 (T k +1) Wygładzanie Laplace a jedynki dodane po to, żeby żaden czynnik iloczynu nie był zerem; wprowadzają niewielki błąd. Do licznika dodajemy 1; ile dodać do mianownika, żeby wartość ułamka się nie zmieniła? a b =a+1 b+x x= b a Jeśliwartościa 1,...,a n niewielesięróżnią,to a i ni=1 a i 1 n.wobectego a i ni=1 a i a i +1 ( n i=1 a i )+n

Wykład14,26V2010,str.18 P(x i h) T i +1 Zk=1 (T k +1) Wygładzanie Laplace a jedynki dodane po to, żeby żaden czynnik iloczynu nie był zerem; wprowadzają niewielki błąd. Do licznika dodajemy 1; ile dodać do mianownika, żeby wartość ułamka się nie zmieniła? a b =a+1 b+x x= b a Jeśliwartościa 1,...,a n niewielesięróżnią,to a i ni=1 a i 1 n.wobectego a i ni=1 a i a i +1 ( n i=1 a i )+n = a i +1 ni=1 (a i +1)