Klasyfikacja metodą Bayesa



Podobne dokumenty
Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Przestrzeń probabilistyczna

Wnioskowanie bayesowskie

Klasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne)

Agnieszka Nowak Brzezińska Wykład III

Agnieszka Nowak Brzezińska Wykład III

Elementy modelowania matematycznego

Rachunek prawdopodobieństwa Rozdział 3. Prawdopodobieństwo warunkowe i niezależność zdarzeń.

P (A B) P (B) = 1/4 1/2 = 1 2. Zakładamy, że wszystkie układy dwójki dzieci: cc, cd, dc, dd są jednakowo prawdopodobne.

Rachunek prawdopodobieństwa

Zadania o numerze 4 z zestawów licencjat 2014.

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Klasyfikacja bayesowska

+ r arcsin. M. Przybycień Rachunek prawdopodobieństwa i statystyka π r x

Podstawy Teorii Prawdopodobieństwa

Sztuczna inteligencja : Algorytm KNN

Wykład 4. Plan: 1. Aproksymacja rozkładu dwumianowego rozkładem normalnym. 2. Rozkłady próbkowe. 3. Centralne twierdzenie graniczne

Prawdopodobieństwo czerwonych = = 0.33

Metody probabilistyczne klasyfikatory bayesowskie

Zdarzenia losowe i prawdopodobieństwo

STATYSTYKA MATEMATYCZNA

ESTYMACJA PRZEDZIAŁOWA WYBRANYCH PARAMETRÓW

komputery? Andrzej Skowron, Hung Son Nguyen Instytut Matematyki, Wydział MIM, UW

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 13 i 14 - Statystyka bayesowska

Prawdopodobieństwo warunkowe Twierdzenie o prawdopodobieństwie całkowitym

Algorytmy klasyfikacji

Wykład 3 Hipotezy statystyczne

Statystyka Astronomiczna

Data Mining Wykład 6. Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa.

PODSTAWY STATYSTYCZNEJ ANALIZY DANYCH

Rzucamy dwa razy sprawiedliwą, sześcienną kostką do gry. Oblicz prawdopodobieństwo otrzymania:

Twierdzenie Bayesa. Indukowane Reguły Decyzyjne Jakub Kuliński Nr albumu: 53623

Systemy ekspertowe - wiedza niepewna

Fuzja sygnałów i filtry bayesowskie

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce

Sieci Bayesa mgr Tomasz Xięski, Instytut Informatyki, Uniwersytet Śląski Sosnowiec, 2011

Prawdopodobieństwo. Prawdopodobieństwo. Jacek Kłopotowski. Katedra Matematyki i Ekonomii Matematycznej SGH. 16 października 2018

Metody systemowe i decyzyjne w informatyce

), którą będziemy uważać za prawdziwą jeżeli okaże się, że hipoteza H 0

Biostatystyka, # 3 /Weterynaria I/

Spacery losowe generowanie realizacji procesu losowego

STATYSTYKA. Rafał Kucharski. Uniwersytet Ekonomiczny w Katowicach 2015/16 ROND, Finanse i Rachunkowość, rok 2

Rachunku prawdopodobieństwa: rys historyczny, aksjomatyka, prawdopodobieństwo warunkowe,

Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX = 4 i EY = 6. Rozważamy zmienną losową Z =.

Wykład 2 Hipoteza statystyczna, test statystyczny, poziom istotn. istotności, p-wartość i moc testu

Wykład 11: Podstawowe pojęcia rachunku prawdopodobieństwa

Klasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L,

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I (SGH)

Ćwiczenia z metodyki nauczania rachunku prawdopodobieństwa

Statystyka i eksploracja danych

Rozpoznawanie obrazów

Podstawy metod probabilistycznych. dr Adam Kiersztyn

Wnioskowanie statystyczne i weryfikacja hipotez statystycznych

KURS PRAWDOPODOBIEŃSTWO

Uwaga: szarych kropek po pokolorowaniu nie uwzględniaj w klasyfikowaniu kolejnych szarych.

Wykład 2. Zdarzenia niezależne i prawdopodobieństwo całkowite

Podstawy nauk przyrodniczych Matematyka

Rachunek prawdopodobieństwa i statystyka - W 9 Testy statystyczne testy zgodności. Dr Anna ADRIAN Paw B5, pok407

1 Klasyfikator bayesowski

Agnieszka Nowak Brzezińska

11. Gry Macierzowe - Strategie Czyste i Mieszane

Statystyka i eksploracja danych

Wykład 10 Testy jednorodności rozkładów

WYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova

p k (1 p) n k. k c. dokładnie 10 razy została wylosowana kula amarantowa, ale nie za pierwszym ani drugim razem;

Wprowadzenie. Data Science Uczenie się pod nadzorem

Rachunek prawdopodobieństwa dla informatyków

Data Mining Wykład 5. Indukcja drzew decyzyjnych - Indeks Gini & Zysk informacyjny. Indeks Gini. Indeks Gini - Przykład

04DRAP - Prawdopodobieństwo warunkowe, prawdopodobieństwo całkowite,

R_PRACA KLASOWA 1 Statystyka i prawdopodobieństwo.

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne

Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa

Co to jest klasyfikacja? Klasyfikacja a grupowanie Naiwny klasyfikator Bayesa

Metody probabilistyczne

Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak

Centralne twierdzenie graniczne

III. ZMIENNE LOSOWE JEDNOWYMIAROWE

Algorytmy stochastyczne, wykład 08 Sieci bayesowskie

Uwaga. Decyzje brzmią różnie! Testy parametryczne dotyczące nieznanej wartości

Na podstawie: AIMA, ch13. Wojciech Jaśkowski. 15 marca 2013

Wykład 8 Dane kategoryczne

Po co nam statystyka matematyczna? Żeby na podstawie próby wnioskować o całej populacji

Statystyka matematyczna i ekonometria

Statystyka matematyczna Testowanie hipotez i estymacja parametrów. Wrocław, r

Estymacja przedziałowa - przedziały ufności dla średnich. Wrocław, 5 grudnia 2014

Algorytmy stochastyczne Wykład 12, Uczenie parametryczne w sieciach bayesowskich

Wybrane rozkłady zmiennych losowych. Statystyka

Uczenie sieci neuronowych i bayesowskich

Wydział Matematyki. Testy zgodności. Wykład 03

WYKŁAD 2 i 3. Podstawowe pojęcia związane z prawdopodobieństwem. Podstawy teoretyczne. autor: Maciej Zięba. Politechnika Wrocławska

SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006

Wykład 10 Estymacja przedziałowa - przedziały ufności dla średn

Sztuczna Inteligencja Projekt

Przestrzenie wektorowe

Rachunek prawdopodobieństwa Rozdział 2. Aksjomatyczne ujęcie prawdopodobieństwa

Zagadnienie klasyfikacji (dyskryminacji)

Zad. 4 Należy określić rodzaj testu (jedno czy dwustronny) oraz wartości krytyczne z lub t dla określonych hipotez i ich poziomów istotności:

Technologie baz danych

Transkrypt:

Klasyfikacja metodą Bayesa Tadeusz Pankowski www.put.poznan.pl/~tadeusz.pankowski warunkowe i bezwarunkowe 1. Klasyfikacja Bayesowska jest klasyfikacją statystyczną. Pozwala przewidzieć prawdopodobieństwo przynależności obiektu do klasy. Opiera się na twierdzeniu Bayesa. 2. Rozważamy hipotezę, że obiekt o właściwości X należy do klasy C. 3. Z punktu widzenia zadania klasyfikacji chcemy obliczyć prawdopodobieństwo P(C X) tego, że obiekt o właściwości X należy do klasy C. Bayesa 1 Bayesa 2 P(C X) jest tzw. prawdopodobieństwem warunkowym (a posteriori) zdarzenia C (należenie do klasy C) pod warunkiem zajścia zdarzenia X (posiadanie właściwości X). Przykład: Rozważamy populację owoców. Przypuśćmy, że rozważaną właściwością X obiektu o jest: X: o jest owocem okrągłym i czerwonym, a C jest klasą jabłek. Wówczas P(C X) wyraża nasze przekonanie, że owoc jest jabłkiem, jeśli zaobserwowaliśmy, że jest on okrągły i czerwony. Przeciwieństwem prawdopodobieństwa warunkowego jest prawdopodobieństwo bezwarunkowe. W naszym przypadku P(C) wyraża prawdopodobieństwo, że obserwowany owoc jest jabłkiem. Prawdopodobieństwo to nazywamy prawdopodobieństwem bezwarunkowym (a priori). Prawdopodobieństwo warunkowe, P(C X uwzględnia więcej informacji (wiedza X podczas gdy prawdopodobieństwo bezwarunkowe P(C) jest niezależne od X. Bayesa 3 Bayesa 4

Podobnie, P(X C) jest prawdopodobieństwem warunkowym zajścia zdarzenia X pod warunkiem zajścia zdarzenia C. Jest więc na przykład prawdopodobieństwem, że owoc jest okrągły i czerwony, jeśli wiadomo, że jest jabłkiem. P(X) jest prawdopodobieństwem bezwarunkowym. Oznacza więc na przykład prawdopodobieństwem tego, że obserwowany (wybrany losowo) owoc jest czerwony i okrągły. Klasyfikacja metodą Bayesa twierdzenie Bayesa Twierdzenia Bayesa pokazuje, w jaki sposób obliczyć prawdopodobieństwo warunkowe P(C X jeśli znane są prawdopodobieństwa: warunkowe P(X C) oraz bezwarunkowe P(C) i P(X). Prawdopodobieństwa: P(X C P(C) oraz P(X) mogą być bezpośrednio wyliczone z danych zgromadzonych w treningowym zbiorze danych (w bazie danych). Twierdzenie Bayesa: Bayesa 5 Bayesa 6 Twierdzenie Bayesa Dowód (z prawdopodobieństwa warunkowego): P ( C X ) = P( C X ) = P( C )P( X C ) Klasyfikacja Bayesa (naiwna) Każdy obiekt traktowany jest jako wektor X (krotka) wartości atrybutów A 1,..., A n : X = (x 1, x 2,..., x n ). Niech C 1,..., C m będą klasami, do których może należeć X, P(C X) niech oznacza prawdopodobieństwo przynależności X (ściślej: obiektów o właściwości X) do klasy C. W klasyfikacji Bayesa przypisujemy X do tej klasy, do której prawdopodobieństwo warunkowe przynależności X jest największe. X jest więc przypisany do C i, jeśli P(C i X) P(C k X dla każdego k, 1 k m, k i. Bayesa 7 Bayesa 8

1. W klasyfikacji Bayesa maksymalizujemy: Klasyfikacja Bayesa 2. Ponieważ P(X) jest stałe, więc wystarczy maksymalizować iloczyn P(X C i )P(C i ). 3. Ponadto przyjmujemy: P(C i ) = s i / s, gdzie s oznacza liczbę obiektów w zbiorze treningowym, a s i oznacza liczbę obiektów w klasie C i. 4. Dla X = (x 1, x 2,..., x n wartość P(X C i ) obliczamy jako iloczyn: P(X C i ) = P(x 1 C i )*P(x 2 C i )*... *P(x n C i przy czym: P(x k C i ) = s ik / s i, gdzie s ik oznacza liczbę obiektów klasy C i, dla których wartość atrybutu A k jest równa x k, a s i oznacza liczbę wszystkich obiektów klasy C i w zadanym zbiorze treningowym. 9 Przykład klasyfikacji metodą Bayesa Algorytm: Klasyfikacja obiektów metodą Bayesa. Wejście: Rozważana populacja obiektów (klientów) opisana jest za pomocą czterech atrybutów: Wiek, Dochód, Studia, OcenaKred. Interesuje nas przynależność obiektów do jednej z dwóch klas: klienci kupujący komputery (o etykiecie TAK) i klienci nie kupujący komputerów (o etykiecie NIE). Z bazy danych wybrano zbiór treningowy (rozważany przez nas przy budowie drzew decyzyjnych następny slajd). Obiekt X o nieznanej przynależności klasowej ma postać: X = (Wiek = <=30, Dochód = średni, Student = tak, OcenaKred = dobra ) Wyjście: Określić przynależność obiektu X do klasy C 1 ( tak ) lub C 2 ( nie ) za pomocą klasyfikacji Bayesa. Bayesa 10 Przykład klasyfikacji metodą Bayesa Zbiór treningowy: Klasyfikowany obiekt: X = (Wiek = <=30, Dochód = średni, Student = tak, OcenaKred = dobra ) Bayesa 11 Przykład klasyfikacji metodą Bayesa (c.d.) 1. Należy obliczyć, dla jakiej wartości i, i =1, 2, iloczyn P(X C i )*P(C i osiąga maksimum. 2. P(C i ) oznacza prawdopodobieństwo bezwarunkowe przynależności obiektu do klasy (inaczej: prawdopodobieństwo klasy) C i, i = 1, 2. Ze zbioru treningowego obliczamy: P(C 1 ) = 9/14 = 0.643 P(C 2 ) = 5/14 = 0.357 3. Prawdopodobieństwa warunkowe P(X C i ) są odpowiednio równe iloczynom prawdopodobieństw warunkowych: ) = P(Wiek= <=30 C 1 ) * P(Dochód= średni C 1 ) P(Studia= tak C 1 ) * P(OcenaKred= dobra C 1 ) = P(Wiek= <=30 C 2 ) * P(Dochód= średni C 2 ) P(Studia= tak C 2 ) * P(OcenaKred= dobra C 2 Bayesa 12

Przykład klasyfikacji metodą Bayesa (c.d.) Ze zbioru treningowego obliczamy: P(Wiek= <=30 C 1 ) = 2/9 = 0.222 P(Dochód= średni C 1 ) = 4/9 = 0.444 P(Studia= tak C 1 ) = 6/9 = 0.667 P(OcenaKred= dobra C 1 ) = 6/9 = 0.667 P(Wiek= <=30 C 2 ) = 3/5 = 0.600 P(Dochód= średni C 2 ) = 2/5 = 0,400 P(Studia= tak C 2 ) = 1/5 = 0.200 P(OcenaKred= dobra C 2 ) = 2/5 = 0.400 Stąd: ) = 0.222*0.444*0.667*0.667 = = 0.044 )P(C 1 ) = 0.044*0.643 = 0.028 ) = 0.600*0.400*0.200*0.400 = = 0.019 )P(C 2 ) = 0.019*0.357 = 0.007 X został zaklasyfikowany do C 1. Twierdzenia Bayesa można użyć do interpretacji rezultatów badania przy użyciu testów wykrywających narkotyki. Załóżmy, że przy badaniu narkomana test wypada pozytywnie w 99% przypadków, zaś przy badaniu osoby nie zażywającej narkotyków wypada negatywnie w 99% przypadków. Pewna firma postanowiła przebadać swoich pracowników takim testem wiedząc, że 0,5% z nich to narkomani. Chcemy obliczyć prawdopodobieństwo, że osoba u której test wypadł pozytywnie rzeczywiście zażywa narkotyki. Oznaczmy następujące zdarzenia: D - dana osoba jest narkomanem N - dana osoba nie jest narkomanem + - u danej osoby test dał wynik pozytywny - u danej osoby test dał wynik negatywny Bayesa 14 P(D) = 0,005, gdyż 0,5% pracowników to narkomani P(N) = 1 P(D) = 0,995 P( + D) = 0,99, skuteczność testu przy badaniu narkomana P( N) = 0,99, gdyż taką skuteczność ma test przy badaniu osoby nie będacej narkomanem P( + N) = 1 P( N) = 0,01 Mając tedanechcemyobliczyć prawdopodobieństwo, że osobau której test wypadł pozytywnie, rzeczywiście jest narkomanem. Tak więc: Mimo potencjalnie wysokiej skuteczności testu, prawdopodobieństwo, że narkomanem jest badany pracownik u którego test dał wynik pozytywny, jest równe około 33%, więc jest nawet bardziej prawdopodobnym, ze taka osoba nie zażywa narkotyków. Ten przykład pokazuje, dlaczego ważne jest, aby nie polegać na wynikach tylko pojedynczego testu. 15 16

Przykład 2 Wśród studentów jest 60% mężczyzn i 40% kobiet. Połowa studentek chodzi w spodniach, a połowa w spódniczkach. Wszyscy studenci noszą spodnie. Obserwator widzi osobę w spodniach. Jakie jest prawdopodobieństwo, że jest to studentka? P(A) = 0.4 prawdopodobieństwo, że osoba jest studentką, P(A') = 0.6 prawdopodobieństwo, że osoba jest studentem, P(B A) = 0.5 prawdopodobieństwo, że osoba będąca studentką nosi spodnie, P(C A) = 0.5 prawdopodobieństwo, że osoba będąca studentką nosi spódnicę, P(B A') = 1 prawdopodobieństwo, że osoba będąca studentem nosi spodnie. Obliczyć: P(A B) prawdopodobieństwo, że osoba w spodniach jest studentką Obliczamy: P(B) prawdopodobieństwo, że losowo wybrana osoba nosi spodnie P(B) = P(B A)P(A) + P(B A')P(A') = 0.5 0.4 + 1 0.6 = 0.8 17