ZeroR. Odpowiada zawsze tak samo Decyzja to klasa większościowa ze zbioru uczącego A B X 1 5 T 1 7 T 1 5 T 1 5 F 2 7 F

Podobne dokumenty
Wprowadzenie do klasyfikacji

Podstawy. Prawdopodobieństwo. Witold Andrzejewski & Paweł Boiński, Politechnika Poznańska, Wydział Informatyki 218/633

9. Praktyczna ocena jakości klasyfikacji

Sztuczna Inteligencja w medycynie projekt (instrukcja) Bożena Kostek

Data Mining Wykład 4. Plan wykładu

Indukowane Reguły Decyzyjne I. Wykład 8

SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

WYKŁAD 7. Testowanie jakości modeli klasyfikacyjnych metodyka i kryteria

Stan dotychczasowy. OCENA KLASYFIKACJI w diagnostyce. Metody 6/10/2013. Weryfikacja. Testowanie skuteczności metody uczenia Weryfikacja prosta

Wprowadzenie do uczenia maszynowego

Systemy uczące się wykład 2

WYKŁAD 11 Uczenie maszynowe drzewa decyzyjne

Algorytmy klasyfikacji

Ocena dokładności diagnozy

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład II 2017/2018

ALGORYTM RANDOM FOREST

WYKŁAD 6. Reguły decyzyjne

Konkurs z przedmiotu eksploracja i analiza danych: problem regresji i klasyfikacji

SYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

Sztuczna Inteligencja Projekt

2. Ocena dokładności modelu klasyfikacji:

mgr inż. Magdalena Deckert Poznań, r. Metody przyrostowego uczenia się ze strumieni danych.

Drzewa decyzyjne i lasy losowe

Rachunek prawdopodobieństwa Rozdział 3. Prawdopodobieństwo warunkowe i niezależność zdarzeń.

SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006

LEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów

Rachunek prawdopodobieństwa Rozdział 3. Prawdopodobieństwo warunkowe i niezależność zdarzeń.

Wprowadzenie do uczenia maszynowego

Przykład eksploracji danych o naturze statystycznej Próba 1 wartości zmiennej losowej odległość

Laboratorium 6. Indukcja drzew decyzyjnych.

Agnieszka Nowak Brzezińska Wykład III

B jest globalnym pokryciem zbioru {d} wtedy i tylko wtedy, gdy {d} zależy od B i nie istnieje B T takie, że {d} zależy od B ;

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Metody oceny wiedzy klasyfikacyjnej odkrytej z danych Jerzy Stefanowski Instytut Informatyki Politechnika Poznańska

TEMP BÓL WYSYPKA GARDŁO DIAGNOZA

8. Drzewa decyzyjne, bagging, boosting i lasy losowe

RILL - przyrostowy klasyfikator regułowy uczący się ze zmiennych środowisk

Wprowadzenie. Data Science Uczenie się pod nadzorem

Klasyfikacja. Sformułowanie problemu Metody klasyfikacji Kryteria oceny metod klasyfikacji. Eksploracja danych. Klasyfikacja wykład 1

Laboratorium 4. Naiwny klasyfikator Bayesa.

Data Mining Wykład 5. Indukcja drzew decyzyjnych - Indeks Gini & Zysk informacyjny. Indeks Gini. Indeks Gini - Przykład

Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych. Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS

Klasyfikacja LDA + walidacja

Agnieszka Nowak Brzezińska Wykład III

Naiwny klasyfikator Bayesa brał pod uwagę jedynie najbliższe otoczenie. Lecz czym jest otoczenie? Jak je zdefiniować?

Algorytmy metaheurystyczne Wykład 11. Piotr Syga

Drzewa klasyfikacyjne Lasy losowe. Wprowadzenie

Drzewa klasyfikacyjne algorytm podstawowy

Testowanie modeli predykcyjnych

Określanie ważności atrybutów. RapidMiner

Uwaga: szarych kropek po pokolorowaniu nie uwzględniaj w klasyfikowaniu kolejnych szarych.

Eksploracja danych. KLASYFIKACJA I REGRESJA cz. 2. Wojciech Waloszek. Teresa Zawadzka.

Systemy uczące się wykład 1

Uczenie się maszyn. Dariusz Banasiak. Katedra Informatyki Technicznej Wydział Elektroniki

Metody klasyfikacji danych - część 1 p.1/24

PODSTAWY STATYSTYCZNEGO MODELOWANIA DANYCH. Wykład 6 Drzewa klasyfikacyjne - wprowadzenie. Reguły podziału i reguły przycinania drzew.

Klasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne)

Indukowane Reguły Decyzyjne I. Wykład 3

Algorytm do rozpoznawania człowieka na podstawie dynamiki użycia klawiatury. Paweł Kobojek, prof. dr hab. inż. Khalid Saeed

Laboratorium 5. Adaptatywna sieć Bayesa.

Co to są drzewa decyzji

Eksploracja danych OCENA KLASYFIKATORÓW. Wojciech Waloszek. Teresa Zawadzka.

Złożoność i zagadnienia implementacyjne. Wybierz najlepszy atrybut i ustaw jako test w korzeniu. Stwórz gałąź dla każdej wartości atrybutu.

Sztuczna Inteligencja Projekt

Porównanie systemów automatycznej generacji reguł działających w oparciu o algorytm sekwencyjnego pokrywania oraz drzewa decyzji


Metody indukcji reguł

Metody probabilistyczne klasyfikatory bayesowskie

Automatyczne wyodrębnianie reguł

Statystyka matematyczna Testowanie hipotez i estymacja parametrów. Wrocław, r

Klasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L,

WSPOMAGANIE DECYZJI - MIŁOSZ KADZIŃSKI LAB IV ZBIORY PRZYBLIŻONE I ODKRYWANIE REGUŁ DECYZYJNYCH

Elementy modelowania matematycznego

A Zadanie

Obliczanie prawdopodobieństwa za pomocą metody drzew metoda drzew. Drzewem Reguła iloczynów. Reguła sum.

Kompresja danych Streszczenie Studia Dzienne Wykład 10,

Rachunek prawdopodobieństwa

Klasyfikacja. Obcinanie drzewa Naiwny klasyfikator Bayes a knn Dokładność klasyfikacji. Eksploracja danych. Klasyfikacja wykład 3

INDUKCJA DRZEW DECYZYJNYCH

Drzewa decyzyjne w SAS Enterprise Miner

Wstęp do sieci neuronowych, wykład 13-14, Walidacja jakości uczenia. Metody statystyczne.

W. Guzicki Próbna matura, grudzień 2014 r. poziom rozszerzony 1

Indukcja drzew decyzyjnych

Klasyfikacja. Indeks Gini Zysk informacyjny. Eksploracja danych. Klasyfikacja wykład 2

Analiza danych. TEMATYKA PRZEDMIOTU

KLASYFIKACJA. Słownik języka polskiego

Wstęp do sieci neuronowych, wykład 09, Walidacja jakości uczenia. Metody statystyczne.

Odkrywanie wiedzy w danych

Klasyfikacja. Wprowadzenie. Klasyfikacja (1)

BADANIE JAKOŚCI PREDYKCYJNEJ SEGMENTACJI RYNKU

Zdarzenia losowe i prawdopodobieństwo

PODSTAWY STATYSTYCZNEJ ANALIZY DANYCH. Wykład 5 Kwadratowa analiza dyskryminacyjna QDA. Metody klasyfikacji oparte na rozkładach prawdopodobieństwa.

Algorytmy klasyfikacji

Reguły decyzyjne, algorytm AQ i CN2. Reguły asocjacyjne, algorytm Apriori.

Sprawozdanie z zadania Modele predykcyjne (2)

Krzywe ROC i inne techniki oceny jakości klasyfikatorów

Metody eksploracji danych 5. Klasyfikacja (kontynuacja)

Metody systemowe i decyzyjne w informatyce

Metody Sztucznej Inteligencji II

Transkrypt:

ZeroR Odpowiada zawsze tak samo Decyzja to klasa większościowa ze zbioru uczącego A B X 5 T 7 T 5 T 5 F 2 7 F Tutaj jest więcej obiektów klasy T, więc klasyfikator ZeroR będzie zawsze odpowiadał T niezależnie od danyc wejściowyc Witold Andrzejewski & aweł Boiński, olitecnika oznańska, Wydział Informatyki 20/633

One rule model OneR Bardzo prosty mecanizm klasyfikacji Tworzy -dno poziomowe drzewo decyzyjne. A B X X X 5 T T F T F 7 T 5 T A 3 2 0 B 5 2 7 5 F 2 7 F A 2 B 5 7 T 3 F 0 T 2 F Witold Andrzejewski & aweł Boiński, olitecnika oznańska, Wydział Informatyki 202/633

Decision table Mecanizm klasyfikacji trocę podobny do OneR i ibk Wykorzystuje okrojone przykłady uczące do klasyfikacji A B C D E F X V 5 X 6 T X 7 Y 6 2 T C 5 X 5 3 T F 5 X 6 4 F 2 S 7 Y 7 5 F A C X 5 T 7 T 5 T 5 F 2 7 F 5 T Witold Andrzejewski & aweł Boiński, olitecnika oznańska, Wydział Informatyki 203/633

ART Skomplikowany algorytm generujący reguły decyzyjne. Witold Andrzejewski & aweł Boiński, olitecnika oznańska, Wydział Informatyki 204/633

ART 2 Wygenerowanie jednej reguły działa następująco:. Zaczynamy budowę drzewa tak jak normalnie się to robi, np. w C4.5 2. Wybieramy liść w którym zbiór przykładów ma najmniejszą entropię 3. Rekurencyjnie budujemy drzewo dalej. 4. Kiedy dany węzeł w którym się znajdujemy posiada jedynie dzieci obcinamy go stosując standardowe algorytmy obcinania węzłów drzewa. 5. owtarzamy obcinanie aż jakieś obcięcie nie zostanie wykonane. 6. Z powstałyc liści wybieramy taki, który opisuje największą liczbę przykładów i tworzymy z niego regułę. 7. Usuwamy przykłady pokryte przez utworzoną regułę ze zbioru i kontynuujemy aż pokryjemy wszystkie przykłady bądź utworzymy zadaną liczbę reguł. Witold Andrzejewski & aweł Boiński, olitecnika oznańska, Wydział Informatyki 205/633

IB 5 4 3 Y? 2 0,5 2 2,5 3 3,5 4 4,5 5 X Witold Andrzejewski & aweł Boiński, olitecnika oznańska, Wydział Informatyki 206/633

IBk/K* 5 4 3 Y? 2 0,5 2 2,5 3 3,5 4 4,5 5 X Witold Andrzejewski & aweł Boiński, olitecnika oznańska, Wydział Informatyki 207/633

Ocena jakości klasyfikacji Zbiór danyc dzielony jest na dwa podzbiory Zbiór uczący Zbiór testujący Klasyfikator budowany jest na podstawie zbioru uczącego. Zbudowany klasyfikator testowany jest na przykładac ze zbioru testującego. Wynikiem takiego testu jest macierz pomyłek. Na podstawie wartości z macierzy pomyłek oblicza się różne miary. Witold Andrzejewski & aweł Boiński, olitecnika oznańska, Wydział Informatyki 208/633

Wynik klasyfikacji Macierz pomyłek ang. confusion matrix cory wynik testu pozytywny zdrowy wynik testu negatywny cory Stan faktyczny T prawidłowa decyzja pozytywna FN błędna decyzja negatywna błąd II rodzaju zdrowy F błędna decyzja pozytywna błąd I rodzaju TN prawidłowa decyzja negatywna Razem N Razem ' N' Witold Andrzejewski & aweł Boiński, olitecnika oznańska, Wydział Informatyki 209/633

Miary oceny klasyfikatora trafność accuracy ACC = T + TN + N miara F F score, F-measure V TR F = 2 V + TR Witold Andrzejewski & aweł Boiński, olitecnika oznańska, Wydział Informatyki 20/633

Miary oceny klasyfikatora czułość sensitivity, true positive rate, recall prawdopodobieństwo, że test dla osoby corej da wynik pozytywny tzn. że jest cora TR = T = T T + FN specyficzność specificity, true negative rate prawdopodobieństwo, że test dla osoby zdrowiej da wynik negatywny tzn. że jest zdrowa SC = TN N = TN F + TN Witold Andrzejewski & aweł Boiński, olitecnika oznańska, Wydział Informatyki 2/633

Miary oceny klasyfikatora fałszywe alarmy false positive rate Jaka część osób zdrowyc została zaklasyfikowana jako osoby core? FR = F N = F F + TN = SC fałszywe odkrycia false discovery rate Jaka część spośród pozytywnyc wyników klasyfikacji jest fałszywa? FDR = F F + T = V Witold Andrzejewski & aweł Boiński, olitecnika oznańska, Wydział Informatyki 22/633

Miary oceny klasyfikatora precyzja pozytywna positive predictive value, precision Jakie jest prawdopodobieństwo, że badana osoba jest cora, jeżeli została sklasyfikowana jako cora? T V = T + F precyzja negatywna negative predictive value Jakie jest prawdopodobieństwo, że badana osoba jest zdrowa, jeżeli została sklasyfikowana jako zdrowa? NV = TN TN + FN Witold Andrzejewski & aweł Boiński, olitecnika oznańska, Wydział Informatyki 23/633

rzestrzeń ROC Witold Andrzejewski & aweł Boiński, olitecnika oznańska, Wydział Informatyki 25/633

rawdopodobieństwo warunkówe Niec Ania i Tomek grają w grę, w której każde z nic rzuca kostką. ierwsza rzuca Ania. Ten kto uzyska więcej oczek na kostce wygrywa. Jeżeli jest remis to gra jest powtarzana. Niec będą dane oznaczenia: A - Ania uzyskała 3 oczka B - Tomek uzyskał oczko C - suma oczek to 8 A? B? C? /6 /6 Witold Andrzejewski & aweł Boiński, olitecnika oznańska, Wydział Informatyki 29/633

rawdopodobieństwo warunkowe 2 Możliwyc pięć sytuacji dla C: {2,6, 3,5, 4,4, 5,3, 6,2} A i C? B i C? A i B? C = 5 6 6 = 5 36 /36 tylko sytuacja 3,5 0 /36 Jakie jest prawdopodobieństwo, że Ania wylosowała 5, jeżeli wygrała z Tomkiem? Witold Andrzejewski & aweł Boiński, olitecnika oznańska, Wydział Informatyki 220/633

rawdopodobieństwo warunkowe 3 Jakie jest prawdopodobieństwo, że Ania wylosowała 5 zdarzenie A, jeżeli wygrała z Tomkiem zdarzenie B? B=5/36 A i B=4/36, 2, 3, 4, 5, 6,, 2 2, 2 3, 2 4, 2 5, 2 6, 2, 3 2, 3 3, 3 4, 3 5, 3 6, 3, 4 2, 4 3, 4 4, 4 5, 4 6, 4, 5 2, 5 3, 5 4, 5 5, 5 6, 5, 6 2, 6 3, 6 4, 6 5, 6 6, 6 A=6/36 Ania Tomek A B = A B = A B B 4 36 5 36 = 4 5 Witold Andrzejewski & aweł Boiński, olitecnika oznańska, Wydział Informatyki 22/633

Witold Andrzejewski & aweł Boiński, olitecnika oznańska, Wydział Informatyki 222/633 Twierdzenie Bayesa D D D prawdopodobieństwo a posteriori prawdopodobieństwo a priori 0,, j i n i i n i i i D D ipoteza dane

Witold Andrzejewski & aweł Boiński, olitecnika oznańska, Wydział Informatyki 223/633 Twierdzenie Bayesa 2 rawdopodobieństwo a posteriori Szacowanie prawdopodobieństw cząstkowyc zmienne kategoryczne zmienne numeryczne...... 2 2 2 2 v a v a v a v a v a v a D n n n n T l v a T D v a i i i } : { 2 2 2 2 A A a i A i i e v a warunkowa niezależność

Idź na całość! Marilyn vos Savant Witold Andrzejewski & aweł Boiński, olitecnika oznańska, Wydział Informatyki 224/633

Idź na całość zmienić czy nie zmienić? Założenie: wybieramy na początku bramkę C samocód w bramce 2 D otwarcie bramki D3 C D = D C C D C = 3 D C = D =? Witold Andrzejewski & aweł Boiński, olitecnika oznańska, Wydział Informatyki 225/633

Idź na całość zmienić czy nie zmienić? 2 Założenie: wybieramy jako gracz na początku bramkę D otwarcie bramki D3 wybór bramki do umieszczenia samocodu bramka z samocodem 3 3 3 Bramka Bramka 2 Bramka 3 2 2 0 0 prowadzący odkrywa Bramka 2 Bramka 3 Bramka 3 Bramka 2 Bramka 2 Bramka 3 D = 3 2 + 3 + 3 0 = 6 + 3 = 2 C D = 3 2 = 3 2 = 2 3 Witold Andrzejewski & aweł Boiński, olitecnika oznańska, Wydział Informatyki 226/633

NKB w akcji Nazwa Narodziny Ssie mleko? Liczba nóg Czy lata? Gromada mysz żywe tak 4 nie ssak lew żywe tak 4 nie ssak wieloryb żywe tak 2 nie ssak kiwi jajo nie 2 nie ptak orzeł jajo nie 2 tak ptak bocian jajo nie 2 tak ptak nietoperz żywe tak 2 tak??? Witold Andrzejewski & aweł Boiński, olitecnika oznańska, Wydział Informatyki 227/633

Klasyfikatory regułowe reguły: if ten pokrycie reguły - % przykładów ze zbioru treningowego, które są pokrywane spełniają poprzednik przez regułę Jeden przykład może być pokrywany przez wiele reguł cyba, że są to reguły rozłączne Klasyfikacja nowego przypadku: Jeżeli jest pokrywany przez: jedną regułę stosujemy ją wiele reguł wybieramy regułę ustawioną najwyżej w rankingu ranking np. po pokryciu, trafności etc. lub stosujemy głosowanie może być z wagami żadną z reguł stosujemy regułę domyślną czyli bez if a wskazującą na dominującą w zbiorze klasę Witold Andrzejewski & aweł Boiński, olitecnika oznańska, Wydział Informatyki 228/633

Klasyfikatory regułowe 2 Skąd reguły? indukcja drzew i transformacja do reguł bezpośrednia indukcja reguł Algorytm maksymalnego pokrycia idea: przetwarzaj kolejne klasy decyzyjne w ramac danej klasy szukaj najlepszej reguły usuń przykłady pokrywane przez tę regułę szukaj kolejnej reguły albo zatrzymaj się brak dalszyc przykładów, zbyt słabej jakości poprzednio odkryta reguła dodaj regułę domyślną Witold Andrzejewski & aweł Boiński, olitecnika oznańska, Wydział Informatyki 229/633

RIER Repeated Incremental runing to roduce Error Reduction od ogółu do szczegółu tworzy ranking klas na podstawie rosnącej liczby przykładów Dla kolejnej klasy: przykłady z tej klasy to przykłady pozytywne przykłady z innyc klas to przykłady negatywne wszystkie przykłady dzielone na zbiór konstrukcyjny i zbiór walidacyjny old out 2/3-/3 generowanie najlepszej reguły na podstawie zbioru konstrukcyjnego przez rozszerzanie reguły z użyciem information gain przycinanie reguły z wykorzystaniem zbioru walidacyjnego, przycięta reguła może pokrywać przykłady negatywne warunek stopu wykorzystuje miarę długości kodu ile informacji potrzeba do zakodowania zbioru reguł i przykładów pozytywnyc i negatywnyc Witold Andrzejewski & aweł Boiński, olitecnika oznańska, Wydział Informatyki 230/633