Wprowadzenie do klasyfikacji

Podobne dokumenty
ZeroR. Odpowiada zawsze tak samo Decyzja to klasa większościowa ze zbioru uczącego A B X 1 5 T 1 7 T 1 5 T 1 5 F 2 7 F

Określanie ważności atrybutów. RapidMiner

TEMP BÓL WYSYPKA GARDŁO DIAGNOZA

Odkrywanie reguł asocjacyjnych. Rapid Miner

SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

9. Praktyczna ocena jakości klasyfikacji

Data Mining Wykład 4. Plan wykładu

Stan dotychczasowy. OCENA KLASYFIKACJI w diagnostyce. Metody 6/10/2013. Weryfikacja. Testowanie skuteczności metody uczenia Weryfikacja prosta

SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006

Algorytmy metaheurystyczne Wykład 11. Piotr Syga

Systemy uczące się Lab 4

Sztuczna Inteligencja w medycynie projekt (instrukcja) Bożena Kostek

Drzewa klasyfikacyjne algorytm podstawowy

Wprowadzenie do uczenia maszynowego

Metody Sztucznej Inteligencji II

WYKŁAD 6. Reguły decyzyjne

Konkurs z przedmiotu eksploracja i analiza danych: problem regresji i klasyfikacji

Eksploracja danych. KLASYFIKACJA I REGRESJA cz. 2. Wojciech Waloszek. Teresa Zawadzka.

A Zadanie

Indukowane Reguły Decyzyjne I. Wykład 8

Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych. Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS

Testowanie modeli predykcyjnych

Ćwiczenie 6 - Hurtownie danych i metody eksploracje danych. Regresja logistyczna i jej zastosowanie

Eksploracja danych OCENA KLASYFIKATORÓW. Wojciech Waloszek. Teresa Zawadzka.

Systemy uczące się wykład 2

ALGORYTM RANDOM FOREST

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017

WYKŁAD 7. Testowanie jakości modeli klasyfikacyjnych metodyka i kryteria

Metody klasyfikacji danych - część 1 p.1/24

SYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

ALGORYTMY SZTUCZNEJ INTELIGENCJI

Drzewa decyzyjne i lasy losowe

WEKA klasyfikacja z użyciem sztucznych sieci neuronowych

Metody eksploracji danych Laboratorium 2. Weka + Python + regresja

Klasyfikacja i regresja Wstęp do środowiska Weka

Klasyfikacja. Sformułowanie problemu Metody klasyfikacji Kryteria oceny metod klasyfikacji. Eksploracja danych. Klasyfikacja wykład 1

Wprowadzenie do programu RapidMiner Studio 7.6, część 4 Michał Bereta

METODY INŻYNIERII WIEDZY

WYKŁAD 11 Uczenie maszynowe drzewa decyzyjne

RILL - przyrostowy klasyfikator regułowy uczący się ze zmiennych środowisk

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

KLASYFIKACJA. Słownik języka polskiego

Klasyfikacja LDA + walidacja

Naiwny klasyfikator Bayesa brał pod uwagę jedynie najbliższe otoczenie. Lecz czym jest otoczenie? Jak je zdefiniować?

Metody eksploracji danych Laboratorium 4. Klasyfikacja dokumentów tekstowych Naiwny model Bayesa Drzewa decyzyjne

Automatyczne wyodrębnianie reguł

2. Ocena dokładności modelu klasyfikacji:

Sieci neuronowe w Statistica

Metody klasyfikacji i rozpoznawania wzorców. Najważniejsze rodzaje klasyfikatorów

Wybrane zagadnienia uczenia maszynowego. Zastosowania Informatyki w Informatyce W2 Krzysztof Krawiec

Sprawozdanie z zadania Modele predykcyjne (2)


mgr inż. Magdalena Deckert Poznań, r. Metody przyrostowego uczenia się ze strumieni danych.

Wybrane zadania przygotowujące do egzaminu z ISO- cz. 2. dr Piotr Wąsiewicz

Kompresja danych Streszczenie Studia Dzienne Wykład 10,

Projekt Sieci neuronowe

PODEJMOWANIE DECYZJI W WARUNKACH NIEPEŁNEJ INFORMACJI

Data Mining Wykład 5. Indukcja drzew decyzyjnych - Indeks Gini & Zysk informacyjny. Indeks Gini. Indeks Gini - Przykład

Elementy modelowania matematycznego

Przykład eksploracji danych o naturze statystycznej Próba 1 wartości zmiennej losowej odległość

Sztuczna inteligencja : Algorytm KNN

Wybór / ocena atrybutów na podstawie oceny jakości działania wybranego klasyfikatora.

Algorytmy klasyfikacji

Uwaga: szarych kropek po pokolorowaniu nie uwzględniaj w klasyfikowaniu kolejnych szarych.

Klasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne)

INDUKCJA DRZEW DECYZYJNYCH

Algorytm do rozpoznawania człowieka na podstawie dynamiki użycia klawiatury. Paweł Kobojek, prof. dr hab. inż. Khalid Saeed

Wprowadzenie do uczenia maszynowego

Podstawy sztucznej inteligencji

Klasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L,

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

r. Warszawa UCZENIE SIĘ MASZYN. Drzewa i lasy losowe Dokumentacja końcowa. Autor: Krzysztof Marcinek Prowadzący: Paweł Cichosz

Ćwiczenie 12. Metody eksploracji danych

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Zofia Kruczkiewicz, Algorytmu i struktury danych, Wykład 14, 1

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

WEKA klasyfikacja z użyciem sztucznych sieci neuronowych

LEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład II 2017/2018

Lekcja 5: Sieć Kohonena i sieć ART

Laboratorium 6. Indukcja drzew decyzyjnych.

INDUKCJA DRZEW DECYZYJNYCH

Sztuczna Inteligencja Projekt

Wprowadzenie. Metody bayesowskie Drzewa klasyfikacyjne i lasy losowe Sieci neuronowe SVM. Klasyfikacja. Wstęp

operacje porównania, a jeśli jest to konieczne ze względu na złe uporządkowanie porównywanych liczb zmieniamy ich kolejność, czyli przestawiamy je.

Złożoność i zagadnienia implementacyjne. Wybierz najlepszy atrybut i ustaw jako test w korzeniu. Stwórz gałąź dla każdej wartości atrybutu.

WHILE (wyrażenie) instrukcja;

Wprowadzenie. Data Science Uczenie się pod nadzorem

1. Eliminuje się ze zbioru potencjalnych zmiennych te zmienne dla których korelacja ze zmienną objaśnianą jest mniejsza od krytycznej:

PODSTAWY STATYSTYCZNEGO MODELOWANIA DANYCH. Wykład 6 Drzewa klasyfikacyjne - wprowadzenie. Reguły podziału i reguły przycinania drzew.

Asocjacyjna reprezentacja danych i wnioskowanie

Metody oceny wiedzy klasyfikacyjnej odkrytej z danych Jerzy Stefanowski Instytut Informatyki Politechnika Poznańska

Wybrane zagadnienia uczenia maszynowego

Grupowanie Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 201/633

1 Wstęp. 2 Uruchomienie programu

Inteligentne systemy przeciw atakom sieciowym

Rozkład materiału nauczania

Transkrypt:

Wprowadzenie do klasyfikacji

ZeroR Odpowiada zawsze tak samo Decyzja to klasa większościowa ze zbioru uczącego A B X 1 5 T 1 7 T 1 5 T 1 5 F 2 7 F Tutaj jest więcej obiektów klasy T, więc klasyfikator ZeroRbędzie zawsze odpowiadał Tniezależnie od danych wejściowych Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 138/633

One rulemodel (OneR) Bardzo prosty mechanizm klasyfikacji Tworzy 1-dno poziomowe drzewo decyzyjne. A B X 1 5 T 1 7 T 1 5 T 1 5 F 2 7 F T X F A 1 3 1 2 0 1 A 1 2 X T F 5 2 1 B 7 1 1 B 5 7 T 3 (1) F 1 (0) T 2 (1) F 1 (1) Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 139/633

Decisiontable Mechanizm klasyfikacji trochę podobny do OneRi ibk Wykorzystuje okrojone przykłady uczące do klasyfikacji A B C D E F X 1 V 5 X 6 1 T 1 X 7 Y 6 2 T 1 C 5 X 5 3 T 1 F 5 X 6 4 F 2 S 7 Y 7 5 F A C X 1 5 T 1 7 T 1 5 T 1 5 F 2 7 F 1 5 T Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 140/633

PART (1) Skomplikowany algorytm generujący reguły decyzyjne. Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 141/633

PART (2) Wygenerowanie jednej reguły działa następująco: 1. Zaczynamy budowę drzewa tak jak normalnie się to robi, np. w C4.5 2. Wybieramy liść w którym zbiór przykładów ma najmniejszą entropię 3. Rekurencyjnie budujemy drzewo dalej. 4. Kiedy dany węzeł w którym się znajdujemy posiada jedynie dzieci obcinamy go stosując standardowe algorytmy obcinania węzłów drzewa. 5. Powtarzamy obcinanie aż jakieś obcięcie nie zostanie wykonane. 6. Z powstałych liści wybieramy taki, który opisuje największą liczbę przykładów i tworzymy z niego regułę. 7. Usuwamy przykłady pokryte przez utworzoną regułę ze zbioru i kontynuujemy aż pokryjemy wszystkie przykłady bądź utworzymy zadaną liczbę reguł. Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 142/633

ConjuctiveRule Algorytm buduje jedną regułę. W pierwszym etapie reguła jest budowana poprzez dodawanie warunków na atrybutach i łączenie ich za pomocą AND. Ocena testu odbywa się na podstawie miary entropii. W drugim etapie reguła jest obcinana za pomocą metody Reduced Error Pruning(REP). Jeżeli przykład nie pasuje do reguły to odpowiedzią jest klasa większościowa wśród przykładów uczących nie pokrytych przez tą regułę. Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 143/633

IB1 5 4 3 Y? 2 1 0 1 1,5 2 2,5 3 3,5 4 4,5 5 X Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 144/633

IBk/K* 5 4 3 Y? 2 1 0 1 1,5 2 2,5 3 3,5 4 4,5 5 X Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 145/633

J48/C4.5 Algorytm klasyfikacji opartej o drzewa decyzyjne. Rozszerzenie algorytmu ID3 Obsługuje atrybuty nominalne i ciągłe Przycina za duże gałęzie Działa nawet dla zestawów danych z brakującymi wartościami J48 to open sourceowaimplementacja c$.5 w Wece. Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 146/633

MultilayerPerceptron Klasyfikator oparty o sieć neuronową. Składa się z wielu warstw. Wejściowej: tutaj na wejścia neuronów podaje się dane klasyfikowanego przypadku Wyjściowej: wyjścia neuronów tej wartwy zwracają wynik klasyfikacji Warstw pośrednich przekazujących wyniki pośrednie obliczeń pomiędzy sąsiednimi warstwami. Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 147/633

MultilayerPerceptron Każdy neuron jako wejście pobiera sumę wyników ze wszystkich neuronów z poprzedniej warstwy przemnożonych przez współczynniki zdefiniowane w synapsach. Jeżeli suma ta przekracza zadany próg, to wynikiem neuronu jest 1. W przeciwnym wypadku 0. Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 148/633

Ocena jakości klasyfikacji Zbiór danych dzielony jest na dwa podzbiory Zbiór uczący Zbiór testujący Klasyfikator budowany jest na podstawie zbioru uczącego. Zbudowany klasyfikator testowany jest na przykładach ze zbioru testującego. Wynikiem takiego testu jest macierz pomyłek. Na podstawie wartości z macierzy pomyłek oblicza się różne miary. Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 149/633

Macierz pomyłek Zaklasyfikowano jako: NIESTRAWNOŚĆ ALERGIA PRZECHŁODZENIE CZARNA OSPA NIESTRAWNOŚĆ 334 99 1 20 Faktyczna klasa: ALERGIA 13 234 23 100 PRZECHŁODZENIE 5 21 315 91 CZARNA OSPA 12 10 25 153 Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 150/633

Miary jakości klasyfikacji Alergia: Zaklasyfikowano jako: Faktyczna klasa: ALERGIA NIE ALERGIA ALERGIA TP 234 FN 136 NIE ALERGIA FP 130 TN 802 precision = + TP TP FP tp rate = recall recall = + TP TP FN (sensitivity) fp rate = + FP FP TN 2* precision* recall F measure = precision+ recall specificit y = + TN TN FP Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 151/633

Przestrzeń ROC Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 152/633

Krzywa ROC Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 153/633

Jak podzielić zbiór danych? Często 2/3 zbiór uczący, 1/3 zbiór testujący Uwaga! Istotne rekordy pozwalające na budowę dobrego klasyfikatora mogą zostać usunięte ze zbioru uczącego. Aby zatem uzyskać ocenę algorytmu klasyfikacji i jego parametrów, do danej dziedziny zastosowań stosujemy tzw. walidację skrośną albo n-fold crossvalidation. Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 154/633

Walidacja skrośna (1) Dane D 1 D 2 D 3 D 4 D 5 D 6 D 7 D 8 D 9 D 10 1. 2. 3. 4. 5. T 1 D 2 D 3 D 4 D 5 D 6 D 7 D 8 D 9 D 10 D 1 T 2 D 3 D 4 D 5 D 6 D 7 D 8 D 9 D 10 D 1 D 2 T 3 D 4 D 5 D 6 D 7 D 8 D 9 D 10 D 1 D 2 D 3 T 4 D 5 D 6 D 7 D 8 D 9 D 10 D 1 D 2 D 3 D 4 T 5 D 6 D 7 D 8 D 9 D 10... Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 155/633

Walidacja skrośna (2) Cały zbiór danych, który posiadamy dzielony jest na n części (najczęściej 10). Następnie poniższa procedura wykonywana jest n razy: 1. Weźk-tączęśćiuznajjązazbiórtestujący 2. Weźpozostałeczęściiuznajjejakozbióruczący 3. Zbuduj klasyfikator na podstawie zbioru uczącego 4. Sprawdź działanie klasyfikatora na zbiorze testującym 5. Wyniki testowania umieść w macierzy pomyłek (zwiększ odpowiednie wartości z poprzedniej iteracji). Po przeprowadzeniu testów wyliczane są pozostałe miary jakości klasyfikacji na podstawie macierzy pomyłek. Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 156/633

Leaveone out Specjalny przypadek crosswalidacji Zbiór testowy składa się tylko z jednego przypadku. Odpowiada crosswalidacjidla k=liczba przykładow. Stosowany w sytuacjach, kiedy zbiór danych jest mały. Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 157/633

Ćwiczenie (weka) Pobierz pliki: weather.nominal.arff, car.arffi zoo.arff, labor.arff, vote.arff, iris.arffi spam.arff. Przeczytaj opisy tych plików w Opisy zestawów danych. Postępuj zgodnie z poleceniami pod linkiem ocena jakosci.pdf Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 158/633

Ocena klasyfikatorów w RapidMiner Jaka część przykładów ma być zbiorem uczącym Na ile części dzielimy przykłady do crosswalidacji Czy wykonujemy walidację leaveone out? Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 159/633

Ocena klasyfikatorów w RapidMiner Tu wstawiamy badany klasyfikator Tu wstawiamy zawsze komponent apply model Tu wstawiamy komponent performance(classifi cation) Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 160/633

Ćwiczenie 1 (rapidminer) Zbuduj przepływ testujący klasyfikator Decision Tree (podobny do C4.5). Do testowania wykorzystaj metodę crosswalidacji. Jako dane wejściowe wykorzystaj zbiór danych sonar, w którym każdy atrybut liczbowy został zdyskretyzowanyprzez podział na 5 binów. Porównaj jak sobie radzi ten klasyfikator do klasyfikatorów Single Rule, ID3, NaiveBayes i K-NN (dla k=1 i 10) (k-nn to to samo co IBx). Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 161/633

Ćwiczenie 2 (rapidminer) Jako dataset wybierz golf Atrybuty liczbowe zdyskretyzuj na 3 biny każdy Użyj metody crosswalidacji(10 foldów) do oceny jakości klasyfikatora Decision Tree. Dlaczego wyniki są takie złe? Użyj metody leaveone out. Czy teraz lepiej? Dlaczego? Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 162/633