WYKŁAD 7. Testowanie jakości modeli klasyfikacyjnych metodyka i kryteria

Podobne dokumenty
9. Praktyczna ocena jakości klasyfikacji

Sztuczna Inteligencja w medycynie projekt (instrukcja) Bożena Kostek

Data Mining Wykład 4. Plan wykładu

Stan dotychczasowy. OCENA KLASYFIKACJI w diagnostyce. Metody 6/10/2013. Weryfikacja. Testowanie skuteczności metody uczenia Weryfikacja prosta

Indukowane Reguły Decyzyjne I. Wykład 8

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017

Jakość uczenia i generalizacja

Systemy uczące się wykład 2

Ocena dokładności diagnozy

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład II 2017/2018

ZeroR. Odpowiada zawsze tak samo Decyzja to klasa większościowa ze zbioru uczącego A B X 1 5 T 1 7 T 1 5 T 1 5 F 2 7 F

Testowanie modeli predykcyjnych

Wstęp do sieci neuronowych, wykład 09, Walidacja jakości uczenia. Metody statystyczne.

Wprowadzenie do uczenia maszynowego

Wstęp do sieci neuronowych, wykład 13-14, Walidacja jakości uczenia. Metody statystyczne.

ALGORYTM RANDOM FOREST

Naiwny klasyfikator Bayesa brał pod uwagę jedynie najbliższe otoczenie. Lecz czym jest otoczenie? Jak je zdefiniować?


METODY INŻYNIERII WIEDZY

Wprowadzenie do klasyfikacji

PODSTAWY STATYSTYCZNEJ ANALIZY DANYCH. Wykład 5 Kwadratowa analiza dyskryminacyjna QDA. Metody klasyfikacji oparte na rozkładach prawdopodobieństwa.

Krzywe ROC i inne techniki oceny jakości klasyfikatorów

WYKŁAD 6. Reguły decyzyjne

Rozpoznawanie obrazów

Jakość procedury klasyfikacyjnej:

KRZYWE ROC, CZYLI OCENA JAKOŚCI KLASYFIKATORA I POSZUKIWANIE OPTYMALNEGO PUNKTU ODCIĘCIA

Metody klasyfikacji danych - część 1 p.1/24

Metody oceny wiedzy klasyfikacyjnej odkrytej z danych Jerzy Stefanowski Instytut Informatyki Politechnika Poznańska

Eksploracja danych OCENA KLASYFIKATORÓW. Wojciech Waloszek. Teresa Zawadzka.

ALGORYTMY SZTUCZNEJ INTELIGENCJI

Klasyfikacja LDA + walidacja

Wprowadzenie do uczenia maszynowego

Projekt Sieci neuronowe

WYKŁAD 2. Problem regresji - modele liniowe

Algorytm do rozpoznawania człowieka na podstawie dynamiki użycia klawiatury. Paweł Kobojek, prof. dr hab. inż. Khalid Saeed

Zastosowanie teorii detekcji sygnałów do analizy rzetelności systemu obserwacyjnego ARGOS Michał Modzelewski Jolanta Pisarek

Elementy modelowania matematycznego

Metody systemowe i decyzyjne w informatyce

Modelowanie interakcji helis transmembranowych

Stanisław Cichocki. Natalia Nehrebecka

2. Ocena dokładności modelu klasyfikacji:

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Klasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L,

Przykładowa analiza danych

WEKA klasyfikacja z użyciem sztucznych sieci neuronowych

OCENA KLASYFIKACYJNYCH MODELI DATA MINING (wybrane miary oceny algorytmów uczenia maszynowego)

ROZPOZNAWANIE SYGNAŁÓW FONICZNYCH

Barycentryczny układ współrzędnych

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Matlab podstawy + testowanie dokładności modeli inteligencji obliczeniowej

Agnieszka Nowak Brzezińska Wykład III

Wprowadzenie. Data Science Uczenie się pod nadzorem

Priorytetyzacja przypadków testowych za pomocą macierzy

Popularne klasyfikatory w pakietach komputerowych

ZESPOŁY KLASYFIKATORÓW SVM DLA DANYCH NIEZBALAN-

Metody Odkrywania Wiedzy 12L Temat analityczny: Detekcja wczesnych stadiów raka piersi Dokumentacja projektu

Statystyczna analiza Danych

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

WEKA klasyfikacja z użyciem sztucznych sieci neuronowych

Sieci neuronowe w Statistica

Metody systemowe i decyzyjne w informatyce

Metody eksploracji danych 4. Klasyfikacja

8. Drzewa decyzyjne, bagging, boosting i lasy losowe

Laboratorium 4. Naiwny klasyfikator Bayesa.

Regresja logistyczna

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Zaawansowana eksploracja danych: Metody oceny wiedzy klasyfikacyjnej odkrytej z danych Jerzy Stefanowski Instytut Informatyki Politechnika Poznańska

KATEDRA SYSTEMÓW MULTIMEDIALNYCH. Inteligentne systemy decyzyjne. Ćwiczenie nr 12:

ESTYMACJA BŁĘDU PREDYKCJI I JEJ ZASTOSOWANIA

Identyfikacja istotnych atrybutów za pomocą Baysowskich miar konfirmacji

Laboratorium 6. Indukcja drzew decyzyjnych.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Grupowanie stron WWW. Funkcje oceniające.

BADANIE JAKOŚCI PREDYKCYJNEJ SEGMENTACJI RYNKU

QualitySpy moduł persystencji

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Drzewa Decyzyjne, cz.2

PODSTAWY STATYSTYCZNEGO MODELOWANIA DANYCH. Wykład 6 Drzewa klasyfikacyjne - wprowadzenie. Reguły podziału i reguły przycinania drzew.

Agnieszka Nowak Brzezińska Wykład III

A Zadanie

Metody systemowe i decyzyjne w informatyce

Rozpoznawanie obrazów

Weryfikacja hipotez statystycznych

Laboratorium 5. Adaptatywna sieć Bayesa.

Metody systemowe i decyzyjne w informatyce

Stanisław Cichocki. Natalia Nehrebecka

Rozpoznawanie obrazów

Odczarowujemy modele predykcyjne Teoria i Praktyka

Uwaga: szarych kropek po pokolorowaniu nie uwzględniaj w klasyfikowaniu kolejnych szarych.

Część II. Zadanie 3.2. (0 3)

P R Z E T W A R Z A N I E S Y G N A Ł Ó W B I O M E T R Y C Z N Y C H

PRZEDMIOTOWY SYSTEM OCENIANIA GEOGRAFIA 2017/2018

Zastosowanie rozmytych map kognitywnych do badania scenariuszy rozwoju jednostek naukowo-dydaktycznych

2. Empiryczna wersja klasyfikatora bayesowskiego

Prawdopodobieństwo czerwonych = = 0.33

Wprowadzenie. Metody bayesowskie Drzewa klasyfikacyjne i lasy losowe Sieci neuronowe SVM. Klasyfikacja. Wstęp

Podstawowe modele probabilistyczne

PODSTAWY STATYSTYCZNEJ ANALIZY DANYCH

PROJEKT Z BAZ DANYCH

Transkrypt:

Wrocław University of Technology WYKŁAD 7 Testowanie jakości modeli klasyfikacyjnych metodyka i kryteria autor: Maciej Zięba Politechnika Wrocławska

Testowanie modeli klasyfikacyjnych Dobór odpowiedniego kryterium: poprawność klasyfikacji nie zawsze jest wystarczającym kryterium; Konieczność stosowania pomocniczych kryteriów; Dobór odpowiedniej techniki testowania: nie można stosować do uczenia i testowania jakości tych samych danych; Zależy od liczności i stopnia skomplikowania danych którymi dysponujemy; 2/13

Poprawność klasyfikacji Poprawność klasyfikacji definiuje się następująco: Acc = 1 N N I(h(x n ) = y n ) Dla przykładu mamy więc: Acc = 6 10 Rzeczywista Predykowana ID Wartość Wartość Klasy Klasy 1 1 1 2 2 2 3 2 3 4 1 2 5 1 1 6 1 3 7 3 3 8 2 2 9 3 1 10 3 3 3/13

NALEŻY DO KLASY Macierz konfuzji Bardzo pomocnym narzędziem do oceny jakości modelu klasyfikacyjnego jest tzw. macierz konfuzji. Elementy macierzy definiuje następująco: n i,j = N I(y n = i) I(h(x n = j)) Macierz dostarcza pełnej wiedzy odnośnie testowania. ura macierzy konfuzji. KLASYFIKOWANY JAKO 1 2 C n 1,1 n 1,2 n 1,C 1 n 2,1 n 2,2 n 2,C 2 n C,1 n C,2 n C,C C 4/13

NALEŻY DO KLASY Macierz konfuzji Spośród 3 obiektów należących do klasy 3, dwa zostały zaklasyfikow klasy 3, a jeden błędnie do klasy 1 (trzeci wiersz). Na bazie macierzy konfuzji łatwo jest policzyć poprawność klasyfikacji za sumując wartości na przekątnej (poprawne klasyfikacje) i dzieląc przez nawykiem jest uczenie modelu klasyfikatora i testowanie go na tym samym elementów macierzy (wszystkie klasyfikacje). Dla rozpatrywanego przyk Rzeczywista Predykowana klasyfikacji wynosi 0.6. ID Wartość Wartość Klasy Klasy Macierz konfuzji dla przykładu: 1 1 Tabela 4 Uzupełniona tabela konfuzji na podstawie przykładowego zestawienia z Tabeli Tabela 3. 1 2 2 2 KLASYFIKOWANY JAKO 3 2 3 1 2 3 4 1 2 2 1 1 1 5 1 1 0 2 1 2 6 1 3 1 0 2 3 7 3 3 8 2 2 Kluczowym elementem w testowaniu jakości klasyfikatora jest to, jakie o 9 3 1 10 3 wybrać do 3 uczenia, a jakie powinny zostać wyselekcjonowane do testowa Jednym z głównych problemów klasyfikacji jest problem zbytniego dopasow uczącego (ang. overfitting). W praktyce oznacza to, że uczony mode 5/13

Zadanie Rzeczywista Predykowana ID Wartość Wartość Klasy Klasy 1 0 1 2 0 1 3 1 2 4 1 1 5 0 0 6 2 2 7 1 2 8 1 1 9 1 1 10 2 2 11 0 0 12 2 1 13 2 2 14 0 1 15 1 0 Dla podanych danych: wyznacz poprawność klasyfikacji; wyznacz macierz konfuzji; 6/13

TP Macierz konfuzji dla dwóch TP rate = klas TP + FN. (1.19) Zaklasyfikowany Zaklasyfikowany do klasy pozytywnej do klasy negatywnej Należy do TP FN klasy pozytywnej (True positive) (False negative) Należy do FP TN klasy negatywnej (False positive) (True negative) Tabela 1.1: Macierz konfuzji dla dychotomicznego zadania klasyfikacji. TP (ang. true positive) - liczba obiektów z klasy pozytywnej poprawnie klasyfikowanych jako obiekty z klasy pozytywnej; Wartości TP (ang. true positive), FN (ang. false negative), FP (ang. false positive), TN (ang. true negative), stanowią elementy macierzy konfuzji (ang. confusion matrix, Tabela 1.1). Macierz konfuzji, nazywana również macierzą kontyngencji, określa, w jaki sposób TN (ang. true negative) - liczba obiektów z klasy negatywnej siępoprawnie w następujący sposób: klasyfikowanych jako obiekty z klasy negatywnej; klasyfikowane były obiekty z poszczególnych klas. Poszczególne pozycje macierzy definiuje TP = I(Ô(x n )=+1)I(y n =+1), (1.20) FP (ang. false positive) - liczba obiektów z klasy negatywnej błędnie klasyfikowanych jako obiekty z klasy pozytywnej; FN = FN (ang. false negative) - liczba obiektów z klasy pozytywnej I(Ô(x n )= 1) I(y n =+1), (1.21) błędnie klasyfikowanych jako obiekty z klasy negatywnej; FP = I(Ô(x n )=+1)I(y n = 1), (1.22) 7/13

Wskaźniki do oceny jakości ROZDZIAŁ klasyfikacji 1. WSTĘP dla dwóch klas poprawność klasyfikacji: T P + T N Acc = T P + T N + F P + F N gdzie TNrate oznacza wskaźnik specyficzności (znamienności, ang. specificity), nazyw również wskaźnikiem TN (ang. TN rate), i definiuje się go w następujący sposób: TN TNrate = TN + FP, (1 natomiast TPrate nazywany jest w literaturze wskaźnikiem czułości (ang. sensitivity), b też wskaźnikiem TP (ang. TP rate), i wyrażony jest wzorem: TP TPrate = TP + FN. (1 Czułość (wrażliwość): T P rate = Specyficzność: T N rate = T P T P + F N T N T N + F P Wartości TP (ang. true positive), FN (ang. false negative), FP (ang. false positive), (ang. true negative), stanowią elementy macierzy konfuzji (ang. confusion matrix, Ta 1.1). Macierz konfuzji, nazywana również macierzą kontyngencji, określa, w jaki spo klasyfikowane były obiekty z poszczególnych klas. Poszczególne pozycje macierzy defin Zaklasyfikowany Zaklasyfikowany do klasy pozytywnej do klasy negatywnej Należy do TP FN klasy pozytywnej (True positive) (False negative) Należy do FP TN klasy negatywnej (False positive) (True negative) Tabela 1.1: Macierz konfuzji dla dychotomicznego zadania klasyfikacji. się w następujący sposób: TP = I(Ô(xn) =+1)I(yn =+1), (1 FN = I(Ô(xn) = 1) I(yn =+1), (1 8/13

Wskaźniki do oceny jakości ROZDZIAŁ klasyfikacji 1. WSTĘP dla dwóch klas błąd I rodzaju: F P rate = błąd II rodzaju: F N rate = F P F P + T N F N F N + T P gdzie TNrate oznacza wskaźnik specyficzności (znamienności, ang. specificity), nazywa natomiast TPrate nazywany jest w literaturze wskaźnikiem czułości (ang. sensitivity), b również wskaźnikiem TN (ang. TN rate), i definiuje się go w następujący sposób: TN TNrate = TN + FP, (1. też wskaźnikiem TP (ang. TP rate), i wyrażony jest wzorem: TP TPrate = TP + FN. (1. Zaklasyfikowany Zaklasyfikowany do klasy pozytywnej do klasy negatywnej Należy do TP FN klasy pozytywnej (True positive) (False negative) Należy do FP TN klasy negatywnej (False positive) (True negative) Tabela 1.1: Macierz konfuzji dla dychotomicznego zadania klasyfikacji. GMean: GMean = T P rate T N rate Wartości TP (ang. true positive), FN (ang. false negative), FP (ang. false positive), T (ang. true negative), stanowią elementy macierzy konfuzji (ang. confusion matrix, Tab 1.1). Macierz konfuzji, nazywana również macierzą kontyngencji, określa, w jaki spo klasyfikowane były obiekty z poszczególnych klas. Poszczególne pozycje macierzy defini się w następujący sposób: TP = I(Ô(xn) =+1)I(yn =+1), (1. FN = I(Ô(xn) = 1) I(yn =+1), (1. 9/13

Krzywa ROC i wskaźnik AUC Krzywa ROC obrazuje zależność pomiędzy wskaźnikami T P rate i F P rate. Bardzo ważnym wskaźnikiem do oceny klasyfikatorów jest AUC. Posiada on interpretację pola pod krzywą ROC. Okazuje się, że da się ją wyznaczyć ze wzoru: AUC = 1 2 (T P rate + T N rate ) 10/13

Krzywa ROC i wskaźnik AUC Rzeczywista Predykowana ID Wartość Wartość Klasy Klasy 1 0 1 2 0 1 3 1 1 4 1 1 5 0 0 6 1 1 7 0 1 8 1 1 9 1 1 10 0 0 11 0 0 12 1 1 13 1 1 14 0 1 15 1 0 Dla rozpatrywanych danych wyznacz: Acc; T P rate ; T N rate ; F P rate ; F N rate ; AUC; GMean; 11/13

Metodyka oceny jakości modeli klasyfikacyjnych Podział procentowy: Zakładamy, że pewien procent obserwacji przeznaczymy na testowanie; Losujemy obserwacje bez zwracania aby osiągnąć pożądany procent obserwacji; Model uczymy na pozostałych obserwacjach; Oceniamy jakość modelu na wylosowanych danych; Walidacja krzyżowa. Procedura leave-one-out: Szczególny przypadek walidacji krzyżowej z podziałem na tyle podzbiorów, ile jest obserwacji; 12/13

zbiorze sk adajπcym sií N 1czÍúci i przetestowaniu go na N-tej, nie wykor Íúci. Walidacja Istotπ tej metodyki krzyżowa testowania jest to, øe wkaødym kroku proces testowa j czíúci zbioru, a kaøda obserwacja ze zbioru bídzie dok adnie raz przetestowana Przyk ad dzia ania metody walidacji krzyøowej (dla 4 foldów) obrazuje rysunek wszym kroku () klasyfikator jest uczony z wykorzystaniem elementów 1,2,3 estowanie odbywa sií na elemencie 4 (kolor czerwony). W nastípnym kroku brany jest zbiór, który nie by jeszcze testowany, przyk adowo ten o indeksie 3 13/13