Kombinacja jądrowych estymatorów gęstości w klasyfikacji wstępne wyniki

Podobne dokumenty
Kombinacja jądrowych estymatorów gęstości w klasyfikacji kontynuacja prac

Kombinacja jądrowych estymatorów gęstości w klasyfikacji - zastosowanie na sztucznym zbiorze danych

Kombinacja jądrowych estymatorów gęstości w klasyfikacji - testy na sztucznych danych

Mateusz Kobos Seminarium z Metod Inteligencji Obliczeniowej, MiNI PW

Kombinacja jądrowych estymatorów gęstości w klasyfikacji - przegląd literatury

Elementy modelowania matematycznego

Jakość uczenia i generalizacja

Testowanie modeli predykcyjnych

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16

2. Empiryczna wersja klasyfikatora bayesowskiego

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Analiza wariancji - ANOVA

9. Praktyczna ocena jakości klasyfikacji

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

Metody klasyfikacji i rozpoznawania wzorców. Najważniejsze rodzaje klasyfikatorów

Wprowadzenie do analizy korelacji i regresji

Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych

Klasyfikacja i regresja Wstęp do środowiska Weka

Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner

Wybór / ocena atrybutów na podstawie oceny jakości działania wybranego klasyfikatora.

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Wybór modelu i ocena jakości klasyfikatora

Przewidywanie cen akcji z wykorzystaniem artykułów prasowych

Idea. θ = θ 0, Hipoteza statystyczna Obszary krytyczne Błąd pierwszego i drugiego rodzaju p-wartość

SZTUCZNA INTELIGENCJA

Ćwiczenie 6 - Hurtownie danych i metody eksploracje danych. Regresja logistyczna i jej zastosowanie

LEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów

STATYSTYKA MATEMATYCZNA WYKŁAD 4. Testowanie hipotez Estymacja parametrów

Metody oceny podobieństwa

Tablica Wzorów Rachunek Prawdopodobieństwa i Statystyki

Metody systemowe i decyzyjne w informatyce

Mail: Pokój 214, II piętro

Klasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L,

Regresja nieparametryczna series estimator

Statystyka matematyczna Testowanie hipotez i estymacja parametrów. Wrocław, r

Metody klasyfikacji danych - część 1 p.1/24

Monitorowanie i Diagnostyka w Systemach Sterowania na studiach II stopnia specjalności: Systemy Sterowania i Podejmowania Decyzji

Modelowanie glikemii w procesie insulinoterapii

Laboratorium 4. Naiwny klasyfikator Bayesa.

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

ALGORYTM RANDOM FOREST

Agnieszka Nowak Brzezińska Wykład III

Algorytmy klasyfikacji

Eksploracja danych OCENA KLASYFIKATORÓW. Wojciech Waloszek. Teresa Zawadzka.

Agnieszka Nowak Brzezińska Wykład III

Machine learning Lecture 5

Stanisław Cichocki Natalia Nehrebecka. Wykład 7

Uczenie sieci typu MLP

Selekcja modelu liniowego i predykcja metodami losowych podprzestrzeni

Mikroekonometria 5. Mikołaj Czajkowski Wiktor Budziński

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład II 2017/2018

Co to jest grupowanie

Klasyfikacja LDA + walidacja

10. Redukcja wymiaru - metoda PCA

Metody eksploracji danych Laboratorium 2. Weka + Python + regresja

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Testowanie hipotez statystycznych

Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych. Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS

Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji

VI WYKŁAD STATYSTYKA. 9/04/2014 B8 sala 0.10B Godz. 15:15

Laboratorium 11. Regresja SVM.

Wprowadzenie. Data Science Uczenie się pod nadzorem

Wstęp do metod numerycznych Zadania numeryczne 2016/17 1

Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej. Adam Żychowski

PODSTAWY STATYSTYCZNEJ ANALIZY DANYCH. Wykład 5 Kwadratowa analiza dyskryminacyjna QDA. Metody klasyfikacji oparte na rozkładach prawdopodobieństwa.

Optymalizacja ciągła

METODY INŻYNIERII WIEDZY

STATYSTYKA MATEMATYCZNA

Prawdopodobieństwo czerwonych = = 0.33

Kolokwium ze statystyki matematycznej

Stanisław Cichocki Natalia Nehrebecka. Zajęcia 8

Klasyfikacja publikacji biomedycznych w konkursie JRS 2012 Data Mining Competition - Szkic koncepcji

METODY NUMERYCZNE. Wykład 4. Numeryczne rozwiązywanie równań nieliniowych z jedną niewiadomą. prof. dr hab.inż. Katarzyna Zakrzewska

Wstęp do sieci neuronowych, wykład 09, Walidacja jakości uczenia. Metody statystyczne.

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017

Automatyczne rozpoznawanie mowy - wybrane zagadnienia / Ryszard Makowski. Wrocław, Spis treści

Sprawozdanie z zadania Modele predykcyjne (2)

Zastosowanie Excela w obliczeniach inżynierskich.

Wykład 9. Terminologia i jej znaczenie. Cenzurowanie wyników pomiarów.

Dobór parametrów algorytmu ewolucyjnego

7. Maszyny wektorów podpierajacych SVMs

WYKŁAD 9 METODY ZMIENNEJ METRYKI

Metody selekcji cech

W4 Eksperyment niezawodnościowy

Konferencja Statystyka Matematyczna Wisła 2013

NOWY PROGRAM STUDIÓW 2016/2017 SYLABUS PRZEDMIOTU AUTORSKIEGO: Wprowadzenie do teorii ekonometrii. Część A

Modelowanie rynków finansowych z wykorzystaniem pakietu R

Seminarium IO. Zastosowanie metody PSO w Dynamic Vehicle Routing Problem (kontynuacja) Michał Okulewicz

Optymalizacja systemów

Algorytm grupowania danych typu kwantyzacji wektorów

Konkurs z przedmiotu eksploracja i analiza danych: problem regresji i klasyfikacji

Zadania ze statystyki, cz.7 - hipotezy statystyczne, błąd standardowy, testowanie hipotez statystycznych

MOŻLIWOŚCI ZASTOSOWANIA METOD WTÓRNEGO PRÓBKOWANIA DO WERYFIKACJI EFEKTYWNOŚCI INWESTYCJI PORTFELOWYCH

Metoda cyfrowej korelacji obrazu w badaniach geosyntetyków i innych materiałów drogowych

ESTYMACJA BŁĘDU PREDYKCJI I JEJ ZASTOSOWANIA

Identyfikacja istotnych atrybutów za pomocą Baysowskich miar konfirmacji

Stan dotychczasowy. OCENA KLASYFIKACJI w diagnostyce. Metody 6/10/2013. Weryfikacja. Testowanie skuteczności metody uczenia Weryfikacja prosta

Konstrukcja biortogonalnych baz dyskryminacyjnych dla problemu klasyfikacji sygnałów. Wit Jakuczun

Fuzja sygnałów i filtry bayesowskie

Transkrypt:

Kombinacja jądrowych estymatorów gęstości w klasyfikacji wstępne wyniki Mateusz Kobos, 10.12.2008 Seminarium Metody Inteligencji Obliczeniowej 1/46

Spis treści Działanie algorytmu Uczenie Odtwarzanie/klasyfikacja Wygląd funkcji błędu Zalety i wady algorytmu Testy 2/46

Działanie algorytmu 1.Uczenie na zbiorze uczącym: stwórz estymator gęstości dla każdej z klas 2.Odtwarzanie/klasyfikacja punktu testowego: oblicz prawd. przynależności do każdej z klas za pomocą wzoru Bayes'a 3/46

Jądra Dokonujemy estymacji jądrowej dla różnych szerokości jądra i uśredniamy 4/46

Jądra a preprocessing Jeśli punkty poddaliśmy preprocessingowi, to jest to równoważne zmianie kształtu jąder (które oryginalnie są kulami) Standardyzacja PCA Elipsoida o osiach równoległych do osi układu współrzędnych Elipsoida Dzięki temu (teoretycznie) możemy lepiej dopasować model do danych 5/46

Estymacja gęstości Estymacje gęstości dla różnych szerokości jąder 6/46

Wzór Bayesa Gdy mamy estymacje gęstości dla każdej z klas, korzystamy ze wzoru Bayesa 7/46

Uczenie Uczenie/dopasowywanie modelu do zbioru uczącego X 8/46

Obliczanie przedziału h Metoda opisana w [Ghosh06]: Badamy rozkład odległości w zbiorze danych h_max = odległość między dwoma najbardziej oddalonymi punktami h_min = 1/3 odległości między najbliższymi punktami, a jeśli to jest =0, to 1/3 pierwszego percentyla odległości między punktami Metoda stosowana w KDEC: h_max = jw. h_min = jw. tylko, że zamiast 1/3 stosuję wielkość zależną od przedziału, w którym znajduje się większość masy prawd. jądra 9/46

Optymalizacja błędu h values 12 10 h value 8 h0 h1 h2 h3 h4 h5 h6 h7 6 4 2 Chcemy dobrać odpowiednią szybkość (parametr a) zmniejszania się jąder w sensownym przedziale szerokości jąder (h_min, h_max) 0 0 0.1 0.2 0.3 0.4 0.5 a 0.6 0.7 0.8 0.9 1 10/46

Optymalizacja błędu Optymalizujemy błąd, który dla danego a obliczany za pomocą 10-fold cross-validation (używanie zbiorów walidujących jest konieczne ze względu na budowę algorytmu) Wzór dla jednego fold-a : 11/46

Błąd dla estymacji z 10 estymatorami dla różnych zbiorów danych 12/46

Wygląd funkcji błędu 13/46

14/46

15/46

16/46

17/46

18/46

19/46

20/46

21/46

22/46

Błąd estymacji z 10 estymatorami oddzielne a dla każdej z klas (z przedziałami h dopasowywanymi dla każdej z klas oddzielnie oraz wspólnie) 23/46

24/46

25/46

26/46

27/46

28/46

Zalety i wady algorytmu Zalety Spojrzenie na dane z różnych odległości Klasyfikacja z wieloma klasami Zwraca bezpośrednio prawdopodobieństwa przynależności punktu testowego do każdej z klas Wady Powolna klasyfikacja - wymaga iteracji po wszystkich elementach ze zbioru uczącego Nie jest tworzony żaden model danych Działa tylko na zbiorach danych z atrybutami numerycznymi 29/46

Testy Zbiory danych: Sposób testowania: Źródło: z literatury w wersji używanej w jednym z 2 artykułów ([Lim00], [Ghosh06]) Holdout: zbiór ze zdefiniowanym zbiorem testowym: 10 powtórzeń i uśrednienie Cv: Bez zdefiniowanego zbioru testowego: 10 x 10-fold cross-validation Wersja algorytmu: Transformacja: standardyzacja Co optymalizujemy: parametr a (taki sam dla każdej klasy) 30/46

Testy - wyniki Dataset name Boston housing BUPA liver disorders Glass Glass reduced iris PIMA indians diabetes StatLog vehicle silhouettes ripleys synthetic sonar averaged StatLog satellite image test type cv cv cv cv cv cv cv holdout holdout holdout source [Lim00] [Lim00] Dataset name Boston housing BUPA liver disorders Glass Glass reduced iris PIMA indians diabetes StatLog vehicle silhouettes ripleys synthetic sonar averaged StatLog satellite image 10 estimators 1 estimator MSE opt errorquantile inaccuracy opt error quantile MSE opt errorinaccuracy opt error 0.2352 0.122 0.2441 0.3211 0.2328 0.2414 0.3573 0.761 0.3637 0.7713 0.4105 0.3803 0.3146 0.3124 0.3197 0.3217 0.2859 0.036 0.2515 0.2608 0.2604 lit. Min:0.285 0.0513 0.0520 0.0540 0.0573 0.2582 0.907 0.2588 0.9094 0.2529 0.2562 0.2881 0.622 0.2938 0.6415 0.2882 0.2933 0.0967 0.643 0.1026 0.8875 0.1003 0.1165 B. min: 0.08 0.2106 0.931 0.1952 0.6649 0.1981 0.1962 0.0965 0.0965 lit. Min:0.098 [Ghosh06] [Lim00] [Lim00] [Ghosh06] [Ghosh06] [Lim00] classes attributes 3 2 6 6 3 2 4 2 2 6 instances 13 6 9 5 4 7 18 2 20 36 506 345 214 214 150 532 846 1250 208 6435 31/46

Testy - spostrzeżenia Generalnie wyniki są poniżej średniej w porównaniu z innymi klasyfikatorami (kolor czerwony) Dla 2 zbiorów udało się uzyskać wyniki (trochę) lepsze niż te literaturowe MSE jest dobrym przybliżeniem błędu klasyfikacji Wyniki dla liczby jąder =10 są podobne do dla jednego jądra ale trochę lepsze (chociaż nieznacznie) a nauka dla 10 jąder trwa 10-krotnie dłużej! 32/46

Testy - uwagi Dziwne wyniki dla zbioru StatLog satellite image (dokładnie taki sam błąd inaccuracy za każdym razem (różnice w błędzie MSE też bliskie 0)) Zła postać funkcji błędu dla estymacji z 1 estymatorem: Minimum zazwyczaj na brzegu przedziału Na dużej części przedziału funkcja jest płaska 33/46

Błąd dla estymacji z 1 estymatorem dla różnych zbiorów danych 34/46

35/46

36/46

37/46

38/46

39/46

40/46

41/46

42/46

Co należy zrobić Zastosować metody optymalizacyjne Lepsze określanie przedziału h Rozwiązać problem z jednym ze zbiorów (breast_cancer) zbyt duża liczba przykładów o tych samych współrzędnych? Sprawdzić: Preprocessing: PCA Sprawdzić wersję ze stratified cross-validation Inna liczba estymacji 43/46

Pomysły/modyfikacje Średnie zmiany Używać innej funkcji zmniejszania się jąder Używać innego jądra (np. p-gaussian) B. duże zmiany Dopasowywać wielkość/kształt jądra w zależności od położenia w przestrzeni 44/46

Literatura [Lim00] Tjen-Sien Lin, Wei-Yin Loh, A Comparison of Prediction Accuracy, Complexity, and Training Time of Thirty-Three Old and New Classification Algorithms, Machine Learning, 2000 [Ghosh06] Anil K. Ghosh, Probal Chaudhuri, and Debasis Sengupta, Classification Using Kernel Density Estimates: Multi-scale Analysis and Visualization, Technometrics, 2006 45/46

Dziękuję za uwagę! 46/46