Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner

Podobne dokumenty
PROBLEM ELIMINACJI NIEPRZYSTAJĄCYCH OBIEKTÓW W ZADANIU ROZPOZNAWANIA WZORCA

8. Drzewa decyzyjne, bagging, boosting i lasy losowe

Rozmyte drzewa decyzyjne. Łukasz Ryniewicz Metody inteligencji obliczeniowej

Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej. Adam Żychowski

Maszyny wektorów podpierajacych w regresji rangowej

7. Maszyny wektorów podpierajacych SVMs

UCZENIE MASZYNOWE III - SVM. mgr inż. Adam Kupryjanow

Budowa modeli klasyfikacyjnych o skośnych warunkach

Konstrukcja biortogonalnych baz dyskryminacyjnych dla problemu klasyfikacji sygnałów. Wit Jakuczun

KLASYFIKACJA. Słownik języka polskiego

10. Redukcja wymiaru - metoda PCA

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Drzewa decyzyjne i lasy losowe

5. Analiza dyskryminacyjna: FLD, LDA, QDA

KLASYFIKACJA TEKSTUR ZA POMOCĄ SVM MASZYNY WEKTORÓW WSPIERAJĄCYCH

2. Empiryczna wersja klasyfikatora bayesowskiego

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań

SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

Metody klasyfikacji danych - część 1 p.1/24

5.3. Analiza maskowania przez kompaktory IED-MISR oraz IET-MISR wybranych uszkodzeń sieci połączeń Podsumowanie rozdziału

PODSTAWY STATYSTYCZNEGO MODELOWANIA DANYCH. Wykład 6 Drzewa klasyfikacyjne - wprowadzenie. Reguły podziału i reguły przycinania drzew.

Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska

1 Klasyfikator bayesowski

Metody klasyfikacji i rozpoznawania wzorców. Najważniejsze rodzaje klasyfikatorów

Samochodowy system detekcji i rozpoznawania znaków drogowych. Sensory w budowie maszyn i pojazdów Maciej Śmigielski

Testowanie hipotez statystycznych

Hybrydowa analiza transformat w rozpoznawaniu wysokości dźwięków w polifonicznych nagraniach instrumentów muzycznych

Regresyjne metody łączenia klasyfikatorów

Data Mining Wykład 6. Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa.

Kombinacja jądrowych estymatorów gęstości w klasyfikacji wstępne wyniki

ŁĄCZENIE RÓWNOLEGŁE MODELI KLASYFIKACJI OTRZYMANYCH METODĄ WEKTORÓW NOŚNYCH

MATLAB Neural Network Toolbox przegląd

O testach wielowymiarowej normalności opartych na statystyce Shapiro-Wilka

Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę

Zastosowanie sztucznej inteligencji w testowaniu oprogramowania

Deep Learning na przykładzie Deep Belief Networks

Pattern Classification

Drzewa klasyfikacyjne Lasy losowe. Wprowadzenie

DRZEWA REGRESYJNE I LASY LOSOWE JAKO

Wykład wprowadzający

Wprowadzenie. Metody bayesowskie Drzewa klasyfikacyjne i lasy losowe Sieci neuronowe SVM. Klasyfikacja. Wstęp

Badania w sieciach złożonych

P R Z E T W A R Z A N I E S Y G N A Ł Ó W B I O M E T R Y C Z N Y C H

rozpoznawania odcisków palców

Drzewa decyzyjne. Inteligentne Obliczenia. Wydział Mechatroniki Politechniki Warszawskiej. Anna Sztyber

Definicja sieci. Sieć Petriego jest czwórką C = ( P, T, I, O ), gdzie: P = { p 1, p 2,, p n } T = { t 1, t 2,, t m }

4.1. Wprowadzenie Podstawowe definicje Algorytm określania wartości parametrów w regresji logistycznej...74

Multiklasyfikatory z funkcją kompetencji

ALGORYTM RANDOM FOREST

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

Klasyfikacja z milionami etykiet

Mail: Pokój 214, II piętro

Algorytmy klasyfikacji

KATEDRA SYSTEMÓW MULTIMEDIALNYCH. Inteligentne systemy decyzyjne. Ćwiczenie nr 12:

Lokalne klasyfikatory jako narzędzie analizy i

Drzewa decyzyjne. Jak klasyfikować obiekty o cechach nominalnych (opisowych), tj. pochodzących ze skończonego zbioru, bez uporządkowania?

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

Klasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L,

Text mining w programie RapidMiner Michał Bereta

CZEŚĆ PIERWSZA. Wymagania na poszczególne oceny,,matematyka wokół nas Klasa III I. POTĘGI

9. Praktyczna ocena jakości klasyfikacji

WYMAGANIA Z MATEMATYKI NA POSZCZEGÓLNE OCENY KLASYFIKACYJNE DLA UCZNIÓW KLAS TRZECICH. Sposoby sprawdzania wiedzy i umiejętności uczniów

Elementy modelowania matematycznego

Analiza danych. TEMATYKA PRZEDMIOTU

A Zadanie

Monitorowanie i Diagnostyka w Systemach Sterowania na studiach II stopnia specjalności: Systemy Sterowania i Podejmowania Decyzji

Komitety sieci konwolucyjnych w zagadnieniu klasyfikacji przy jednoczesnym zaszumieniu danych wejściowych oraz etykiet klas. Stanisław Kaźmierczak

Sieci neuronowe i ich ciekawe zastosowania. Autor: Wojciech Jamrozy III rok SMP / Informatyka

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Modelowanie interakcji helis transmembranowych

Biometryczna Identyfikacja Tożsamości

System rozpoznawania cyfr oparty na histogramie zorientowanych gradientów

Wprowadzenie. Data Science Uczenie się pod nadzorem

Jądrowe klasyfikatory liniowe

Transformaty w klasyfikacji szeregów czasowych

Indukowane Reguły Decyzyjne I. Wykład 8

Rozpoznawanie obiektów z użyciem znaczników

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Wykład 2 Hipoteza statystyczna, test statystyczny, poziom istotn. istotności, p-wartość i moc testu

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

Metody systemowe i decyzyjne w informatyce

System biometryczny bazujący na rozpoznawaniu ust

Widzenie komputerowe (computer vision)

Parametry wydajnościowe systemów internetowych. Tomasz Rak, KIA

Własności estymatorów regresji porządkowej z karą LASSO

Klasteryzacja i klasyfikacja danych spektrometrycznych

Algorytmy i struktury danych. Drzewa: BST, kopce. Letnie Warsztaty Matematyczno-Informatyczne

Analiza zawartości dokumentów za pomocą probabilistycznych modeli graficznych

Spam or Not Spam That is the question

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

Próba formalizacji doboru parametrów generalizacji miejscowości dla opracowań w skalach przeglądowych

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Wydział Matematyki. Testy zgodności. Wykład 03

Wprowadzenie do technologii informacyjnej.

Kombinacja jądrowych estymatorów gęstości w klasyfikacji - zastosowanie na sztucznym zbiorze danych

Metody oceny podobieństwa

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wprowadzenie. { 1, jeżeli ˆr(x) > 0, pozatym. Regresja liniowa Regresja logistyczne Jądrowe estymatory gęstości. Metody regresyjne

Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych. Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS

P R Z E T W A R Z A N I E S Y G N A Ł Ó W B I O M E T R Y C Z N Y C H

Transkrypt:

Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner Wydział Matematyki i Nauk Informacyjnych Politechnika Warszawska

Elementy nieprzystające

Definicja odrzucania Klasyfikacja Odrzucanie R(x) =? Błędy

Mapa zasadnicza

Praktyczne zastosowania

Rozpoznawane symbole

Wektor cech Cechy z przedziału [0,1] (197) Proporcje (1) Skierowanie Maksymalna długość (4) Lokalne (64) Udział procentowy (32) Gęstość (16) Tranzycje (16) Offset (32) Histogramy (32)

Główne Oczekiwane cechy klasyfikatora Wysoka skuteczność Wielowymiarowość Możliwość adaptacji metod odrzucania Drugorzędne Łatwość implementacji Przyzwoita prędkość działania

Support Vector Machine [Vapnik 98]

Drzewo SVM Umożliwia rozpoznawanie wielu klas SVM dzielą dane na klasy i klasy zbiorcze Liście odpowiadają przypisaniu klasy Klasa zbiorcza (0+1) ELEMENT SVM01 SVM02 KLASA0 KLASA1 KLASA2

Klasyfikacja wielowymiarowa [Hsu 02] Jeden kontra wszyscy Jeden kontra jeden Implementacja drzewiasta [Han 07] DAGSVM [Platt 00]

Wady metod Jeden kontra wszyscy Nieoptymalny podział między poszczególnymi klasami Utrudniony podział liniowy Jeden kontra jeden Znaczna liczba podziałów Zbędne podziały Metody nie analizują rozkładu klas w przestrzeni danych.

Podobieństwo klas Teza: Najbliższe klasy są do siebie najbardziej podobne Metryka: Odległość między klasami:

Drzewo jeden kontra wszyscy Implementacja drzewiasta [Han 07] - Nieustalona kolejność klas

Drzewo grupujące

Graf grupujący DAGSVM [Platt 00] -kolejność klas -liczba klasyfikatorów

Zbiór testowy Klasyfikacja

Porównanie metod klasyfikacji Graf grupujący może zastąpić metodę jeden-kontra-jeden Znacząca redukcja użytych klasyfikatorów Wskazane zostaną metody implementacji mechanizmu odrzucania

Lokalizacja błędów w przestrzeni danych

Metody realizacji odrzucania Odrzucanie z zastosowaniem progu Przypadki o niskim prawdopodobieństwie prawidłowego rozpoznania Odrzucanie jako zadanie klasyfikacyjne Przypadki rozpoznane jako błędne przez alternatywne zadanie klasyfikacyjne Odrzucanie z zastosowaniem zbioru ograniczającego Przypadki nienależące do zbioru wyznaczonego przez elementy poprawne Metody hybrydowe

Odrzucanie z zastosowaniem progu Reguła Chowa [Chow 70]

Zastosowanie dla drzewa Odrzucanie we wszystkich węzłach: Przy ostatnim klasyfikatorze:

Odrzucanie jako zadanie klasyfikacyjne Elementy odrzucane tworzą dodatkową klasę Globalną Lokalne Każda rozpoznawana klasa ma przypisaną klasę elementów nieprzystających

Odrzucanie z zastosowaniem klasy globalnej Nowy korzeń drzewa wskazujący na stary korzeń i klasę śmietnik ELEMENT SVMRO SVM01 SVM02 KLASA0 KLASA1 KLASA2

Odrzucanie z zastosowaniem klas lokalnych Klasa śmietnik dla każdego liścia, dodatkowy podział na elementy zaakceptowane i odrzucone Sposób realizacji: dodatkowy SVM dla każdej z klas ELEMENT SVM01 SVM02 SVMK0 SVMK1 SVMK2 KLASA0 KLASA1 KLASA2

Odrzucanie z zastosowaniem zbioru ograniczającego Akceptacja na podstawie przynależności do zbioru Zbiór wyznaczany przez elementy uczące klasyfikatora

Klasyfikacja z odrzucaniem Podział na grupę testową i uczącą w stosunku 1/3 Grupa testowa - 6680 przykładów 1790 z zadania klasyfikacji 4890 spoza klas rozpoznawanych Skuteczność osiągana przy odrzuceniu wszystkich przykładów 73.20% Maksymalna skuteczność, uwzględniająca skuteczność klasyfikatora, 98.73%

Zastosowanie progu Odrzucanie ograniczone do liści Odrzucanie we wszystkich węzłach Zbiega do skuteczności osiąganej przy odrzuceniu wszystkich przykładów 73.20%

Odrzucanie jako zadanie klasyfikacyjne Klasa globalna Rozpoznanie 77.09% Odrzucanie 92.70% Łącznie 88.52% Klasy lokalne Rozpoznanie 85.02% Odrzucanie 96.03% Łącznie 93.08% Wada - spadek skuteczności rozpoznania z 95.25%

Zastosowanie zbioru ograniczającego Skuteczność 73.20% przekroczona tylko dla małych wartości m

Zestawienie metod

Metody hybrydowe

Bibliografia [Rhee 95] P. K. Rhee, J. S. Park & Y. G. Kang. Rotation-invariant recognition of character strings for Korean cadastral map digitizing. Document Analysis and Recognition, Proceedings of the Third International Conference on, vol. 2, 1995. [Vapnik 98] V. Vapnik. Statistical learning theory. Wiley, New York, 1998. [Hsu 02] C. W. Hsu & C. J. Lin. A comparison of methods for multiclass support vector machines. IEEE transactions on neural networks / a publication of the IEEE Neural Networks Council, vol. 13,no. 2, 2002. [Han 07] Shunjic Han, Wen You & Hui Li. Application of Binary Tree Multi-class Classification Algorithm Based on SVM in Shift Decision for Engineering Vehicle. Control and Automation, 2007 [Platt 00] J. Platt, N. Cristianini & J. ShaweTaylor. Large Margin DAGS for Multiclass Classification. In S. A. Solla, T. K. Leen & K. R Mueller, editeurs, Advances in Neural Information Processing Systems 12, 2000 [Chow 70] C. Chow. On optimum recognition error and reject tradeoff. Information Theory, IEEE Transactions on, vol. 16, no. 1, 1970.