Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej. Adam Żychowski

Podobne dokumenty
Klasyfikacja wielo-etykietowa z wykorzystaniem Boostingu

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań

Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska

Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner

Badania w sieciach złożonych

Deep Learning na przykładzie Deep Belief Networks

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty

Algorytm memetyczny w grach wielokryterialnych z odroczoną preferencją celów. Adam Żychowski

Trening: Modyfikacja potencjału elektrycznego rejestrowanego na powierzchni skóry, a pochodzącego od aktywności neuronów kory mózgowej (protokół)

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

WYKAZ PUBLIKACJI I. Artykuły Ia. Opublikowane przed obroną doktorską

MATLAB Neural Network Toolbox przegląd

Zastosowania sieci neuronowych

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Podstawy Sztucznej Inteligencji (PSZT)

9. Praktyczna ocena jakości klasyfikacji

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

4.1. Wprowadzenie Podstawowe definicje Algorytm określania wartości parametrów w regresji logistycznej...74

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

LEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów

Wielokategorialne systemy uczące się i ich zastosowanie w bioinformatyce. Rafał Grodzicki

Kombinacja jądrowych estymatorów gęstości w klasyfikacji - testy na sztucznych danych

TEORETYCZNE PODSTAWY INFORMATYKI

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2)

WYKORZYSTANIE SZTUCZNYCH SIECI NEURONOWYCH W PROGNOZOWANIU

Uczenie sieci neuronowych i bayesowskich

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści

Predykcja i selekcja zmiennych w klasyfikacji z wieloma etykietami przy użyciu łańcuchów klasyfikatorów i sieci elastycznej

Sieci neuronowe i algorytmy uczenia Czyli co i jak andrzej.rusiecki.staff.iiar.pwr.wroc.pl s.

Obrona rozprawy doktorskiej Neuro-genetyczny system komputerowy do prognozowania zmiany indeksu giełdowego

Metody klasyfikacji danych - część 1 p.1/24

Wprowadzenie do sieci neuronowych i zagadnień deep learning

Uczenie sieci typu MLP

SIECI NEURONOWE Wprowadzenie

Rozmyte drzewa decyzyjne. Łukasz Ryniewicz Metody inteligencji obliczeniowej

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

Optymalizacja optymalizacji

Recenzja rozprawy doktorskiej mgr Mirona Bartosza Kursy p/t. Robust and Efficient Approach to Feature Selection and Machine Learning

Zastosowanie sztucznej inteligencji w testowaniu oprogramowania

Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I.

Podstawy sztucznej inteligencji

Sieci neuronowe i ich ciekawe zastosowania. Autor: Wojciech Jamrozy III rok SMP / Informatyka

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Temat: Sieci neuronowe oraz technologia CUDA

10. Redukcja wymiaru - metoda PCA

MODELOWANIE NEURONALNE ROZWOJU SYSTEMU ELEKTROENERGETYCZNEGO. CZĘŚĆ 2. MODELE SYSTEMU IEEE RTS

ID1SII4. Informatyka I stopień (I stopień / II stopień) ogólnoakademicki (ogólno akademicki / praktyczny) stacjonarne (stacjonarne / niestacjonarne)

WEKA klasyfikacja z użyciem sztucznych sieci neuronowych

Ewolucja sieci Sztuczna inteligencja i uczenie maszynowe

Komputerowa diagnoza medyczna tworzenie i interpretowanie. prof. dr hab. inż. Andrzej Walczak

Kombinacja jądrowych estymatorów gęstości w klasyfikacji wstępne wyniki

Rozpoznawanie obiektów na podstawie zredukowanego zbioru cech. Piotr Porwik Uniwersytet Śląski w Katowicach

PRACE NAUKOWO-PRZEGLĄDOWE

Sieci neuronowe w Statistica

Algorytmy wstecznej propagacji sieci neuronowych

DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2014/2015

Elementy inteligencji obliczeniowej

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU)

Selekcja zmiennych w klasyfikacji z wieloma etykietami

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

KARTA PRZEDMIOTU. 17. Efekty kształcenia:

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

Wykład wprowadzający

Wrocław University of Technology. Uczenie głębokie. Maciej Zięba

Ewolucja sieci Sztuczna inteligencja i uczenie maszynowe

Activities Performed by prof. Tadeusiewicz in Books and Journals Editorial Boards

data mining machine learning data science

Elektroniczne materiały dydaktyczne do przedmiotu Wstęp do Sieci Neuronowych

PRÓBA ZASTOSOWANIA SIECI NEURONOWYCH DO PROGNOZOWANIA OSIADAŃ POWIERZCHNI TERENU POWSTAŁYCH NA SKUTEK EKSPLOATACJI GÓRNICZEJ**

Transformaty w klasyfikacji szeregów czasowych

Pattern Classification

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

Klasyfikacja z milionami etykiet

Podstawy Sztucznej Inteligencji

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Algorytm do rozpoznawania człowieka na podstawie dynamiki użycia klawiatury. Paweł Kobojek, prof. dr hab. inż. Khalid Saeed

Przykładowa analiza danych

Tomasz Pawlak. Zastosowania Metod Inteligencji Obliczeniowej

Testowanie modeli predykcyjnych

Streszczenie. Słowa kluczowe: modele neuronowe, parametry ciągników rolniczych

Zastosowania sieci neuronowych

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

RAPORT Z PRAKTYKI. Zastosowanie Sztucznych Sieci Neuronowych do wspomagania podejmowania decyzji kupna/sprzedaży na rynku Forex.

Sztuczne siei neuronowe - wprowadzenie

ZASTOSOWANIE SIECI NEURONOWYCH DO OPTYMALIZACJI WARUNKÓW OBRÓBKI CIEPLNEJ STOPÓW Mg-Al

Kombinacja jądrowych estymatorów gęstości w klasyfikacji - przegląd literatury

CLUSTERING. Metody grupowania danych

Metoda ewolucyjnego doboru współczynników funkcji oceniającej w antywarcabach

PROGNOZOWANIE ZMIAN MIKROKLIMATU SZKLARNI W OKRESIE LETNIM

ĆWICZENIE 5: Sztuczne sieci neuronowe

Dariusz Brzeziński Instytut Informatyki, Politechnika Poznańska

Transkrypt:

Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej Adam Żychowski

Definicja problemu Każdy z obiektów może należeć do więcej niż jednej kategorii.

Alternatywna definicja

Zastosowania - kategoryzacja tekstów (tagowanie artykułów, e-maili) - multimedia (obrazy, filmy, muzyka) - biologia (odkrywanie funkcji genomów, rozpoznawanie chorób na podstawie symptomów)

Dotychczasowe rozwiązania Podział ze względu na badany poziom korelacji: - pierwszego rzędu (traktowanie każdej kategorii oddzielnie) - drugiego rzędu (badanie korelacji między parami kategorii) - wyższych rzędów (uwzględnianie korelacji między zbiorami kategorii)

Dotychczasowe rozwiązania - sprowadzenie problemu do klasycznego problemu klasyfikacji (Binary Relevance, Classifier Chaining) - modyfikacja istniejącego algorytmu i dostosowanie go do problemu klasyfikacji wielokryterialnej (ML-kNN, Predictive clustering trees) - metody hybrydowe

Sieci neuronowe Pierwsza propozycja zastosowania sieci neuronowych w problemie klasyfikacji wielokryterialnej: Zhang, M. L., and Zhou, Z. H. Multilabel neural networks with applications to functional genomics and text categorization. IEEE transactions on Knowledge and Data Engineering, 18(10), 1338-1351. 2006. - perceptron wielowarstwowy - uczenie metodą propagacji wstecznej błędu - jedna warstwa ukryta (40 neuronów) - wejście: cechy obiektu - Q wyjść: każde odpowiadające jednej kategorii

Błąd uczenia wersja 1 (BP-MLL)

Modyfikacja błędu uczenia: Grodzicki Rafał, Mańdziuk Jacek, and Wang Lipo. Improved multilabel classification with neural networks. International Conference on Parallel Problem Solving from Nature. Springer Berlin Heidelberg, 2008.

Błąd uczenia wersja 2

Błąd uczenia wersja 3

Błąd uczenia wersja 4 oraz 5 (CART-M)

Błąd uczenia wersja 6 (TCART-M) Mańdziuk Jacek, Żychowski Adam, and Wang Lipo. A TCART-M - Tuned CARTesian-based Error Function for Multilabel Classification with the MLP. IJCNN 2017.

Benchmarki yeast zbiór genomów i ich funkcji scene obrazy krajobrazów emotions próbki dźwięków (piosenek), którym przypisywane są emocje enron e-maile 150 pracowników firmy Enron Corporation medical opisy symptomów choroby pacjentów

Miary błędu rozwiązania - example-based measures różnica w kategoriach przypisanych przez metodę a prawidłowych obliczana jest dla każdego obiektu oddzielnie, a następnie uśredniana (Hamming loss, accuracy, precision, recall, F1 score, subset accuracy) Przykład: - label-based measures obliczana jest różnica dla wszystkich obiektów dla danej kategorii, a potem wartość jest uśredniana względem wszystkich kategorii (micro-precision, micro-recall, micro-f 1, macro-precision, macro-recall, macro-f 1 ) Przykład:

Miary błędu rozwiązania - ranking-based measures miary wyliczane na podstawie kolejności (od najbardziej prawdopodobnej do najmniej), w jakiej metoda przypisała kategorie (average precision, one-error, coverage, ranking loss) Przykład:

Testy metody TCART-M Dobór D metodą Nested Cross Validation. Dwa podejścia: - TCART-M i dla każdej z miar błędu oddzielnie dobierany jest parametr D - TCART-M g próba znalezienia uniwersalnej wartości D, tworzenie rankingu po wszystkich miarach błędu

Wyniki dla benchmarku emotions

Wyniki dla benchmarku yeast

CART-M vs TCART-M

1,2 Porównanie wartości D dla benchmarku emotions 1 0,8 0,6 0,4 0,2 0 0,25 0,5 0,75 1 2 3 4 5 6 7 8 9 10 Hamming Loss Accuracy Precision Recall Subset Accuracy F1 score Micro-precision Macro-precision Micro-recall Macro-recall Micro-F1 Macro-F1 Ranking Loss OneError Coverage Average Precision D Hamming Loss Accuracy Precision 0,25 0,204 0,546 0,656 0,5 0,203 0,545 0,658 0,75 0,199 0,549 0,666 1 0,194 0,558 0,674 2 0,186 0,574 0,687 3 0,184 0,578 0,686 4 0,183 0,582 0,686 5 0,184 0,579 0,685 6 0,183 0,583 0,685 7 0,184 0,581 0,683 8 0,184 0,581 0,685 9 0,185 0,578 0,682 10 0,185 0,577 0,679

1,2 Porównanie wartości D dla benchmarku yeast 1 0,8 0,6 0,4 0,2 0 0,25 0,5 0,75 1 2 3 4 5 6 7 8 9 10 Hamming Loss Accuracy Precision Recall Subset Accuracy F1 score Micro-precision Macro-precision Micro-recall Macro-recall Micro-F1 Macro-F1 Ranking Loss OneError Coverage Average Precision D Hamming Accuracy Precision Loss 0,25 0,205 0,504 0,674 0,5 0,197 0,510 0,699 0,75 0,196 0,508 0,709 1 0,197 0,505 0,712 2 0,200 0,501 0,710 3 0,201 0,498 0,710 4 0,201 0,498 0,711 5 0,201 0,497 0,713 6 0,201 0,496 0,713 7 0,201 0,495 0,714 8 0,201 0,495 0,715 9 0,201 0,494 0,714 10 0,202 0,493 0,715

Porównanie z innymi metodami benchmarku emotions

Porównanie z innymi metodami

Redukcja danych wejściowych medical

Dalsze eksperymenty - sprawdzenie innych benchmarków - sprytniejszy dobór wartości parametru D (np. algorytm genetyczny) - rozważenie różnych dzielników dla różnych składników sumy - wykorzystanie informacji z nauczonej sieci

Literatura 1. Zhang, M. L., and Zhou, Z. H. A review on multi-label learning algorithms. IEEE transactions on knowledge and data engineering, 26(8), 1819-1837. 2014. 2. Madjarov, G., Kocev, D., Gjorgjevikj, D., and Džeroski, S. An extensive experimental comparison of methods for multi-label learning. Pattern Recognition, 45(9), 3084-3104. 2012. 3. Zhang, M. L., and Zhou, Z. H. Multilabel neural networks with applications to functional genomics and text categorization. IEEE transactions on Knowledge and Data Engineering, 18(10), 1338-1351. 2006. 4. Grodzicki, R., Mańdziuk, J., and Wang, L. Improved multilabel classification with neural networks. International Conference on Parallel Problem Solving from Nature (pp. 409-416). Springer Berlin Heidelberg. 2008. 5. Tsoumakas G., Spyromitros-Xioufis E., Vilcek J., and Vlahavas I. Mulan: A Java Library for Multi-Label Learning, Journal of Machine Learning Research, 12, pp. 2411-2414. 2011. http://mulan.sourceforge.net