Budowa modeli klasyfikacyjnych o skośnych warunkach

Podobne dokumenty
Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner

B jest globalnym pokryciem zbioru {d} wtedy i tylko wtedy, gdy {d} zależy od B i nie istnieje B T takie, że {d} zależy od B ;

LEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów

Michał Kozielski Łukasz Warchał. Instytut Informatyki, Politechnika Śląska

Sztuczna Inteligencja Projekt

Maszyny wektorów podpierajacych w regresji rangowej

Drzewa decyzyjne i lasy losowe

Algorytmy metaheurystyczne Wykład 11. Piotr Syga

Algorytm Grovera. Kwantowe przeszukiwanie zbiorów. Robert Nowotniak

Rozmyte drzewa decyzyjne. Łukasz Ryniewicz Metody inteligencji obliczeniowej

Optymalizacja reguł decyzyjnych względem pokrycia

Automatyczne wyodrębnianie reguł

Agnieszka Nowak Brzezińska

Metody Programowania

Programowanie liniowe

SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

PROGRAMOWANIE DYNAMICZNE W ROZMYTYM OTOCZENIU DO STEROWANIA STATKIEM

4.1. Wprowadzenie Podstawowe definicje Algorytm określania wartości parametrów w regresji logistycznej...74

Adrian Horzyk

Metody zbiorów przybliżonych w uczeniu się podobieństwa z wielowymiarowych zbiorów danych

Ćwiczenie 5. Metody eksploracji danych

Analiza danych. TEMATYKA PRZEDMIOTU

Widzenie komputerowe (computer vision)

Deep Learning na przykładzie Deep Belief Networks

Co to jest grupowanie

Laboratorium 11. Regresja SVM.

Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej. Adam Żychowski

Hard-Margin Support Vector Machines

SZTUCZNA INTELIGENCJA

KLASYFIKACJA. Słownik języka polskiego

THE PART OF FUZZY SYSTEMS ASSISTING THE DECISION IN DI- AGNOSTICS OF FUEL ENGINE SUBASSEMBLIES DEFECTS

Sztuczna Inteligencja Projekt

Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę

Metody klasyfikacji danych - część 1 p.1/24

Wykorzystanie zbiorów przybliżonych w analizie Kansei

Eksploracja danych. KLASYFIKACJA I REGRESJA cz. 2. Wojciech Waloszek. Teresa Zawadzka.

UCZENIE MASZYNOWE III - SVM. mgr inż. Adam Kupryjanow

Wstęp do przetwarzania języka naturalnego. Wykład 11 Maszyna Wektorów Nośnych

Elementy inteligencji obliczeniowej


Sztuczna Inteligencja i Systemy Doradcze

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

data mining machine learning data science

Metody Obliczeniowe w Nauce i Technice

RÓWNANIA NIELINIOWE Maciej Patan

1 Wprowadzenie do algorytmiki

Metody Numeryczne Optymalizacja. Wojciech Szewczuk

Analiza zawartości dokumentów za pomocą probabilistycznych modeli graficznych

Mail: Pokój 214, II piętro

DRZEWA REGRESYJNE I LASY LOSOWE JAKO

Data Mining Wykład 6. Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa.

Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska

ALGORYTM RANDOM FOREST

Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych

Metody Sztucznej Inteligencji II

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Elementy statystyki wielowymiarowej

Wprowadzenie do klasyfikacji

Grupowanie Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 201/633

Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych

zajęcia 1. Bartosz Górski, Tomasz Kulczyński, Błażej Osiński

ID1SII4. Informatyka I stopień (I stopień / II stopień) ogólnoakademicki (ogólno akademicki / praktyczny) stacjonarne (stacjonarne / niestacjonarne)

Agnieszka Nowak Brzezińska Wykład III

Algorytmy zrandomizowane

Agnieszka Nowak Brzezińska Wykład III

Optymalizacja ciągła

8. Drzewa decyzyjne, bagging, boosting i lasy losowe

Metody eksploracji danych 2. Metody regresji. Piotr Szwed Katedra Informatyki Stosowanej AGH 2017

Algorytm simplex i dualność

Arkusz 6. Elementy geometrii analitycznej w przestrzeni

Optymalizacja ciągła

A Zadanie

ALGORYTM ZACHŁANNY DLA KONSTRUOWANIA CZĘŚCIOWYCH REGUŁ ASOCJACYJNYCH

Wykład wprowadzający

6. Zagadnienie parkowania ciężarówki.

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

ALGORYTM PROJEKTOWANIA ROZMYTYCH SYSTEMÓW EKSPERCKICH TYPU MAMDANI ZADEH OCENIAJĄCYCH EFEKTYWNOŚĆ WYKONANIA ZADANIA BOJOWEGO

Optymalizacja. Wybrane algorytmy

Algorytm grupowania danych typu kwantyzacji wektorów

OPTYMALIZACJA CZĘŚCIOWYCH REGUŁ ASOCJACYJNYCH WZGLĘDEM LICZBY POMYŁEK

Systemy uczące się wykład 1

PROGRAM DO INDUKCJI I OCENY REGUŁ KLASYFIKACYJNYCH, ZINTEGROWANY Z PAKIETEM R

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

Badania w sieciach złożonych

SVM: Maszyny Wektorów Podpieraja cych

ZeroR. Odpowiada zawsze tak samo Decyzja to klasa większościowa ze zbioru uczącego A B X 1 5 T 1 7 T 1 5 T 1 5 F 2 7 F

Algorytmy i Struktury Danych.

Identyfikacja istotnych atrybutów za pomocą Baysowskich miar konfirmacji

Stosowana Analiza Regresji

Podstawy robotyki. Wykład II. Robert Muszyński Janusz Jakubiak Instytut Informatyki, Automatyki i Robotyki Politechnika Wrocławska

Zastosowanie sztucznej inteligencji w testowaniu oprogramowania

Planowanie drogi robota, algorytm A*

Dariusz Brzeziński. Politechnika Poznańska

Podstawy Sztucznej Inteligencji (PSZT)

Konstrukcja biortogonalnych baz dyskryminacyjnych dla problemu klasyfikacji sygnałów. Wit Jakuczun

Własności estymatorów regresji porządkowej z karą LASSO

Metody systemowe i decyzyjne w informatyce

WYDZIAŁ MATEMATYKI KARTA PRZEDMIOTU

SZTUCZNA INTELIGENCJA

Metody systemowe i decyzyjne w informatyce

Transkrypt:

Budowa modeli klasyfikacyjnych o skośnych warunkach Marcin Michalak (Marcin.Michalak@polsl.pl) III spotkanie Polskiej Grupy Badawczej Systemów Uczących Się Wrocław, 17 18.03.2014

Outline 1 Dwa podejścia Ilustracja graficzna 2 Innerozwiązania 3 Naszerozwiązania ORG(ORG 1.0) PCAORG(ORG2.0) PCAORG(ORG2.1) 4

Dwa podejścia Dwa podejścia Ilustracja graficzna Podejście jawne drzewa decyzyjne systemy regułowe liniowe SVM Podejście ukryte sztuczne sieci neuronowe nieliniowe SVM GLM

Dwa podejścia Ilustracja graficzna Rysunek: Dwuwymiarowy, dwuklasowy zbiór danych. 4 4.5 5 5.5 6 6.5 7 7.5 8 2 2.5 3 3.5 4 4.5

Dwa podejścia Ilustracja graficzna Rysunek: Dwuwymiarowy, dwuklasowy zbiór danych.

Dwa podejścia Ilustracja graficzna Rysunek: Dwuwymiarowy, dwuklasowy zbiór danych.

Dwa podejścia Ilustracja graficzna Rysunek: Dwuwymiarowy, dwuklasowy zbiór danych.

Dwa podejścia Ilustracja graficzna Rysunek: Dwuwymiarowy, dwuklasowy zbiór danych.

Ekstrapolacja SVM Barakat N., Diederych J. Learning-based Rule-extraction from Support Vector Machines. In 14th International Conference on Computer Theory and Applications ICCTA 2004 Proceedings, Alexandria, Egypt, 107-112, 2004 Zbuduj SVM. Wygeneruj nowe przypadki losowo i zaklasyfikuj je zgodnie z SVM. Z gęstszego zbioru wygeneruj reguły decyzyjne.

Pokywanie obszaru pod liniowym SVM FungG.,SandilyaS.,RaoR. Rule Extraction from Linear Support Vector Machines. In Proceedings of the 11th ACM SIGKDD international Conference on Knowledge Discovery in Data Mining, 32-40, 2005 Zbuduj liniowy SMV Pokrywaj obszar pod ( nad ) rozłącznymi hiperprostopadłościanami o jednym wierzchołku na OSH

Pokywanie obszaru pod liniowym SVM

ITER MINERVA Huysmans J., Baesens B., Vanthienen J. ITER: an Algorithm for Predictive Regression Rule Extraction, LNCS 4081:270-279, 2006 Huysmans J., Setiono R., Baesens B., Vanthienen J. Minerva: Sequential Covering for Rule Extraction, IEEE Transactions On Systems, Man, and Cybernetics-Part B: Cybernetics, 38(2):299-309, 2008

ITER MINERVA ITER pedagocical regression rule extractor, bazuje na dowolnym regresorze iteracyjnie zwiększa pokrycie hiperprostopadłościanami MINERVA zapobiega pokrywaniu się reguł, ale nadal nie wykrywa skośności

ITER MINERVA

ITER MINERVA

SVMPrototypes NunezH.,AnguloC.,CatalaA. Rule Extraction from Support Vector Machines, proc. of European Symposium on Artificial Networks, 107-112, 2002 Zbuduj SVM(znajdź wektory podpierające) Podziel klasy na podklasy(znajdź prototypy podklas) para SV prototyp definiuje regułę(elipsoida albo hiperprostopadłościan)

SVMPrototype

Advanced

Skośne zbiory danych 1 1 0.9 0.9 0.8 0.8 0.7 0.7 0.6 0.6 1 0.5 0.5 0.5 0.4 0.4 0 0.3 0.3 0 0 0.1 0.2 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0.2 0.4 0.6 0.8 0.4 0.5 0.6 0.7 0.8 0.9 1 1 Rysunek: Trzy zbiory skośnych danych: 2d(z lewej); d2d(pośrodku); 3d(z prawej).

Oblique Rules Generator Publikacja Michalak M., Sikora M., Ziarnik P.: ORG- Oblique Rules Generator, In: Rutkowski, L., Korytkowski, M., Scherer, R., Tadeusiewicz, R., Zadeh, L.A., Zurada, J.M.(eds.) ICAISC 2012, Part II. LNCS, vol. 7268, pp. 152 159,(2012) Główna idea Kolejne skośne warunki(hiperpłaszczyzny) reguły poszukiwane metodą siatkowego przeszukiwania przestrzeni parametrów warunku.

Założenia Równanie normalne hiperpłaszczyzny: α 1 x 1 α 2 x 2...α n x n ρ =0 Warunek kosinusów kierunkowych: α 2 1 α 2 2...α 2 n =1

Założenia(c.d.) Ograniczenia wartości kosinusów naturalne; Ograniczenie maksymalnej odległości, przy założeniu, że wszystkie punkty mają dodatnie współrzędne: ( ρ max (θ opt ) = x max cos arctg y ) ( max y max sin arctg y ) max x max x max

Algorytm 1: Train All,RCnt 0,Rules 2:while card(rules)<rdo 3: Rule, Train Rule Train 4: while card(rule) < C do 5: bestcond 6: bestcondq 0 7: foreach cell Griddo 8: cond cell 9: condq Q(cond) 10: if condq > bestcondq then 11: bestcondq condq 12: bestcond cond 13: end if 14: end for each 15: Rule temp Rule bestcond 16: if Q(Rule temp)>q(rule) then 17: Rule Rule temp 18: end if 19: Train Rule Train Rule \under(bestcond) 20: if Q(Rule) =1then 21: break 22: end if 23: if card(train Rule ) =0then 24: break 25: end if 26: end while 27: Train Rule Train Rule \covered(rule) 28: Rules Rules Rule 29: end while

Podsumowanie Cechy Poszukiwanie skośnych warunków odbywa się metodą siatkową. Budowa reguły odbywa się metodą wspinaczki. Wady Bardzo duża złożoność obliczeniowa. Ocena jakości skośnych warunków jest globalna. Tylko niektore skośne warunki brane są pod uwagę(siatka).

PCAORG(ORG2.0) Publikacja Michalak M., Nurzyńska K.: PCA Based Oblique Decision Rules Generating, In: Tomassini, M., Antonioni, A., Daolio, F., Buesser, B. (Eds.): ICANNGA 2013, LNCS, vol. 7824, pp. 198 207,(2013) Główna idea opis klasy to opis jej podklas, wyznaczonych metodą grupowania, opis podklasy to hiperprostopadłościan, o krawędziach wyznaczonych przez PCA dla podklasy.

Założenia i ich spełnianie Założenia wstępne: Reguły opisują lokalne zależności w danych. Poszukiwanie skośnych warunków odbywa się lokalnie. Mniejsza złożoność obliczeniowa niż ORG 1.0. Spełnienie założeń Ad. 1: Podklasy wygenerowane algorytmem k-means. Ad. 2 i 3: ściany hiperprostopadłościanu są równoległe do kierunków wyznaczonych przez PCA dla podklasy.

Pojedyńcza podklasa 300 250 200 150 100 50 0 0 50 100 150 200 250 300 350

Nowe kierunki znalezione przez PCA 300 250 200 150 100 50 0 0 50 100 150 200 250 300 350

Pary skośnych warunków, równoległe do kierunków z PCA 300 250 200 150 100 50 0 0 50 100 150 200 250 300 350

Nowa, wypukła reguła decyzyjna 300 250 200 150 100 50 0 0 50 100 150 200 250 300 350

Silne strony Mała liczba reguł przypadająca na każdą klasę. Bardzo wysoka jakość klasyfikacji typowo skośnych zależności. Słabe strony Słabe wyniki dla klas pokrywających się i wklęsłych. Duża liczba parametrów uzyskanych modeli. Brak postprocessingu uzyskanych reguł.

Advanced PCA ORG(ORG 2.1) Publikacja(w druku) Michalak M., Nurzyńska K.: Advanced Oblique Rule Generating Based on PCA, ICAISC 2014, LNCS??(2014) Główne idee: przycinanie reguł: eliminacja zbędnych warunków metodą wspinaczki; uogólnianie skośnych warunków: eliminacja zmiennych z warunku, jeśli jej współczynnik jest niski.

Przycinanie reguł idea 300 250 200 150 100 50 0 0 50 100 150 200 250 300 350

Przycinanie reguł idea 300 250 200 150 100 50 0 0 50 100 150 200 250 300 350

Przycinanie reguł idea 300 250 200 150 100 50 0 0 50 100 150 200 250 300 350

Przycinanie reguł idea 300 250 200 150 100 50 0 0 50 100 150 200 250 300 350

Uogólnianie reguł idea 1 0.8 0.6 0.4 0.2 0 0 0.2 0.4 0.6 0.8 1

Uogólnianie reguł idea 1 0.8 0.6 0.4 0.2 0 0 0.2 0.4 0.6 0.8 1

Uogólnianie reguł idea 1 0.8 0.6 0.4 0.2 0 0 0.2 0.4 0.6 0.8 1

Porównanie wyników dataset accuracy avg(std) ORG ORG2.0 ORG2.1 2d 96.0(1.5) 98.4(1.0) 98.8(0.98) d2d 84.3(3.1) 99.0(1.1) 99.3(0.64) 3d 98.2(1.2) 98.3(1.6) 98.7(1.27) avg. rules total number dataset number of cond. elem. ORG ORG2.0 ORG2.1 ORG ORG2.0 ORG2.1 2d 2.0 2.0 3.0 3.0 16.0 8.0 d2d 3.0 2.0 2.0 6.0 16.0 6.0 3d 2.0 2.0 2.0 2.0 32.0 4.0

Porównanie wyników dataset accuracy avg(std) ORG ORG2.0 ORG2.1 iris 94(4.6) 84(8.4) 90.7(7.42) balance 92(2.4) 80(4.2) 76.6(4.7) Ripley 81(8.4) 65(11.6) 74.4(10.76) breast w. 97(1.7) 92(3.0) 89.9(4.86) avg. rules total number dataset number of cond. elem. ORG ORG2.0 ORG2.1 ORG ORG2.0 ORG2.1 iris 3.1 3.0 4.5 5.2 96.0 28.4 balance 6.0 3.0 3.0 12.0 96.0 16.0 Ripley 2.0 6.6 5.2 4.0 28.8 15.0 breastw. 3.0 2.0 2.0 19.0 324.0 36.9

Porównanie wyników dataset average accuracy(std) PART JRIP ORG2.1 d2d 93.6 95.5 99.3(0.64) 3d 94.5 94.8 98.7(1.27) 2d 96.3 95.5 98.8(0.98) avg. rules total number dataset number of. cond. elem. PART JRIP ORG2.1 PART JRIP ORG2.1 d2d 14 9 3.0 37 18 8.0 3d 13 8 2.0 25 19 6.0 2d 10 10 2.0 22 18 4.0

Porównanie wyników dataset average accuracy(std) PART JRIP ORG2.1 Ripley 85.6 85.6 74.4(10.76) balance 83.5 81.0 76.6(4.70) breast w. 95.5 95.6 89.8(4.86) iris 94.0 95.3 90.7(7.42) vehicle 71.5 69.2 73.9(4.31) avg. rules total number dataset number of. cond. elem. PART JRIP ORG2.1 PART JRIP ORG2.1 Ripley 5 2 5.2 7 1 15.0 balance 47 11 3.0 147 30 16.0 breast w. 11 6 2.0 21 10 36.9 iris 3 3 4.5 3 4 28.4 vehicle 29 16 7.9 108 40 1006.2

Publikacja Sikora M., Gudyś A.: - Convex Hull Based Iterative Algorithm of Rules Aggregation, Fundamenta Informatice 123:143-170, 2013 Główne idee: przycinanie reguł: eliminacja zbędnych warunków metodą wspinaczki; uogólnianie skośnych warunków: eliminacja zmiennych z warunku, jeśli jej współczynnik jest niski. Implementacje w: Matlab Weka

- surowe reguły

- agregacja

- tuning

- przycinanie

- wyniki

strona internetowa: http://adaa.polsl.pl spotkania: czwartki ok 14:00, aula F 2. piętro wydziału Automatyki Elektroniki i Informatyki (Politechnika Śląska) ul. Akademicka 16, 44-100 Gliwice kontakt: dr inż. Michał Kozielski(Michal.Kozielski@polsl.pl)