Uniwersalne Maszyny Ucz ce. Tomasz Maszczyk. opiekun naukowy: prof. Wªodzisªaw Duch

Podobne dokumenty
Uczenie Wielowarstwowych Sieci Neuronów o

Lab. 02: Algorytm Schrage

AUTO-ENKODER JAKO SKŠADNIK ARCHITEKTURY DEEP LEARNING

Wykorzystanie lokalnej geometrii danych w Maszynie Wektorów No±nych

Eksploracja Danych. Wprowadzenie. (c) Marcin Sydow

Jednowarstwowe Sieci Neuronowe jako. klasykatory do wielu klas. (c) Marcin Sydow

Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę

przewidywania zapotrzebowania na moc elektryczn

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania

Propozycja integracji elementów ±wiata gry przy u»yciu drzew zachowa«

Wst p do sieci neuronowych, wykªad 14 Zespolone sieci neuronowe

Uczenie sieci radialnych (RBF)

Plan wykładu. Reguły asocjacyjne. Przykłady asocjacji. Reguły asocjacyjne. Jeli warunki to efekty. warunki efekty

Dynamiczne wªasno±ci algorytmu propagacji przekona«

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wst p do sieci neuronowych 2010/2011 wykªad 7 Algorytm propagacji wstecznej cd.

Metody dowodzenia twierdze«

Podstawy Sztucznej Inteligencji (PSZT)

i, lub, nie Cegieªki buduj ce wspóªczesne procesory. Piotr Fulma«ski 5 kwietnia 2017

Deep Learning na przykładzie Deep Belief Networks

Wzorce projektowe kreacyjne

Ukªady równa«liniowych - rozkªady typu LU i LL'

Uniwersalne maszyny ucz ce si. Tomasz Maszczyk. promotor: prof. Wªodzisªaw Duch

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

Elementy inteligencji obliczeniowej

Zastosowania sieci neuronowych

Przykªady problemów optymalizacji kombinatorycznej

Wnioskowanie Boolowskie i teoria zbiorów przybli»onych

Minimalne drzewa rozpinaj ce

Arkusz maturalny. Šukasz Dawidowski. 25 kwietnia 2016r. Powtórki maturalne

Badania w sieciach złożonych

4.1. Wprowadzenie Podstawowe definicje Algorytm określania wartości parametrów w regresji logistycznej...74

Listy i operacje pytania

Model obiektu w JavaScript

Funkcje, wielomiany. Informacje pomocnicze

Uczenie sieci typu MLP

Aproksymacja funkcji metod najmniejszych kwadratów

Metody numeryczne. Wst p do metod numerycznych. Dawid Rasaªa. January 9, Dawid Rasaªa Metody numeryczne 1 / 9

Metody bioinformatyki (MBI)

Bash i algorytmy. Elwira Wachowicz. 20 lutego

1 Metody iteracyjne rozwi zywania równania f(x)=0

Wykªad 7. Ekstrema lokalne funkcji dwóch zmiennych.

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Metody numeryczne i statystyka dla in»ynierów

10. Redukcja wymiaru - metoda PCA

Jak zachęcać i przygotowywać uczniów do udziału w Olimpiadzie Informatycznej Gimnazjalistów (OIG)?

Ekonometria Bayesowska

POLITECHNIKA WROCŠAWSKA WYDZIAŠ ELEKTRONIKI PRACA DYPLOMOWA MAGISTERSKA

ANALIZA NUMERYCZNA. Grzegorz Szkibiel. Wiosna 2014/15

Janusz Adamowski METODY OBLICZENIOWE FIZYKI Zastosowanie eliptycznych równa«ró»niczkowych

Strategia rozwoju kariery zawodowej - Twój scenariusz (program nagrania).

Ekonometria - wykªad 8

Granular Computing 9999 pages 15 METODY SZTUCZNEJ INTELIGENCJI - PROJEKTY

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Metody Sztucznej Inteligencji II

Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej. Adam Żychowski

Laboratorium z przedmiotu MED. Lab1 - wprowadzenie

Uczenie Maszynowe: Wprowadzenie. (c) Marcin Sydow

Programowanie wspóªbie»ne

Portretowanie zdolności i ich rozwój. Projekt współfinansowany z Unii Europejskiej w ramach Europejskiego Funduszu Społecznego

Systemy decyzyjne Wykªad 5: Drzewa decyzyjne

Ukªady równa«liniowych

3. (8 punktów) EGZAMIN MAGISTERSKI, Biomatematyka

Elementarna statystyka Wnioskowanie o regresji (Inference 2 czerwca for regression) / 13

7. Maszyny wektorów podpierajacych SVMs

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

LZNK. Rozkªad QR. Metoda Householdera

DREAM5 Challenges. Metody i rezultaty. Praktyki wakacyjne 2010 sesja sprawozdawcza

c Marcin Sydow Przepªywy Grafy i Zastosowania Podsumowanie 12: Przepªywy w sieciach

Listy Inne przykªady Rozwi zywanie problemów. Listy w Mathematice. Marcin Karcz. Wydziaª Matematyki, Fizyki i Informatyki.

Stereometria (geometria przestrzenna)

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

2 Liczby rzeczywiste - cz. 2

Agnieszka Nowak Brzezińska Wykład III

Prawdopodobie«stwo warunkowe, twierdzenie Bayesa, niezale»no± zdarze«.

1 Bª dy i arytmetyka zmiennopozycyjna

Systemy decyzyjne Wprowadzenie

Teoria grafów i jej zastosowania. 1 / 126

Sztuczne sieci neuronowe oparte na metodach wyszukiwania interesujących projekcji

LXV OLIMPIADA FIZYCZNA ZAWODY III STOPNIA

Modele liniowe i mieszane na przykªadzie analizy danych biologicznych - Wykªad 1

Wzorce projektowe strukturalne cz. 1

Twierdzenie Wainera. Marek Czarnecki. Warszawa, 3 lipca Wydziaª Filozoi i Socjologii Uniwersytet Warszawski

Agnieszka Nowak Brzezińska Wykład III

MiASI. Modelowanie systemów informatycznych. Piotr Fulma«ski. 18 stycznia Wydziaª Matematyki i Informatyki, Uniwersytet Šódzki, Polska

Wst p. Elementy systemów decyzyjnych Sprawy organizacyjne. Wprowadzenie Przegl d metod klasykacji

Instytut Podstaw Informatyki Polskiej Akademii Nauk. Marek Grochowski

Relacj binarn okre±lon w zbiorze X nazywamy podzbiór ϱ X X.

Liniowe zadania najmniejszych kwadratów

Lekcja 9 Liczby losowe, zmienne, staªe

XVII Warmi«sko-Mazurskie Zawody Matematyczne

Metody klasyfikacji danych - część 1 p.1/24

CAŠKOWANIE METODAMI MONTE CARLO Janusz Adamowski

Epigenome - 'above the genome'

NUMER IDENTYFIKATORA:

Transkrypt:

opiekun naukowy: prof. Wªodzisªaw Duch Katedra Informatyki Stosowanej Wydziaª Fizyki Astronomii i Informatyki Stosowanej Uniwersytet Mikoªaja Kopernika w Toruniu 29 Pa¹dziernik 2009, IPIPAN, Warszawa

Plan Ogólna idea Inspiracje Stan obecny Plan prezentacji Ogólna idea i motywacje Zasada dziaªania UMU Uzyskane wyniki Mo»liwo±ci udoskonalenia Konkluzje Stan zaawansowania pracy Dotychczasowy dorobek naukowy

Plan Ogólna idea Inspiracje Stan obecny Ogólna idea Pomimo post pu, systemy CI daleko w tyle za systemami biologicznymi. Algorytmy s zwykle do± wyranowane, ale klucz do sukcesu mo»e si kry w ltrach informacji i mechanizmach porcjowania. Motywacje biologiczne neurony w korze asocjacyjnej silnie si ze sob ª cz tworz c minikolumny, które rezonuj na ró»nych cz stotliwo±ciach perceptron obserwuj c minikolumny uczy si reagowa na specyczne sygnaªy o okre±lonej cz stotliwo±ci rezonatory nie wzbudzaj si kiedy ogólna aktywno± jest wysoka, ale raczej kiedy osi gni ty zostaje pewien poziom aktywno±ci je±li te sygnaªy s skorelowane z jak ± istotn aktywno±ci, wówczas s brane pod uwag, w przeciwnym wypadku sygnaª nie jest u»ywany

Plan Ogólna idea Inspiracje Stan obecny Inspiracje Motywacje biologiczne test: nowy przypadek aktywuje du» liczb ukªadów neuronów w korze, ale wzajemna konkurencja i lokalne hamowanie zostawia tylko niewielk liczb najbardziej aktywnych neuron progowy odczytuje poziom aktywno±ci specycznych ukªadów neuronów i ocenia podobie«stwo do jednej z kategorii Wnioski z motywacji biologicznych wiele spojrze«na ten sam obiekt; ltrowanie nowych cech przez lokalne funkcje liczba cech nie ustalona, ale dynamicznie generowana a» uzyska si wystarczaj co du»o informacji do podj cia prawidªowej decyzji wi ksza uwaga na generacj nowych cech; systematyczna konstrukcja i selekcja przed uczeniem (proste i dobre modele)

Plan Ogólna idea Inspiracje Stan obecny Stan obecny Ograniczenia metod CI Reguªa no free lunch". Zwykªe drzewa i systemy reguªowe dobre gdy prosta i logiczna struktura (ostre granice decyzji); zªe tam gdzie najlepsze rozwi zanie daje liniowa dyskryminacja. SVM wraz z ró»nymi kernelami dobre, gdy wymagana jest zªo»ona topologia, ale pomija proste rozwi zania. Nie dziaªa dobrze dla zªo»onych funkcji Boolowskich lub gdy wymagane s ostre granice.

Plan Ogólna idea Inspiracje Stan obecny Stan obecny Szukanie dobrego modelu Ka»dy system posiada pewn specyk, która czyni go dobrym jedynie dla pewnej klasy problemów. Odkrycie tej specyki i znalezienie odpowiedniego modelu nie jest zadaniem prostym i zazwyczaj realizowane jest poprzez eksperymenty oparte o pre-processing, ltry i selekcj, klasteryzacj, klasykacj (aproksymacj ) oraz poª czone jest z takimi elementami meta-uczenia jak stacking, boosting czy komitety. St d liczba mo»liwo±ci przy u»yciu automatycznego szukania jest bardzo du»a, czasochªonna i zdarza si,»e nie warta oczekiwania.

Plan Ogólna idea Inspiracje Stan obecny Dwa podej±cia Pierwszy sposób Pierwszym podej±ciem wydaje si by znalezienie ogólnej charakterystyki danych i porównanie jej z danymi referencyjnymi, dla których ranking rezultatów otrzymanych z ró»nych systemów jest w miar stabilny. Jednak nawet niewielka zmiana w rozkªadzie danych mo»e spowodowa konieczno± caªkowitej zmiany granicy decyzji. Drugi sposób Drugie podej±cie to kombinacja rozmaitych transformacji danych, a nast pnie u»ycie meta-szukania w takiej przestrzeni cech.

Podstawy Algorytm Konstrukcja cech UMU jako sie Zasada dziaªania UMU bazuje na systematycznym generowaniu i selekcji cech; rosn ca komplikacja modeli. Cel: najprostsze, dobre modele dla wszystkich rodzajów zada«. To kolejny krok do budowy systemów meta-ucz cych opartych raczej na konstrukcji cech ni» tworzeniu skomplikowanych modeli. Nawi zanie do meta-uczenia Rozwi zanie oparte o transformacje oferuje nam stworzenie systemu, który ma szans sta si odpowiednim dla wszystkich rodzajów zada«. Jednak»e sukces meta-poszukiwania optymalnego zestawienia transformacji le»y w mo»liwo±ciach transformacji, które wydobywaj u»yteczne cechy i radz sobie z rozmaitymi specycznymi problemami.

Podstawy Algorytm Konstrukcja cech UMU jako sie Algorytm Algorytm UMU bazuj na bardzo ogólnym algorytmie: stwórz nowe cechy (wygeneruj transformacje) sprawd¹ czy pomagaj one w uczeniu (wygeneruj rezultaty i wybierz) Moje podej±cie do UMU Uczenie z u»yciem schematów, ale ja skupiam si na konstrukcji cech. Mo»na posortowa i przeltrowa wedªug jednego ze znanych kryteriów lub sukcesywnie dodawa.

Podstawy Algorytm Konstrukcja cech UMU jako sie Lista mo»liwych nowych cech B1: binarna cecha globalna B2: binarna cecha lokalna, ograniczona przez inne cechy binarne B3: binarna cecha lokalna, ograniczona przez odlegªo± ; b = 0 r 1 [r1, r 1 + ]... r k [r, r + ]; szukanie jest wykonywane k k oddzielnie dla ka»dej warto±ci cechy binarnej; b - warto± cechy binarnej [r, r + ] - przedziaª akceptowanych warto±ci k-tej cechy k k N1: nominalna cecha lokalna, ograniczona podobnie jak cechy B2 i B3 R1: liniowa cecha globalna; rzut danych na prost ; progi lub interwaªy mog zmienia j w cech B1

Podstawy Algorytm Konstrukcja cech UMU jako sie Lista mo»liwych nowych cech R2: liniowa cecha lokalna, tak jak R1, ale ograniczona przez inne cechy R3: liniowa cecha lokalna, tak jak R1, ale ograniczona przez odlegªo± R4: liniowa cecha globalna; liniowa kombinacja cech oryginalnych (PCA, ICA,...) P: oparte na prototypach cechy lokalne q i = exp( x i r ) M: motywy bazuj ce na korelacjach pomi dzy elementami T: nieliniowe transformacje radialne, separuj ce, itp.

Podstawy Algorytm Konstrukcja cech UMU jako sie Rodzaje cech Cechy oryginalne Zbiór takich cech mo»e by u»yty do cz ±ciowego rozwi zania problemu; niektóre mog by bezpo±rednio u»yteczne wi c powinny by wybrane i przetestowane pod tym k tem. Kolejne cechy mog zosta utworzone przez rozmaite transformacje i szablony ltrów w celu wydobycia u»ytecznej informacji. Hierarchia cech powinna by z góry zaªo»ona, w oparciu o rodzaj granic decyzji jakie dana cecha dostarcza.

Podstawy Algorytm Konstrukcja cech UMU jako sie Rodzaje cech Globalne (nieograniczone) cechy binarne Najprostsze cechy to cechy binarne. Mog by zarówno nieograniczone (kiedy u»ywamy caªych danych) tworz c cechy globalne lub ograniczone tworz c cechy lokalne. Surowe cechy binarne powinny by traktowane jako globalne. Mog by wytworzone z innych cech poprzez podziaª cech nominalnych na podzbiory lub podziaª cech rzeczywistych na interwaªy. Lokalne (ograniczone) cechy binarne Mo»na je uzyska przez naªo»enie rozmaitych ogranicze«. Dla binarnych cech prowadzi to do zespoªu cech lokalnych, które pomagaj rozró»ni interesuj ce regiony w przestrzeni. Ograniczenia mog by tworzone przy u»yciu drzew decyzyjnych, np. je±li istnieje taki gªówny podziaª,»e: z = (x 1 < t 1 ) (x 2 t 2 ), wówczas z b dzie cech binarn utworzon przez projekcj na x 2 ograniczon przez x 1 < t 1 (lub odwrotnie).

Podstawy Algorytm Konstrukcja cech UMU jako sie Rodzaje cech Cechy rzeczywiste Cechy rzeczywiste okazuj si cz sto istotne w procesie uczenia. Pojedyncze cechy mog tak»e pokaza interesuj ce rozkªady p(x C), np. k du»ych grup warto±ci, gdzie ka»da z grup odpowiada temu samemu typowi obiektów (metoda arpm). Takie k separowalne rozwi zania s bardzo u»yteczne przy uczeniu zªo»onych funkcji Boolowskich.

Podstawy Algorytm Konstrukcja cech UMU jako sie Rodzaje cech Liniowa kombinacja cech pierwotnych Cz sto liniowa kombinacja cech oryginalnych daje lepsze cechy od nich samych. Najprostsza i najta«sza metoda: wyliczy centra klas m i i znormalizowane rzuty na kierunki w ij = (m i m j )/ m i m j. Je±li prawdopodobie«stwa warunkowe p(x C) maj rozkªady Gauss, wówczas z(x; w) = w x zawiera wi kszo± u»ytecznych informacji dla procesu klasykacji. Rysuj c p(z C) mo»na zobaczy obszary mocnego nakrywania si, pozwala to na wyznaczenie wektorów granicznych, czyli tych blisko progu p(z C i ) = p(z C j ).

Podstawy Algorytm Konstrukcja cech UMU jako sie Rodzaje cech Cechy oparte o kernele Kernele oceniaj podobie«stwo w odniesieniu do referencyjnych wektorów, tworz zatem nowe cechy z i = K(x (i), x). Najbardziej popularne s kernele Gaussowskie, tworz cechy mówi ce jak daleko wektor x znajduje si od referencyjnego wektora wsparcia x (i). Kwadratow optymalizacj w SVM mo»na zast pi przez jedn z liniowych technik dyskryminacyjnych posiadaj cych szeroki margines. Jasno sprecyzowane generowanie cech bazuj cych na ró»nych miarach podobie«stwa, niweluje w skie gardªo SVM, umo»liwiaj c w procesie optymalizacji u»ycie ró»nej rozdzielczo±ci w ró»nych cz ±ciach przestrzeni cech.

Podstawy Algorytm Konstrukcja cech UMU jako sie Adaptacyjna regularyzacja Prosta regularyzacja bazuje na minimalizacji unormowanego wektora wag w (SVM). Wymusza wygªadzenie granic decyzji, obni»a zªo»ono± modelu, a co za tym idzie, cz sto nie jest w stanie znale¹ najprostszego rozwi zania. Generowanie cech kernelowych powinno zatem przebiega od najbardziej ogólnych, daj c prawie hiperpªaszczyznow granic decyzji z centrami daleko od granic decyzji (wyznaczonych przez patrzenie na rozkªad z = w x dla kierunku w = (m 1 m 2 )/ m 1 m 2 ) a» do bardziej dokªadnego, wysoko nieliniowego jedynie w pobli»u granicy.

Podstawy Algorytm Konstrukcja cech UMU jako sie Rodzaje cech Lokalne cechy bazuj ce na prototypach Tworzone s przy u»yciu wektorów wsparcia w pobli»u granic decyzji. Proces tworzenia: wykonaj rzut na kierunek z i = w i x wyznaczony przez ±rednie dla ka»dej z klas (kierunki mog by te» wyznaczone przez centra klastrów dla ka»dej z klas) wybierz wektory, które po projekcji znajd si w przedziale: z i [θ i r, θ i + r], gdzie r = 0.05 max(z i ) min(z i ), a próg p(z i C = θ i ) = p(z i C ) policz odlegªo±ci pomi dzy wybranymi wektorami i zostaw te, które posiadaj [0.5 + ɛ, 1 ɛ] s siadów z tej samej klasy (np. ɛ = 0.1) w promieniu σ zrób klasteryzacj tak wybranych wektorów otrzymuje si wygªadzone, lokalne cechy q(x) = exp( x p /σ)

Podstawy Algorytm Konstrukcja cech UMU jako sie Sie konstruktywistyczna W zªy reprezentuj transformacje i procedury wykorzystywane do wydobycia u»ytecznych cech; dodatkowe warstwy analizuj struktur danych w nowej przestrzeni cech. Kolejno± poszukiwania nowych cech oryginalne binarne nominalne rzeczywiste ograniczone bazuj ce na projekcjach oparte o prototypy Proces ten to poszukiwanie w przestrzeni rozmaitych cech, analogicznie do szukania w przestrzeni modeli.

Cechy binarne Rezultaty UMU Cechy binarne wyodr bnione z drzewa Dane Cechy B1 Australian F 8 < 0.5 F 8 0.5 F 9 0.5 Appendicitis F 7 7520.5 F 7 < 7520.5 F 4 < 12 Heart F 13 < 4.5 F 12 < 0.5 F 13 4.5 F 3 3.5 Diabetes F 2 < 123.5 F 2 143.5 Wisconsin F 2 < 2.5 F 2 4.5 Hypothyroid F 17 < 0.00605 F 17 0.00605 F 21 < 0.06472

Cechy binarne Rezultaty UMU Dane Klasykator SVM (#SV) SSV (#Li±ci) NB Australian 84.9±5.6 (203) 84.9±3.9 (4) 80.3±3.8 UMU 86.8±5.3(166) 87.1±2.5(4) 85.5±3.4 cechy B1(2)+P1(3) B1(2)+R1(1)+P1(3) B1(2) Appendicitis 87.8±8.7 (31) 88.0±7.4 (4) 86.7±6.6 UMU 91.4±8.2(18) 91.7±6.7(3) 91.4±8.2 cechy B1(2) B1(2) B1(2) Heart 82.1±6.7 (101) 76.8±9.6 (6) 84.2±6.1 UMU 83.4±3.5(98) 79.2±6.3(6) 84.5±6.8 cechy Data + R1(3) Data + R1(3) Data + B1(2) Diabetes 77.0±4.9 (361) 73.6±3.4 (4) 75.3±4.7 UMU 78.5±3.6(338) 75.0±3.3(3) 76.5±2.9 cechy Data + R1(3) + P1(4) B1(2) Data + B1(2) Wisconsin 96.6±1.6 (46) 95.2±1.5 (8) 96.0±1.5 UMU 97.2±1.8(45) 97.4±1.6(2) 97.2±2.0 cechy Data + R1(1) + P1(4) R1(1) R1(1) Hypothyroid 94.1±0.6 (918) 99.7±0.5 (12) 41.3±8.3 UMU 99.5±0.4(80) 99.6±0.4(8) 98.1±0.7 cechy Data + B1(2) Data + B1(2) Data + B1(2)

Ulepszenia arpm Konkluzje Usprawnienia Ulepszenia Inne konstruktory cech: transformacje redukuj ce wymiarowo± (PCA, ICA i inne) nowe cechy lokalne przy pomocy Almost Random Projection Machine (arpm)

Ulepszenia arpm Konkluzje arpm Ogólna idea algorytm wstecznej propagacji bª du u»ywany do uczenia sieci MLP: nieliniowe systemy, nieseparowalne problemy, powolny MLP jest znacznie prostsze ni» biologiczne sieci neuronowe wsteczna propagacja jest ci»ka do uzasadnienia z biologicznego punktu widzenia

Ulepszenia arpm Konkluzje Algorytm arpm 1: Oznacz wszystkie wektory X jako nowe". 2: for i = 0 to N rep do 3: Losowo wyznacz wagi W i, w i [ 1, 1]. 4: Wygeneruj now projekcj z i = W i X. 5: Przeanalizuj rozkªady p(z i C) aby wyznaczy interesuj ce klastry. 6: Dodaj je jako nowe cechy G(z i ; C), lub oznaczone klas neurony warstwy ukrytej. 7: Zsumuj aktywno± podgrup ukrytych neuronów dla ka»dej z klas aby wyznaczy wyj±cie sieci y(c X) = i G(z i; C). 8: Usu«oznaczenie nowe z tych wektorów, dla których y(c X) β 9: end for 10: Dokonaj walidacji sieci. 11: if dokªadno± nie wzrosªa then return sie 12: else goto 2

Ulepszenia arpm Konkluzje Architektura sieci

Ulepszenia arpm Konkluzje Ile potrzeba klastrów?

Ulepszenia arpm Konkluzje Przykªadowe wyj±cie sieci

Ulepszenia arpm Konkluzje Przykªadowe wyj±cie sieci

Ulepszenia arpm Konkluzje Przykªadowe wyj±cie sieci

Ulepszenia arpm Konkluzje arpm Dane Metoda C4.5 knn MLP SVM arpm Parity8 31.6 ± 1.3 (1) 100 ± 0 (17) 94.1 ± 2.1 (17) 32.4 ± 4.4 (230) 99.2 ± 1.6 (12) Parity10 40.4 ± 1.6 (1) 100 ± 0 (21) 89.2 ± 12.3 (21) 39.1 ± 6.5 (920) 99.5 ± 0.9 (12) Leukemia 82.6 ± 8.3 (5) 97.2 ± 1.6 (2) 95.8 ± 3.6 (52) 98.7 ± 3.9 (15) 96.1 ± 8.6 (19) Heart 77.8 ± 2.1 (33) 81.8 ± 6.6 (45) 79.5 ± 1.3 (8) 81.5 ± 1.3 (94) 78.3 ± 4.2 (43) Wisconsin 94.7 ± 2.0 (21) 97.0 ± 1.7 (5) 94.2 ± 0.2 (6) 96.3 ± 2.1 (49) 97.9 ± 1.6 (30) Liver 65.8 ± 2.2 (51) 62.0 ± 1.1 (44) 67.5 ± 3.1 (5) 69.2 ± 10.3 (236) 61.1 ± 5.1 (47)

Ulepszenia arpm Konkluzje Konkluzje systematyczna eksploracja cech umo»liwia odkrywanie prostych modeli, które bardziej wyszukane systemy uczenia pomijaj dotychczasowe rezultaty nadziej na uniwersalny system cechy kernelowe atrakcyjn alternatyw dla obecnych rozwi za«(adaptacyjna regularyzacja) UMU to nowe mo»liwo±ci w kierunku tworzenia prostych, zrozumiaªych i dokªadnych modeli

Ulepszenia arpm Konkluzje Informacje dodatkowe Stan zaawansowania pracy... Publikacje: T. Maszczyk and W. Duch. Comparison of Shannon, Renyi and Tsallis entropy used in decision trees. Lecture Notes in Computer Science, 5097:643-651, 2008. T. Maszczyk and W. Duch. Support vector machines for visualization and dimensionality reduction. Lecture Notes in Computer Science, 5163:346-356, 2008. W. Duch and T. Maszczyk. Almost random projection machine. Lecture Notes in Computer Science, 5768:789-798, 2009. W. Duch, T. Maszczyk. Universal Learning Machines. Lecture Notes in Computer Science, 5864:206-215, 2009. T. Maszczyk, M. Grochowski, W. Duch. Discovering Data Structures using Meta-learning, Visualization and Constructive Neural Networks., Advances in Machine Learning (ed. J. Koronacki), 2010 (rozdziaª w ksi»ce)

Ulepszenia arpm Konkluzje Informacje dodatkowe Udziaª w konferencjach i szkoªach: The 19th International Conference on Articial Neural Networks, Limassol, Cyprus, 14-17.09.2009. The 18th International Conference on Articial Neural Networks, Prague, Czech Republic, 03-06.09.2008. The Ninth International Conference on Articial Intelligence and Soft Computing, Zakopane, 22-26.06.2008. Summer School on Neural Networks in Classication, Regression and Data Mining, Porto, 07-11.07.2008. Summer School in Statistical Learning, Data mining and Regression Tools, Terra Murata, 03-07.07.2007.

Ulepszenia arpm Konkluzje Informacje dodatkowe Inne osi gni cia: Trzecie miejsce w konkursie: Metalurgical Process Regression Modelling", czerwiec 2008. Wspóªpraca naukowa z Gªównym Instytutem Górnictwa. Wspóªpraca naukowa z Politechnik l sk.

Ulepszenia arpm Konkluzje Dzi kuj za uwag!