Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań

Podobne dokumenty
Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

Zastosowania sieci neuronowych

Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej. Adam Żychowski

Deep Learning na przykładzie Deep Belief Networks

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Analiza stanów gry na potrzeby UCT w DVRP

Obrona rozprawy doktorskiej Neuro-genetyczny system komputerowy do prognozowania zmiany indeksu giełdowego

Optymalizacja optymalizacji

Uczenie sieci typu MLP

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

MATLAB Neural Network Toolbox przegląd

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

MATLAB Neural Network Toolbox uczenie sieci (dogłębnie)

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Algorytmy wstecznej propagacji sieci neuronowych

Testowanie modeli predykcyjnych

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład I dr inż. 2015/2016

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

Sieci neuronowe w Statistica

Metody klasyfikacji i rozpoznawania wzorców. Najważniejsze rodzaje klasyfikatorów

Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner

Elementy inteligencji obliczeniowej

DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

wiedzy Sieci neuronowe

Projekt Sieci neuronowe

Metody Sztucznej Inteligencji II

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW

KLASYFIKACJA. Słownik języka polskiego

Optymalizacja ciągła

Metody klasyfikacji danych - część 1 p.1/24

Zastosowania sieci neuronowych

Kombinacja jądrowych estymatorów gęstości w klasyfikacji wstępne wyniki

Uczenie sieci radialnych (RBF)

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Zadanie 2.: Perceptron wielowarstwowy


Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie

ZASTOSOWANIE AUTORSKIEJ METODY WYZNACZANIA WARTOŚCI PARAMETRÓW NOWOCZESNYCH SYSTEMÓW TECHNICZNYCH DO PŁUGÓW I OPRYSKIWACZY POLOWYCH

Seminarium IO. Zastosowanie metody PSO w Dynamic Vehicle Routing Problem (kontynuacja) Michał Okulewicz

SZTUCZNA INTELIGENCJA

Seminarium IO. Zastosowanie wielorojowej metody PSO w Dynamic Vehicle Routing Problem. Michał Okulewicz

Inteligentne systemy przeciw atakom sieciowym

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

I EKSPLORACJA DANYCH

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

ĆWICZENIE 5: Sztuczne sieci neuronowe

Wprowadzenie do sieci neuronowych i zagadnień deep learning

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Wstęp do głębokich sieci neuronowych. Paweł Morawiecki IPI PAN

SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU)

Algorytm grupowania danych typu kwantyzacji wektorów

Podstawy sztucznej inteligencji

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I.

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.

Streszczenie. Słowa kluczowe: modele neuronowe, parametry ciągników rolniczych

Podstawy Sztucznej Inteligencji

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Prof. Stanisław Jankowski

Podstawy Sztucznej Inteligencji (PSZT)

RAPORT Z PRAKTYKI. Zastosowanie Sztucznych Sieci Neuronowych do wspomagania podejmowania decyzji kupna/sprzedaży na rynku Forex.

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Zadanie 3.: Klasyfikacje

Widzenie komputerowe

METODY INŻYNIERII WIEDZY

8. Neuron z ciągłą funkcją aktywacji.

WYKORZYSTANIE SIECI NEURONOWYCH DO ODWZOROWANIA DEFORMACJI POWIERZCHNI NA TERENACH GÓRNICZYCH

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

METODY INŻYNIERII WIEDZY

Systemy agentowe. Uwagi organizacyjne. Jędrzej Potoniec

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych

Sieć przesyłająca żetony CP (counter propagation)

Uczenie sieci neuronowych i bayesowskich

WEKA klasyfikacja z użyciem sztucznych sieci neuronowych

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Algorytmy sztucznej inteligencji

WEKA klasyfikacja z użyciem sztucznych sieci neuronowych

Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska

Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe. Krzysztof Regulski, WIMiIP, KISiM, B5, pok. 408

ZESZYTY NAUKOWE WSOWL. Nr 4 (162) 2011 ISSN NAUKI EKONOMICZNE

Rozpoznawanie obrazów

Sztuczne sieci neuronowe (SNN)

Podstawy sztucznej inteligencji

SIECI RBF (RADIAL BASIS FUNCTIONS)

ZASTOSOWANIE SIECI NEURONOWYCH DO OPTYMALIZACJI WARUNKÓW OBRÓBKI CIEPLNEJ STOPÓW Mg-Al

Rozpoznawanie obrazów

ALGORYTM ROZPOZNAWANIA OBRAZÓW MATERIAŁÓW BIOLOGICZNYCH

Stochastic modelling of phase transformations using HPC infrastructure

Politechnika Warszawska

Uczenie maszynowe w zastosowaniu do fizyki cząstek

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2014/2015

Transkrypt:

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW 25 III 2014 Jan Karwowski (MiNI) PSO w MLP 25 III 2014 1 / 24

Jan Karwowski, Michał Okulewicz, Jarosław Legierski (Orange Labs). Application of particle swarm optimization algorithm to neural network training process in the localization of the mobile terminal. Engineering Applications of Neural Networks, strony 122 131. Springer, 2013. Jan Karwowski (MiNI) PSO w MLP 25 III 2014 2 / 24

Problem (poprzednia część) Wejście Wektor sił sygnałów z punktów dostępowych WiFi, 107 punktów dostępowych w budynku. Wektor sił sygnałów BTS sieci komórkowych Około 1200 punktów pomiarowych, 40 pomiarów w punkcie w serii. 3 serie. Wyjście Współrzędne XYZ Numer pomieszczenia Piętro Y X Jan Karwowski (MiNI) PSO w MLP 25 III 2014 3 / 24

MLP b 1 2 3... 107 b 4 1 2 3... X Y Z BP Propagacja wsteczna błędu, aktualizacja wag po każdej prezentacji wzorca, w każdej iteracji zmiana kolejności wzorców. Jan Karwowski (MiNI) PSO w MLP 25 III 2014 4 / 24

PSO M Clerc, i in. Standard PSO 2011. http://www. particleswarm. info/, Particle Swarm Central, 2011. Dwufazowy proces uczenia sieci: 1 znajdowanie wstępnegych wag sieci za pomocą niedużej liczby iteracji PSO 2 uczenie za pomocą BP, startując z wag połączeń znalezionych przez PSO. Jan Karwowski (MiNI) PSO w MLP 25 III 2014 5 / 24

Poprzednie wnioski Dodanie fazy PSO: Lepsze wyniki dla dużych sieci z dużą liczbą próbek Lepsze wyniki dla głębokich (wiele warstw) architektur MLP Możliwość używania zarówno z regresją jak i klasyfikacją (sprawdzone głównie z regresją) Jan Karwowski (MiNI) PSO w MLP 25 III 2014 6 / 24

Kierunki grudzień-marzec Testowanie na innych problemach niż lokalizacja w MiNI Inne funkcje błędu niż MSE Regularyzacja wag i usuwanie krawędzi Jan Karwowski (MiNI) PSO w MLP 25 III 2014 7 / 24

Zbiory benchmarkowe UCI: iris glass new-thyroid microarrays: breast2 lymphoma K. Bache, M. Lichman, UCI machine learning repository, 2013. URL: http://archive.ics.uci.edu/ml. K. Moorthy, M. S. Mohamad, Random forest for gene selection and microarray data classification, Bioinformation (2011) 142 146. URL: http://www.bioinformation.net/007/97320630007142.pdf. Odmienna charakterystyka zbiorów. Podział na 3 części. Jan Karwowski (MiNI) PSO w MLP 25 III 2014 8 / 24

Eksperymenty 30 podziałów zbioru na uczący, testowy, walidacyjny, proporcja: 60:20:20, proporcja klas taka jak w całości. Ten sam zestaw podziałów w każdym eksperymencie 2 powtórzenia dla danego podziału, dla każdego zestawu parametrów PSO Prezentowane wyniki: Średnia ze wszystkich przebiegów dla każdej pary (zbiór, parametry uczenia) Jan Karwowski (MiNI) PSO w MLP 25 III 2014 9 / 24

Architektury sieci (pełne połączenia) breast2 4868 8 2 3lbreast2 4868 15 15 15 2 glass 9 8 6 3lglass 9 8 8 8 6 thyroid 5 4 3 Jan Karwowski (MiNI) PSO w MLP 25 III 2014 10 / 24

Wyniki z grudnia Data structure structure BP PSO+BP BP PSO+BP iris 3 10-6 95.52 ± 6.41 95.30 ± 6.60 49.79 ± 33.67 94.43 ± 8.04 new-thyroid 8 10-10 96.39 ± 4.61 95.67 ± 5.78 72.26 ± 11.34 95.51 ± 5.61 glass 3 10-3 59.33 ± 11.12 61.19 ± 11.13 32.16 ± 9.99 54.78 ± 11.51 breast2 4 20-5 60.70 ± 15.31 63.27 ± 11.64 57.90 ± 16.77 59.25 ± 15.24 lymphoma 8 10-5 95.30 ± 8.82 99.52 ± 2.61 95.58 ± 7.85 95.63 ± 8.58 Tabela: Skuteczność klasyfikacji na zbiorach benchmarkowych. Wszystkie dane w % próbek na zbiorze testowym Jan Karwowski (MiNI) PSO w MLP 25 III 2014 11 / 24

Inne funkcje błędu a i otrzymane wyjście, d i spodziewane wyjście logloss e = i log (1 d i a i ) Różnica ze oczekiwaną klasą Tylko klasyfikacja kodowana jako wektory zer i jedynki!! c oczekiwana klasa t parametr: próg pełnej akceptacji e = max i c log min{t, (a i a c )} + 1 Jan Karwowski (MiNI) PSO w MLP 25 III 2014 12 / 24

Wyniki breast2 3lbreast2 glass 3lglass thyroid BP 58.5 ± 17.2 56.8 ± 18.1 44.4 ± 14.9 37.8 ± 13.6 96.4 ± 5.3 logloss 56.8 ± 17.4 57.5 ± 15.7 54.2 ± 11.4 51.2 ± 10.1 95.9 ± 4.4 MSE 61.8 ± 17.0 59.5 ± 13.8 55.7 ± 11.1 50.4 ± 11.2 96.4 ± 4.4 matche 59.1 ± 15.4 60.1 ± 18.4 50.4 ± 11.4 31.6 ± 10.1 96.0 ± 5.0 Tabela: Eksperyment 4.6x, BP uczenie tylko propagacją wsteczną, pso* uczenie najpierw PSO, a potem BP Jan Karwowski (MiNI) PSO w MLP 25 III 2014 13 / 24

1 3lglass-pso5-bp1 51.30952 11.87383 training validation validation match 100 90 80 70 60 50 40 30 20 10 0.1 0 50 100 150 200 250 Jan Karwowski (MiNI) PSO w MLP 25 III 2014 14 / 24

Regularyzacja suma modułów suma kwadratów w i W w i W w i w 2 i bez rozróżnienia na duże i bardzo duże wagi w i W αw 2 i 1 + αw 2 i Jan Karwowski (MiNI) PSO w MLP 25 III 2014 15 / 24

Wyniki z regularyzacją 200 iteracji PSO pso_weightspenalty.class=\ tuna.logic.absoluteweightpenaltyfunction pso_weightspenalty.penaltycoefficient=.5 breast2 3lbreast2 glass 3lglass thyroid BP 58.6 ± 18.6 54.5 ± 19.8 39.1 ± 14.3 31.7 ± 9.9 97.0 ± 4.3 logloss 62.2 ± 16.3 54.3 ± 20.0 52.9 ± 11.6 31.0 ± 9.5 97.9 ± 2.5 MSE 63.0 ± 17.1 56.1 ± 19.5 47.2 ± 13.2 31.6 ± 10.1 97.1 ± 4.0 matche 61.7 ± 16.7 53.8 ± 20.1 43.3 ± 15.2 33.3 ± 10.3 97.0 ± 4.0 Tabela: Eksperyment 4.5t, BP uczenie tylko propagacją wsteczną, pso* uczenie najpierw PSO, a potem BP Jan Karwowski (MiNI) PSO w MLP 25 III 2014 16 / 24

1000 3lbreast2-pso5-bp2 56.10119 19.47094 training validation 100 10 1 0.1 0 50 100 150 200 250 300 350 400 Jan Karwowski (MiNI) PSO w MLP 25 III 2014 17 / 24

Usuwanie krawędzi w PSO Problem PSO wiele cząstek Usunięcie krawędzi t na koniec przebiegu Usuwanie krawędzi co k iteracji Jan Karwowski (MiNI) PSO w MLP 25 III 2014 18 / 24

breast2 3lbreast2 glass 3lglass thyroid BP 62.4 ± 16.0 X 41.1 ± 13.1 X 95.9 ± 4.7 logloss 67.1 ± 15.2 X 48.9 ± 9.3 X 96.7 ± 4.4 MSE 62.2 ± 14.4 X 48.6 ± 11.7 X 95.7 ± 4.8 matche 62.0 ± 16.3 X 48.6 ± 12.2 X 96.0 ± 4.4 Jan Karwowski (MiNI) PSO w MLP 25 III 2014 19 / 24 Wyniki regularyzacja+usuwanie (dwa warianty bp) breast2 3lbreast2 glass 3lglass thyroid BP 59.8 ± 16.8 X 40.4 ± 14.8 X 95.6 ± 6.0 logloss 62.3 ± 17.1 X 52.8 ± 12.4 X 96.7 ± 4.1 MSE 62.3 ± 16.4 X 49.2 ± 14.1 X 95.4 ± 6.4 matche 63.0 ± 16.9 X 46.3 ± 15.6 X 95.5 ± 5.5 Tabela: Eksperyment 4.5e, BP uczenie tylko propagacją wsteczną, pso* uczenie najpierw PSO, a potem BP

100 10 1 0.1 0.01 breast2-pso4-bp1 67.1131 15.22804 training validation validation match 100 90 80 70 60 50 40 30 20 10 0.001 0 20 40 60 80 100 120 140 Zbiór walidacyjny! Jan Karwowski (MiNI) PSO w MLP 25 III 2014 20 / 24

Zmiana współczynnika karania za wagi w czasie Liniowy wzrost współczynnika od 0 w pierwszej iteracji do 1 w ostatniej Modyfiakcje PSO Eksperyment 4.6h: p: 0 0.11 Funkcja kary: suma modułów 150 iteracji PSO breast2 3lbreast2 glass 3lglass thyroid BP 58.1 ± 18.1 55.4 ± 19.5 42.9 ± 15.6 34.9 ± 12.8 96.4 ± 5.2 logloss 60.3 ± 16.9 55.6 ± 19.6 56.8 ± 11.2 49.3 ± 13.1 96.0 ± 5.0 MSE 60.6 ± 14.8 56.2 ± 19.1 53.1 ± 12.8 34.2 ± 12.4 97.0 ± 3.9 matche 59.1 ± 18.3 56.2 ± 19.8 50.7 ± 13.9 31.3 ± 9.6 96.8 ± 4.0 Tabela: Eksperyment 4.6h, BP uczenie tylko propagacją wsteczną, pso* uczenie najpierw PSO, a potem BP Jan Karwowski (MiNI) PSO w MLP 25 III 2014 21 / 24

10 1 3lglass-pso4-bp2 49.29293 13.10987 training validation validation match 100 90 80 70 60 50 40 30 20 10 0.1 0 50 100 150 200 250 300 Jan Karwowski (MiNI) PSO w MLP 25 III 2014 22 / 24

Wnioski Korzyści ze zmiennej w czasie kary za wielkość wag (małe kary!) Konieczność doboru parametrów do problemu (niestety) Problemy z zatrzymywaniem na zbiorze walidacyjnym Jan Karwowski (MiNI) PSO w MLP 25 III 2014 23 / 24

Przyszłość Wizualizacja wyników Łączone funkcje błędu Regularyzacja suma vs średnia, dobór współczynnika Regularyzacja na poziomie BP Powrót do problemu lokalizacyjnego Zaszumienie prezentacji wzorców Inne zbiory benchmarkowe Jan Karwowski (MiNI) PSO w MLP 25 III 2014 24 / 24