DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI

Podobne dokumenty
Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Uczenie sieci typu MLP

DOI /j

8. Neuron z ciągłą funkcją aktywacji.

Podstawy Sztucznej Inteligencji (PSZT)

UCZENIE WIELOWARSTWOWYCH SZEROKICH SIECI NEURONOWYCH Z FUNKCJAMI AKTYWACJI TYPU RELU W ZADANIACH KLASYFIKACJI

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

Zastosowania sieci neuronowych

MODELOWANIE NEURONALNE ROZWOJU SYSTEMU ELEKTROENERGETYCZNEGO. CZĘŚĆ 2. MODELE SYSTEMU IEEE RTS

Optymalizacja optymalizacji

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

ZASTOSOWANIE SZTUCZNYCH SIECI NEURONOWYCH ORAZ ARCHITEKTURY OPENCL W SPEKTRALNEJ I FALKOWEJ ANALIZIE PRĄDU SILNIKA LSPMSM

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

ĆWICZENIE 5: Sztuczne sieci neuronowe

Sieci neuronowe w Statistica

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

Zastosowania sieci neuronowych

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Metody Sztucznej Inteligencji II

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Uniwersytet w Białymstoku Wydział Ekonomiczno-Informatyczny w Wilnie SYLLABUS na rok akademicki 2012/2013

Wykład wprowadzający

Sztuczna inteligencja

Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2)

Wykład organizacyjny

wiedzy Sieci neuronowe

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

AUTO-STROJENIE REGULATORA TYPU PID Z WYKORZYSTANIEM LOGIKI ROZMYTEJ

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań

Sztuczne siei neuronowe - wprowadzenie

ALGORYTM ROZPOZNAWANIA OBRAZÓW MATERIAŁÓW BIOLOGICZNYCH

ZASTOSOWANIE SIECI NEURONOWYCH DO OPTYMALIZACJI WARUNKÓW OBRÓBKI CIEPLNEJ STOPÓW Mg-Al

Widzenie komputerowe

SIEĆ NEURONOWA JAKO NARZĘDZIE APROKSYMACJI I KLASYFIKACJI DANYCH. Jakub Karbowski Gimnazjum nr 17 w Krakowie

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Podstawy sztucznej inteligencji

MODELOWANIE FAZ ZNI ANIA I L DOWANIA SAMOLOTU BOEING ER PRZY U YCIU SZTUCZNYCH SIECI NEURONOWYCH

Deep Learning na przykładzie Deep Belief Networks

SYMULACJA ZAKŁÓCEŃ W UKŁADACH AUTOMATYKI UTWORZONYCH ZA POMOCĄ OBWODÓW ELEKTRYCZNYCH W PROGRAMACH MATHCAD I PSPICE

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty

Temat: Sieci neuronowe oraz technologia CUDA

MATLAB Neural Network Toolbox przegląd

I EKSPLORACJA DANYCH

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

MODELOWANIE PROCESÓW PRZETWÓRCZYCH Z UŻYCIEM SZTUCZNYCH SIECI NEURONOWYCH

SIECI RBF (RADIAL BASIS FUNCTIONS)

Inteligentne systemy przeciw atakom sieciowym

APLIKACJA NAPISANA W ŚRODOWISKU LABVIEW SŁUŻĄCA DO WYZNACZANIA WSPÓŁCZYNNIKA UZWOJENIA MASZYNY INDUKCYJNEJ

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW

Sieć przesyłająca żetony CP (counter propagation)

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

Przykład optymalizacji struktury sztucznej sieci neuronowej metodą algorytmów genetycznych

WYKŁAD 9 METODY ZMIENNEJ METRYKI

Wstęp do sztucznych sieci neuronowych

Podstawy Sztucznej Inteligencji

Politechnika Warszawska

Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej. Adam Żychowski

BADANIA MODELOWE OGNIW SŁONECZNYCH

Karta (sylabus) przedmiotu

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

Identyfikacja obiektów dynamicznych za pomocą sieci neuronowych

Algorytmy wstecznej propagacji sieci neuronowych

Wstęp do głębokich sieci neuronowych. Paweł Morawiecki IPI PAN

Uczenie Wielowarstwowych Sieci Neuronów o

Sztuczne sieci neuronowe

ANALIZA WŁAŚCIWOŚCI FILTRU PARAMETRYCZNEGO I RZĘDU

Elementy inteligencji obliczeniowej

Sztuczne sieci neuronowe

METODA MACIERZOWA OBLICZANIA OBWODÓW PRĄDU PRZEMIENNEGO

Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych

Algorytmy sztucznej inteligencji

Inżynieria Rolnicza 5(114)/2009

A Zadanie

Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie

Egzamin / zaliczenie na ocenę*

Optymalizacja ciągła

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

Uczenie sieci neuronowych i bayesowskich

ID1SII4. Informatyka I stopień (I stopień / II stopień) ogólnoakademicki (ogólno akademicki / praktyczny) stacjonarne (stacjonarne / niestacjonarne)

KONCEPCJA NEURONOWEGO DETEKTORA USZKODZEŃ CZUJNIKA PRĘDKOŚCI DLA UKŁADÓW NAPĘDOWYCH Z SILNIKIEM INDUKCYJNYM STEROWANYCH METODĄ POLOWO ZORIENTOWANĄ

wiedzy Sieci neuronowe (c.d.)

Streszczenie. Słowa kluczowe: modele neuronowe, parametry ciągników rolniczych

Sieci neuronowe i algorytmy uczenia Czyli co i jak andrzej.rusiecki.staff.iiar.pwr.wroc.pl s.

sieci jednowarstwowe w MATLABie LABORKA Piotr Ciskowski

Obliczenia inteligentne Zadanie 4

WIZUALIZACJA 3D STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ Z WYKORZYSTANIEM OPENGL

Celem tych ćwiczeń jest zapoznanie się z klasyfikacją za pomocą sieci neuronowych.

ZASTOSOWANIE PROGRAMU SMATH W ANALIZIE STANÓW USTALONYCH W OBWODACH ELEKTRYCZNYCH

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

PRÓBA ZASTOSOWANIA SIECI NEURONOWYCH DO PROGNOZOWANIA OSIADAŃ POWIERZCHNI TERENU POWSTAŁYCH NA SKUTEK EKSPLOATACJI GÓRNICZEJ**

MODEL SYMULACYJNY ENERGOELEKTRONICZNEGO ZASILACZA AWARYJNEGO UPS O STRUKTURZE TYPU VFI

Transkrypt:

POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 80 Electrical Engineering 2014 Stanisław PŁACZEK* DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI W artykule zaproponowano przeprowadzenie dekompozycji struktury sieci na dwie warstwy. W warstwie I poziomu znajduje się N1 niepowiązanych podsieci. Natomiast w warstwie II poziomu (nadrzędnej) znajduje się podsieć warstwy ukrytej. Warstwy te powiązane są sygnałami V1, V2, które pozwalają na zastosowanie niezależnych algorytmów uczenia dla warstwy I oraz II. Prosty algorytm koordynacji umożliwia obliczenie wartości sygnałów między warstwowych, a tym samym osiągnięcie minimum globalnej funkcji celu. SŁOWA KLUCZOWE: Sztuczne sieci neuronowe, algorytm uczenia, dekompozycja, koordynacja, hierarchia 1. DEKOMPOZYCJA STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ Rozwiązując praktyczne zadania klasyfikacji, aproksymacji, predykcji, identyfikacji, a nawet sterowania procesami dynamicznymi stosuje się Sztuczne Sieci Neutronowe (SSN) z jedną lub dwoma warstwami ukrytymi. Rys. 1. Uproszczony schemat standardowej struktury SSN z jedna warstwą ukrytą Czas uczenia sieci powinien być maksymalnie krótki. Dlatego też stosuje się różne modyfikacje algorytmu wstecznej propagacji błędu. Również przyspieszenie obliczeń można osiągnąć poprzez maksymalne zrównoleglenie wewnętrznej struktury algorytmów i wykorzystać dostępne * Akademia Finansów i Biznesu Vistula w Warszawie.

224 Stanisław Płaczek narzędzia programistyczne związane z wielowątkowością. Z algorytmicznego punktu widzenia uczenie SSN to mnożenie macierzy dla procesu w przód i obliczenia błędu uczenia SSN (W1,W2). Dla procesu wstecz oblicza się macierze pochodnych błędu względem wag macierzy W1 oraz W2 (rys. 1). Rozpatrzono SSN z warstwą wejściową, z jedna warstwą ukrytą oraz wyjściową. Błąd uczenia sieci oblicza się poprzez wielokrotne mnożenie macierzy [2]. U W1 X (1) V F(U) (2) E W2 V (3) Y F(E) (4) 1 (Y Z) 2 T (Y Z) Oznaczenia wszystkich zmiennych i macierzy pokazano na rys. 2. (5) Rys. 2. Schemat dekompozycji SSN na dwie warstwy Wstępna analiza struktury sieci wskazuje na istnienie struktury hierarchicznej. Można wydzielić warstwę pierwszą zawartą pomiędzy wektorem X a wektorem V. Wektor X reprezentuje warstwą wejściową, w której można dokonać różnych przekształceń pierwotnego wektora X, jak filtrację, normalizację i inne. Warstwa druga, to warstwa ukryta reprezentowana przez macierz W2. Dekompozycja polega na odseparowaniu warstwy drugiej, zwanej warstwa drugiego poziomu, od warstwy pierwszej (warstwa dolnego poziomu) poprzez wprowadzenie dwóch dodatkowych wektorów V1 oraz V2. Wprowadzono więc dwa poziomy sieci. Dodatkowo, analizując strukturę warstw I oraz II poziomu z punktu widzenia wyjścia każdej warstwy, można rozbić warstwę I poziomu na N 1 podsieci ze wspólnym

Dekompozycja hierarchicznej struktury sztucznej sieci neuronowej... 225 wektorem wejściowym X. Warstwę drugiego poziomu, można rozbić na N 2 podsieci, ze wspólnym wektorem wejścia V2 (Rys. 2). Jednocześnie zdefiniowano dwie funkcje celu. Dla warstwy II jest to standardowa funkcja celu procesu uczenia, czyli błąd średnio kwadratowy. Dla warstwy drugiej, również zdefiniowano błąd średnio kwadratowy dla wektorów V2, V1. W celu powiązania powstałych w ten sposób podsieci, wprowadzono dwie funkcje wektorowe G i H wiążące wektory V1, V2. Dla procesu w przód V2 G(V 1) (6) Dla procesu wstecz V1 H(V2) (7) Globalną i lokalną funkcje celu zdefiniowano jako kn2 kn2 2 ( W2, V2) k (yk zk ) (8) k1 k1 gdzie: i N1 y k f W2ki V2i (9) i0 k 1, 2... N 2 (10) in1 in1 2 i ( 1i 21) (11) i1 i1 gdzie: j N0 1i f W1ij x j (12) j0 i 1, 2... N1 (13) W zdekomponowanej SSN, w każdej z warstw można wydzielić lokalne funkcje celu podsieci zgodnie z wzorami (8) i (11). We wzorach tych z k, 2 i występują jako parametry zadane z zewnątrz. Funkcje celu I oraz II poziomu mają postać addytywną. Ta zależność umożliwi dalsze uproszenie algorytmu uczenia sieci. 2. STRUKTURA ZDEKOMPONOWANEGO ALGORYTMU UCZENIA Adekwatnie do zdekomponowanej struktury SSN na dwie warstwy, można również zdekomponować standardowy algorytm uczenia oparty na wstecznej propagacji błędu i wydzielić[1]:

226 Stanisław Płaczek Zadanie II poziomu W zadaniu tym poszukiwano minimum globalnej funkcji celu. Ponieważ funkcja ta ma postać addytywną, to zgodnie z (8), jedno zadanie II poziomu można rozbić na N 2 podzadań poszukiwania minimum k. Zadania te nie posiadają żadnych ograniczeń nierównościowych. i N1 min k f W2 ki V2i z k (14) i0 Pochodne funkcji celu względem parametrów W2 ki, V2 i k f (yk zk ) 2i (15) w2 e i ki k 2 k N k1 2 k f ( yk zk ) w2 e Nowe wartości w kolejnej iteracji algorytmu II poziomu W2 k ki (n 1) w2ki (n) 2 W2 (17) 2 k i (n 1) 2i(n) 2 2i k ki ki (16) (18) Po obliczeniu 2 i przez wszystkie procedury II poziomu, wektor V2 jako parametr jest przekazywany do koordynatora. Koordynator mając zdefiniowana funkcję H oblicza nową wartość V2, którą przekazuje do podzadań I poziomu. Zadanie I poziomu W zadaniu tym poszukiwano minimum lokalnej funkcji celu (11). Funkcja ta również ma postać addytywną, co pozwala na sformułowanie N 1 podzadań I poziomu. 2 j 0 N i f W1ij x j 2i 0 j min (19) Pochodne oraz nowe wartości W1 ij obliczono wg wzorów: i f ( 1 2i) x j (20) w1 e w ij 1ij(n 1) w1ij (n) 1 k i (21) w1 ij

Dekompozycja hierarchicznej struktury sztucznej sieci neuronowej... 227 Rys. 3. Schemat procesu koordynacji algorytmu uczenia sieci typu on line W podzadaniach I poziomu składowe wektora V2 otrzymane od koordynatora są parametrem dla lokalnej funkcji celu. Schemat procesu koordynacji przedstawiono na (rys. 3). 3. DEKOMPOZYCJA I KOORDYNACJA W ZADANIU KLASYFIKACJI Zadanie polega na nauczeniu sieci rozpoznawanie funkcji XOR. Nie jest to funkcja bardzo skomplikowana lecz naszym celem jest poznanie wewnętrznych charakterystyk procesu uczenia dla podsieci I oraz II poziomu. Rys. 4. Rezultat uczenia sieci Zastosowano SSN z dwoma neuronami wejściowymi, trzy neurony w warstwie ukrytej i jeden w wyjściowej. Próbka ucząca zawierała cztery składowe wektorów X i Y.

228 Stanisław Płaczek Na pierwszym i drugim poziomie sieci przyjęto sigmoidalną funkcje aktywacji. Zastosowano algorytm typu on line. Uaktualnianie wag zarówno na I oraz II poziomie odbywało się po każdorazowej prezentacji próbki uczącej. Główne parametry procesów uczenia to: - współczynnik uczenia się dla macierzy W1, W2. - parametr regulatyzacyjny. - współczynnik uczenia dla wektora V2 wejścia podsieci II poziomu. 1 - wartość lokalnej funkcji celu. 2 - wartość globalnej funkcji celu. 1, 2 - parametry koordynatora dla funkcji G, H. Rys. 5. Zależność wartości lokalnej funkcji celu od nr iteracji dla = 0,7, b = 0,01, = 0,6 Na rysunku 4 przedstawiono wynik uczenia sieci w oparciu o dane testowe. Ciemnym kolorem pokazano teoretyczne wartości funkcji XOR, natomiast jasny obrazuje wynik uczenia. Obarczony jest minimalnym błędem. Natomiast (rys. 5.) przedstawia zależność wartości lokalnej funkcji celu I poziomu od nr iteracji dla uczenia metodą on-line. Widoczne są maksymalne jak i minimalne wartości (ciemne pole) w poszczególnych iteracjach. Na pierwszym etapie podsieć II poziomu wymusza na funkcji celu I poziomu szybki wzrost. Wymusza w ten sposób przyspieszenie uczenia podsieci I poziomu, czyli obliczenie nowej optymalnej wartości macierzy W1. Następny etap procesu uczenia to asymptotyczne dążenie do wartości minimalnej synchronicznie z wartością globalnej funkcji celu (rys. 6.) Jakościowa charakterystyka procesu uczenia podsieci II poziomu jest inna. Posiada również dwie wartości amplitudy uczenia - minimalną i maksymalną (ciemne pole). Jednak jakościowo proces uczenia dla II poziomu, różni się w sposób zasadniczy od procesu uczenia I poziomu. Maksymalna wartość przez pewien okres nie maleje, jakby czekała na podsieci I poziomu, które muszą zmniejszyć wartość lokalnej funkcji celu. Następnie asymptotycznie i synchronicznie z I poziomem podsieci, maleje do minimalnej wartości.

Dekompozycja hierarchicznej struktury sztucznej sieci neuronowej... 229 Rys. 6. Zależność wartości globalnej funkcji celu od nr iteracji dla = 0,7, b = 0,01, = 0,6 4. PODSUMOWANIE I WNIOSKI W artykule przedstawiono rezultaty uzyskane w wyniku uczenia zdekomponowanej dwuwarstwowej SSN wykorzystując algorytm on-line. W algorytmie koordynacji zastosowano funkcje G i H zerowego rzędu. Natomiast zmieniano wartości oraz. Rys. 7. Zależność wartości lokalnej funkcji celu od nr iteracji dla = 0,3, b = 0,01, = 4 Na rysunku 7 przedstawiono charakterystykę uczenia podsieci I poziomu dla dużej wartości = 4. Charakterystyka procesu pokazuje, że jest przeregulowany, osiągając duże wartości lokalnej funkcji celu (max1 = 8). W tabeli 1 przedstawiono porównanie różnych parametrów wraz z jakościową charakterystyką procesu uczenia. Dobór optymalnych wartości,,, 1, 2 dla danego zagadnienia jest tematem do dalszych badań i analiz. Pokazano rezultaty dla algorytmu typu on line. Intuicyjnie wydaje się, że część charakterystyk powinna ulegnie wygładzeniu dla procesu off line.

230 Stanisław Płaczek Tabela 1. Parametry ilościowo jakościowe charakterystyk uczenia SSN 1 2 1 max 2 max Uwagi 0,7 0,01 0,6 0 0 0,45 0,7 b. dobrze 0,5 0,01 0,6 0 0 0,45 0,7 b. dobrze 0,5 0 0,8 0 0 0,7 0,6 dobrze 0,3 0 8 0 0 18 0,4 przeregulowany 0,3 0 4 0 0 4 0,5 akceptowalny LITERATURA [1] W. Findeisen, J. Szymanowski, A. Wierzbicki, Teoria i metody obliczeniowe optymalizacji. Państwowe Wydawnictwo Naukowe, Warszawa, 1977. [2] S. Osowski, Sieci Neuronowe do Przetwarzania Informacji. Oficyna Wydawnicza Politechniki Warszawskiej, Warszawa, 2006. [3] Ch. M. Bishop, Pattern Recognition and Machine Learning, Springer Science + Business Media, LLC, 2006. [4] Marciniak A., Korbicz J., Kus J., Wstępne przetwarzanie danych, Sieci Neuronowe tom 6, Akademicka Oficyna Wydawnicza EXIT, 2000. [5] Płaczek S., Sztuczne Sieci Neuronowe. Miesięcznik Ubezpieczeniowy tom 7, nr 9, wrzesień, 2010. DECOMPOSITION OF HIERARCHICAL STRUCTURE OF ARTIFICIAL NEURAL NETWORK AND COORDINATION ALGORITHM The article presents decomposition of Artificial Network Structure into two layers. Layer one (lower one) consist of N1 independent sub layers. The second layer (upper one) is a hidden layer. Vectors V1 and V2 are introduced as coordinator between two layers. The coordinator uses different algorithms connecting vectors V1 and V2. In this way, the coordinator is able to coordinate two independent learning algorithms for each layer. The coordination algorithm was described and final learning results are presented. Presented results of an on line learning algorithm were used for both, the first and the second layer. For the future study, an off-line learning algorithm will be used.