Uczenie Wielowarstwowych Sieci Neuronów o

Podobne dokumenty
Jednowarstwowe Sieci Neuronowe jako. klasykatory do wielu klas. (c) Marcin Sydow

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania

Wst p do sieci neuronowych, wykªad 05a Algorytm wstecznej propagacji bª du

Wst p do sieci neuronowych, wykªad 4 Algorytm wstecznej propagacji bª du, cz. 1

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Algorytm propagacji wstecznej

AUTO-ENKODER JAKO SKŠADNIK ARCHITEKTURY DEEP LEARNING

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

8. Neuron z ciągłą funkcją aktywacji.

Uczenie sieci typu MLP

1 Bª dy i arytmetyka zmiennopozycyjna

Podstawy Sztucznej Inteligencji (PSZT)

Sztuczne sieci neuronowe

Uczenie sieci neuronowych i bayesowskich

Wykªad 7. Ekstrema lokalne funkcji dwóch zmiennych.

Wst p do sieci neuronowych 2010/2011 wykªad 7 Algorytm propagacji wstecznej cd.

Wst p do sieci neuronowych, wykªad 14 Zespolone sieci neuronowe

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

1. Logika, funkcje logiczne, preceptron.

Zastosowania sieci neuronowych

Elementy inteligencji obliczeniowej

det A := a 11, ( 1) 1+j a 1j det A 1j, a 11 a 12 a 21 a 22 Wn. 1 (Wyznacznik macierzy stopnia 2:). = a 11a 22 a 33 +a 12 a 23 a 31 +a 13 a 21 a 32

ANALIZA NUMERYCZNA. Grzegorz Szkibiel. Wiosna 2014/15

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Uczenie sieci radialnych (RBF)

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Sztuczne siei neuronowe - wprowadzenie

Równania ró»niczkowe I rz du (RRIR) Twierdzenie Picarda. Anna D browska. WFTiMS. 23 marca 2010

Aproksymacja funkcji metod najmniejszych kwadratów

Lab. 02: Algorytm Schrage

wiedzy Sieci neuronowe (c.d.)

WST P DO TEORII INFORMACJI I KODOWANIA. Grzegorz Szkibiel. Wiosna 2013/14

Zadania z analizy matematycznej - sem. II Rachunek ró»niczkowy funkcji wielu zmiennych

wiedzy Sieci neuronowe

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5

Wprowadzenie do Sieci Neuronowych Laboratorium 05 Algorytm wstecznej propagacji błędu

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

przewidywania zapotrzebowania na moc elektryczn

Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I.

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Metody dowodzenia twierdze«

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Funkcje wielu zmiennych

Zastosowania sieci neuronowych

Sieci Neuronowe Laboratorium 2

i, lub, nie Cegieªki buduj ce wspóªczesne procesory. Piotr Fulma«ski 5 kwietnia 2017

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.

OCENA DZIAŁANIA AE. METODY HEURYSTYCZNE wykład 4 LOSOWOŚĆ W AE KRZYWE ZBIEŻNOŚCI ANALIZA STATYSTYCZNA:

Wielomiany. El»bieta Sadowska-Owczorz. 19 listopada 2018

Sztuczne sieci neuronowe (SNN)

Opis matematyczny ukªadów liniowych

Ekstremalnie fajne równania

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Metody numeryczne i statystyka dla in»ynierów

c Marcin Sydow Przepªywy Grafy i Zastosowania Podsumowanie 12: Przepªywy w sieciach

Interpolacja funkcjami sklejanymi

wiczenie nr 3 z przedmiotu Metody prognozowania kwiecie«2015 r. Metodyka bada«do±wiadczalnych dr hab. in». Sebastian Skoczypiec Cel wiczenia Zaªo»enia

Metody numeryczne. Wst p do metod numerycznych. Dawid Rasaªa. January 9, Dawid Rasaªa Metody numeryczne 1 / 9

SSI - lab 5. DP SSI - lab 5 16, Kwiecie«, / 23

Poprawa efektywnoci metody wstecznej propagacji bdu. Jacek Bartman

Indeksowane rodziny zbiorów

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

Elementy Sztucznej Inteligencji

METODY INŻYNIERII WIEDZY

Maszyny Turinga i problemy nierozstrzygalne. Maszyny Turinga i problemy nierozstrzygalne

Modele wielorównaniowe. Problem identykacji

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Ukªady równa«liniowych

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

1 Granice funkcji wielu zmiennych.

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

Vincent Van GOGH: M»czyzna pij cy li»ank kawy. Radosªaw Klimek. J zyk programowania Java

sieci jednowarstwowe w MATLABie LABORKA Piotr Ciskowski

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Systemy agentowe. Sieci neuronowe. Jędrzej Potoniec

Marcin Pełka Uniwersytet Ekonomiczny we Wrocławiu SIECI NEURONOWE DLA DANYCH SYMBOLICZNYCH: PERCEPTRON WIELOWARSTWOWY

Macierze. 1 Podstawowe denicje. 2 Rodzaje macierzy. Denicja

Algorytmiczna teoria grafów

Zbiory i odwzorowania

Obliczenia Naturalne - Sztuczne sieci neuronowe

JAO - J zyki, Automaty i Obliczenia - Wykªad 1. JAO - J zyki, Automaty i Obliczenia - Wykªad 1

Ekonometria - wykªad 8

Przekroje Dedekinda 1

Relacj binarn okre±lon w zbiorze X nazywamy podzbiór ϱ X X.

Wstęp do sztucznych sieci neuronowych

Elementy Sztucznej Inteligencji

PRZYPOMNIENIE Ka»d przestrze«wektorow V, o wymiarze dim V = n < nad ciaªem F mo»na jednoznacznie odwzorowa na przestrze«f n n-ek uporz dkowanych:

Sztuczna inteligencja

Interpolacja Lagrange'a, bazy wielomianów

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI

Systemy agentowe. Sieci neuronowe. Jędrzej Potoniec

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

6. Perceptron Rosenblatta

Funkcje wielu zmiennych

1 Metody iteracyjne rozwi zywania równania f(x)=0

Rozdziaª 13. Przykªadowe projekty zaliczeniowe

Transkrypt:

Plan uczenie neuronu o ci gªej funkcji aktywacji uczenie jednowarstwowej sieci neuronów o ci gªej funkcji aktywacji uczenie sieci wielowarstwowej - metoda propagacji wstecznej

neuronu o ci gªej funkcji aktywacji

Przypomnienie: neuron z ci gª funkcj aktywacji sigmoidalna funkcja unipolarna: 1 f (net) = 1 + e net sigmoidalna funkcja bipolarna: f (net) = 2 1 + e net 1 gdzie: net = w T x

Bª d neuronu ci gªego Zdeniujmy nast puj c miar bª du pojedynczego neuronu: E = 1 2 (d y)2 = 1 2 (d f (w T x)) 2 gdzie: d - po» dane wyj±cie (ci gªe) y - aktualne wyj±cie (ci gªe) (y = f(net)) (wspóªczynnik 1/2 wybrany dla uproszczenia pó¹niejszych rachunków)

Cel uczenia: minimalizacja bª du Chcemy tak modykowa wektor wag w,»eby zminimalizowa bª d. Metoda gradientu: najwi kszy spadek funkcji (w kierunku minimum) wskazywany jest przez przeciwny wektor gradientu (czyli pochodnych cz stkowych bª du jako funkcji wektora wag) E(w) = E w E(w) = (d y)f (net)( net w 1,..., net w p ) T = = (d y)f (net)x

Pochodne funkcyj sigmoidalnych Zauwa»my,»e: dla funkcji sigmoidalnej unipolarnej: f (net) = f (net)(f (net) 1) = y(y 1) dla funkcji sigmoidalnej bipolarnej: f (net) = 1 2 (1 f 2 (net)) = 1 2 (1 y 2 ) Czyli pochodna funkcji f jest ªatwo wyra»alna przez sam funkcj f. (Teraz mo»na zrozumie dlaczego zaproponowano akurat takie formy ci gªych funkcyj aktywacji)

Reguªa uczenia dla ci gªego neuronu Reasumuj c, wagi neuronu ci gªego modykujemy zgodnie ze wzorem: unipolarny: w new = w old + η(d y)y(1 y)x bipolarny: w new = w old + 1 2 η(d y)(1 y 2 )x gdzie: η to wspóªczynnik uczenia (learning rate) Zauwa»my wyra¹n analogi do reguªy delta dla dyskretnego perceptronu

jednowarstwowej sieci neuronów o ci gªej funkcji aktywacji

Jednowarstwowa sie neuronów ci gªych Zaªó»my,»e sie ma J wej± i K neuronów ci gªych. Wprowad¹my nast puj ce oznaczenia: wektor wej± : y T = (y 1,..., y J ) wektor wyj± : z T = (z 1,..., z K ) macierz wag: W = [w kj ] (w kj : k-ty neuron, j-ta waga) macierz funkcyj aktywacji: Γ = diag[f ( )] (wymiar: K K ) Obliczenie wyj±cia mo»na wi c teraz zapisa jako: z = Γ[Wy]

jednowarstwowej sieci ci gªych neuronów Wprowad¹my dodatkowe oznaczenia: po» dany wektor wyj±ciowy: d T = (d 1,..., d K ) bª d wyj±cia dla pojedynczego wektora wej± : E = 1 K (d k z k ) 2 = 1 d z 2 2 2 k=1 Zastosujemy ponownie metod gradientu (jak dla pojedynczego neuronu). Zmiana pojedynczej wagi dana jest wi c wzorem: w kj = η E w kj

jednej warstwy, cd. Mamy wi c: E = E net k w kj net k w kj sygnaª bª du delta k-tego neuronu ostatniej warstwy: δ zk = E net k = (d k z k )z k (1 z k ) δ zk = E net k = 1 2 (d k z k )(1 z k ) 2 Zauwa»my,»e net k w kj = y j Otrzymujemy wi c wzór modykacji wag w postaci macierzowej: W new = W old + ηδ z y T

Algorytm uczenia jednej warstwy wybór η, E max, inicjalizacja losowych wag W, E = 0 dla ka»dego przykªadu ze zbioru ucz cego: oblicz wyj±cie z zmodykuj wagi k-tego neuronu (unipolarny/bipolarny): w k w k + η(d k z k )z k (1 z k )y kumuluj bª d: w k w k + 1 2 η(d k z k )(1 z 2 k )y E E + 1 2 K (d k z k ) 2 k=1 je±li pokazano wszystkie elementy zbioru ucz cego i E < E max to zako«cz uczenie. W przeciwnym wypadku wyzeruj E i ponownie wykonaj uczenie na caªym zbiorze ucz cym

sieci wielowarstwowej - metoda propagacji wstecznej

Sie wielowarstwowa Jedna warstwa sieci neuronowej ma mo»liwo±ci podzielenia przestrzeni obrazów wej±ciowych na obszary liniowo separowalne. Ka»da nast pna mo»e dokonywa kolejnych transformacji. W efekcie, wielowarstwowa sie neuronowa jest uniwersalnym narz dziem, które teoretycznie mo»e dowolnie dokªadnie aproksymowa dowolne transformacje przestrzeni wej±ciowej w przestrze«odwzorowa«wyj±ciowych.

Wielowarstwowej Zilustrujemy uczenie sieci wielowarstwowej na przykªadzie sieci 2-warstwowej. W tym celu dodamy jedn warstw umieszczon przed ostatni (wyj±ciow ) warstw sieci i poka»emy jak j uczy. Ka»da warstwa poza wyj±ciow nazywana jest warstw ukryt, gdy» nie jest wiadome jakie powinno by jej prawidªowe wyj±cie. Metod uczenia sieci wielowarstwowej odkryto dopiero w latach 70. i zacz to stosowa w latach 80. XX. wieku - nazywa si ona metod wstecznej propagacji bª dów, gdy» wagi modykuje si od warstwy ostatniej do pierwszej (wstecz). Metod t mo»na naturalnie rozszerza z sieci 2-warstwowej na dowoln liczb warstw ukrytych.

Sie dwuwarstwowa Wprowadzimy nast puj ce oznaczenia: wektor wej± : x T = (x 1,..., x I ) macierz wag pierwszej warstwy: V = [v ji ] (v ji : j-ty neuron, i-ta waga) wektor wyj± pierwszej (wej± drugiej) warstwy: y T = (y 1,..., y J ) wektor wyj± drugiej warstwy (caªej sieci): z T = (z 1,..., z K ) macierz wag drugiej warstwy: W = [w kj ] (w kj : k-ty neuron, j-ta waga) operator funkcyj aktywacji: Γ = diag[f ( )] (wymiar: J J lub K K ) Obliczenie wektora wyj± mo»na wi c teraz zapisa jako: z = Γ[Wy] = Γ[W Γ[Vx]]

sieci wielowarstwowej Metoda wstecznej propagacji bª du: Po obliczeniu wektora wyj± z, wagi modykowane s od ostatniej do pierwszej warstwy (wstecz). Pokazano wcze±niej, jak modykowa wagi ostatniej warstwy. Po zmodykowaniu wag ostatniej warstwy, modykowane s wagi warstwy drugiej od ko«ca (itd.) Przy modykowaniu wag warstwy drugiej od ko«ca stosuje si równie» metod gradientu: v ji = η E v ji

Metoda wstecznej propagacji bª du, cd. Przez analogi, wagi V modykowane s nast puj co: V new = V old + ηδ y x T gdzie, δ y oznacza wektor sygnaªu bª du warstwy ukrytej: δ T y = (δ y 1,..., δ y J ) Sygnaª bª du warstwy ukrytej obliczamy nast puj co: δ yj = E y j y j net j = E y j f (net j ) = K k=1 δ zk w kj f j (net j )

Algorytm uczenia sieci dwuwarstwowej wybór η, E max, inicjalizacja losowych wag W i V, E = 0 dla ka»dego przykªadu ze zbioru ucz cego: oblicz kolejno wektory wyj± y oraz z kumuluj bª d:e E + 1 2 K k=1 (d k z k ) 2 oblicz sygnaªy bª dów (ostatniej, pierwszej warstwy): unipolarny: δ zk = (d k z k )z k (1 z k ), δ yj = y j (1 y j ) K k=1 δ zk w kj bipolarny: δ zk = 1 2 (d k z k )(1 z 2 k ), δ yj = 1 2 (1 y 2 j ) K k=1 δ zk w kj zmodykuj wagi ostatniej warstwy: w kj w kj + ηδ zk y j zmodykuj wagi pierwszej (ukrytej) warstwy: v ji v ji + ηδ yj x i je±li pokazano wszystkie elementy zbioru ucz cego i E < E max to zako«cz uczenie. W przeciwnym wypadku wyzeruj E i ponownie wykonaj uczenie na caªym zbiorze ucz cym

Zagadnienia do przyswojenia: uczenie neuronu o ci gªej funkcji aktywacji uczenie jednowarstwowej sieci neuronów o ci gªej funkcji aktywacji uczenie sieci wielowarstwowej - metoda propagacji wstecznej

Dzi kuj za uwag.