Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I.

Podobne dokumenty
IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Uczenie sieci neuronowych i bayesowskich

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Zastosowania sieci neuronowych

Elementy inteligencji obliczeniowej

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

Sztuczne sieci neuronowe

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

x 1 x 2 x 3 x n w 1 w 2 Σ w 3 w n x 1 x 2 x 1 XOR x (x A, y A ) y A x A

Sztuczne sieci neuronowe (SNN)

Wprowadzenie do Sieci Neuronowych Laboratorium 05 Algorytm wstecznej propagacji błędu

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Metody Sztucznej Inteligencji II

Podstawy Sztucznej Inteligencji (PSZT)

SID Wykład 8 Sieci neuronowe

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

1. Logika, funkcje logiczne, preceptron.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Systemy agentowe. Sieci neuronowe. Jędrzej Potoniec

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Temat: Sieci neuronowe oraz technologia CUDA

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sztucznych sieci neuronowych

wiedzy Sieci neuronowe

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

Systemy agentowe. Sieci neuronowe. Jędrzej Potoniec

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

Podstawy sztucznej inteligencji

Sztuczne sieci neuronowe

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.

Sieć przesyłająca żetony CP (counter propagation)

MODELOWANIE RZECZYWISTOŚCI

Inteligentne systemy przeciw atakom sieciowym

Sztuczne siei neuronowe - wprowadzenie

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

wiedzy Sieci neuronowe (c.d.)

Uczenie Wielowarstwowych Sieci Neuronów o

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

METODY INŻYNIERII WIEDZY

Uczenie sieci typu MLP

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Wprowadzenie do Sieci Neuronowych Laboratorium 06 Algorytm wstecznej propagacji błędu

Uczenie sieci radialnych (RBF)

SZTUCZNE SIECI NEURONOWE

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Obliczenia Naturalne - Sztuczne sieci neuronowe

sieci jednowarstwowe w MATLABie LABORKA Piotr Ciskowski

Plan wyk y ł k adu Mózg ludzki a komputer Komputer Mózg Jednostki obliczeniowe Jednostki pami Czas operacji Czas transmisji Liczba aktywacji/s

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Sztuczna inteligencja

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Inteligentne systemy informacyjne

Podstawy Sztucznej Inteligencji

METODY INTELIGENCJI OBLICZENIOWEJ wykład 4

SZTUCZNE SIECI NEURONOWE

Sztuczne sieci neuronowe. Uczenie, zastosowania

OCENA DZIAŁANIA AE. METODY HEURYSTYCZNE wykład 4 LOSOWOŚĆ W AE KRZYWE ZBIEŻNOŚCI ANALIZA STATYSTYCZNA:

Podstawy sztucznej inteligencji

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

SZTUCZNA INTELIGENCJA

Wprowadzenie do Sieci Neuronowych Laboratorium 04 Algorytmy konstrukcyjne dla sieci skierowanych

Deep Learning na przykładzie Deep Belief Networks

I EKSPLORACJA DANYCH

MATLAB Neural Network Toolbox przegląd

ELEMENTY SZTUCZNEJ INTELIGENCJI. Sztuczne sieci neuronowe

Algorytmy sztucznej inteligencji

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej

Algorytmy wstecznej propagacji sieci neuronowych

Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa

Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie

Elementy kognitywistyki III: Modele i architektury poznawcze

Wprowadzenie do sieci neuronowych i zagadnień deep learning

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD XI: Sztuczne sieci neuronowe

Zastosowania sieci neuronowych

Emergentne właściwości. sztucznych sieci neuronowych

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak

Sieci Neuronowe - Rok III - kierunek IS w IFAiIS UJ 2008/2009. Sieci Neuronowe. Wykład 8 Sieci rezonansowe

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe

Sieci neuronowe i ich ciekawe zastosowania. Autor: Wojciech Jamrozy III rok SMP / Informatyka

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania

ESI: Perceptrony proste i liniowe

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

Sztuczne sieci neuronowe

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Widzenie komputerowe

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Dariusz Brzeziński Instytut Informatyki, Politechnika Poznańska

8. Neuron z ciągłą funkcją aktywacji.

Transkrypt:

Sieci M. I. Jordana Sieci rekurencyjne z parametrycznym biasem Leszek Rybicki 30 listopada 2007 Leszek Rybicki Sieci M. I. Jordana 1/21

Plan O czym będzie 1 Wstęp do sieci neuronowych Neurony i perceptrony Wsteczna propagacja błędu 2 Sieci rekurencyjne M.I. Jordana Sieci rekurencyjne Uczenie Przykład 3 Parametryczny bias Uczenie Zastosowania Leszek Rybicki Sieci M. I. Jordana 2/21

Uczenie nadzorowane Specyfikacja problemu Dane Zbiór przykładów składających się z wejścia: x i R n oraz oczekiwanego wyjścia: y i R m. Cel Mając dane wejście x i, odtworzyć y i z pewną dokładnością. Efekt uboczny Dla wejścia nie należącego do przykładów, wyjście jest odgadywane (generalizacja). Leszek Rybicki Sieci M. I. Jordana 3/21

Uczenie nadzorowane Specyfikacja problemu Dane Zbiór przykładów składających się z wejścia: x i R n oraz oczekiwanego wyjścia: y i R m. Cel Mając dane wejście x i, odtworzyć y i z pewną dokładnością. Efekt uboczny Dla wejścia nie należącego do przykładów, wyjście jest odgadywane (generalizacja). Leszek Rybicki Sieci M. I. Jordana 3/21

Uczenie nadzorowane Specyfikacja problemu Dane Zbiór przykładów składających się z wejścia: x i R n oraz oczekiwanego wyjścia: y i R m. Cel Mając dane wejście x i, odtworzyć y i z pewną dokładnością. Efekt uboczny Dla wejścia nie należącego do przykładów, wyjście jest odgadywane (generalizacja). Leszek Rybicki Sieci M. I. Jordana 3/21

Model neuronu Neuron McCullocha-Pittsa x 1 x 2 x 3 w 1 w 2 w 3 wi x i σ( ) out k out = σ( w i x i ) = σ( w, x ) i=1 Leszek Rybicki Sieci M. I. Jordana 4/21

Model neuronu Neuron McCullocha-Pittsa x 1 x 2 x 3 w 1 w 2 w 3 wi x i σ( ) out k out = σ( w i x i ) = σ( w, x ) i=1 Leszek Rybicki Sieci M. I. Jordana 4/21

Model neuronu Neuron McCullocha-Pittsa x 1 x 2 x 3 w 1 w 2 w 3 wi x i σ( ) out k out = σ( w i x i ) = σ( w, x ) i=1 Leszek Rybicki Sieci M. I. Jordana 4/21

Model neuronu Neuron McCullocha-Pittsa x 1 x 2 x 3 w 1 w 2 w 3 wi x i σ( ) out k out = σ( w i x i ) = σ( w, x ) i=1 Leszek Rybicki Sieci M. I. Jordana 4/21

Perceptron wielowarstwowy Multi-Layer Perceptron wyjście h = σ(w in h in) out = σ(w h out h) Neuron progowy, bias warstwa ukryta wejście Leszek Rybicki Sieci M. I. Jordana 5/21

Perceptron wielowarstwowy Multi-Layer Perceptron wyjście h = σ(w in h in) out = σ(w h out h) Neuron progowy, bias warstwa ukryta W in h wejście Leszek Rybicki Sieci M. I. Jordana 5/21

Perceptron wielowarstwowy Multi-Layer Perceptron wyjście h = σ(w in h in) out = σ(w h out h) Neuron progowy, bias W h out warstwa ukryta W in h wejście Leszek Rybicki Sieci M. I. Jordana 5/21

Perceptron wielowarstwowy Multi-Layer Perceptron wyjście h = σ(w in h in) out = σ(w h out h) Neuron progowy, bias W h out warstwa ukryta W in h wejście 1 Leszek Rybicki Sieci M. I. Jordana 5/21

Perceptron wielowarstwowy Multi-Layer Perceptron wyjście h = σ(w in h in) out = σ(w h out h) Neuron progowy, bias W h out warstwa ukryta+1 W in h wejście+1 Leszek Rybicki Sieci M. I. Jordana 5/21

Propagacja wsteczna Oznaczenia x ij - i-te wejście j-tego neuronu w ij - waga między i-tym, a j-tym neuronem z j = x j, w j - ważona suma wejść j-tego neuronu o j = σ(z j ) - wyjście j-tego neuronu y j - wyjście oczekiwane j-tego neuronu wyjściowego down(j) - neurony, dla których j-ty neuron jest wejściem E = 1 2 k out (o k y k ) 2 - błąd Leszek Rybicki Sieci M. I. Jordana 6/21

Propagacja wsteczna Dla neuronów wyjściowych Niech: E = E z j = E x ij w ij z j w ij z j δ j := E z j = z j 1 2 (y j o j ) 2 (1) = (y j o j ) o j z j (2) = (y j o j ) z j σ(z j ) (3) w ij = η E w ij = ηδ j x ij Leszek Rybicki Sieci M. I. Jordana 7/21

Propagacja wsteczna Dla neuronów wyjściowych Niech: E = E z j = E x ij w ij z j w ij z j δ j := E z j = z j 1 2 (y j o j ) 2 (1) = (y j o j ) o j z j (2) = (y j o j ) z j σ(z j ) (3) w ij = η E w ij = ηδ j x ij Leszek Rybicki Sieci M. I. Jordana 7/21

Propagacja wsteczna Dla neuronów wyjściowych Niech: E = E z j = E x ij w ij z j w ij z j δ j := E z j = z j 1 2 (y j o j ) 2 (1) = (y j o j ) o j z j (2) = (y j o j ) z j σ(z j ) (3) w ij = η E w ij = ηδ j x ij Leszek Rybicki Sieci M. I. Jordana 7/21

Propagacja wsteczna Dla neuronów wyjściowych Niech: E = E z j = E x ij w ij z j w ij z j δ j := E z j = z j 1 2 (y j o j ) 2 (1) = (y j o j ) o j z j (2) = (y j o j ) z j σ(z j ) (3) w ij = η E w ij = ηδ j x ij Leszek Rybicki Sieci M. I. Jordana 7/21

Propagacja wsteczna Dla neuronów wyjściowych Niech: E = E z j = E x ij w ij z j w ij z j δ j := E z j = z j 1 2 (y j o j ) 2 (1) = (y j o j ) o j z j (2) = (y j o j ) z j σ(z j ) (3) w ij = η E w ij = ηδ j x ij Leszek Rybicki Sieci M. I. Jordana 7/21

Propagacja wsteczna Dla neuronów ukrytych Niech: E w ij = = = k down(j) k down(j) k down(j) E z k z k o j o j z j z j w ij (4) E z k z k o j o j z j x ij (5) δ k w jk σ(z j) z j x ij (6) δ j := δ k w jk σ(z j) z j w ij = η E w ij = ηδ j x ij Leszek Rybicki Sieci M. I. Jordana 8/21

Propagacja wsteczna Dla neuronów ukrytych Niech: E w ij = = = k down(j) k down(j) k down(j) E z k z k o j o j z j z j w ij (4) E z k z k o j o j z j x ij (5) δ k w jk σ(z j) z j x ij (6) δ j := δ k w jk σ(z j) z j w ij = η E w ij = ηδ j x ij Leszek Rybicki Sieci M. I. Jordana 8/21

Propagacja wsteczna Dla neuronów ukrytych Niech: E w ij = = = k down(j) k down(j) k down(j) E z k z k o j o j z j z j w ij (4) E z k z k o j o j z j x ij (5) δ k w jk σ(z j) z j x ij (6) δ j := δ k w jk σ(z j) z j w ij = η E w ij = ηδ j x ij Leszek Rybicki Sieci M. I. Jordana 8/21

Propagacja wsteczna Dla neuronów ukrytych Niech: E w ij = = = k down(j) k down(j) k down(j) E z k z k o j o j z j z j w ij (4) E z k z k o j o j z j x ij (5) δ k w jk σ(z j) z j x ij (6) δ j := δ k w jk σ(z j) z j w ij = η E w ij = ηδ j x ij Leszek Rybicki Sieci M. I. Jordana 8/21

Propagacja wsteczna Dla neuronów ukrytych Niech: E w ij = = = k down(j) k down(j) k down(j) E z k z k o j o j z j z j w ij (4) E z k z k o j o j z j x ij (5) δ k w jk σ(z j) z j x ij (6) δ j := δ k w jk σ(z j) z j w ij = η E w ij = ηδ j x ij Leszek Rybicki Sieci M. I. Jordana 8/21

Propagacja wsteczna W tę i z powrotem wyjście warstwa ukryta wejście Dla losowo wybranego przykładu: Oblicz wyjście sieci Oblicz delty warstwy wyjściowej Oblicz delty warstwy ukrytej Oblicz zmianę wag Zaaplikuj zmianę wag Leszek Rybicki Sieci M. I. Jordana 9/21

Propagacja wsteczna W tę i z powrotem wyjście δ out Dla losowo wybranego przykładu: warstwa ukryta wejście Oblicz wyjście sieci Oblicz delty warstwy wyjściowej Oblicz delty warstwy ukrytej Oblicz zmianę wag Zaaplikuj zmianę wag Leszek Rybicki Sieci M. I. Jordana 9/21

Propagacja wsteczna W tę i z powrotem wyjście warstwa ukryta wejście δ out δ h W T h out Dla losowo wybranego przykładu: Oblicz wyjście sieci Oblicz delty warstwy wyjściowej Oblicz delty warstwy ukrytej Oblicz zmianę wag Zaaplikuj zmianę wag Leszek Rybicki Sieci M. I. Jordana 9/21

Propagacja wsteczna W tę i z powrotem wyjście warstwa ukryta wejście W h out Wh out T W in h δ out δ h Dla losowo wybranego przykładu: Oblicz wyjście sieci Oblicz delty warstwy wyjściowej Oblicz delty warstwy ukrytej Oblicz zmianę wag Zaaplikuj zmianę wag Leszek Rybicki Sieci M. I. Jordana 9/21

Propagacja wsteczna W tę i z powrotem wyjście warstwa ukryta wejście W h out Wh out T W in h δ out δ h Dla losowo wybranego przykładu: Oblicz wyjście sieci Oblicz delty warstwy wyjściowej Oblicz delty warstwy ukrytej Oblicz zmianę wag Zaaplikuj zmianę wag Leszek Rybicki Sieci M. I. Jordana 9/21

Przykład Odtwarzanie złożonego zbioru danych (r, g, b) 1 Wylosuj współrzędne punktu obrazu (x, y). 2 Wyjście oczekiwane: (r, g, b). 3 Oblicz wyjście sieci. 4 Popraw wagi h R 200 (x, y) Leszek Rybicki Sieci M. I. Jordana 10/21

Przykład Odtwarzanie złożonego zbioru danych Leszek Rybicki Sieci M. I. Jordana 10/21

Przykład Odtwarzanie złożonego zbioru danych Leszek Rybicki Sieci M. I. Jordana 10/21

Sieć z połączeniami zwrotnymi Rekurencyjna pompa neuronowa wyjście Perceptron wielowarstwowy Dodatkowe wejście Dodatkowe wyjście Połączenie 1-1 opóźnione w czasie wejście warstwa ukryta Leszek Rybicki Sieci M. I. Jordana 11/21

Sieć z połączeniami zwrotnymi Rekurencyjna pompa neuronowa wyjście Perceptron wielowarstwowy Dodatkowe wejście Dodatkowe wyjście Połączenie 1-1 opóźnione w czasie wejście warstwa ukryta kontekst Leszek Rybicki Sieci M. I. Jordana 11/21

Sieć z połączeniami zwrotnymi Rekurencyjna pompa neuronowa Perceptron wielowarstwowy Dodatkowe wejście Dodatkowe wyjście Połączenie 1-1 opóźnione w czasie wyjście kontekst warstwa ukryta wejście kontekst Leszek Rybicki Sieci M. I. Jordana 11/21

Sieć z połączeniami zwrotnymi Rekurencyjna pompa neuronowa Perceptron wielowarstwowy Dodatkowe wejście Dodatkowe wyjście Połączenie 1-1 opóźnione w czasie wyjście kontekst warstwa ukryta wejście kontekst 1-1 Leszek Rybicki Sieci M. I. Jordana 11/21

Uczenie w pętli zamkniętej Closed Loop Learning TM Zapętlamy wejście z wyjściem wyjście kontekst Wyjście oczekiwane - oryginalna seria 1-1 warstwa ukryta 1-1 Dłuższe uczenie Chaos deterministyczny wejście kontekst Leszek Rybicki Sieci M. I. Jordana 12/21

Uczenie w pętli zamkniętej Closed Loop Learning TM Zapętlamy wejście z wyjściem wyjście kontekst Wyjście oczekiwane - oryginalna seria 1-1 warstwa ukryta 1-1 Dłuższe uczenie Chaos deterministyczny wejście kontekst Leszek Rybicki Sieci M. I. Jordana 12/21

Uczenie w pętli zamkniętej Closed Loop Learning TM Zapętlamy wejście z wyjściem wyjście kontekst Wyjście oczekiwane - oryginalna seria 1-1 warstwa ukryta 1-1 Dłuższe uczenie Chaos deterministyczny wejście kontekst Leszek Rybicki Sieci M. I. Jordana 12/21

Uczenie w pętli zamkniętej Closed Loop Learning TM Zapętlamy wejście z wyjściem wyjście kontekst Wyjście oczekiwane - oryginalna seria 1-1 warstwa ukryta 1-1 Dłuższe uczenie Chaos deterministyczny wejście kontekst Leszek Rybicki Sieci M. I. Jordana 12/21

Propagacja wstecz w czasie Backpropagation Through Time TM wyjście kontekst warstwa ukryta wejście kontekst wyjście kontekst warstwa ukryta wejście kontekst 1-1 1-1 Tworzymy kilka kopii sieci Połączenia wsteczne trafiają pomiędzy kopie Połączenia 1-1 znikają Uczymy jak jedną sieć Uśredniamy wagi między kopiami Leszek Rybicki Sieci M. I. Jordana 13/21

Propagacja wstecz w czasie Backpropagation Through Time TM wyjście wejście wyjście wejście warstwa ukryta warstwa ukryta kontekst kontekst 1-1 kontekst kontekst Tworzymy kilka kopii sieci Połączenia wsteczne trafiają pomiędzy kopie Połączenia 1-1 znikają Uczymy jak jedną sieć Uśredniamy wagi między kopiami Leszek Rybicki Sieci M. I. Jordana 13/21

Propagacja wstecz w czasie Backpropagation Through Time TM wyjście kontekst warstwa ukryta wejście kontekst wyjście warstwa ukryta wejście kontekst Tworzymy kilka kopii sieci Połączenia wsteczne trafiają pomiędzy kopie Połączenia 1-1 znikają Uczymy jak jedną sieć Uśredniamy wagi między kopiami Leszek Rybicki Sieci M. I. Jordana 13/21

Propagacja wstecz w czasie Backpropagation Through Time TM wyjście kontekst warstwa ukryta wejście kontekst wyjście warstwa ukryta wejście kontekst Tworzymy kilka kopii sieci Połączenia wsteczne trafiają pomiędzy kopie Połączenia 1-1 znikają Uczymy jak jedną sieć Uśredniamy wagi między kopiami Leszek Rybicki Sieci M. I. Jordana 13/21

Propagacja wstecz w czasie Backpropagation Through Time TM wyjście kontekst warstwa ukryta wejście kontekst wyjście warstwa ukryta wejście kontekst Tworzymy kilka kopii sieci Połączenia wsteczne trafiają pomiędzy kopie Połączenia 1-1 znikają Uczymy jak jedną sieć Uśredniamy wagi między kopiami Leszek Rybicki Sieci M. I. Jordana 13/21

Uproszczony model Wystarczy ponumerować synapsy 1 Wejście 2 Kontekst wejścia 3 Aktualizacja kontekstu 4 Wyjście Propagacja wsteczna - normalnie Further investigation wyjście 4. w.u. 1. wejście 3. kontekst 2. Leszek Rybicki Sieci M. I. Jordana 14/21

Uproszczony model Wystarczy ponumerować synapsy 1 Wejście 2 Kontekst wejścia 3 Aktualizacja kontekstu 4 Wyjście Propagacja wsteczna - normalnie Further investigation wyjście 4. w.u. 1. wejście 3. kontekst 2. Leszek Rybicki Sieci M. I. Jordana 14/21

Uproszczony model Wystarczy ponumerować synapsy 1 Wejście 2 Kontekst wejścia 3 Aktualizacja kontekstu 4 Wyjście Propagacja wsteczna - normalnie Further investigation wyjście 4. w.u. 1. wejście 3. kontekst 2. Leszek Rybicki Sieci M. I. Jordana 14/21

Uproszczony model Wystarczy ponumerować synapsy 1 Wejście 2 Kontekst wejścia 3 Aktualizacja kontekstu 4 Wyjście Propagacja wsteczna - normalnie Further investigation wyjście 4. w.u. 1. wejście 3. kontekst 2. Leszek Rybicki Sieci M. I. Jordana 14/21

Uproszczony model Wystarczy ponumerować synapsy 1 Wejście 2 Kontekst wejścia 3 Aktualizacja kontekstu 4 Wyjście Propagacja wsteczna - normalnie Further investigation wyjście 4. w.u. 1. wejście 3. kontekst 2. Leszek Rybicki Sieci M. I. Jordana 14/21

Uproszczony model Wystarczy ponumerować synapsy 1 Wejście 2 Kontekst wejścia 3 Aktualizacja kontekstu 4 Wyjście Propagacja wsteczna - normalnie Further investigation wyjście 4. w.u. 1. wejście 3. kontekst 2. Leszek Rybicki Sieci M. I. Jordana 14/21

Przykład Przewidywanie serii czasowej z przecięciami x t+1, y t+1 kontekst Seria czasowa: ósemka Problem w punkcie przecięcia Istotny staje się kontekst warstwa ukryta 1-1 x t, y t kontekst Leszek Rybicki Sieci M. I. Jordana 15/21

Przykład Przewidywanie serii czasowej z przecięciami Leszek Rybicki Sieci M. I. Jordana 15/21

Parametryczny bias Parametric Bias TM Grupa neuronów Dodatkowe wejście Przypisany do serii czasowej Podlega uczeniu Umożliwia rozpoznawanie Odzwierciedla relacje między seriami czasowymi wyjście kontekst warstwa ukryta wejście PB kontekst 1-1 Leszek Rybicki Sieci M. I. Jordana 16/21

Parametryczny bias Parametric Bias TM Grupa neuronów Dodatkowe wejście Przypisany do serii czasowej Podlega uczeniu Umożliwia rozpoznawanie Odzwierciedla relacje między seriami czasowymi wyjście kontekst warstwa ukryta wejście PB kontekst 1-1 Leszek Rybicki Sieci M. I. Jordana 16/21

Parametryczny bias Parametric Bias TM Grupa neuronów Dodatkowe wejście Przypisany do serii czasowej Podlega uczeniu Umożliwia rozpoznawanie Odzwierciedla relacje między seriami czasowymi wyjście kontekst warstwa ukryta wejście PB kontekst 1-1 Leszek Rybicki Sieci M. I. Jordana 16/21

Parametryczny bias Parametric Bias TM Grupa neuronów Dodatkowe wejście Przypisany do serii czasowej Podlega uczeniu Umożliwia rozpoznawanie Odzwierciedla relacje między seriami czasowymi wyjście kontekst warstwa ukryta wejście PB kontekst 1-1 1-1 Leszek Rybicki Sieci M. I. Jordana 16/21

Parametryczny bias Parametric Bias TM Grupa neuronów Dodatkowe wejście Przypisany do serii czasowej Podlega uczeniu Umożliwia rozpoznawanie Odzwierciedla relacje między seriami czasowymi wyjście kontekst warstwa ukryta wejście PB kontekst 1-1 1-1 Leszek Rybicki Sieci M. I. Jordana 16/21

Parametryczny bias Parametric Bias TM Grupa neuronów Dodatkowe wejście Przypisany do serii czasowej Podlega uczeniu Umożliwia rozpoznawanie Odzwierciedla relacje między seriami czasowymi wyjście kontekst warstwa ukryta wejście PB kontekst 1-1 1-1 Leszek Rybicki Sieci M. I. Jordana 16/21

Uczenie PB Podobnie jak wagi Na początku każdej serii czasowej przypisany jest zerowy PB. Dla każdej serii czasowej: 1 Przywróć PB na zapisany dla danej serii czasowej 2 Naucz sieć sekwencji czasowej 3 Aktualizuj PB 4 Zapisz PB razem z sekwencją Leszek Rybicki Sieci M. I. Jordana 17/21

Uczenie PB Podobnie jak wagi Na początku każdej serii czasowej przypisany jest zerowy PB. Dla każdej serii czasowej: 1 Przywróć PB na zapisany dla danej serii czasowej 2 Naucz sieć sekwencji czasowej 3 Aktualizuj PB 4 Zapisz PB razem z sekwencją Leszek Rybicki Sieci M. I. Jordana 17/21

Uczenie PB Podobnie jak wagi Na początku każdej serii czasowej przypisany jest zerowy PB. Dla każdej serii czasowej: 1 Przywróć PB na zapisany dla danej serii czasowej 2 Naucz sieć sekwencji czasowej 3 Aktualizuj PB 4 Zapisz PB razem z sekwencją Leszek Rybicki Sieci M. I. Jordana 17/21

Uczenie PB Podobnie jak wagi Na początku każdej serii czasowej przypisany jest zerowy PB. Dla każdej serii czasowej: 1 Przywróć PB na zapisany dla danej serii czasowej 2 Naucz sieć sekwencji czasowej 3 Aktualizuj PB 4 Zapisz PB razem z sekwencją Leszek Rybicki Sieci M. I. Jordana 17/21

Odtwarzanie i rozpoznawanie W obie strony Odtwarzanie serii: 1 Ustal wektor PB 2 Połącz wejście z wyjściem 3 Ustal pierwsze wejście 4 Iteruj sieć Można wygenerować nową serię Rozpoznawanie serii: 1 Podaj sieci kolejny wektor w serii 2 Iteruj sieć 3 Ucz PB 4 Powtarzaj całą serię aż do ustalenia PB PB zbiega do pierwotnie przypisanego tej serii Zachodzi generalizacja Leszek Rybicki Sieci M. I. Jordana 18/21

Odtwarzanie i rozpoznawanie W obie strony Odtwarzanie serii: 1 Ustal wektor PB 2 Połącz wejście z wyjściem 3 Ustal pierwsze wejście 4 Iteruj sieć Można wygenerować nową serię Rozpoznawanie serii: 1 Podaj sieci kolejny wektor w serii 2 Iteruj sieć 3 Ucz PB 4 Powtarzaj całą serię aż do ustalenia PB PB zbiega do pierwotnie przypisanego tej serii Zachodzi generalizacja Leszek Rybicki Sieci M. I. Jordana 18/21

Odtwarzanie i rozpoznawanie W obie strony Odtwarzanie serii: 1 Ustal wektor PB 2 Połącz wejście z wyjściem 3 Ustal pierwsze wejście 4 Iteruj sieć Można wygenerować nową serię Rozpoznawanie serii: 1 Podaj sieci kolejny wektor w serii 2 Iteruj sieć 3 Ucz PB 4 Powtarzaj całą serię aż do ustalenia PB PB zbiega do pierwotnie przypisanego tej serii Zachodzi generalizacja Leszek Rybicki Sieci M. I. Jordana 18/21

Odtwarzanie i rozpoznawanie W obie strony Odtwarzanie serii: 1 Ustal wektor PB 2 Połącz wejście z wyjściem 3 Ustal pierwsze wejście 4 Iteruj sieć Można wygenerować nową serię Rozpoznawanie serii: 1 Podaj sieci kolejny wektor w serii 2 Iteruj sieć 3 Ucz PB 4 Powtarzaj całą serię aż do ustalenia PB PB zbiega do pierwotnie przypisanego tej serii Zachodzi generalizacja Leszek Rybicki Sieci M. I. Jordana 18/21

Odtwarzanie i rozpoznawanie W obie strony Odtwarzanie serii: 1 Ustal wektor PB 2 Połącz wejście z wyjściem 3 Ustal pierwsze wejście 4 Iteruj sieć Można wygenerować nową serię Rozpoznawanie serii: 1 Podaj sieci kolejny wektor w serii 2 Iteruj sieć 3 Ucz PB 4 Powtarzaj całą serię aż do ustalenia PB PB zbiega do pierwotnie przypisanego tej serii Zachodzi generalizacja Leszek Rybicki Sieci M. I. Jordana 18/21

Odtwarzanie i rozpoznawanie W obie strony Odtwarzanie serii: 1 Ustal wektor PB 2 Połącz wejście z wyjściem 3 Ustal pierwsze wejście 4 Iteruj sieć Można wygenerować nową serię Rozpoznawanie serii: 1 Podaj sieci kolejny wektor w serii 2 Iteruj sieć 3 Ucz PB 4 Powtarzaj całą serię aż do ustalenia PB PB zbiega do pierwotnie przypisanego tej serii Zachodzi generalizacja Leszek Rybicki Sieci M. I. Jordana 18/21

Odtwarzanie i rozpoznawanie W obie strony Odtwarzanie serii: 1 Ustal wektor PB 2 Połącz wejście z wyjściem 3 Ustal pierwsze wejście 4 Iteruj sieć Można wygenerować nową serię Rozpoznawanie serii: 1 Podaj sieci kolejny wektor w serii 2 Iteruj sieć 3 Ucz PB 4 Powtarzaj całą serię aż do ustalenia PB PB zbiega do pierwotnie przypisanego tej serii Zachodzi generalizacja Leszek Rybicki Sieci M. I. Jordana 18/21

Odtwarzanie i rozpoznawanie W obie strony Odtwarzanie serii: 1 Ustal wektor PB 2 Połącz wejście z wyjściem 3 Ustal pierwsze wejście 4 Iteruj sieć Można wygenerować nową serię Rozpoznawanie serii: 1 Podaj sieci kolejny wektor w serii 2 Iteruj sieć 3 Ucz PB 4 Powtarzaj całą serię aż do ustalenia PB PB zbiega do pierwotnie przypisanego tej serii Zachodzi generalizacja Leszek Rybicki Sieci M. I. Jordana 18/21

Odtwarzanie i rozpoznawanie W obie strony Odtwarzanie serii: 1 Ustal wektor PB 2 Połącz wejście z wyjściem 3 Ustal pierwsze wejście 4 Iteruj sieć Można wygenerować nową serię Rozpoznawanie serii: 1 Podaj sieci kolejny wektor w serii 2 Iteruj sieć 3 Ucz PB 4 Powtarzaj całą serię aż do ustalenia PB PB zbiega do pierwotnie przypisanego tej serii Zachodzi generalizacja Leszek Rybicki Sieci M. I. Jordana 18/21

Odtwarzanie i rozpoznawanie W obie strony Odtwarzanie serii: 1 Ustal wektor PB 2 Połącz wejście z wyjściem 3 Ustal pierwsze wejście 4 Iteruj sieć Można wygenerować nową serię Rozpoznawanie serii: 1 Podaj sieci kolejny wektor w serii 2 Iteruj sieć 3 Ucz PB 4 Powtarzaj całą serię aż do ustalenia PB PB zbiega do pierwotnie przypisanego tej serii Zachodzi generalizacja Leszek Rybicki Sieci M. I. Jordana 18/21

Odtwarzanie i rozpoznawanie W obie strony Odtwarzanie serii: 1 Ustal wektor PB 2 Połącz wejście z wyjściem 3 Ustal pierwsze wejście 4 Iteruj sieć Można wygenerować nową serię Rozpoznawanie serii: 1 Podaj sieci kolejny wektor w serii 2 Iteruj sieć 3 Ucz PB 4 Powtarzaj całą serię aż do ustalenia PB PB zbiega do pierwotnie przypisanego tej serii Zachodzi generalizacja Leszek Rybicki Sieci M. I. Jordana 18/21

Zastosowania Co robią w RIKEN Języki regularne Rodziny serii czasowych Sterowanie robotami Generalizacja rozkazów Naśladowanie gestów Głosy ptaków Rozpoznawanie głosek Leszek Rybicki Sieci M. I. Jordana 19/21

Zastosowania Co robią w RIKEN Języki regularne Rodziny serii czasowych Sterowanie robotami Generalizacja rozkazów Naśladowanie gestów Głosy ptaków Rozpoznawanie głosek Leszek Rybicki Sieci M. I. Jordana 19/21

Zastosowania Co robią w RIKEN Języki regularne Rodziny serii czasowych Sterowanie robotami Generalizacja rozkazów Naśladowanie gestów Głosy ptaków Rozpoznawanie głosek Leszek Rybicki Sieci M. I. Jordana 19/21

Zastosowania Co robią w RIKEN Języki regularne Rodziny serii czasowych Sterowanie robotami Generalizacja rozkazów Naśladowanie gestów Głosy ptaków Rozpoznawanie głosek Leszek Rybicki Sieci M. I. Jordana 19/21

Zastosowania Co robią w RIKEN Języki regularne Rodziny serii czasowych Sterowanie robotami Generalizacja rozkazów Naśladowanie gestów Głosy ptaków Rozpoznawanie głosek Leszek Rybicki Sieci M. I. Jordana 19/21

Zastosowania Co robią w RIKEN Języki regularne Rodziny serii czasowych Sterowanie robotami Generalizacja rozkazów Naśladowanie gestów Głosy ptaków Rozpoznawanie głosek Leszek Rybicki Sieci M. I. Jordana 19/21

Zastosowania Co robią w RIKEN Języki regularne Rodziny serii czasowych Sterowanie robotami Generalizacja rozkazów Naśladowanie gestów Głosy ptaków Rozpoznawanie głosek Leszek Rybicki Sieci M. I. Jordana 19/21

Zastosowania Co robią w RIKEN Języki regularne Rodziny serii czasowych Sterowanie robotami Generalizacja rozkazów Naśladowanie gestów Głosy ptaków Rozpoznawanie głosek Leszek Rybicki Sieci M. I. Jordana 19/21

Rodzina sinusoid Różne częstotliwości i amplitudy 6 sinusoid o różnych częstotliwościach i amplitudach Wektory PB samoorganizują się Uczymy sieć 5 sinusoid Ustalamy wartość PB Sieć odtwarza odpowiednią sinusoidę Leszek Rybicki Sieci M. I. Jordana 20/21

Rodzina sinusoid Różne częstotliwości i amplitudy 6 sinusoid o różnych częstotliwościach i amplitudach Wektory PB samoorganizują się Uczymy sieć 5 sinusoid Ustalamy wartość PB Sieć odtwarza odpowiednią sinusoidę Leszek Rybicki Sieci M. I. Jordana 20/21

Rodzina sinusoid Różne częstotliwości i amplitudy 6 sinusoid o różnych częstotliwościach i amplitudach Wektory PB samoorganizują się Uczymy sieć 5 sinusoid Ustalamy wartość PB Sieć odtwarza odpowiednią sinusoidę Leszek Rybicki Sieci M. I. Jordana 20/21

Rodzina sinusoid Różne częstotliwości i amplitudy 6 sinusoid o różnych częstotliwościach i amplitudach Wektory PB samoorganizują się Uczymy sieć 5 sinusoid Ustalamy wartość PB Sieć odtwarza odpowiednią sinusoidę Leszek Rybicki Sieci M. I. Jordana 20/21

Rodzina sinusoid Różne częstotliwości i amplitudy 6 sinusoid o różnych częstotliwościach i amplitudach Wektory PB samoorganizują się Uczymy sieć 5 sinusoid Ustalamy wartość PB Sieć odtwarza odpowiednią sinusoidę Leszek Rybicki Sieci M. I. Jordana 20/21

Bibliografia If you want to improve this style Masato Ito, Jun Tani: Generalization in Learning Multiple Temporal Patterns Using RNNPB. ICONIP 2004: 592-598 Yuuya Sugita, Jun Tani: A Holistic Approach to Compositional Semantics: A Connectionist Model and Robot Experiments. NIPS 2003 Hiroaki Arie, Jun Namikawa, Tetsuya Ogata, Jun Tani, Shigeki Sugano: Reinforcement Learning Algorithm with CTRNN in Continuous Action Space ICONIP (1) 2006: 387-396 Strona laboratorium Juna Tani w RIKEN http://bdc.brain.riken.jp/ Leszek Rybicki Sieci M. I. Jordana 21/21