Wprowadzenie do Sieci Neuronowych Laboratorium 05 Algorytm wstecznej propagacji błędu

Podobne dokumenty
Wprowadzenie do Sieci Neuronowych Laboratorium 06 Algorytm wstecznej propagacji błędu

Uczenie sieci neuronowych i bayesowskich

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Elementy inteligencji obliczeniowej

Zastosowania sieci neuronowych

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

8. Neuron z ciągłą funkcją aktywacji.

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Uczenie sieci typu MLP

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I.

Metody Sztucznej Inteligencji II

Optymalizacja ciągła

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

1. Logika, funkcje logiczne, preceptron.

Podstawy Sztucznej Inteligencji (PSZT)

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

Wprowadzenie do Sieci Neuronowych lista zadań 1

Sieci neuronowe w Statistica

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

wiedzy Sieci neuronowe

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Wstęp do Sieci Neuronowych

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wstęp do sieci neuronowych, wykład 01 Neuron biologiczny. Model perceptronu prostego.

Uczenie sieci radialnych (RBF)

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

Uczenie Wielowarstwowych Sieci Neuronów o

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu

Sieć przesyłająca żetony CP (counter propagation)

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty

Optymalizacja systemów

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe

Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak

Projekt Sieci neuronowe

Podstawy sztucznej inteligencji

wiedzy Sieci neuronowe (c.d.)

Wstęp do sieci neuronowych, wykład 8 Uczenie nienadzorowane.

Inteligentne systemy przeciw atakom sieciowym

I EKSPLORACJA DANYCH

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova

Sztuczne sieci neuronowe

Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Metody systemowe i decyzyjne w informatyce

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Wprowadzenie do Sieci Neuronowych Laboratorium 04 Algorytmy konstrukcyjne dla sieci skierowanych

ALGORYTMY SZTUCZNEJ INTELIGENCJI

Zastosowania sieci neuronowych

Metody sztucznej inteligencji Zadanie 1: Perceptron Rosenblatt a w wersji nieliniowej

Temat: Sieci neuronowe oraz technologia CUDA

6. Perceptron Rosenblatta

Redukcja wariancji w metodach Monte-Carlo

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej

Sztuczne sieci neuronowe (SNN)

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa

Metody numeryczne I Równania nieliniowe

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE

Definicja pochodnej cząstkowej

Obrona rozprawy doktorskiej Neuro-genetyczny system komputerowy do prognozowania zmiany indeksu giełdowego

Lekcja 5: Sieć Kohonena i sieć ART

Uniwersytet Mikołaja Kopernika. Wydział Matematyki i Informatyki. Jarosław Piersa piersaj(at)mat.uni.torun.pl

PRÓBNY EGZAMIN MATURALNY

Metody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF.

Definicja perceptronu wielowarstwowego

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych

Algorytmy stochastyczne laboratorium 03

SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU)

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Inżynieria Wiedzy i Systemy Ekspertowe. Logika rozmyta. dr inż. Michał Bereta Politechnika Krakowska

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

KADD Minimalizacja funkcji

Widzenie komputerowe

Elementy rachunku różniczkowego i całkowego

Prawa potęgowe w grafach przepływu informacji dla geometrycznych sieci neuronowych

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Zmienne losowe ciągłe i ich rozkłady

Optymalizacja ciągła

Metody Numeryczne Optymalizacja. Wojciech Szewczuk

Systemy agentowe. Sieci neuronowe. Jędrzej Potoniec

Transkrypt:

Wprowadzenie do Sieci Neuronowych Laboratorium Algorytm wstecznej propagacji błędu Maja Czoków, Jarosław Piersa --7. Powtórzenie Perceptron sigmoidalny Funkcja sigmoidalna: σ(x) = + exp( c (x p)) () Parametr c odpowiada za nachylenie funkcji jest zazwyczaj ustalony (c = ). Parametr p odpowiada za progowanie. Zazwyczaj jest pomijany, a w jego miejsce dodawane jest sztuczne wejście zawsze równe + z dodatkową wagą w, która jest objęta uczeniem. Perceptron sigmoidalny o wagach wi na wejściach xi zwraca wartość N X wi xi ) () out = σ( i= Alternatywnie można wartość progu ustalić p =, do sieci dodać N + -sze wejście, które zawsze jest równe + oraz stowarzyszoną z nim wagę wn+, która przejmie funkcję progu. Działanie neuronu jest identyczne. Sigmoida jest funkcją ciągłą i różniczkowalną. σ (x) = σ(x)( σ(x)) (3) Podobnie jak w przypadku neuronów progowych, perceptrony z sigmoidalną funkcją aktywującą można łączyć w sieci. Ze względu na ciągłą (i różniczkowalną!) zależność wyjścia od danych można stosować bardziej wyrafinowane (ale i wymagające!) algorytmy uczenia (alg. spadku gradientowego, ang. gradient descent).. Wsteczna propagacja błędu / backerror propagation Dane: Sieć warstwowa perceptronów o sigmoidalnej funkcji aktywacji, zakładamy, że wszystkie perceptrony w obrębie jednej warstwy mają takie same ilości wejść i są to wszystkie wyjścia z warstwy poprzedniej. Ponadto dany jest zestaw uczący zbiór przykładowych danych E i oczekiwanych odpowiedzi C. Wynik: Wartości wagi. Funkcja błędu, określa jak bardzo niedostosowana jest sieć do zestawu uczącego X ERR = (out(e i ) C i ) () i Projekt współfinansowany przez Unię Europejską w ramach Europejskiego Funduszu Społecznego

. = = = =...8..6.. - - -. -3 - - - 3 (a) Jeden wymiar parametry c =, c = 3, c = (b) Sigmoida określona na sumie ważonej dwóch zmiennych. Rysunek : Wykres sigmoidy σ(x) = +exp( c(x)) w = [ -3. 3. -. 3. -3. -. * *.] 3. 3. 3 3...... - - - - (a) Portret błędu sieci z progową funkcją aktywacji. (b) Portret błędu sieci z sigmoidalną funkcją aktywacji. Rysunek : Portret błędu dla problemu XOR. Projekt współfinansowany przez Unię Europejską w ramach Europejskiego Funduszu Społecznego

Naturalna interpretacja im mniejsza wartość funkcji błędu tym lepiej nauczona sieć. Wniosek algorytm powinien poszukiwać minimum funkcji ERR na przestrzeni wszystkich możliwych konfiguracji wag sieci (już sam wymiar przestrzeni może być gigantyczny, a do tego wagi są liczbami rzeczywistymi!). Oznaczenia η > stała uczenia, w ij wagi σ() funkcja sigmoidalna o i, I i,j wyjście z neuronu i, wejście numer i do neuronu numer j w następnej warstwie, są to te same wartości (choć mogą występować w różnych kontekstach), wejściami do warstwy pierwszej są dane uczące I i, = E j i. E j, C j zestaw uczący i odpowiadający mu poprawny wynik, Ej i [..] więc dane z poza tego przedziału należy znormalizować. Podobnie wynikowa odpowiedź C (...9). UWAGA! Ponieważ sigmoida nie osiąga wartości ani nie należy stosować skrajnych wartości odpowiedzi. Algorytm. Wybierz losowo (!!) przykład uczący E z listy przykładów i odpowiadający mu poprawny wynik C.. Oblicz wynik działania sieci na E, zapamiętaj go, zapamiętaj również wyniki w warstwach pośrednich o j, sumy ważone in j (wyniki przed zaaplikowaniem funkcji aktywującej) i wejścia do neuronów w danej warstwie I k,j (wejściem do warstwy pierwszej jest przykład, dla warstw wyższych j są nimi wyniki z warstwy poprzedniej k) 3. Dla wszystkich jednostek i w zewnętrznej warstwie sieci: Oblicz błąd err i = C i o i Oblicz i = err i σ (in i ) Uaktualnij wagi do jednostki i w j,i = w j,i + η I j,i i = w j,i + η o j err i σ (in i ). Dla wszystkich jednostek j w kolejnych warstwach sieci (schodząc warstwami od przedostatniej do pierwszej): Oblicz błąd err j = l w j,l l Oblicz j = σ (in j ) err j Uaktualnij wagi do jednostki j w k,j = w k,j + η I k,j j. Wróć do. 6. Zakończ po wykonaniu określonej liczby kroków lub osiągnięciu zadowalającego poziomu błędu Projekt współfinansowany przez Unię Europejską w ramach Europejskiego Funduszu Społecznego 3

-6-6 8 Rysunek 3: Interpretacja pochodnych cząstkowych..3 Algorytm spadku grdientowego Dana niech będzie funkcja f : R n R ciągła i różniczkowalna (istnieją pochodne cząstkowe f x... f x n ). Chcemy wyznaczyć minimum (lokalne) funkcji tj. x R n, takie że dla f(x) f(y) dla y należących do pewnego otoczenia x. Dodatkowo dany niech będzie pewien punkt startowy a R n. Przypomnijmy definicję pochodnych cząstkowych f f(x,.., x i, x i + h, x i+,...x n ) f(x,..., x n ) (x,..., x n ) = lim x i h h () Zastanówmy się czym jest f x (a )? Intuicyjnie jest to kierunek, w którą stronę funkcja rośnie zmieniając pierwszą współrzędną, przy pozostałych ustalonych. Mając cały zestaw pochodnych cząstkowych (gradient) mamy dokładny kierunek, w którym funkcja najszybciej rośnie. Szukając minimum należy zatem wybrać zwrot przeciwny i... udać się w jego kierunku.. Rozpocznij w losowym / wybranym a (). Dla każdej współrzędnej i =..n 3. Powtarzaj krok Uwagi: a (k+) i = a (k) i η f x i (a (k) ) W przykładach rozważana jest parabola funkcja posiada dokładnie jedno minimum lokalne (i bardzo ładne wzory do jego analitycznego obliczenia jej celem jest ilustrowanie działania algorytmu). Jeżeli funkcja rozbiega do (minus) nieskończoności algorytm może się zapętlić. Projekt współfinansowany przez Unię Europejską w ramach Europejskiego Funduszu Społecznego

3 3 3 6 - -6 - (a) f (x) = -6-6 6-6 (b) f (x, y) = x + y x Rysunek : Postęp GDA do obliczania minimum funkcji. Trajektoria poszukiwania minimum zależy od punktu startowego. Wybór złego może powodować utknięcie w minimum lokalnym. Zazwyczaj nie ma możliwości stwierdzenia, że jest to minimum lokalne. W takiej sytuacji jednym z sensowniejszych pomysłów jest ponowne uruchomienie algorytmu z innym / losowym punktem startowym. Sugerowane warunki stopu: gdy zmiany będą bardzo małe (poniżej ustalonego progu względnego lub bezwzględnego), po wykonaniu ustalonej liczby iteracji, po osiągnięciu zadowalającej wartości. Parametr η > jest stałą uczenia. Zbyt duża wartość uniemożliwi osiągnięcie minimum (kolejne punkty zaczną przeskakiwać minimum na drugą stronę ), zbyt mały spowoduje powolne działanie. Wartość η można uzmiennić i zmniejszać wraz z postępem obliczeń. (Jeżeli ktoś jeszcze nie spostrzegł...) Wsteczna propagacja błędu jest algorytmem spadku gradientowego. Minimalizowane jest funkcja błędu (nieujemna!). ERR = X (out(e i ) C i ) i Dziedziną funkcji jest przestrzeń wszystkich wartości wag. Każda waga jest rzeczywista. Przy x wejściach, trzech warstwach liczących kolejno j,k,l neuronów cała przestrzeń ma wymiar xj + jk + kl (tu już trudniej o gotowe analityczne wzory dla każdej z wag). Zadania Inne pomysły są jak najbardziej mile widziane. Projekt współfinansowany przez Unię Europejską w ramach Europejskiego Funduszu Społecznego

. Zadanie Ramię robota Ramię robota składa się z pary sztywnych odcinków (ustalonej długości) połączonych ze sobą regulowanym zawiasem o rozwartości od do 8 stopni tj. (..π). Punkt mocowania ramienia jest ustalony, ale można obracać ramię również w tym punkcie. Ramieniem steruje sieć neuronowa, jej wejściami są współrzędne punktu na płaszczyźnie, w które należy sięgnąć dłonią (para liczb znormalizowanych od [..]). Wyjściem są wartości rozwarcia obu zawiasów (ponownie znormalizowane do [...9]). Sieć należy nauczyć na wygenerowanych danych (np. wylosować pary kątów i analitycznie przeliczyć punkt, w który dłoń trafi). Wielkość sieci, ilość warstw ukrytych, długość ramion, ilość iteracji, sposób reprezentacji... zależna od autora.. Zadanie Pong Napisz sieć neuronową sterującą graczem komputerowym w grze Pong / Arkanoid. Danymi do sieci mogą być np. współrzędne piłki, kierunek i zwrot ruchu, prędkość, położenie paletki przeciwnika. Danymi wyjściowmi informacje czy przesunąć własną paletkę w górę, czy w dół (lewo / prawo arkanoid)..3 Zadanie 3 Tanks Napisz sieć neuronową sterującą graczem komputerowym w grze Tanks / Worms. Danymi do sieci mogą być np. współrzędne strzelającego działa, współrzędne celu, grawitacja, wiatr (ewentualnie również topografia terenu). Danymi wyjściowymi są kierunek (kąt) oraz siła (prędkość początkowa) strzału.. Zadanie Space invaders Napisz sieć neuronową sterującą graczem komputerowym w grze Space Invaders / Galaxian. Danymi do sieci mogą być np. współrzędne statku kosmicznego, współrzędne celów (ewentualnie pocisków lecących na nasz statek). Danymi wyjściowymi mogą być zmiana położenia (lewo, prawo, góra, dół, bez zmian) oraz decyzja czy strzelać. Projekt współfinansowany przez Unię Europejską w ramach Europejskiego Funduszu Społecznego 6