WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania

Podobne dokumenty
Uczenie Wielowarstwowych Sieci Neuronów o

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Podstawy Sztucznej Inteligencji (PSZT)

wiedzy Sieci neuronowe

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Zastosowania sieci neuronowych oraz modeli alternatywnych. PLAN WYKŁADU

Temat: Sieci neuronowe oraz technologia CUDA

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Zastosowania sieci neuronowych oraz modeli alternatywnych. PLAN WYKŁADU

Uczenie sieci typu MLP

Jednowarstwowe Sieci Neuronowe jako. klasykatory do wielu klas. (c) Marcin Sydow

1. Logika, funkcje logiczne, preceptron.

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

8. Neuron z ciągłą funkcją aktywacji.

Elementy Sztucznej Inteligencji

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

Metody Sztucznej Inteligencji II

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak

Elementy Sztucznej Inteligencji

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Daniel Kierepka. Kompresja obrazów za pomoc sztucznych sieci neuronowych

wiedzy Sieci neuronowe (c.d.)

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

1 Bª dy i arytmetyka zmiennopozycyjna

SZTUCZNA INTELIGENCJA

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wst p do sieci neuronowych, wykªad 14 Zespolone sieci neuronowe

Podstawy sztucznej inteligencji

WAI Wykłady 3 i 4. Sieci neuronowe. Uczenie i zastosowania. Wstęp do logiki rozmytej.

SID Wykład 7 Zbiory rozmyte

Inteligentne systemy przeciw atakom sieciowym

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Sztuczne sieci neuronowe

Optymalizacja optymalizacji

MODELOWANIE RZECZYWISTOŚCI

Algorytmy zrandomizowane

Elementy inteligencji obliczeniowej

AUTO-ENKODER JAKO SKŠADNIK ARCHITEKTURY DEEP LEARNING

Optymalizacja ciągła

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

Widzenie komputerowe

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Sztuczna inteligencja

Podstawy Sztucznej Inteligencji

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Plan wykładu. Reguły asocjacyjne. Przykłady asocjacji. Reguły asocjacyjne. Jeli warunki to efekty. warunki efekty

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

6. Projektowanie składu chemicznego stali szybkotn cych o wymaganej twardo ci i odporno ci na p kanie

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wst p do sieci neuronowych 2010/2011 wykªad 7 Algorytm propagacji wstecznej cd.

K P K P R K P R D K P R D W

Wstp. Warto przepływu to

Sztuczne sieci neuronowe. Uczenie, zastosowania

Wstęp do sztucznych sieci neuronowych

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

SIECI REKURENCYJNE SIECI HOPFIELDA

2. Wykrywanie twarzy Wprowadzenie

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.

przewidywania zapotrzebowania na moc elektryczn

Sztuczne sieci neuronowe

5. Modelowanie własno ci stali szybkotn cych

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Sieci neuronowe - uczenie

Zastosowania sieci neuronowych

6. Perceptron Rosenblatta

Syntactic Pattern Recognition. Anna Kuchna Maciej arnowski

Uczenie sieci radialnych (RBF)

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I.

Podstawy sztucznej inteligencji

wiczenie nr 3 z przedmiotu Metody prognozowania kwiecie«2015 r. Metodyka bada«do±wiadczalnych dr hab. in». Sebastian Skoczypiec Cel wiczenia Zaªo»enia

MODELOWANIE FAZ ZNI ANIA I L DOWANIA SAMOLOTU BOEING ER PRZY U YCIU SZTUCZNYCH SIECI NEURONOWYCH

ID1SII4. Informatyka I stopień (I stopień / II stopień) ogólnoakademicki (ogólno akademicki / praktyczny) stacjonarne (stacjonarne / niestacjonarne)

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Zastosowania sieci neuronowych

Lekcja 5: Sieć Kohonena i sieć ART

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Sztuczne siei neuronowe - wprowadzenie

Elementy kognitywistyki III: Modele i architektury poznawcze

sieci jednowarstwowe w MATLABie LABORKA Piotr Ciskowski

Relacj binarn okre±lon w zbiorze X nazywamy podzbiór ϱ X X.

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

Uczenie sieci neuronowych i bayesowskich

Sztuczne sieci neuronowe (SNN)

RACHUNEK ZBIORÓW 2 A B = B A

Sieci neuronowe i ich ciekawe zastosowania. Autor: Wojciech Jamrozy III rok SMP / Informatyka

14.Rozwiązywanie zadań tekstowych wykorzystujących równania i nierówności kwadratowe.

Transkrypt:

WYKŁAD 4 Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania PLAN WYKŁADU Metody uczenia sieci: Uczenie perceptronu Propagacja wsteczna Zastosowania Sterowanie (powtórzenie) Kompresja obrazu Rozpoznawanie wzorców

REGUŁA UCZENIA PERCEPTRONU () Przykład: rozpoznawanie znaków 36 wej Wyj cie:, je li na wej ciu pojawia si litera A, za 0 w p.p. Siatka 6 6 Zadanie: dobra wagi wej i warto progow tak, by uzyska zaplanowany efekt REGUŁA UCZENIA PERCEPTRONU () Wej cie: Ci g przykładów ucz cych ze znanymi odpowiedziami Proces uczenia: Inicjujemy wagi losowo Dla ka dego przykładu, [w,w ] je li odpowied jest nieprawidłowa, to w + α x w + α x θ α gdzie α jest równe odpowiedzi prawidłowej w x + w y - θ 0

REGUŁA UCZENIA PERCEPTRONU (3) Cz sto α mno y si dodatkowo przez niewielki współczynnik uczenia Po wyczerpaniu przykładów, zaczynamy proces uczenia od pocz tku, dopóki nast puj jakiekolwiek zmiany wag poł cze REGUŁA UCZENIA PERCEPTRONU (4) Opisany schemat jest w miar przejrzysty tylko dla pojedy czych perceptronów, lub niewielkich sieci Ci ko jest stosowa reguły tego typu w dla skomplikowanych modeli Tymczasem np. do rozpoznawania wszystkich liter potrzeba by sieci zło onej z 6 takich perceptronów 3

PROPAGACJA WSTECZNA () Chcemy wytrenowa wagi połcze midzy kolejnymi warstwami neuronów Inicjujemy wagi losowo (na małe wartoci) Dla danego wektora uczcego obliczamy odpowied sieci (warstwa po warstwie) Kady neuron wyjciowy oblicza swój błd, odnoszcy si do rónicy pomidzy obliczon odpowiedzi y oraz poprawn odpowiedzi t PROPAGACJA WSTECZNA () dane ucz ce odpowied sieci y bł d d wła ciwa odpowied t Błd sieci definiowany jest zazwyczaj jako d ( y t) 4

PROPAGACJA WSTECZNA (3) Oznaczmy przez: g: R R funkcj aktywacji w neuronie w,..., w K wagi połcze wchodzcych z,..., z K sygnały napływajce do neuronu z poprzedniej warstwy Błd neuronu traktujemy jako funkcj wag połcze do niego prowadzcych: d( w ) ( ( ) ),..., wk g w z +... + wk zk t PRZYKŁAD () Rozpatrzmy model, w którym: Funkcja aktywacji przyjmuje posta g( s) 3( s+ ) + e Wektor wag połcze [;-3;] Załómy, e dla danego przykładu: Odpowied powinna wynosi t 0.5 Z poprzedniej warstwy dochodz sygnały [0;;0.3] 5

PRZYKŁAD () Liczymy wejciow sum waon: s w x + wx + w3x3 0 + ( 3) + 0.3.4 Liczymy odpowied neuronu: y g s).4+ + e + e Błd wynosi: d 0.3 0.5 0. ( 3 ( ) 0. 3. ( ) 036 IDEA ROZKŁADU BŁ DU Musimy rozłoy otrzymany błd na połczenia wprowadzajce sygnały do danego neuronu Składow błdu dla kadego j-tego połczenia okrelamy jako pochodn czstkow błdu wzgldem j-tej wagi Składowych tych bdziemy mogli uy do zmodyfikowania ustawie poszczególnych wag połcze 6

OBLICZANIE POCHODNEJ ( w wk ) ( y t) g' ( s) z j d,..., w j ( g( w z + + w z ) t) ( y t) g( s) ( w z +... + w z ) y... w j s K K w j K K PROPAGACJA WSTECZNA (4) Idea: Wektor wag połcze powinnimy przesun w kierunku przeciwnym do wektora rozkładu błdu Realizacja: bł d modyfikacja wag θ w bł d w bł d 7

STEROWANIE () Układ fizyczny Sie neuronowa jest zwykle trenowana na modelu (symulatorze) układu, albo przez obserwacj właciwego sposobu sterowania. Sterownik (sie neuronowa) Jeli znamy błd, moemy sie doucza STEROWANIE () Układ fizyczny Dobieranie parametrów sterownika rozmytego za pomoc neuronowego symulatora jest szybsze, tasze i bezpieczniejsze, ni podczas pracy na rzeczywistych urzdzeniach Dane wejciowe Adaptacyjny dobór kształtu zbiorów rozmytych 0 Sterownik rozmyty Sterowanie Wyniki symulacji Model układu (sie neuronowa) 8

KOMPRESJA OBRAZU Obraz dzielony jest na kwadraty (np. 8x8) Sie neuronowa o 6 wyjciach zamienia dane wejciowe na 6 liczb Liczby s kwantowane i przekazywane drugiej sieci, odtwarzajcej dane oryginalne Kryterium nauki: minimalizacja błdu rekonstrukcji ROZPOZNAWANIE WZORCÓW Wzorce: obrazy, nagrania, dane personalne, sposoby prowadzenia pojazdu, etc. Reprezentacja: Wektor cech (wej do sieci neuronowej) Klasyfikacja wzorców: Klasyfikacja do jednej z istniejcych klas Formowanie klas wzorców Asocjacyjne odtwarzanie wzorców Odtwarzanie wzorców podobnych Uzupełnianie wzorców Odzyskiwanie (czyszczenie) wzorców 9

RÓNE STRUKTURY SIECI Wielowarstwowe skierowane Wielowarstwowe rekurencyjne Samoorganizujce si SIECI REKURENCYJNE 0