Sieci rekurencyjne. Jacek Bartman

Podobne dokumenty
Plan wykładu. Sztuczne sieci neuronowe. Sieci rekurencyjne. Sieci rekurencyjne. Wykład 8: Sieci rekurencyjne: sie Hopfielda. Sieci rekurencyjne

Sztuczne sieci neuronowe

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Neural networks. Krótka historia rozpoznawanie znaków alfanumerycznych.

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Plan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty)

Systemy Inteligentnego Przetwarzania wykład 3: sieci rekurencyjne, sieci samoorganizujące się

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Plan wykładu. Sztuczne sieci neuronowe. Uczenie nienadzorowane (bez nauczyciela) Uczenie nienadzorowane - przykłady

Podstawy teorii falek (Wavelets)

System M/M/1/L. λ = H 0 µ 1 λ 0 H 1 µ 2 λ 1 H 2 µ 3 λ 2 µ L+1 λ L H L+1. Jeli załoymy, e λ. i dla i = 1, 2,, L+1 oraz

Sieci Neuronowe 1 Michał Bereta

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych

aij - wygrana gracza I bij - wygrana gracza II

STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Zapis informacji, systemy pozycyjne 1. Literatura Jerzy Grębosz, Symfonia C++ standard. Harvey M. Deitl, Paul J. Deitl, Arkana C++. Programowanie.

KRYTERIA WYBORU ARCHITEKTURY SIECI NEURONOWYCH - FINANSOWE CZY BŁ DU PROGNOZY

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych

Analiza danych OGÓLNY SCHEMAT. Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja)

WYZNACZANIE PRZYSPIESZENIA ZIEMSKIEGO ZA POMOCĄ WAHADŁA RÓŻNICOWEGO

SZTUCZNA INTELIGENCJA

(M2) Dynamika 1. ŚRODEK MASY. T. Środek ciężkości i środek masy

Multifraktalne cechy przep³ywu lokalnej sejsmicznoœci indukowanej na terenie KWK Katowice (GZW)

Problem plecakowy (KNAPSACK PROBLEM).

ZASTOSOWANIE PROGRAMOWANIA DYNAMICZNEGO DO OPRACOWANIA STRATEGII REDUKCJI EMISJI GAZÓW

Badania operacyjne w logistyce i zarządzaniu produkcją

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB

wiedzy Sieci neuronowe (c.d.)

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

11/22/2014. Jeśli stała c jest równa zero to takie gry nazywamy grami o sumie zerowej.

SZTUCZNA INTELIGENCJA

W praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np.

Przykład 5.1. Kratownica dwukrotnie statycznie niewyznaczalna

ZESTAW ZADAŃ Z INFORMATYKI

Diagonalizacja macierzy kwadratowej

Laboratorium ochrony danych

MIKROEKONOMIA Prof. nadzw. dr hab. Jacek Prokop

Portfele zawierające walor pozbawiony ryzyka. Elementy teorii rynku kapitałowego

KRZYWA BÉZIERA TWORZENIE I WIZUALIZACJA KRZYWYCH PARAMETRYCZNYCH NA PRZYKŁADZIE KRZYWEJ BÉZIERA

Plan wykładu. Sztuczne sieci neuronowe. Problem dwuklasowy (N=1) Problem klasyfikacji. Wykład 6: Ocena jakoci sieci neuronowej Sieci RBF KLASYFIKATOR

Proces narodzin i śmierci

Modele wieloczynnikowe. Modele wieloczynnikowe. Modele wieloczynnikowe ogólne. α β β β ε. Analiza i Zarządzanie Portfelem cz. 4.

Zaawansowane metody numeryczne

Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu

Wykład Turbina parowa kondensacyjna

Wprowadzenie do Sieci Neuronowych Sieci rekurencyjne

Model ASAD. ceny i płace mogą ulegać zmianom (w odróżnieniu od poprzednio omawianych modeli)

TRANZYSTOR BIPOLARNY CHARAKTERYSTYKI STATYCZNE

Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba

SZTUCZNA INTELIGENCJA

Regulamin promocji zimowa piętnastka

Regulamin promocji upalne lato

Statystyka. Zmienne losowe

OPTYMALIZACJA ALGORYTMÓW WYZNACZANIA RUCHU CIECZY LEPKIEJ METODĄ SZTUCZNEJ ŚCIŚLIWOŚCI

LABORATORIUM PODSTAW ELEKTROTECHNIKI Badanie obwodów prądu sinusoidalnie zmiennego

Instrukcja uytkownika

1. Komfort cieplny pomieszczeń


Sztuczne sieci neuronowe

Plan wykładu. Sztuczne sieci neuronowe. Gaz neuronowy (ang. Neural Gas - NG) NG - zasada działania. Gaz neuronowy. Rosncy gaz neuronowy

Sztuczne sieci neuronowe

Mierzenie handlu wewnątrzgałęziowego

Płyny nienewtonowskie i zjawisko tiksotropii

ZASTOSOWANIE KLASYCZNEGO ALGORYTMU GENETYCZNEGO DO ROZWIĄZANIA ZBILANSOWANEGO ZAGADNIENIA TRANSPORTOWEGO

Regulamin promocji 14 wiosna

Metody analizy obwodów

RÓWNOWAGA STACKELBERGA W GRACH SEKWENCYJNYCH

Diagnostyka układów kombinacyjnych

Oligopol dynamiczny. Rozpatrzmy model sekwencyjnej konkurencji ilościowej jako gra jednokrotna z pełną i doskonalej informacją

Sortowanie szybkie Quick Sort

Weryfikacja hipotez dla wielu populacji

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania

5. OPTYMALIZACJA GRAFOWO-SIECIOWA

Zarządzanie ryzykiem w przedsiębiorstwie i jego wpływ na analizę opłacalności przedsięwzięć inwestycyjnych

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

PtOCKA MI^DZYSZKOLNA LIGA PRZEDMIOTOWA MATEMATYKA - klasa II szkofa podstawowa

Problemy jednoczesnego testowania wielu hipotez statystycznych i ich zastosowania w analizie mikromacierzy DNA

ANALIZA I MODELOWANIE SIECI TRANSPORTOWYCH Z WYKORZYSTANIEM SIECI Z O ONYCH

Analiza Matematyczna I.1

Instrukcja do ćwiczeń laboratoryjnych z przedmiotu: Badania operacyjne. Temat ćwiczenia: Problemy rozkroju materiałowego, zagadnienia dualne

ORGANIZACJA ZAJĘĆ OPTYMALIZACJA GLOBALNA WSTĘP PLAN WYKŁADU. Wykładowca dr inż. Agnieszka Bołtuć, pokój 304,

Regulamin promocji fiber xmas 2015

Wykład 1 Zagadnienie brzegowe liniowej teorii sprężystości. Metody rozwiązywania, metody wytrzymałości materiałów. Zestawienie wzorów i określeń.

Systemy Ochrony Powietrza Ćwiczenia Laboratoryjne

Fizyka cząstek elementarnych

Algorytmy. i podstawy programowania. eci. Proste algorytmy sortowania tablic. 4. Wskaźniki i dynamiczna alokacja pami

Rozliczanie kosztów Proces rozliczania kosztów

Matematyka finansowa r. Komisja Egzaminacyjna dla Aktuariuszy. LXVIII Egzamin dla Aktuariuszy z 29 września 2014 r.

BQR FMECA/FMEA. czujnik DI CPU DO zawór. Rys. 1. Schemat rozpatrywanego systemu zabezpieczeniowego PE

PORADNIK KANDYDATA. Wkrótce w nauka w szkole w jaki sposób je. zasadniczych szkole

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

LABORATORIUM METROLOGII TECHNIKA POMIARÓW (M-1)

SZTUCZNA INTELIGENCJA

Portfel złożony z wielu papierów wartościowych

Wykład z Podstaw matematyki dla studentów Inżynierii Środowiska. Wykład 8. CAŁKI NIEOZNACZONE. ( x) 2 cos2x

METODA GMDH DO PROGNOZOWANIA RYNKÓW W WARUNKACH KRYZYSU FINANSOWEGO

ANALIZA PREFERENCJI SŁUCHACZY UNIWERSYTETU TRZECIEGO WIEKU Z WYKORZYSTANIEM WYBRANYCH METOD NIESYMETRYCZNEGO SKALOWANIA WIELOWYMIAROWEGO

Wielokategorialne systemy uczące się i ich zastosowanie w bioinformatyce. Rafał Grodzicki

Nieeuklidesowe sieci neuronowe

Transkrypt:

Sec rekurencyne

Sec rekurencyne Charakteryzu s: stnenem sprze zwrotnych mdzy wecem, a wycem, dwukerunkowym nformac, przepywem wystpowanem w ch pracy przebe dynamczne Do naczce spotykanych sec rekurencynych nale sec Hopfelda, maszyna Boltzmana, sec BAM (Bdrectonxl Assocxtve Memory), sec ART (Adaptve Resonance Theory).

Sec rekurencyne ednowarstwowa W ukadach bolocznych neurony ma slne sprzena zwrotne. Zamknce ptl sprzena zwrotneo powodue, e se stae s dynamczna synay na e wycu zale od: aktualneo stanu we stanu sec (który zaley od we wczeneszych) lub nnym sowy welowarstwowa stanu pocztkoweo podanych pó3ne pobudze

Sec rekurencyne znadu zastosowane do rozwzywana problemów optymalzacynych oraz ako pamc skoarzenowe (asocacyne). Pam skoarzenowa (asocacyna) est ednym z podstawowych atrybutów ludzkeo mózu. Ma dwe stotne cechy: nformace zareestrowane w pamc asocacyne mo by dostpne poprzez podane na we$cu systemu nformac skoarzone, $lad pamcowy, zwany enramem, ne ma w pamc asocacyne $c$le lokalzac - ka'da zareestrowana nformaca zlokalzowana est w stoce w ca(e pamc, na zasadze kolektywneo dza(ana wszystkch e elementów.

Pam asocacyna pe(n funkc uk(adu reprezentuceo wzaemne skoarzena wektorów. W przypadku, dy skoarzone wektory dotycz tych samych sk(adnków teo sameo wektora, mówmy o pamc autoasocacyne (se Hopfelda). Gdy skoarzone s dwa ró'ne wektory mo'na mów o pamc typu heteroasocacyneo (se Hammna, se BAM). Podstawowym zadanem pamc asocacyne est zapamtane zboru próbek we$cowych (uczcych) w tak sposób, aby przy prezentac nowe próbk uk(ad mó( wyenerowa odpowed., która dotyczy bdze edne z zapamtanych wcze$ne próbek, po(o'one nabl'e próbk testuce.

Nabardze znanym secam rekurencynym s: se Hopfelda, se BAM (Bdrectonal Assocxtve Memory) rzadze spotyka s: se Hammna se RTRN (Real Tme Recurrent Network), se Elmana (o uproszczone strukturze rekurenc), se RCC (Recurrent Cascade Correlaton)

Se Hopfelda Za(o'ena: wszystke neurony s ze sob po(czone (fully connected network) waam synaps w. macerz wa po(cze7 est symetryczna, W W. - symetra est wyodna z teoretyczneo p. wdzena, pozwala wprowadz f. ener; est nerealstyczna z boloczneo p. wdzena. wy$ce neuronu ne est kerowane na eo we$ce W Brak podza(u na warstwy.

Alorytm dzaana sec Hopfelda Wyberamy losowo neuron. Oblczamy wa'on sum po(cze7 do aktywnych ssadów. ( k ) w x ( k ) Je'el suma est dodatna to neuron s aktywue, w przecwnym przypadku dezaktywue. dy u k > dy u lub y ( k + ) y ( k ) dy u ( k ) y ( k + ) y k dy u dy u ( k ) < dy u Losuemy koleny neuron postpuemy wed(u alorytmu, a' do uzyskana stanu stablneo. Proces nazywa s równole( relaksac. u ( ) N b ( k ) ( ) ( k ) ( k ) > <

Funkca ener Podczas pracy w dane chwl aktualzue s wy$ce tylko edneo neuronu Aktualzaca zawsze prowadz do obn'ena funkc ener (f. Lapunowa): E N N ( x) w + yy N b y w dane chwl zmena s stan tylko edneo neuronu (np.: p-teo): E N ( y ) w p y p y + b p y p Zmana warto$c funkc ener wynos E k E y k + E y k y k ( ) ( ( )) ( ( )) ( ) u ( k ) e$l u p to y p ne mo'e zmale, wc enera zmalee; e$l u p < to y p <, enera równe' zmalee. Osnce mnmum funkc ener oznacza, 'e se znalaz(a s w stane stablnym (ne mus to by mnmum lobalne) p p

Atraktory Stany stablne, odpowadace mnmum funkc ener, nazywa s atraktoram. Atraktory mo'na porówna do nan'szych punktów w dolne, a doln nazwa necka przycana atraktora (atraktory punktowe - tylko dla symetrycznych po(cze7). O lczbe rodzau atraktorów oraz charakterze funkc ener decydue dobór wa po(cze7 mdzy neuronam Stany stablne: mnma lokalne E(W) odpowadace pamtanym wzorcom

Sec ART (Adaptve Resonance Theory) Jedn z wacwoc mózu est umetno zapamtywana nowych obrazów bez zanku zdolnoc rozpoznawana obrazów poznanych wczene. Wkszo przedstawonych metod uczena sec neuronowych maa t wad, e wprowadzene do nauczone u sec nowych obrazów wymaa powtórzena procesu uczena s przy pomocy wzorów poprzednch nowych. Oranczane s edyne do nowych wzorów powodue zapomnene wzorów poprzednch Problem ten rozwzany zosta w secach ART. Autoram prac dotyczcych Adaptacyne Teor Rezonansu, które s podstaw dzaana sec rezonansowych ART s Carpenter Grossber.

Rodzae sec ART ART - operu na obrazach bnarnych ART - na obrazach cych ART3 - zapewna wksz stablno w porównanu z sec ART

Budowa sec rezonansowych Sec rezonansowe ART skada s z: dwóch warstw: dolne (we$cowo-porównuce) órne wy$cowo-rozpoznawcze) warstwa órna wa óra dó( wa dó(-óra warstwa dolna uk(adu orentac, uk(adu kontrolneo Obe warstwy s poczone dwoma ukadam pocze ednokerunkowych: od warstwy dolne do órne o waach o waach w (na rysunku na czarno) od warstwy órne do dolne o waach v (na rysunku na czerwono)

Dzaane sec rezonansowe W perwsze, wecowe warstwe (dolne), przechowywany est obraz wecowy. Drua warstwa, wycowa (órna) odpowada za wskazane klasy, do które klasyfkue s ksztat wecowy. W warstwe te tylko eden z neuronów ma stan edynk. Natomast wszystke pozostae s wyzerowane. Jeel zwrócony syna dokadne odpowada wzorcow to klasyfkaca est zakoczona Jel natomast syna odpowedz w znaczcy sposób rón s od synau wecoweo wówczas dokonu s odpowedne modyfkace wa pocze, a proces ten powtarza s a do osnca maksymalneo podobestwa. Poszczeólne warstwy komunku s w ór w dó, czyl rezonu, dopasowuc wa, a proces ten powtarza s, a do osnca maksymalneo podobestwa.

Uczene sec ART Se ART est sec uczc s w czase rzeczywstym. Uczene to polea ówne na rozpoznawanu ksztatów, które znaczne rón s od przechowywanych wzorców oraz ch zapamtywanu ako nowych wzorców. Przy newelkch róncach stwerdzonych przy porównywanu we z zapamtanym wzorcam dokonue s "douczene" poleace na poprawenu wzorców zodne z obserwowanym odchylenam. Nad uaktywnenem lub wyaszenem odpowednch decyz w sec czuwa ukady orentucy ukad kontrolny.

Wady sec rezonansowe dwuwarstwowe nebezpeczestwo powstana przypadkoweo procesu dynamczneo wzaemnych pobudze warstw przy zerowym obraze wecowym. Tak proces moe da bardzo nepodane rezultaty. trudno w ustalenu poprawnych proów aktywac dla neuronów warstwy dolne: pownny by nske, aby obraz wecowy mó wyenerowa odpowedne wyce, pownny by na tyle wysoke aby w przypadku poprawneo rozpoznana wzorca, obraz z warstwy órne ne zaburza wektora wecoweo warstwy dolne - co bdze doprowadzo do utraty rezonansu.

Uk(ad kontrolny Ukad kontrolny skada s z dwóch podukadów, które maa za zadane elmnac podanych wad: podukad G pen rol elementu prooweo uaktywnaceo s w chwl poawena s synau wecoweo dzk czemu umolwa zablokowane reakc warstwy dolne na bod3ce pochodzce z warstwy órne, eel brak est synaów wecowych. podukad G odbera pobudzace mpulsy wecowe oraz hamuce z warstwy órne podae dodatkowy syna dla neuronów warstwy dolne (przesuwa pró tych neuronów).

Weca sec Wyca warstwy órne Realzaca uk(adu kontrolneo Ukad kontrolny mona zamodelowa przy pomocy trzech nelnowych neuronów > dla dla > k k y dla y dla > n n x dla x dla

Uk(ad orentac Zwany równe detektorem nowych danych Ukad orentac est pobudzany przez syna wecowy hamowany przez syna wycowy z warstwy perwsze

Poawene s obrazu na wecu sec powodue wybór neuronu zwycskeo w warstwe órne przekazane odpowedz do warstwy dolne. Obraz wecowy wraz z odpowedz warstwy órne podane na warstw doln eneru w ne nowy obraz. Jeel obraz wecowy zostae rozpoznany powstae rezonans a synay podane na ukad orentacyny wzaemne s znosz Jeel obraz naley do klasy nezdentyfkowane, ukad orentac uaktywna s elmnue z rywalzac zwyczc z warstwy órne. Umolwa to rywalzac eel nowy zwyczca est neobsadzony to zostae zaakceptowany ako reprezentant nowe klasy

Wyce neuronu warstwy dolne Weca sec Wyca warstwy dolne + + > + + y v x dla y v x dla y d > k n k n y x dla y x dla r

Pe(ny schemat sec ART Struktura sec ART.-

Uczene sec ART. Warant I dla pocze dó-óra w ( k + ) w w w ( k ) +, dy y ( k ) ( k ), dy ( ) ( k ), dy ( ) ( ) ( y ( k ) ) ( y k ) ( y k ) ( y ( k ) ) mo by stae ale lepsze wynk uzyskue s dy: n ( ( )) ( ) d w k w k y w ( k ) dla pocze óra-dó v ( k + ), v, dy ( k ), dy y ( k ) dy ( y ( k ) ) y ( k ) n d y ( ) ( ) ( y ( k ) ) ( y ( k ) )

Warant II dla pocze dó-óra w ( k + ) + w, n y, dy ( k ), dy y ( k ) dy ( y ( k ) ) y ( k ) ( ) ( ) ( y ( k ) ) y ( k ) ( ) dla pocze óra-dó v ( k + ), v, dy ( k ), dy y ( k ) dy ( y ( k ) ) y ( k ) ( ) ( ) ( y ( k ) ) ( y ( k ) )

Uczene ncue s waam: w losue s z rozkadem równomernym z przedzau [, /n] v

Fazy dza(ana sec ART Faza - Incalzaca Polea na wstpnym ustawenu wa pocze oraz prou zadzaana ukadu orentuceo. Wa pocztkowe v pocze "z óry na dó" ustawamy, przypsuc m wartoc równe eden v dze,...,k;,...,n. Wa pocztkowe w "z dou do óry" ustawa s ednakowo w nastpucy sposób w /n, dze n to lczba neuronów dolne warstwy. Czuo ukadu orentuceo p est lczba z przedzau (,).

Zasada dza(ana sec ART. krok po kroku. wprowadz obraz na we$ce perwsze warstwy sec na wy$cu otrzymamy eo kop, w warstwe órne (konkurencyne) pobudzenu ulea tylko eden neuron, obraz powsta(y w warstwe órne est nastpne wstecz przekazywany do warstwy dolne, obraz z warstwy órne wraz z obrazem we$cowym powodu ponowna aktywac warstwy dolne, e'el nowa aktywaca warstwy dolne harmonzue z zewntrznym obrazem we$cowym to mówmy o rezonanse adaptacynym. oznacza to, 'e obraz we$cowy zosta( rozpoznany zakwalfkowany do klasy reprezentowane przez wzbudzony element warstwy órne.