Systemy Inteligentnego Przetwarzania wykład 3: sieci rekurencyjne, sieci samoorganizujące się

Podobne dokumenty
Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Plan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty)

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Sztuczne sieci neuronowe

Neural networks. Krótka historia rozpoznawanie znaków alfanumerycznych.

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych

Lekcja 5: Sieć Kohonena i sieć ART

Podstawy teorii falek (Wavelets)

Analiza danych OGÓLNY SCHEMAT. Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja)

SZTUCZNA INTELIGENCJA


SZTUCZNA INTELIGENCJA

Plan wykładu. Sztuczne sieci neuronowe. Sieci rekurencyjne. Sieci rekurencyjne. Wykład 8: Sieci rekurencyjne: sie Hopfielda. Sieci rekurencyjne

SZTUCZNA INTELIGENCJA

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

OGÓLNE PODSTAWY SPEKTROSKOPII

Beata Szymańska Wojciech Topolski Marcin Tomasik KWANTYZACJA WEKTOROWA

Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba

Wielokategorialne systemy uczące się i ich zastosowanie w bioinformatyce. Rafał Grodzicki

Natalia Nehrebecka. Wykład 2

Sieci Neuronowe 1 Michał Bereta

W praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np.

SIECI KOHONENA UCZENIE BEZ NAUCZYCIELA JOANNA GRABSKA-CHRZĄSTOWSKA

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Co to jest grupowanie

MATEMATYKA POZIOM ROZSZERZONY Kryteria oceniania odpowiedzi. Arkusz A II. Strona 1 z 5

KURS STATYSTYKA. Lekcja 6 Regresja i linie regresji ZADANIE DOMOWE. Strona 1

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Plan wykładu. Sztuczne sieci neuronowe. Uczenie nienadzorowane (bez nauczyciela) Uczenie nienadzorowane - przykłady

Monitorowanie i Diagnostyka w Systemach Sterowania

Wprowadzenie do Sieci Neuronowych Sieci rekurencyjne

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010

Metody Sztucznej Inteligencji II

wiedzy Sieci neuronowe (c.d.)

Programowanie Równoległe i Rozproszone

Zapis informacji, systemy pozycyjne 1. Literatura Jerzy Grębosz, Symfonia C++ standard. Harvey M. Deitl, Paul J. Deitl, Arkana C++. Programowanie.

dy dx stąd w przybliżeniu: y

u u u( x) u, x METODA RÓŻNIC SKOŃCZONYCH, METODA ELEMENTÓW BRZEGOWYCH i METODA ELEMENTÓW SKOŃCZONYCH

STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Sortowanie szybkie Quick Sort

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Stanisław Cichocki Natalia Nehrebecka. Zajęcia 4

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe

Sieci Kohonena Grupowanie

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW

ELEKTROCHEMIA. ( i = i ) Wykład II b. Nadnapięcie Równanie Buttlera-Volmera Równania Tafela. Wykład II. Równowaga dynamiczna i prąd wymiany

1. Komfort cieplny pomieszczeń

Diagnostyka układów kombinacyjnych

Kodowanie informacji. Instytut Informatyki UWr Studia wieczorowe. Wykład nr 2: rozszerzone i dynamiczne Huffmana

( ) ( ) 2. Zadanie 1. są niezależnymi zmiennymi losowymi o. oraz. rozkładach normalnych, przy czym EX. i σ są nieznane. 1 Niech X

7. Wykład VII: Warunki Kuhna-Tuckera

Sieci Neuronowe 2 Michał Bereta

Zastosowanie sieci neuronowych Kohonena do prognozowania obciążeń elektroenergetycznych

Sztuczne sieci neuronowe

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB

Metody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF.

SIECI REKURENCYJNE SIECI HOPFIELDA

Oligopol dynamiczny. Rozpatrzmy model sekwencyjnej konkurencji ilościowej jako gra jednokrotna z pełną i doskonalej informacją

Hipotezy o istotności oszacowao parametrów zmiennych objaśniających ˆ ) ˆ

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Diagonalizacja macierzy kwadratowej

FOLIA POMERANAE UNIVERSITATIS TECHNOLOGIAE STETINENSIS Folia Pomer. Univ. Technol. Stetin. 2012, Oeconomica 297 (68),

Sztuczna inteligencja

n liczba zmiennych decyzyjnych c współczynniki funkcji celu a współczynniki przy zmienych decyzyjnych w warunkach

Natalia Nehrebecka. Zajęcia 4

Badania sondażowe. Braki danych Konstrukcja wag. Agnieszka Zięba. Zakład Badań Marketingowych Instytut Statystyki i Demografii Szkoła Główna Handlowa

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

SYSTEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE METODY KLASYFIKACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

Alternatywne metody grupowania i wizualizacji wykorzystujące sieci konkurencyjne

Plan wykładu: Typowe dane. Jednoczynnikowa Analiza wariancji. Zasada: porównać zmienność pomiędzy i wewnątrz grup

Analiza danych. Analiza danych wielowymiarowych. Regresja liniowa. Dyskryminacja liniowa. PARA ZMIENNYCH LOSOWYCH

STANDARDOWE TECHNIKI KOMPRESJI SYGNAŁÓW

Modelowanie i obliczenia techniczne. Metody numeryczne w modelowaniu: Optymalizacja

Podstawy sztucznej inteligencji

SYSTEMY UCZĄCE SIĘ WYKŁAD 15. ANALIZA DANYCH WYKRYWANIE OBSERWACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

Definicje ogólne

ANALIZA PREFERENCJI SŁUCHACZY UNIWERSYTETU TRZECIEGO WIEKU Z WYKORZYSTANIEM WYBRANYCH METOD NIESYMETRYCZNEGO SKALOWANIA WIELOWYMIAROWEGO

Stanisław Cichocki. Natalia Nehrebecka. Wykład 7

Modele wieloczynnikowe. Modele wieloczynnikowe. Modele wieloczynnikowe ogólne. α β β β ε. Analiza i Zarządzanie Portfelem cz. 4.

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Obliczenia inteligentne Zadanie 4

EKONOMIA MENEDŻERSKA. Wykład 3 Funkcje produkcji 1 FUNKCJE PRODUKCJI. ANALIZA KOSZTÓW I KORZYŚCI SKALI. MINIMALIZACJA KOSZTÓW PRODUKCJI.

Nie istnieje ogólna recepta, każdy przypadek musi być rozważany indywidualnie!

Wykład IX Optymalizacja i minimalizacja funkcji

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

MATLAB Neural Network Toolbox przegląd

Prawdziwa ortofotomapa

Uczenie sieci typu MLP

Optymalizacja ciągła

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Transkrypt:

Systemy Intelgentnego Przetwarzana wykład 3: sec rekurencyne, sec samoorganzuące sę Dr nż. Jacek Mazurkewcz Katedra Informatyk Technczne e-mal: Jacek.Mazurkewcz@pwr.edu.pl

Sec neuronowe ze sprzężenem Sprzężena zwrotne mędzy neuronam Dynamczne relace występuące w sec Poedyncza zmana stanu propagowana w całe sec Stan stablny wynkem prześca przez tymczasowe Stan stablny wynka z wag w sec ukształtowanych Sec rekurencyne maą symetryczne zestawy wag

Pamęć asocacyna Pamęć skoarzenowa ak w mózgu ludzkm Pamęć asocacyna gromadz obrazy Procedura uczena wdrukowane obrazów w wag Generowane odpowedz - prezentaca obrazu nablższego temu, który na weścu auto-asocaca: hetero-asocaca: Smoth Smth Smth cecha Smtha

Seć Hopfelda (1) Odległość Hammnga bnarny sygnał w d H = n = 1 [ x (1 y ) + (1 x ) y ] x 1 v 1 y 1 Jeśl odległość zero, to: y = x x 2 v 2 y 2 Odległość Hammnga to lczba różnących sę btów x N-1 x N v N-1 v N y N-1 y N neuron

Generowane odpowedz (1) Neuron wykonue dwe operace: w lczy sumę ważoną: p N wpv k = 1 ( k+ 1) ( ) = p x 1 v 1 y 1 aktualzue stan: ( + 1) v p k gdze: w p v (k) p = 1 for ( k+ 1) p 0 v p( k) for ( k+ 1) = p 0 1 for ( k+ 1) 0 waga sprzężene zwrotne sygnał sprzężena zwrotnego bas p x 2 x N-1 x N v 2 v N-1 v N neuron y 2 y N-1 y N

Generowane odpowedz (2) warunek początkowy: v ( 0) = x p p p w proces powtarzany do uzyskana zbeżnośc - brak zman w każdym neurone x 1 v 1 y 1 v ( k+ 1) = v ( k) = y p p p p uzyskane zbeżnośc osągnęce lokalnego mnmum funkc energetyczne, funkc Lapunova: 1 N N E( x) = w x x + x 2 = 1 = 1 = 1 N x 2 x N-1 v 2 v N-1 y 2 y N-1 1 2 E x x T T ( ) = W x + x x N v N y N neuron

Uczene regułą Hebba ednokrotna prezentaca każdego wzorca uczącego w dane wędruą medzy wszystkm neuronam w sec x 1 v 1 y 1 w 1 = N 0 M ( m) ( m) x x dla m= 1 dla = x 2 v 2 y 2 warunek zbeżnośc: w = 0 w = w p pp p p p x N-1 v N-1 y N-1 algorytm: łatwy, szybk, mała poemność sec M = max 0. 138 N x N v N y N neuron

Pseudonwersa prawdłowe wag to: sygnały weścowe dostępne na wyścu stan stablny natychmast: W X = X x 1 v 1 w y 1 rozwązane równana macerzowego: x 2 v 2 y 2 ( T ) 1 W = X X X X T algorytm: złożony, duża poemność sec x N-1 v N-1 y N-1 M max = N x N v N y N neuron

Reguła Delta stroene wag krok po kroku z wyznaczanem beżące wartośc błędu: = + ( ) ( ) ( ) N W W x W x x 07. 09., stała uczena T x 1 x 2 v 1 v 2 w y 1 y 2 podobny do metod gradentowych - ak w perceptrone welowarstwowym x N-1 v N-1 y N-1 algorytm: złożony, duża poemność sec M max = N x N v N y N neuron

Faza odtworzenowa Sygnały mocno uszkodzone mogą prowadzć do neznanych odpowedz stan sec est dalek od wypracowanego w procese uczena Wartość funkc energetyczne est dentyczna dla symetrycznych pobudzeń (+1,+1,-1) == (-1,-1,+1) oba rozwązana są tak samo dobre Procedura uczena może tworzyć dodatkowe lokalne mnma ako lnowe złożene wzorców uczących Dodatkowe mnma lokalne ne są zwązane ze wzorcam szczególne ważne przy duże lczbe wzorców uczących

Przykład praktyczny 10 cyfr, 7x7 pksel Reguła Hebba: 1 prawdłowa odpowedź Pseudonwersa delta: 7 prawdłowych odpowedz 9 odpowedz 1 zły pksel 4 odpowedz 2 złe pksele

Seć Hammnga (1)

Seć Hammnga (2) Seć Hammnga klasyfkator maksymalnego podobeństwa bnarne pobudzena zaszumone Lower Sub Net wyznacza N mnus odległość Hammnga względem M wzorców Upper Sub Net wybera węzeł o maksymalne odpowedz Węzły z progowanem nelnowym wyśca sę ne nasycaą Prog w wag Maxnet-u są stałe Prog zerowe, wag ustawone na 1 Wag o właścwoścach zbegana odpowedz

Seć Hammnga (3) dla Lower Sub Neta: w x = = N 2 2 wag w Maxnet-ce: for 0 N 1 and 0 M 1 wlk = 1 f f k k = 1 1 for 0 l, k M and 1 M a prog w Maxnet-ce zerowe

Seć Hammnga (4) wyśce Lower Sub Net-a to: = N 1 w x = 0 dla stałych wag Maxnet-a: y Maxnet wykonue co następue: ( ) f ( ) t for 0 N 1 and 0 M 1 0 = for 0 M 1 t t t y + = f y y ( ) ( ) ( ) t k k 1 for 0, k M 1 proces prowadzony est aż do uzyskana zbeżnośc

Samoorganzaca Uczene bez nauczycela przez obftość danych Uczene nenadzorowane gdze sensowne(?): znadowane podobeństwa algorytmy PCA klasyfkaca archetypy mapy cech

Eksperyment Pavlova POKARM (UCS) ŚLINOTOK (UCR) POKARM+DZWONEK (UCS + CS) ŚLINOTOK (CR) DZWONEK (CS) ŚLINOTOK (CR) CS CR UCS UCR pobudzene warunkowe warunkowa reakca pobudzene bezwarunkowe bezwarunkowa reakca

Zastosowana szukane podobeństw ednowyścowe sec ak blsko est sygnał weścowy do mary średne PCA seć welowyścowa edno wyśce eden element PCA elementy PCA odpowedzalne na podobeństwo wektor wyścowy mara korelac klasyfkaca bnarna seć welowyścowa kod 1 z n odnadywane pamętanych wzorców pamęć asocacyna kodowane kompresa danych

Reguła Hebba (1949) Neuron A pobudzany cyklczne przez neuron B stae sę coraz bardze podatny na pobudzene od neuronu B f(a) funkca aktywac może być lnowa X 1 W 1 w ( k + 1) = w( k) + w( k ) X 2 W 2 u f(a ) y w = x ( k) y ( k) W m X m

Idea reguły Hebba Problem: brak lmtów dla wag w = F( x, y ) Rozwązane: zestaw ogranczeń(lnsker) reguła Oa Ogranczena: Reguła Oa : reguła Hebba + normalzaca dodatkowe ogranczena: w w [ w, w + ] y ( k) = 0; m = 0 w = x ( k) = y ( k)[ x ( k) y ( k) w ( k)] x y w x ( k) y 0; w ( k) ( k) 0

Prncpal Component Analyss - PCA Lnearna konwersa do zredukowane przestrzen zachowuemy nastotnesze cechy procesu stochastycznego x Czynnk główny wektor wag według Oa : Kolene czynk reguła Sangera: y = Wx N K R x N N K K R W R y + ) ( ) ( ) ( 0 1 1 1 k x W k x W k y N T = = = = = N k W x k y 0 ) ( ) (

Seć Rubnera & Tavana 1989 (1) Poedyncza warstwa ednokerunkowość wag: warstwa weścowa zgodne z regułą Hebba: w = x y Połączena wewnętrzne zgodne z regułą anty-hebb-ową: v = y y

Seć Rubnera & Tavana 1989 (2) y 1 y 2 y 3 y 4 v 41 v v 42 31 v 21 v 32 v 43 w 11 w 45 x 1 x 2 x 3 x 4 x 5

Kompresa obrazu PCA Nadmar danych weścowych zastąpony przez małą lczbę kombnac wektora y w Stopeń kompres lczba komponentów PCA czynnk odpowedzalny za akość odtworzenową Węce czynnków: lepsza akość nższy współczynnk kompres Obraz odtworzony poprzez: 2 czynnk główne stopeń kompres: 28

Samoorganzuące sec neuronowe Akce nter-neuronowe Cel: weśce mapowane na wyśce Grupowane danych podobnych Separowane grup Seć Kohonena T. Kohonen z Fnland!

Uczene rywalzacyne WTA Wnner Takes All WTM Wnner Takes Most W X Y

WTA (1) Poedyncza warstwa neuronów przetwarzaących Komponenty sygnału weścowego x ładowane do wszystkch neuronów rywalzuących Start wartośc wag losowy Każdy neuron wyznacza sumę ważoną: Neuron zwycęzca to ten co maksymalną odpowedź ma! Neuron zwycęzca fnalne odpowedź równa 1 Odpowedz nnych neuronów równe 0 u = w x

WTA (2) Perwsza prezentaca wzorców by znaleźć neurony będące potencalnym zwycęzcam Modyfkaca wag zgodne z regułą Grossberga Jeśl sygnały uczące są zblżone do wektora wag neuronu zwycęzcy to wag tego neuronu reprezentuą wartość średną W X

WTM (1) Szukane zwycęzcy ak w WTA Wyśce neuronu zwycęzcy maksymalna Neuron zwycęzca aktywzue sąsadów swych Dystans mędzy neuronam warunkue stopeń aktywzac Stopeń aktywzac fragmentem procedury uczena Wszystke wag produktem procedury uczena

Sąsedztwo neuronów (1) Neurony w regularne satce Neuron centralny w centrum regonu Sąsedz w kolumnach werszach sąsedztwo proste sąsedztwo złożone

Sąsedztwo neuronów (2) funkca sąsedztwa h(r) funkca odległośc mędzy neuronam wprowadza wartośc nezbędne w procese kształtowana wag h( r) = 1 r lub h( r) = e r 2 sąsedztwo 2-D r dystans mędzy neuronem zwycęzcą a neuronem danym sąsedztwo 1-D

Reguła Grossberga sąsedztwo wokół neuronu zwycęzcy, welkość sąsedztwa malee wraz z postępem uczena, modulaca funkcyna stałe uczena. Reguła Grossberga: w l w w ( k + 1) = w ( k) + ( k) h(,,, )( x w ( k)) l k nr terac, - funkca parametru uczena, x l składowa wektora weścowego w l waga danego połączena, h funkca sąsedztwa, ( w, w ) ndeks neuronu zwycęzcy, (, ) ndeksy danego neuronu l l Funkca sąsedztwa = Mexcan Hat: a parametr sąsedztwa, r dystans od zwycęzcy do danego neuronu h( w, w,, ) 1 sn( ar) = ar 0 for for for r = 0 2 r (0, ) a other values r

Proces adaptac wektor weścowy neuron zwycęzca neurony z sąsedztwa

Welobok Voronoa Zbór danych dzelony na fragmenty Wektor Voronoa koordynaty neuronu weścowego powązane z wagam Ksązka kodowa zbór neuronów zwycęzców Welobok Voronoa regony tworzone według klucza sąsedztwa Słowa kodowe elementy poedynczego weloboku Voronoa x2 x1

Mary dystansu Eukldesowa: welobok Voronoa d(x,w) = X - W = N ( ( ) x ) w = 1 2 skalarna: d(x,w) = X W = X W cos Norma Manhattan L 1 : Norma L :

Normalzaca wektora weścowego Normalzaca wektora: X = 1 przed uczenem ~ x ( ) = n v = 1 mały wymar wektora uczącego normalzaca koneczne duży wymar wektora uczącego normalzaca pownna być x ( ) ( x ( ) v ) 2 x n wektor weścowy przed normalzacą ndeks wektora weścowego składnk wektora weścowego lczba składowych wektora weścowego

Algorytm uczena sec Kohonena 1. Losowa ncalzaca wag 2. Znalezene neuronu zwycęzcy dla każdego wzorca 3. Modyfkaca wag według reguły Grossberga 4. Modyfkaca stałe uczena, parametru a, 5. Jeśl stała uczena wększa od zera to powrót do kroku 3 z kolenym wzorcem uczącym.

Generowane odpowedz sec Kohonena Wyznaczene odległośc Eukldesowe mędzy wagam a sygnałem weścowym, Neuron zwycęzca posada odległość mnmalną, Każdy neuron lczy sumę ważoną: Out(, ) = N 1 l= 0 x l w l Out(, ) x l w l wyśce neuronu o ndekse (, ), komponenty N-elementowego wektora weścowego, waga zwązana z połączenem