Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Podobne dokumenty
Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.

SIECI REKURENCYJNE SIECI HOPFIELDA

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

8. Neuron z ciągłą funkcją aktywacji.

Sztuczna inteligencja

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Sztuczne sieci neuronowe (SNN)

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Metody Sztucznej Inteligencji II

wiedzy Sieci neuronowe

Sztuczne sieci neuronowe

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

Lekcja 5: Sieć Kohonena i sieć ART

Sztuczne sieci neuronowe

Temat: Sieci neuronowe oraz technologia CUDA

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

SZTUCZNA INTELIGENCJA

MODELOWANIE RZECZYWISTOŚCI

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Podstawy sztucznej inteligencji

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Inteligentne systemy przeciw atakom sieciowym

I EKSPLORACJA DANYCH

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

x 1 x 2 x 3 x n w 1 w 2 Σ w 3 w n x 1 x 2 x 1 XOR x (x A, y A ) y A x A

Obliczenia Naturalne - Sztuczne sieci neuronowe

Uczenie sieci neuronowych i bayesowskich

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD XI: Sztuczne sieci neuronowe

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron

Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010

Zastosowania sieci neuronowych

sieci jednowarstwowe w MATLABie LABORKA Piotr Ciskowski

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Wstęp do sztucznych sieci neuronowych

Sieci neuronowe w Statistica

Metody iteracyjne rozwiązywania układów równań liniowych (5.3) Normy wektorów i macierzy (5.3.1) Niech. x i. i =1

Elementy kognitywistyki III: Modele i architektury poznawcze

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

ELEMENTY SZTUCZNEJ INTELIGENCJI. Sztuczne sieci neuronowe

NEURAL NETWORK ) FANN jest biblioteką implementującą SSN, którą moŝna wykorzystać. w C, C++, PHP, Pythonie, Delphi a nawet w środowisku. Mathematica.

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Sieci rekurencyjne. - Sieć autoasocjacyjna Hopfielda - Sieci Hamminga

Sieci Rekurencyjne 1 / 33. Sieci Rekurencyjne. Nguyen Hung Son

METODY HEURYSTYCZNE wykład 5

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe

Uczenie sieci typu MLP

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.

Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe. Krzysztof Regulski, WIMiIP, KISiM, B5, pok. 408

METODY HEURYSTYCZNE wykład 5

Politechnika Lubelska

RAPORT Z PRAKTYKI. Zastosowanie Sztucznych Sieci Neuronowych do wspomagania podejmowania decyzji kupna/sprzedaży na rynku Forex.

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Sztuczne sieci neuronowe. Uczenie, zastosowania

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Podstawy Sztucznej Inteligencji (PSZT)

Sieć przesyłająca żetony CP (counter propagation)

5. Rozwiązywanie układów równań liniowych

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

1. Logika, funkcje logiczne, preceptron.

Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I.

Sieci Neuronowe - Rok III - kierunek IS w IFAiIS UJ 2008/2009. Sieci Neuronowe

Rekurencje. Jeśli algorytm zawiera wywołanie samego siebie, jego czas działania moŝe być określony rekurencją. Przykład: sortowanie przez scalanie:

METODY INTELIGENCJI OBLICZENIOWEJ wykład 4

SZTUCZNE SIECI NEURONOWE

Wstęp do teorii sztucznej inteligencji

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW

Elementy inteligencji obliczeniowej

SZTUCZNE SIECI NEURONOWE

PRÓBA ZASTOSOWANIA SIECI NEURONOWYCH DO PROGNOZOWANIA OSIADAŃ POWIERZCHNI TERENU POWSTAŁYCH NA SKUTEK EKSPLOATACJI GÓRNICZEJ**

DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI

Rozdział ten zawiera informacje na temat zarządzania Modułem Modbus TCP oraz jego konfiguracji.

11. Blok ten jest blokiem: a. decyzyjnym b. końcowym c. operacyjnym

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Co to jest algorytm? przepis prowadzący do rozwiązania zadania, problemu,

SZTUCZNA INTELIGENCJA

Wykład 1: Wprowadzenie do sieci neuronowych

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Projekt Sieci neuronowe

Transkrypt:

Sieci Hopfielda

Najprostsze modele sieci z rekurencją sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Modele bardziej złoŝone: RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie rzeczywistym; sieć Elmana i inne o uproszczonej strukturze rekurencji; RCC ( Recurrent Cascade Correlation);

Sieci rekurencyjne, a jednokierunkowe Sieci jednokierunkowe wyjścia sieci mogą być połączone tylko z wejściami neuronów warstwy następnej; implikuje to jednokierunkowy przepływ informacji: sygnały są przesyłane od warstwy wejściowej do wyjściowej; Sieci rekurencyjne dopuszcza się istnienie sprzęŝeń zwrotnych tzn. gdy wyjścia neuronów mogą być połączone z wejściami neuronów tej samej warstwy lub warstw pośrednich; informacja oscyluje między warstwami lub w obrębie warstw, aŝ do spełnienia pewnego kryterium zbieŝności i dopiero wtedy jest przekazywana na wyjście sieci;

Rodzaje sieci Hopfielda: sieć dyskretna - przewaŝnie dyskretne funkcje aktywacji, zmiana stanu w chwilach dyskretnych; sieć ciągła - zastosowanie ciągłych funkcji aktywacji, odpowiedzi neuronów zmieniają się w sposób ciągły;

Schemat sieci Hopfielda

Wnioski ze schematu Sieć jest siecią jednowarstwową ze sprzęŝeniem zwrotnym, kaŝdy neuron połączony jest bezpośrednio z wyjściami innych neuronów i nie jest połączony z własnym wyjściem, tzn. w ii =0. Neurony posiadają znakową funkcję aktywacji f ( x) : = 1 dla sgn( x) = 1 dla Wyznaczenie wyjścia sieci w danej iteracji obliczeniowej odbywa się w sposób synchroniczny, tzn. neurony ustawiają swoje wyjścia w jednym momencie, co powoduje, Ŝe wartości wyjść kaŝdego neuronu wyznaczane są na podstawie wyjść sieci z poprzedniej iteracji obliczeniowej. x x < 0 0

Inne własności sieci Hopfielda - pamięć adresowalna przez zawartość - aby odtworzyć wzorzec zapisany w sieci wystarczy podać fragment informacji; - tolerancja błędów - jeŝeli jakiś element popełni błąd, to cała sieć i tak poda poprawne rozwiązanie; - wszystkie neurony są ze sobą połączone wagami; - symetryczne wagi (w ij = w ji );

Algorytm działania sieci Hopfielda 1. Wybieramy losowo neuron. 2. Obliczamy sumę waŝoną połączeń do aktywnych sąsiadów: 3. JeŜeli suma jest dodatnia, to neuron się aktywuje, w przeciwnym przypadku dezaktywuje.

Algorytm działania sieci Hopfielda c.d. 4. Losujemy kolejny neuron i postępujemy według algorytmu, aŝ do uzyskania stanu stabilnego. 5. Proces ten nazywa się równoległą relaksacją.

Funkcja energetyczna Stan energetyczny sieci wyraŝa funkcja w postaci: ( przy czym i j ). Funkcja ta jest malejąca w kolejnych krokach t, dlatego wiadomo, Ŝe osiągnie ona minimum, w którym sieć będzie stabilna.

Dobór wag w sieci Hopfielda uogólnioną regułą Hebba Zgodnie z tą regułą wagi modyfikowane są według zaleŝności: dla i j ( gdzie x i (k) jest i-tą współrzędną k-tego wzorca uczącego ). Dla i = j zachodzi w ij =0.

Przykład Przykład ten jest próbą nauczenia sieci Hopfielda rozpoznawania trzech cyfr: 1, 4, 7. Na podstawie wzorców przedstawionych na poniŝszym rysunku tworzony jest ciąg uczący (białe pola oznaczają -1, a czarne 1). x(1)=[ -1-1 1-1 -1 1-1 -1 1-1 -1 1 ] x(2)=[ 1-1 1 1 1 1-1 -1 1-1 -1 1 ] x(3)=[ 1 1 1-1 -1 1-1 -1 1-1 -1 1 ]

Przykład c.d. Następnie sieć Hopfielda jest uczona za pomocą wcześniej wypisanych wzorców. Aby sprawdzić poprawność działania nauczonej sieci, na jej wejście podajemy kolejno sygnały uczące. Sieć Hopfielda bezbłędnie rozwiązała zagadnienie asocjacji dla niezaszumionych wektorów uczących:

Przykład c.d. Po zaszumieniu wzorce uczące mają postać: Wówczas sygnały wejściowe x są postaci: x (1)= [ -1-1 1-1 -1 1-1 1 1-1 -1 1 ] x (2)= [ 1-1 1 1-1 1-1 -1 1-1 -1 1 ] x (3)=[ 1-1 1-1 -1 1-1 -1 1-1 -1 1 ]

Przykład c.d. Efekt zaszumienia przedstawia poniŝsza tabela: Dla trzeciego zaszumionego wektora wyjście sieci po 12 iteracjach jeszcze się nie ustabilizowało. Oznacza to, Ŝe sieć nie mogła rozpoznać zniekształconej próbki.

Sieci Hopfielda w praktyce Pamięć asocjacyjna (skojarzeniowa) zdolność sieci do prawidłowego zinterpretowania danych zniekształconych lub niekompletnych (sieć taka moŝe takŝe usuwać zakłócenia i zniekształcenia róŝnych sygnałów - takŝe wtedy, gdy stopień zaszumienia sygnału wejściowego wyklucza praktyczne uŝycie jakichkolwiek innych metod filtracji ). Optymalizacja rozwiązywanie trudnych problemów optymalizacyjnych ( np. problem komiwojaŝera ).

Koniec