Wyróżnić należy następujące sieci rekurencyjne: sieć Hopfielda, jej uogólnienie sieć BAM, sieć Hamminga oraz sieci rezonansowe.

Podobne dokumenty
SZTUCZNA INTELIGENCJA

Literatura SZTUCZNE SIECI NEURONOWE. Mózg/komputer jak to działa? MÓZG WZORZEC DOSKONAŁY KOMPUTER TWÓR DOSKONALONY SSN niekonwencjonalne przetwarzanie

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Sztuczne sieci neuronowe

Modele rozmyte 1. Model Mamdaniego

Plan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty)

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Sieć Hopfielda. Zdefiniowana w roku 1982, wprowadziła sprzężenie zwrotne do struktur sieci. Cechy charakterystyczne:

Monitorowanie i Diagnostyka w Systemach Sterowania

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe

Systemy Inteligentnego Przetwarzania wykład 3: sieci rekurencyjne, sieci samoorganizujące się

Problem nośności granicznej płyt żelbetowych w ujęciu aktualnych przepisów normowych. Prof. dr hab. inż. Piotr Konderla, Politechnika Wrocławska

ZESTAW ZADAŃ Z INFORMATYKI

Plan wykładu. Sztuczne sieci neuronowe. Sieci rekurencyjne. Sieci rekurencyjne. Wykład 8: Sieci rekurencyjne: sie Hopfielda. Sieci rekurencyjne

1. Wprowadzenie, sieć naśladująca psa Pawłowa

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Definicje ogólne

SZTUCZNA INTELIGENCJA

Plan wyk y ł k adu Mózg ludzki a komputer Komputer Mózg Jednostki obliczeniowe Jednostki pami Czas operacji Czas transmisji Liczba aktywacji/s

wiedzy Sieci neuronowe (c.d.)

x 1 x 2 x 3 x n w 1 w 2 Σ w 3 w n x 1 x 2 x 1 XOR x (x A, y A ) y A x A

Neural networks. Krótka historia rozpoznawanie znaków alfanumerycznych.

Wykład 1 Zagadnienie brzegowe liniowej teorii sprężystości. Metody rozwiązywania, metody wytrzymałości materiałów. Zestawienie wzorów i określeń.

Metody Sztucznej Inteligencji II

SYSTEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE METODY KLASYFIKACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

MECHANIKA BUDOWLI 13

SIECI REKURENCYJNE SIECI HOPFIELDA

Podstawy teorii falek (Wavelets)

Plan wykładu. Sztuczne sieci neuronowe. Uczenie nienadzorowane (bez nauczyciela) Uczenie nienadzorowane - przykłady

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Pomiar bezpośredni przyrządem wskazówkowym elektromechanicznym

Instrukcja do ćwiczeń laboratoryjnych z przedmiotu: Badania operacyjne. Temat ćwiczenia: Problemy rozkroju materiałowego, zagadnienia dualne

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB

Sieć neuronowa jako system ekspercki na rynku instrumentów pochodnych

Sztuczne sieci neuronowe. Reguła perceptronowa. Nadzorowany proces nauki. Zasada uczenia. Zasada uczenia. dr inŝ. Stefan Brock 2007/2008 1

ĆWICZENIE NR 2 POMIARY W OBWODACH RLC PRĄDU PRZEMIENNEGO

MODELOWANIE UKŁADÓW MECHANICZNYCH Z NIEPEWNYMI PARAMETRAMI

7. Wykład VII: Warunki Kuhna-Tuckera

Ł ń Ż Ł ż Ą Ó Ś Ż ń ż ż ń ż Ń Ł Ą Ł Ą Ą Ą Ą ż

Wyrównanie spostrzeżeń pośrednich. Spostrzeżenia jednakowo dokładne

SYSTEMY UCZĄCE SIĘ WYKŁAD 5. UCZENIE SIĘ APROKSYMACJI FUNKCJI MODELE LINIOWE

METODY KOMPUTEROWE 10

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

max Wydział Elektroniki studia I st. Elektronika III r. EZI Technika optymalizacji Dr inż. Ewa Szlachcic


Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych

Konspekt projektu. Problem komiwojażera w aspekcie sieci neuronowych

= σ σ. 5. CML Capital Market Line, Rynkowa Linia Kapitału

Podstawy sztucznej inteligencji

Sztuczne sieci neuronowe

WYZNACZENIE ODKSZTAŁCEŃ, PRZEMIESZCZEŃ I NAPRĘŻEŃ W ŁAWACH FUNDAMENTOWYCH NA PODŁOŻU GRUNTOWYM O KSZTAŁCIE WYPUKŁYM

8. Neuron z ciągłą funkcją aktywacji.

Teoria i praktyka. Wyższa Szkoła Turystyki i Ekologii. Fizyka. WSTiE Sucha Beskidzka Fizyka

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych

WikiWS For Business Sharks

Inteligentne systemy przeciw atakom sieciowym

Macierz prawdopodobieństw przejścia w pojedynczym kroku dla łańcucha Markowa jest postaci

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH

Analiza danych OGÓLNY SCHEMAT. Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja)

Podstawy opisu dynamiki punktu materialnego

FUNKCJE DWÓCH ZMIENNYCH

11. CZWÓRNIKI KLASYFIKACJA, RÓWNANIA

UCHWAŁA NR 279/XVIII/2011 Rady Miasta Płocka z dnia 29 grudnia 2011 roku

Elementy inteligencji obliczeniowej

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.


Wielokategorialne systemy uczące się i ich zastosowanie w bioinformatyce. Rafał Grodzicki

Przykład 5.1. Kratownica dwukrotnie statycznie niewyznaczalna

Sprawdzenie stateczności skarpy wykopu pod składowisko odpadów komunalnych

BADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe

Sortowanie szybkie Quick Sort

ć ć ć ć ć ź Ź ć ć Ń Ę ź ź Ą ć ć

19. Wybrane układy regulacji Korekcja nieliniowa układów. Przykład K s 2. Rys Schemat blokowy układu oryginalnego

( ) σ v. Adam Bodnar: Wytrzymałość Materiałów. Analiza płaskiego stanu naprężenia.

XLI OLIMPIADA FIZYCZNA ETAP WSTĘPNY Zadanie teoretyczne

Dobór procesora sygnałowego w konstrukcji regulatora optymalnego




Przestrzenie liniowe w zadaniach

Metody badań kamienia naturalnego: Oznaczanie współczynnika nasiąkliwości kapilarnej

Sztuczna inteligencja

Wybrane aspekty optymalnego sterowania portfelem inwestycyjnym akcji na rynku kapitałowym

Sztuczne sieci neuronowe

1. Wstęp. 2. Macierz admitancyjna.

Wprowadzenie do Sieci Neuronowych Sieci rekurencyjne

POMIAR MOCY BIERNEJ W OBWODACH TRÓJFAZOWYCH







Wygładzanie metodą średnich ruchomych w procesach stałych

W praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np.

Asocjacyjna reprezentacja danych i wnioskowanie

ż ć ż ń Ń Ż ń ń ć ż ż ć Ż

Transkrypt:

1. Seć Hopfelda 1.1 Sec ze sprzężene zrotn Sec ze sprzężene zrotn torzą odrębną grupę sec neuronoch, stępuącą róneż pod nazą sec rekurencnch bądź asocacnch. Zaknęce pętl sprzężena zrotnego poodue, ż seć stae sę dnaczna. Sgnał na e ścach zależą zaróno od aktualnego stanu eść, ak od poprzednch sgnałó eścoch, które są z kole uzależnone od poprzednch sgnałó eścoch. Można zate sterdzć, że sgnał na ścach sec zależą od stanu początkoego oraz dzałaącch pobudzeń. Do cech spólnch sec rekurencnch należ fakt, ż stneą setrczne poązana ędz neurona. Neuron tch secach ne torzą raźnch arst ogą bć rozażane doolne topograf. Wróżnć należ następuące sec rekurencne: seć Hopfelda, e uogólnene seć BAM, seć Hanga oraz sec rezonansoe. 1.2 Charakterstka sec Hopfelda Seć Hopfelda est edn z przedstacel sec ze sprzężene zrotn. Naza pochodz od nazska tórc, J. J. Hopfeld a, któr roku 1982 przedstał odel teże sec. Publkaca Hopfeld a, które zdefnoał seć stała sę punkte zrotn badanach nad seca neurono. Należ do nabardze popularnch sec neuronoch. Ważną e cechą est prost sposób uczena oraz łatość pleentac postac układu fzcznego. W sec te charakterstk neuronó są nelnoe: e, gdze a nelnoość e e est postac:,

1 1 dla e 0 dla e 0 1 dla e 0. Istneą ne połączena z arst ścoch do arst cześneszch, czl sprzężene zrotne. Co za t dze ożle est poaene sę przebegó dnacznch. Zacera sę tch secach podzał na arst, poneaż każd neuron sec a kontakt z odpoadaąc u sgnałe eśco. 1 1 2 2 N N Rsunek 1 Model sec Hopfelda Wadą sec Hopfelda est e ała poeność, rażana ałą loścą klas ake seć oże zapaętać. 1.3 Seć Hopfelda ako paęć autoasocacna Seć Hopfelda oże pracoać ako paęć autoasocacna (skoarzenoa), tak przpadku e zadane est "zapaętane" zorcó tak ab po podanu na eśce sec sgnału na e ścu ustalł sę ektoro sgnał ust odpoadaąc edneu z zorcó. Odtorzon zorzec ponen bć ponadto "nablższ" ektoro. Jako arę odległośc poędz ektora ust przue sę arę Hanga defnoaną następuąco: N 1 ust 2 ust 1

gdze ndeks oznacza -tą składoą ektora. Inacze óąc, seć Hopfelda korzstana ako paęć skoarzenoa ponna na podstae danch eścoch, które ększośc przpadkó są zakłócone "odtarzać" nablższ zapaętan zorzec. W celu uzskana takego rezultatu, na etape uczena sec, należ zapenć dobór odpoednch ag. 1.4 Stablność W celu ułatena badana stablnośc sec Hopfelda została proadzona tz. funkca oblczenoa zana energą. Cekaą łasnoścą teże funkc est fakt, ż e artość kolench teracach ne zrasta. Kolene stan są przoane kerunku przecn do gradentu energ, aż do oentu osągnęca przez ną nu lokalnego. Energę razć ożna następuąc zore: E 1 2 M M 1 1 M 1 I Prz cz I est eśco prąde nezrónoażena, o charakterze prądu pobudzena. Woge stablnego dzałana paęc autoasocacne est arunek, ab odpoedź - tego neuronu na l-t zorzec ucząc (l) bła róna -te składoe tego zorca (l) N l l k k l l sgn 1 sgn 0 N 0 k1 N P Paęć autoasocacna a łaścośc korekcne. Prz prezentac próbk różnące sę bta na pench pozcach ektora, seć neuronoa oże dokonać korekc tch btó zakończć proces klasfkac e łaśc atraktorze.

A A 2. Metod uczena sec Hopfelda 2.1 Reguła Hebba Regułę Hebba ożna zapsać następuąc sposób: - Jeśl neuron A B połączone snapsą są pobudzane ednocześne (t. snchronczne) to połączene snaptczne e łączące est zacnane. - Jeśl neuron A B połączone snapsą są pobudzane neednocześne (t. asnchronczne) to połączene snaptczne e łączące podlega osłabenu. Wag snoptczne ędz neurona A B odfkoane są zgodne ze zore: k 1 k k k, gdze - aga połączena ędz neurona oraz - stan aktac neuronu - stan aktac neuronu - spółcznnk uczena Rsunek 2 Połączene ędz neurona Wzrost ag połączeń regule Hebba est neogranczon, dlatego uczene ne kończ sę, to natoast proadz do rozbeżnośc procesu.

2.2 Reguła Wzaench Ogranczeń Ze zględu na ogranczena Metod Hebba został proadzone do ne pene odfkace. Zaera e Metoda Wzaench Ogranczeń. Reguła ta proadza składnk odpchaąc, któr chron przed rozbeżnoścą procesu uczena. Wag ne lcza sę edług następuącego zoru: ( k 1) ( k)(1 ) ( k) k - spółcznnk zaponana 2.3 Reguła Rzutoana Delta Reguła Delta est napopularneszą nachętne stosoaną etodą uczena z nauczcele. Z Metodą Naększego Spadku (Regułą Delta) a do cznena, gd uaktualnane ag następue każdorazoo po prezentac edne par uczące. Reguła Delta est uogólnene Reguł Perceptronu. Stosoana est dla neuronó o cągłe funkc aktac. Wag ne uzskue sę na podstae ponższe zależnośc: k 1 k cd f net 2.4 Zodfkoana Reguła Perceptronu W przpadku skokoch funkc aktac z ak a do cznena przpadku sec Hopfelda ożna stosoać Regułę Perceptronu (rs.) bądź e uogólnene znane pod nazą Reguł Wdroa - Hoffa. Regułę Perceptronu ożna sforułoać następuąc sposób: Prz stępne ustalonch artoścach ag prezentue sę na eścu ektor ucząc oblcza artość sgnału ścoego. W nku porónana aktualne artośc oraz artośc żądane d dokonue sę aktualzac ag zgodne z zależnoścą

k 1 k k k, dla, dla dla d 0, 1 d d 1 0 Po uaktualnenu ag następue prezentaca noego ektora uczącego skoarzone z ną artośc zadane d, a następne ponone aktualzue sę ag. Proces potarzan est na szstkch próbkach uczącch elokrotne, aż uzska sę nalzacę różnc ędz szstk artośca śco odpoadaąc e artośca zadan.

3. Progra Snhop ako sulator do rozpoznaana znakó 3.1 Wproadzene do prograu agana Sulator Snhop postał ako ntegralna część prac dplooe: Rozpoznaane obrazó prz użcu sulatora sec Hopfelda. Został zapleentoan dla środoska Sun Java 2. Pozala na przetestoane różnch etod uczena sec Hopfelda oraz ocenene skutecznośc tchże etod rozpoznaanu znakó. Do podstaoch łaścośc prograu należą: ożlość ustalena rozaru obrazu, ustaene paraetru BIAS. Sulator pozala na bór etod uczena oraz ustaene paraetró te etod, zapsane całe sec bądź też poszczególnch zboró: zorcoego, testuącego oraz nkoego. Po zakończon etape uczena rozpoznaana progra generue raport. Mnalne agana prograu do pradłoego dzałana to: - Procesor 200MHz - RAM 64MB - Sun J2RE 1.3.1 3.2 Instrukca obsług prograu Snhop W okne głón prograu a czter zakładk: nstrukca, paraetr, sulaca oraz nk. W Instrukc znadue szstke potrzebne skazók dotczące prograu oraz prac z n. Zakładka Paraetr służ na do brana nteresuącch nas ustaeń prograu.

Rsunek 3 Okno boru paraetró W t escu bera etodę uczena sec oraz paraetr korzstane podczas rozpoznaana. Kolena zakładka, którą est Sulaca pozala na na cztane zboru uczącego, testuącego, a także zapoznane sę z otrzan nka. Po rozpoznanu przez seć zorca a ożlość generoać raport, któr następne oże oberzeć po prześcu do zakładk Wnk (Dokładne scan zakładk Sulaca ak Wnk zostaną przedstaone rozdzale 5. Eksperent, test, prób). Funkce sulatora uruchaa z paska Menu, ątke est edne koenda Uczene Rozpoznaane dostępne łączne z paska Narzędz. Rsunek 4 Pasek Menu Pasek Narzędz

4. Bblografa [1] Mancar M. Rozpoznaane obrazó prz użcu sulatora sec Hopfelda, praca dplooa pod keroncte dr nż. Jolant Grabske-Chrząstoske, Krakó, 2002 [2] Grabska-Chrząstoska J., Mancar M. Odtarzane znekształconch znakó prz pooc sec Hopfelda, Krakó [3] Grabska-Chrząstoska J. Optalzaca sec Hopfelda prz konstrukc paęc skoarzenoch, Krakó [4] Tadeusecz R. Sec neuronoe, Akadecka Ofcna Wdancza RM, Warszaa, 1993