SIECI REKURENCYJNE SIECI HOPFIELDA

Podobne dokumenty
Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

wiedzy Sieci neuronowe

8. Neuron z ciągłą funkcją aktywacji.

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Sztuczne sieci neuronowe

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sztucznych sieci neuronowych

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

SZTUCZNA INTELIGENCJA

Zadanie transportowe i problem komiwojażera. Tadeusz Trzaskalik

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe

Uczenie sieci typu MLP

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Metody Sztucznej Inteligencji II

SIECI NEURONOWE Wprowadzenie

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Zastosowania sieci neuronowych

Sieci Neuronowe - Rok III - kierunek IS w IFAiIS UJ 2008/2009. Sieci Neuronowe

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Co to jest grupowanie

Temat: Sieci neuronowe oraz technologia CUDA

Sztuczne sieci neuronowe (SNN)

PRZEWODNIK PO PRZEDMIOCIE

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5

5. Rozwiązywanie układów równań liniowych

Rozdział 6 PROGRAMOWANIE WYPUKŁE I KWADRATOWE

KARTA MODUŁU KSZTAŁCENIA

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD XI: Sztuczne sieci neuronowe

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

Elementy kognitywistyki III: Modele i architektury poznawcze

Optymalizacja ciągła

Klasyczne zagadnienie przydziału

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

1. Logika, funkcje logiczne, preceptron.

Sztuczna inteligencja

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Inteligentne systemy informacyjne

Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe. Krzysztof Regulski, WIMiIP, KISiM, B5, pok. 408

Obrona rozprawy doktorskiej Neuro-genetyczny system komputerowy do prognozowania zmiany indeksu giełdowego

Lekcja 5: Sieć Kohonena i sieć ART

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

Sztuczne sieci neuronowe

Podstawy sztucznej inteligencji

Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład Kody liniowe - kodowanie w oparciu o macierz parzystości

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Widzenie komputerowe

OSTASZEWSKI Paweł (55566) PAWLICKI Piotr (55567) Algorytmy i Struktury Danych PIŁA

Inteligentne systemy przeciw atakom sieciowym

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.

Podstawy Sztucznej Inteligencji (PSZT)

Metody iteracyjne rozwiązywania układów równań liniowych (5.3) Normy wektorów i macierzy (5.3.1) Niech. x i. i =1

Adrian Horzyk

MODELOWANIE RZECZYWISTOŚCI

Obliczenia iteracyjne

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

Metody numeryczne Wykład 4

Zaawansowane metody numeryczne

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010

OCENA DZIAŁANIA AE. METODY HEURYSTYCZNE wykład 4 LOSOWOŚĆ W AE KRZYWE ZBIEŻNOŚCI ANALIZA STATYSTYCZNA:

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści

Sieć przesyłająca żetony CP (counter propagation)

Rozdział 1 PROGRAMOWANIE LINIOWE

SIECI KOHONENA UCZENIE BEZ NAUCZYCIELA JOANNA GRABSKA-CHRZĄSTOWSKA

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2013/2014

PRZEWODNIK PO PRZEDMIOCIE

Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej

Obliczenia Naturalne - Sztuczne sieci neuronowe

PLAN WYKŁADU OPTYMALIZACJA GLOBALNA OPERATOR KRZYŻOWANIA ETAPY KRZYŻOWANIA

Sztuczne Sieci Neuronowe. Sieć Hopfielda

Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2)

Przykład optymalizacji struktury sztucznej sieci neuronowej metodą algorytmów genetycznych

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Sieci Neuronowe - Rok III - kierunek IS w IFAiIS UJ 2008/2009. Sieci Neuronowe. Wykład 5 Sieć Hopfielda

Met Me ody numer yczne Wykład ykład Dr inż. Mic hał ha Łanc Łan zon Instyt Ins ut Elektr Elektr echn iki echn i Elektrot Elektr echn olo echn

Monitorowanie i Diagnostyka w Systemach Sterowania

4.1. Wprowadzenie Podstawowe definicje Algorytm określania wartości parametrów w regresji logistycznej...74

P R Z E T W A R Z A N I E S Y G N A Ł Ó W B I O M E T R Y C Z N Y C H

Dobór parametrów algorytmu ewolucyjnego

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

P R Z E T W A R Z A N I E S Y G N A Ł Ó W B I O M E T R Y C Z N Y C H

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

Wstęp do teorii sztucznej inteligencji

Uczenie sieci radialnych (RBF)

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Rozdział 2 PROGRAMOWANIE LINIOWE CAŁKOWITOLICZBOWE

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Transkrypt:

SIECI REKURENCYJNE SIECI HOPFIELDA Joanna Grabska- Chrząstowska Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA

SPRZĘŻENIE ZWROTNE W NEURONIE LINIOWYM sygnał wyjściowy y x sygnał wejściowy sygnał sprzężenia zwrotnego

sygnał wyjściowy y sygnał sprężenia 10 zwrotnego sygnał wejściowy -1.2

sygnał wyjściowy y sygnał sprężenia zwrotnego -1.2

Równowaga w sieci może być osiągnięta (bez działającego sygnału wejściowego) jedynie w taki sposób, że sygnał wyjściowy po przemnożeniu przez wagę sprzężenia zwrotnego daje taki sam sygnał. Taki sygnał nazywamy ATRAKTOREM. Położenie atraktora jest związane z parametrami sieci. Dla współczynnika wagowego sprzężenia zwrotnego o wadze 1 każdy punkt jest atraktorem, natomiast dla dowolnej sieci stan równowagi uzyskujemy tylko wtedy, gdy sygnał wyjściowy ma wartość 0.

12.345 1 12.345

12.345 1

12.345 1 12.345 0 2 0

12.345 1 12.345 0 2

0-1.4 10

0-1.4

sygnał wyjściowy -0,5 10

sygnał wyjściowy -1 10

sygnał wyjściowy -1 10 sygnał wyjściowy -1 10

sygnał wyjściowy -1 10 sygnał wyjściowy -1

sygnał wyjściowy 0.1 sygnał wyjściowy 0.1 10

sygnał wyjściowy 0,1 90

WNIOSKI

Reguła Hebba Kiedy akson komórki A jest dostatecznie blisko by pobudzić komórkę B i wielokrotnie w sposób trwały bierze udział w jej pobudzaniu, procesy wzrostu lub zmian metabolicznych zachodzą w obu komórkach tak, że sprawność neuronu A jako jednej z komórek pobudzających B, wzrasta. D. O. Hebb, 1949

SIEĆ HOPFIELDA BUDOWA y 1 y 2 y n-2 y n-1 y n x 1 x 2 x n-2 x n-1 x n

TRZY WARUNKI STABILNOŚCI W SIECI HOPFIELDA

TRZY WARUNKI STABILNOŚCI W SIECI HOPFIELDA

SIEĆ HOPFIELDA Połączenia każdy z każdym Brak sprzężeń zwrotnych do samego siebie Symetryczna macierz wag

BUDOWA SIECI HOPFIELDA

BUDOWA SIECI HOPFIELDA )

POJĘCIE FUNKCJI ENERGETYCZNEJ

POJĘCIE FUNKCJI ENERGETYCZNEJ (1) (2) Ze wzoru (1) wynika, że zmiana y i, o ile zachodzi, ma zawsze znak identyczny ze znakiem łącznego pobudzenia e i, więc iloczyn e i Dy i jest zawsze nieujemny. Zmiana energii podczas aktualizacji wyjść jest zatem zawsze niedodatnia.

METODY WYKORZYSTUJĄCE JEDNOKROTNĄ PREZENTACJĘ WZORCÓW Metoda Hebba gdzie: i, j = 1,...,N s = 1,..., M s t ij 0 1 N N liczba bitów w obrazie wzorcowym M liczba wektorów wzorcowych t ij s waga połączenia wyjścia j-tego neuronu z wejściem i-tego neuronu przy prezentacji s-tego obrazu wzorcowego. s M 1 x s i x s j dla dla i i j j

METODY WYKORZYSTUJĄCE JEDNOKROTNĄ PREZENTACJĘ WZORCÓW Metoda Hebba T = 1 /N (X X T M I) gdzie: T macierz połączeń wagowych o wymiarze NxN I macierz jednostkowa odpowiedniego wymiaru X składa się z M wektorów bazowych zapisanych kolumnowo X = [ X 1,..., X M ]

METODY WYKORZYSTUJĄCE JEDNOKROTNĄ PREZENTACJĘ WZORCÓW Metoda Hebba dla wzorców unipolarnych s t ij 0 1 N M (2x s i s 1 dla 1)(2 x s j i 1) j dla Na przykład: dla zbioru wzorców: X = { [1, 0,1, 1], [0, 0, 1, 1], [0, 1, 1, 0] macierz T = ¼ 0-1 -1 1-1 0-1 -1-1 -1 0 1 1-1 1 0 i j

METODY WYKORZYSTUJĄCE JEDNOKROTNĄ PREZENTACJĘ WZORCÓW gdzie: i, j = 1,...,N s = 1,..., M Metoda Hebba w wersji iteracyjnej s t ij 0 0 s1 t ij N liczba bitów w obrazie wzorcowym M liczba wektorów wzorcowych T macierz połączeń wagowych o wymiarze NxN t ij s waga połączenia wyjścia j-tego neuronu z wejściem i-tego neuronu przy prezentacji s-tego obrazu wzorcowego. 1 N s x i x s j dla dla dla s i i 0 j j

METODY WYKORZYSTUJĄCE JEDNOKROTNĄ PREZENTACJĘ WZORCÓW Metoda wzajemnych ograniczeń W tej metodzie do podstawowej reguły Hebba dodaje się składnik odpychający : t ij M s1 x s i x s j M ps x p i x s j dla i j 0 dla i j gdzie > 0 jest ustalonym parametrem.

METODY WYKORZYSTUJĄCE WIELOKROTNĄ PREZENTACJĘ WZORCÓW T k k Reguła rzutowania D ma w iteracji t następującą postać: t t T t 1,2,..., t t h jest stałą uczenia z zakresu [0.7, 0.9], k indeks prezentowanego wzorca. k k k X T t X X k T 1 h 1 N max z warunkiem początkowym T 0 (1)=0

METODY WYKORZYSTUJĄCE WIELOKROTNĄ PREZENTACJĘ WZORCÓW Zmodyfikowana reguła perceptronu Wartości wag t ij macierzy T po prezentacji wzorca X k są następujące: t ij t 1 t t 1 t ij ji h k k t 2 x i y i x k j Metoda ta powstała na bazie metody uczenia perceptronu poszerzonej o warunek symetrii wag opartej na wyliczaniu średniej z odpowiadających sobie wag. Tak zdefiniowana reguła perceptronu ma wiele wspólnych cech z zasadą Hebba ale różni się tym, że w procesie uczenia dodano do niej składnik bieżącej korekcji błędów. x k j y k j k x i

SIEĆ HOPFIELDA JAKO PAMIĘĆ SKOJARZENIOWA Tego typu sieci mogą działać jako pamięć autoasocjacyjna, czyli rozpoznają wzorce, którymi były uczone. Wykorzystanie takiej pamięci polega na tym, że potrafi ona odtworzyć obraz na podstawie obrazu silnie zniekształconego lub zakłóconego.

CYFRY REGUŁA HEBBA OBRAZY WZORCÓW 0 % ZAKŁÓCEŃ ZŁE ODTWORZENIE REGUŁA RZUTOWANIA D 20 % ZAKŁÓCEŃ PRAWIDŁOWE ODTWORZENIE PROCES ODTWARZANIA 8" OBRAZY WZORCÓW 30 % ZAKŁÓCEŃ ZŁE ODTWORZENIE

REGUŁA HEBBA OBRAZY WZORCÓW 20% ZAKŁÓCEŃ PRAWIDŁOWE ODTWORZENIE PROCES ODTWARZANIA "1" OBRAZY WZORCÓW 30% ZAKŁÓCEŃ ODTWORZENIE Z BŁĘDAMI PROCES ODTWARZANIA "K" OBRAZY WZORCÓW 30% ZAKŁÓCEŃ ZŁE ODTWORZENIE PROCES ODTWARZANIA "O"

REGUŁA HEBBA OBRAZY WZORCÓW 50 % ZAKŁÓCEŃ ZŁE ODTWORZENIE PROCES ODTWARZANIA +" OBRAZY WZORCÓW 100 % ZAKŁÓCEŃ PRAWIDŁOWE ODTWORZENIE PROCES ODTWARZANIA O" OBRAZY WZORCÓW 40 % ZAKŁÓCEŃ ZŁE ODTWORZENIE PROCES ODTWARZANIA 1"

REGUŁA HEBBA ZAKŁÓCONE W 20% PRAWIDŁOWO ODTWORZONE ZAKŁÓCONE W 40% PRAWIDŁOWO ODTWORZONE

REGUŁA RZUTOWANIA D ZAKŁÓCONE W 10% PRAWIDŁOWO ODTWORZONE LITERY a - z LITERY A - Z CYFRY 1-9 ZAKŁÓCONE W 20% PRAWIDŁOWO ODTWORZONE Przy dopuszczeniu pewnej małej liczby błędów

Skuteczność rozp. [%] PORÓWNANIE CZTERECH METOD CYFRY ( 0-9 ) 100 80 60 40 20 0 0 10 20 30 40 50 Liczba zmienionych pikseli [%] Reguła Hebba Reguła Wzaj. Ogran. Reguła Rzut. Delta Zmodyf. Reguła Percep.

PORÓWNANIE CZTERECH METOD Skuteczność rozp. [%] LITERY A - Z 100 80 60 40 20 0 0 10 20 30 40 50 Liczba zm ienionych pikseli [%] Reguła Hebba Reguła Wzaj. Ogran. Reguła Rzut. Delta Zmodyf. Reguła Percep.

PORÓWNANIE CZTERECH METOD Skuteczność rozp. [%] 100 RĘCZNIE PO GRUBIO NE ZNAKI 80 60 40 20 0 0 10 20 30 40 50 Liczba zmienionych pikseli [%] Reguła Hebba Reguła Wzaj. Ogran. Reguła Rzut. Delta Zmodyf. Reguła Percep.

PORÓWNANIE CZTERECH METOD Skuteczność rozp. [%] ZESTAWIENIE UŚREDNIO NYCH WYNIKÓ W RO ZPO ZNAWANIA 100 80 60 40 20 0 0 10 20 30 40 50 Liczba zmienionych pikseli [%] Reguła Hebba Reguła Wzaj. Ogran. Reguła Rzut. Delta Zmodyf. Reguła Percep.

ZASTOSOWANIE SIECI HOPFIELDA DO ODTWARZANIA ZNIEKSZTAŁCONYCH WZORCÓW Zbiór uczący Zbiór testowy ( wprowadzenie 25% szumu ) Zbiór wynikowy 2 BŁĘDY

POŁĄCZENIE DWÓCH SIECI WE SIEĆ A SIEĆ B WY

POŁĄCZENIE DWÓCH SIECI WE SIEĆ SIEĆ WE WY WE WY A B WY

ZASTOSOWANIE POŁĄCZENIA SIECI DO POPRAWY WYNIKÓW ODTWARZANIA SIEĆ A 2 BŁĘDY SIEĆ B 2 BŁĘDY SIEĆ A 1 BŁĄD

PRZYKŁAD EFEKTOWNEGO SUKCESU SIEĆ A SIEĆ A SIEĆ B

WYNIK LICZBA WZORCÓW SZUM [%] ŚREDNIA LICZBA ROZPOZNAŃ PRZEZ SIEĆ A [%] OSTATECZNA LICZBA ROZPOZNAŃ [%] 62 10 74 95 52 15 80 96

Optymalizacja Zagadnienia NP-trudne: jak zastosować sieć Hopfielda? Przykład: najkrótsza droga pomiędzy N miastami. 3 1 6 4 2 5 Funkcja kosztów: min. droga + 1 w wierszu + 1 w kolumnie M i a s t o 1 2 3 4 5 6 Kolejność 1 2 3 4 5 6 1 0 0 0 0 0 0 0 0 0 0 1 0 1 0 0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 1 0 0 0 Macierz n i i=1,2..n, nr. miasta - kolejność 1 En W, n n 2 ik i k i k Jak dobrać W?

OPIS PROBLEMU TSP (TRAVELLING SALESMAN PROBLEM) Każde dwa miasta są połączone drogą o określonej długości (graf pełny, symetryczny, odległości euklidesowe). Problem TSP zapisać jako problem optymalizacyjny z ograniczeniami

OPIS PROBLEMU TSP Ograniczenia: - trasa zaczyna się i kończy w tym samym mieście; - trasa przechodzi dokładnie raz przez każde z pozostałych miast Szukana jest najkrótsza droga

Rozwiązanie poprawne, ale nie optymalne

Optymalne rozwiązanie

TSP W SIECI HOPFIELDA Rodzaje metod: METODA KLASYCZNA ZMODYFIKOWANA METODA KLASYCZNA METODA METODA ANSARI I HOU

TSP W SIECI HOPFIELDA Postać energii w modelu klasycznym: E C 2 A 2 x i ji x i v xi v xi v xj n B 2 D 2 i x yx x yx Potencjał wejściowy neuronu i: 2 v i xi d v xy yi v xi ( v y, i1 v y, i1 ) d u dt i E dv i u i

Dobór wag Zagadnienia NP-trudne: jak zastosować sieć Hopfielda? Przykład: najkrótsza droga pomiędzy N miastami. 1 E n dikni nk 1nk 1 2 Odległość A 2 B 2 C 2 i ik i, n ik i n n i n n i i k 2 N + 1 w wierszu + 1 w kolumnie N miast 1 1 1 W d A B C i, k ik ik 1, 1, ik ik

WYNIKI DOŚWIADCZEŃ Konfiguracja parametrów METODA KLASYCZNA Liczba rozwiązań poprawnych syntaktycznie [%] Liczba rozwiązań optymalnych Błąd w stosunku do rozwiązania optymalnego [%] Z1 Z2 Z3 Z1 Z2 Z3 Z1 Z2 Z3 D = 300 92 88 90 0 0 0 17,2 12,9 11,1 D = 350 79 69 74 0 0 0 15,1 13,4 12,8 D = 400 66 62 69 0 0 0 4,8 2,9 2,1 D = 450 42 45 56 0 0 0 7,1 7,2 7,1 D = 500 30 34 27 0 0 0 10,2 15,4 6,1

WYNIKI DOŚWIADCZEŃ ZMODYFIKOWANA METODA KLASYCZNA Konfiguracja parametrów Liczba rozwiązań poprawnych syntaktycznie [%] Liczba rozwiązań optymalnych Błąd w stosunku do rozwiązania optymalnego [%] Z1 Z2 Z3 Z1 Z2 Z3 Z1 Z2 Z3 D = 250 96 98 95 0 0 0 27,2 22,9 21,1 D = 300 86 92 94 0 0 0 24,8 21,9 18,1 D = 350 74 68 72 0 0 0 11,5 D = 400 65 59 62 0 0 0 21,4 12,4 14,2 8,9 12,9 D = 500 25 28 22 0 0 0 25,6 23,6 24,9

WYNIKI DOŚWIADCZEŃ METODA ANSARI i HOU Konfiguracja parametrów Liczba rozwiązań poprawnych syntaktycznie [%] Liczba rozwiązań optymalnych Błąd w stosunku do rozwiązania optymalnego [%] Z1 Z2 Z3 Z1 Z2 Z3 Z1 Z2 Z3 D = 400 82 80 81 0 0 0 5,1 2,5 2,5 D = 450 64 62 59 0 0 0 1,2 1,0 3,1 D = 500 62 56 45 0 4 3 1,0 0 0 D = 550 36 36 38 0 4 0 6,1 0 9,1 D = 600 16 27 21 3 0 0 0 7,0 9,2

PARAMETRY ALGORYTMU GENETYCZNEGO rozmiar populacji: 20 liczba chromosomów elitarnych: 1 prawdopodobieństwo inwersji: 0,1 prawdopodobieństwo mutacji: 0,1 maksymalna liczba generacji: 10000 rozmiar chromosomu: 10

WYNIKI DLA ALGORYTMU GENETYCZNEGO Czas wykonania algorytmu dla 100 symulacji wynosi przeciętnie 5,6 s (komputer klasy Intel Pentium 4, 2,4 GHz), czyli nieco szybciej niż działanie symulowanej sieci Hopfielda. DLA KAŻDEGO ZE ZBIORÓW MIAST KAŻDA PRÓBA ZAKOŃCZYŁA SIĘ ZNALEZIENIEM OPTYMALNEJ DROGI.

WNIOSKI Rozwiązywanie problemu TSP przy wykorzystaniu sieci Hopfielda jest mało efektywne. Nie istnieją reguły dopasowania parametrów sieci a ich dobór jest czasochłonny. Dużo lepsze rezultaty daje wykorzystanie algorytmów genetycznych. Przy 100% skuteczności AG (dla 10 miast) wyniki najefektywniejszej sieci Hopfielda nie są zadowalające (ok. 2% optymalnych rozwiązań).

LITERATURA Tadeusiewicz Ryszard, Sieci neuronowe. W-wa 1993 Żurada J., BarskiM., Jędruch W., Sztuczne sieci neuronowe. W-wa 1996 Grabska-Chrząstowska J.: Optymalizacjia w sieciach Hopfielda przy konstrukcji sieci skojarzeniowych. Materiały konferencyjne IV Krajowej Konferencji MSK'03 - Metody i systemy komputerowe, str. 261-266, Kraków 2003. Klimek M., Grabska-Chrząstowska J., Porównanie działania sieci Hopfielda i algorytmów genetycznych dla problemu komiwojażera. Automatyka, Półrocznik, tom8, zeszyt3, str. 459-467, Zeszyty Naukowe