Przykład optymalizacji struktury sztucznej sieci neuronowej metodą algorytmów genetycznych

Podobne dokumenty
Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Algorytm genetyczny (genetic algorithm)-

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Widzenie komputerowe

Optymalizacja optymalizacji

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Algorytmy genetyczne

Zastosowania sieci neuronowych

Uczenie sieci neuronowych i bayesowskich

Zastosowania sieci neuronowych

Algorytmy genetyczne. Materiały do laboratorium PSI. Studia stacjonarne i niestacjonarne

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

Algorytmy genetyczne. Materiały do laboratorium PSI. Studia niestacjonarne

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

Algorytm Genetyczny. zastosowanie do procesów rozmieszczenia stacji raportujących w sieciach komórkowych

Algorytmy ewolucyjne NAZEWNICTWO

Uczenie sieci typu MLP

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

SIECI REKURENCYJNE SIECI HOPFIELDA

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

8. Neuron z ciągłą funkcją aktywacji.

PLAN WYKŁADU OPTYMALIZACJA GLOBALNA OPERATOR KRZYŻOWANIA ETAPY KRZYŻOWANIA

Algorytmy ewolucyjne - algorytmy genetyczne. I. Karcz-Dulęba

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści

Obrona rozprawy doktorskiej Neuro-genetyczny system komputerowy do prognozowania zmiany indeksu giełdowego

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

ALGORYTMY SZTUCZNEJ INTELIGENCJI

ĆWICZENIE 5: Sztuczne sieci neuronowe

Algorytmy genetyczne. Paweł Cieśla. 8 stycznia 2009

Metody Sztucznej Inteligencji II

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Algorytmy sztucznej inteligencji

Aproksymacja funkcji a regresja symboliczna

Zadanie 5 - Algorytmy genetyczne (optymalizacja)

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Podstawy Sztucznej Inteligencji (PSZT)

I EKSPLORACJA DANYCH

ALGORYTMY GENETYCZNE ćwiczenia

SCHEMAT ROZWIĄZANIA ZADANIA OPTYMALIZACJI PRZY POMOCY ALGORYTMU GENETYCZNEGO

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

1. Architektury, algorytmy uczenia i projektowanie sieci neuronowych

Metody Rozmyte i Algorytmy Ewolucyjne

6. Klasyczny algorytm genetyczny. 1

4.1. Wprowadzenie Podstawowe definicje Algorytm określania wartości parametrów w regresji logistycznej...74

Sztuczna inteligencja

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

Program "FLiNN-GA" wersja 2.10.β

Inteligentne systemy przeciw atakom sieciowym

Zrealizować sieć neuronową (learnbpm) uczącą się odwzorowania z = x 2 + y 2 dla x i y zmieniających się od -1 do 1.

Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2)

przetworzonego sygnału

FOLIA POMERANAE UNIVERSITATIS TECHNOLOGIAE STETINENSIS Folia Pomer. Univ. Technol. Stetin. 2009, Oeconomica 275 (57), 53 58

PRZEWODNIK PO PRZEDMIOCIE

Elementy inteligencji obliczeniowej

Sztuczne sieci neuronowe

PRÓBA ZASTOSOWANIA SIECI NEURONOWYCH DO PROGNOZOWANIA OSIADAŃ POWIERZCHNI TERENU POWSTAŁYCH NA SKUTEK EKSPLOATACJI GÓRNICZEJ**

Sztuczne sieci neuronowe (SNN)

DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI

Podstawy sztucznej inteligencji

PRZEWODNIK PO PRZEDMIOCIE

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE

Lekcja 5: Sieć Kohonena i sieć ART

6. Perceptron Rosenblatta

Strategie ewolucyjne (ang. evolu4on strategies)

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.

Definicja perceptronu wielowarstwowego

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

Podstawy Sztucznej Inteligencji

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych.

Algorytmy genetyczne. Dariusz Banasiak. Katedra Informatyki Technicznej Wydział Elektroniki

wiedzy Sieci neuronowe (c.d.)

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Kodowanie transformacyjne. Plan 1. Zasada 2. Rodzaje transformacji 3. Standard JPEG

wiedzy Sieci neuronowe

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017

Metoda weryfikacji mówcy na podstawie nieuzgodnionej wypowiedzi

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010

Katedra Informatyki Stosowanej. Algorytmy ewolucyjne. Inteligencja obliczeniowa

Sztuczne siei neuronowe - wprowadzenie

ALGORYTM ROZPOZNAWANIA OBRAZÓW MATERIAŁÓW BIOLOGICZNYCH

ZASTOSOWANIE SIECI NEURONOWYCH DO OPTYMALIZACJI WARUNKÓW OBRÓBKI CIEPLNEJ STOPÓW Mg-Al

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2013/2014

Deep Learning na przykładzie Deep Belief Networks

Politechnika Warszawska

ID1SII4. Informatyka I stopień (I stopień / II stopień) ogólnoakademicki (ogólno akademicki / praktyczny) stacjonarne (stacjonarne / niestacjonarne)

SIEĆ NEURONOWA JAKO NARZĘDZIE APROKSYMACJI I KLASYFIKACJI DANYCH. Jakub Karbowski Gimnazjum nr 17 w Krakowie

Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

KARTA MODUŁU KSZTAŁCENIA

Sieci neuronowe w Statistica

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

METODY INŻYNIERII WIEDZY

Transkrypt:

BIULETYN INSTYTUTU AUTOMATYKI I ROBOTYKI NR 23, 26 Przykład optymalizacji struktury sztucznej sieci neuronowej metodą algorytmów genetycznych Leszek Grad Zakład Automatyki, Instytut Teleinfo rmatyki i Automatyki WAT, ul. Kaliskiego 2, -98 Warszawa STRESZCZENIE: W artykule przedstawio no przykład optymalizacji struktury jednokierunkowej wielowarstwowej sztucznej sieci neuro nowej metodą algorytmów genetycznych. Zaproponowano funkcję przystosowania pozwalającą ocenić jakość proponowanej struktury. Obliczenia wykonano dla sieci neuronowej rozpoznającej cyfry p isane odręcznie. SŁOWA KLUCZOWE: sieć neuronowa, algorytmy genetyczne, optymalizacja struktury Przedstawiony w artykule problem optymalizacji struktury sztucznej sieci neuronowej jest zagadnieniem istotnym dla projektantów systemów sztucznej inteligencji wykorzystujących jednokierunkowe wielowarstwowe sieci neuronowe. Sieć tego typu realizuje odwzorowanie N-wymiarowego wektora wejściowego w M-wymiarowy sygnał wejściowy. Z teorii Kołmogorowa wynika, Ŝe aproksymacja taka jest moŝliwa przy zastosowaniu jednej warstwy ukrytej o 2N+ neuronach [3]. W praktyce konstruuje się sieci o co najwyŝej dwóch warstwach ukrytych, a liczba neuronów w warstwach ukrytych waha się od N do 3N. Do optymalizacji struktury s ieci neuronowej stosowane są dwa podstawowe podejścia: redukcji sieci oraz rozbudowy sieci. W pierwszym, przyjmuje się nadmiarową architekturę, która w trakcie procesu uczenia bądź po jego zakończeniu jest upraszczana poprzez redukc ję najmniej znaczących wag. Do najpopularniejszych metod redukcji sieci naleŝy zaliczyć: metodę OBD (Optimal Brain Damage) oraz metodę z funkcją kary. W drugim podejściu, na wstępie przyjmuje się strukturę sieci o niewielkiej liczbie neuronów, która w miarę upływu procesu uczenia jest zwiększana. Spośród wielu metod 3

L. Grad rozbudowywania sieci wymienić naleŝy algorytmy: Mezarda-Nadala, Marchanda, Li-Tuftsa, kaskadowej korelacji Fahlmana[3]. W artykule przedstawiony został przykład wykorzystania algorytmów genetycznych do optymalizacji struktury sieci neuronowej rozwiązującej zadanie rozpoznawania znaków (cyfr) pisanych odręcznie.. Sieć neuronowa nieliniowa wielowarstwowa jednokierunkowa Jednokierunkowa wielowarstwowa nieliniowa sieć neuronowa jest narzędziem pozwalającym na znajdowanie związków (funkcji, relacji) pomiędzy danymi wejściowymi, a wynikami działania systemu na podstawie posiadanych częściowych danych empirycznych. Wykorzystywana jest najczęściej do rozwiązywania zadań klasyfikacji. Składa się z elementarnych elementów przetwarzających zwanych neuronami. Neuron realizuje odwzorowanie postaci: T ( w ) y = f gdzie: - sygnał wejściowy, w - wektor wag, y - wyjście neuronu, f - nieliniowa funkcja przejścia (aktywacji). Na rys.. przedstawiono schemat neuronu nieliniowego, a na rys.2. logistyczną funkcję aktywacji. Poza tą funkcją częste zastosowanie znajduje funkcja tangensa hiperbolicznego [2][4]. Rys.. Neuron nieliniowy Sieć wielowarstwowa składa się z warstw neuronów. Neurony leŝące w tej samej warstwie nie są połączone ze sobą. Wysyłają sygnały do wszystkich neuronów leŝących w warstwie kolejnej (poza neuronami warstwy ostatniej). Ostatnia warstwa sieci, której wyjścia są wyjściami całej sieci, nosi nazwę warstwy wyjściowej. Pozostałe warstwy nazywane są ukrytymi. Schemat sieci wielowarstwowej przedstawiony został na rys.3. 32 Biuletyn Instytutu Automatyki i Robotyki, 23/26

Przykład optymalizacji struktury sztucznej sieci neuronowej... Rys. 2. Logistyczna funkcja aktywacji wielowymiarowy sygnał wejściowy pobudzenie y wielowymiarowy sygnał wyjściowy odpowiedź warstwy ukryte warstwa wyjściowa Rys. 3. Jednokierunkowa wielowarstwo wa sieć neuronowa Zanim sieć neuronowa będzie zdolna do realizacji zadania klasyfikacji musi zostać odpowiednio przygotowana. Przygotowanie sieci odbywa się w procesie treningu, w trakcie którego ustalane są wartości wag wszystkich neuronów sieci. Trening oparty jest o zgromadzone wejściowe dane wzorcowe (macierz X), dla których tworzy się odpowiadającą (poŝądaną) macierz wyjść (macierz Z). Skuteczną metodą treningu sieci jest metoda wstecznej propagacji błędów. Jest to metoda gradientowa poszukiwania kierunku najszybszego spadku funkcji błędu. Schematyczne ujęcie procesu treningu wielowarstwowej sieci neuronowej pokazano na rys.4. W metodzie gradientowej trening polega na wielokrotnym podawaniu wszystkich elementów ciągu uczącego. Po podaniu wejściowego sygnału Biuletyn Instytutu Automatyki i Robotyki, 23/26 33

L. Grad wzorcowego następuje korekcja wag sieci. Jednokrotne podanie wszystkich wzorców z ciągu uczącego na sieć nazywane jest epoką. Funkcja określająca błąd sieci jest w metodzie gradientowej funkcją kryterium. Sieć uznaje s ię za nauczoną w przypadku, kiedy błąd na wyjściu sieci jest mniejszy od zadanego. Najpopularniejszą miarą błędu sieci jest sumaryczny błąd średniokwadratowy (SSE - Sum Square Error) obliczany jako pierwiastek z sumy kwadratów róŝnic wartości Ŝądanych (z) i otrzymywanych (y) na wszystkich wyjściach sieci dla całej epoki. <X,Z> N N z 4 3 4 z 3 z 2 2 z y z korekcja Rys. 4. Trening wielowarstwowej sieci neuronowej 2. Sformułowanie zadania klasyfikacji W punkcie tym omówione zostanie zadanie klasyfikacji rozwiązywane przez sieć neuronową. Będzie to zadanie rozpoznawania cyfr arabskich pisanych odręcznie. Zakładamy, Ŝe dysponujemy zbiorem wzorców cyfr zapisanych w formie obrazów binarnych. Rozpoznawanie z wykorzystaniem sieci neuronowej będzie przebiegało zgodnie ze schematem przedstawionym na rys.5. Do rozpoznawania cyfr zastosowano sieć trójwarstwową z moŝliwością redukcji do warstw dwóch przez mechanizm optymalizacji. Warstwa ostatnia jest warstwą wyjściową, zawierającą na stałe neuronów. KaŜdy neuron tej warstwy reaguje wartością na jedną, przypisaną mu cyfrę, a wartością na pozostałe. Obrazy podawane na wejście sieci są poddawane procesowi ekstrakcji cech (redukcji wymiaru wektora wejściowego). W rozpatrywanym rozwiązaniu 34 Biuletyn Instytutu Automatyki i Robotyki, 23/26

Przykład optymalizacji struktury sztucznej sieci neuronowej... przyjęto rozpoznawanie na podstawie wektora zawierającego informację o stopniu zaczernienia wierszy i kolumn. Wymiar wektora opisującego obraz po procesie ekstrakcji cech wyniósł 75 (rozmiar obrazu 453 pikseli)( rys 6).... ekstrak cja cech... Rys. 5. Schemat układu rozpoznawania cyfr Rys. 6. Wynik ekstrakcji cech z obrazu, opis cyfr za pomocą stopnia zaczernienia w wierszach i kolumnach obrazu Biuletyn Instytutu Automatyki i Robotyki, 23/26 35

L. Grad 3. Metoda algorytmów genetycznych Algorytmy genetyczne naleŝą do metod optymalizacji. Zasada ich działania oparta jest na doborze naturalnym i dziedziczeniu. Pierwszym krokiem algorytmu jest wybór podzbioru rozwiązań dopuszczalnych zwanych populacją początkową. KaŜdy element populacji zwany chromosomem kodowany jest za pomocą liczby binarnej o stałej długości. Jeden bit tej liczby nazywany jest genem. Następnie dla całej populacji obliczana jest wartość tzw. funkcji przystosowania (funkcji kryterium). Wartość tej funkcji stanowi podstawę przeprowadzenia zmian w populacji na drodze selekcji i krzyŝowania. Selekcja jest operacją wyboru do następnej populacji (tzw. rodzicielskiej) osobników (chromosomów). W tej operacji do następnej generacji większe szanse przejścia mają osobniki lepiej przystosowane (w rozpatrywanym przypadku o mniejszej wartości funkcji przystosowania). Na etapie krzyŝowania następuje wymiana genów pomiędzy dwoma losowo wybranymi osobnikami. Wymiana genów następuje w sposób taki, iŝ dla losowo wybranego punktu krzyŝowania (genu w chromosomie) następuje "rozcięcie" osobników i wymiana części chromosomów pomiędzy osobnikami. Dla zapewnienia moŝliwości wyjścia z podzbioru rozwiązań generowanych przez populację początkową wprowadza się do populacji nowe osobniki na drodze zmiany losowej pewnej liczby genów w chromosomie. Zjawisko to, jak w genetyce, nazywane jest mutacją. Operacje: oceny populacji, selekcji, krzyŝowania i mutacji przeprowadza się cyklicznie do osiągnięcia satysfakcjonującego rozwiązania. Rozwiązanie określa najlepiej przystosowany osobnik z populacji końcowej. Warunkiem zakończenia obliczeń moŝe być przykładowo brak postępów w ocenie osobników (wartość funkcji przystosowania nie zmienia się). Przedstawiony wyŝej algorytm moŝna zapisać następująco: wybór populacji początkowej; // rozwiązań ze zbioru rozwiązań dopuszczalnych ocena populacji; // obliczenie wart. funkcji przystosowania dla wszystkich osobników while (not stop) { selekcja; // określenie populacji rodzicielskiej krzyŝowanie; // wymiana genów mutacja; // losowa modyfikacja genów (z małym prawdopodobieństwem) ocena populacji; } 36 Biuletyn Instytutu Automatyki i Robotyki, 23/26

Przykład optymalizacji struktury sztucznej sieci neuronowej... 4. Rozwiązanie zadania optymalizacji struktury sieci neuronowej Formułujemy zadanie optymalizacji struktury sieci neuronowej jako dobór liczby neuronów w warstwach ukrytych sieci neuronowej. Warstwa wyjściowa nie podlega optymalizacji z tej racji, iŝ jest warstwą sygnalizacyjną (decyzyjną) (rys.7).... ekstrakcja cech... Część sieci podlegająca optymalizacji co do liczb y warstw i liczby neuronów w poszczególnych warstwach Rys. 7. Określenie części sieci neuronowej podlegającej optymalizacji struktury Kodowanie struktury sieci neuronowej Na potrzeby algorytmu genetycznego istnieje potrzeba zakodowania struktury sieci neuronowej (warstw ukrytych sieci) w postaci liczby binarnej. Przyjęto, Ŝe struktura sieci zostanie zakodowana przy pomocy liczby binarnej o długości k*n, gdzie: - k - liczba warstw ukrytych sieci, - N - liczba bitów na których zakodowana jest liczba neuronów w jednej warstwie. Biuletyn Instytutu Automatyki i Robotyki, 23/26 37

L. Grad Przykładowo, dla k=2, N=8 kodujemy strukturę sieci o maksymalnie dwóch warstwach ukrytych i maksymalnej liczbie neuronów w warstwie równej 255 (rys.8). W takim przypadku liczebność zbioru rozwiązań dopuszczalnych wynosi: 2 * 8 2 256 = 6528 7 45 warstwa pierwsza warstwa druga Rys. 8. Sposób kodowania struktury sieci neuronowej w postaci liczby binarnej Określenie funkcji przystosowania W celu wykorzystania metody algorytmów genetycznych naleŝy określić funkcję przystosowania (kryterium oceny rozwiązania). Ocena jakości działania sieci moŝe być przeprowadzona w zasadzie na podstawie oceny skuteczności np. stopy błędu w zadaniu rozpoznawania. JednakŜe złoŝoność obliczeniowa pełnego procesu treningu jest na tyle duŝa, Ŝe dyskwalifikuje ten sposób oceny. Przyjmiemy ocenę jakości sieci poprzez ocenę postępu treningu po L epokach, mierzonego wartością SSE, z dodatkową karą za duŝą złoŝoność sieci. Dla dwóch warstw ukrytych funkcję tę określa wzór: f n + n2 = L + α SSEL α < 2 ( n, n2) SSE ( n, n2) N ( 2 ) ( n, n2), < gdzie: n, n2 - liczby neuronów w warstwach pierwszej i drugiej, SSE L - sumaryczny średniokwadratowy błąd na wyjściu sieci osiągnięty po L epokach treningu, 2(2 N -) - maksymalna liczba neuronów w siec i, N - liczba bitów na których kodowana jest liczba neuronów w warstwie. Wyniki obliczeń W przeprowadzonym eksperymencie przyjęto następujące parametry dla 38 Biuletyn Instytutu Automatyki i Robotyki, 23/26

Przykład optymalizacji struktury sztucznej sieci neuronowej... algorytmu genetycznego: - wielkość populacji 5, - liczba iteracji algorytmu, - metoda selekcji turniejowa. W wyniku optymalizacji dla: - 2 warstw ukrytych sieci neuronowej, - maksymalnej liczby neuronów w warstwie równej 255, - liczby epok treningu L=, - współczynnika α =. 2, otrzymano strukturę sieci o n= neuronach w pierwszej warstwie ukrytej oraz n2=6 neuronach w warstwie drugiej. Rys.9. Przebieg procesu uczenia sieci zwycięskiej [ 6 ] (przebieg górny) oraz sieci o strukturach [ 3 ] i [ 3 ], wykresy przedstawiają spadek błędu SSE w trakcie ok. epok Na rysunku 9 przedstawiono przebiegi procesu uczenia sieci o strukturze będącej wynikiem działania algorytmu genetycznego na tle innych sieci, o strukturach bardziej złoŝonych. Sieci, zgodnie z przyjętą funkcją Biuletyn Instytutu Automatyki i Robotyki, 23/26 39

L. Grad przystosowania, były oceniane po epokach. Osiągnięty błąd po tej liczbie epok stanowił jeden składnik oceny (drugi stanowiła kara za złoŝoność sieci). Przedstawione przebiegi procesu uczenia na odcinku ok. epok potwierdzają słuszność przyjętego sposobu oceny sieci. Sieć oceniona jako zwyc ięska na podstawie postępów w treningu w pierwszym tysiącu epok, uzyskała najlepszy wynik po dziesięciokrotnie dłuŝszym procesie uczenia. 5. Podsumowanie Przedstawiona w artykule metoda optymalizacji struktury sztucznej sieci neuronowej oparta na algorytmie genetycznym przynosi zadowalające rezultaty. Dla zadania klasyfikacji cyfr pisanych odręcznie realizowanego przez sieć neuronową najlepszą strukturą, będącą wynikiem działania algorytmu genetycznego, okazała się sieć o dwóch warstwach ukrytych i strukturze [ 6 ]. W omówionym przypadku zrezygnowano z oceny sieci neuronowej na podstawie stopy błędnych rozpoznań cyfr, co byłoby miarą najlepszą lecz czasochłonną. Wybrano sposób oceny sieci odzwierciedlający podatność na uczenie, mierzoną błędem SSE, po ustalonej liczbie epok treningu. Literatura: [] Goldberg D.E.: Algorytmy genetyczne i ich zastosowani, WNT, 995. [2] Kwiatkowski W.: Metody automatycznego rozpoznawania wzorców, WAT, 2. [3] Osowski S.: Sieci neuronowe do przetwarzania informacji, Oficyna Wydawnicza Politechniki Warszawskiej, Warszawa, 2. [4] Tadeusiewicz R.: Sieci neuronowe, Akademicka Oficyna Wydawnicza RM, Warszawa 993 4 Biuletyn Instytutu Automatyki i Robotyki, 23/26

Przykład optymalizacji struktury sztucznej sieci neuronowej... An eample of feed forward neural network structure optimisation with genetic algorithm ABSTRACT: An eample of feed forward neural network structure optimisation with genetic algorithm is presented. In genetic algorithm an original fitness functio n is applied. All calculations have been realized for a feed forward neural network, which recognizes hand-written signs. KEYWORDS: Neural network, genetic algorithm, optimisation. Recenzent: prof. dr hab. inŝ. Włodzimierz Kwiatkowski Praca wpłynęła do redakcji: 2.2.26 Biuletyn Instytutu Automatyki i Robotyki, 23/26 4