1 Podstawy programowania sieci neuronowych w programie Matlab 7.0



Podobne dokumenty
WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Ćwiczenia nr 4. Arkusz kalkulacyjny i programy do obliczeń statystycznych

Instrukcja automatycznego tworzenia pozycji towarowych SAD na podstawie danych wczytywanych z plików zewnętrznych (XLS).

INWENTARYZACJA W PROGRAMIE INTEGRA

WyŜsza Szkoła Zarządzania Ochroną Pracy MS EXCEL CZ.2

Zastosowania sieci neuronowych

SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU)

Laboratorium nr 2. Identyfikacja systemu i detekcja uszkodzeń na podstawie modelu

FAQ: /PL Data: 19/11/2007 Programowanie przez Internet: Przekierowanie portu na SCALANCE S 612 w celu umo

GEO-SYSTEM Sp. z o.o. GEO-RCiWN Rejestr Cen i Wartości Nieruchomości Podręcznik dla uŝytkowników modułu wprowadzania danych Warszawa 2007

Instrukcja zarządzania kontami i prawami

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Tworzenie i modyfikowanie wykresów

Instalacja i opis podstawowych funkcji programu Dev-C++

Instrukcja właściwego wykonania wykresów na zajęcia dydaktyczne.

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

W tym ćwiczeniu zostanie wykonany prosty profil cienkościenny, jak na powyŝszym rysunku.

Symulator układu regulacji automatycznej z regulatorami PID, wykorzystujący sterownik firmy B&R.

Politechnika Lubelska

Podstawy Sztucznej Inteligencji (PSZT)

Instrukcja obsługi. Helpdesk. Styczeń 2018

Podstawy obsługi aplikacji Generator Wniosków Płatniczych

Dokumentacja Końcowa

Algorytmy sztucznej inteligencji

Zadanie Wstaw wykres i dokonaj jego edycji dla poniższych danych. 8a 3,54 8b 5,25 8c 4,21 8d 4,85

Podstawowe informacje o obsłudze pliku z uprawnieniami licencja.txt

SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU)

Konfiguracja programu pocztowego Outlook Express i toŝsamości.

Geneza zmiany roku. Uwaga! Kalendarze dostępowe typu tygodniowego nie wymagają obsługi!.

INSTRUKCJA INWENTARYZACJI

Rys.1. Technika zestawiania części za pomocą polecenia WSTAWIAJĄCE (insert)

Trik 1 Identyfikator klienta generowany za pomocą formuły

Politechnika Warszawska

Kondensator, pojemność elektryczna

I Tworzenie prezentacji za pomocą szablonu w programie Power-Point. 1. Wybieramy z górnego menu polecenie Nowy a następnie Utwórz z szablonu

NEURAL NETWORK ) FANN jest biblioteką implementującą SSN, którą moŝna wykorzystać. w C, C++, PHP, Pythonie, Delphi a nawet w środowisku. Mathematica.

WPROWADZENIE DO ŚRODOWISKA SCICOS

WYSYŁKA SPRAWOZDAŃ i BILANSÓW DO SYSTEMU

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

R L. Badanie układu RLC COACH 07. Program: Coach 6 Projekt: CMA Coach Projects\ PTSN Coach 6\ Elektronika\RLC.cma Przykłady: RLC.cmr, RLC1.

Formularz MS Word. 1. Projektowanie formularza. 2. Formularze do wypełniania w programie Word

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.

Pobierz plik z przykładem

Jak korzystać z Excela?

3.7. Wykresy czyli popatrzmy na statystyki

Współpraca Integry z programami zewnętrznymi

Wyznaczanie symulacyjne granicy minimalnej w portfelu Markowitza

Podręczna pomoc Microsoft Power Point 2007

Konfiguracja parametrów sondy cyfrowo analogowej typu CS-26/RS/U

INSTRUKCJA OTWIERANIA PLIKU DPT (data point table)

Teoretyczne wprowadzenie do programu pocztowego Microsoft Outlook 2007

INSTRUKCJA OBSŁUGI APLIKACJI HERMES sprawdzian i egzamin gimnazjalny. OKE Warszawa

Spis treści Szybki start... 4 Podstawowe informacje opis okien... 6 Tworzenie, zapisywanie oraz otwieranie pliku... 23

GEO-SYSTEM Sp. z o.o. GEO-RCiWN Rejestr Cen i Wartości Nieruchomości Podręcznik dla administratora systemu Warszawa 2007

FAQ: /PL Data: 26/11/2008 Komunikacja w protokole MPI za pomocą Global Data (GD) pomiędzy sterownikami S7-300

Laboratorium przedmiotu Technika Cyfrowa

Współpraca FDS z arkuszem kalkulacyjnym

Edytor tekstu OpenOffice Writer Podstawy

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE

EKSPLOATACJA SYSTEMÓW TECHNICZNYCH - LAB. Wprowadzenie do zajęć

Instrukcja uŝytkownika

Projekt ZSWS. Instrukcja uŝytkowania narzędzia SAP Business Explorer Analyzer. 1 Uruchamianie programu i raportu. Tytuł: Strona: 1 z 31

Rys. 1. Zestawienie rocznych kosztów ogrzewania domów

1.1 Wykorzystanie programu Microsoft Excel w rekonstrukcji wypadków drogowych - wprowadzenie.

INSTRUKCJA INWENTARYZACJI

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

SERTUM moduł Oferty. Spis treści

Komunikaty statystyczne medyczne

CRM VISION Instalacja i uŝytkowanie rozszerzenia do programu Mozilla Thunderbird

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

SKRYPTY. Zadanie: Wyznaczyć wartość wyrażenia arytmetycznego

EasyLog czyli jak archiwizować dane z Simatic S7-300/400

FAQ: /PL Data: 16/11/2007 Programowanie przez Internet: Konfiguracja modułów SCALANCE S 612 V2 do komunikacji z komputerem przez VPN

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

Akceleracja symulacji HES-AHDL. 1. Rozpoczęcie pracy aplikacja VNC viewer

KOMUNIKACJI AGENTA/GESTORÓW KONTENERÓW Z SYSTEMEM KOMPUTEROWYM GCT.

Operacje na Wielu Arkuszach

Jak zmniejszać rozmiar fotografii cyfrowych dr Lech Pietrzak

program dla opracowujących wnioski o dotacje

Polsko-Niemiecka Współpraca MłodzieŜy Podręcznik uŝytkownika Oprogramowania do opracowywania wniosków PNWM

Instrukcja redaktora strony

ĆWICZENIE 5: Sztuczne sieci neuronowe

Instrukcja użytkowa programu INTERNET LAB-BIT

Sztuczne sieci neuronowe w zastosowaniu do modelowania fazy wznoszenia samolotu

PROGNOZOWANIE CENY OGÓRKA SZKLARNIOWEGO ZA POMOCĄ SIECI NEURONOWYCH

Dane w poniższej tabeli przedstawiają sprzedaż w dolarach i sztukach oraz marżę wyrażoną w dolarach dla:

Instrukcja wykonywania rozliczeń

Instrukcja uŝytkownika

TwinCAT 3 konfiguracja i uruchomienie programu w języku ST lokalnie

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Instrukcja realizacji ćwiczenia

Instrukcja obsługi programu Creative Fotos

Informatyka w Zarządzaniu

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak

Konfigurowanie PPP dla Windows 7

PRZETWORNIKI C / A PODSTAWOWE PARAMETRY

Obszar pierwszy to pasek narzędzi (rys. 1) zawierający skróty do najczęściej uŝywanych funkcji. Rys. 1 Pasek Narzędzi

Instrukcja pierwszego logowania do Serwisu BRe Brokers!

Transkrypt:

1 Podstawy programowania sieci neuronowych w programie Matlab 7.0 1.1 Wczytanie danych wejściowych Pomocny przy tym będzie program Microsoft Excel. W programie tym obrabiamy wstępnie nasze dane poprzez ich skalowanie do wartości odpowiednich dla sztucznej sieci neuronowej. 1. Tabela danych wejściowych przed formatowaniem 1

Wykonujemy to przez podzielenie kolumn wejściowych i wyjściowych przez element maksymalny danej kolumny. 2. Tabela w programie Excel po sformatowaniu 2

Widać dokładnie na powyŝszym zrzucie ekranu, iŝ wartości danych podawanych na wejścia i wyjście naszej sztucznej sieci neuronowej zawierają się w granicach 0-1. Wnioskiem jest to, iŝ wszystkie wejścia posiadają obecnie taką samą waŝność. Teraz moŝe nastąpić wklejenie danych do programu Matlab 7.0. W tym celu otwieramy tenŝe program i w linii poleceń edytujemy nowy skrypt dla poszczególnych danych, które chcemy zapamiętać do wykonania niezbędnych obliczeń. 3. Edycja skryptu 3

Wciskając klawisz [enter], otrzymujemy dostęp do okna edycji skryptu i tam deklarujemy tablicę wejściową i wyjściową dla treningu i symulacji w następujący sposób: nazwa zmiennej jest tablicą danych wejściowych po transponowaniu. 4. Wprowadzenie całej tablicy do skryptu 4

NaleŜy pamiętać przy tym, iŝ zapis liczb ułamkowych jest róŝny dla kaŝdego z programów. W programie Matlab jest to kropka dziesiętna, a w Excel jest to przecinek. Dlatego dokonujemy konwersji tych znaków na prawidłowe. Operację powtarzamy kolejno dla wejść i wyjść sieci, uzyskując w ten sposób cztery tablice. Dalej, wczytujemy zmienne, uruchamiając skrypty po kolei. 5. Wczytanie tablicy poprzez wybranie opcji RUN z listy rozwijanej 5

Otrzymujemy w ten sposób dostęp do tablic. 6. Tablice widoczne w lewym górnym oknie 6

1.2 Inicjalizacja narzędzia Neural Networks Tool oraz procedura wczytania danych, treningu sieci oraz symulacji Całą procedurę rozpoczynamy od wpisania komendy nntool w linii poleceń programu Matlab 7.0. Skutkować to będzie pojawieniem się okna przedstawionego poniŝej. 7. Okno narzędzia NNTOOL 7

Teraz wczytujemy wejścia i wyjścia naszej sieci uŝywając przycisku Import. Pojawi się okno przedstawione poniŝej, gdzie określamy, czy dane przez nas wybrane mają być przypisane do wejścia, czy wyjścia sieci (Inputs/Targets). 8. Wybór tablicy wejtrening jako wejściowa Po zadeklarowaniu naszych danych, naciskamy przycisk New Network celem zaprojektowania naszej sieci neuronowej. Z waŝniejszych, po kolei moŝemy zmienić: Nazwę Rodzaj sieci Zakres danych wejściowych Liczbę warstw Liczbę neuronów w poszczególnej warstwie Funkcję przejścia 8

9. Deklarowanie wszelkich parametrów naszej sieci neuronowej 9

Po skonfigurowaniu naszej sieci następuje faza treningu. Rozpoczynamy ją naciskając przycisk Train z dostępnych tym oknie. Pojawi się okno pokazane poniŝej. 10. Okno treningu z otwartą zakładką Training Info 10

Deklarujemy tutaj, które zmienne mają być danymi podawanymi na wejścia sieci neuronowej które mają być informacją przedstawianą sieci na wyjściu oraz mamy moŝliwość zmiany nazw zmiennych z wynikami treningu tzn. tablicy z wyjściami oraz tablicy z błędami. Po skonfigurowaniu wszelkich interesujących nas informacji w tej zakładce, przechodzimy do kolejnej, czyli parametrów treningu. Tu wybieramy liczbę epok (u mnie 233) oraz do jakiej wartości dąŝyć ma błąd lub, kiedy przerwać trening sieci (wyniki satysfakcjonujące). Pokazane jest to poniŝej na zrzucie ekranu. 11. Wybór liczby epok uczenia sieci Kliknięcie na przycisku Train Network powoduje rozpoczęcie fazy treningu sieci, co zobrazowane jest na dynamicznie zmieniającym się wykresie, dąŝącym do wykonania zadeklarowanych u nas dwustu trzydziestu trzech epok. Na zrzucie ekranu 11

przedstawionym poniŝej, doskonale widać, jak zmienia się błąd wraz z narastaniem epok. 12. Błąd generowany przez naszą sieć po 233 epokach 12

Okno to zamykamy i wybieramy zakładkę Simulate, gdzie wybieramy nasze dane sprawdzające, które mają zostać podane na wejście sieci neuronowej celem weryfikacji jej sprawności uczenia. Na zrzucie ekranu pokazanym niŝej widać wybrane dane. Naciśnięcie przycisku Simulate Network rozpocznie procedurę przedstawiania sieci próbek sprawdzających. 13. Sprawdzanie sieci 13

Aby móc wizualizować wyniki naszej pracy, musimy eksportować nasze dane do okna głównego programu Matlab 7.0. W tym celu klikamy na przycisku Export i wybieramy interesujące nas dane (w moim przypadku jest to tablica z danymi otrzymanymi na wyjściu sieci. Patrz zrzut ekranu niŝej. 14. Eksportowanie zmiennej wyjściowej 14

Po przełączeniu się do okna programu głównego, widzimy zmienną poŝądaną przez nas, w lewym górnym oknie programu. Jak widać, na zrzucie ekranu poniŝej, ma ta tablica wymiary 1x2500, czyli wymiar się zgadza z liczbą próbek przedstawianych wyjściu sieci w fazie treningu. 15. Okno główne i interesujące nas dane wynikowe 15

Ostatnią fazą jest przedstawienie porównania rzeczywistych próbek wyjściowych obiektu oraz próbek uzyskanych w procesie symulacji. Na poniŝszym zrzucie ekranu pokazuję juŝ ostateczny wynik procesu uczenia. 16. Wyniki uczenia Niebieski wykres, to próbki z rzeczywistego obiektu, natomiast czerwony, to sposób, w jaki sieć poradziła sobie z procesem uczenia. Dalej moŝna stosować proces obróbki statystycznej danych pod względem błędów, czego tu nie będę przedstawiał. 16

2 Wyniki otrzymanych symulacji poszczególnych sieci neuronowych 2.1 Sieci Feed-forward backpropagation Krótki opis sieci: 17. Przykładowa sieć jednokierunkowa feed-forward Jest to sieć jednokierunkowa Występuje tutaj propagacja wsteczna błędu Jedna z najczęściej wykorzystywanych sieci neuronowych Inaczej zwana perceptronem wielowarstwowym Zwykle uczenie odbywa się z nauczycielem, czyli jest nadzorowane. Pokazujemy próbki na wejściu sieci i jednocześnie wyniki, jakie chcemy uzyskać 17

2.1.1 Dwie warstwy ukryte z ilością neuronów 3-1 18

2.1.2 Dwie warstwy ukryte z ilością neuronów 7-1 19

2.1.3 Dwie warstwy ukryte z ilością neuronów 15-1 20

2.1.4 Trzy warstwy ukryte z ilością neuronów 3-2-1 21

2.1.5 Trzy warstwy ukryte z ilością neuronów 7-2-1 22

2.1.6 Trzy warstwy ukryte z liczbą neuronów 15-2-1 23

2.1.7 Trzy warstwy ukryte z liczbą neuronów 3-3-1 24

2.1.8 Trzy warstwy ukryte z liczbą neuronów 3-7-1 25

2.1.9 Trzy warstwy ukryte z liczbą neuronów 3-15-1 26

2.2 Sieci Cascade-forward backpropagation Krótki opis sieci: 18. Rysunek obrazujący działanie sieci Sieć jednokierunkowa Metodą ucznia moŝe być propagacja błędu wstecznego Po dodaniu kandydata, stare neurony ukryte mają ustalone wagi wejściowe Połączenia neuronów są w postaci rozwijającej się kaskady połączeń wagowych. Kolejno dokładany neuron ma połączenia z węzłami wejściowymi i wszystkimi juŝ istniejącymi neuronami ukrytymi Następuje minimalizacja róŝnicy: E(sieć)-E(kandydat) 27

2.2.1 Trzy warstwy ukryte z ilością neuronów 3-2-1 28

2.2.2 Trzy warstwy ukryte z ilością neuronów 3-4-1 29

2.2.3 Trzy warstwy ukryte z ilością neuronów 5-3-1 2.2.4 Trzy warstwy ukryte z ilością neuronów 4-4-1 30

2.2.5 Trzy warstwy ukryte z ilością neuronów 4-7-1 31

2.2.6 Dwie warstwy ukryte z ilością neuronów 4-1 32

2.3 Sieci Elman backpropagation Krótki opis: 19. Postać ogólna wraz z układem połączeń Sieć ta jest częściowo rekurencyjna o strukturze dwuwarstwowej, a sprzęŝenie dotyczy tylko tej warstwy ukrytej Neurony warstwy wyjściowej są połączone tylko z neuronami warstwy ukrytej, czyli jest to sieć jednokierunkowa KaŜdy neuron ukryty ma swego odpowiednika w tzw. warstwie kontekstowej 33

2.3.1 Dwie warstwy ukryte z ilością neuronów 4-1 34

2.3.2 Trzy warstwy ukryte z liczbą neutronów 3-4-1 2.3.3 Trzy warstwy ukryte z liczbą neuronów 5-3-1 35

2.3.4 Trzy warstwy ukryte o liczbie neuronów 4-5-1 2.3.5 Trzy warstwy ukryte z liczbą neuronów 5-3-1 36

3 Eksperymenty z sieciami 3.1 Pokazanie sieci podczas symulacji próbek, które są oczekiwane na wyjściu 37

3.2 Zmiana funkcji adaptacji sieci 38

3.3 Zmiana funkcji przejścia w ostatniej warstwie 39

3.4 Ten sam zbiór danych dla uczenia i testowania 4 Analiza i wnioski z otrzymanych wyników badań Zbadaliśmy wiele konfiguracji sieci neuronowych. Zwykle były to zmieniające się liczby neuronów w poszczególnych warstwach ukrytych oraz liczba epok przedstawiania sieci wyników z obiektu rzeczywistego, by sieć mogła zoptymalizować wagi, aby jak najlepiej poradzić sobie z postawionym problemem. Zmienialiśmy równieŝ konfigurację sieci, nie modyfikując przy tym funkcji przejścia. Dla wszystkich przebadanych sieci ustalaliśmy funkcję przejścia w ostatniej warstwie na linię prostą. Badania wykonywaliśmy zgodnie z procedurą opisaną w punkcie pierwszym naszej pracy, czyli obrabialiśmy wstępnie dane w programie Microsoft Excel, a następnie przy uŝyciu programu Matlab 7.0 uczyliśmy sieć, a następnie symulowaliśmy jej działanie za pomocą próbek sprawdzających. ZauwaŜyliśmy występowanie niekiedy anomalii, gdzie w procesie uczenia przy 40

pokazaniu sieci próbek symulacyjnych, ta zwracała w pewnym wąskim zakresie wynik, którego błąd rzędu kilkuset procent. Pomocna w naszej pracy okazała się gałąź nauki zwana metrologią, z której zaczerpnęliśmy wzory na odchylenie standardowe typu A, którego wyniki zobrazowane będą dla najlepiej i najgorzej nauczonej sieci. Bardzo długo uczyła się sieć 15-1 dla 500 epok. Zwykle sieć ucząca się 50 epok jest zdecydowanie niedouczona (objawia się to niereagowaniem na sygnały na wejściu), natomiast sieci powyŝej 200 epok wykazują tendencję do przeuczenia. Objawia się to wizualnie w postaci bardzo poszarpanego wykresu i dodawania pofałdowania pomiędzy próbkami, które były badane przez sieć. Ogólnie moŝna zauwaŝyć, iŝ sieci Feed-forward lepiej się spisują, gdy liczba neuronów w poszczególnych warstwach nie zmienia się w sposób drastyczny. Nie ma teŝ sensu ustalanie zbyt wielkiej liczby warstw ukrytych, ani zbyt duŝej liczby neuronów w poszczególnych warstwach, gdyŝ wyniki wcale nie są lepsze, a niekiedy gorsze niŝ te, jakich byśmy oczekiwali. Ponadto czas uczenia się sieci zwiększa się i trzeba długo czekać na wyniki symulacji nawet, gdy sprzęt, który jest wykorzystywany do badań, nie odbiega od obecnych standardów mocy obliczeniowej. W pracy przyjęliśmy równieŝ, Ŝe zgodnie z zaleceniami Prowadzącego projekt, nie przekraczamy liczby neuronów powyŝej liczby 15, co jest równieŝ ilością wejść do naszej sieci neuronowej. Zadowalające efekty wydaje się mieć sieć kaskadowa o ilości neuronów 3-4-1. Widać na wykresie, iŝ przebieg jest dość dobrze odwzorowany. Zwiększając wzmocnienie na wyjściu układu, moŝna uzyskać przebieg zbliŝony do oczekiwanego przez nas. 41

Wszystkie sieci mają problem z ustaleniem poprawnej decyzji w jednym fragmencie przedstawionego procesu. Wskazuje to, iŝ w próbkach uczących, ten zakres zmienności funkcji nie występuje lub jest go na tyle mało, Ŝe sieci nie potrafią się poprawnie reagować w przyszłości, mając do czynienia z podobnym problemem. Próbowaliśmy pokazać sieciom podczas symulacji równieŝ wyniki, jakie powinna uzyskać (targets). Okazało się to ślepym zaułkiem. Wyniki wcale nie były lepsze, a w większości przypadków badanych okazało się, iŝ otrzymane dane odbiegają w bardziej znaczący sposób od wyników uzyskiwanych dla sieci bez pokazywania wyjścia. Próba zmiany funkcji adaptacji sieci z domyślnej tzn. LEARNGDM na LEARNGD, takŝe nie daje pozytywnych rezultatów. Jak pokazane dla jednego z przebiegów, wyniki dla tej drugiej osiągają wartości o duŝym zakresie zmian w krótkim okresie czasu. Innymi słowy, sieć zmienia gwałtownie wartości na swoim wyjściu nie kontynuując trendu, jaki zdaje się wyznaczać funkcja rzeczywista. Wnioskiem, który zdaje się być najbardziej istotny po przeprowadzonych badaniach jest to, iŝ najlepiej uczą się sieci o średniej ilości neuronów w poszczególnych warstwach, tzn. kształtujących się na poziomie od trzech do pięciu neuronów. Potwierdza się to dla róŝnych typów sieci neuronowych przez nas zbadanych. Kolejnym wnioskiem jest to, Ŝe sieci o dwóch warstwach ukrytych dość dobrze radzą sobie z problemem, który przed siecią postawiliśmy. RównieŜ tutaj, polecamy średnią ilość neuronów. Sprawdziliśmy dla 15 neuronów i wyniki były niezadowalające, co zresztą napisaliśmy kilka akapitów wcześniej. Ponadto zmiana funkcji przejścia w ostatniej warstwie 42

ukrytej skutkowała kompletnie błędnym uczeniem sieci, więc jako funkcję przejścia dla warstwy ostatniej polecamy f(x)=x. Doskonale odwzorowane są przebiegi, gdy podczas symulacji zamiast podawać próbki testujące, podajemy po raz kolejny próbki uczące. Wykres jest wówczas dość dobrze odwzorowany, a po obliczeniu błędu, wynik był równy 1,136%. Dla innych konfiguracji sieci błędu nie liczyliśmy, gdyŝ jest on tak duŝy, Ŝe nie ma sensu go liczyć i porównywać dokładnie wyników. Większość wyjdzie zbliŝonych, a zadowalające efekty porównania sieci są juŝ, gdy błąd zobrazowany jest graficznie w postaci wykresów dla kaŝdej z konfiguracji. Wnioskiem ostatecznym, jaki nasuwa się po kilkudziesięciu godzinach pracy nad znalezieniem idealnej sieci jest następujący: NaleŜy pogodzić się z duŝym błędem w estymacji sygnału przez sieć. Wybór sieci powinien paść na taką, która ma średnią liczbę neuronów i oferuje kompromis pomiędzy szybkością liczenia, a błędami. Widać było, iŝ te zmieniały się zaledwie w granicach kilku procent dla naszych średniaków. 43