SZTUCZNE SIECI NEURONOWE

Podobne dokumenty
SZTUCZNE SIECI NEURONOWE

METODY INTELIGENCJI OBLICZENIOWEJ wykład 4

OCENA DZIAŁANIA AE. METODY HEURYSTYCZNE wykład 4 LOSOWOŚĆ W AE KRZYWE ZBIEŻNOŚCI ANALIZA STATYSTYCZNA:

METODY HEURYSTYCZNE 4

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

SZTUCZNE SIECI NEURONOWE METODY HEURYSTYCZNE 4 KRYTERIA ZATRZYMANIA AE KRYTERIUM ZADOWALAJĄCEGO POZIO- MU FUNKCJI PRZYSTOSOWANIA

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Metody Sztucznej Inteligencji II

Sztuczne sieci neuronowe

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Sztuczne sieci neuronowe (SNN)

METODY HEURYSTYCZNE wykład 5

Sztuczne sieci neuronowe

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

METODY HEURYSTYCZNE wykład 5

wiedzy Sieci neuronowe

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Wstęp do sztucznych sieci neuronowych

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Uczenie sieci neuronowych i bayesowskich

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Podstawy Sztucznej Inteligencji (PSZT)

Obliczenia Naturalne - Sztuczne sieci neuronowe

Inteligentne systemy informacyjne

Inteligentne systemy przeciw atakom sieciowym

Podstawy sztucznej inteligencji

Temat: Sieci neuronowe oraz technologia CUDA

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

METODY HEURYSTYCZNE 5

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5

MODELOWANIE RZECZYWISTOŚCI

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Sztuczna inteligencja

Wykład 1: Wprowadzenie do sieci neuronowych

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

8. Neuron z ciągłą funkcją aktywacji.

ELEMENTY SZTUCZNEJ INTELIGENCJI. Sztuczne sieci neuronowe

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe. Uczenie, zastosowania

Zastosowania sieci neuronowych

Sieć przesyłająca żetony CP (counter propagation)

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I.

Uczenie sieci typu MLP

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE

SZTUCZNA INTELIGENCJA

SIECI REKURENCYJNE SIECI HOPFIELDA

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.

Metody sztucznej inteligencji

SIECI NEURONOWE Wprowadzenie

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.

Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe. Krzysztof Regulski, WIMiIP, KISiM, B5, pok. 408

METODY INŻYNIERII WIEDZY

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2013/2014

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

Inteligencja. Władysław Kopaliśki, Słownik wyrazów obcych i zwrotów obcojęzycznych

wiedzy Sieci neuronowe (c.d.)

Sztuczne sieci neuronowe

Seminarium magisterskie. Dyskusja nad tematem pracy magisterskiej pisanej pod kierunkiem pani Dr hab. Małgorzaty Doman

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Zastosowania sieci neuronowych

SIEĆ NEURONOWA JAKO NARZĘDZIE APROKSYMACJI I KLASYFIKACJI DANYCH. Jakub Karbowski Gimnazjum nr 17 w Krakowie

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD XI: Sztuczne sieci neuronowe

Elementy inteligencji obliczeniowej

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

Widzenie komputerowe

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

I EKSPLORACJA DANYCH

1. Logika, funkcje logiczne, preceptron.

Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie

ĆWICZENIE 5: Sztuczne sieci neuronowe

Badacze zbudowali wiele systemów technicznych, naśladujących w komputerze ludzki mózg. Najbardziej pożyteczne okazały się sieci neuronowe.

ESI: Perceptrony proste i liniowe

Sieci neuronowe i algorytmy uczenia Czyli co i jak andrzej.rusiecki.staff.iiar.pwr.wroc.pl s.

PRZEWODNIK PO PRZEDMIOCIE

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.

Elementy kognitywistyki III: Modele i architektury poznawcze

Wstęp do teorii sztucznej inteligencji

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Uczenie Wielowarstwowych Sieci Neuronów o

Sieci Rekurencyjne 1 / 33. Sieci Rekurencyjne. Nguyen Hung Son

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

Sieci neuronowe i ich ciekawe zastosowania. Autor: Wojciech Jamrozy III rok SMP / Informatyka

Wstęp do sieci neuronowych, wykład 01 Neuron biologiczny. Model perceptronu prostego.

SIECI KOHONENA UCZENIE BEZ NAUCZYCIELA JOANNA GRABSKA-CHRZĄSTOWSKA

Sieci neuronowe. - wprowadzenie - Istota inteligencji. WYKŁAD Piotr Ciskowski

Transkrypt:

INTELIGENTNE TECHNIKI KOMPUTEROWE wykład SZTUCZNE SIECI NEURONOWE HISTORIA SSN Walter Pitts, Warren McCulloch (94) opracowanie matematyczne pojęcia sztucznego neuronu.. Udowodnili też, iż ich wynalazek jest w stanie odzwierciedlić w swym działaniu dowolną funkcję logiczną. Donald Olding Hebb (949) psychologia: jakość połączenia dwóch neuronów wyznaczana jest poprzez liczbę efektywnych przepływów sygnału s pomiędzy nimi -> zasada uczenia się Hebba (Hebbian learning) ) dla sztucznych sieci neuronowych (SSN). Frank Rosenblatt (958) pierwszy funkcjonujący model SSN (perceptron) oraz pierwszy z algorytmów uczenia SSN (do nauczenia perceptronu rozpoznawania liter alfabetu łacińskiego). Określił również zasadę, iż perceptron zbudowany wg jego teorii jest w stanie rozwiązać każdy problem liniowo separowalny HISTORIA SSN Bernard Widrow i Ted Hoff (96) - neuron typu Adaline z liniową funkcją aktywacji oraz algorytm uczenia LMS ( (Least Mean Square), ), zwany regułą delty lub regułą Widrowa-Hoffa Hoffa. John Hopfield (98) teoria pamięci asocjacyjnej,, jako istoty działania sieci rekurencyjnych (sieci Hopfielda). Paul Werbos (974); David Rumelhart,, Geoffrey Hinton, Ronald Williams (986) - wsteczna propagacja błędów (backpropagation) pozwalająca na rozwiązywanie problemów liniowo nieseparowalnych. 4 ZALETY SSN: Nie wymagają programowania (tylko uczenie); Mają zdolność uogólniania; Są wysoce odporne na szumy i zniekształcenia sygnału; KLASY ZASTOSOWAŃ: PREDYKCJA ze znajomości: f ( x nk), f( x n k+ ),..., f( x n) przewidzieć : f( x n+ ) { } Pomagają wykrywać istotne powiązania pomiędzy danymi. Stosuje się je gdy istnieje duża złożoność zagadnienia i trudno jest jednoznacznie określić formalne kryteria, dla stworzenia programu komputerowego. 5 bez jawnego definiowania związku między danymi wejściowymi a wyjściowymi 6

KLASYFIKACJA I ROZPOZNAWANIE WZORCÓW zaszeregowanie danych wejściowych do jednej z klas: APROKSYMACJA (interpolacja, ekstrapolacja) ze znajomości: odtworzyć: { x, f( x )} i f ( x) i ASOCJACJA Podanie danego wzorca na wejście powinno powodować pojawienie się odpowiadającego mu wzorca na wyjściu. np. sieć pozwala na podstawie danych bilansowych stwierdzić, czy dane przedsiębiorstwo należy do zwyżkujących gospodarczo, czy przeżywa stagnację czy też grozi mu regres regres. 7 8 STEROWANIE FILTRACJA SYGNAŁÓW KOJARZENIE DANYCH automatyzacja procesów wnioskowania i wykrywanie istotnych powiązań między danymi. OPTYMALIZACJA statyczna i dynamiczna, optymalizacja kombinato- ryczna i zagadnienia bardzo trudne obliczeniowo. 9 PRZYKŁADOWE ZASTOSOWANIA: NIE NADAJĄ SIĘ DO: Przetwarzania informacji symbolicznej (np. edytory tekstu); Obliczeń o wymaganej wysokiej dokładności (sieć pracuje jakościowo, dając wyniki przybliżone); Rozwiązywania zagadnień, gdzie rozumowanie jest przeprowadzanie wieloetapowo (a musi być udokumentowane).

KOMÓRKA NERWOWA CZŁOWIEKA W tkance nerwowej: B. Komórki nerwowe (neurony) A. Komórki glejowe Jest ich więcej; Pełnią rolę pomocniczą (funkcje podporowe, odżywcze, odgraniczające i regenerujące) Są stosunkowo małe i mają kształt gwiazdy. nie będą nas dalej interesować... Dendryty zbierają sygnały z innych komórek nerwowych. Ciało komórki agreguje sygnały wejściowe i tworzy sygnał wyjściowy. Akson wyprowadza sygnał wyjściowy i przekazuje go dalej. 4 Synapsa - przekazuje sygnał między aksonem a dendrytem (każda komórka nerwowa posiada średnio kilka tysięcy synaps). Poszczególne synapsy różnią się wielkością oraz możli- wością gromadzenia neuroprzekaźników w pobliżu błony synaptycznej. Chemiczno-elektryczne elektryczne przekazywanie sygnałów: Pod wpływem przychodzących bodźców wydzielane są neuroprzekaźniki; Neuroprzekaźniki oddziałują na błonę komórki zmieniając jej potencjał elektryczny. 5 Dlatego taki sam impuls na wejściu komórki może po- wodować inne jej pobudzenie niż dla innego wejścia. STATYSTYKA: Liczba komórek nerwowych w mózgu ok. Połączeń nerwowych ok. 4 ; ; Częstotliwość biologicznego neuronu ok. kilkaset Hz. 6 Perceptron (Rosenblatt 958): Sprzętowo: Pojedynczy perceptron pozwala na: Układ posiadający wiele wejść i jedno wyjście: Wejście cie: n stanów wejsciowych x,...,x n Wyjście: lub Uwaga: pod pojęciem perceptronu perceptronu rozumie się też czasem siec połączonych jednostek (neuronów). 7 przetwarzanie jednostkowych informacji; podejmowanie prostych decyzji; przekazywanie wyników sąsiadom. Dopiero w połączeniu z innymi węzłami uzyskuje się zdolność podejmowania złożonych decyzji. 8

Sygnał wyjściowy y i i-tego neuronu liniowego : y N = w x i ij j j= w ij waga dla j-ego ego wejścia i-tegotego neuronu; x j j-tyty sygnał wejściowy ciowy; N liczba wejść w i-tym neuronie; 9 Sygnał wyjściowy y i i-tego neuronu (ogólnie) lnie): N yi = ϕ() e = ϕ wijxj + B j= e łączne pobudzenie neuronu (net value) ϕ funkcja aktywacji; W B próg (bias). neuronie liniowym e jest sygnałem wyjściowym Poprawka wartości wagi dla perceptronu w j-ymym kroku (reguła( delta): w =ηδ x ( j) ( j) ( j) i i x, w wagi neuronu sygnał WE Sygnał WY jest tym większy, im bardziej sygnał WE będzie przypominał wagę (dla. sygnałów znormalizowanych). γ x, w δ = z y ( j) ( j) ( j) z wymagana odpowiedź neuronu; y uzyskana odpowiedź neuronu; x i dana wejściowa dla i-tego tego wejścia. η - współczynnik uczenia (learning rate) Kąt pomiędzy wektorem em WE a wektorem wag: - mały silny sygnał pozytywny; - bliski 9 słaby sygnał neutralny (bliski ); - duży silny sygnał negatywny. Dł.. wektora WE znacząco co mniejsza od dł. d. wektora wag sygnał neutralny (niezależnie od kierunku wektora WE). Waga: - dodatnia - sygnał pobudzający; - ujemna sygnał gaszący; - - brak połączenia między neuronami. Sygnały y wyjściowe:, (funkcje unipolarne) -, (funkcje bipolarne). FUNKCJA AKTYWACJI Wartość f. aktywacji sygnał wyjściowy neuronu. liniowa f. aktywacji; nieliniowa f. aktywacji: - f. skoku jednostkowego (progowa), np.: ϕ ( e) = { gdy e gdy e< - inna, np. typu sigmoidalnego (f. logistyczna): ϕ( e) = + exp( β e) β współczynnik sterujący nachyleniem krzywej 4 4

Sieć liniowa: Liniowe odwzorowanie zbioru sygnałów w WE w zbiór sygnałów w WY. Ograniczone zastosowanie. Sieć nieliniowa: Nieliniowe odwzorowanie zbioru sygnałów w WE w zbiór sygnałów w WY. Odpowiednio duża - praktycznie dowolny charakter odwzorowania. WYMAGANE CECHY F. AKTYWACJI: Ciągłe e przejście pomiędzy wartości cią maksymalną a minimalną. Łatwa do obliczenia i ciągł ągła a pochodna np. dla f. sigmoidalnej: ϕ() e = + exp( β e) [ ] ϕ'( e) = β ϕ( e) ϕ( e) Możliwo liwość wprowadzenia do argumentu parametru β do ustalania kształtu tu krzywej. odwzorowania. 5 6 WSPÓŁCZYNNIK β Bipolarny odpowiednik f. sigmoidalnej:.5 beta= beta=.5 beta= exp( βe) exp( βe) ϕ() e = = tgh( βe) exp( βe) + exp( βe) [ ] [ ] ϕ'( e) = β + ϕ( e) ϕ( e) - -5 5 BIAS.5 bias= - -5 5 beta=.5.5 bias=- bias= -.5 - -5 5 7-8 SIEĆ NEURONOWA: - układ połą łączonych neuronów (model warstwowy) RODZAJE NEURONÓW: warstwy WE (nie liczona); warstw ukrytych: efekty działania obserwowane pośrednio poprzez WY; pośredniczenie między WE a WY; niemożność dokładnego obliczenia błędów; warstwy WY (rozwiązania stawianych zadań). Sieć jednowarstwowa Sieć wielowarstwowa Sieć wielowarstwowa min. jedna warstwa ukryta. Zwykle: kilka warstw, połą łączenia każdy z każdym (min. liczba parametrów do opisu). 9 Pamięć neuronu reprezentowana poprzez wagi. Sieć działa a jako całość ść. 5

KLASY SIECI: feed-forward forward (jednokierunkowe) najczęściej stosowane; rekurencyjne sprzężenia zwrotne; sieci Kohonena samoorganizujące się; sieci radialne (RBF) - uniwersalny aproksymator. Projektowanie sieci - problemy: ile warstw ukrytych? ile neuronów w w warstwach? STRUKTURA SIECI: - ważna, lecz nie do przesady: wystarczający cy potencjał intelektualny ; rozsądna. Struktura SSN wpływa na: szybkość uczenia; wielkość popełnianego błędu; zdolność generalizacji Liczba neuronów w w warstwie WE: zależy y od liczby danych podawanych na wejście. Liczba neuronów w w warstwie WY: zależy y od liczby poszukiwanych rozwiąza zań. zdolność generalizacji Dobór r optymalnej struktury SSN: główne grupy algorytmów pomocnych w utworzeniu sieci optymalnej : metody wzrostu; metody redukcji, metody optymalizacji dyskretnej. Metody wzrostu: - na początku procesu optymalizacji struktura sieci powinna być możliwie mała; - w kolejnych iteracjach są dodawane kolejne neurony ukryte (co powinno powodować zwiększenie sprawności działania sieci); - neurony są dodawane aż do osiągnięcia punktu Metody redukcji na początku procesu optymalizacji struktura sieci powinna być możliwie złożona; w kolejnych iteracjach są usuwane kolejne neurony lub połączenia między nimi (co powinno powodować zwiększenie sprawności działania sieci); postępowanie jest powtarzane aż do osiągnięcia punktu optymalnego. optymalnego. 4 Metody optymalizacji dyskretnej opierają się na założeniu, że proces nauki sieci i wyboru architektury zachodzą równocześnie; czynnikiem ocenianym jest określona funkcja, reprezentująca jakość danej sieci; w kolejnych krokach sieci dobierane są tak, by dążyć do maksymalizacji funkcji jakości; możliwe jest wykorzystanie AE jako metody optymalizacji. Żadna z tych metod nie jest idealna.. Często wybór którejś z nich zależy od rodzaju rozwiązywanego problemu. 5 Przykład (met. wzrostu): Rozpoznawanie znaków alfabetu WE - 5 (pikseli) WY -6 (liter) a co wewnątrz? Wstępnie pnie: 5 4 6 6 6

Sieć z warstwą ukrytą powinna nauczyć się roz- wiązywania większo kszości postawionych problemów. Nieznane sąs problemy wymagające sieci z więcej niż warstwami ukrytymi (zwykle lub ). Liczbę neuronów w w warstwie ukrytej można próbowa bować oszacować: Ostatecznie: 5 9 6 7 N = N * N u we wy 8 Zbyt mało neuronów w w warstwie ukrytej sieć nie potrafi poprawnie odwzorować funkcji. Zbyt wiele elementów w warstwy ukrytej: wydłużenie procesu uczenia; uczenie się na pamięć ęć (szczególnie, gdy liczba próbek w ciągu uczącym cym jest niewielka) - sieć poprawnie rozpoznaje tylko sygnały y zgodne z tymi w ciągu uczącym cym ( brak generalizacji przy dobrej interpolacji). Np Np.(L. Rutkowski, Metody i techniki sztucznej inteligencji, PWN, W-wa 6): Ciąg g uczący: cy: Wejście x Oczekiwane wyjście d=f(x) [ ] y = sin( x), x, π π 6.5 π 4 π 4 5 π 6 7 8 9 4 5 7π 4π 5π 5π π π 5π π 7π π 6 4 6 4 6 4 -.5 9 5 4 Dobór próbek (ciąg uczący) wpływa na jakość nauczania: Zbyt długie uczenie również może skutkować utratą zdolności uogólniania: odpowiedź na ciąg uczący odpowiedź na ciąg testowy Ghaboussi, CISM 7 4 Ghaboussi, CISM 7 4 7

UCZENIE SIECI NEURONOWYCH Uczenie z nauczycielem Zamiast programowania! Wymuszanie określonego reagowania sieci na zadane sygnały y wejściowe (poprzez odpowiedni dobór wag). Ta sama sieć może e służyćs do rozwiązywania zywania skrajnie różnych r zadań. Warianty uczenia: uczenie z nauczycielem (nadzorowane); uczenie z krytykiem; uczenie bez nauczyciela (nienadzorowane). 4 Podawanie sieci zestawów w sygnałów w WE wraz z prawidłowym sygnałem WY. Naśladowanie nauczyciela,, jakim jest ciąg g uczący cy. Zestawy sygnałów w (zwykle) powtarza się wielokrotnie, zaś sieć modyfikuje wagi na wejściach tak, by zmini- malizować błąd. Zmiana wagi na i-tym wejściu neuronu po pokazaniu j-ego obiektu uczącego cego jest proporcjonalna do popełnianego na tym etapie błęb łędu δ ( j ). 44 Uczenie z krytykiem (reinforcement learning): Uczenie bez nauczyciela Odmiana uczenia nadzorowanego. Nauczyciel nie dysponuje pełną wiedzą na temat wszystkich prawidłowych odpowiedzi. Zamiast informacji o pożą żądanym WY, sieć dysponuje jedynie oceną efektu swego działania ania w ramach dwóch prostych kategorii. Ocena wzmocnienie (pozytywne lub negatywne) odpowiednie zmiany wag. Bardziej uniwersalne w zastosowaniu podejśc ście do problemu. Praktyczna realizacja jest bardziej skomplikowana. 45 Donald Hebb (fizjolog i psycholog) w umyśle za- chodzą procesy wzmacniania połą łączeń między neuro- nami,, jeśl śli i zostały y one pobudzone jednocześnie. nie. Pożą żądana odpowiedź nie jest znana. Sieć uczy się poprzez analizę reakcji na pobudzenia; samoorganizacja struktury wszelkie regularności ci, linie podziału i inne charakterystyki danych wejściowych sieć musi wykryć sama. Zdolności do wykrywania skupisk obrazów wejścio cio- wych są wykorzystywane do ich klasyfikacji,, gdy klasy nie sąs z góry g ustalone. 46 Sieci pokazuje się kolejne przykłady bez określenia, co trzeba z nimi zrobić. Uczenie bez nauczyciela - wady Zwykle powolniejsze. Różne pobudzenie różnych neuronów - połączenia między źródłami silnych sygnałów a neuronami, które na nie reagują są wzmacniane. W sieci stopniowo powstają wzorce poszczególnych typów sygnałów rozpoznawane przez pewną część neuronów. Nie wiadomo, który neuron będzie b rozpoznawał jaki sygnał. Część sygnałów w może e być rozpoznawana przez więcej niż jeden neuron. Część sygnałów w może e nie być rozpoznawana przez ża- den neuron (sieć musi być większa niż przy nauczycielu zwykle przynajmniej razy). 47 48 8