Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

Podobne dokumenty
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wprowadzenie do Sieci Neuronowych Laboratorium 04 Algorytmy konstrukcyjne dla sieci skierowanych

Metody Sztucznej Inteligencji II

Podstawy sztucznej inteligencji

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty

Inteligentne systemy przeciw atakom sieciowym

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Wprowadzenie do Sieci Neuronowych Laboratorium 05 Algorytm wstecznej propagacji błędu

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Uczenie sieci neuronowych i bayesowskich

Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I.

Elementy inteligencji obliczeniowej

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Projekt Sieci neuronowe

1. Logika, funkcje logiczne, preceptron.

Wprowadzenie do Sieci Neuronowych lista zadań 1

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Wstęp do sieci neuronowych, wykład 01 Neuron biologiczny. Model perceptronu prostego.

Wstęp do Sieci Neuronowych

Elektroniczne materiały dydaktyczne do przedmiotu Wstęp do Sieci Neuronowych

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Wprowadzenie do Sieci Neuronowych Laboratorium 02 Perceptron prosty cd

Wstęp do sieci neuronowych, wykład 8 Uczenie nienadzorowane.

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

wiedzy Sieci neuronowe

Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

Wstęp do Sieci Neuronowych

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Sztuczne sieci neuronowe

Wstęp do sieci neuronowych, wykład 01 Neuron biologiczny. Model perceptronu prostego.

Sztuczne sieci neuronowe (SNN)

Uczenie sieci radialnych (RBF)

ALGORYTMY SZTUCZNEJ INTELIGENCJI

Zastosowania sieci neuronowych

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Systemy uczące się Lab 4

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Podstawy Sztucznej Inteligencji (PSZT)

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Wstęp do sieci neuronowych, wykład 09, Walidacja jakości uczenia. Metody statystyczne.

SZTUCZNA INTELIGENCJA

Zestaw zadań 5: Sumy i sumy proste podprzestrzeni. Baza i wymiar. Rzędy macierzy. Struktura zbioru rozwiązań układu równań.

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

8. Neuron z ciągłą funkcją aktywacji.

Wprowadzenie do Sieci Neuronowych Laboratorium 06 Algorytm wstecznej propagacji błędu

Zastosowania sieci neuronowych

Wykład 1_2 Algorytmy sortowania tablic Sortowanie bąbelkowe

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Sortowanie topologiczne skierowanych grafów acyklicznych

Temat: Sieci neuronowe oraz technologia CUDA

Sieci neuronowe w Statistica

wiedzy Sieci neuronowe (c.d.)

Sieci neuronowe i ich ciekawe zastosowania. Autor: Wojciech Jamrozy III rok SMP / Informatyka

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Sztuczne sieci neuronowe

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.

Układy równań i nierówności liniowych

ELEMENTY SZTUCZNEJ INTELIGENCJI. Sztuczne sieci neuronowe

SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU)

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

PAMIĘĆ RAM. Rysunek 1. Blokowy schemat pamięci

Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa

Uczenie sieci typu MLP

Wstęp do sieci neuronowych, wykład 13-14, Walidacja jakości uczenia. Metody statystyczne.

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova

Wykład z Technologii Informacyjnych. Piotr Mika

Sieć przesyłająca żetony CP (counter propagation)

Optymalizacja ciągła

Metody systemowe i decyzyjne w informatyce

Asynchroniczne statyczne układy sekwencyjne

6. Perceptron Rosenblatta

Struktury danych i złożoność obliczeniowa Wykład 7. Prof. dr hab. inż. Jan Magott

Zapisywanie algorytmów w języku programowania

Lekcja 5: Sieć Kohonena i sieć ART

PODSTAWY INFORMATYKI 1 PRACOWNIA NR 6

Sztuczna Inteligencja Projekt

Wstęp do sztucznych sieci neuronowych

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron

SIECI RBF (RADIAL BASIS FUNCTIONS)

Definicja perceptronu wielowarstwowego

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Algorytmy sztucznej inteligencji

Jarosław Wróblewski Analiza Matematyczna 1A, zima 2012/13

Sztuczne siei neuronowe - wprowadzenie

Podstawy sztucznej inteligencji

Transkrypt:

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. dla sieci skierowanych Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-25

1 Motywacja Sieć skierowana Siła opisu sieci skierowanej 2 3 Zadania do przemyślenia

Motywacja Sieć skierowana Siła opisu sieci skierowanej 1 Motywacja Sieć skierowana Siła opisu sieci skierowanej 2 3 Zadania do przemyślenia

Motywacja Sieć skierowana Siła opisu sieci skierowanej 1 Motywacja Sieć skierowana Siła opisu sieci skierowanej 2 3 Zadania do przemyślenia

Ograniczenia pojedynczego neuronu Motywacja Sieć skierowana Siła opisu sieci skierowanej Klasyfikacja wyłącznie problemów liniowo separowalnych, Co, gdy mamy trudniejszy problem? 6 4 2 0-2 -4-6 -6-4 -2 0 2 4 6

Ograniczenia pojedynczego neuronu Motywacja Sieć skierowana Siła opisu sieci skierowanej Albo bardzo zgrubne rozwiązania, albo perceptron całkowicie głupieje. Czy da się temu zaradzić? Znalezienie odpowiedzi zajęło ok 5 lat, jej spopularyzowanie kolejne 5.

Koncepcja sieci skierowanej Motywacja Sieć skierowana Siła opisu sieci skierowanej

Koncepcja sieci skierowanej Motywacja Sieć skierowana Siła opisu sieci skierowanej Wejścia (liczby całkowite, rzeczywiste...) x 1,.., x n, Zbiór perceptronów, każdy z własnym zestawem wag, Graf sieci skierowany i acykliczny, rozpięty na perceptronach, Wejściami do perceptronów są: dane wejściowe do sieci oraz mogą być wyjścia z dowolnych perceptronów leżących wcześniej, Odpowiedzi perceptronów bez potomków (liście) są traktowane jako wyjścia z całej sieci.

Dynamika sieci skierowanej Motywacja Sieć skierowana Siła opisu sieci skierowanej Działanie synchroniczne, Każdy neuron czeka, aż wszyscy rodzice zostaną obliczeni, Na koniec zwracana jest odpowiedź sieci (liczba lub wektor liczb), W implementacji: obliczenia po kolei według kolejności sortowania topologicznego, Jeżeli topologia na to pozwala, to można zrównoleglać obliczenia neuronów,

Przykład Motywacja Sieć skierowana Siła opisu sieci skierowanej Sieć rozwiązująca XOR out

Funkcje logiczne Motywacja Sieć skierowana Siła opisu sieci skierowanej Koniunktywna postać normalna zdania logicznego. Zapis równoważnego zdania w postaci koniunkcji alternatyw zmiennych lub negacji zmiennych, (A B C) (C D E) A Każde zdanie rachunku logiki boolowskiej da się zapisać w CNF (Conjunctive Normal Form), W szczególności A xor B = (A B) ( A B).

Funkcje logiczne Motywacja Sieć skierowana Siła opisu sieci skierowanej (A B C) (C D E) A

Funkcje na R d Motywacja Sieć skierowana Siła opisu sieci skierowanej Sieć bez warstw ukrytych jest w stanie przybliżać funkcje liniowo separowalne. 2 1.5 1 0.5 0-0.5-1 -1-0.5 0 0.5 1 1.5 2

Funkcje na R d Motywacja Sieć skierowana Siła opisu sieci skierowanej Sieci z jedną warstwą ukrytą są w stanie przybliżać funkcje ciągłe. 2 1.5 1 0.5 0-0.5-1 -1-0.5 0 0.5 1 1.5 2

Funkcje na R d Motywacja Sieć skierowana Siła opisu sieci skierowanej Sieci z dwiema lub więcej warstwami ukrytymi są w stanie przybliżać funkcje nieciągłe. 2 1.5 1 0.5 0-0.5-1 -1-0.5 0 0.5 1 1.5 2

Jakie grafy sieci? Motywacja Sieć skierowana Siła opisu sieci skierowanej Dające dobre rezultaty, Proste w implementacji (regularne, niezbyt gęste), Zdatne do zrównoleglenia (warstwowe).

Motywacja Sieć skierowana Siła opisu sieci skierowanej Sieć (wielo) warstwowa ((multi) layer network) out

1 Motywacja Sieć skierowana Siła opisu sieci skierowanej 2 3 Zadania do przemyślenia

Zagadnienie Daną mamy listę przykładów uczących tj. punkt E k R n, odpowiadającą mu poprawną klasyfikację C k { 1, +1}.

Zagadnienie Daną mamy listę przykładów uczących tj. punkt E k R n, odpowiadającą mu poprawną klasyfikację C k { 1, +1}. Chcemy znaleźć skierowaną sieć neuronów, to jest graf wraz z wagami, który klasyfikuje poprawnie możliwie najwięcej spośród danych uczących.

Zagadnienie Daną mamy listę przykładów uczących tj. punkt E k R n, odpowiadającą mu poprawną klasyfikację C k { 1, +1}. Chcemy znaleźć skierowaną sieć neuronów, to jest graf wraz z wagami, który klasyfikuje poprawnie możliwie najwięcej spośród danych uczących. w i,j =?

Zagadnienie Daną mamy listę przykładów uczących tj. punkt E k R n, odpowiadającą mu poprawną klasyfikację C k { 1, +1}. Chcemy znaleźć skierowaną sieć neuronów, to jest graf wraz z wagami, który klasyfikuje poprawnie możliwie najwięcej spośród danych uczących. w i,j =???? out

Algorytm Wieżowy......

1 Rozpocznij od sieci składającej się z pojedynczego perceptronu z progową funkcją aktywacji, 2 Naucz jedyny perceptron algorytmem kieszonkowym (z zapadką), 3 Powtarzaj aż do uzyskania zadowalającego rezultatu (tj. zadowalający poziom klasyfikacji, limit czasowy itp.) Na szczyt wieży dodaj kolejny neuron. Jego wejściami będą dane uczące E 1,.., E n oraz wyjście neuronu leżącego bezpośrednio niżej, Naucz szczytowy neuron algorytmem kieszonkowym (z zapadką), za n + 1-sze wejścia przyjmij wyniki z neuronu niższego, Jako wynik całej sieci zwracany będzie wynik nowo-dodanego perceptronu, 4 Zwróć wynikową sieć.

out...

out out......

out out out.........

out out out out............

Uzasadnienie Przyjmijmy oznaczenia: O j jednostka j-ta, O j+1 jednostka j + 1-sza, ta jednostka będzie uczona, E k k-ty przykład uczący, źle klasyfikowany przez O j, n ilość wejść (wymiar danych), θ j+1 próg jednostki O j+1, 0 < ε 1 mała stała dodatnia, w i,j+1 wagi neuronu O j+1 stowarzyszone z danymi wejściowymi, w j,j+1 waga neuronu O j+1 stowarzyszona wejściem pochodzącym z jednostki O j.

Uzasadnienie Przypiszmy: w i,j+1 :=C k E k i w j,j+1 :=n ε θ j+1 := 1 2 C k

Uzasadnienie out Przypiszmy: w i,j+1 :=C k E k i w j,j+1 :=n ε θ j+1 := 1 2 C k...

Uzasadnienie Pokażemy, że sieć z dodanym neuronem O j+1 jest w stanie zaklasyfikować poprawnie przynajmniej o jeden przykład uczący więcej.

Uzasadnienie Pokażemy, że sieć z dodanym neuronem O j+1 jest w stanie zaklasyfikować poprawnie przynajmniej o jeden przykład uczący więcej. Dla przykładu E k neuron O j+1 otrzyma na wejściu (n ε)( 1)C k + i C k E k i E k i = nc k nc k + εc k = εc k θ j+1 = 1 2 C k, więc sieć zwróci oczekiwaną odpowiedź na E k.

Uzasadnienie Dla pozostałych przykładów E j, j k neuron O j+1 zwróci tę samą odpowiedź co neuron O j : (n ε)o j + i C j E j i E k i,

Uzasadnienie Dla pozostałych przykładów E j, j k neuron O j+1 zwróci tę samą odpowiedź co neuron O j : (n ε)o j + i C j E j i E k i, Jeżeli dla każdego i E j i = Ei k oraz C k = C k, to oba przykłady E k oraz E j są te same i E j też będzie poprawnie klasyfikowany,

Uzasadnienie Dla pozostałych przykładów E j, j k neuron O j+1 zwróci tę samą odpowiedź co neuron O j : (n ε)o j + i C j E j i E k i, Jeżeli dla każdego i E j i = Ei k oraz C k = C k, to oba przykłady E k oraz E j są te same i E j też będzie poprawnie klasyfikowany, Jeżeli dla każdego i zachodzi E j i = Ei k oraz C k C k, to oba E k oraz E j są te same, ale mają oczekiwane różne odpowiedzi dane są sprzeczne i stuprocentowa klasyfikacja możliwa nie jest,

Uzasadnienie Dla pozostałych przykładów E j, j k neuron O j+1 zwróci tę samą odpowiedź co neuron O j : (n ε)o j + i C j E j i E k i, Jeżeli dla każdego i E j i = Ei k oraz C k = C k, to oba przykłady E k oraz E j są te same i E j też będzie poprawnie klasyfikowany, Jeżeli dla każdego i zachodzi E j i = Ei k oraz C k C k, to oba E k oraz E j są te same, ale mają oczekiwane różne odpowiedzi dane są sprzeczne i stuprocentowa klasyfikacja możliwa nie jest, Poza powyższymi przypadkami mamy C j E j i Ei k n 1. i

Uzasadnienie Suma ważona w jednostce O j+1 wyniesie zatem: (n ε)o j + i C j E j i E k i (n ε)o j + (n 1)C j,

Uzasadnienie Suma ważona w jednostce O j+1 wyniesie zatem: (n ε)o j + i C j E j i E k i (n ε)o j + (n 1)C j, Oraz próg: θ j+1 = 1 2 C k,

Uzasadnienie Suma ważona w jednostce O j+1 wyniesie zatem: (n ε)o j + i C j E j i E k i (n ε)o j + (n 1)C j, Oraz próg: θ j+1 = 1 2 C k, Jeżeli zatem ε nie będzie za duży, to zwrócona przez O j+1 odpowiedź będzie taka sama jak ta, którą zwrócił O j.

Mapy klasyfikacyjne click

Przykład 1/4 6 4 2 0-2 -4-6 -8-6 -4-2 0 2 4 6

Przykład 2/4 6 4 2 0-2 -4-6 -8-6 -4-2 0 2 4 6

Przykład 3/4 1 0.5 0-0.5-1-6-4 -2 0 2 4 6-8 -6-4 -2 0 2 4 6

Przykład 4/4 1 0.5 0-0.5-1-6-4 -2 0 2 4 6-8 -6-4 -2 0 2 4 6

Przestrzeń wag click

......

1 Rozpocznij od sieci składającej się z pojedynczego perceptronu z progową funkcją aktywacji, 2 Naucz jedyny preceptron algorytmem kieszonkowym (z zapadką), 3 Powtarzaj aż do uzyskania zadowalającego rezultatu (tj. zadowalający poziom klasyfikacji, limit czasowy itp.) Na szczyt wieży dodaj kolejny neuron. Jego wejściami będą dane uczące E 1,.., E n oraz wyjście wszystkich leżących niżej neuronów, Naucz szczytowy neuron algorytmem kieszonkowym (z zapadką), za n + 1,..., n + l-te wejścia przyjmij wyniki z neuronów niższych, Jako wynik całej sieci zwracany będzie wynik nowo-dodanego perceptronu, 4 Zwróć wynikową sieć.

out...

out out......

out out out.........

out out out out............

out out out out out...............

out

Rozpocznij od sieci składającej się z warstwy wejściowej L = 1, Dodaj do sieci L + 1 kafel, na razie składający się tylko z jednego neuronu. Dodany neuron za wejścia przyjmuje wszystkie wyjścia z kafla L. Za wyjście sieci przyjmij wyjście z nowego neuronu, Naucz dodaną jednostkę algorytmem kieszonkowym z zapadką. Jeżeli sieć klasyfikuje poprawnie wszystkie przykłady, to zakończ zwracając wynikową sieć, Jeżeli nie, to dodaj do L + 1-go kafla kolejny neuron. Naucz go algorytmem kieszonkowym z zapadką, ale tylko na takim zbiorze, że: poprzednie neurony w L + 1 kaflu dają na tych przykładach tę samą kombinację odpowiedzi (tj. z punktu widzenia sieci jest to ta sama klasa), oczekujemy, że mają być to przykłady z różnych klas, spośród wszystkich podzbiorów spełniających dwa powyższe warunki wybrany powinien być najliczniejszy.

cd. Jeżeli kafel poprawnie klasyfikuje wszystkie przykłady (tj. różnym kategoriom przypisuje różne zestawy odpowiedzi), to wróć do 2 (dodaj nowy kafel), jeżeli nie to wróć do 4 (dodaj nową jednostkę w tym samym kaflu), Zwróć wynikową sieć (oczekujemy odpowiedzi binarnej, więc ostatni kafel powinien liczyć tylko jedną jednostkę).

Przykład 1/8 Sieć out Dane 6 4 2 0-2 -4-6 -8-10 -5 0 5 10

Przykład 2/8 Sieć out Dane 6 4 2 0-2 -4-6 -8-10 -5 0 5 10

Przykład 3/8 Sieć out Dane 6 4 2 0-2 -4-6 -8-10 -5 0 5 10

Przykład 4/8 Sieć out Dane 6 4 2 0-2 -4-6 -8-10 -5 0 5 10

Przykład 5/8 Sieć out Dane 6 4 2 0-2 -4-6 -8-10 -5 0 5 10

Przykład 6/8 6 4 2 0-2 -4-6 -8-10 -5 0 5 10

Przykład 6/8 (0 1 1) 6 4 (1 1 1) 2 (0 0 1) 0 (1 0 1) -2 (0 1 0) -4 (1 1 0) -6-8 -10-5 0 5 10 (0 0 0) (1 0 0)

Przykład 7/8 Sieć Dane (0 1 1) (1 1 1) (0 0 1) out (0 1 0) (1 0 1) (1 1 0) (0 0 0) (1 0 0)

Przykład 8/8 Sieć Dane (0 1 1) (1 1 1) (0 0 1) out (0 1 0) (1 0 1) (1 1 0) (0 0 0) (1 0 0)

Tworzymy pojedynczą jednostkę U, która widzi wszystkie wejścia. Jej wyjście jest wyjściem całej sieci, Odkładamy U na stos wraz ze wszystkimi przykładami uczącymi, Dopóki stos jest niepusty, powtarzamy: zdejmujemy ze stosu jednostkę U i i zbiór stowarzyszonych z nią przykładów uczących, uczymy U i na jej przykładach algorytmem zapadkowym, jeżeli klasyfikacja U i jest w pełni zgodna, to rozpocznij następną iterację pętli (continue).

cd. Dopóki stos jest niepusty, powtarzamy: (...) jeżeli istnieją źle sklasyfikowane przykłady z oczekiwaną odpowiedzią +1 dla jednostki U i, to tworzymy nową jednostkę U i+, jej wejściami są wszystkie wejścia, jej wyjście wchodzi do U i z dużą wagą dodatnią, odkładamy U i+ na stos z następującym zbiorem uczącym: E k : U k i = 1, C k U i = +1 E k : C k U i = 1, to jest przykłady, które są klasyfikowane przez U i jako 1, a powinny +1 oraz przykłady, która powinny być klasyfikowane przez U i jako 1, Zbiór uczący dla U i+ jest mniejszy od U i o przykłady dodatnie, które są dobrze klasyfikowane,

cd. Dopóki stos jest niepusty, powtarzamy: (...) jeżeli istnieją źle sklasyfikowane przykłady z oczekiwaną odpowiedzią +1 dla jednostki U i, to (...) jeżeli istnieją źle sklasyfikowane przykłady z oczekiwaną odpowiedzią 1 dla U i, to tworzymy nową jednostkę U i, jej wejściami są wszystkie wejścia, jej wyjście wchodzi do U i z dużą wagą dodatnią, odkładamy U i na stos z następującym zbiorem uczącym: E k : U k i = +1, C k U i = 1 E k : C k U i = +1, to jest przykłady, które są klasyfikowane przez U i jako +1, a powinny 1 oraz przykłady, która powinny być klasyfikowane przez U i jako +1, zdejmujemy ze stosu następny neuron (continue), Zwracamy uzyskaną sieć.

Przykład 1/6 6 4 2 0-2 -4-6 -8-10 -5 0 5 10

Przykład 2/6 6 4 2 0-2 -4-6 -8-10 -5 0 5 10

Przykład 3/6 6 4 2 0-2 -4-6 -8-10 -5 0 5 10

Przykład 4/6 6 4 2 0-2 -4-6 -8-10 -5 0 5 10

Przykład 5/6 6 4 2 0-2 -4-6 -8-10 -5 0 5 10

Przykład 6/6 6 4 2 0-2 -4-6 -8-10 -5 0 5 10

Zadania do przemyślenia 1 Motywacja Sieć skierowana Siła opisu sieci skierowanej 2 3 Zadania do przemyślenia

Zadania do przemyślenia Zadania domowe Opisz różnice mięszy siecią wieżową, a piramidalną. Która z sieci ma większe możliwości opisu: wieżowa czy piramidalna? Skonstruuj sieć warstwową rozwiązującą problem IFF (if and only if). Skonstruuj dane jednowymiarowe / dwuwymiarowe, których nie będzie wstanie rozwiązać perceptron, a których nauczy się sieć. Podaj wagi sieci.

Zadania do przemyślenia Zadania domowe Dla sieci wieżowej, piramidalnej lub / i warstwowej wyświetl profil klasyfikacji fragmentu płaszczyzny. Wagi wygeneruj losowo. Przetestuj wykresy dla kilku sieci z różną ilością neuronów / warstw i neuronów w warstwie. (*) Skonstruuj dane dwuwymiarowe składające się z trzech przykładów uczących, którego nie będzie wstanie rozwiązać perceptron, a który rozwiąże sieć. Podaj wagi sieci. (*) Do tego samego zestawu danych zastosuj różne algorytmy konstrukcyjne. Porównaj uzyskaną jakość uczenia. Porównaj również czas uczenia oraz zużycie pamięci (ilość neuronów i wag).