ELEMENTY SZTUCZNEJ INTELIGENCJI. Sztuczne sieci neuronowe

Podobne dokumenty
Metody Sztucznej Inteligencji II

Podstawy sztucznej inteligencji

Inteligentne systemy przeciw atakom sieciowym

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Sztuczne sieci neuronowe

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

wiedzy Sieci neuronowe

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Elementy Sztucznej Inteligencji

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Elementy Sztucznej Inteligencji

Sztuczne sieci neuronowe

Inteligentne systemy informacyjne

Wstęp do sztucznych sieci neuronowych

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Podstawy Sztucznej Inteligencji (PSZT)

8. Neuron z ciągłą funkcją aktywacji.

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Elementy inteligencji obliczeniowej

Sztuczne sieci neuronowe (SNN)

Zastosowania sieci neuronowych

Podstawy sztucznej inteligencji

MODELOWANIE RZECZYWISTOŚCI

Temat: Sieci neuronowe oraz technologia CUDA

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

Lekcja 5: Sieć Kohonena i sieć ART

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

PRÓBA ZASTOSOWANIA SIECI NEURONOWYCH DO PROGNOZOWANIA OSIADAŃ POWIERZCHNI TERENU POWSTAŁYCH NA SKUTEK EKSPLOATACJI GÓRNICZEJ**

Uczenie sieci neuronowych i bayesowskich

6. Perceptron Rosenblatta

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

ALGORYTMY SZTUCZNEJ INTELIGENCJI

I EKSPLORACJA DANYCH

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE

Wykład 1: Wprowadzenie do sieci neuronowych

Zastosowania sieci neuronowych

Sztuczne siei neuronowe - wprowadzenie

SIEĆ NEURONOWA JAKO NARZĘDZIE APROKSYMACJI I KLASYFIKACJI DANYCH. Jakub Karbowski Gimnazjum nr 17 w Krakowie

OCENA DZIAŁANIA AE. METODY HEURYSTYCZNE wykład 4 LOSOWOŚĆ W AE KRZYWE ZBIEŻNOŚCI ANALIZA STATYSTYCZNA:

Seminarium magisterskie. Dyskusja nad tematem pracy magisterskiej pisanej pod kierunkiem pani Dr hab. Małgorzaty Doman

Obliczenia Naturalne - Sztuczne sieci neuronowe

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2013/2014

Sieci neuronowe w Statistica

SZTUCZNA INTELIGENCJA

Instrukcja realizacji ćwiczenia

Projekt Sieci neuronowe

Algorytmy sztucznej inteligencji

Sieć przesyłająca żetony CP (counter propagation)

METODY INŻYNIERII WIEDZY

1. Logika, funkcje logiczne, preceptron.

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.

Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe. Krzysztof Regulski, WIMiIP, KISiM, B5, pok. 408

Uczenie sieci typu MLP

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści

Budowa sztucznych sieci neuronowych do prognozowania. Przykład jednostek uczestnictwa otwartego funduszu inwestycyjnego

Badacze zbudowali wiele systemów technicznych, naśladujących w komputerze ludzki mózg. Najbardziej pożyteczne okazały się sieci neuronowe.

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

Sieci neuronowe i ich ciekawe zastosowania. Autor: Wojciech Jamrozy III rok SMP / Informatyka

Sztuczna inteligencja

Systemy uczące się wykład 2

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

Sztuczne sieci neuronowe. Uczenie, zastosowania

Wprowadzenie do uczenia maszynowego

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak

Widzenie komputerowe

Przetworniki cyfrowo analogowe oraz analogowo - cyfrowe

Podstawy Sztucznej Inteligencji

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

SZTUCZNA INTELIGENCJA

wiedzy Sieci neuronowe (c.d.)

Aproksymacja funkcji a regresja symboliczna

Optymalizacja ciągła

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

WYKŁAD 9 METODY ZMIENNEJ METRYKI

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW

Elementy kognitywistyki III: Modele i architektury poznawcze

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Emergentne właściwości. sztucznych sieci neuronowych

Transkrypt:

ELEMENTY SZTUCZNEJ INTELIGENCJI Sztuczne sieci neuronowe

Plan 2 Wzorce biologiczne. Idea SSN - model sztucznego neuronu. Perceptron prosty i jego uczenie regułą delta Perceptron wielowarstwowy i jego uczenie metodą wstecznej propagacji błędów Zastosowania SSN.

3 Mózg jako wydajna maszyna licząca. Wzorowanie się na budowie mózgu człowieka. Systemy przetwarzające informację.

Mózg dane 4 Mózg składa się z elementarnych komórek nerwowych neuronów. Ilość neuronów w mózgu to szacunkowo 0 miliardów. Każdy neuron: połączony jest z dużą liczbą komponentów (0 4 ). przeprowadza relatywnie proste obliczenia (ich natura jest niejasna). Przez neurony połączone w sieć przechodzą impulsy elektryczne z różną częstotliwością od do 00 Hz i o różnej amplitudzie. Mózg jest skuteczny dzięki masowemu zrównolegleniu.

Komórka nerwowa 5 Neuron składa się z:. Wielu dendrytów, których celem jest pobieranie impulsów z innych neuronów. 2. Ciała komórki z jądrem. 3. Jednego aksonu, który przekazuje impuls dalej. 4. Synaps neuroprzekaźników osłabiających lub wzmacniających sygnał.

Sztuczne sieci neuronowe idea 6 Uproszczony model mózgu. Składa się z pewnej liczby elementów przetwarzających informację (sztucznych neuronów). Elementy te są prymitywną imitacją neuronu biologicznego. Neurony są połączone poprzez powiązania o nadanych parametrach zwanych wagami, które są modyfikowane w trakcie uczenia. Topologia połączeń i wartości parametrów to architektura sieci. Rozwiązaniem sieci neuronowej są wartości (sygnały) pojawiające się na wyjściu dla zadanych wartości wejściowych.

7 Model sztucznego neuronu McCulloch-Pitts a 943 pierwszy matematyczny opis neuronu. Najprościej neuron można sobie wyobrazić jako przetwornik, który pobiera informacje ze wszystkich, tzw. wejść i na ich podstawie emituje sygnał wyjściowy. Każde wejście jest mnożone przez pewną wartość zwana wagą (wzmocnienie lub osłabienie sygnału). Sygnały wejściowe są sumowane, by następnie dopasować odpowiedź za pomocą funkcji aktywacji (przejścia neuronu).

8 Graficzna prezentacja modelu neuronu u 0 = =w 0 u u 2 w w 2 k a i w u i i f(a) y... w k u k

Funkcja aktywacji 9 Zachowanie neuronu jest silnie uzależnione od rodzaju funkcji aktywacji. Typy funkcji aktywacji nieciągłe: progowa, signum, ciągłe: liniowa, sigmoidalna gaussa.

Funkcja progowa (unipolarna) 0 f ( a) 0 gdy gdy a a 0 0

Funkcja signum (bipolarna) f ( a) 0 gdy gdy gdy a a a 0 0 0

Funkcja liniowa 2 f ( a) a

Funkcja sigmoidalna 3 f ( a) e a

Tangens hiperboliczny 4 e a e a f ( a) e a e a

Funkcja Gaussa 5 f ( a) e a 2

Cechy sztucznego neuronu 6 Wejścia i wagi są liczbami rzeczywistymi dodatnimi i ujemnymi. Jeżeli jakaś cecha (wejście) powoduje odpalenie neuronu, waga będzie dodatnia, a jeżeli cecha ma działanie hamujące to waga jest ujemna. Neuron dokonuje sumowania i dopasowania do progu (biasu). Przyjmuje się traktowanie progu jako wagi w 0, gdzie wejście jest zawsze równe.

Przykład działania 7 0 0 0 ) ( a gdy a gdy a f,55 0, 0,2 2 0,75 0,) ( ) ( 0,2 2) ( 0,5,5 a,5-2 0,2 0-0, 0,5 -

Neuron jako bramka logiczna 8 - -

Typy sieci neuronowych 9 Ze względu na funkcję aktywacji: liniowe (f(a) = a) nieliniowe radialne (funkcja gaussa) Ze względu na architekturę jednokierunkowe ze sprzężeniami zwrotnymi mieszane

Neuron liniowy 20 Bez funkcji aktywacji (funkcja aktywacji liniowa). u u2 uk w w2... wk y Działanie neuronu można opisać równaniem wektorowym: y = W T U, gdzie U=<u,u 2,...,u k > T, wektor wejść a W =<w,w 2,...,w k > T, wektor wag. Wyjście y będzie miało największą wartość, gdy położenie wektora wejściowego U, będzie najbardziej przypominać położenie wektora wag W. W wektorze wag zatem pamiętany jest sygnał wzorcowy.

Perceptron prosty 2 Najstarszą koncepcją [Rosenblatt 962] sieci neuronowej jest perceptron. Perceptron prosty składa się z jednej warstwy neuronów. W najprostszym przypadku składa się z pojedynczego neuronu. Jeżeli funkcja aktywacji to signum i sieć składa się z neuronu, to zadaniem perceptronu jest klasyfikacja wektora u=[u,...,u n ] T do jednej z dwóch klas: L (sygnał wyjścia ) lub L 2 (sygnał wyjścia równy -). Zatem perceptron dzieli przestrzeń wejść N-wymiarową hyperpłaszczyzną (granicą decyzyjną) o równaniu: k i w u i i k i0 w u i i 0

Analiza działania perceptronu 22 Zakładamy, że perceptron składa się z neuronu. Wejściami są dwie liczby u i u 2. Perceptron dzieli płaszczyznę dwuwymiarową granicą decyzyjną o wzorze: w u w2u stąd otrzymujemy: u 2 2 w0 w w 2 u w w 0 2 współczynnik kierunkowy w w 2 0 u2 L 2 - przesunięcie L w w u 0 2

Perceptron jednowarstwowy 23 u u 2 u 3 u n u n

Klasyfikacja do większej liczby klas 24 Wartości wyjścia są kodowane ciągiem o długości m (liczba neuronów w warstwie) wartościami i (funkcja aktywacji signum). Jeżeli potrzebujemy m elementów na kodowanie wymagamy m neuronów w perceptronie. np.. Klasa C=(-,-,,-). Przyporządkowanie wejść do klasy C nastąpi, gdy wyjścia z sieci będą kolejno przyjmować wartości: -,-,,-. Przyjmuje się, że potrzeba m wyjść by przyporządkować do m klas.

Uczenie się SSN z nauczycielem 25 Uczenie się jest procesem zmiany wartości wag i wartości progowych w SSN. Rozpatrując pojedynczy neuron: uczenie zmienia zatem współczynnik kierunkowy i przesunięcie granicy decyzyjnej. Jest to proces iteracyjny. Wymaga zebrania danych: Należy zebrać dane w parach: wejścia i wyjścia. np. cechy obiektów poddawanych klasyfikacji i klasa do której należą. Zbiór danych musi być na tyle duży by wybrać z niego dwie grupy danych: dane uczące i testujące.

Uczenie z nauczycielem cd. 26 Uczenie z nauczycielem polega na wskazaniu poprawnej klasyfikacji sygnału do odpowiednich klas pomimo braku znajomości wag. Po zakończeniu uczenia perceptron powinien poprawnie wskazywać przynależność podanego elementu do danej klasy, nawet dla sygnałów nie wchodzących w skład zbioru uczącego (dla zbioru testowego).

Uczenie regułą DELTA 27 Uczenie z nauczycielem dla sieci typu perceptron prosty: Zakładamy, że wektor wejściowy U jest związany zależnością funkcyjną z wyjściem y: y=f(u). Funkcja f nie musi być znana. Znane musi być z, które stanowi żądanie odnośnie sygnału wyjściowego: z=f(u). Algorytm uczenia regułą DELTA wymaga podania dla każdego zestawu wejść U wartości odpowiedzi z (zadana wartość odpowiedzi). Neuron na zadane sygnały U odpowiada pewną wartością y. Jeżeli jest ona różna od z to neuron nie jest nauczony odpowiedzi na sygnał U. Błąd popełniony przez sieć jest równy: =z-y.

DELTA cd. 28 Zła odpowiedź wymaga korekty. Dotychczasowy wektor wag zmieni się według wzoru: W =W+ U, gdzie współczynnik liczbowy decydujący o szybkości uczenia. Uczenie może odbywać się dla wielu punktów idealnych. Taki zbiór danych nazywa się zbiorem uczącym. Składa się on z par: <U j, z j >. W pierwszym kroku wymagane jest, by dane były jakieś wartości wag. Dobiera się je losowo. Celem procesu uczenia jest uzyskanie odpowiedzi neuronu y zgodnych z zadanymi odpowiedziami z, co można określić jako proces minimalizacji funkcji: Q gdzie j liczbą wzorców. 2 j ( z j y j ) 2

Algorytm uczenie metodą DELTA 29 Dane: problem klasyfikacji obiektu na podstawie n cech. Wektor wejść: (u,..., u n ). Klasyfikacja do dwóch klas: L () i L 2 (-). Obliczane: Zbiór wag (w 0,..,w n ).. Stwórz perceptron z n+ wejściami, wejście u 0 zawsze ma wartość (bias). 2. Inicjalizuj losowo wagi. 3. Dla wszystkich k wzorców uczących: a. Jeżeli wszystkie przykłady sklasyfikowane, wyświetl wagi i zakończ. b. W przeciwnym przypadku oblicz Err, które będzie równe u (bo =), gdy sklasyfikowane do klasy:, a powinno być do klasy: lub u (bo =-) w przeciwnym wypadku. c. Modyfikuj wagi : w t w t Err

Przykład dane 30 u u 2 k=0 wzorców 475 Hz 557 Hz Quality OK? 0.958 0.003 yes.043 0.00 yes.907 0.003 yes 0.780 0.002 yes 0.579 0.00 yes 0.003 0.05 no 0.00.748 no 0.04.839 no 0.007.02 no 0.004 0.24 no L L2 Zadanie: Nauczyć sieć klasyfikacji do 2 klas: yes (pęknięta) i no (nie pęknięta) dla zbioru opisującego dane z systemu rozpoznawania pękniętych dachówek. Uderzenia w pojedynczy element są rejestrowane i filtrowane. fuzzy.iau.dtu.dk/demo/detron/detron.ppt

log(u2) 557 Hz 3 Przykład wykres 2 0 - -2-3 -4-5 -6-7 Tile classifier (blue = target, red = neuron) -8-8 -7-6 -5-4 -3-2 - 0 2 log(u) 475 Hz o klasa wartości yes ; * klasa wartości no.

f(x) Przykład perceptron 32 Hard limiter w 0 w + f(x) 0 w 2 - -2 0 2 x Sieć zastosowana do zadania: perceptron prosty, funkcja aktywacja signum. (a) (b)

Przykład: opis postępowania 33 W procesie uczenia podajemy kolejne cele jako wejścia (oznaczane na czerwono) i sprawdzamy jakość klasyfikacji. Każdy punkt niewłaściwie sklasyfikowany (zaznaczony znakiem czerwonym odpowiedniej klasy) zmienia wagi i powoduje przesunięcie granicy decyzyjnej (zielona linia).

log(u2) 557 Hz Epoka : wzorzec źle sklasyfikowany, zmiana położenia granicy decyzyjnej 34 2 Tile classifier (blue = target, red = neuron) 0 - -2-3 -4-5 -6-7 -8-8 -7-6 -5-4 -3-2 - 0 2 log(u) 475 Hz

log(u2) 557 Hz Epoka : 2 wzorzec źle sklasyfikowany Tile classifier (blue = target, red = neuron) 2 0 - -2-3 -4-5 -6-7 35-8 -8-7 -6-5 -4-3 -2-0 2 log(u) 475 Hz

log(u2) 557 Hz Epoka : 3 wzorzec źle sklasyfikowany 2 Tile classifier (blue = target, red = neuron) 0 - -2-3 -4-5 -6-7 -8-8 -7-6 -5-4 -3-2 - 0 2 log(u) 475 Hz 36

log(u2) 557 Hz Epoka : 4 wzorzec źle sklasyfikowany 2 Tile classifier (blue = target, red = neuron) 0 - -2-3 -4-5 -6-7 -8-8 -7-6 -5-4 -3-2 - 0 2 log(u) 475 Hz 37

log(u2) 557 Hz Epoka : 5 wzorzec dobrze sklasyfikowany 2 Tile classifier (blue = target, red = neuron) 0 - -2-3 -4-5 -6-7 -8-8 -7-6 -5-4 -3-2 - 0 2 log(u) 475 Hz 38

log(u2) 557 Hz Epoka : wzorce 6 do 0 dobrze sklasyfikowane 2 Tile classifier (blue = target, red = neuron) 0 - -2-3 -4-5 -6-7 39-8 -8-7 -6-5 -4-3 -2-0 2 log(u) 475 Hz

log(u2) 557 Hz Epoka 2: wzorzec dobrze sklasyfikowany 2 Tile classifier (blue = target, red = neuron) 0 - -2-3 -4-5 -6-7 40-8 -8-7 -6-5 -4-3 -2-0 2 log(u) 475 Hz

log(u2) 557 Hz Epoka 2: wzorce 2 do 0 dobrze sklasyfikowane 2 Tile classifier (blue = target, red = neuron) 0 - -2-3 -4-5 -6-7 4-8 -8-7 -6-5 -4-3 -2-0 2 log(u) 475 Hz

42 ZWIĘKSZAMY WSPÓŁCZYNNIK UCZENIA Z 0,0 NA 0, i dokonujemy ponownego nauczania sieci

log(u2) 557 Hz Epoka : wzorzec źle sklasyfikowany 2 Tile classifier (blue = target, red = neuron) 0 - -2-3 -4-5 -6-7 -8-8 -7-6 -5-4 -3-2 - 0 2 log(u) 475 Hz 43

log(u2) 557 Hz Epoka : 2 wzorzec dobrze sklasyfikowany 2 Tile classifier (blue = target, red = neuron) 0 - -2-3 -4-5 -6-7 -8-8 -7-6 -5-4 -3-2 - 0 2 log(u) 475 Hz 44

log(u2) 557 Hz Epoka : wzorce od 3 do 0 dobrze sklasyfikowane 2 Tile classifier (blue = target, red = neuron) 0 - -2-3 -4-5 -6-7 -8-8 -7-6 -5-4 -3-2 - 0 2 log(u) 475 Hz 45

log(u2) 557 Hz Epoka 2: wzorce od do 0 poprawne. Granica pozostaje ustalona, nauczanie zakończone 2 Tile classifier (blue = target, red = neuron) 0 - -2-3 -4-5 -6-7 -8-8 -7-6 -5-4 -3-2 - 0 2 log(u) 475 Hz 46

47 ZWIĘKSZAMY WSPÓŁCZYNNIK UCZENIA Z 0, NA 0 i dokonujemy ponownego nauczania sieci

log(u2) 557 Hz Epoka : wzorzec źle sklasyfikowany 2 Tile classifier (blue = target, red = neuron) 0 - -2-3 -4-5 -6-7 -8-8 -7-6 -5-4 -3-2 - 0 2 log(u) 475 Hz 48

log(u2) 557 Hz Epoka : 2 wzorzec dobrze sklasyfikowany 2 Tile classifier (blue = target, red = neuron) 0 - -2-3 -4-5 -6-7 -8-8 -7-6 -5-4 -3-2 - 0 2 log(u) 475 Hz 49

log(u2) 557 Hz Epoka : wzorce od 3 do 5 dobrze sklasyfikowane. 6 niepoprawny, zmienia położenie granicy decyzyjnej. 2 Tile classifier (blue = target, red = neuron) 0 - -2-3 -4-5 -6-7 50-8 -8-7 -6-5 -4-3 -2-0 2 log(u) 475 Hz

log(u2) 557 Hz Epoka : 7 wzorzec dobrze sklasyfikowany 2 Tile classifier (blue = target, red = neuron) 0 - -2-3 -4-5 -6-7 5-8 -8-7 -6-5 -4-3 -2-0 2 log(u) 475 Hz

log(u2) 557 Hz Epoka : wzorce 8-0 (poprawne). Zbieżność niestabilna, współczynnik nauczania zbyt duży. 2 Tile classifier (blue = target, red = neuron) 0 - -2-3 -4-5 -6-7 -8-8 -7-6 -5-4 -3-2 - 0 2 log(u) 475 Hz 52

Problem typu XOR 53 u 2 L u Brak liniowej separowalności. Przy liniowym podziale z jedną granica decyzyjną nie uzyska się podziału. L2

Perceptron wielowarstwowy 54 u u 2 u 3 u 4 u n Perceptrony wielowarstwowe mogą zamodelować wszystko. Jeżeli element przetwarzający może być dowolną bramką logiczną AND, OR, NOT, to na podstawie określenie minimalnej biblioteki wiemy, że można a za pomocą takich elementów opisać dowolnie złożona funkcję.

Rozwiązanie problemu XOR 55 u u2 y 0 0 0 0 0 0 y= ~uu2+u~u2 u u2 - - -0.5-0.5-0.5 y -.5 u -0.9-0.5 u2 y Funkcja aktywacji: progowa.

56 Płaszczyzny klasyfikacji w zależności od modelu sieci

Jak długo uczyć? 57 Cel: znalezienie punktu równowagi pomiędzy dwoma celami: poprawną odpowiedzią na wzorce uczące i poprawną odpowiedzią na wzorce testujące (nowe) (zapamiętywanie kontra generalizacja) Można przyjąć, że zaprzestajemy uczenia po osiągnięciu saysfakcjonującego poziomu błędu np.. 5% Zadana liczba epok powoduje uniknięcie nieskończonych pętli. Jeżeli uczeniu przebiega zbyt długo ryzykuje się przeuczenie sieci.

Generalizacja 58 Najbardziej oczekiwana cecha sieci Sieci bardzo skomplikowane (duża liczba wag tworzą bardziej złożony model funkcję odwzorowania i są przez to bardziej skłonne do przeuczenia (nadmiernego dopasowania). Sieci z niewielką liczną neuronów (wag) mogą być niewystarczający silne do zamodelowania poszukiwanej funkcji odwzorowania wejść w wyjście (niedouczenie). Prawie zawsze większe sieci generują mniejszy błąd.

Dane dla sieci neuronowych 59 Należy zebrać dane niezbędne w procesie uczenia: pewną liczbę przypadków, z których każdy zawiera wartości dostępnych zmiennych wejściowych i wyjściowych określić, które zmienne powinny zostać uwzględnione i ile a także jakie przypadki należy zgromadzić. Wybierając zmienne (przynajmniej początkowy ich zestaw) kierujemy się intuicją. Przy pierwszej próbie powinno się uwzględnić wszystkie zmienne, które, mogą mieć znaczenie, gdyż potem, na etapie projektowania, zbiór ten będzie redukowany. http://www.statsoft.pl/textbook/glosfra_stat.html?http%3a%2f%2fwww.statsoft.pl%2ftextbook%2fglosu.html

Dane dla sieci neuronowych 60 Dane numeryczne są przeskalowywane do właściwego dla sieci przedziału (normalizacja). Wartości brakujące są zastępowane wartościami średnimi (lub innymi statystykami) obliczanymi na podstawie wartości zmiennych dostępnych w ciągu uczącym. Typ danych nominalnych takich jak Płeć = {Mężczyzna, Kobieta} zamienia się na wartości numeryczne. Przy dużej liczbie klas łączy się je w grupy. Wartości rzeczywiste poddaje się procesowi dyskretyzacji. http://www.statsoft.pl/textbook/glosfra_stat.html?http%3a%2f%2fwww.statsoft.pl%2ftextbook%2fglosu.html

Dane dla sieci neuronowych 6 Rozmiar zbioru uczącego uzależnia się od rozmiaru sieci. np.. że liczba przypadków powinna być dziesięciokrotnie większa od liczby połączeń występujących w sieci. W rzeczywistości liczba potrzebnych przypadków jest również uzależniona od złożoności zależności funkcyjnej poddawanej modelowaniu. Jednak zależność ta ma z reguły nieznaną postać trudno jest więc podać naprawdę wyczerpujący i trafny przepis, określający, ile elementów ciągu uczącego jest naprawdę nieodzownych. http://www.statsoft.pl/textbook/glosfra_stat.html?http%3a%2f%2fwww.statsoft.pl%2ftextbook%2fglosu.html

62 Zastosowania sieci neuronowych - predykcja Klasa zadań, w których na podstawie zbioru danych wejściowych określa się dane wyjściowe. Przykłady: ocena zdolności kredytowej, prognozy zmiany rynku, automatyczne sterowanie, gra na giełdzie. W wyniku procesu uczenia SSN nabywa zdolności określania wyjść dla zadanych wejść. Uczenie polega na prezentowaniu materiałów empirycznych z przeszłości. Nie trzeba znać, ani stawiać hipotez o naturze związku pomiędzy danymi wejściowymi a wyjściowymi - NIE TRZEBA ZNAĆ ZALEŻNOŚCI WEJŚCIE - WYJŚCIE.

63 Zastosowania sieci neuronowych - klasyfikacja i rozpoznanie Zadania, w których przydzielamy obiekty na podstawie pewnych cech do klas lub rozpoznajemy zgodność ze znanym wzorcem. Przykłady: rozpoznawanie znaków, twarzy, identyfikacja regionów zagrożonych bezrobociem. SSN przewiduje identyfikator klasy, do której może zaliczyć dane wejściowe. SSN sama znajduje istotne cechy podawanych danych, bez udziału jakiekolwiek teorii.

Zastosowania sieci neuronowych - 64 kojarzenie danych Zadania polegające na kojarzeniu dużej liczby faktów. Przykłady: wnioskowanie powiązań ekonomicznych. SSN automatyzują proces wnioskowania na podstawie zgromadzonych danych, w których wyszukują trendy, istotne powiązania z bardzo dużej liczby różnych współczynników

65 Zastosowania sieci neuronowych - analiza danych Znalezienie związków mających charakter przyczynowy dla danych ze zbioru wejściowego. Przykłady: analiza danych ekonomicznych i przewidywanie intencji podmiotów gospodarczych, określanie przyczyn niepowodzeń. SSN dają nowe możliwości znalezienia zależności pomiędzy danymi mającymi faktyczną przyczynę, ale mogą być to również związki incydentalne.

Zastosowania sieci neuronowych - 66 filtracja sygnałów Wycinanie sygnałów zaszumionego kanału, eliminacja zakłóceń o charakterze losowym. Przykłady: diagnostyka medyczna, telekomunikacja. Zadaniem SSN jest wyczyszczenie sygnału z przypadkowych zniekształceń. Sieć zapoznana z pewnym zestawem idealnych wzorców potrafi dopasowywać do nich zniekształcone wzorce.

Zastosowania sieci neuronowych 67 optymalizacja Szukanie optimów dla danego zagadnienia. Przykład: optymalne decyzje gospodarcze, optymalizacja ścieżek, układów cyfrowych. SSN poszukuje stanów stabilnych dla pewnego zestawu danych. Charakteryzują się one optymalnym rozłożeniem energii.