Uczenie sieci neuronowych i bayesowskich

Podobne dokumenty
Uniwersytet Mikołaja Kopernika. Wydział Matematyki i Informatyki. Jarosław Piersa piersaj(at)mat.uni.torun.pl

Wprowadzenie do Sieci Neuronowych Laboratorium 05 Algorytm wstecznej propagacji błędu

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Wprowadzenie do Sieci Neuronowych Laboratorium 06 Algorytm wstecznej propagacji błędu

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Elementy inteligencji obliczeniowej

Zastosowania sieci neuronowych

Podstawy Sztucznej Inteligencji (PSZT)

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Sztuczne sieci neuronowe

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Wprowadzenie do Sieci Neuronowych lista zadań 1

Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I.

Uczenie sieci typu MLP

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 01 Neuron biologiczny. Model perceptronu prostego.

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Metody Sztucznej Inteligencji II

MODELOWANIE RZECZYWISTOŚCI

wiedzy Sieci neuronowe

Zastosowania sieci neuronowych

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.

Sztuczne sieci neuronowe (SNN)

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

Temat: Sieci neuronowe oraz technologia CUDA

8. Neuron z ciągłą funkcją aktywacji.

SID Wykład 8 Sieci neuronowe

Wstęp do sieci neuronowych, wykład 01 Neuron biologiczny. Model perceptronu prostego.

I EKSPLORACJA DANYCH

Sieć przesyłająca żetony CP (counter propagation)

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

Uczenie Wielowarstwowych Sieci Neuronów o

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.

1. Logika, funkcje logiczne, preceptron.

METODY INŻYNIERII WIEDZY

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5

Sztuczne sieci neuronowe. Uczenie, zastosowania

Inteligentne systemy przeciw atakom sieciowym

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

Deep Learning na przykładzie Deep Belief Networks

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Podstawy sztucznej inteligencji

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.

Sieci neuronowe w Statistica

Optymalizacja optymalizacji

Sztuczna inteligencja

Sztuczne siei neuronowe - wprowadzenie

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

Projekt Sieci neuronowe

Uczenie sieci radialnych (RBF)

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

Podstawy Sztucznej Inteligencji

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE

6. Perceptron Rosenblatta

Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2)

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

SIEĆ NEURONOWA JAKO NARZĘDZIE APROKSYMACJI I KLASYFIKACJI DANYCH. Jakub Karbowski Gimnazjum nr 17 w Krakowie

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2013/2014

Inteligentne systemy informacyjne

Wprowadzenie do Sieci Neuronowych Laboratorium 01 Organizacja zajęć. Perceptron.

Obrona rozprawy doktorskiej Neuro-genetyczny system komputerowy do prognozowania zmiany indeksu giełdowego

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

wiedzy Sieci neuronowe (c.d.)

OCENA DZIAŁANIA AE. METODY HEURYSTYCZNE wykład 4 LOSOWOŚĆ W AE KRZYWE ZBIEŻNOŚCI ANALIZA STATYSTYCZNA:

Wykład 1: Wprowadzenie do sieci neuronowych

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Sztuczne sieci neuronowe

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Technologie cyfrowe semestr letni 2018/2019

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Elementy kognitywistyki III: Modele i architektury poznawcze

Wstęp do sztucznych sieci neuronowych

Wstęp do sieci neuronowych, wykład 8 Uczenie nienadzorowane.

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Podstawy sztucznej inteligencji

PROGNOZOWANIE PORÓWNAWCZE ENERGII PROCESOWEJ ZESTAWÓW MASZYN DO ROBÓT ZIEMNYCH JAKO CZYNNIKA RYZYKA EMISYJNOŚCI CO2

ELEMENTY SZTUCZNEJ INTELIGENCJI. Sztuczne sieci neuronowe

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa

Transkrypt:

Wstęp do metod sztucznej inteligencji www.mat.uni.torun.pl/~piersaj 2009-01-22

Co to jest neuron?

Komputer, a mózg komputer mózg Jednostki obliczeniowe 1-4 CPU 10 11 neuronów Pojemność 10 9 b RAM, 10 10 dyski 10 11 neuronów, 10 14 synaps Czas 1 cyklu 10 8 s 10 3 s Przepustowość 10 9 b/s 10 14 b/s Operacji na neuronach 1/s 10 5 10 14

Dane wejściowe x i, i = 1..n Wagi w i, i = 1..n Funkcja aktywacyjna f Wyjscie f ( n i=1 x iw i )

Funkcja aktywacji Identyczność f (s) = s Funkcja progowa { 0 s < p f (s) = 1 s p Funkcja polarna { 1 s < p f (s) = +1 s p Funkcja sigmoidalna f (s) = 1 1 + exp( s + p)

Uczenie perceprtornu Dane: Zestaw przykładowych danych wejściowych E j = (e j 1..ej n), j = 1..M wraz z opdowiadającymi im poprawnymi wynikami T j, j = 1..M Wyniki: Wagi neuronu: w i, i = 1..n Opcjonalne parametry funkcji aktywacyjnej f

Uczenie perceprtornu Przypisz losowe wagi w pobliżu 0 Wybierz kolejne dane wejsciowe E j Oblicz aktywację neuronu o na wylosowanym przykładzie E j Jeżeli jest zgodna z poprawnym wynikiem T j to wróć do kroku 2 Jeżeli nie, to uaktualnij wszystkie wagi η > 0 stała uczenia w i = w i + e j i (T j o) η Zakończ gdy na wszystkich (wystarczającej ilości) przykładach sieć daje poprawny wynik Wróć do kroku 2

Ograniczenia perceptronu Problemy liniowo separowalne

Wsteczna propagacja błędu Wybierz przykład E z listy przykładów i odpowiadający mu poprawny wynik T Oblicz wynik działania sieci na E, zapamiataj go, zapamietaj również wyniki w warstwach pośrednich o j, sumy ważone in j (wyniki przed zaaplikowaniem funkcji aktywującej) i wejscia do neuronow w danej warstwie I k,j (wejsciem do warstwy pierwszej jest przykład, dla warstw wyższych j są nimi wyniki z warstwy poprzedniej k) Dla wszystkich jednostek i w zewnętrznej warstwie sieci: Oblicz błąd erri = T i o i Oblicz i = err i f (in i ) Uaktualnij wagi w jednostce i w j,i = w j,i + η o j err i f (in i )

Wsteczna propagacja błędu cd. Dla wszystkich jednostek j w kolejnych warstwach sieci: Oblicz błąd j = f (in j ) w j,l l l Uaktualnij wagi do jednostki j Wróć do 1. w k,j = w k,j + η I k,j j Zakończ po wykonaniu określonej liczby kroków lub osiągnięciu zadowalającego poziomu błędu Gdzie: I k,j k-te wejście do jednostki j η > 0 stała uczenia

Wsteczna propagacja błędu Błąd średniokwadratowy ERROR = 1 (T i O i ) 2 2 i Funkcja sigmoidalna f (s) = 1 1 + exp( s) f (s) = f (s) (1 f (s))

Algorytm spadku gradientowego Dana: funkcja f : R n R różniczkowalna Cel: Znaleźć x R n takie, że y R nf (x) f (y) Algorytm: Rozpocznij w losowym x (0) Dla każdej współrzędnej i = 1..n Powtarzaj krok 2 x (k+1) i = x (k) i η f x i (x (k) )

Architektura sieci neuronowych y jednen neuron / jedna warstwa (layer networks) Jedna warstwa ukryta może przybliżać funkcje ciągłe Dwie warstwy ukryte może przybliżać funkcjc nieciągłe Inne sieci jednoprzepływowe (feed forward) Algrytmy konstrukcji i optymalizacji architektury sieci Sieci rekurencyjne Sieci Hopfielda Maszyny Boltzmanna

Zastosowania sieci neuronowych Rozpoznawanie obrazów Rozpoznawanie tekstu pisanego Czytanie tekstu pisanego Kierowanie pojazdami

Podsumowanie Możliwości opisu Efektywność obliczeniowa Generalizacja Odporność na szumy Nieprzeźroczystość Korzystanie z wiedzy

Uczenie w sieciach bayesowskich Porównanie sieci neuronowych i bayesowskich Co to jest sieć bayesowska?

Uczenie w sieciach bayesowskich Porównanie sieci neuronowych i bayesowskich Problemy uczenia sieci bayesowskich Mając dany zestaw przykładów (n-ki uporządkowane zawierające wartości przyjęte w węzłach sieci) znaleźć table prawdopodobieństw warunkowych dla węzłów w sytuacji gdy: znana struktura sieci, brak jednostek ukrytych nieznana struktura sieci, brak jednostek ukrytych znana struktura sieci, jednostki ukryte nieznana struktura sieci, jednostki ukryte

Uczenie w sieciach bayesowskich Porównanie sieci neuronowych i bayesowskich Co to jest sieć bayesowska?

Uczenie w sieciach bayesowskich Porównanie sieci neuronowych i bayesowskich Uczenie bayesowskie Niech: D = {D 1...D m } dane, X niewiadoma, H i przechodnie hipotezy P(X D) = P(X H i, D)P(H i D) i W praktyce można próbować przybliżać: P(X H MAP )P(H MAP D)

Uczenie w sieciach bayesowskich Porównanie sieci neuronowych i bayesowskich Uczenie bayesowskie w i = P(X = x i U = u i ) = P(x i u i ) ln P(D) w i P(D j )/ w i P(D j ) = j 1 P(D j ) P(D j ) w i = (...) = P(x i, u i D j ) w i Można stosować algorytmy spadku gradientowego.

Uczenie w sieciach bayesowskich Porównanie sieci neuronowych i bayesowskich Porównanie sieci bayesowskich i neuronowych reprezentacja danych, działanie na dyskretnych i ciągłych danych znaczenie jednostek dwa poziomy aktywacji zmiennych w sieciach bayesowskich (wartości i prawdopodobieństwa) działanie (liniowe w NN i problem NP-trudny dla ogólnych BN) uczenie