Sieci neuronowe i algorytmy ewolucyjne



Podobne dokumenty
Podstawy Sztucznej Inteligencji (PSZT)

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Sztuczne sieci neuronowe

Metody Sztucznej Inteligencji II

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Elementy inteligencji obliczeniowej

Inteligentne systemy przeciw atakom sieciowym

Uczenie sieci neuronowych i bayesowskich

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Sztuczne sieci neuronowe

Podstawy sztucznej inteligencji

Sieci neuronowe i ich ciekawe zastosowania. Autor: Wojciech Jamrozy III rok SMP / Informatyka

MODELOWANIE RZECZYWISTOŚCI

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

Wstęp do sieci neuronowych, wykład 01 Neuron biologiczny. Model perceptronu prostego.

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

6. Perceptron Rosenblatta

Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I.

Wykład 1: Wprowadzenie do sieci neuronowych

8. Neuron z ciągłą funkcją aktywacji.

Systemy agentowe. Sieci neuronowe. Jędrzej Potoniec

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty

Sieci neuronowe i algorytmy ewolucyjne

Uczenie sieci typu MLP

MATLAB Neural Network Toolbox przegląd

Systemy agentowe. Sieci neuronowe. Jędrzej Potoniec

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Inteligentne systemy informacyjne

Sztuczne sieci neuronowe

Politechnika Warszawska

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Projekt Sieci neuronowe

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

MATLAB Neural Network Toolbox uczenie sieci (dogłębnie)

Wprowadzenie do sieci neuronowych i zagadnień deep learning

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

SIECI NEURONOWE Wprowadzenie

Sztuczne sieci neuronowe (SNN)

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI

Sztuczne siei neuronowe - wprowadzenie

Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe. Krzysztof Regulski, WIMiIP, KISiM, B5, pok. 408

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Zastosowania sieci neuronowych

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań

METODY INTELIGENCJI OBLICZENIOWEJ wykład 4

SZTUCZNE SIECI NEURONOWE

SID Wykład 8 Sieci neuronowe

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

METODY INŻYNIERII WIEDZY

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Lekcja 5: Sieć Kohonena i sieć ART

wiedzy Sieci neuronowe

Metody klasyfikacji i rozpoznawania wzorców. Najważniejsze rodzaje klasyfikatorów

Sieci neuronowe i algorytmy uczenia Czyli co i jak andrzej.rusiecki.staff.iiar.pwr.wroc.pl s.

OCENA DZIAŁANIA AE. METODY HEURYSTYCZNE wykład 4 LOSOWOŚĆ W AE KRZYWE ZBIEŻNOŚCI ANALIZA STATYSTYCZNA:

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2013/2014

SIEĆ NEURONOWA JAKO NARZĘDZIE APROKSYMACJI I KLASYFIKACJI DANYCH. Jakub Karbowski Gimnazjum nr 17 w Krakowie

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Wrocław University of Technology. Uczenie głębokie. Maciej Zięba

SZTUCZNE SIECI NEURONOWE

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.

Wstęp do sztucznych sieci neuronowych

ĆWICZENIE 5: Sztuczne sieci neuronowe

Sieci neuronowe w Statistica

I EKSPLORACJA DANYCH

Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej. Adam Żychowski

Seminarium magisterskie. Dyskusja nad tematem pracy magisterskiej pisanej pod kierunkiem pani Dr hab. Małgorzaty Doman

Algorytmy sztucznej inteligencji

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

Definicja perceptronu wielowarstwowego

ELEMENTY SZTUCZNEJ INTELIGENCJI. Sztuczne sieci neuronowe

Podstawy Sztucznej Inteligencji

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.

Dariusz Brzeziński Instytut Informatyki, Politechnika Poznańska

Rozpoznawanie twarzy za pomocą sieci neuronowych

PRÓBA ZASTOSOWANIA SIECI NEURONOWYCH DO PROGNOZOWANIA OSIADAŃ POWIERZCHNI TERENU POWSTAŁYCH NA SKUTEK EKSPLOATACJI GÓRNICZEJ**

Widzenie komputerowe

SIECI RBF (RADIAL BASIS FUNCTIONS)

Podstawy sztucznej inteligencji

Temat: Sieci neuronowe oraz technologia CUDA

Optymalizacja optymalizacji

Sztuczne sieci neuronowe

Obliczenia Naturalne - Sztuczne sieci neuronowe

Sztuczna inteligencja

Elektroniczne materiały dydaktyczne do przedmiotu Wstęp do Sieci Neuronowych

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

Transkrypt:

Sieci neuronowe: Rys historyczny Sieci neuronowe i algorytmy ewolucyjne 2. Sieci wielowarstwowe PERCEPTRON Jerzy KORCZAK email :jerzy.korczak@ue.wroc.pl http://www.korczakleliwa.pl http://citilab.pl http://kti.ue.wroc.pl Model neuronu [McCulloch, Pitts, 943] Proces uczenia [Hebb, 949] PERCEPTRON [Rosenblatt,958] Zbieznosc algorytmu ucenia (adaptacji wag) Ograniczenia PERCEPTRONu [Minsky, Papert, 969] Problem Maszyna Bolzmanna [Hopfield, 982] Retropropagacja MLP [Rumelhart, Parker, Le Cun, 985] SelfAdapting Maps [Kohonen, 98] Sieci Hopfielda [Hopfield, 982] ICANN, IJCNN, ECANN, 2 Inspiracja biologiczna Model komórki Purkinje (Schutter 25) mozg : ~ neuronów neuron : ~ 4 połączeń Model zawiera m.in. 32 rownan rozniczkowych! 82 modele kanalow jonowych 92 parametrow opis morfologii jadro soma akson synapsa dendryt 3 4 Neuron Siec neuronowa: Wstępna definicja Sygnal aktywności (ang.spike) Siec neuronowa jest zestawem polaczonych ze soba prostych jednostek obliczeniowych, zwanych neuronami, o wysokim stopniu wzajemnych polaczen, skalarnych komunikatach i adaptacyjnym mechanizmie interakcji miedzy neuronami. action potential Wagi wzajmenych połaczen obliczane sa w trakcie procesu adaptacji, uczenia sie z przedstawionych danych. mm neurones 3 km fil µm Typy algorytmow uczacych: uczenie pod nadzorem (z nauczycielem) uczenie bez nadzoru 5 6

Podstwowy element sieci neuronowej: neuron Funkcja aktywacji (trnasferu): funkcja sigmoidalna X X 2 w w2 F Funkcja aktywacji Σ O ϕ(z) = / ( + e c z ) Funkcja logistyczna.2.8 c =.5 c =. c = 2. X 3 wi Σ F O 2.6.4 Wejścia wk Wejscie neuronu Σx i *w ij Σ O 3 Wyjścia.2.2 5 5 7 8 Funkcja aktywacji (transferu): funkcja tangh ϕ(z) = (e c z e c z ) / (e c z + e c z ) Architektury sieci Podstawowe klasy sieci: tangens hyperbolicus.5 c =,5 c =. c = 2. Jednowrastwowa, jednokierunkowa (feedforward) Wielowarstwowa (multilayer), bez cykli Rekurencyjna Architektura i algorytm uczący.5 5 5 Sieć jednowarstwowa Multilayer feedforward 342 Network Neurony warstwy wejścia Neurony warstwy wyjścia Input layer Output layer Hidden Layer 2

Sieć rekurencyjna Sieć rekurencyjna z ukrytym neuronem i z umożliwiającym modelowanie systemów dynamicznych Wejście i wagi połączeń WEJSCIE WAGI z z z Wyjście Ukryty Wyjście Neuron wejściowy może reprezentować wartości zmiennej (przekszałcone lub nie) Liczba wejść i ich wartości zależą od dziedziny zastosowań. Wagi połączeń miedzy neuronami wejścia a sumatorem. Na początku procesu wartości wag są losowe Bias jest neuronem reprezentującym stałą. 4 WE x = + x x 2 Bias: dodatkowa zmienna na wejściu Bias może być modelowany jako dodatkowy neuron. m w.. v w = j = = b w Zmienna lokalna v w 2 ϕ( ) Sumator w jx j Funkcja aktywacji WY y Funkcje aktywacji Hardlimiter Piecewise linear Sigmoid Hyperbolic tangent if v φ ( v) = if v < if v 2 φ ( v) = v if 2 v 2 if v 2 ϕ ϕ ( v) = tanh ( v) φ ( v) = + exp( av) x m w m Wagi synaptyczne Perceptron wielowarstwowy (MLP) MultiLayer Perceptron (MLP) MLP składa się z sukcesywnych warstw : warstwy wejściowej (prezentacja wektora wejsciowego), jednej lub kilku warstw ukrytych, oraz warstwy wyjściowej (prezentujacej wartości obliczone przez sieć). Algorytmy uczace MLP : Gradient Backpropagation, SuperSAB Cascade Correlation Conjugate Gradient Metody drugiego rzędu, Warstwa wejsciowa Wartswa ukryta Warstwa wyjsciowa MLP są uniwersalnymi aproksymatorami. 7 8 3

MLP: Algorytm uczący Metoda spadku gradientu (Gradient Backpropagation) Inicjalizacja wag Repeat for kazdego przykladu naucz sie wzorca Obliczenia w przód (propagacja) Obliczenia wstecz (retropropagacja) end for Dopoki błąd nie jest akceptowanie mały Slabości : Określenie parametrów procesu uczenia Długi proces uczenia Problem wyboru topologii sieci x x 2 x 3... x n w o ij o 2 o 3 Vecteur yi= Σ w d entrée ij x i Funkcja sigmoidalna F(y)=/(+e ky)... o m t t 2 t 3 t m... E=/2 Σ(t k o k ) 2 F (y) = F(y)(F(y)) 9 2 Problem : określenie wyjścia neuronu w warstwie ukrytej Problem : określenie wyjścia neuronu w warstwie ukrytej xi Wejscia oi wij tj: wyjscie dep/dwij = (dep/dσj)(dσj/dwij) =(dep/dσj) yi podstawiając δj= (dep/dσj), d où wij(t+) = wij(t) λ(t) δj yi oi oj wjk xi σi σj σk f f f wij wejscie tj Metoda obliczeń : ) Funkcja kosztu : E(t)=Σp(optp) 2 2) Gradient : w(t+) = w(t) λ(t) gradw (Ep(t)) 3) Liczenie dep/dwij zatem δj= (dep/dσj)= Σk(dEp/dσk) (dσk/dσj)= Σk δk (dσk/dσj)= = Σk δk wjk (dyk/dσj) gdzie δj = 2(oj tj) f (σj) dla neronów w warstwie WY δj = (Σk wij δk) f (σj) dla neuronów ukrytych 2 22 OCR: Rozpoznawanie znaków Axone : Przykład [http://citilab.pl] 23 J.Korczak, ULP 24 4

Axone : Siec nauczona Proces uczenia: Problem modyfikacji wag i narzedzia Batch: Przedstawienie wszystkich przykładow przed modyfikacją wag Online: Modyfikacja wag po każdym przykładzie Adaptacja stała i zmienna Problem zbieżności Narzedzia i systemy neuronowe: Matlab, Axone, SNNS 25 J.Korczak, ULP 26 Przyklad : Gradient BackPropagation (GBP) Przyklad: Gradient BackPropagation (GBP) Proces uczenia sieci X Y (X,Y) W ij = f(net k )=/(+e net k) net j =Σw ij o i o j =f(net j ) X,5 δ k =(t k o k )f (net k ) f (net k )=o k (o k ) w jk (t+)=w jk (t)+λ k o j,5 Y X Y (X,Y) h =f (net j ) Σ k w kj =,5*(,5)*,25*,625=,95 w hx =+,*,95*=,95 z,5 λ=, z =(.5)*,5*(.5)= W ij = =,25 w zx (t+)=+,*,25*= =,25,5 h x y J.Korczak, ULP 27 28 Proces uczenia: wagi i wspolczynnik uczenia Przyklad: Nauczona siec MLP w ij (t+)= w ij( (t) + λ a j * w i w zx =,25 λ iteracja w zy =, 25496 w zh =,625,5 372 w hx =,95 3, 39 w hy = 4, (fails) w zbh =,95 f(net) =,573 X Y (X,Y) 2,76 3,29,9 7, 7, X Y 29 3 5

Przyklad: Testowanie sieci Uczenie, walidacja i testowanie X Y * 7, * 2,76 * 7, Σxw = 4,34 2,76 3,29 X 7,,9,9,98 7, Y Y=/(+e Σxw ) =/(+e 4,34 ) =,98 Plik uczący (training set) : zbiór przykładów do nauczenia sieci Plik walidacji (validation set) : zbiór przyładów do poprawienia parametrów i architektury sieci. Plik testujący (test set) : zbiór danych do określenia jakości sieci. Metody estymacji błędu generalizacji: Kfold cross validation: walidacja krzyżowa, uczenie sieci kkrotnie na k podzbiorach, zostawiając jeden do testowania. Leaveoneout przypad szczególny crossvalidation Bootstrapping: zamiast powtarzania analizy podzbiorów danych, powtarzamy proces na podzbiorach losowo wybranych danych ( ze zwracaniem) z całego pliku danych. 3 32 Przyklad: Testowanie sieci Axone : Przykład [http://citilab.pl] X Y,8,9,, 3,29,9,9,98 2,76 7, 7, X Y J.Korczak, ULP 33 J.Korczak, ULP 34 Axone: Przyklad parametry uczenia Axone : Example 35 6

Axone : Example Optymalizacja topologii sieci Podejście tryanderror Podejścia inkrementalne: dodawanie neuronów i połączeń CascadeCorrelation [Fahlman, Lebiere, 99] Upstart [Frean, 99] Tiling [Mézard, Nadal, 989] Podejscia redukujące: wycinanie połączeń i neuronów w trakcie procesu uczenia [Weight Elimination, Weigend,99] po procesie uczenia [OBD, Brain Surgeon, Le Cun, 99] Podejście ewolucyjne: genetic connectionism AGWin, Axone [Korczak, 998] Cechy dobrych dziedzin zastosowań: Problemy trudne do zdefiniowania explicite Dostepność do dużych baz danych Zakłócenia w danych Problemy wymagające szybkich obliczeń Brak rozwiązań algorytmicznych Autoryzacja dostępu podejście biometryczne Proces weryfikacji osoby na podstawie jej cech fizycznych (np. tęczówka oka, linie papilarne, kształt dłoni, kształt ucha, zapach, DNA, itp.. Klient czy oszust? 39 Biometryczna autentyfikacja Face Module: Feature Extraction Face Détection des yeux Normalisation Apprentissage et + Codage Reconnaissance Moment Decision Vert Filtre Trouver Trouver ConvolutionI de base Y X nondation + Bleu Hue Saturation Intensité Extraction Réseau des neurones w Raw Feature Normalised Feature Identyfikator Voice Transformation de l ondelette Baza danych Normalisation Apprentissage et + Codage Reconnaissance w2 Akceptuj Odrzuć Video Acquisition Face Detection Face Feature Localization Feature Extraction Feature Normalisation Effacer les silences Fréquence C C C 2 C 3 C 4 C 5 C 6 C 7 C 9 C C C 2 C 3 C 4 Temps C 5 Réseau des neurones 7

Voice Module: Feature Extraction Zastosowania w zarządzaniu Klasyfikacja, analiza klientow Przewidywanie (rynku akcji, bankructwa, sprzedaży) Zarządzanie ryzykiem Uproszczenie danych, walidacja danych, kompresja Autoryzacja dostępu Ocena kredytobiorcy (Credit Scoring) Wavelet Transform Truncate Normalise Sample Merge Nowe zastosowania Wyszukiwanie informacji (Web) Data Mining Multimedia (indeksacja obrazów) 44 BourseExperts: Online Trading Notowania (dzienne, godzinne, min, online), Ceny otwarcia, zamknięcia, max, min, wolumin transakcji, indeks Stopa zwrotu Reguły decyzyjne: Short and Longterm Moving Averages Peugeot Rule: The crossovers are the points of decisions Buy : when STMA moves above LTMA (cross the time series à la hausse) Sell : when STMA moves below LTMA (the time series à la baisse) 45 46 Ekspertyza giełdowa Pożądane wyjście: p = f(return rate) Decyzja z sieci: y Błąd : (p y) 2 Backpropagation learning ϕ(x) = / ( + exp( B x)) Testowanie Po nauczeniu na danych z okresu uczącego, generowanie decyzji na danych testowych ( następny dzień lub minuta) Porównanie ekspertyzy z danymi rzeczywistymi Powtórzenie testu na różnych okresach 8

Wyniki Interval: day (. 5 ) Interval: minute (. ) # Experiments Learn Period Test Period Accepted 5 7 8 (Optical) Character Recognition # Experiments Learn Period Test Period Accepted 5 6 7 Robocup: FourLegged League Literatura Bishop C.M., Neural Networks for Pattern Recognition, Oxford Univ., 995. Gupta J., Smith K., Neural Network in Business: Techniques and Applications, Idea GR. Pub., 22. Haykin S., Neural Networks: A Comprehensive Foundation, Prentice, 999. Rojas R., Neural Networks: A Systematic Introduction, Springer, 996. Kohonen T., SelfOrganizing Maps, Springer, 997. Masters T., Practical Neural Network Recipes in C++, Academic Press, 994. Miniprojekt. Problem rozpoznawania przez sieć prostych symboli graficznych zapisanych w postaci matrycy 3 x 3. WEJŚCIE WYJŚCIE 53 9