Pulsujące sieci neuronowe (Spiking Neural Network) ŁUKASZ ALEKSIEJEW (pod kierunkiem Joanna Grabska-Chrząstowska)

Podobne dokumenty
HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

Podstawy Sztucznej Inteligencji (PSZT)

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

MODELOWANIE RZECZYWISTOŚCI

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Sztuczne sieci neuronowe (SNN)

Metody Sztucznej Inteligencji II

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe

Sztuczne sieci neuronowe

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Algorytmy sztucznej inteligencji

Dariusz Brzeziński Instytut Informatyki, Politechnika Poznańska

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Wykład 1: Wprowadzenie do sieci neuronowych

Podstawy sztucznej inteligencji

Temat: Sieci neuronowe oraz technologia CUDA

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Inteligentne systemy przeciw atakom sieciowym

Elementy kognitywistyki III: Modele i architektury poznawcze

Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I.

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty

MATLAB Neural Network Toolbox przegląd

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

OBLICZENIA ZA POMOCĄ PROTEIN

Uczenie sieci neuronowych i bayesowskich

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Wstęp do teorii sztucznej inteligencji

Sztuczne sieci neuronowe

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017

SIECI NEURONOWE Wprowadzenie

SIECI KOHONENA UCZENIE BEZ NAUCZYCIELA JOANNA GRABSKA-CHRZĄSTOWSKA

Algorytm do rozpoznawania człowieka na podstawie dynamiki użycia klawiatury. Paweł Kobojek, prof. dr hab. inż. Khalid Saeed

Zastosowania sieci neuronowych

Optymalizacja optymalizacji

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

NEURAL NETWORK ) FANN jest biblioteką implementującą SSN, którą moŝna wykorzystać. w C, C++, PHP, Pythonie, Delphi a nawet w środowisku. Mathematica.

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

Inteligentne systemy informacyjne

I EKSPLORACJA DANYCH

Prof. Stanisław Jankowski

Wstęp do kognitywistyki. Wykład 3: Logiczny neuron. Rachunek sieci neuronowych

Przetworniki cyfrowo analogowe oraz analogowo - cyfrowe

Deep Learning na przykładzie Deep Belief Networks

Sieci neuronowe i algorytmy uczenia Czyli co i jak andrzej.rusiecki.staff.iiar.pwr.wroc.pl s.

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

SIECI REKURENCYJNE SIECI HOPFIELDA

Elementy kognitywistyki III: Modele i architektury poznawcze

Wstęp do sztucznych sieci neuronowych

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

SIEĆ NEURONOWA JAKO NARZĘDZIE APROKSYMACJI I KLASYFIKACJI DANYCH. Jakub Karbowski Gimnazjum nr 17 w Krakowie

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD XI: Sztuczne sieci neuronowe

Monitorowanie i Diagnostyka w Systemach Sterowania

Widzenie komputerowe (computer vision)

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Elementy inteligencji obliczeniowej

ZAJĘCIA 1. uczenie się i pamięć mechanizmy komórkowe. dr Marek Binder Zakład Psychofizjologii

Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej. Adam Żychowski

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści

Dywergencja/konwergencja połączeń między neuronami

Sieci Kohonena Grupowanie

Zastosowania sieci neuronowych

Systemy uczące się Lab 4

METODY INŻYNIERII WIEDZY

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2013/2014

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak

STAROSTWO POWIATOWE W SOKÓŁCE

Wprowadzenie do teorii systemów ekspertowych

Wprowadzenie do pulsujących sieci neuronowych

Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe. Krzysztof Regulski, WIMiIP, KISiM, B5, pok. 408

OCENA DZIAŁANIA AE. METODY HEURYSTYCZNE wykład 4 LOSOWOŚĆ W AE KRZYWE ZBIEŻNOŚCI ANALIZA STATYSTYCZNA:

METODY INTELIGENCJI OBLICZENIOWEJ wykład 4

SZTUCZNE SIECI NEURONOWE

Sztuczna inteligencja

SCENARIUSZ LEKCJI BIOLOGII Z WYKORZYSTANIEM FILMU DOBRZE MIEĆ O(G)LEJ W GŁOWIE. O KOMÓRKACH UKŁADU NERWOWEGO.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania

Wprowadzenie do sieci neuronowych i zagadnień deep learning

Projekt Sieci neuronowe

Politechnika Warszawska

Uczenie sieci typu MLP

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

Dobór współczynnika modulacji częstotliwości

Wstęp do teorii sztucznej inteligencji

Sztuczne sieci neuronowe

Metody klasyfikacji i rozpoznawania wzorców. Najważniejsze rodzaje klasyfikatorów

Wykład 1: Wprowadzenie do sieci neuronowych

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.

Transkrypt:

Pulsujące sieci neuronowe (Spiking Neural Network) ŁUKASZ ALEKSIEJEW (pod kierunkiem Joanna Grabska-Chrząstowska)

O czym będziemy mówić 1. Idea działania SNN 2. Modele neuronów impulsowych 3. Kodowanie informacji 4. Topologie sieci 5. Metody uczenia sieci

Idea stojąca za pulsującymi (impulsowymi) sieciami neuronowymi

Najpierw odrobina biologii

Impuls nerwowy

Sygnały wejściowe i wyjściowe w postaci zbioru impulsów

Dziedzina pracy SNN

Zadanie pojedynczego neuronu

Synapsa jako nośnik wiedzy

Modele matematyczne neuronów

(Leaky) Integrate-and-fire (1907)

nagroda Nobla w 1963 Model Hodgkin - Huxley (1952)

Model FitzHugh-Nagumo (1961)

Wpływ parametrów na praktyczne zachowanie

Inhibitory vs Excitatory synapses

Kodowanie informacji

Kodowanie neuronowe Ilościowe (rate coding) Zależne od czasu (temporal coding) Populacyjne (population coding)

Kodowanie w biologicznych sieciach neuronowych Sieć biologiczna potrafi kodować zarówno analogowe i cyfrowe informacje Jest to jeden z głównych obszarów badań neurobiologii Kodowanie ilościowe (rezonansow, częstotliwościowe) może symbolizować wartości analogowe wykorzystanie to np. siła skurczu mięśni stosunkowo wolne - wymaga dłuższej obserwacji Kodowanie zależne od czasu wykorzystane w przetwarzaniu sygnałów pochodzących od zmysłów

Kodowanie rezonansowe Strumień danych wejściowych zamieniany jest na ciąg impulsów generowanych w odstępach czasu proporcjonalnych do wartości poszczególnych wartości wejściowych Wartość kodowana jest w sieci częstotliwością występowania impulsów

Kodowania zależne czasowo - time-to-first-spike Pojedyncze dane wejściowe reprezentowane są w postaci odrębnych impulsów o czasie generacji proporcjonalnym do wartości danej. Ograniczeniem jest interpretacja wystąpień kolejnych impulsów w neuronach Można także kodować informacje: kolejnością występowania impulsów występowaniem względnych opóźnień (interwałów) między impulsami kolejnych neuronów

Kodowania zależne czasowo - kodowanie przez fazę Wymaga pewnej synchronizacji Wartość niesionej informacji zależy od tego, jaka sekwencja impulsów wystąpiła, kiedy sygnał referencyjny był w odpowiednim stanie. występuje w hipokampie i w korze wzrokowej

Kodowania populacyjne - kodowanie synchroniczne Sieć wnioskuje na podstawie impulsów od grupy neuronów w danym, synchronizowanym oknie (niektóre części mózgu posiadają zdolność synchronizacji) Każda wartość może być kodowana inną grupą neuronów

Kodowania populacyjne - kodowanie pozycyjne W tym kodowaniu każdy neuron wyjściowy (lub ich grupa) odpowiada jakiejś oczekiwanej wartości na wyjściu. Za neuron aktywny uznaje się ten, który pulsuje z największą częstotliwością (lub grupę) To kodowanie jest stosowane w pozycjonowaniu stawów, oka, rozpoznawaniu koloru i dźwięku

Parse coding (autokodowanie) Metoda kodowania obrazów (i nie tylko) przez traktowanie ich jako złożenie kilku innych, mniejszych wzorców Służy do zmniejszenia alfabetu kodowego względem mnogości obiektów, które może reprezentować Przykładową metodą jest algorytm Van Rullen & Thorpe

Topologie sieci

Topologie sieci SNN Feedforward Rekurencyjne Hybrydowe

Sieci feedforward Zastosowanie w sieciach biologicznych: układy peryferyjne organizmu: zmysły, sygnały do mięśni funkcje synchronizacji impulsów powiązania wzorców przestrzenno-czasowych

Sieci rekurencyjne neurony lu ich grupy komunikują się przy pomocy połączeń wzajemnych występowanie sprzężeń zwrotnych sieć otrzymuje właściwości dynamiczne trudne w kontroli i uczeniu wykorzystywane w modelowaniu pamięci asocjacyjnych

Sieci hybrydowe Grupa sieci, które przejawiają zarówno cechy rekurencyjne jak i proste (feedforward) spośród wielu przykładów można wyróżnić dwie Łańcuch pobudzeń Sieci rezerwuarowe

Łańcuch pobudzeń (Synfire chain) odpowiadają za ludzki proces uczenia (asocjacje odległych w czasie wydarzeń i skojarzeń) łańcuchy mogą się przecinać tworząc skomplikowane struktury

Sieci rezerwuarowe

LSM - Liquid State Machine Zbiór neuronów (NCM - Neural Microcircuit) losowo połączonych ze sobą z losowymi wagami tworzący topologię rekurencyjną Przy odpowiedniej ilości neuronów jest w stanie generować bardzo złożone funkcje matematyczne

Uczenie sieci

Neurons that fire together, wire together

Przypomnienie: Reguła Hebba (1949) Jeśli neuron A wielokrotnie lub stale brał udział w wyzwalaniu impulsów neuronu B, w jednym lub drugim neuronie zachodzą zmiany zwiększające wpływ pobudzania neuronu B przez neuron A. obserwacja biologiczna mówiąca o wzmacnianiu połączenia między neuronami, które aktywują się w niedużych odstępach czasowych w pierwotnej wersji była to teoria zależnościach symetrycznych (nieistotne było, który neuron wygenerował impuls jako pierwszy) znalazła pośrednie zastosowanie w uczeniu nienadzorowanym sieci Hopfielda. jest podstawą dla metod STDP

STDP - Spike-timing-dependent plasticity t jf - czasy wystąpień impulsów presynaptycznych t jn - czasy wystąpień impulsów postsynaptycznych W(x) - funkcja STDP (funkcja okna uczącego) w j - zmiana wagi j-tej synapsy

Wykorzystanie nienadzorowanego uczenia STDP działanie na zasadzie samoasocjacji i wzmocnieniu występujących cech ekstrakcja cech klasyfikatory mapy samoorganizujące się

SHL - Supervised Hebbian Learning Równolegle do sieci uczącej działa proces, która dostarcza (odbiera) dodatkowy prąd do neuronów przed oczekiwanymi wystąpieniami impulsów (lub depresji) Zwiększana jest dzięki temu szansa wystąpienia (bądź nie) impulsu w neuronie w okolicach chwili, w której był spodziewany. W efekcie, w wypadku wygenerowania impulsu odpowiednie synapsy ulegają wzmocnieniu (osłabieniu) Ograniczenie: uczenie przebiega jedynie w okolicach wystąpień impulsów spodziewanych w ostatniej warstwie

SpikeProp (2000) Próba przeniesienia metody wstecznej propagacji błędów do sieci impulsowych ograniczenie: każdy neuron musi wystrzelić tylko raz w procesie uczenia metoda mająca wiele późniejszych udoskonaleń (np dodatkowa modyfikacja opóźnień synaps) Dla chętnych: wzór na zmianę wartości wagi synapsy w warstwach ukrytych: Dokładne informacje na http://homepages.cwi.nl/~sbohte/publication/backprop.pdf

Problem XOR w metodzie SpikeProp

ReSuMe - Remote Supervised Method (2005) Metoda łącząca STDP z tradycyjnym uczeniem z nauczycielem sieć składa się z trzech rodzajów neuronów: wejściowych, uczących się i nauczycieli wartość zmiany wagi w pojedynczym eksperymencie uczącym składa się z części pochodzącej od zależności wyjścia i wejścia (STDP), a druga z zależności między oczekiwanym a osiągniętym stanem:

Proponowana topologia sieci dla alg. ReSuMe

ReSuMe - działanie

Wnioski

podejmowanie decyzji Wykorzystanie SNN klasyfikacja danych mapy ssamoorganizujące się pamięci asocjacyjne rozpoznawanie szeregów czasowych nawigacja przestrzenna rozpoznawanie obrazów, zapachów, dźwięków wyznaczanie głównych składowych ciągów impulsów

Wnioski metody przyszłościowe, dające nieporównywalnie większe mozliwości obliczeniowe niż standardowe sieci neuronowe ale też wielokrotnie bardziej skomplikowane. omawianie kwestii biologicznych pokrywa się w bardzo dużej mierze z kwestiami technicznymi gdyż sieci SNN są wiernym odzwierciedleniem znanych nam dziś modeli biologicznych dużo większa trudność w kontrolowaniu procesów zachodzących wewnątrz sieci i mechanizmach uczenia możliwość nauki sieci online i rozwiązywania problemów w dziedzinie czasu

Literatura

LITERATURA 1. Ponulak F, Kasinski A.: Introduction to spiking neural networks: Information processing, learning and applications. Acta Neurobiol Exp (Wars), 2011;71(4):409-33 2. Gerstner W. and Kistler W. M.: Spiking Neuron Models Single Neurons, Populations, Plasticity Cambridge University Press, 2002. 3. Thorpeb S., Perrinet L., Samuelidesa M..:Sparse spike coding in an asynchronous feed-forward multi-layer neural network using matching pursuit. Neurocomputing, 2004. 4. Xiao-Jing Wang. Decision making in recurrent neuronal circuits. Neuron, 2008.