17.12.2005 Neuron biologiczny. Źród lo: Korbicz i in. [4] Synapsa to po l aczenie nerwowymi.

Podobne dokumenty
1 ANN, Sztuczne Sieci Neuronowe, jak powstawa ly.

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Wstęp do sztucznych sieci neuronowych

Wykład wprowadzający

Sieci neuronowe jako przykład współczesnej technologii informatycznej

Sztuczne sieci neuronowe

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty

Sieci neuronowe. - wprowadzenie - Istota inteligencji. WYKŁAD Piotr Ciskowski

Zastosowanie Robotów. Ćwiczenie 6. Mariusz Janusz-Bielecki. laboratorium

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Dyskretne modele populacji

Systemy Inteligentnego Przetwarzania wykład 1: sieci elementarne

Wyk lad 3 Wyznaczniki

ID1SII4. Informatyka I stopień (I stopień / II stopień) ogólnoakademicki (ogólno akademicki / praktyczny) stacjonarne (stacjonarne / niestacjonarne)

WYK LAD 5: GEOMETRIA ANALITYCZNA W R 3, PROSTA I P LASZCZYZNA W PRZESTRZENI R 3

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wyk lad 5 W lasności wyznaczników. Macierz odwrotna

Przetwarzanie danych i rozwiązywanie problemów

Dyskretne modele populacji

Podstawy Sztucznej Inteligencji (PSZT)

Inteligentne systemy informacyjne

ep do matematyki aktuarialnej Micha l Jasiczak Wyk lad 1 Wprowadzajacy

celu przyjmijmy: min x 0 = n t Zadanie transportowe nazywamy zbilansowanym gdy podaż = popyt, czyli n

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe

Statystyka w analizie i planowaniu eksperymentu

DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI

Metody Sztucznej Inteligencji II

Statystyka w analizie i planowaniu eksperymentu

Sztuczne sieci neuronowe

Niezmienniki i pó lniezmienniki w zadaniach

MATLAB Neural Network Toolbox przegląd

Metody sztucznej inteligencji

Informatyka I stopień (I stopień / II stopień) ogólno akademicki (ogólno akademicki / praktyczny) kierunkowy (podstawowy / kierunkowy / inny HES)

Sieci neuronowe i ich ciekawe zastosowania. Autor: Wojciech Jamrozy III rok SMP / Informatyka

Elementy inteligencji obliczeniowej

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW

Wyk lad 3 Wielomiany i u lamki proste

PRZEWODNIK PO PRZEDMIOCIE

Optymalizacja Rozpoczniemy od przedstawienia kilku charakterystycznych przyk ladów zadań optymalizacji liniowej.

Wyk lad 9 Podpierścienie, elementy odwracalne, dzielniki zera

Wykład 1: Wprowadzenie do sieci neuronowych

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Tytuł referatu (Times New Roman 22,wycentrowany, pogrubiony)

Niezb. ednik matematyczny. Niezb. ednik matematyczny

Statystyka w analizie i planowaniu eksperymentu

Statystyka w analizie i planowaniu eksperymentu

Oddzia lywania miedzycz. jony molekularne lub atomy. edzy A i B:

KARTA PRZEDMIOTU. 17. Efekty kształcenia:

Algorytmy sztucznej inteligencji

Plan wyk ladu. Kodowanie informacji. Systemy addytywne. Definicja i klasyfikacja. Systemy liczbowe. prof. dr hab. inż.

ID1SIII4. Informatyka I stopień (I stopień / II stopień) ogólnoakademicki (ogólno akademicki / praktyczny) stacjonarne (stacjonarne / niestacjonarne)


Statystyka w analizie i planowaniu eksperymentu

Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej. Adam Żychowski

MODELOWANIE FAZ ZNI ANIA I L DOWANIA SAMOLOTU BOEING ER PRZY U YCIU SZTUCZNYCH SIECI NEURONOWYCH

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

SYSTEM DIAGNOSTYCZNY OPARTY NA LOGICE DOMNIEMAŃ. Ewa Madalińska. na podstawie prac:

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Architektura systemów komputerowych

Wyk lad 7 Metoda eliminacji Gaussa. Wzory Cramera

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Jednorazowa sk ladka netto w przypadku stochastycznej stopy procentowej. Ubezpieczenie na ca le życie z n-letnim okresem odroczenia.

PRZEWODNIK PO PRZEDMIOCIE

Dobór funkcji aktywacji sieci neuronowej realizującej odtwarzanie wielkości wejściowej przetwornika pomiarowego

Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I.

Sztuczne sieci neuronowe (SNN)

Wyk lad 8 macierzy i twierdzenie Kroneckera-Capellego

LOGIKA ALGORYTMICZNA

Zadania. kwiecień Ćwiczenia IV. w laściwe dla rotatora sztywnego hetoronuklearnej moleku ly. Rozwiazanie E JM = 2 J(J + 1).

WIZUALIZACJA 3D STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ Z WYKORZYSTANIEM OPENGL

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

Zeszyty Naukowe nr 740 Akademii Ekonomicznej w Krakowie. Joanna Palczewska. 1. Wprowadzenie

Wyk lad 9 Baza i wymiar przestrzeni liniowej

Podstawy sztucznej inteligencji

WYKORZYSTANIE SZTUCZNYCH SIECI NEURONOWYCH W PROGNOZOWANIU

ZASTOSOWANIE SIECI NEURONOWYCH DO OPTYMALIZACJI WARUNKÓW OBRÓBKI CIEPLNEJ STOPÓW Mg-Al

Testowanie hipotez statystycznych

Obliczenia Naturalne - Sztuczne sieci neuronowe

Inteligentne systemy przeciw atakom sieciowym

Sztuczne siei neuronowe - wprowadzenie

Nazwa przedmiotu: METODY SZTUCZNEJ INTELIGENCJI W ZAGADNIENIACH EKONOMICZNYCH Artificial intelligence methods in economic issues Kierunek:

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

ep do matematyki aktuarialnej Micha l Jasiczak Wyk lad 9 Analiza pewnego problemu i krótkie przypomnienie, czyli Powtarzanie jest matka nauki.

W Y Ż S Z A S Z K O Ł A IN F O R M A T Y K I W Y D Z I A Ł...

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Uruchamianie SNNS. Po uruchomieniu. xgui & lub snns & pojawia si e okno. programu. Symulator sztucznych sieci neuronowych SNNS 1

Emergentne właściwości. sztucznych sieci neuronowych

Statystyka w analizie i planowaniu eksperymentu

Sieci neuronowe i algorytmy uczenia Czyli co i jak andrzej.rusiecki.staff.iiar.pwr.wroc.pl s.

Analiza i prognozowanie poziomu zachorowań na grypę


Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Analiza zrekonstruowanych śladów w danych pp 13 TeV

Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2)

METODY INŻYNIERII WIEDZY

Jeden przyk lad... czyli dlaczego warto wybrać MIESI.

Ćwiczenie nr 520: Metody interpolacyjne planowania ruchu manipulatorów

Karta przedmiotu. obowiązuje studentów rozpoczynających studia w roku akademickim 2015/2016. Forma studiów: Niestacjonarne Kod kierunku: 11.

Statystyka w analizie i planowaniu eksperymentu

Transkrypt:

Wyk lad 1. 17.12.2005 Neuron biologiczny Źród lo: Korbicz i in. [4] Synapsa to po l aczenie miedzy dwoma komórkami nerwowymi. 1

neuron biologiczny A B C D Zakoñczenia przedsynaptyczne Akson Dendryt Cia³o komórkowe Zakoñczenie przedsynaptyczne Źród lo: A. Michajlik, W. Ramotowski, Anatomia i fizjologia cz lowieka, Wydawnictwa Lekarskie PZWL, Warszawa 1994, cytowane za: Kotula [3]. 2

Matematyczny model neuronu wg. McCullocha i Pittsa 1943 w i1 w i0 w i2... w ij Jest to model uproszczony w stosunku do rzeczywistego model neuronu do dzisiaj jest podstawa wiekszości modeli. 3

Model Cullocha-Pittsa z 1943r Centralny neuron o numerze i sumuje impulsy dochodzace do niego od neuronów 1, 2,..., j. Sumowanie odbywa si e z wagami w i1, w i2,..., w ij. Do otrzymanej sumy dodaje sie indywidualny (tj. w laściwy dla itego neuronu) Bias wyrażony waga w i0. Otrzymana suma ( aktywacja) jest transformowana przez funkcj e Heaviside a Θ. Wynik transformacji jest przekazywany dalej do nast epnych neuronów. 4

Model Cullocha-Pittsa Na rysunku tym mamy zaznaczony jeden neuron ma on umownie numer i. Do neuronu tego zbiegaja sie sygna ly (bodźce) - jest ich j. Neuron je sumuje z wagami w i1, w i2,..., w ij. Gdy obliczona wartość sumy przekroczy pewna wartość progowa w i0, specyficzna dla danego neuronu, nastepuje jego zap lon, inaczej mówiac, neuron ten znajdzie sie w stanie pobudzenia. Matematycznie stan pobudzenia neuronu wyraża sie dwiema wartościami: 0, gdy pobudzenie neuronu nie przekroczy lo jego specyficznej wartości progowej, i 1, gdy jest przeciwnie. 5

Model Cullocha-Pittsa Rozważamy neuron o numerze i ze specyficzna wartościa progowa w i0. Za lożymy, że stan pobudzenia neuronu jest zjawiskiem dyskretnym zmieniajacym sie w czasie τ w sta lych odstepach czasu τ. Wartość pobudzenia i-go neuronu w czasie τ oznaczmy symbolem z i (τ). Wartość neuronu w chwili τ + τ zależy od tego, jak by ly pobudzone (dostarczajace mu bodźce) neurony z jego otoczenia w momencie poprzedzajacym moment τ. Neuron oblicza sume ważona dostarczanych mu sygna lów. 6

Model Cullocha-Pittsa O ile po dodaniu do wyznaczonej przez neuron sumy wartości progowej otrzyma sie liczbe dodatnia, nastepuje zap lon. Wyrazić to można w sposób nastepuj acy: z i (τ + τ) = Θ( j w ij z j (τ) + w i0 ) (1) Zmienna z i (τ) może mieć wartość 1, gdy i-ty neuron znajduje sie w chwili τ w stanie zap lonu, lub 0, gdy tak nie jest. Wagi w ij wystepuj ace w powyższym wzorze odzwierciedlaja istotność synapsy l acz acej neuron i-ty i j-ty. Wagi moga przyjmować zarówno dodatnie jak i ujemne wartości: w ij > 0 : odpowiednik synapsy pobudzajacej = 0 : brak po l aczenia m. neuronami < 0 : odpowiednik synapsy hamujacej. 7

Model Cullocha-Pittsa Funkcja Θ(a) wystepuj aca we wzorze 1 to funkcja Heaviside a (hardlimit) określona nastepuj aco: Θ(a) = { 1 dla a 0 0 dla a < 0 McCulloch i Pitts wykazali, że przy odpowiednio dobranych wagach w ij synchroniczny zespó l takich neuronów może wykonać te same obliczenia, co uniwersalna maszyna liczaca. 8

Dalsze prace posz ly w kierunku: użycia innych funkcji aktywacji umożliwia to modelowanie procesów nieliniowych, przedstawienia sygna lu z i nie jako procesu dyskretnego, ale jako procesu ciag lego. 9

Uogólnienie modelu Cullocha-Pittsa z 1943r Stosuje sie nastepuj ace uogólnienie: z i = g( j w ij z j + w i0 ). (2) We wzorze tym nie uzależnia sie stanu pobudzenia neuronu od czasu τ. Funkcja Θ( ) oznaczajaca funkcje Heaviside a zosta la zastapiona przez ogólna funkcje g( ), zwana funkcja aktywacji (funkcja wyg ladzajac a, funkcja przejścia, funkcja wzmocnienia) umożliwiajac a nieliniowość transformacji. Wartość z i jest funkcja ciag la określajac a stan neuronu w chwili t może być aktualizowana w dowolnej chwili. 10

Dzisiaj: Perceptron f funkcja aktywacji, y k - wynik na wyjściu: y k = f(a k ) = f( d j=1 w kj x j + w k0 ) 11

Literatura i Źród la danych 1. Ch. M. Bishop, Neural Networks for Pattern Recognition. Clarendon Press, Oxford, 1996. 2. Ian Nabney, Netlab: Algorithms for Pattern Recognition. Springer 2001. Seria: Advances in Pattern Recognition. ISBN 1 85233 440 1. 3. Stanis law Osowski, Sieci neuronowe w uj eciu algorytmicznym. WNT W-wa 1996. 4. Józef Korbicz, Andrzej Obuchowicz, Dariusz Uciński, Sztuczne sieci neuronowe. Podstawy i Zastosowania. Akademicka Oficyna Wydawnicza PLJ, Warszawa 1994. 5. Rosaria Silipo, Neural Networks, Rozdzia l 7 ksiażki: M. Bertold, D.J. Hand (eds.) Intelligent Data Analysis, Springer Berlin 1999, pp. 217 268. 6. Hertz J., Krogh A., Palmer R.G., Wst ep do teorii obliczeń neuronowych. T lum. z ang., wyd. II, WNT W-wa 1993. 12

Software i Dane 1. Netlab neural network software, Neural Computing Research Group, Division of Electric Engineering and Computer Science, Aston University, Birmingham UK, http://www.ncrg.aston.ac.uk/ 2. Juha Vesanto, J. Himberg, E. Alhoniemi, J. Parhankangas, SOM Toolbox for Matlab 5. Som Toolbox team, Helsinki University of Technology, Finland, Libella Oy, Espoo 2000, 1 54. http://www.cis.hut.fi/projects/somtoolbox/ 3. Zbiory danych www.ics.uci.edu/pub/machine-learning-databases/ Univ. of California at Irvine, najpopularniejsze archiwum tzw. benchmarków do analizy danych http://www.kernel-machines.org/data.html baza MNIST, NIST i in. htpp://lib.stat.cmu.edu/datasets/ DASL http://lib.stat.cmu.edu/dasl/alltopics.html data & story library http://finance.yahoo.com, historia notowań cen akcji. Szukać dla danego papieru historical prices i download. 13

Dodatkowa literatura 1. Ch. M. Bishop, Neural networks: a pattern recognition perspective. Technical Report NCRG/96/001, http://www.ncrg.aston.ac.uk/ 2. Juha Vesanto, SOM-based data visualization methods. Intelligent Data Analysis, 3 (2) 1999, 111 126. 3. Anna Kotula, Sieci neuronowe i regresja na przyk ladzie pakietu Netlab. Praca magisterska, IInUWr 2001. 4. Dawid Duda. Ewolucja sztucznych sieci neuronowych kodowanych za pomoca gramatyk atrybutowych. Praca magisterska IInUWr 2005. 5. Ryszard Tadeusiewicz, Sieci neuronowe, Akademicka Oficyna Wydawnicza, Warszawa 1993. 6. Tadeusiewicz R., Elementarne wprowadzenie do techniki sieci neuronowych z przyk ladowymi programami. Akademicka Oficyna Wydawnicza PLJ, Warszawa 1998. 7. Jolliffe I.T., Principal Component Analysis, Springer, New York 1986. II wydanie: 2002. 8. Żurada... 9. Dokumentacja Matlabowska... 14