Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Podobne dokumenty
Neural networks. Krótka historia rozpoznawanie znaków alfanumerycznych.

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Plan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty)

Inteligentne systemy informacyjne

Sztuczne sieci neuronowe

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Sztuczne sieci neuronowe

Systemy Inteligentnego Przetwarzania wykład 3: sieci rekurencyjne, sieci samoorganizujące się

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych

SZTUCZNA INTELIGENCJA

Systemy Inteligentnego Przetwarzania wykład 1: sieci elementarne

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Sztuczne sieci neuronowe (SNN)

Sztuczne sieci neuronowe

Uczenie sieci neuronowych i bayesowskich

SIECI NEURONOWE Wprowadzenie

wiedzy Sieci neuronowe

Sieci Neuronowe 1 Michał Bereta

MODELOWANIE RZECZYWISTOŚCI

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.

Sieci neuronowe i ich ciekawe zastosowania. Autor: Wojciech Jamrozy III rok SMP / Informatyka

SZTUCZNA INTELIGENCJA

METODY INŻYNIERII WIEDZY

Metody Sztucznej Inteligencji II

Wstęp do sztucznych sieci neuronowych

Sztuczne sieci neuronowe

Inteligencja. Władysław Kopaliśki, Słownik wyrazów obcych i zwrotów obcojęzycznych

Podstawy teorii falek (Wavelets)

Sieci neuronowe i algorytmy uczenia Czyli co i jak andrzej.rusiecki.staff.iiar.pwr.wroc.pl s.

Sieci neuronowe. - wprowadzenie - Istota inteligencji. WYKŁAD Piotr Ciskowski

Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba

Seminarium magisterskie. Dyskusja nad tematem pracy magisterskiej pisanej pod kierunkiem pani Dr hab. Małgorzaty Doman

Plan wykładu. Sztuczne sieci neuronowe. Sieci rekurencyjne. Sieci rekurencyjne. Wykład 8: Sieci rekurencyjne: sie Hopfielda. Sieci rekurencyjne

Przetwarzanie danych i rozwiązywanie problemów

Podstawy Sztucznej Inteligencji (PSZT)

OCENA DZIAŁANIA AE. METODY HEURYSTYCZNE wykład 4 LOSOWOŚĆ W AE KRZYWE ZBIEŻNOŚCI ANALIZA STATYSTYCZNA:

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE

Podstawy sztucznej inteligencji

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści

WYZNACZANIE WARTOŚCI PODSTAWOWYCH PARAMETRÓW TECHNICZNYCH NOWOCZESNYCH KOMBAJNÓW ZBOŻOWYCH PRZY UŻYCIU SSN

ESI: Perceptrony proste i liniowe

Wykład 1: Wprowadzenie do sieci neuronowych

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Inteligentne systemy przeciw atakom sieciowym

O badaniach nad SZTUCZNĄ INTELIGENCJĄ

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010

Sztuczne sieci neuronowe. Uczenie, zastosowania

wiedzy Sieci neuronowe (c.d.)

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Uniwersytet w Białymstoku Wydział Ekonomiczno-Informatyczny w Wilnie SYLLABUS na rok akademicki 2012/2013

u u u( x) u, x METODA RÓŻNIC SKOŃCZONYCH, METODA ELEMENTÓW BRZEGOWYCH i METODA ELEMENTÓW SKOŃCZONYCH

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

Wielokategorialne systemy uczące się i ich zastosowanie w bioinformatyce. Rafał Grodzicki

Warszawa, 28 stycznia 2017 r., Blok tematyczny II Sztuczne sieci neuronowe (środowisko MATLAB i Simulink z wykorzystaniem Neural Network Toolbox),

ID1SII4. Informatyka I stopień (I stopień / II stopień) ogólnoakademicki (ogólno akademicki / praktyczny) stacjonarne (stacjonarne / niestacjonarne)

Metody Sztucznej Inteligencji Methods of Artificial Intelligence. Elektrotechnika II stopień ogólno akademicki. niestacjonarne. przedmiot kierunkowy

Zaawansowane metody numeryczne

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2)

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I.

Sztuczne Sieci Neuronowe

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB


Praktyczne informacje o sieciach neuronowych. Elżbieta Dłubis. Państwowa Wyższa Szkoła Zawodowa w Chełmie

MATLAB Neural Network Toolbox przegląd

SIECI REKURENCYJNE SIECI HOPFIELDA

Wstęp do sieci neuronowych, wykład 01 Neuron biologiczny. Model perceptronu prostego.

Nie istnieje ogólna recepta, każdy przypadek musi być rozważany indywidualnie!

O badaniach nad SZTUCZNĄ INTELIGENCJĄ

KARTA MODUŁU KSZTAŁCENIA

MIKROEKONOMIA Prof. nadzw. dr hab. Jacek Prokop

Metody sztucznej inteligencji

ZASTOSOWANIE AUTORSKIEJ METODY WYZNACZANIA WARTOŚCI PARAMETRÓW NOWOCZESNYCH SYSTEMÓW TECHNICZNYCH DO PŁUGÓW I OPRYSKIWACZY POLOWYCH

Informatyka I stopień (I stopień / II stopień) ogólno akademicki (ogólno akademicki / praktyczny) kierunkowy (podstawowy / kierunkowy / inny HES)

Sieci neuronowe (wprowadzenie)

Wprowadzenie do teorii systemów ekspertowych

Streszczenie. Słowa kluczowe: modele neuronowe, parametry ciągników rolniczych

Inżynieria Rolnicza 3(121)/2010


Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty

Prof. Stanisław Jankowski

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

Sztuczne Sieci Neuronowe

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Obliczenia Naturalne - Sztuczne sieci neuronowe

Zastosowanie technik sztucznej inteligencji w analizie odwrotnej

PODSTAWY BAZ DANYCH I SZTUCZNEJ INTELIGENCJI. Adrian Horzyk. Akademia Górniczo-Hutnicza

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Sieć przesyłająca żetony CP (counter propagation)

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

1. Logika, funkcje logiczne, preceptron.

Wykład 1: Wprowadzenie do sieci neuronowych

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW

Transkrypt:

Sztuczne sec neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyk, p. 311

Wykład 1 PLAN: Jak (klasyczne) komputery ocenaą flozofę Alberta Enstena Hstora korzene teor sztucznych sec neuronowych Wprowadzene do teor sec neuronowych Sec neuronowe w praktyce Jeszcze raz o Alberce Enstene, flozof sztuczne ntelgenc Bblografa

Jakm flozofem był Albert Ensten? Naukowcy są kepskm flozofam - A. Ensten, Out of my later years, Phlosophcal Lbrary, New York 1950 A. Ensten był wybtnym naukowcem ( zdawał sobe z tego sprawę). Wnosek klasycznego, ntelgentnego (???) systemu ekspertowego: <<Albert Ensten uważał sę za kepskego flozofa>>

Bologczne korzene Mózg ludzk: obętość 1,4 l., pow. 2000cm 2, masa 1,5 kg Kora mózgowa: grubość 3 mm, 10 10-10 11 komórek nerwowych, lczba połączeń (synaps) 10 14-10 15 Impulsy komórek nerwowych: częstotlwość 1-100Hz, czas trwana 1-2 ms, napęce 100mV Szybkość pracy mózgu: 10 15 połączeń x 100Hz = 10 17 op./s

Bologczne korzene (cd) Cechy mózgu: - odporność na błędy - elastyczność - odporność na zaszumoną nformacę

Hstora sztucznych sec neuronowych (SSN) 1943 matematyczny model sztucznego neuronu McCulocha Pttsa 1949 Hebb reguła uczena bez nadzoru (Hebba) w Organzaton of Behavour 1958 perceptron Rosenblatta perwsza mplementaca SSN: elektroncznoelektromechanczny układ, warstwa weścowa warstwa wyścowa, uczene zbeżne (o le stnee rozwązane), aplkaca: do rozpoznawana znaków alfanumerycznych

Hstora rozwou SSN (cd) 1960 Wdrow Hoff: Madalne (multple adaptve lnear neurons) 1969 Mnsky Papert: ksążka Perceptrons krytyka SSN, zastó do początku lat 80.

Hstora rozwou SSN (cd) Odrodzene SSN: - 1982 Hopfeld budue pamęć autoasocacyną, seć rozwązuącą NP-zupełny problem komwoażera, - 1974, 1982, 1986 algorytm wsteczne propagac błędów odpowedzą na krytykę Mnsky ego Paperta - Początek lat 90: matematyczny dowód na sensowność wykorzystana SSN (perceptronów welowarstwowych) w rol klasyfkatorów w warunkach nepewnośc probablstyczne

Zalety sztucznych sec neuronowych (SSN) Potrafą odpowadać w warunkach nformac nepełne Ne wymagaą znaomośc algorytmu rozwązana zadana (automatyczne uczene) Przetwarzaą nformacę w sposób wysoce równoległy Potrafą generalzować (uogólnać na przypadk neznane) Są odporne na częścowe uszkodzena Potrafą realzować pamęć asocacyną (skoarzenową podobne ak dzała pamęć u ludz) w przecweństwe do pamęc adresowane (charakterystyczne dla klasycznych komputerów)

Sztuczny neuron net A O w n A O = czyl : O wo = A( = TF( n ) A = TF( A( ) wo ))

Seć neuronowa warstwowa

Ogólna postać reguły uczena ( ) ( ) n d h O w w = g( n, d ( O, w ) w = g,, g, h dowolne funkce

Reguła uczena Hebba w ( p) = η n ( p) O ( p) Gdy: g ~ n, h ~ O ( ) ( ) n d h O w w = g,,

Reguła uczena Delta (Wdrowa Hoffa) w ( p) Gdy: d w ( p) = η( ( p) n O A O ( p) ( p) ( p) ( p) = η g(n,d )= η(d - n ), h(o,w )= O ) ( ) ( ) n d h O w w = g,,

Typy uczena: Uczene nadzorowane gdy w regule w funkc g ako argument występue d Uczene nenadzorowane gdy w regule w funkc g ne występue d ( ) ( ) n d h O w w = g,,

Reguła Grossberga (1976) w = ηn ( O w ) Gdy: g(n,d )= ηn, h(o,w )= O -w ( ) ( ) n d h O w w = g,,

Reguła uczena Hebb - anty Hebb w = ηn ( 2O 1) Gdy: g = ηn, h = 2O -1 ( ) ( ) n d h O w w = g,,

Reguła uczena Hebb - anty Hebb z forsowanem w = ηd ( 2O 1) Gdy: g = ηd, h = 2O -1 ( ) ( ) n d h O w w = g,,

Reguła uczena Hopfelda w = η ( 2n 1)( 2O 1) Gdy: g = η(2n -1), h = 2O -1 ( ) ( ) n d h O w w = g,,

Reguła uczena Hopfelda z forsowanem w = η ( 2d 1)( 2O 1) Gdy: g = η(2d -1), h = 2O -1 ( ) ( ) n d h O w w = g,,

Reguła Kohonena stosowana do modyfkac ednego zwycęskego neuronu w Gdy: = η ( O w ) g(n,d )= η, h(o,w )= O -w ( ) ( ) n d h O w w = g,,

Reguła uczena w nektórych secach Hopfelda oraz BAM w ( p) = η d ( p) O ( p) Gdy: g = ηd, h = O ( ) ( ) n d h O w w = g,,

Model neuronu McCullocha- Pttsa 1 w 0 x 1 w 1 x 2 w 2 Σ n f(n) y x m w m n m = = 1 w * x + w, 0 y = 1 ( n)

Funkce prześca y ( n) = kn 1 0,5 0-0,6-0,4-0,2 0 0,2 0,4 0,6 Lnowa (lnowa, cągła, różnczkowalna)

Funkce prześca (cd) y ( n) = kn, 1, 1, dla n 1/ k dla 1/ k 1 < dla n > 1/ k n 1/ k ( ) 0,5 0-1 -0,5 0 0,5 1 Lnowa progowa (nelnowa, cągła, neróżnczkowalna)

Funkce prześca (cd) y(n) = 1dla n 0 dla n > 0 0 1 0,5 0-1 -0,5 0 0,5 1 Skoku ednostkowego (nelnowa, necągła, neróżnczkowalna)

Funkce prześca (cd) y( n) = 1 + 1 e βn 1 0,5 0-6 -4-2 0 2 4 6 Sgmodalna (nelnowa, cągła, różnczkowalna)

Funkce prześca (cd) y( n) = e n 2 1 0,5 0-6 -4-2 0 2 4 6 Gaussa (nelnowa, cągła, różnczkowalna, nemonotonczna)

Klasyfkaca sec neuronowych Ze względu na topologę: - ze sprzężenam (pamęć autoasocacyna Hopfelda) - bez sprzężeń (perceptron welowarstwowy, mapa cech Kohonena, seć z radalnym funkcam bazowym) Ze względu na sposób uczena: - uczene bez nadzoru (mapa cech Kohonena) - uczene z nadzorem (perceptron welowarstwowy, seć z radalnym funkcam bazowym) Ze względu na funkcę prześca: - lnowe (Adalne) - nelnowe (perceptron welowarstwowy, seć z radalnym funkcam bazowym)

Proces uczena z nadzorem Mnmalzaca błędu średnokwadrat. Mnmalzaca lośc błędnych odpowedz

Zastosowana sec neuronowych Rozpoznawane obrazów Rozpoznawane mowy Dagnostyka medyczna Prognozowane w ekonom Sterowane rucham robota Symulowane zachowań struktur bologcznych neuronów

Przykładowe pakety symuluące sec neuronowe -BranMaker -Matlab NN -Neural ++ -Stock Prophet -...

Znowu o Enstene Zastrzeżena do wycągnętego w oparcu o ścsłe reguły logczne wnosku: Ensten uważał sę za kepskego flozofa spowodowane asocacą nazwska Ensten z ego zamłowanem do flozof oraz z ego genuszem. Koneczny dodatkowy (ukryty) kontekst wypowedz Łatwość rozumu ludzkego (perwowzoru SN) z radzenem sobe z neprecyzynym (nedopowedzonym) stwerdzenam poprzez odkrywane ukrytego domyślnego kontekstu. Odkryty sens wypowedz Enstena: naukowcy [NA OGÓŁ] są kepskm flozofam, zatem ne musał on uważać sę za kepskego flozofa Każdy naukowec może teraz spokone flozofować sądząc, że to na ogół ego ne dotyczy...(maąc wszakże na uwadze, że za sprawą lepszego samopoczuca, ego flozofa nestety ne stane sę lepsza).

Na konec BARDZO flozofczne pytana Czym est ntelgenca Czym est śwadomość Czym est samośwadomość wreszce: Czy można POWAŻNIE mówć o sztuczne ntelgenc, w sytuac, kedy maszyna, która z edne strony wygrywa z mstrzem śwata w szachy, z druge, ne ma o tym namneszego poęca?

Bblografa T. Masters, Sec neuronowe w praktyce programowane w ęzyku C++, Warszawa 1996 R. Tadeusewcz, Elementarne wprowadzene do technk sec neuronowych z przykładowym programam, Warszawa 1998 J. Hertz, A. Krough, R. G. Palmer, Wstęp do oblczeń neuronowych, Warszawa 1995 J. Korbcz, A. Obuchowcz, D. Ucńsk, Sztuczne sec neuronowe podstawy zastosowana, Warszawa 1993

Bblografa (cd) R. Tadeusewcz, Sec neuronowe, Warszawa 1993 S. Osowsk, Sec neuronowe w uęcu algorytmcznym, Warszawa 1996 D. Rutkowska, M. Plńsk, L. Rutkowsk, Sec neuronowe, algorytmy genetyczne systemy rozmyte, Warszawa 1999 J. Lawrence, Introducton to Neural Networks, Nevada Cty 1994