Sztuczne sieci neuronowe. Reguła perceptronowa. Nadzorowany proces nauki. Zasada uczenia. Zasada uczenia. dr inŝ. Stefan Brock 2007/2008 1

Podobne dokumenty
Literatura SZTUCZNE SIECI NEURONOWE. Mózg/komputer jak to działa? MÓZG WZORZEC DOSKONAŁY KOMPUTER TWÓR DOSKONALONY SSN niekonwencjonalne przetwarzanie

SZTUCZNA INTELIGENCJA

Plan wykładu. Sztuczne sieci neuronowe. Uczenie nienadzorowane (bez nauczyciela) Uczenie nienadzorowane - przykłady

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Plan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty)

SYSTEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE METODY KLASYFIKACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

max Wydział Elektroniki studia I st. Elektronika III r. EZI Technika optymalizacji Dr inż. Ewa Szlachcic

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB



Sztuczne sieci neuronowe

Nieliniowe zadanie optymalizacji bez ograniczeń numeryczne metody iteracyjne optymalizacji

Wyróżnić należy następujące sieci rekurencyjne: sieć Hopfielda, jej uogólnienie sieć BAM, sieć Hamminga oraz sieci rezonansowe.

Sztuczne sieci neuronowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Pattern Classification

Zadanie 1. Rzucamy symetryczną monetą tak długo, aż w dwóch kolejnych rzutach pojawią się,,reszki. Oblicz wartość oczekiwaną liczby wykonanych rzutów.

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Sztuczne sieci neuronowe

MECHANIKA BUDOWLI 13

Budownictwo, II rok sem IV METODY OBLICZENIOWE. dr inŝ. Piotr Srokosz IP Temat 8

Plan wykładu. Sztuczne sieci neuronowe. Uczenie nienadzorowane (bez nauczyciela) Uczenie nienadzorowane - przykłady

4. Zjawisko przepływu ciepła



5. MES w mechanice ośrodka ciągłego

Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu

ROZWIĄZYWANIE DWUWYMIAROWYCH USTALONYCH ZAGADNIEŃ PRZEWODZENIA CIEPŁA PRZY POMOCY ARKUSZA KALKULACYJNEGO


Egzamin poprawkowy z Analizy II 11 września 2013

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Prawdopodobieństwo i statystyka r.

MATLAB Neural Network Toolbox uczenie sieci (dogłębnie)

Modele rozmyte 1. Model Mamdaniego

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych

Pattern Classification

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych





Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE

BADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda


ILOCZYNY WEKTORÓW. s równoległe wtedy i tylko wtedy. b =








Ę ó ą ż Ę Ń ó ś ź ń ś ś Ę óń ż ńó Ę ń ń ń ą ń ź ż ń ś ó Ż ó ąż ż łś ż żń ż ź ó ż ę ż ó ł Ń ń ń Ń ą Ńź óś ńńóń ń ń ń ż śż ó ś ż ż ą ó Ą Ń ż ł ń ą ż ą ż

Odtworzenie wywodu metodą wstępującą (bottom up)

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Reprezentacje grup symetrii. g s

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

FUNKCJE DWÓCH ZMIENNYCH















POPRAWA EFEKTYWNOŚCI METODY WSTECZNEJ

wiedzy Sieci neuronowe (c.d.)

Uczenie Wielowarstwowych Sieci Neuronów o

ŁĄ ę ł

α i = n i /n β i = V i /V α i = β i γ i = m i /m




ó ę ą ż ż ś ść Ó Ś ż Ó Ś ę ą żć ó ż Ó ż Ó ó ó ż Ó ż ó ą ą Ą ś ą ż ó ó ż ę Ć ż ż ż Ó ó ó ó ę ż ę Ó ż ę ż Ó Ę Ó ó Óś Ś ść ę ć Ś ę ąć śó ą ę ęż ó ó ż Ś ż

min h = x x Algorytmy optymalizacji lokalnej Nieliniowe zadanie optymalizacji bez ograniczeń numeryczne metody iteracyjne optymalizacji x x


f x f y f, jest 4, mianowicie f = f xx f xy f yx

δ δ δ 1 ε δ δ δ 1 ε ε δ δ δ ε ε = T T a b c 1 = T = T = T








Zaawansowane metody numeryczne

SWISS EPHEMERIS for the year 2012

XXX OLIMPIADA FIZYCZNA ETAP I Zadania teoretyczne

STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH

65120/ / / /200

Macierz prawdopodobieństw przejścia w pojedynczym kroku dla łańcucha Markowa jest postaci

Sieć neuronowa jako system ekspercki na rynku instrumentów pochodnych

Transkrypt:

Sztuczne sec neuronoe.stefanbroc.neostrada.pl dr nŝ. Stefan Broc Plan ładó. Wproadzene, modele neuronó, uład perceptronoe, uczene neuronó. Uczene sec neuronoch, metoda steczne propagac błędó, nne metod uczena. 3. Zastosoane sec neuronoch uładach steroana, modeloane sec neuronoch Matlabe 4. Sec las ANFIS, spółdzałane sec neuronoch nnch metod ntelgenc oblczenoe Nadzoroan proces nau Reguła perceptronoa - Wberz losoo ag początoe - Podaa losoo brane olenosc zorce x 3 - Modfu ag stosuąc regułę delta: (t+) (t) + η*err * x gdze err (śce_zorcoe - śce_atualne ) 0<η < - spólcznn szbosc uczena 4 - Potarza ro 3 aŝ do osągnęca rterum ońca (zbeŝność, masmalna lość terac) Zasada uczena Ogólna zasada nau dla sec neuronoch: Wetor ag [... n ] rośne proporconalne do locznu sgnału eścoego x uczącego r Zasada uczena + + η * r(, x, d ) * Dla reguł perceptronoe: def r d x Sgnał ucząc rr(,x,d ) dr nŝ. Stefan Broc 007/008

Cągła reguła perceptronoa - reguła delta Dla neuronó o cągłe róŝnczoalne func atac: r def [ d f ( x)]* f ( x) η *( d )* f ( net )* x t t Oblczane pochodne func atac Dla bpolarne func atac: f ( net) f ( net) + e λ * net ( ) Reguła delta dla arst neuronó Seć sładaąca sę z cągłch neuronó: z Γ[ W] [ z [ z z ] z J ] W M M O J J M J Inputs p p p 3 p R, S, R aer of S Neurons n f Σ b n Σ f b b S n S Σ f a a a S a f(wp + b) f ( ) 0 Γ( ) M 0 0 f ( ) M 0 PoŜądan sgnał śco: [ d dd O d ] 0 0 M f ( ) Błąd lasfac ednego obrazu eścoego E l ( d z ) l l Wartośc ag mnmalzuące błąd E l Sgnał błędu -tego neuronu z d l z η * l dr nŝ. Stefan Broc 007/008

PoneaŜ: net * Węc raŝene na orecę ag ma postać: +η z W W +η,,...,,,...,j t z z Błąd -tego neuronu net z z ( d z ) net ( d ( d ( d z ) * f ( net ) z ) *( z ) z z ) net Dla bpolarne, sgmodalne func atac Algortm uczena arst neuronó Dane - zesta par uczącch: {,d,,d,..., p,d p } (J*) d (*). Wbór η>0, E max >0. oso bór macerz W (*J) 3. l:0 E:0 4. : l d:d l z :f ( *) 5. +/* η*(d -z )(-z ) 6. Algortm uczena arst neuronó E : E + ( d z ) 7. Jezel l<p to l:l+, so do rou 4. 8. Zaonczene clu uczena (epo). Gd E<E max to onec, gd ne, to so do rou 3. Uogólnona reguła delta Seć duarstoa: arsta urta arsta ścoa. z Γ[ W] Γ[ WΓ[ Vx]] x ] [ x xx I V M J M J O I I M JI dr nŝ. Stefan Broc 007/008 3

Analogczna metoda gradentoa η * +η x Sgnał błędu neuronu arst urte Wśce -tego neuronu arst urte pła na błęd szstch neuronó arst ścoe f net ) ( V V +η x t Sgnał błędu neuronu arst urte ( d z ) z ( d z ) f [ net ( )] Wzór steczne propagac błędu + η * f ( net ) * x * z Ilustraca - nndsd.m dr nŝ. Stefan Broc 007/008 4

Wsteczna propagaca Matlabe % metoda steczne propagac bledu x[- - ;0 5 0 5]; % esca d[- - ]; % artosc oczeane net neff(mnmax(x),[3,],{'tansg','pureln'},'trangd'); net.tranparam.sho50; % setlana trace nau net.tranparam.lr0.05; % spolczn szbosc nau net.tranparam.epochs300; % masmalna losc epo net.tranparam.goale-5; % zadana doladnosc [net,tr]tran(net,x,d); % uczene sec asm(net,x) Wsteczna propagaca Matlabe >> nn_sb_ RAINGD, Epoch 0/300, MSE.5943/e-005, Gradent.76799/e- 00 RAINGD, Epoch 50/300, MSE 0.003638/e-005, Gradent 0.04959/e-00 RAINGD, Epoch 00/300, MSE 0.000435947/e-005, Gradent 0.060/e-00 RAINGD, Epoch 50/300, MSE 8.6846e-005/e-005, Gradent 0.00769588/e-00 RAINGD, Epoch 00/300, MSE.4504e-005/e-005, Gradent 0.0035667/e-00 RAINGD, Epoch /300, MSE 9.6486e-006/e-005, Gradent 0.0066775/e-00 RAINGD, Performance goal met. a -0.9988 -.0007 0.995.0035 Wsteczna propagaca Matlabe Metod popra procesu uczena Metod heurstczne metoda momentum metoda zmennego spółcznna szbośc nau metoda podatne steczne propagac Metod optmalzacne metoda gradentó sprzęŝonch metod quas-netonose Metoda momentum Nadane punto reprezentuącemu ag mas (bezładnośc) +η z Wpł spółcznna momentum α η ro 0.0 0.5 0367 0.5 0.5 580 n η z 0 < α < + α n Ilustraca - nndmo.m 0.9 0.5 007 0.9 0.05 0339 dr nŝ. Stefan Broc 007/008 5

Wpł spółcznna momentum % metoda steczne propagac bledu + metoda momentum x[- - ;0 5 0 5]; % esca d[- - ]; % artosc oczeane net neff(mnmax(x),[3,],{'tansg','pureln'},'trangdm'); net.tranparam.sho50; % setlana trace nau net.tranparam.lr0.05; % spolczn szbosc nau net.tranparam.epochs300; % masmalna losc epo net.tranparam.goale-5; % zadana doladnosc Wpł spółcznna momentum net.tranparam.mc0.9; % spolczn momentum [net,tr]tran(net,x,d); % uczene sec asm(net,x) Metoda zmennego spółcznna szbośc nau Adaptacna zmana spółcznn szbośc uczena a b uzsać moŝle duŝ spółcznn stabln proces nau Gd błąd olene epoce est ęsz nŝ poprzedno o ęce nz zdefnoana artość, spółcznn szbośc est zmneszan. Metoda zmennego spółcznna szbośc nau % metoda steczne propagac bledu z adaptacna zmana spolcznna x[- - ;0 5 0 5]; % esca d[- - ]; % artosc oczeane net neff(mnmax(x),[3,],{'tansg','pureln'},'trangda'); net.tranparam.sho50; % setlana trace nau net.tranparam.lr0.05; % spolczn szbosc nau net.tranparam.epochs300; % masmalna losc epo net.tranparam.goale-5; % zadana doladnosc net.tranparam.lr_nc.05; % spolczn zman szbosc nau [net,tr]tran(net,x,d); % uczene sec asm(net,x) Metoda zmennego spółcznna szbośc nau Metoda podatne steczne propagac Funca sgmodalna daleo od zera ma bardzo małe nachlene W efece tam przpadu naua przebega olno W metodze podatne pochodna func atac decdue tlo o znau zman etora ag. Wartość zman est ustaana adaptacne, ta b zapenć stablność. dr nŝ. Stefan Broc 007/008 6

Metoda podatne steczne propagac % metoda podatne steczne propagac bledu x[- - ;0 5 0 5]; % esca d[- - ]; % artosc oczeane net neff(mnmax(x),[3,],{'tansg','pureln'},'tranrp'); net.tranparam.sho0; % setlana trace nau net.tranparam.epochs300; % masmalna losc epo net.tranparam.goale-5; % zadana doladnosc [net,tr]tran(net,x,d); % uczene sec Metoda podatne steczne propagac asm(net,x) Metoda gradentó sprzęŝonch Metoda delta est metodą gradentoą - znacza sę erune poszuań porusza tm erunu (strom anon) Metod gradentó sprzęŝonch ntelgentne beraą erune poszuań. Jedna z nalepszch - metoda Polaa-Rbere a Metoda Polaa- Rbere a W sróce: orzon est cąg etoró g erunó poszuań h, ta Ŝe h są zaemne sprzęŝone. Gd optmalzoana funca n-maroa moŝe bć przedstaona ao forma adratoa, to mnmalzaca zdłuŝ n erunó h proadz do mnmum. Metoda Polaa- Rbere a % metoda gradentó sprzezonch Polaa-Rbre'a x[- - ;0 5 0 5]; % esca d[- - ]; % artosc oczeane net neff(mnmax(x),[3,],{'tansg','pureln'},'trancgp'); net.tranparam.sho0; % setlana trace nau net.tranparam.epochs300; % masmalna losc epo net.tranparam.goale-5; % zadana doladnosc [net,tr]tran(net,x,d); % uczene sec Metoda Polaa- Rbere a asm(net,x) dr nŝ. Stefan Broc 007/008 7

Metod quas-netonose Metoda optmalzac Netona - efetna, lecz maga lczena hesanu (macerz drugch pochodnch) func atac. Metod quas-netonose -bez lczena hesanu Napopularnesza - metoda BFGS Metod quas-netonose % metoda quas Netonosa BFGS x[- - ;0 5 0 5]; % esca d[- - ]; % artosc oczeane net neff(mnmax(x),[3,],{'tansg','pureln'},'tranbfg'); net.tranparam.sho0; % setlana trace nau net.tranparam.epochs300; % masmalna losc epo net.tranparam.goale-5; % zadana doladnosc [net,tr]tran(net,x,d); % uczene sec asm(net,x) Metoda quas-netonosa -BFGS Metoda aenberga-marquadta Aprosmaca hesanu poprzez aoban HJ *J Jest to naszbsz algortm uczena przedstaanch sec o średnm rozmarze (do luset ag) bardzo efetna mplementaca Matlabe Ilustraca - nndm.m Metoda aenberga-marquadta % metoda aenberga - Marquardta x[- - ;0 5 0 5]; % esca d[- - ]; % artosc oczeane net neff(mnmax(x),[3,],{'tansg','pureln'},'tranlm'); net.tranparam.sho0; % setlana trace nau net.tranparam.epochs300; % masmalna losc epo net.tranparam.goale-5; % zadana doladnosc [net,tr]tran(net,x,d); % uczene sec Metoda aenberga-marquadta asm(net,x) dr nŝ. Stefan Broc 007/008 8

Unane mnmó loalnch Potarzane testó Smuloane Ŝarzane Optmalzaca genetczna dr nŝ. Stefan Broc 007/008 9