Literatura SZTUCZNE SIECI NEURONOWE. Mózg/komputer jak to działa? MÓZG WZORZEC DOSKONAŁY KOMPUTER TWÓR DOSKONALONY SSN niekonwencjonalne przetwarzanie

Wielkość: px
Rozpocząć pokaz od strony:

Download "Literatura SZTUCZNE SIECI NEURONOWE. Mózg/komputer jak to działa? MÓZG WZORZEC DOSKONAŁY KOMPUTER TWÓR DOSKONALONY SSN niekonwencjonalne przetwarzanie"

Transkrypt

1 SZTUCZNE SIECI NEURONOWE Archtektura Tp Przeznaczene Procedur uczena Zastosoana Lteratura. J. śurada, M. Barsk, W. Jędruch, Sztuczne sec neuronoe, PWN 996. R. Tadeusecz, Sec neuronoe, AOW J. Korbcz, et al.., SSN, AOW R. Tadeusecz, Elementarne proadzene do technk sec neuronoch, AOW 998 Mózg/komputer ak to dzała? MÓZG WZORZEC DOSKONAŁY KOMPUTER TWÓR DOSKONALONY SSN nekonenconalne przetarzane N L E V 0 4 snaps 0-6 m 30 W 00 Hz 0 8 tranzstoró 0-6 m 30 W (CPU) 0 9 Hz Metoda oblczeń Rónoległa rozproszona Szeregoa centralna Toleran ca na błęd TAK Uc ze ne T A K NIE? Intelgenca zazcza tak ne (naraze) Programoane Dzałane sekencne Pamęc ROM/RAM (algortm + dane) Podatne na uszkodzena Wsoka PRECYZJA oblczeń UCZENIE RÓWNOLEGŁOŚĆ ARCHITEKTURA + WAGI POŁĄCZEŃ ODPORNE NA DEFEKTY Oblczena JAKOŚCIOWE

2 Problem rozpoznana gdze tu est pes? PRZEZNACZENIE SSN Klasfkaca (grupoane, dentfkaca/us Nav + General Dnamcs, Unv. of Penslvana+TRW) Aproksmaca (nelnoa, elomaroa) Pamęc asocacne (rozpoznaane obrazó) Optmalzaca (szeregoane zadań, planoane) Prognozoane procesó (energetka, gełda, medcna-ekg/eeg ) Automatka, robotka (steroane adaptacne/ NASA, seć ALVINN) Problem: rozpoznane negatu, nestablność uczene arst ukrtch, archtektura sposób kodoana Rozpoznane znakó kodoanch matrc 8x kod znaku alfanumercznego śca arst pośredne (ukrte) eśca Schemat sztucznego neuronu (Mc Cullocha-Pttsa: =, e > θ; = 0, e < θ) x x x n n spółcznnk ag - -t sgnał eśco x - łączne pobudzene neuronu ϕ - charakterstka neuronu x e= sumator n = e Σ ϕ( e) - sgnał śco aktaca

3 Elementarne układ logczne modelu neuronu McC-P zadane!!! neuron ( = ±, próg θ = 0 OR ) 3 θ UłóŜ schemat bramk NAND (x, x, x 3 ) UłóŜ schemat bramk NOR(x, x, x 3 ) Komórka pamęc - θ = k + = x k x x x n Neuron lno (Adalne/seć-Madalne: = α e, α = const ) n spółcznnk ag - ektor ϕ e sumator e Σ ϕ( e) n = = r Tr x = x aktaca lnoa - lnoa charakterstka neuronu = α e - sgnał śco x x x n Neuron nelno (element perceptrono (F. Rosenblatt): charakterstka unpolarna lub bpolarna) n spółcznnk ag - ektor - -t sgnał eśco x - łączne pobudzene neuronu ϕ - nelnoa charakterstka neuronu x e= sumator n = e Σ ϕ( e) - sgnał śco aktaca nelnoa Nelnoe charakterstk neuronu (net = e θ, gdze θ próg aktac neuronu) Funkca sgmodalna = β f-ca Heavsde a Funkca tangensodalna = α ϕ( net) ϕ( net) = + exp exp = + exp ( β net) ( α net) ( α net) f-ca sgnum / - 0 θ e 0 θ e 3

4 Seć neuronoa układ neuronó Seć ednoarstoa k sgnałó x R k eśca podane na n nepołączonch neuronó z uzględnenem nxk ag x Seć neuronoa eloarstoa Seć eloarstoa kaskada -arst przekazuąca sgnał od eśca do śca z uzględnenem ag pośrednch (p) x x k k x k nk n = k x = = Wx = ϕ( Wx) Seć eloarstoa problem lczb neuronó arst ukrte Struktura sec: 36 nu 5 analza błędu epokach uczena => optmalna lczba nu = 9 neuronó Archtektura sec neuronoch Sec ednokerunkoe (feedforard netorks) eden kerunek przepłu sgnałó od eść do ść Sec rekurencne (feedback netorks) sec ze sprzęŝenem zrotnm (Hopfelda) Sec komórkoe Sec rezonansoe (ART-; ART-) Sec hbrdoe tpu Counter-Propagaton 4

5 Metod uczena sec modfkaca ag Uczene nadzoroane (delta, steczne propagac błędu) Uczene nenadzorane (korelacne) reguła Hebba, reguła Oa, nstar, outstar Uczene konkurencne (WTA, WTM) Metod mękke selekc algortm genetczne smuloane odpręŝane x x x n Perceptron prost (element perceptrono (F. Rosenblatt): charakterstka unpolarna lub bpolarna) n - ektor ag θ sumator aktaca necągła e Σ ϕ( e) rozszerzon ektor eść: ~ x= x, x,..., xn, rozszerzon ektor ag: = ~ [,,..., n,θ] e n = + = T T = ~ ~ x = x x θ [ ] Co potraf element perceptrono? = 0 x α = hperpłaszczzna dzeląca przestrzeń obrazó x na półprzestrzene deczne: = 0 oraz = x T - θ = 0 Dla określonego ektora ag perceptron ocena soko te eśca x, dla którch kąt α z ektorem est mał, bo óczas pobudzene est duŝe: x T = cos(α) dla unormoanch ektoró ag eść x Co to znacz uczć seć? Uczene sec to modfkaca ag: ~ tak, ab sgnał eśco x daał na ścu sec obraz poŝądan: z =ϕ ( ~ x T) zamast obrazu perotnego: T =ϕ( x ) Błąd uczena: δ = z 5

6 Reguła perceptronoa (algortm uczena z nadzorem). Poda stępn ektor ag (0), =. Poda zorzec u znacz obraz (dla (-) ) 3. Gd obraz est zgodn z poŝądanm z => (5) 4. Gd δ = 0 => () = (-) + η u = z 0 Gd δ = => () = (-) = z 0 - η u 5. = + => () () Jak dobrać strategę prezentac zorcó bór ag stępnch? () Warunek zbeŝnośc uczena LINIOWA SEPARACJA {u }!!! x x Perceptron -arsto (rozązue zadane XOR) - - θ θ Σ Σ ϕ( e) ϕ( e) - v θ 0 v Σ ϕ( e) arsta ścoa: = H(v x T θ 0 ) arsta ukrta: x k = H( k x T θ k ) dzel przestrzeń eść k-raz na -półpłaszczzn, ęc cała arsta ukrta dzel ą na podzbor, z którch eden est pukł tu neuron są zapalone u k = x ektor obrazu z przestrzen maru n -arstoe klasfkator (mnmalno-odległoścoe maszn lnoe) R + + g (x) g (x) + g R(x) selektor max g (x)=( ) T.x funkce deczne klasa x x = dla x P P zorzec klas Cel: podzał przestrzen obrazó na obszar deczne prznaleŝne kaŝde klase zorcó P ( R) g. mnmum odległośc: mn x P = x T x (P T.x P T. P /) =P oraz n+= P T P / s : g (x) - g (x) = 0 lne deczne Przkład: maszna lnoa dla 3 klas (metoda analtczna) x obszar klas P P P x 3 obszar klas obszar klas 3 lne rozdzelaące (hperpłaszczzn): s : 3x - x = 0 s 3 : 8x + 3x + 3 = 0 s 3 : 5x - 4x 5 = zorce: P = ; P = ; P3 = 4 4 funkce dskrmnacne: g (x)=( ) T.x = 8x +x - 34 g (x)=( ) T.x = x +4x 0 g (x)=( ) T.x = -8x - 4x = ; 34 = 4 ; =

7 Seć klasfkuąca 3 obszar g uczena Uczene dchotomzatora ( klas) klasa : T x > 0 (x P ) oraz klasa : T x < 0 (x P ) x + g (x) + g (x) + g 3(x) 3 3 rozproszone lub lokalne kodoane klas Zgodne z regułą delta modfkace ag następuą przez +/-ηx k : ( k+ ) ( k) k k = ± ( d ) x k ( k+ ) ( k) k k = ± ( d ) x k gdze + dla x P, a - dla x P (aktaca bpolarna - sgnum) (aktaca unpolarna skok 0/) zakończene procesu, gd od penego czasu t modfkace zankną: (t+) = (t+) =... = * Uczene dchotomzatora (c.d.) (3) = (4) = * () = (3) = * x () x = ; x = () x () ( ) 3 ( ) 3 = ; x = x [ ] ; d= ; = sgn 3 = = + x = 3 ( 3) 0 x = x [ ] ; d= ; = sgn 3 = = x = = 3 4 Klasfkator cągł uczene (algortm gradento naększego spadku) r η E ( ) ( k+ ) ( k) ( k) = Cągła funkca błędu: E = ½ (d ) = ½ (d φ( T x)) Dla bpolarne aktac: Dla unpolarne aktac: ( k + ) ( k ) ( )( ) k = tanh β = = + η d x ( k + ) ( k ) ( ) ( ) k = (k czas dskretn) ( net) = ( + exp( β net) ) = ( ) + η d x Uaga: est to rozszerzene poznane reguł delta dla cągłe funkc aktac 7

8 Algortm gradento naększego spadku Poerzchna błędu kadratoego Uczene samo-organzuące (reguła Hebba + e modfkace) Wnk obserac neurobologó (efekt Pałoa): zmocnene połączena snaptcznego k następue, gd oba połączone neuron oraz k są zapalone, tzn. aktne. ( k+) = ( k) + ( k) ( k) = η x ( k) ( k) ( k) = η x ( k) d( k) uczene bez nadzoru Reguła Hebba to reguła korelacna (często rozbeŝna!!!) proadzaąca zrost sł połączena neuronó prz skoreloanu sgnałó pre- post- snaptcznch uczene z nadzorem reguła Hebba - modfkace reguł tpu Hebba modfkace c.d.// () spółcznnk zapomnana γ zapobega stałemu nascanu neuronó prz elokrotnm muszenu zorcem x : ( k) = η x ( k) ( k) γ ( k) ( k) = η ( x ( k) γ ( k) ) ( k) () Reguła O: ścoe sgnał modfkuą sgnał eśco x (rodza sprzęŝena zrotnego) ( k) = η ( x ( k) ( k) ) ( k) (3) Reguła ant-hebba: uemne spolarzoane modfkace ag ne proadzą do rozbeŝnośc procesu uczena (neoptmalne) ( k) = η x ( k) ( k) (4) Popraa efektnośc samouczena samoorganzac neuronó często osągana est prz uczenu przrostom: ( k) = η ( x ( k) x ( k ) )( ( k) ( k ) ) (5) Reguła gazd eść (nstar tranng): tlko bran -t neuron est uczon rozpoznana aktualnego sgnału x ( k) = η ( k) ( x ( k) ( k) ) η( k) = 0. λ k > 0 (6) Reguła gazd ść (outstar tranng): tlko ag branego -tego eśca podlegaą uczenu zorca dla obrazu x ( k) = η ( k) ( ( k) ( k) ) η( k) = λ k > 0 8

9 reguł uczena modfkace c.d.// (7) tłumene neaktnch, a zmocnene aktnch ść neuronó prz aktnch eścach x dae tz. reguła Hebba/AntHebba (prz dskrmnac sgnałó x, > ε): ( k) = η x& ( k) ( & ( k) ) Analza błędu procesu uczena sec eloarstoe dla róŝnch parametró: spółcznnk uczena (η) momentum (α) (8) przspeszane oraz lepszą stablność uczena (ęc ększe η) duŝch secach osąga sę przez uzględnene bezładnośc procesu stosuąc poprakę metod momentu, np.: ( k) = η ( d( k) ( k) ) x( k) + η [ ( k) ( k ) ] Uaga: optmalne arunk dla η = 0.9 η = 0.6 (zmenne prz η /η = const) Poszukue sę stablnego szbkego procesu uczena Uczene z nadzorem sec eloarstoch steczna propagaca błędu (backprop) x arsta eścoa δ (m) (m) δ (m+) (m+) u (m-) u (m) m- m m+ arsta ukrta ( m) ( m) ( m ) u = f u = 0 ( m) ( m) δ = f ϕ = arsta ścoa ( m+ ) ( m+ ) ( ) δ ( M) ( M) δ = f ϕ d ( )( ) Algortm steczne propagac błędu. poda ektor ucząc u na eśce sec. znacz artośc ść u (m) kaŝdego elementu sec (*) 3. oblcz artośc błędó δ (M) dla arst ścoe (*) 4. oblcz błąd uczena sec dla zorca u (suma kadrató δ (M) ) 5. dokona propagac steczne błędu z p. (4) => znacz δ (m) (*) 6. dokona aktualzac ag od śca do arst eścoe ( )( ) ( m) ( m) ( m ) u = f u ( M) ( M) δ = f ϕ d = 0 δ ( m+ ) ( m+ ) ( ) δ ( m) ( m) = f ϕ = 9

10 Aktualzaca ag g uogólnone reguł delta Sec samoorganzuące sę (bez nadzoru + WTA) ( m ( ) ) ( m ( ) ) k = η δ k u ( k) Uaga: artośc błędó elementó dane arst ukrte są znaczane przed aktualzacą ag arste następne Uogólnoną regułę delta często uzupełna sę przęcem poprak momentum celu przspeszena stablzac uczena sec Seć Hammnga MaxNet (rozpoznaane obrazó) seć Kohonena (grupoane ektoró uczącch - clusterng) seć ART- (adaptve resonance theor) stablne grupoane adaptacne Uczene stosuąc marę podobeństa zorcó poprzez. loczn skalarn ektora eścoego ektora ag lub. sąsedzto topologczne, tzn. odległość neuronó sec pobudzonch danm obrazem eścom Sec Hammnga () MaxNet () (klasfkaca zaszumonego obrazu do nablŝsze klas zorcó g. odległośc Hammnga ag ne podlegaą uczenu!) Lczba p neuronó arst () est zgodna z loścą klas, tzn. Ŝe kaŝd neuron reprezentue edną z dopuszczonch grup: ( ) [ ] p ( ) WH = s net= [ n HD( x, s )] p = = Macerz ag arst (H) złoŝona z p zorcó po erszach W H Łączne pobudzene arst (H) merzone spólnm btam x s Sec Hammnga MaxNet/cd. Warsta () elmnue rekurencne szstke śca z () prócz maksmalnego k skazane numeru grup k Macerz ag arst () złoŝona z autopobudzaącch połączeń oraz hamuącch połączeń lateralnch o sle -ε [ W ] = oraz[ W ] = ε ( 0< ε < p) M M Lnoa aktaca = f(net) neuronó (H) normue sgnał eśco do arst () do przedzału (0, ) f(net) 0 n net Aktaca f arste () est róneŝ lnoa, ale (0, ) elmnaca koleno namneszego -tego sgnału przez f (net ) = 0 k-tm kroku rekurenc, gd net < 0 0

11 Sec Hammnga MaxNet schemat sec x x x 3 x 4 = s () n/ (0) n/ (0) (k+) (k+) n/ 3 (0) 3 (k+) 3 3 n = 4; p = 3 klas ε = 0. < /3 Wada sec: załoŝona lość klas (uczene neadaptacne => ART-) Sec Hammnga MaxNet przkład W matrc n = 3x3 zdefnoano p = zorce zakodoane bnarne: - klasa klasa - - s () = ( - - ) s () = ( ) Seć ma zadane zaklasfkoać obraz : x = x = x 3 = WH Sec Hammnga MaxNet przkład/cd. = WM = 4 4 dla 0< ε=/4 </p Dla obrazu x 3 =(----) => H,3 = [5/9 5/9] seć ne rozstrzga o klasfkac (!) H, 9 HD( x, s = 9 9 HD( x, s () () ( k+ ) ( k) M = f ( WM M ) Dla obrazu x =() => H, = [7/9 5/9] mam rekurencne aktnośc: f f f f = Dla obrazu x =( ) => H, = [/9 4/9] f f f = ) ) klasa - U klasa - T Seć Kohonena grupoane obrazó Seć -arstoa + uczene z ralzacą, tzn. modfkac ulega ektor ag nablŝsz danemu zorco (ag są normoane): x ˆ m = mn x ˆ =,,..., Warunek ten zapena reguła gazd eść: Po zakończenu uczena ektor ag skazuą środk cęŝkośc krtch grup obrazó (lość grup est neznana a pror) choć gęste zorce ścągaą ektor ag (ada) + kalbraca sec () przechtane ag => x = q x + (- q) 0, q () Sumene g DeSeno często graąc neuron zamera p ˆ = η( x ˆ ) m m

12 Seć Kohonena clusterng/przkład Seć ART- adaptacne grupoane obrazó zorce grup ag początkoe ag końcoe Grossberg: sec Madalne cz Perceptron są nestablne trakce procesu uczena, tzn. neuron raz nauczon rozpoznaana zorca moŝe trakce dalsze nauk przestać sę na rozpoznane nnego zorca. Seć stae sę neprzedalna. Grossberg: seć ucząca sę bez nadzoru ale z podanem sgnałó ścoch znó na eśca, tak ab zcęsk neuron zmacnał soe łasne pobudzene ponna bć stablna zasada zbudzena rezonansu mędz arstam We-W Wag końcoe osągnęte procese uczena sec mogą bć róŝne dla tch samch zorcó zaleŝnośc od podanch ag początkoch: ch lczb artośc Zasada adaptac: persz zorzec torz perszą grupę, zorce kolene są dołączane do stneące grup lub torzą noą grupę reprezentoaną przez kolen oln neuron Seć ART- schemat Seć ART- algortm przetarzana dół-góra-dół M v, v,..., v n, v, v,..., v n v M, v M,..., v nm,... M,... M n, n... nm x x x n. Poda próg czułośc: 0 < r < ; ag = /( + n) oraz v =. Poda obraz bnarn oblcz mar dopasoana = (x, W ) 3. Wberz dopasoaną kategorę m = max( ) dla =,,...,M 4. Wkona test podobeństa dla neuronu m-tego: p m = (x, V m )/(x, ) > r If (~4): m = 0 =>(3) lub noa grupa 5. IF (4) => skorgu ag g. Relac v m (k+) = v m (t) x & m = v m (k+)/{0.5+(x, V m )} V ako czarn belee trakce uczena - neodracalne 6. => ()

13 Seć ART- ad dzałana. Prmtn test podobeństa ne est stane rozróŝnć (tzn. poprane sklasfkoać) zaszumonch zorcó. obnŝane progu czułośc ponŝe granczne artośc zaburz klasfkace orgnałó zbudue mneszą lczbę klas 3. Ab zapamętać odtarzać kolene zorce gd brak uŝ olnch neuronó do klasfkac naleŝ uŝć schemató bardze złoŝonch (Pao, Addson-Wesle, 989 sec Pao) 4. Archtektura sec ART est neefektna z rac lczb ag 5. Mała poemność Sec pamęc skoarzenoe pamęc adresoane zaartoścą, szukane nformac, analza mo seć Hntona (naprostsza statczna pamęć ednoarstoa) -kerunkoa seć BAM (Bdrectonal Assocatv Memor) seć Hopfelda (optmalzace kombnatorczne, rozpoznaane obrazu, analza procesó chaotcznch, rozązane problemu komoaŝera, automatka adaptacna fltr Kalmana) Rola zorcó ortogonalnch lnoo nezaleŝnch pamęć absolutna Seć Hntona -arstoa pamęć asocacna Seć BAM -arstoa pamęć -kerunkoa Proces zapsu = reguła Hebba z agam (0) = 0 = (k-) + f s dla s = [s ] f = [f ] Proces zapsu = reguła Hebba z agam (0) = 0, η = = (k-) + f s dla s = [s ] f = [f ] W mn s f Seć nterpolacna (ne progoa) heteroasocacna dealna dla zorcó ortogonalnch nezaleŝnch lnoo s f Energa sec: W nm E(s, f) = -s T Wf dąŝ do mnmum globalnego 3

14 Seć Hopfelda asnchronczna -arstoa pamęć rekurencna (hetero/autoasocacna) Proces zapsu = reguła Hebba z agam = 0, η =? = (k-) + f s dla s = [s ] f = [f ] W mn s W nm f Energa sec: E(s) = -s T Ws dąŝ do mnmum globalnego 4

Wyróżnić należy następujące sieci rekurencyjne: sieć Hopfielda, jej uogólnienie sieć BAM, sieć Hamminga oraz sieci rezonansowe.

Wyróżnić należy następujące sieci rekurencyjne: sieć Hopfielda, jej uogólnienie sieć BAM, sieć Hamminga oraz sieci rezonansowe. 1. Seć Hopfelda 1.1 Sec ze sprzężene zrotn Sec ze sprzężene zrotn torzą odrębną grupę sec neuronoch, stępuącą róneż pod nazą sec rekurencnch bądź asocacnch. Zaknęce pętl sprzężena zrotnego poodue, ż seć

Bardziej szczegółowo

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe Sztuczne sec neuronoe model konekconstyczny 2 Plan ykładu Geneza modelu konekconstycznego Głóne cechy Model sztucznego neuronu Archtektury sec neuronoych Proces uczena sę sec Uczene poedynczego neuronu

Bardziej szczegółowo

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe Sztuczne sec neuronoe model konekconstyczny 2 Plan ykładu Geneza modelu konekconstycznego Głóne cechy Model sztucznego neuronu Archtektury sec neuronoych Proces uczena sę sec Uczene poedynczego neuronu

Bardziej szczegółowo

Sztuczne sieci neuronowe. Reguła perceptronowa. Nadzorowany proces nauki. Zasada uczenia. Zasada uczenia. dr inŝ. Stefan Brock 2007/2008 1

Sztuczne sieci neuronowe. Reguła perceptronowa. Nadzorowany proces nauki. Zasada uczenia. Zasada uczenia. dr inŝ. Stefan Brock 2007/2008 1 Sztuczne sec neuronoe.stefanbroc.neostrada.pl dr nŝ. Stefan Broc Plan ładó. Wproadzene, modele neuronó, uład perceptronoe, uczene neuronó. Uczene sec neuronoch, metoda steczne propagac błędó, nne metod

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 5. SZTUCZNE SIECI NEURONOWE REGRESJA Częstochowa 4 Dr hab. nż. Grzegorz Dudek Wdzał Elektrczn Poltechnka Częstochowska PROBLEM APROKSYMACJI FUNKCJI Aproksmaca funkc przblżane

Bardziej szczegółowo

Plan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty)

Plan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty) Plan wykładu Dzałane neuronu dyskretnego warstwy neuronów dyskretnych Wykład : Reguły uczena sec neuronowych. Sec neuronowe ednokerunkowe. Reguła perceptronowa Reguła Wdrowa-Hoffa Reguła delta ałgorzata

Bardziej szczegółowo

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Wykład 2: Uczenie nadzorowane sieci neuronowych - I Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za

Bardziej szczegółowo

Neural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych.

Neural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych. Neural networks Lecture Notes n Pattern Recognton by W.Dzwnel Krótka hstora McCulloch Ptts (1943) - perwszy matematyczny ops dzalana neuronu przetwarzana przez nego danych. Proste neurony, które mogly

Bardziej szczegółowo

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Wykład 2: Uczenie nadzorowane sieci neuronowych - I Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za

Bardziej szczegółowo

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe Sztuczne sec neuronowe Jerzy Stefanowsk Plan wykładu 1. Wprowadzene 2. Model sztucznego neuronu. 3. Topologe sec neuronowych 4. Reguły uczena sec neuronowych. 5. Klasyfkaca sec neuronowych. 6. Sec warstwowe

Bardziej szczegółowo

Systemy Inteligentnego Przetwarzania wykład 3: sieci rekurencyjne, sieci samoorganizujące się

Systemy Inteligentnego Przetwarzania wykład 3: sieci rekurencyjne, sieci samoorganizujące się Systemy Intelgentnego Przetwarzana wykład 3: sec rekurencyne, sec samoorganzuące sę Dr nż. Jacek Mazurkewcz Katedra Informatyk Technczne e-mal: Jacek.Mazurkewcz@pwr.edu.pl Sec neuronowe ze sprzężenem Sprzężena

Bardziej szczegółowo

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311 Sztuczne sec neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyk, p. 311 Wykład 1 PLAN: Jak (klasyczne) komputery ocenaą flozofę Alberta Enstena Hstora korzene teor sztucznych sec neuronowych

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 8. SZTUCZNE SIECI NEURONOWE INNE ARCHITEKTURY Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska SIEĆ O RADIALNYCH FUNKCJACH BAZOWYCH

Bardziej szczegółowo

Plan wyk y ł k adu Mózg ludzki a komputer Komputer Mózg Jednostki obliczeniowe Jednostki pami Czas operacji Czas transmisji Liczba aktywacji/s

Plan wyk y ł k adu Mózg ludzki a komputer Komputer Mózg Jednostki obliczeniowe Jednostki pami Czas operacji Czas transmisji Liczba aktywacji/s Sieci neuronowe model konekcjonistczn Plan wkładu Mózg ludzki a komputer Modele konekcjonistcze Sieć neuronowa Sieci Hopfielda Mózg ludzki a komputer Twój mózg to komórek, 3 2 kilometrów przewodów i (biliard)

Bardziej szczegółowo

ZESTAW ZADAŃ Z INFORMATYKI

ZESTAW ZADAŃ Z INFORMATYKI (Wpsue zdaąc przed rozpoczęcem prac) KOD ZDAJĄCEGO ZESTAW ZADAŃ Z INFORMATYKI CZĘŚĆ II (dla pozomu rozszerzonego) GRUDZIEŃ ROK 004 Czas prac 50 mnut Instrukca dla zdaącego. Proszę sprawdzć, cz zestaw zadań

Bardziej szczegółowo

x 1 x 2 x 3 x n w 1 w 2 Σ w 3 w n x 1 x 2 x 1 XOR x (x A, y A ) y A x A

x 1 x 2 x 3 x n w 1 w 2 Σ w 3 w n x 1 x 2 x 1 XOR x (x A, y A ) y A x A Sieci neuronowe model konekcjonistczn Plan wkładu Perceptron - przpomnienie Uczenie nienadzorowane Sieci Hopfielda Perceptron w 3 Σ w n A Liniowo separowaln problem klasfikacji ( A, A ) Problem XOR 0 0

Bardziej szczegółowo

Plan wykładu. Sztuczne sieci neuronowe. Uczenie nienadzorowane (bez nauczyciela) Uczenie nienadzorowane - przykłady

Plan wykładu. Sztuczne sieci neuronowe. Uczenie nienadzorowane (bez nauczyciela) Uczenie nienadzorowane - przykłady Plan yładu Wyład 10: Sec samoorganzuce s na zasadze spółzaodncta Sec samoorganzuace s na zasadze spółzaodncta: uczene nenadzoroane uczene onurencyne reguła WTA reguła WTM antoane etoroe mapa cech Kohonena

Bardziej szczegółowo

wiedzy Sieci neuronowe (c.d.)

wiedzy Sieci neuronowe (c.d.) Metody detekci uszkodzeń oparte na wiedzy Sieci neuronowe (c.d.) Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 8 Metody detekci uszkodzeń oparte na wiedzy Wprowadzenie

Bardziej szczegółowo

Monitorowanie i Diagnostyka w Systemach Sterowania

Monitorowanie i Diagnostyka w Systemach Sterowania Montoroane Dagnostka Sstemach Steroana Katedra Inżner Sstemó Steroana Dr nż. Mchał Grochosk Montoroane Dagnostka Sstemach Steroana na studach II stopna specjalnośc: Sstem Steroana Podejmoana Deczj Maszn

Bardziej szczegółowo

Temat: Operacje elementarne na wierszach macierzy

Temat: Operacje elementarne na wierszach macierzy Temat: Operacje elementarne na erszach macerzy Anna Rajfura Anna Rajfura Operacje elementarne na erszach macerzy n j m n A Typy operacj elementarnych. Zamana mejscam erszy oraz j, ozn.: j. Mnożene ersza

Bardziej szczegółowo

Modele rozmyte 1. Model Mamdaniego

Modele rozmyte 1. Model Mamdaniego Modele rozmte Cel torzena noch model: dążene do uzskana coraz ększej dokładnośc, maroośc lub uproszczena struktur. Model Mamdanego Np.: -^ + R: JEŻELI jest to jest B R: JEŻELI jest to jest B R: JEŻELI

Bardziej szczegółowo

Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu

Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu Wprowadzene do Sec Neuronowych Algorytm wstecznej propagacj błędu Maja Czoków, Jarosław Persa --6 Powtórzene. Perceptron sgmodalny Funkcja sgmodalna: σ(x) = + exp( c (x p)) Parametr c odpowada za nachylene

Bardziej szczegółowo

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu Literatura Wykład : Wprowadzenie do sztucznych sieci neuronowych Małgorzata Krętowska Wydział Informatyki Politechnika Białostocka Tadeusiewicz R: Sieci neuronowe, Akademicka Oficyna Wydawnicza RM, Warszawa

Bardziej szczegółowo

Lekcja 5: Sieć Kohonena i sieć ART

Lekcja 5: Sieć Kohonena i sieć ART Lekcja 5: Sieć Kohonena i sieć ART S. Hoa Nguyen 1 Materiał Sieci Kohonena (Sieć samo-organizująca) Rysunek 1: Sieć Kohonena Charakterystyka sieci: Jednowarstwowa jednokierunkowa sieć. Na ogół neurony

Bardziej szczegółowo

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych Najprostsza jest jednostka lnowa: Neuron lnowy potraf ona rozpoznawać wektor wejścowy X = (x 1, x 2,..., x n ) T zapamętany we współczynnkach wagowych W = (w 1, w 2,..., w n ), Zauważmy, że y = W X Załóżmy,

Bardziej szczegółowo

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna. Sieci neuronowe model konekcjonistyczny Plan wykładu Mózg ludzki a komputer Modele konekcjonistycze Perceptron Sieć neuronowa Uczenie sieci Sieci Hopfielda Mózg ludzki a komputer Twój mózg to 00 000 000

Bardziej szczegółowo

Pattern Classification

Pattern Classification Pattern Classfcaton All materals n these sldes ere taken from Pattern Classfcaton nd ed by R. O. Duda, P. E. Hart and D. G. Stork, John Wley & Sons, 000 th the permsson of the authors and the publsher

Bardziej szczegółowo

Plan wykładu. Sztuczne sieci neuronowe. Sieci rekurencyjne. Sieci rekurencyjne. Wykład 8: Sieci rekurencyjne: sie Hopfielda. Sieci rekurencyjne

Plan wykładu. Sztuczne sieci neuronowe. Sieci rekurencyjne. Sieci rekurencyjne. Wykład 8: Sieci rekurencyjne: sie Hopfielda. Sieci rekurencyjne Plan wykładu Wykład 8: Sec rekurencyne: se Hopfelda Małgorzata Krtowska Katedra Oprogramowana e-mal: mmac@.pb.balystok.pl Sec rekurencyne Se Hopfelda tryb odtwarzana funkca energ dynamka zman stanu wykorzystane

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA

STATYSTYKA MATEMATYCZNA STATYSTYKA MATEMATYCZNA. Wkład wstępn. Teora prawdopodobeństwa element kombnatork. Zmenne losowe ch rozkład 3. Populacje prób danch, estmacja parametrów 4. Testowane hpotez statstcznch 5. Test parametrczne

Bardziej szczegółowo

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia

Bardziej szczegółowo

Metody Sztucznej Inteligencji II

Metody Sztucznej Inteligencji II 17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału

Bardziej szczegółowo

4. Zjawisko przepływu ciepła

4. Zjawisko przepływu ciepła . Zawso przepływu cepła P.Plucńs. Zawso przepływu cepła wymana cepła przez promenowane wymana cepła przez unoszene wymana cepła przez przewodzene + generowane cepła znane wartośc temperatury zolowany brzeg

Bardziej szczegółowo

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. zajecia.jakubw.pl/nai Literatura: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym. WNT, Warszawa 997. PODSTAWOWE ZAGADNIENIA TECHNICZNE AI

Bardziej szczegółowo

Macierz prawdopodobieństw przejścia w pojedynczym kroku dla łańcucha Markowa jest postaci

Macierz prawdopodobieństw przejścia w pojedynczym kroku dla łańcucha Markowa jest postaci Zadane. Macerz radoodobeńst rzejśca ojedynczym kroku dla łańcucha Markoa...... o trzech stanach { } jest ostac 0 n 0 0 (oczyśce element stojący -tym erszu j -tej kolumne tej macerzy oznacza P( = j. Wtedy

Bardziej szczegółowo

termodynamika fenomenologiczna p, VT V, teoria kinetyczno-molekularna <v 2 > termodynamika statystyczna n(v) to jest długi czas, zachodzi

termodynamika fenomenologiczna p, VT V, teoria kinetyczno-molekularna <v 2 > termodynamika statystyczna n(v) to jest długi czas, zachodzi fzka statstczna stan makroskopow układ - skończon obszar przestrzenn (w szczególnośc zolowan) termodnamka fenomenologczna p, VT V, teora knetczno-molekularna termodnamka statstczna n(v) stan makroskopow

Bardziej szczegółowo

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe www.math.uni.lodz.pl/ radmat Cel wykładu Celem wykładu jest prezentacja różnych rodzajów sztucznych sieci neuronowych. Biologiczny model neuronu Mózg człowieka składa się z około 10 11 komórek nerwowych,

Bardziej szczegółowo

Prawdopodobieństwo i statystyka r.

Prawdopodobieństwo i statystyka r. Prawdopodobeństwo statystya.05.00 r. Zadane Zmenna losowa X ma rozład wyładnczy o wartośc oczewanej, a zmenna losowa Y rozład wyładnczy o wartośc oczewanej. Obe zmenne są nezależne. Oblcz E( Y X + Y =

Bardziej szczegółowo

8. Neuron z ciągłą funkcją aktywacji.

8. Neuron z ciągłą funkcją aktywacji. 8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i

Bardziej szczegółowo

Plan wykładu. Sztuczne sieci neuronowe. Uczenie nienadzorowane (bez nauczyciela) Uczenie nienadzorowane - przykłady

Plan wykładu. Sztuczne sieci neuronowe. Uczenie nienadzorowane (bez nauczyciela) Uczenie nienadzorowane - przykłady Plan yładu Wyład 7: Sec samoorganzuące sę na zasadze spółzaodncta Sec samoorganzuace sę na zasadze spółzaodncta: uczene nenadzoroane uczene onurencyne reguła WTA reguła WTM antoane etoroe mapa cech Kohonena

Bardziej szczegółowo

1. Logika, funkcje logiczne, preceptron.

1. Logika, funkcje logiczne, preceptron. Sieci neuronowe 1. Logika, funkcje logiczne, preceptron. 1. (Logika) Udowodnij prawa de Morgana, prawo pochłaniania p (p q), prawo wyłączonego środka p p oraz prawo sprzeczności (p p). 2. Wyraź funkcję

Bardziej szczegółowo

( ) ( ) 2. Zadanie 1. są niezależnymi zmiennymi losowymi o. oraz. rozkładach normalnych, przy czym EX. i σ są nieznane. 1 Niech X

( ) ( ) 2. Zadanie 1. są niezależnymi zmiennymi losowymi o. oraz. rozkładach normalnych, przy czym EX. i σ są nieznane. 1 Niech X Prawdopodobeństwo statystyka.. r. Zadane. Zakładamy, że,,,,, 5 są nezależnym zmennym losowym o rozkładach normalnych, przy czym E = μ Var = σ dla =,,, oraz E = μ Var = 3σ dla =,, 5. Parametry μ, μ σ są

Bardziej szczegółowo

RACHUNEK NIEPEWNOŚCI POMIARU

RACHUNEK NIEPEWNOŚCI POMIARU Mędznarodowa Norma Ocen Nepewnośc Pomaru(Gude to Epresson of Uncertant n Measurements - Mędznarodowa Organzacja Normalzacjna ISO) RACHUNEK NIEPEWNOŚCI http://phscs.nst./gov/uncertant POMIARU Wrażane Nepewnośc

Bardziej szczegółowo

Zastosowanie technik sztucznej inteligencji w analizie odwrotnej

Zastosowanie technik sztucznej inteligencji w analizie odwrotnej Zastosowane technk sztucznej ntelgencj w analze odwrotnej Ł. Sztangret, D. Szelga, J. Kusak, M. Petrzyk Katedra Informatyk Stosowanej Modelowana Akadema Górnczo-Hutncza, Kraków Motywacja Dokładność symulacj

Bardziej szczegółowo

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych. Wstęp do teorii sztucznej inteligencji Wykład III Modele sieci neuronowych. 1 Perceptron model najprostzszy przypomnienie Schemat neuronu opracowany przez McCullocha i Pittsa w 1943 roku. Przykład funkcji

Bardziej szczegółowo

Sztuczna inteligencja

Sztuczna inteligencja Sztuczna inteligencja Wykład 7. Architektury sztucznych sieci neuronowych. Metody uczenia sieci. źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Podstawowe architektury

Bardziej szczegółowo

wiedzy Sieci neuronowe

wiedzy Sieci neuronowe Metody detekcji uszkodzeń oparte na wiedzy Sieci neuronowe Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 7 Wprowadzenie Okres kształtowania się teorii sztucznych sieci

Bardziej szczegółowo

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Sieci Hopfielda Najprostsze modele sieci z rekurencją sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Modele bardziej złoŝone: RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie

Bardziej szczegółowo

Elementy inteligencji obliczeniowej

Elementy inteligencji obliczeniowej Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego

Bardziej szczegółowo

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe JOANNA GRABSKA-CHRZĄSTOWSKA Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA BUDOWA RZECZYWISTEGO NEURONU

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE METODY KLASYFIKACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

SYSTEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE METODY KLASYFIKACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska. SYSEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE MEODY KLASYFIKACJI Częstochowa 4 Dr hab. nż. Grzegorz Dude Wydzał Eletryczny Poltechna Częstochowsa FUNKCJE FISHEROWSKA DYSKRYMINACYJNE DYSKRYMINACJA I MASZYNA LINIOWA

Bardziej szczegółowo

Wielokategorialne systemy uczące się i ich zastosowanie w bioinformatyce. Rafał Grodzicki

Wielokategorialne systemy uczące się i ich zastosowanie w bioinformatyce. Rafał Grodzicki Welokategoralne systemy uząe sę h zastosowane w bonformatye Rafał Grodzk Welokategoralny system uząy sę (multlabel learnng system) Zbór danyh weśowyh: d X = R Zbór klas (kategor): { 2 } =...Q Zbór uząy:

Bardziej szczegółowo

Statystyka Matematyczna Anna Janicka

Statystyka Matematyczna Anna Janicka Statystyka Matematyczna Anna Janicka wykład X, 9.05.206 TESTOWANIE HIPOTEZ STATYSTYCZNYCH II: PORÓWNYWANIE TESTÓW Plan na dzisiaj 0. Przypomnienie potrzebnych definicji. Porównywanie testów 2. Test jednostajnie

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych

Bardziej szczegółowo

Systemy agentowe. Sieci neuronowe. Jędrzej Potoniec

Systemy agentowe. Sieci neuronowe. Jędrzej Potoniec Systemy agentowe Sieci neuronowe Jędrzej Potoniec Złe wieści o teście To jest slajd, przy którym wygłaszam złe wieści. Perceptron (Rossenblat, 1957) A. Géron, Hands-On Machine Learning with Scikit-Learn

Bardziej szczegółowo

Systemy agentowe. Sieci neuronowe. Jędrzej Potoniec

Systemy agentowe. Sieci neuronowe. Jędrzej Potoniec Systemy agentowe Sieci neuronowe Jędrzej Potoniec Perceptron (Rossenblat, 1957) A. Géron, Hands-On Machine Learning with Scikit-Learn and TensorFlow 2017 Perceptron { 1 z 0 step(z) = 0 w przeciwnym przypadku

Bardziej szczegółowo

u u u( x) u, x METODA RÓŻNIC SKOŃCZONYCH, METODA ELEMENTÓW BRZEGOWYCH i METODA ELEMENTÓW SKOŃCZONYCH

u u u( x) u, x METODA RÓŻNIC SKOŃCZONYCH, METODA ELEMENTÓW BRZEGOWYCH i METODA ELEMENTÓW SKOŃCZONYCH METODA RÓŻNIC SKOŃCZONYCH, METODA ELEMENTÓW BRZEGOWYCH METODA ELEMENTÓW SKOŃCZONYCH Szkc rozwązana równana Possona w przestrzen dwuwymarowe. Równane Possona to równae różnczkowe cząstkowe opsuące wele

Bardziej szczegółowo

Sieć Hopfielda. Zdefiniowana w roku 1982, wprowadziła sprzężenie zwrotne do struktur sieci. Cechy charakterystyczne:

Sieć Hopfielda. Zdefiniowana w roku 1982, wprowadziła sprzężenie zwrotne do struktur sieci. Cechy charakterystyczne: Sc Hopflda... Sć Hopflda Zdfnoana roku 98, proadzła sprzężn zrotn do struktur sc. Cch charaktrstczn: brak dnokrunkogo przpłu sgnału n oż różnć arst śco, śco, pośrdn k W,,W,...Wn,_ W,,W,..Wn, W,,W,k...Wn,k.........

Bardziej szczegółowo

Metody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF.

Metody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF. Metody sztucznej inteligencji Zadanie 3: ( klasteryzacja samoorganizująca się mapa Kohonena, (2 aproksymacja sieć RBF dr inż Przemysław Klęsk Klasteryzacja za pomocą samoorganizującej się mapy Kohonena

Bardziej szczegółowo

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311 Sztuczne sec neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyk, p. 311 Wykład 6 PLAN: - Repetto (brevs) - Sec neuronowe z radalnym funkcjam bazowym Repetto W aspekce archtektury: zajmowalśmy

Bardziej szczegółowo

OCENA DZIAŁANIA AE. METODY HEURYSTYCZNE wykład 4 LOSOWOŚĆ W AE KRZYWE ZBIEŻNOŚCI ANALIZA STATYSTYCZNA:

OCENA DZIAŁANIA AE. METODY HEURYSTYCZNE wykład 4 LOSOWOŚĆ W AE KRZYWE ZBIEŻNOŚCI ANALIZA STATYSTYCZNA: METODY HEURYSTYCZNE wykład 4 OCENA DZIAŁANIA AE 1 2 LOSOWOŚĆ W AE Różne zachowanie algorytmuw poszczególnych uruchomieniach przy jednakowych ustawieniach parametrów i identycznych populacjach początkowych.

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd. Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 2013-11-26 Projekt pn. Wzmocnienie potencjału

Bardziej szczegółowo

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB Rozwązywane zadań optymalzacj w środowsku programu MATLAB Zagadnene optymalzacj polega na znajdowanu najlepszego, względem ustalonego kryterum, rozwązana należącego do zboru rozwązań dopuszczalnych. Standardowe

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką

Bardziej szczegółowo

Inteligentne systemy przeciw atakom sieciowym

Inteligentne systemy przeciw atakom sieciowym Inteligentne systemy przeciw atakom sieciowym wykład Sztuczne sieci neuronowe (SSN) Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 1 / 36 Biologiczne

Bardziej szczegółowo

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010 Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010 Sieci neuronowe jednokierunkowa wielowarstwowa sieć neuronowa sieci Kohonena

Bardziej szczegółowo

1. Wprowadzenie, sieć naśladująca psa Pawłowa

1. Wprowadzenie, sieć naśladująca psa Pawłowa . Wroadzee, seć aśladuąca sa ałoa Cz oża zbudoać seć eurooą aśladuącą SA AWŁOWA? Trudo udzelć a to tae atchastoe odoedz zakładaąc, że korzstalbś tlko łącze z sec edokerukoch. okuś sę ęc a róbę zaroektoaa

Bardziej szczegółowo

q (s, z) = ( ) (λ T) ρc = q

q (s, z) = ( ) (λ T) ρc = q M O D E L O W A N I E I N Y N I E R S K I E n r 4 7, I S S N 1 8 9 6-7 7 1 X W Y Z N A C Z A N I E O D K S Z T A C E T O W A R Z Y S Z Ą C Y C H H A R T O W A N I U P O W I E R Z C H N I O W Y M W I E

Bardziej szczegółowo

Podstawy sztucznej inteligencji

Podstawy sztucznej inteligencji wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,

Bardziej szczegółowo

architektura komputerów w. 3 Arytmetyka komputerów

architektura komputerów w. 3 Arytmetyka komputerów archtektura komputerów w. 3 Arytmetyka komputerów Systemy pozycyjne - dodawane w systeme dwójkowym 100101011001110010101 100111101000001000 0110110011101 1 archtektura komputerów w 3 1 Arytmetyka bnarna.

Bardziej szczegółowo

) będą niezależnymi zmiennymi losowymi o tym samym rozkładzie normalnym z następującymi parametrami: nieznaną wartością 1 4

) będą niezależnymi zmiennymi losowymi o tym samym rozkładzie normalnym z następującymi parametrami: nieznaną wartością 1 4 Zadane. Nech ( X, Y ),( X, Y ), K,( X, Y n n ) będą nezależnym zmennym losowym o tym samym rozkładze normalnym z następującym parametram: neznaną wartoścą oczekwaną EX = EY = m, warancją VarX = VarY =

Bardziej szczegółowo

Warszawa, 28 stycznia 2017 r., Blok tematyczny II Sztuczne sieci neuronowe (środowisko MATLAB i Simulink z wykorzystaniem Neural Network Toolbox),

Warszawa, 28 stycznia 2017 r., Blok tematyczny II Sztuczne sieci neuronowe (środowisko MATLAB i Simulink z wykorzystaniem Neural Network Toolbox), Studa Doktorancke IBS PA nt. Technk nformacyjne teora zastosowana WYKŁAD Semnarum nt. Modelowane rozwoju systemów w środowsku MATLABA Smulnka Prof. nadzw. dr hab. nż. Jerzy Tchórzewsk, jtchorzewsk@ntera.pl;

Bardziej szczegółowo

Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE

Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE Inormatyka Podstawy Programowana 06/07 Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE 6. Równana algebraczne. Poszukujemy rozwązana, czyl chcemy określć perwastk rzeczywste równana:

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-10 Projekt pn. Wzmocnienie

Bardziej szczegółowo

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5 METODY INTELIGENCJI OBLICZENIOWEJ wykład 5 1 2 SZTUCZNE SIECI NEURONOWE cd 3 UCZENIE PERCEPTRONU: Pojedynczy neuron (lub 1 warstwa neuronów) typu percep- tronowego jest w stanie rozdzielić przestrzeń obsza-

Bardziej szczegółowo

Konstrukcja gier sprawiedliwych i niesprawiedliwych poprzez. określanie prawdopodobieństwa.

Konstrukcja gier sprawiedliwych i niesprawiedliwych poprzez. określanie prawdopodobieństwa. Fundacja Centrum Edukacj Obyatelskej, ul. Noakoskego 10, 00-666 Warszaa, e-mal: ceo@ceo.org.l; Akadema ucznoska, Tel. 22 825 04 96, e-mal: au@ceo.org.l; ęcej nformacj:.akademaucznoska.l 1 Konstrukcja ger

Bardziej szczegółowo

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe Wydział Zarządzania AGH Katedra Informatyki Stosowanej Sztuczne sieci neuronowe Sztuczne sieci neuronowe Wprowadzenie Trochę historii Podstawy działania Funkcja aktywacji Typy sieci 2 Wprowadzenie Zainteresowanie

Bardziej szczegółowo

Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba

Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 1 Ćwczene 2: Perceptron WYMAGANIA 1. Sztuczne sec neuronowe budowa oraz ops matematyczny perceptronu (funkcje przejśca perceptronu), uczene perceptronu

Bardziej szczegółowo

Sieci Neuronowe 1 Michał Bereta

Sieci Neuronowe 1 Michał Bereta Wprowadzene Zagadnena Sztucznej Intelgencj laboratorum Sec Neuronowe 1 Mchał Bereta Sztuczne sec neuronowe można postrzegać jako modele matematyczne, które swoje wzorce wywodzą z bolog obserwacj ludzkch

Bardziej szczegółowo

Matematyka ubezpieczeń majątkowych r.

Matematyka ubezpieczeń majątkowych r. Matematyka ubezpieczeń majątkowych 3..007 r. Zadanie. Każde z ryzyk pochodzących z pewnej populacji charakteryzuje się tym że przy danej wartości λ parametru ryzyka Λ rozkład wartości szkód z tego ryzyka

Bardziej szczegółowo

MODELOWANIE UKŁADÓW MECHANICZNYCH Z NIEPEWNYMI PARAMETRAMI

MODELOWANIE UKŁADÓW MECHANICZNYCH Z NIEPEWNYMI PARAMETRAMI Smlaca Andrze POWNUK Katedra Mecan Teoretczne Wdzał Bdownctwa Poltecna Śląsa w Glwcac MODELOWANIE UKŁADÓW MECHANICZNYCH Z NIEPEWNYMI PARAMETRAMI Streszczene. Wszste parametr ładów mecancznc są znane z

Bardziej szczegółowo

Wykład 2. Model Neuronu McCulocha-Pittsa Perceptron Liniowe Sieci Neuronowe

Wykład 2. Model Neuronu McCulocha-Pittsa Perceptron Liniowe Sieci Neuronowe Sztuczne Sieci Neuronowe Wykład 2 Model Neuronu McCulocha-Pittsa Perceptron Liniowe Sieci Neuronowe wykład przygotowany na podstawie. R. Tadeusiewicz, Sieci Neuronowe, Rozdz. 3. Akademicka Oficyna Wydawnicza

Bardziej szczegółowo

Zadanie 1. Rzucamy symetryczną monetą tak długo, aż w dwóch kolejnych rzutach pojawią się,,reszki. Oblicz wartość oczekiwaną liczby wykonanych rzutów.

Zadanie 1. Rzucamy symetryczną monetą tak długo, aż w dwóch kolejnych rzutach pojawią się,,reszki. Oblicz wartość oczekiwaną liczby wykonanych rzutów. Pradopodobeństo statystya 6..3r. Zadae. Rzucamy symetryczą moetą ta długo aż dóch olejych rzutach pojaą sę resz. Oblcz artość oczeaą lczby yoaych rzutó. (A) 7 (B) 8 (C) 9 (D) (E) 6 Wsazóa: jeśl rzuce umer

Bardziej szczegółowo

Sieć neuronowa jako system ekspercki na rynku instrumentów pochodnych

Sieć neuronowa jako system ekspercki na rynku instrumentów pochodnych Rozdzał monograf: 'Bazy Danych: Rozó metod technoog', ozesk S., Małysak B., asprosk P., Mrozek D. (red.), WŁ 8.bdas.p Rozdzał 7 Seć neuronoa ako system eksperck na rynku nstrumentó pochodnych Streszczene.

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 2 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 213-1-15 Projekt pn. Wzmocnienie potencjału

Bardziej szczegółowo

Zastosowanie sztucznych sieci neuronowych do modelowania procesów azotowania próżniowego stali narzędziowych

Zastosowanie sztucznych sieci neuronowych do modelowania procesów azotowania próżniowego stali narzędziowych Zastosowanie sztucznych sieci neuronowych do modelowania procesów azotowania próżniowego stali narzędziowych Emilia Wołowiec-Korecka Politechnika Łódzka Zastosowania statystyki i data mining w badaniach

Bardziej szczegółowo

POPRAWA EFEKTYWNOŚCI METODY WSTECZNEJ

POPRAWA EFEKTYWNOŚCI METODY WSTECZNEJ Nowoczesne techniki informatyczne - Ćwiczenie 6: POPRAWA EFEKTYWNOŚCI METODY BP str. 1 Ćwiczenie 6: UCZENIE SIECI WIELOWARSTWOWYCH. POPRAWA EFEKTYWNOŚCI METODY WSTECZNEJ PROPAGACJI BŁĘDU WYMAGANIA 1. Sztuczne

Bardziej szczegółowo

Pattern Classification

Pattern Classification Pattern Classification All materials in these slides were taen from Pattern Classification (2nd ed) by R. O. Duda, P. E. Hart and D. G. Stor, John Wiley & Sons, 2000 with the permission of the authors

Bardziej szczegółowo

Współczynnik korelacji liniowej oraz funkcja regresji liniowej dwóch zmiennych

Współczynnik korelacji liniowej oraz funkcja regresji liniowej dwóch zmiennych Współcznnk korelacj lnowej oraz funkcja regresj lnowej dwóch zmennch S S r, cov współcznnk determnacj R r Współcznnk ndetermnacj ϕ r Zarówno współcznnk determnacj jak ndetermnacj po przemnożenu przez 00

Bardziej szczegółowo

Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie

Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie LABORKA Piotr Ciskowski ZASTOSOWANIA SIECI NEURONOWYCH IDENTYFIKACJA zastosowania przegląd zastosowania sieci neuronowych: o identyfikacja

Bardziej szczegółowo

Ś ś Ł ń ń ś ś Ś ś Ę ę ś ę ś ĘŚ ś Ęś ę ĘŚĆ ĘŚ Ęś ĘŚ ĘŚ ę ĘŚĆ ĘŚĆ ĘŚĆ ĘŚĆ Ęś ĘŚĆ ĘŚ ĘŚĆ ń ĘŚĆ ĘŚ ĘŚĆ ę ĘŚ ś Ęś ń ś ś ś ę ź ę ś ę ś Ź ń ę ń ś ń ń ę ń ń ń ń Ę ś ń ęś ń ń ń ę ń Ż ś ń ń ę ń ś ń ń ń ę ś ń ś Ż

Bardziej szczegółowo

14. Grupy, pierścienie i ciała.

14. Grupy, pierścienie i ciała. 4. Grup, pierścienie i ciała. Definicja : Zbiór A nazwam grupą jeśli jest wposaŝon w działanie wewnętrzne łączne, jeśli to działanie posiada element neutraln i kaŝd element zbioru A posiada element odwrotn.

Bardziej szczegółowo

Bezgradientowe metody optymalizacji funkcji wielu zmiennych. informacje dodatkowe

Bezgradientowe metody optymalizacji funkcji wielu zmiennych. informacje dodatkowe Bezgradientowe metody optymalizacji funkcji wielu zmiennych informacje dodatkowe Wybór kierunku poszukiwań Kierunki bazowe i ich modyfikacje metody bezgradientowe. Kierunki oparte na gradiencie funkcji

Bardziej szczegółowo

BADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda

BADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda BADANIA OPERACYJNE Podejmowane decyzj w warunkach nepewnośc dr Adam Sojda Teora podejmowana decyzj gry z naturą Wynk dzałana zależy ne tylko od tego, jaką podejmujemy decyzję, ale równeż od tego, jak wystąp

Bardziej szczegółowo

Wstęp do sztucznych sieci neuronowych

Wstęp do sztucznych sieci neuronowych Wstęp do sztucznych sieci neuronowych Michał Garbowski Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Wydział Informatyki 15 grudnia 2011 Plan wykładu I 1 Wprowadzenie Inspiracja biologiczna

Bardziej szczegółowo