Literatura SZTUCZNE SIECI NEURONOWE. Mózg/komputer jak to działa? MÓZG WZORZEC DOSKONAŁY KOMPUTER TWÓR DOSKONALONY SSN niekonwencjonalne przetwarzanie
|
|
- Bartosz Makowski
- 5 lat temu
- Przeglądów:
Transkrypt
1 SZTUCZNE SIECI NEURONOWE Archtektura Tp Przeznaczene Procedur uczena Zastosoana Lteratura. J. śurada, M. Barsk, W. Jędruch, Sztuczne sec neuronoe, PWN 996. R. Tadeusecz, Sec neuronoe, AOW J. Korbcz, et al.., SSN, AOW R. Tadeusecz, Elementarne proadzene do technk sec neuronoch, AOW 998 Mózg/komputer ak to dzała? MÓZG WZORZEC DOSKONAŁY KOMPUTER TWÓR DOSKONALONY SSN nekonenconalne przetarzane N L E V 0 4 snaps 0-6 m 30 W 00 Hz 0 8 tranzstoró 0-6 m 30 W (CPU) 0 9 Hz Metoda oblczeń Rónoległa rozproszona Szeregoa centralna Toleran ca na błęd TAK Uc ze ne T A K NIE? Intelgenca zazcza tak ne (naraze) Programoane Dzałane sekencne Pamęc ROM/RAM (algortm + dane) Podatne na uszkodzena Wsoka PRECYZJA oblczeń UCZENIE RÓWNOLEGŁOŚĆ ARCHITEKTURA + WAGI POŁĄCZEŃ ODPORNE NA DEFEKTY Oblczena JAKOŚCIOWE
2 Problem rozpoznana gdze tu est pes? PRZEZNACZENIE SSN Klasfkaca (grupoane, dentfkaca/us Nav + General Dnamcs, Unv. of Penslvana+TRW) Aproksmaca (nelnoa, elomaroa) Pamęc asocacne (rozpoznaane obrazó) Optmalzaca (szeregoane zadań, planoane) Prognozoane procesó (energetka, gełda, medcna-ekg/eeg ) Automatka, robotka (steroane adaptacne/ NASA, seć ALVINN) Problem: rozpoznane negatu, nestablność uczene arst ukrtch, archtektura sposób kodoana Rozpoznane znakó kodoanch matrc 8x kod znaku alfanumercznego śca arst pośredne (ukrte) eśca Schemat sztucznego neuronu (Mc Cullocha-Pttsa: =, e > θ; = 0, e < θ) x x x n n spółcznnk ag - -t sgnał eśco x - łączne pobudzene neuronu ϕ - charakterstka neuronu x e= sumator n = e Σ ϕ( e) - sgnał śco aktaca
3 Elementarne układ logczne modelu neuronu McC-P zadane!!! neuron ( = ±, próg θ = 0 OR ) 3 θ UłóŜ schemat bramk NAND (x, x, x 3 ) UłóŜ schemat bramk NOR(x, x, x 3 ) Komórka pamęc - θ = k + = x k x x x n Neuron lno (Adalne/seć-Madalne: = α e, α = const ) n spółcznnk ag - ektor ϕ e sumator e Σ ϕ( e) n = = r Tr x = x aktaca lnoa - lnoa charakterstka neuronu = α e - sgnał śco x x x n Neuron nelno (element perceptrono (F. Rosenblatt): charakterstka unpolarna lub bpolarna) n spółcznnk ag - ektor - -t sgnał eśco x - łączne pobudzene neuronu ϕ - nelnoa charakterstka neuronu x e= sumator n = e Σ ϕ( e) - sgnał śco aktaca nelnoa Nelnoe charakterstk neuronu (net = e θ, gdze θ próg aktac neuronu) Funkca sgmodalna = β f-ca Heavsde a Funkca tangensodalna = α ϕ( net) ϕ( net) = + exp exp = + exp ( β net) ( α net) ( α net) f-ca sgnum / - 0 θ e 0 θ e 3
4 Seć neuronoa układ neuronó Seć ednoarstoa k sgnałó x R k eśca podane na n nepołączonch neuronó z uzględnenem nxk ag x Seć neuronoa eloarstoa Seć eloarstoa kaskada -arst przekazuąca sgnał od eśca do śca z uzględnenem ag pośrednch (p) x x k k x k nk n = k x = = Wx = ϕ( Wx) Seć eloarstoa problem lczb neuronó arst ukrte Struktura sec: 36 nu 5 analza błędu epokach uczena => optmalna lczba nu = 9 neuronó Archtektura sec neuronoch Sec ednokerunkoe (feedforard netorks) eden kerunek przepłu sgnałó od eść do ść Sec rekurencne (feedback netorks) sec ze sprzęŝenem zrotnm (Hopfelda) Sec komórkoe Sec rezonansoe (ART-; ART-) Sec hbrdoe tpu Counter-Propagaton 4
5 Metod uczena sec modfkaca ag Uczene nadzoroane (delta, steczne propagac błędu) Uczene nenadzorane (korelacne) reguła Hebba, reguła Oa, nstar, outstar Uczene konkurencne (WTA, WTM) Metod mękke selekc algortm genetczne smuloane odpręŝane x x x n Perceptron prost (element perceptrono (F. Rosenblatt): charakterstka unpolarna lub bpolarna) n - ektor ag θ sumator aktaca necągła e Σ ϕ( e) rozszerzon ektor eść: ~ x= x, x,..., xn, rozszerzon ektor ag: = ~ [,,..., n,θ] e n = + = T T = ~ ~ x = x x θ [ ] Co potraf element perceptrono? = 0 x α = hperpłaszczzna dzeląca przestrzeń obrazó x na półprzestrzene deczne: = 0 oraz = x T - θ = 0 Dla określonego ektora ag perceptron ocena soko te eśca x, dla którch kąt α z ektorem est mał, bo óczas pobudzene est duŝe: x T = cos(α) dla unormoanch ektoró ag eść x Co to znacz uczć seć? Uczene sec to modfkaca ag: ~ tak, ab sgnał eśco x daał na ścu sec obraz poŝądan: z =ϕ ( ~ x T) zamast obrazu perotnego: T =ϕ( x ) Błąd uczena: δ = z 5
6 Reguła perceptronoa (algortm uczena z nadzorem). Poda stępn ektor ag (0), =. Poda zorzec u znacz obraz (dla (-) ) 3. Gd obraz est zgodn z poŝądanm z => (5) 4. Gd δ = 0 => () = (-) + η u = z 0 Gd δ = => () = (-) = z 0 - η u 5. = + => () () Jak dobrać strategę prezentac zorcó bór ag stępnch? () Warunek zbeŝnośc uczena LINIOWA SEPARACJA {u }!!! x x Perceptron -arsto (rozązue zadane XOR) - - θ θ Σ Σ ϕ( e) ϕ( e) - v θ 0 v Σ ϕ( e) arsta ścoa: = H(v x T θ 0 ) arsta ukrta: x k = H( k x T θ k ) dzel przestrzeń eść k-raz na -półpłaszczzn, ęc cała arsta ukrta dzel ą na podzbor, z którch eden est pukł tu neuron są zapalone u k = x ektor obrazu z przestrzen maru n -arstoe klasfkator (mnmalno-odległoścoe maszn lnoe) R + + g (x) g (x) + g R(x) selektor max g (x)=( ) T.x funkce deczne klasa x x = dla x P P zorzec klas Cel: podzał przestrzen obrazó na obszar deczne prznaleŝne kaŝde klase zorcó P ( R) g. mnmum odległośc: mn x P = x T x (P T.x P T. P /) =P oraz n+= P T P / s : g (x) - g (x) = 0 lne deczne Przkład: maszna lnoa dla 3 klas (metoda analtczna) x obszar klas P P P x 3 obszar klas obszar klas 3 lne rozdzelaące (hperpłaszczzn): s : 3x - x = 0 s 3 : 8x + 3x + 3 = 0 s 3 : 5x - 4x 5 = zorce: P = ; P = ; P3 = 4 4 funkce dskrmnacne: g (x)=( ) T.x = 8x +x - 34 g (x)=( ) T.x = x +4x 0 g (x)=( ) T.x = -8x - 4x = ; 34 = 4 ; =
7 Seć klasfkuąca 3 obszar g uczena Uczene dchotomzatora ( klas) klasa : T x > 0 (x P ) oraz klasa : T x < 0 (x P ) x + g (x) + g (x) + g 3(x) 3 3 rozproszone lub lokalne kodoane klas Zgodne z regułą delta modfkace ag następuą przez +/-ηx k : ( k+ ) ( k) k k = ± ( d ) x k ( k+ ) ( k) k k = ± ( d ) x k gdze + dla x P, a - dla x P (aktaca bpolarna - sgnum) (aktaca unpolarna skok 0/) zakończene procesu, gd od penego czasu t modfkace zankną: (t+) = (t+) =... = * Uczene dchotomzatora (c.d.) (3) = (4) = * () = (3) = * x () x = ; x = () x () ( ) 3 ( ) 3 = ; x = x [ ] ; d= ; = sgn 3 = = + x = 3 ( 3) 0 x = x [ ] ; d= ; = sgn 3 = = x = = 3 4 Klasfkator cągł uczene (algortm gradento naększego spadku) r η E ( ) ( k+ ) ( k) ( k) = Cągła funkca błędu: E = ½ (d ) = ½ (d φ( T x)) Dla bpolarne aktac: Dla unpolarne aktac: ( k + ) ( k ) ( )( ) k = tanh β = = + η d x ( k + ) ( k ) ( ) ( ) k = (k czas dskretn) ( net) = ( + exp( β net) ) = ( ) + η d x Uaga: est to rozszerzene poznane reguł delta dla cągłe funkc aktac 7
8 Algortm gradento naększego spadku Poerzchna błędu kadratoego Uczene samo-organzuące (reguła Hebba + e modfkace) Wnk obserac neurobologó (efekt Pałoa): zmocnene połączena snaptcznego k następue, gd oba połączone neuron oraz k są zapalone, tzn. aktne. ( k+) = ( k) + ( k) ( k) = η x ( k) ( k) ( k) = η x ( k) d( k) uczene bez nadzoru Reguła Hebba to reguła korelacna (często rozbeŝna!!!) proadzaąca zrost sł połączena neuronó prz skoreloanu sgnałó pre- post- snaptcznch uczene z nadzorem reguła Hebba - modfkace reguł tpu Hebba modfkace c.d.// () spółcznnk zapomnana γ zapobega stałemu nascanu neuronó prz elokrotnm muszenu zorcem x : ( k) = η x ( k) ( k) γ ( k) ( k) = η ( x ( k) γ ( k) ) ( k) () Reguła O: ścoe sgnał modfkuą sgnał eśco x (rodza sprzęŝena zrotnego) ( k) = η ( x ( k) ( k) ) ( k) (3) Reguła ant-hebba: uemne spolarzoane modfkace ag ne proadzą do rozbeŝnośc procesu uczena (neoptmalne) ( k) = η x ( k) ( k) (4) Popraa efektnośc samouczena samoorganzac neuronó często osągana est prz uczenu przrostom: ( k) = η ( x ( k) x ( k ) )( ( k) ( k ) ) (5) Reguła gazd eść (nstar tranng): tlko bran -t neuron est uczon rozpoznana aktualnego sgnału x ( k) = η ( k) ( x ( k) ( k) ) η( k) = 0. λ k > 0 (6) Reguła gazd ść (outstar tranng): tlko ag branego -tego eśca podlegaą uczenu zorca dla obrazu x ( k) = η ( k) ( ( k) ( k) ) η( k) = λ k > 0 8
9 reguł uczena modfkace c.d.// (7) tłumene neaktnch, a zmocnene aktnch ść neuronó prz aktnch eścach x dae tz. reguła Hebba/AntHebba (prz dskrmnac sgnałó x, > ε): ( k) = η x& ( k) ( & ( k) ) Analza błędu procesu uczena sec eloarstoe dla róŝnch parametró: spółcznnk uczena (η) momentum (α) (8) przspeszane oraz lepszą stablność uczena (ęc ększe η) duŝch secach osąga sę przez uzględnene bezładnośc procesu stosuąc poprakę metod momentu, np.: ( k) = η ( d( k) ( k) ) x( k) + η [ ( k) ( k ) ] Uaga: optmalne arunk dla η = 0.9 η = 0.6 (zmenne prz η /η = const) Poszukue sę stablnego szbkego procesu uczena Uczene z nadzorem sec eloarstoch steczna propagaca błędu (backprop) x arsta eścoa δ (m) (m) δ (m+) (m+) u (m-) u (m) m- m m+ arsta ukrta ( m) ( m) ( m ) u = f u = 0 ( m) ( m) δ = f ϕ = arsta ścoa ( m+ ) ( m+ ) ( ) δ ( M) ( M) δ = f ϕ d ( )( ) Algortm steczne propagac błędu. poda ektor ucząc u na eśce sec. znacz artośc ść u (m) kaŝdego elementu sec (*) 3. oblcz artośc błędó δ (M) dla arst ścoe (*) 4. oblcz błąd uczena sec dla zorca u (suma kadrató δ (M) ) 5. dokona propagac steczne błędu z p. (4) => znacz δ (m) (*) 6. dokona aktualzac ag od śca do arst eścoe ( )( ) ( m) ( m) ( m ) u = f u ( M) ( M) δ = f ϕ d = 0 δ ( m+ ) ( m+ ) ( ) δ ( m) ( m) = f ϕ = 9
10 Aktualzaca ag g uogólnone reguł delta Sec samoorganzuące sę (bez nadzoru + WTA) ( m ( ) ) ( m ( ) ) k = η δ k u ( k) Uaga: artośc błędó elementó dane arst ukrte są znaczane przed aktualzacą ag arste następne Uogólnoną regułę delta często uzupełna sę przęcem poprak momentum celu przspeszena stablzac uczena sec Seć Hammnga MaxNet (rozpoznaane obrazó) seć Kohonena (grupoane ektoró uczącch - clusterng) seć ART- (adaptve resonance theor) stablne grupoane adaptacne Uczene stosuąc marę podobeństa zorcó poprzez. loczn skalarn ektora eścoego ektora ag lub. sąsedzto topologczne, tzn. odległość neuronó sec pobudzonch danm obrazem eścom Sec Hammnga () MaxNet () (klasfkaca zaszumonego obrazu do nablŝsze klas zorcó g. odległośc Hammnga ag ne podlegaą uczenu!) Lczba p neuronó arst () est zgodna z loścą klas, tzn. Ŝe kaŝd neuron reprezentue edną z dopuszczonch grup: ( ) [ ] p ( ) WH = s net= [ n HD( x, s )] p = = Macerz ag arst (H) złoŝona z p zorcó po erszach W H Łączne pobudzene arst (H) merzone spólnm btam x s Sec Hammnga MaxNet/cd. Warsta () elmnue rekurencne szstke śca z () prócz maksmalnego k skazane numeru grup k Macerz ag arst () złoŝona z autopobudzaącch połączeń oraz hamuącch połączeń lateralnch o sle -ε [ W ] = oraz[ W ] = ε ( 0< ε < p) M M Lnoa aktaca = f(net) neuronó (H) normue sgnał eśco do arst () do przedzału (0, ) f(net) 0 n net Aktaca f arste () est róneŝ lnoa, ale (0, ) elmnaca koleno namneszego -tego sgnału przez f (net ) = 0 k-tm kroku rekurenc, gd net < 0 0
11 Sec Hammnga MaxNet schemat sec x x x 3 x 4 = s () n/ (0) n/ (0) (k+) (k+) n/ 3 (0) 3 (k+) 3 3 n = 4; p = 3 klas ε = 0. < /3 Wada sec: załoŝona lość klas (uczene neadaptacne => ART-) Sec Hammnga MaxNet przkład W matrc n = 3x3 zdefnoano p = zorce zakodoane bnarne: - klasa klasa - - s () = ( - - ) s () = ( ) Seć ma zadane zaklasfkoać obraz : x = x = x 3 = WH Sec Hammnga MaxNet przkład/cd. = WM = 4 4 dla 0< ε=/4 </p Dla obrazu x 3 =(----) => H,3 = [5/9 5/9] seć ne rozstrzga o klasfkac (!) H, 9 HD( x, s = 9 9 HD( x, s () () ( k+ ) ( k) M = f ( WM M ) Dla obrazu x =() => H, = [7/9 5/9] mam rekurencne aktnośc: f f f f = Dla obrazu x =( ) => H, = [/9 4/9] f f f = ) ) klasa - U klasa - T Seć Kohonena grupoane obrazó Seć -arstoa + uczene z ralzacą, tzn. modfkac ulega ektor ag nablŝsz danemu zorco (ag są normoane): x ˆ m = mn x ˆ =,,..., Warunek ten zapena reguła gazd eść: Po zakończenu uczena ektor ag skazuą środk cęŝkośc krtch grup obrazó (lość grup est neznana a pror) choć gęste zorce ścągaą ektor ag (ada) + kalbraca sec () przechtane ag => x = q x + (- q) 0, q () Sumene g DeSeno często graąc neuron zamera p ˆ = η( x ˆ ) m m
12 Seć Kohonena clusterng/przkład Seć ART- adaptacne grupoane obrazó zorce grup ag początkoe ag końcoe Grossberg: sec Madalne cz Perceptron są nestablne trakce procesu uczena, tzn. neuron raz nauczon rozpoznaana zorca moŝe trakce dalsze nauk przestać sę na rozpoznane nnego zorca. Seć stae sę neprzedalna. Grossberg: seć ucząca sę bez nadzoru ale z podanem sgnałó ścoch znó na eśca, tak ab zcęsk neuron zmacnał soe łasne pobudzene ponna bć stablna zasada zbudzena rezonansu mędz arstam We-W Wag końcoe osągnęte procese uczena sec mogą bć róŝne dla tch samch zorcó zaleŝnośc od podanch ag początkoch: ch lczb artośc Zasada adaptac: persz zorzec torz perszą grupę, zorce kolene są dołączane do stneące grup lub torzą noą grupę reprezentoaną przez kolen oln neuron Seć ART- schemat Seć ART- algortm przetarzana dół-góra-dół M v, v,..., v n, v, v,..., v n v M, v M,..., v nm,... M,... M n, n... nm x x x n. Poda próg czułośc: 0 < r < ; ag = /( + n) oraz v =. Poda obraz bnarn oblcz mar dopasoana = (x, W ) 3. Wberz dopasoaną kategorę m = max( ) dla =,,...,M 4. Wkona test podobeństa dla neuronu m-tego: p m = (x, V m )/(x, ) > r If (~4): m = 0 =>(3) lub noa grupa 5. IF (4) => skorgu ag g. Relac v m (k+) = v m (t) x & m = v m (k+)/{0.5+(x, V m )} V ako czarn belee trakce uczena - neodracalne 6. => ()
13 Seć ART- ad dzałana. Prmtn test podobeństa ne est stane rozróŝnć (tzn. poprane sklasfkoać) zaszumonch zorcó. obnŝane progu czułośc ponŝe granczne artośc zaburz klasfkace orgnałó zbudue mneszą lczbę klas 3. Ab zapamętać odtarzać kolene zorce gd brak uŝ olnch neuronó do klasfkac naleŝ uŝć schemató bardze złoŝonch (Pao, Addson-Wesle, 989 sec Pao) 4. Archtektura sec ART est neefektna z rac lczb ag 5. Mała poemność Sec pamęc skoarzenoe pamęc adresoane zaartoścą, szukane nformac, analza mo seć Hntona (naprostsza statczna pamęć ednoarstoa) -kerunkoa seć BAM (Bdrectonal Assocatv Memor) seć Hopfelda (optmalzace kombnatorczne, rozpoznaane obrazu, analza procesó chaotcznch, rozązane problemu komoaŝera, automatka adaptacna fltr Kalmana) Rola zorcó ortogonalnch lnoo nezaleŝnch pamęć absolutna Seć Hntona -arstoa pamęć asocacna Seć BAM -arstoa pamęć -kerunkoa Proces zapsu = reguła Hebba z agam (0) = 0 = (k-) + f s dla s = [s ] f = [f ] Proces zapsu = reguła Hebba z agam (0) = 0, η = = (k-) + f s dla s = [s ] f = [f ] W mn s f Seć nterpolacna (ne progoa) heteroasocacna dealna dla zorcó ortogonalnch nezaleŝnch lnoo s f Energa sec: W nm E(s, f) = -s T Wf dąŝ do mnmum globalnego 3
14 Seć Hopfelda asnchronczna -arstoa pamęć rekurencna (hetero/autoasocacna) Proces zapsu = reguła Hebba z agam = 0, η =? = (k-) + f s dla s = [s ] f = [f ] W mn s W nm f Energa sec: E(s) = -s T Ws dąŝ do mnmum globalnego 4
Wyróżnić należy następujące sieci rekurencyjne: sieć Hopfielda, jej uogólnienie sieć BAM, sieć Hamminga oraz sieci rezonansowe.
1. Seć Hopfelda 1.1 Sec ze sprzężene zrotn Sec ze sprzężene zrotn torzą odrębną grupę sec neuronoch, stępuącą róneż pod nazą sec rekurencnch bądź asocacnch. Zaknęce pętl sprzężena zrotnego poodue, ż seć
Bardziej szczegółowoSztuczne sieci neuronowe
Sztuczne sec neuronoe model konekconstyczny 2 Plan ykładu Geneza modelu konekconstycznego Głóne cechy Model sztucznego neuronu Archtektury sec neuronoych Proces uczena sę sec Uczene poedynczego neuronu
Bardziej szczegółowoSztuczne sieci neuronowe
Sztuczne sec neuronoe model konekconstyczny 2 Plan ykładu Geneza modelu konekconstycznego Głóne cechy Model sztucznego neuronu Archtektury sec neuronoych Proces uczena sę sec Uczene poedynczego neuronu
Bardziej szczegółowoSztuczne sieci neuronowe. Reguła perceptronowa. Nadzorowany proces nauki. Zasada uczenia. Zasada uczenia. dr inŝ. Stefan Brock 2007/2008 1
Sztuczne sec neuronoe.stefanbroc.neostrada.pl dr nŝ. Stefan Broc Plan ładó. Wproadzene, modele neuronó, uład perceptronoe, uczene neuronó. Uczene sec neuronoch, metoda steczne propagac błędó, nne metod
Bardziej szczegółowoSZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 5. SZTUCZNE SIECI NEURONOWE REGRESJA Częstochowa 4 Dr hab. nż. Grzegorz Dudek Wdzał Elektrczn Poltechnka Częstochowska PROBLEM APROKSYMACJI FUNKCJI Aproksmaca funkc przblżane
Bardziej szczegółowoPlan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty)
Plan wykładu Dzałane neuronu dyskretnego warstwy neuronów dyskretnych Wykład : Reguły uczena sec neuronowych. Sec neuronowe ednokerunkowe. Reguła perceptronowa Reguła Wdrowa-Hoffa Reguła delta ałgorzata
Bardziej szczegółowoWykład 2: Uczenie nadzorowane sieci neuronowych - I
Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za
Bardziej szczegółowoNeural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych.
Neural networks Lecture Notes n Pattern Recognton by W.Dzwnel Krótka hstora McCulloch Ptts (1943) - perwszy matematyczny ops dzalana neuronu przetwarzana przez nego danych. Proste neurony, które mogly
Bardziej szczegółowoWykład 2: Uczenie nadzorowane sieci neuronowych - I
Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za
Bardziej szczegółowoSztuczne sieci neuronowe
Sztuczne sec neuronowe Jerzy Stefanowsk Plan wykładu 1. Wprowadzene 2. Model sztucznego neuronu. 3. Topologe sec neuronowych 4. Reguły uczena sec neuronowych. 5. Klasyfkaca sec neuronowych. 6. Sec warstwowe
Bardziej szczegółowoSystemy Inteligentnego Przetwarzania wykład 3: sieci rekurencyjne, sieci samoorganizujące się
Systemy Intelgentnego Przetwarzana wykład 3: sec rekurencyne, sec samoorganzuące sę Dr nż. Jacek Mazurkewcz Katedra Informatyk Technczne e-mal: Jacek.Mazurkewcz@pwr.edu.pl Sec neuronowe ze sprzężenem Sprzężena
Bardziej szczegółowoSztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311
Sztuczne sec neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyk, p. 311 Wykład 1 PLAN: Jak (klasyczne) komputery ocenaą flozofę Alberta Enstena Hstora korzene teor sztucznych sec neuronowych
Bardziej szczegółowoSZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 8. SZTUCZNE SIECI NEURONOWE INNE ARCHITEKTURY Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska SIEĆ O RADIALNYCH FUNKCJACH BAZOWYCH
Bardziej szczegółowoPlan wyk y ł k adu Mózg ludzki a komputer Komputer Mózg Jednostki obliczeniowe Jednostki pami Czas operacji Czas transmisji Liczba aktywacji/s
Sieci neuronowe model konekcjonistczn Plan wkładu Mózg ludzki a komputer Modele konekcjonistcze Sieć neuronowa Sieci Hopfielda Mózg ludzki a komputer Twój mózg to komórek, 3 2 kilometrów przewodów i (biliard)
Bardziej szczegółowoZESTAW ZADAŃ Z INFORMATYKI
(Wpsue zdaąc przed rozpoczęcem prac) KOD ZDAJĄCEGO ZESTAW ZADAŃ Z INFORMATYKI CZĘŚĆ II (dla pozomu rozszerzonego) GRUDZIEŃ ROK 004 Czas prac 50 mnut Instrukca dla zdaącego. Proszę sprawdzć, cz zestaw zadań
Bardziej szczegółowox 1 x 2 x 3 x n w 1 w 2 Σ w 3 w n x 1 x 2 x 1 XOR x (x A, y A ) y A x A
Sieci neuronowe model konekcjonistczn Plan wkładu Perceptron - przpomnienie Uczenie nienadzorowane Sieci Hopfielda Perceptron w 3 Σ w n A Liniowo separowaln problem klasfikacji ( A, A ) Problem XOR 0 0
Bardziej szczegółowoPlan wykładu. Sztuczne sieci neuronowe. Uczenie nienadzorowane (bez nauczyciela) Uczenie nienadzorowane - przykłady
Plan yładu Wyład 10: Sec samoorganzuce s na zasadze spółzaodncta Sec samoorganzuace s na zasadze spółzaodncta: uczene nenadzoroane uczene onurencyne reguła WTA reguła WTM antoane etoroe mapa cech Kohonena
Bardziej szczegółowowiedzy Sieci neuronowe (c.d.)
Metody detekci uszkodzeń oparte na wiedzy Sieci neuronowe (c.d.) Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 8 Metody detekci uszkodzeń oparte na wiedzy Wprowadzenie
Bardziej szczegółowoMonitorowanie i Diagnostyka w Systemach Sterowania
Montoroane Dagnostka Sstemach Steroana Katedra Inżner Sstemó Steroana Dr nż. Mchał Grochosk Montoroane Dagnostka Sstemach Steroana na studach II stopna specjalnośc: Sstem Steroana Podejmoana Deczj Maszn
Bardziej szczegółowoTemat: Operacje elementarne na wierszach macierzy
Temat: Operacje elementarne na erszach macerzy Anna Rajfura Anna Rajfura Operacje elementarne na erszach macerzy n j m n A Typy operacj elementarnych. Zamana mejscam erszy oraz j, ozn.: j. Mnożene ersza
Bardziej szczegółowoModele rozmyte 1. Model Mamdaniego
Modele rozmte Cel torzena noch model: dążene do uzskana coraz ększej dokładnośc, maroośc lub uproszczena struktur. Model Mamdanego Np.: -^ + R: JEŻELI jest to jest B R: JEŻELI jest to jest B R: JEŻELI
Bardziej szczegółowoWprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu
Wprowadzene do Sec Neuronowych Algorytm wstecznej propagacj błędu Maja Czoków, Jarosław Persa --6 Powtórzene. Perceptron sgmodalny Funkcja sgmodalna: σ(x) = + exp( c (x p)) Parametr c odpowada za nachylene
Bardziej szczegółowoLiteratura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu
Literatura Wykład : Wprowadzenie do sztucznych sieci neuronowych Małgorzata Krętowska Wydział Informatyki Politechnika Białostocka Tadeusiewicz R: Sieci neuronowe, Akademicka Oficyna Wydawnicza RM, Warszawa
Bardziej szczegółowoLekcja 5: Sieć Kohonena i sieć ART
Lekcja 5: Sieć Kohonena i sieć ART S. Hoa Nguyen 1 Materiał Sieci Kohonena (Sieć samo-organizująca) Rysunek 1: Sieć Kohonena Charakterystyka sieci: Jednowarstwowa jednokierunkowa sieć. Na ogół neurony
Bardziej szczegółowoNeuron liniowy. Najprostsza sieć warstwa elementów liniowych
Najprostsza jest jednostka lnowa: Neuron lnowy potraf ona rozpoznawać wektor wejścowy X = (x 1, x 2,..., x n ) T zapamętany we współczynnkach wagowych W = (w 1, w 2,..., w n ), Zauważmy, że y = W X Załóżmy,
Bardziej szczegółowosynaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.
Sieci neuronowe model konekcjonistyczny Plan wykładu Mózg ludzki a komputer Modele konekcjonistycze Perceptron Sieć neuronowa Uczenie sieci Sieci Hopfielda Mózg ludzki a komputer Twój mózg to 00 000 000
Bardziej szczegółowoPattern Classification
Pattern Classfcaton All materals n these sldes ere taken from Pattern Classfcaton nd ed by R. O. Duda, P. E. Hart and D. G. Stork, John Wley & Sons, 000 th the permsson of the authors and the publsher
Bardziej szczegółowoPlan wykładu. Sztuczne sieci neuronowe. Sieci rekurencyjne. Sieci rekurencyjne. Wykład 8: Sieci rekurencyjne: sie Hopfielda. Sieci rekurencyjne
Plan wykładu Wykład 8: Sec rekurencyne: se Hopfelda Małgorzata Krtowska Katedra Oprogramowana e-mal: mmac@.pb.balystok.pl Sec rekurencyne Se Hopfelda tryb odtwarzana funkca energ dynamka zman stanu wykorzystane
Bardziej szczegółowoSTATYSTYKA MATEMATYCZNA
STATYSTYKA MATEMATYCZNA. Wkład wstępn. Teora prawdopodobeństwa element kombnatork. Zmenne losowe ch rozkład 3. Populacje prób danch, estmacja parametrów 4. Testowane hpotez statstcznch 5. Test parametrczne
Bardziej szczegółowoSztuczna Inteligencja Tematy projektów Sieci Neuronowe
PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia
Bardziej szczegółowoMetody Sztucznej Inteligencji II
17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału
Bardziej szczegółowo4. Zjawisko przepływu ciepła
. Zawso przepływu cepła P.Plucńs. Zawso przepływu cepła wymana cepła przez promenowane wymana cepła przez unoszene wymana cepła przez przewodzene + generowane cepła znane wartośc temperatury zolowany brzeg
Bardziej szczegółowoZagadnienia optymalizacji i aproksymacji. Sieci neuronowe.
Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. zajecia.jakubw.pl/nai Literatura: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym. WNT, Warszawa 997. PODSTAWOWE ZAGADNIENIA TECHNICZNE AI
Bardziej szczegółowoMacierz prawdopodobieństw przejścia w pojedynczym kroku dla łańcucha Markowa jest postaci
Zadane. Macerz radoodobeńst rzejśca ojedynczym kroku dla łańcucha Markoa...... o trzech stanach { } jest ostac 0 n 0 0 (oczyśce element stojący -tym erszu j -tej kolumne tej macerzy oznacza P( = j. Wtedy
Bardziej szczegółowotermodynamika fenomenologiczna p, VT V, teoria kinetyczno-molekularna <v 2 > termodynamika statystyczna n(v) to jest długi czas, zachodzi
fzka statstczna stan makroskopow układ - skończon obszar przestrzenn (w szczególnośc zolowan) termodnamka fenomenologczna p, VT V, teora knetczno-molekularna termodnamka statstczna n(v) stan makroskopow
Bardziej szczegółowoSztuczne sieci neuronowe
www.math.uni.lodz.pl/ radmat Cel wykładu Celem wykładu jest prezentacja różnych rodzajów sztucznych sieci neuronowych. Biologiczny model neuronu Mózg człowieka składa się z około 10 11 komórek nerwowych,
Bardziej szczegółowoPrawdopodobieństwo i statystyka r.
Prawdopodobeństwo statystya.05.00 r. Zadane Zmenna losowa X ma rozład wyładnczy o wartośc oczewanej, a zmenna losowa Y rozład wyładnczy o wartośc oczewanej. Obe zmenne są nezależne. Oblcz E( Y X + Y =
Bardziej szczegółowo8. Neuron z ciągłą funkcją aktywacji.
8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i
Bardziej szczegółowoPlan wykładu. Sztuczne sieci neuronowe. Uczenie nienadzorowane (bez nauczyciela) Uczenie nienadzorowane - przykłady
Plan yładu Wyład 7: Sec samoorganzuące sę na zasadze spółzaodncta Sec samoorganzuace sę na zasadze spółzaodncta: uczene nenadzoroane uczene onurencyne reguła WTA reguła WTM antoane etoroe mapa cech Kohonena
Bardziej szczegółowo1. Logika, funkcje logiczne, preceptron.
Sieci neuronowe 1. Logika, funkcje logiczne, preceptron. 1. (Logika) Udowodnij prawa de Morgana, prawo pochłaniania p (p q), prawo wyłączonego środka p p oraz prawo sprzeczności (p p). 2. Wyraź funkcję
Bardziej szczegółowo( ) ( ) 2. Zadanie 1. są niezależnymi zmiennymi losowymi o. oraz. rozkładach normalnych, przy czym EX. i σ są nieznane. 1 Niech X
Prawdopodobeństwo statystyka.. r. Zadane. Zakładamy, że,,,,, 5 są nezależnym zmennym losowym o rozkładach normalnych, przy czym E = μ Var = σ dla =,,, oraz E = μ Var = 3σ dla =,, 5. Parametry μ, μ σ są
Bardziej szczegółowoRACHUNEK NIEPEWNOŚCI POMIARU
Mędznarodowa Norma Ocen Nepewnośc Pomaru(Gude to Epresson of Uncertant n Measurements - Mędznarodowa Organzacja Normalzacjna ISO) RACHUNEK NIEPEWNOŚCI http://phscs.nst./gov/uncertant POMIARU Wrażane Nepewnośc
Bardziej szczegółowoZastosowanie technik sztucznej inteligencji w analizie odwrotnej
Zastosowane technk sztucznej ntelgencj w analze odwrotnej Ł. Sztangret, D. Szelga, J. Kusak, M. Petrzyk Katedra Informatyk Stosowanej Modelowana Akadema Górnczo-Hutncza, Kraków Motywacja Dokładność symulacj
Bardziej szczegółowoWstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.
Wstęp do teorii sztucznej inteligencji Wykład III Modele sieci neuronowych. 1 Perceptron model najprostzszy przypomnienie Schemat neuronu opracowany przez McCullocha i Pittsa w 1943 roku. Przykład funkcji
Bardziej szczegółowoSztuczna inteligencja
Sztuczna inteligencja Wykład 7. Architektury sztucznych sieci neuronowych. Metody uczenia sieci. źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Podstawowe architektury
Bardziej szczegółowowiedzy Sieci neuronowe
Metody detekcji uszkodzeń oparte na wiedzy Sieci neuronowe Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 7 Wprowadzenie Okres kształtowania się teorii sztucznych sieci
Bardziej szczegółowoNajprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;
Sieci Hopfielda Najprostsze modele sieci z rekurencją sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Modele bardziej złoŝone: RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie
Bardziej szczegółowoElementy inteligencji obliczeniowej
Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego
Bardziej szczegółowoSIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe
SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe JOANNA GRABSKA-CHRZĄSTOWSKA Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA BUDOWA RZECZYWISTEGO NEURONU
Bardziej szczegółowoSYSTEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE METODY KLASYFIKACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.
SYSEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE MEODY KLASYFIKACJI Częstochowa 4 Dr hab. nż. Grzegorz Dude Wydzał Eletryczny Poltechna Częstochowsa FUNKCJE FISHEROWSKA DYSKRYMINACYJNE DYSKRYMINACJA I MASZYNA LINIOWA
Bardziej szczegółowoWielokategorialne systemy uczące się i ich zastosowanie w bioinformatyce. Rafał Grodzicki
Welokategoralne systemy uząe sę h zastosowane w bonformatye Rafał Grodzk Welokategoralny system uząy sę (multlabel learnng system) Zbór danyh weśowyh: d X = R Zbór klas (kategor): { 2 } =...Q Zbór uząy:
Bardziej szczegółowoStatystyka Matematyczna Anna Janicka
Statystyka Matematyczna Anna Janicka wykład X, 9.05.206 TESTOWANIE HIPOTEZ STATYSTYCZNYCH II: PORÓWNYWANIE TESTÓW Plan na dzisiaj 0. Przypomnienie potrzebnych definicji. Porównywanie testów 2. Test jednostajnie
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych
Bardziej szczegółowoSystemy agentowe. Sieci neuronowe. Jędrzej Potoniec
Systemy agentowe Sieci neuronowe Jędrzej Potoniec Złe wieści o teście To jest slajd, przy którym wygłaszam złe wieści. Perceptron (Rossenblat, 1957) A. Géron, Hands-On Machine Learning with Scikit-Learn
Bardziej szczegółowoSystemy agentowe. Sieci neuronowe. Jędrzej Potoniec
Systemy agentowe Sieci neuronowe Jędrzej Potoniec Perceptron (Rossenblat, 1957) A. Géron, Hands-On Machine Learning with Scikit-Learn and TensorFlow 2017 Perceptron { 1 z 0 step(z) = 0 w przeciwnym przypadku
Bardziej szczegółowou u u( x) u, x METODA RÓŻNIC SKOŃCZONYCH, METODA ELEMENTÓW BRZEGOWYCH i METODA ELEMENTÓW SKOŃCZONYCH
METODA RÓŻNIC SKOŃCZONYCH, METODA ELEMENTÓW BRZEGOWYCH METODA ELEMENTÓW SKOŃCZONYCH Szkc rozwązana równana Possona w przestrzen dwuwymarowe. Równane Possona to równae różnczkowe cząstkowe opsuące wele
Bardziej szczegółowoSieć Hopfielda. Zdefiniowana w roku 1982, wprowadziła sprzężenie zwrotne do struktur sieci. Cechy charakterystyczne:
Sc Hopflda... Sć Hopflda Zdfnoana roku 98, proadzła sprzężn zrotn do struktur sc. Cch charaktrstczn: brak dnokrunkogo przpłu sgnału n oż różnć arst śco, śco, pośrdn k W,,W,...Wn,_ W,,W,..Wn, W,,W,k...Wn,k.........
Bardziej szczegółowoMetody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF.
Metody sztucznej inteligencji Zadanie 3: ( klasteryzacja samoorganizująca się mapa Kohonena, (2 aproksymacja sieć RBF dr inż Przemysław Klęsk Klasteryzacja za pomocą samoorganizującej się mapy Kohonena
Bardziej szczegółowoSztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311
Sztuczne sec neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyk, p. 311 Wykład 6 PLAN: - Repetto (brevs) - Sec neuronowe z radalnym funkcjam bazowym Repetto W aspekce archtektury: zajmowalśmy
Bardziej szczegółowoOCENA DZIAŁANIA AE. METODY HEURYSTYCZNE wykład 4 LOSOWOŚĆ W AE KRZYWE ZBIEŻNOŚCI ANALIZA STATYSTYCZNA:
METODY HEURYSTYCZNE wykład 4 OCENA DZIAŁANIA AE 1 2 LOSOWOŚĆ W AE Różne zachowanie algorytmuw poszczególnych uruchomieniach przy jednakowych ustawieniach parametrów i identycznych populacjach początkowych.
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.
Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 2013-11-26 Projekt pn. Wzmocnienie potencjału
Bardziej szczegółowoRozwiązywanie zadań optymalizacji w środowisku programu MATLAB
Rozwązywane zadań optymalzacj w środowsku programu MATLAB Zagadnene optymalzacj polega na znajdowanu najlepszego, względem ustalonego kryterum, rozwązana należącego do zboru rozwązań dopuszczalnych. Standardowe
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3
Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt
Bardziej szczegółowoZastosowania sieci neuronowych
Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką
Bardziej szczegółowoInteligentne systemy przeciw atakom sieciowym
Inteligentne systemy przeciw atakom sieciowym wykład Sztuczne sieci neuronowe (SSN) Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 1 / 36 Biologiczne
Bardziej szczegółowoSztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010
Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010 Sieci neuronowe jednokierunkowa wielowarstwowa sieć neuronowa sieci Kohonena
Bardziej szczegółowo1. Wprowadzenie, sieć naśladująca psa Pawłowa
. Wroadzee, seć aśladuąca sa ałoa Cz oża zbudoać seć eurooą aśladuącą SA AWŁOWA? Trudo udzelć a to tae atchastoe odoedz zakładaąc, że korzstalbś tlko łącze z sec edokerukoch. okuś sę ęc a róbę zaroektoaa
Bardziej szczegółowoq (s, z) = ( ) (λ T) ρc = q
M O D E L O W A N I E I N Y N I E R S K I E n r 4 7, I S S N 1 8 9 6-7 7 1 X W Y Z N A C Z A N I E O D K S Z T A C E T O W A R Z Y S Z Ą C Y C H H A R T O W A N I U P O W I E R Z C H N I O W Y M W I E
Bardziej szczegółowoPodstawy sztucznej inteligencji
wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,
Bardziej szczegółowoarchitektura komputerów w. 3 Arytmetyka komputerów
archtektura komputerów w. 3 Arytmetyka komputerów Systemy pozycyjne - dodawane w systeme dwójkowym 100101011001110010101 100111101000001000 0110110011101 1 archtektura komputerów w 3 1 Arytmetyka bnarna.
Bardziej szczegółowo) będą niezależnymi zmiennymi losowymi o tym samym rozkładzie normalnym z następującymi parametrami: nieznaną wartością 1 4
Zadane. Nech ( X, Y ),( X, Y ), K,( X, Y n n ) będą nezależnym zmennym losowym o tym samym rozkładze normalnym z następującym parametram: neznaną wartoścą oczekwaną EX = EY = m, warancją VarX = VarY =
Bardziej szczegółowoWarszawa, 28 stycznia 2017 r., Blok tematyczny II Sztuczne sieci neuronowe (środowisko MATLAB i Simulink z wykorzystaniem Neural Network Toolbox),
Studa Doktorancke IBS PA nt. Technk nformacyjne teora zastosowana WYKŁAD Semnarum nt. Modelowane rozwoju systemów w środowsku MATLABA Smulnka Prof. nadzw. dr hab. nż. Jerzy Tchórzewsk, jtchorzewsk@ntera.pl;
Bardziej szczegółowoProjekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE
Inormatyka Podstawy Programowana 06/07 Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE 6. Równana algebraczne. Poszukujemy rozwązana, czyl chcemy określć perwastk rzeczywste równana:
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-10 Projekt pn. Wzmocnienie
Bardziej szczegółowoMETODY INTELIGENCJI OBLICZENIOWEJ wykład 5
METODY INTELIGENCJI OBLICZENIOWEJ wykład 5 1 2 SZTUCZNE SIECI NEURONOWE cd 3 UCZENIE PERCEPTRONU: Pojedynczy neuron (lub 1 warstwa neuronów) typu percep- tronowego jest w stanie rozdzielić przestrzeń obsza-
Bardziej szczegółowoKonstrukcja gier sprawiedliwych i niesprawiedliwych poprzez. określanie prawdopodobieństwa.
Fundacja Centrum Edukacj Obyatelskej, ul. Noakoskego 10, 00-666 Warszaa, e-mal: ceo@ceo.org.l; Akadema ucznoska, Tel. 22 825 04 96, e-mal: au@ceo.org.l; ęcej nformacj:.akademaucznoska.l 1 Konstrukcja ger
Bardziej szczegółowoSztuczne sieci neuronowe
Wydział Zarządzania AGH Katedra Informatyki Stosowanej Sztuczne sieci neuronowe Sztuczne sieci neuronowe Wprowadzenie Trochę historii Podstawy działania Funkcja aktywacji Typy sieci 2 Wprowadzenie Zainteresowanie
Bardziej szczegółowoNowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba
Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 1 Ćwczene 2: Perceptron WYMAGANIA 1. Sztuczne sec neuronowe budowa oraz ops matematyczny perceptronu (funkcje przejśca perceptronu), uczene perceptronu
Bardziej szczegółowoSieci Neuronowe 1 Michał Bereta
Wprowadzene Zagadnena Sztucznej Intelgencj laboratorum Sec Neuronowe 1 Mchał Bereta Sztuczne sec neuronowe można postrzegać jako modele matematyczne, które swoje wzorce wywodzą z bolog obserwacj ludzkch
Bardziej szczegółowoMatematyka ubezpieczeń majątkowych r.
Matematyka ubezpieczeń majątkowych 3..007 r. Zadanie. Każde z ryzyk pochodzących z pewnej populacji charakteryzuje się tym że przy danej wartości λ parametru ryzyka Λ rozkład wartości szkód z tego ryzyka
Bardziej szczegółowoMODELOWANIE UKŁADÓW MECHANICZNYCH Z NIEPEWNYMI PARAMETRAMI
Smlaca Andrze POWNUK Katedra Mecan Teoretczne Wdzał Bdownctwa Poltecna Śląsa w Glwcac MODELOWANIE UKŁADÓW MECHANICZNYCH Z NIEPEWNYMI PARAMETRAMI Streszczene. Wszste parametr ładów mecancznc są znane z
Bardziej szczegółowoWykład 2. Model Neuronu McCulocha-Pittsa Perceptron Liniowe Sieci Neuronowe
Sztuczne Sieci Neuronowe Wykład 2 Model Neuronu McCulocha-Pittsa Perceptron Liniowe Sieci Neuronowe wykład przygotowany na podstawie. R. Tadeusiewicz, Sieci Neuronowe, Rozdz. 3. Akademicka Oficyna Wydawnicza
Bardziej szczegółowoZadanie 1. Rzucamy symetryczną monetą tak długo, aż w dwóch kolejnych rzutach pojawią się,,reszki. Oblicz wartość oczekiwaną liczby wykonanych rzutów.
Pradopodobeństo statystya 6..3r. Zadae. Rzucamy symetryczą moetą ta długo aż dóch olejych rzutach pojaą sę resz. Oblcz artość oczeaą lczby yoaych rzutó. (A) 7 (B) 8 (C) 9 (D) (E) 6 Wsazóa: jeśl rzuce umer
Bardziej szczegółowoSieć neuronowa jako system ekspercki na rynku instrumentów pochodnych
Rozdzał monograf: 'Bazy Danych: Rozó metod technoog', ozesk S., Małysak B., asprosk P., Mrozek D. (red.), WŁ 8.bdas.p Rozdzał 7 Seć neuronoa ako system eksperck na rynku nstrumentó pochodnych Streszczene.
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 2 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 213-1-15 Projekt pn. Wzmocnienie potencjału
Bardziej szczegółowoZastosowanie sztucznych sieci neuronowych do modelowania procesów azotowania próżniowego stali narzędziowych
Zastosowanie sztucznych sieci neuronowych do modelowania procesów azotowania próżniowego stali narzędziowych Emilia Wołowiec-Korecka Politechnika Łódzka Zastosowania statystyki i data mining w badaniach
Bardziej szczegółowoPOPRAWA EFEKTYWNOŚCI METODY WSTECZNEJ
Nowoczesne techniki informatyczne - Ćwiczenie 6: POPRAWA EFEKTYWNOŚCI METODY BP str. 1 Ćwiczenie 6: UCZENIE SIECI WIELOWARSTWOWYCH. POPRAWA EFEKTYWNOŚCI METODY WSTECZNEJ PROPAGACJI BŁĘDU WYMAGANIA 1. Sztuczne
Bardziej szczegółowoPattern Classification
Pattern Classification All materials in these slides were taen from Pattern Classification (2nd ed) by R. O. Duda, P. E. Hart and D. G. Stor, John Wiley & Sons, 2000 with the permission of the authors
Bardziej szczegółowoWspółczynnik korelacji liniowej oraz funkcja regresji liniowej dwóch zmiennych
Współcznnk korelacj lnowej oraz funkcja regresj lnowej dwóch zmennch S S r, cov współcznnk determnacj R r Współcznnk ndetermnacj ϕ r Zarówno współcznnk determnacj jak ndetermnacj po przemnożenu przez 00
Bardziej szczegółowoZastosowania sieci neuronowych - automatyka identyfikacja sterowanie
Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie LABORKA Piotr Ciskowski ZASTOSOWANIA SIECI NEURONOWYCH IDENTYFIKACJA zastosowania przegląd zastosowania sieci neuronowych: o identyfikacja
Bardziej szczegółowoŚ ś Ł ń ń ś ś Ś ś Ę ę ś ę ś ĘŚ ś Ęś ę ĘŚĆ ĘŚ Ęś ĘŚ ĘŚ ę ĘŚĆ ĘŚĆ ĘŚĆ ĘŚĆ Ęś ĘŚĆ ĘŚ ĘŚĆ ń ĘŚĆ ĘŚ ĘŚĆ ę ĘŚ ś Ęś ń ś ś ś ę ź ę ś ę ś Ź ń ę ń ś ń ń ę ń ń ń ń Ę ś ń ęś ń ń ń ę ń Ż ś ń ń ę ń ś ń ń ń ę ś ń ś Ż
Bardziej szczegółowo14. Grupy, pierścienie i ciała.
4. Grup, pierścienie i ciała. Definicja : Zbiór A nazwam grupą jeśli jest wposaŝon w działanie wewnętrzne łączne, jeśli to działanie posiada element neutraln i kaŝd element zbioru A posiada element odwrotn.
Bardziej szczegółowoBezgradientowe metody optymalizacji funkcji wielu zmiennych. informacje dodatkowe
Bezgradientowe metody optymalizacji funkcji wielu zmiennych informacje dodatkowe Wybór kierunku poszukiwań Kierunki bazowe i ich modyfikacje metody bezgradientowe. Kierunki oparte na gradiencie funkcji
Bardziej szczegółowoBADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda
BADANIA OPERACYJNE Podejmowane decyzj w warunkach nepewnośc dr Adam Sojda Teora podejmowana decyzj gry z naturą Wynk dzałana zależy ne tylko od tego, jaką podejmujemy decyzję, ale równeż od tego, jak wystąp
Bardziej szczegółowoWstęp do sztucznych sieci neuronowych
Wstęp do sztucznych sieci neuronowych Michał Garbowski Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Wydział Informatyki 15 grudnia 2011 Plan wykładu I 1 Wprowadzenie Inspiracja biologiczna
Bardziej szczegółowo