Sztuczne sieci neuronowe

Wielkość: px
Rozpocząć pokaz od strony:

Download "Sztuczne sieci neuronowe"

Transkrypt

1 Sztuczne sec neuronoe model konekconstyczny 2 Plan ykładu Geneza modelu konekconstycznego Głóne cechy Model sztucznego neuronu Archtektury sec neuronoych Proces uczena sę sec Uczene poedynczego neuronu Właścośc poedynczego neuronu

2 3 Ludzk mózg komórek 3 2 km połączeń ( 4 ) połączeń ~,5 kg ag ~,5 l obętośc ~2 W poboru energ 4 Ludzk mózg a komputer Jednostk oblczenoe Pamęć Czas operac Czas transms Lczba aktyac/s Komputer - 4 CPU 9 btó RAM 2 btó dysk -8 s 9 bt/s 5 Mózg 5 - neuronó neuronó 4 połączeń -3 s 4 bt/s 4 2

3 Głóne cechy model konekconstycznych 5 DuŜa lczba prostych ednostek przetarzana (neuronó) Subsymbolczna reprezentaca edzy - kodoane edzy za pomocą ag na połączenach Przetarzane rónoległe rozproszone Kluczoe znaczene ma seć połączeń, e gęstość stopeń komplkac a ne budoa neuronu Nastotneszy problem to automatyzaca procesu uczena sę sec 6 Budoa neuronu eśce yśce ZłoŜone dzałane błony komórk neroe - model błony synaptyczne (Hodgkn-Huxley, Nagroda Nobla 963) Jądro - centrum oblczenoe neuronu, gdze zachodzą procesy kluczoe dla ego funkconoana 3

4 7 Sztuczny neuron x x e f() y x k k eśca ag pobudzene f aktyac yśce 8 Sztuczny neuron - budoa eśca - reprezentuą sygnały zenętrzne, które płyaą do neuronu (ymuszena) x ag - determnuą zględną aŝność poszczególnych eść pobudzene (łączne) e - ypadkoa artość skalarna odzercedlaąca aktyność neuronu; zaleŝne od funkc act(), która określa sposób oblczana pobudzena na podstae eść oraz ag yśce y - artość sygnału yścoego neuronu funkca aktyac f - determnue stan yśca na podstae pobudzena; określa charakterystykę neuronu 4

5 9 Sztuczny neuron x x e f() y x k k Podstaoe zaleŝnośc opsuące sztuczny neuron: e = act(x,,x k,,, k ) y = f(e) Prosty perceptron x x e f() y x k k ZaleŜnośc dla prostego perceptronu: k e = act = x ( x, ) y( x, ) = f ( e) = = gdy gdy e θ e< θ 5

6 Prosty perceptron: próg aktyac θ ako aga 2 x - x x 3 x k` =θ 2 3 k e f() ZaleŜnośc dla prostego perceptronu: k e = act = x ( x, ) y( x, ) = = gdy gdy y e e< 3 Funkce aktyac neuronu Sgmodalna f ( e) = + exp( βe) Tangens hperbolczny f ( e) = tanh( βe) Progoa (skokoa Heavsde a) gdy e f ( e) = gdy e< 6

7 4 Wpły parametru β Funkca sgmodalna,9,8,7,6,5 f ( e) =,4 + exp( βe),3,2, ,5, 2, Im ększa artość β, tym ększa stromość funkc aktyac W grancy β funkca zblŝa sę do skoku ednostkoego Przecdzedzna meśc sę przedzale [; ] - funkca est ednobegunoa (unpolarna) 5 Wpły parametru β Tangens hperbolczny,8,6 f ( e) = tanh( βe),4, , ,4 -,6 -,8 -,5, 2, Im ększa artość β, tym ększa stromość funkc aktyac W grancy β funkca zblŝa sę do skoku ednostkoego Przecdzedzna meśc sę przedzale [-; ] - funkca est dubegunoa (bpolarna) 7

8 Archtektura sztucznych sec neuronoych 6 Sztuczną seć neuronoą uzyskuemy łącząc ze sobą arsty ele neuronó e f() x x 3 x k e f() e e f() f() y y 2 x e e f() f() e f() e f() Seć bez sprzęŝeń (ang feedforarded) x 3 Seć ze sprzęŝenam zrotnym (ang feedback) 7 Sec bez sprzęŝeń Połączena medzy neuronam ne mogą torzyć cykl Sygnał podany na eśce propague sę przez seć skończonym czase Koleność krokó ustalaących artość pobudzena oraz stany yść neuronó zaleŝy od topolog sec MoŜna uznać e za układy pozbaone pamęc Sygnał propagoany est ednym kerunku stąd ch druga naza - ednokerunkoe Mogę być ułoŝone edną lub ęce arst 8

9 8 Sec ze sprzęŝenam Pomędzy neuronam mus poać sę co namne edno sprzęŝene zrotne (sygnał z yśca poraca na eśce) W skranym przypadku sygnał podany na eśce moŝe propagoać sę przez seć neskończonym czase ngdy ne osągnąć stanu stablnego Charakteryzue e skomplkoana dynamka, ymagaąca złoŝone aparatury poęcoe (teora chaosu, teora złoŝonośc) Zachouą sę ak układy z pamęcą Seć ednoarstoa z eloma yścam 2 Sztuczną seć neuronoą est mplementacą złoŝone funkc elu zmennych Naczęśce est to rónoczesna realzaca tylu funkc le yść posada cała seć x e f() y x 3 e f() y 2 e f() y 3 x k macerz ag 9

10 Uczene sec neuronoych 2 Proces uczena polega na modyfkoanu ag sec Naczęśce realzoane est uczene sę z przykładó Uczene nadzoroane - przykłady opsane są zaróno atrybutam arunkoym, ak decyzynym Uczene nenadzoroane - dane opsane są tylko atrybutam arunkoym Cel uczena - rozązane penego problemu klasyfkac (decyze nomnalne), problemu regres (decyze numeryczne) lub problemu grupoana Uczene sec neuronoych 22 Algorytmy uczena sec modyfkuą ag neuronó bez zmany archtektury sec, która mus być zaproektoana cześne Proces uczena na zborze przykładó D moŝna sproadzć do problemu optymalzac (mnmalzac) cągłe przestrzen ag pene funkc błędu E: W opt = arg mn E( W, D) W gdze: W - macerz ag sec W opt - macerz optymalnych artośc ag sec, odpoadaąca sec o namneszym moŝlym błędze ak moŝna osągnąć dla zboru danych D

11 Uczene nadzoroane sec neuronoych 23 W uczenu nadzoroanym funkca błędu E est peną marą rozbeŝnośc mędzy rzeczystym stanam yść sec a artoścam podanym ako decyze zborze danych D Naczęśce stosoaną marą est błąd średnokadratoy: E MSE = D k k [ y( x) z( x) ] x D = gdze: k - lczba yść sec, x - przykład ze zboru D (ektor atrybutó arunkoych), y (x) - artość -tego yśca sec dla przykładu x, z (x) - artość poŝądana dla przykładu x na yścu (atrybut decyzyny) 2 Uczene poedynczego prostego perceptronu 24 Celem uczena nadzoroanego est realzaca penego odzoroana: z = F(x) gdze: x est ektorem atrybutó (zmennych) nezaleŝnych, z est poŝądanym yścem neuronu, a odzoroane F est neznane zadane edyne postac zboru n przykładó (zbór D) postac: x, z = F( x ), = Kn

12 Uczene poedynczego prostego perceptronu 25 Błąd generoany przez neuron po podanu -tego przykładu na eśca est yraŝany róŝncą: δ = z - y Agregaca szystkch błędó popełnonych przez neuron dla poszczególnych przykładó do błędu średnokadratoego neuronu przebega następuąco: n n 2 E= ( z y ) = E 2 = =, E = ( δ ) 2 Mnmalzaca tego błędu następue naczęśce z zastosoanem heurystycznego algorytmu naększego spadku gradentu 2 Uczene poedynczego prostego perceptronu 26 W poedynczym kroku uczena yznaczana est artość o aką zmenona ma zostać określona aga sec zana popraką ag Modyfkaca -te ag na podstae błędu E popełnanego przezeń podczas propagac sygnału dla -tego przykładu odbya sę g zaleŝnośc: E = η gdze: η est elkoścą, która kontrolue pły gradentu na stosoaną poprakę określana est manem spółczynnka prędkośc uczena 2

13 Algorytm naększego spadku gradentu 27 Interpretaca grafczna na płaszczyźne heurystyk naększego spadku gradentu: E ' Uczene poedynczego prostego perceptronu 28 Funkca błędu ako funkca złoŝona ymaga dalszych zabegó: E E = y y Z defnc poedynczego błędu E oraz δ = z - y mamy: E y = ( z y ) = δ A lnoy charakter funkc y dla perceptronu proadz do: y = x 3

14 29 Reguła delta Ostateczne heurystyka spadku gradentu nakazue mnmalzacę błędu zgodne z formułą: = ηδ x PoyŜsza formuła określana est manem reguły delta albo regułą ADELINE - popraka -te ag est prost proporconalna do błędu popełnonego przez neuron oraz do elkośc sygnału płyaącego -tym eścem do neuronu Pełny krok uczena ymaga yznaczena zastosoana poprak na szystkch agach danego neuronu (róneŝ ) Algorytm uczena perceptronu 3 Ustaamy artość spół prędkośc uczena η 2 Wyberamy losoo ag początkoe perceptronu 3 Na eśca podaemy ektor uczący x 4 Oblczamy artość yścoą perceptronu zgodne ze zorem: k y = x = 5 Porónuemy artość yścoą z poŝądaną z 6 Modyfkuemy ag zgodne z zaleŝnoścą: = + ηδ x gdze δ = z y 7 Jeśl ne konec epok uczena, racamy do kroku 3 8 Jeśl błąd całe epok est ększy od załoŝonego, racamy do kroku 3 4

15 Reguła delta - podsumoane 3 Cechy algorytmu uczena opartego na regule delta: Stosoana metoda spadku gradentu est heurystyką ne garantue znalezena optymalne konfgurac ag sec (lokalne mnma!) Współczynnk prędkośc uczena η ma znaczący pły na przebeg procesu uczena Losoe artośc początkoe ag róneŝ płyaą na przebeg procesu uczena Poprak oblczane są dla kaŝde ag nezaleŝne Uczene sę przebega elu krokach ymaga elokrotnego propagoana przez seć danych z poszczególnych przykładó Własnośc prostego perceptronu - klasyfkaca 32 Interpretaca grafczna prostego perceptronu o dóch eścach: y = + x + 2 = 2 y> y< W probleme bnarne klasyfkac poedynczy neuron mplementue grancę mędzy klasam decyzynym postac (hper)płaszczyzny opsane rónanem: n = x = x 5

16 Proces uczena sę klasyfkac 33 W trakce uczena sę prosty perceptron manerue płaszczyzną celu oddzelena od sebe przykładó z róŝnych klas = = =3 =647 x Podstay teoretyczne sec neuronoych 34 Terdzene Rosenblatta: Proces uczena perceptronu est zbeŝny Perceptron moŝe nauczyć sę doolnego lnoo separoalnego problemu klasyfkac 6

17 35 Problemy klasyfkac Praktyczne problemy uczena mogą meć róŝną charakterystykę: x Problem lnoo separoalny x Problem lnoo neseparoalny Poedynczy neuron moŝe oddzelć od sebe tylko take klasy decyzyne, mędzy którym moŝle est poproadzene grancy postac (hper)płaszczyzny 36 Znaczene basu Bas - aga przypsana progo aktyac θ tgα b= α = y = + x + 2 = 2 2 x = -( / 2 )x - ( / 2 ) y = a*x +b a = -( / 2 ) b=-( / 2 ) dla = zasze b= Istnene basu est koneczne, eśl moŝly ma być podzał dóch całkoce doolnych klas lnoo separoalnych 7

18 Uczene poedynczego neuronu nelnoego 37 Proces uczena neuronu nelnoego róneŝ opera sę na regule spadku gradentu: E E E y = η, = y ale pochodna yśca po adze zmena są postać z poodu nelnoego charakteru funkc aktyac: y y e = e Wemy, Ŝe z defnc błędu E oraz pobudzena e mamy: E y = δ e = x Reszta zaleŝy od ybrane funkc aktyac y=f (e) Uczene poedynczego neuronu nelnoego 38 Pochodna funkc sgmodalne zględem pobudzena: y= f ( e) = = (+ exp( e)) + exp( e) y 2 = ( )(+ exp( e)) *exp( e)*( ) e exp( e) exp( e) = = * 2 (+ exp( e)) (+ exp( e)) (+ exp( e)) + exp( e) = * ( exp( e)) ( exp( e)) ( exp( e)) y = y ( y ) e 8

19 Uczene poedynczego neuronu nelnoego 39 Ostateczne reguła spadku gradentu nakazue poprakę ag neuronu nelnoego (sgmodalnego) zgodne z formułą: y e = ηδ x = ηδ x y ( y ) Reguła delta neuronu nelnoego róŝn sę członem y(-y), ynkaącym z proadzone nelnoośc, który zększa poprak tym mocne m blŝe przykład znadue sę płaszczyzny decyzyne realzoane przez neuron 4 Problem XOR, x XOR(x, ), x Funkc XOR ne moŝe zostać odzoroana za pomocą poedynczego lnoego neuronu, gdyŝ potrzebna est ęce nŝ edna płaszczyzna decyzyna by oddzelć od sebe de klasy ynkoe 9

20 Układy logczne a sec neuronoe 4 Implementaca podstaoych funkc logcznych za pomocą neuronó prostych z funkcą skokoą aktyac: - =5 = x 2 = AND _ y - =-49 NOT _ =- x y y = x y = -x =5 x = OR 2 = y = x _ y x AND OR x NOT Seć eloarstoa dla funkc XOR 42 Problem odzoroana funkc XOR moŝna rozązać edyne stosuąc ęce nŝ edną arstę sec: y = x XOR = ((x AND NOT ) OR ( AND NOT x )) - =5 x 2 =- 3 =- = 4 = - =5 y = x AND NOT AND NOT y 5 = 6 = y 2 y 2 = -x =5 y = y + y 2-5 OR y x y y 2 XOR 2

21 Problem XOR: rozązane 43, AND NOT x y 2 = -x + - 5,,, x y = x x AND NOT Odzoroane funkc XOR est połączenem prostych odzoroań z arsty persze bardze złoŝone odzoroane zrealzoane dzęk arste druge 44 Seć eloarstoa x x 3 x k arsty ukryte arsta eścoa arsta yścoa W ramach edne arsty neurony ne komunkuą sę ze sobą Pomędzy arstam oboązue zasada kaŝdy z kaŝdym 2

22 Uczene sec eloarstoe 45 Zastosoane reguły delta: y = ηδ x δ = z y e obec neuronó arsty, która ne est yścoa (ukryte) ymaga następuące zmany sposobu oblczana błędu przy prezentac -tego przykładu: δ N l = + ( k, l ) k ( p, l+ ) δ ( p, l+ ) p= gdze ndeksy (k,l) dotyczą k-tego neuronu arste l-te, zaś N l+ to lczba neuronó l+-te arste sec Uczene sec eloarstoe 46 Reguła yznaczana błędu neuronu sec eloarstoe: Interpretaca: δ N l = + ( k, l ) k ( p, l+ ) δ ( p, l+ ) p= Błąd neuronu arste l-te est róny sume błędó popełnonych przez neurony z arsty l+-te, aŝonych agam ake łączą dany neuron z neuronam arsty l+-te 22

23 Uczene sec eloarstoe 47 Ilustraca grafczna reguły yznaczana błędu : δ N l = + ( k, l ) k ( p, l+ ) δ ( p, l+ ) p= δ (,l ) (, l+ ) (2, l+ ) δ (, l + ) δ (2,l ) δ ( 2, l + ) δ (3,l ) δ ( 3, l + ) arsta l arsta l+ Algorytm steczne propagac błędu 48 procedure backpropagaton(zbór przykładó D) begn ncalzaca ag sec małym artoścam losoym; repeat for each x D propagaca x przez seć aŝ do yśca; porónane ektora yść y z poŝądanym ynkem z oraz yznaczene błędó δ ; steczna propagaca błędu przez arsty ukryte t do arsty ostatne, przedostatne td; modyfkaca ag kaŝdego neuronu sec stosoane do popełnonego błędu; endfor Wyznaczene błędu średnokadratoego E po szystkch przykładach untl E < E stop or nny_ar_stopu 23

24 Uczene sec eloarstoe 49 x x k h h 2 h N2 - ( p,2) - arsta eścoa arsta ukryta ( p,3) y y 2 y N3 arsta yścoa z z 2 z N3 Uczene sec eloarstoe 5 x x k h h 2 h N2 - ( p,2) - Dany est zbór D przykładó: x,z Losuemy ag (małe artośc) Wyberamy koleną parę ze zboru D Oblczamy artośc arste ukryte: h p = + exp k = ( p,2), p= KN 2 x y y 2 y N3 ( p,3) z z 2 z N3 24

25 Uczene sec eloarstoe 5 x x k h h 2 y y 2 h N2 y N3 z z 2 z N3 - ( p,2) - ( p,3) Dany est zbór D przykładó: x,z Losuemy ag (małe artośc) Wyberamy koleną parę ze zboru D Oblczamy artośc arste ukryte: h p = + exp k = ( p,2), p= KN 2 x Oblczamy artośc arste yścoe: y p = N 2 + exp = ( p,3), p= K N3 h Uczene sec eloarstoe 52 x x k h h 2 y y 2 h N2 y N3 - ( p,2) - ( p,3) Dany est zbór D przykładó: x,z Losuemy ag (małe artośc) Wyberamy koleną parę ze zboru D Oblczamy artośc arste ukryte: h p Oblczamy artośc arste yścoe: y p Oblczamy błąd arste yścoe: δ ( p,3) = z p y p p=, KN 3 z z 2 z N3 25

26 Uczene sec eloarstoe 53 x x k h h 2 y y 2 h N2 y N3 z z 2 z N3 - ( p,2) - ( p,3) Dany est zbór D przykładó: x,z Losuemy ag (małe artośc) Wyberamy koleną parę ze zboru D Oblczamy artośc arste ukryte: h p Oblczamy artośc arste yścoe: y p Oblczamy błąd arste yścoe: δ ( p,3) = z p y p p=, KN Oblczamy błąd arste ukryte: δ = N3 (,2) ( p,3) δ ( p,3), = p= 3 KN 2 Uczene sec eloarstoe 54 x x k h h 2 y y 2 h N2 y N3 - ( p,2) - ( p,3) Dany est zbór D przykładó: x,z Losuemy ag (małe artośc) Wyberamy koleną parę ze zboru D Oblczamy artośc arste ukryte: h p Oblczamy artośc arste yścoe: y p Oblczamy błąd arste yścoe: δ ( p,3) Oblczamy błąd arste ukryte: δ (,2) Korekta ag dla arsty yścoe: =ηδ h y ( y ) ( p,3) ( p,3) p p 26

27 Uczene sec eloarstoe 55 Dany est zbór D przykładó: x,z Losuemy ag (małe artośc) Wyberamy koleną parę ze zboru D Oblczamy artośc arste x x k - ukryte: h p Oblczamy artośc arste yścoe: h h 2 y y 2 h N2 y N3 ( p,2) - ( p,3) y p Oblczamy błąd arste yścoe: δ ( p,3) Oblczamy błąd arste ukryte: δ (,2) Korekta ag dla arsty yścoe: ( p,3) Korekta ag dla arsty ukryte: =ηδ x h ( h ) ( p,2) (,2) p p Uczene sec eloarstoe 56 Dany est zbór D przykładó: x,z Losuemy ag (małe artośc) Wyberamy koleną parę ze zboru D Oblczamy artośc arste x x k - ukryte: h p Oblczamy artośc arste yścoe: h h 2 y y 2 h N2 y N3 ( p,2) - ( p,3) y p Oblczamy błąd arste yścoe: δ ( p,3) Oblczamy błąd arste ukryte: δ (,2) Korekta ag dla arsty yścoe: ( p,3) Korekta ag dla arsty ukryte: ( p Konec epok,2) 27

28 Cechy algorytmu steczne propagac błędu 57 Błędne dobrane artośc początkoe ag mogą utrudnać bądź unemoŝlać zbeŝność algorytmu Modyfkaca ag zasze poprzedzona est propagacą błędu do arsty poprzedne Błąd popełnany przez neuron ne ma płyu na ego sąsadó z te same arsty Proces uczena ma charakter teracyny - eden przebeg po zborze uczącym nazyamy epoką DuŜa złoŝoność oblczenoa - przy m agach oraz n przykładach mamy do polczena m*n popraek Cechy algorytmu steczne propagac błędu 58 Zmany ag maą lokalny charakter - algorytm kaŝdym kroku dostraa e do ednego przykładu Uczene ma charakter przyrostoy - zasze stnee moŝlość douczena sec na noych przykładach Algorytm est raŝly na koleność prezentoana przykładó Istnee ele arantó algorytmu steczne propagac, które maą za zadane przyśpeszyć proces uczena lub poprać ego efekty (np steczna propagaca z członem momentum, algorytm zmenne metryk, algorytm Levenberga-Marquardta n) 28

29 Efekt przeuczena sec neuronoych - przyczyny 59 Zbór przykładó D, choć (z załoŝena) reprezentatyny ngdy ne zaera pełne nformac o uczone funkc Istnee neskończene ele macerzy ag W, dla których artość błędu E(W,D) osąga globalne mnmum Tylko nelczne konfgurace ag odpoadaą mnmum błędu całe dzedzne uczone funkc dla przykładó spoza zboru uczącego otrzymany ynk cale ne mus być optymalny (nny zbór testuący) Efekt przeuczena sec neuronoych 6 błąd E zbór testuący zbór uczący epok Zasko przeuczena moŝe być spoodoane zbyt długm uczenem sec Zatrzymane procesu uczena odpoednm momence pozala zachoać e zdolność do generalzac edzy 29

30 Uczene nenadzoroane sec 6 Celem uczena nenadzoroanego est ykryane penych regularnośc danych uczących Dane prezentoane są ako ektory atrybutó (zmennych) nezaleŝnych x, ale pozbaone są nformac o poŝądanym yścu sec Formalne mamy zatem zbór n przykładó (zbór D), lecz bez atrybutu decyzynego postac: x, = K n Z punktu dzena analzy danych mamy do czynena z zadanem grupoana (analzy skupeń) Uczene nenadzoroane sec 62 Reguła Hebba: JeŜel przesyłane sygnałó mędzy doma połączonym neuronam poodue ch spólną aktyność, to naleŝy zększyć artość ag mędzy nm g zasady: h y h 2 y 2 h M y N k = ηh k Welkość zmany ag ponna być proporconalna do loczynu sygnału chodzącego do neuronu (z tą agą) sygnału ychodzącego z neuronu Reguła Hebba moŝe przyąć róŝną postać róŝnych secach k y 3

31 63 Sec Hopfelda Seć ednoarstoa z lczbą neuronó róną lczbe składoych ektora eścoego Seć rekurencyna Pełne połączena neuronó kaŝdy z kaŝdym Wszystke neurony sec pełną rolę zaróno eść, ak yść Neurony przetarzaą sygnały bpolarne {-;} Skokoa funkca aktyac Rodza autoasocacyne pamęc - słuŝy do rozpoznaana yuczonych cześne zorcó 64 Sec Hopfelda: algorytm Faza nauczana: yznaczene a pror artośc ag sec oparcu o zbór przykładó (zorcó) Faza rozpoznaana (odtarzana): cyklczna propagaca sygnałó przez seć dla noych danych eścoych aŝ do uzyskana stanu stablnego 3

32 65 Uczene sec Hopfelda x x 3 y y 2 y 3 Wag sec torzą macerz kadratoą o boku k rónym lczbe składoych zorca Macerz est symetryczna z yzeroanym agam na głóne przekątne, czyl: mn = nm oraz nn = Dla zboru N przykładó (zorcó) uczene ag opera sę na formule: N mn = = (2x m )(2x n ) m n 66 Uczene sec Hopfelda Przykład Wzorzec 5-elementoy x =( ) Dla ednego zorca N oblczena macerzy: = (2x )(2x ) oraz = mn = 2 = (2x - )(2 - ) = ( - )(2 - ) = (-)() = - 3 = (2x - )(2x 3 - ) = ( - )(2 - ) = (-)() = - 4 = (2x - )(2x 4 - ) = ( - )( - ) = (-)(-) = 5 = (2x - )(2x 5 - ) = ( - )(2 - ) = (-)() = - 23 = (2 - )(2x 3 - ) = (2 - )(2 - ) = ()() = 24 = (2 - )(2x 4 - ) = (2 - )( - ) = ()(-) = - 25 = (2 - )(2x 5 - ) = (2 - )(2 - ) = ()() = 34 = (2x 3 - )(2x 4 - ) = (2 - )( - ) = ()(-) = - 35 = (2x 3 - )(2x 5 - ) = (2 - )(2 - ) = ()() = 45 = (2x 4 - )(2x 5 - ) = ( - )(2 - ) = (-)() = - m n W= sproadzą sę do postac: ( 2x )(2x ) mn = m n 32

33 67 Uczene sec Hopfelda Przykład cd Koleny zorzec =( ) Zamast yznaczać kolene yrazy mn macerzy W po szystkch zorcach od razu, moŝna yznaczyć naper nezaleŝne dla kaŝdego przykładu macerz W a następne szystke macerze zorcó zsumoać ze sobą: 2 W = 2 W + W 2 = Faza odtarzana: aktualzaca sec Hopfelda x x 3 y y 2 y 3 Propagaca sygnału przez seć dla noych danych przypomna zasadę znaną z prostego perceptronu: x m k gdy < = n= mnxn n m przecnym przypadku Ze zględu na rekurencyną topologę sec zmana yołana przez dane na e eścu moŝe ymagać elu cykl oblczeń zanm osągne ona stan stablny 33

34 Faza odtarzana: aktualzaca sec Hopfelda 69 Aktualzaca stanu sec zapoczątkoana noym ektorem eścoym odbya sę synchronczne albo asynchronczne Synchronczna aktualzaca: oblczamy rónocześne stany yścoe szystkch neuronó dla ne zmenaącego sę chloo stanu eścoego Asynchronczna aktualzaca: yznaczamy sekencyne stany yścoe neuronó edług losoe kolenośc, propaguąc kaŝdorazoo zmanę na eśce sec Seć osąga stan stablny kedy propagaca sygnału przez seć ne spoodue zmany na yścu stosunku do eśca dla Ŝadnego z neuronó Faza odtarzana: aktualzaca synchronczna 7 Przykład cd Zbór zorcó: x =( ) =( ) Wektor eścoy: v=( ) 2 W + W 2 = 2 2 Wyśca sec (teraca ): x = Σ k n= n v n =*+(-2)*+*+*+*=-2 f skok (-2)= = Σ k n= 2n v n =(-2)*+*+*+*+*= f skok ()= x 3 = Σ k n= 3n v n =*+*+*+(-2)*+2*= f skok ()= x 4 = Σ k n= 4n v n =*+*+(-2)*+*+(-2)*=-4 f skok (-4)= x 5 = Σ k n= 5n v n =*+*+2*+(-2)*+*= f skok ()= Noym stanem na eścu będze: x=( ) zmana!

35 Faza odtarzana: aktualzaca synchronczna 7 Przykład cd W + W = Wektor eścoy (noy): v =( ) 2 2 Wyśca sec (teraca 2): x = Σ k n= n v n =*+(-2)*+*+*+*=-2 f skok (-2)= = Σ k n= 2n v n =(-2)*+*+*+*+*= f skok ()= x 3 = Σ k n= 3n v n =*+*+*+(-2)*+2*=2 f skok (2)= x 4 = Σ k n= 4n v n =*+*+(-2)*+*+(-2)*=-4 f skok (-4)= x 5 = Σ k n= 5n v n =*+*+2*+(-2)*+*=2 f skok (2)= Potórzene stanu ( ) - konec oblczeń! Faza odtarzana: aktualzaca asynchronczna 73 Przykład cd 2 Inny ektor eścoy: 2 2 v=( ) W + W = 2 2 Losoe permutace neuronó: 2,4,3,5,, 2,4,3,5,, 2,4,3,5,, Wyśca sec: =Σ k n= 2n x n =-2 f skok (-2)= noy stan: ( ) zmana! x 4 =Σ k n= 4n x n =-4 f skok (-4)= noy stan: ( ) zmana! x 3 =Σ k n= 3n x n =2 f skok (2)= noy stan: ( ) x 5 =Σ k n= 5n x n =2 f skok (2)= noy stan: ( ) x =Σ k n= n x n = f skok ()= noy stan: ( ) =Σ k n= 2n x n =-2 f skok (-2)= noy stan: ( ) x 4 =Σ k n= 4n x n =-4 f skok (-4)= noy stan: ( ) konec (brak zman!) 35

36 Przykład zastosoana sec Hopfelda 74 Problem: Rozpoznaane zorcó obrazó cyfr dzesętnych rozdzelczośc: pksel Parametry sec: Lczba neuronó: Lczba połączeń: 495 Wynk dla 4 zorcó: poprane rozpoznaane obrazó zaszumonych % PoyŜe 2% szumu nełaśce rozpoznaane Przykład zastosoana sec Hopfelda 75 Parametry sec: ta sama seć Wynk dla zorcó szystkch cyfr: nepoprane rozpoznaane obrazó zaszumonych uŝ % 36

37 Seć Hopfelda ako pamęć asocacyna 76 stan eścoy x x 3 zorce Dzałane sec o charakterze pamęc autoasocacyne opera sę na podanu sygnału eścoego (mpulsoo) sobodne relaksac sec do stanu stablnego nablŝszego stano ncuącemu Osągnęty stan nterpretuemy ako skoarzony z eścoym bodźcem yuczony zorzec z pamęc Seć Hopfelda ako pamęć asocacyna 77 Przykład x 3-2 x Aktyaca asynchronczna kaŝdego neuronu poodue albo pozostane tym samym stane albo prześce do stanu oddalonego o (g odległośc Hammnga) Nr x Stan Wektor x 3 Nr stanu po aktyac neuronu:

38 Seć Hopfelda ako pamęć asocacyna 78 Dynamka sec - dagram prześć stanó NezaleŜne od stanu początkoego dzałane sec zbegne sę do stanu stablnego reprezentuącego eden z zapamętanych zorcó (3 lub 6) 79 Własnośc sec Hopfelda Pamęć asocacyna nformace zareestroane pamęc są dostępne po podanu na eśce nformac skoarzone, selekconuące eden z zapamętanych zorcó na drodze asocac Brak ścsłe lokalzac zareestroane nformac rozproszona reprezentaca postac zorca aktyac całe sec Rozproszone asynchronczne steroane kaŝdy element sec dzała oparcu o lokalne dane DuŜa toleranca na błędy nełaśce funkconoane nektórych elementó sec ne degradue e dzałana Ogranczona poemność pamęc dla N neuronó max N/(2logN) zorcó 38

39 Uczene nenadzoroane sec 8 Nebezpeczeństa uczena nenadzoroanego: Wolneszy proces uczena porónanu z algorytmam nadzoroanym Trudno skazać, który neuron yspecalzue sę rozpoznaanu które klasy danych Nełata nterpretaca ynkó dzałana sec Brak penośc co do faktu czy seć rozpoznała szystke zorce prezentoane poprzez dane Potrzeba stosoana zdecydoane bardze złoŝone budoy sec nŝ metodach nadzoroanych (mne ęce trzykrotne ęce neuronó arsty yścoe nŝ spodzeane lczby klas) Sec radalne - RBF (ang Radal Bass Functon) 8 c x Neuron sgmodalny: Podzał przestrzen na de klasy zdłuŝ ln proste x Neuron radalny: Podzał sferyczny przestrzen okół punktu centralnego c 39

40 82 Sec radalne - budoa Prosta topologa: x ϕ ϕ 2 2 Σ y 3 x 3 ϕ 3 x 3 neuron lnoy arsta funkc radalnych arsta eścoa 83 Sec radalne- budoa Warsta ukryta: x x 3 ϕ ϕ 2 ϕ Σ y Funkce radalne ϕ o symetr kołoe zaleŝne od odległośc r mędzy punktam x oraz c : ϕ(x,c) = ϕ(r(x,c)) gdze: c R k to centrum neuronu radalnego x 3 Brak ag! Naczęśce odległość to norma eukldesoa: r(x,c) = x-c x R k 4

41 Aproksymaca za pomocą sec radalnych 84 Problem aproksymac funkc F opsane przez zbór: d k = F( x ), x R d R = K n realzoane za pomocą funkc f będące lnoym odzoroanem p = ( x ) f ( x) = ϕ c Wybór normy dla x-c doolny - naczęśce est to norma eukldesoa Funkce radalne to tz funkce ądra (ang kernels) naczęśce z dodatkoym parametrem σ zanym szerokoścą ądra Próba analtycznego ustalena ag 85 Zgodne z budoą sec dla n róŝnych przykładó realzue ona układ rónań postac: ϕ M ϕ n L L L ϕ p d M M = M, ϕ n ϕ np p d ϕ( x, c ) Φ= [ ϕ ] eŝel przymemy p=n tzn eden neuron radalny na eden przykład zadane będze rozązyalne ale: seć będze modeloać szumy neregularnośc danych efekt przeuczena słaba generalzaca yznaczane macerzy =Φ - d est neefektyne (neygodne) oblczenoo 4

42 Podstay teoretyczne sec RBF 86 Terdzene Covera (965) ZłoŜony problem klasyfkacyny zrzutoany nelnoo na przestrzeń eloymaroą moŝe być rozdzelony za pomocą separatora lnoego z ększym pradopodobeństem nŝ przy rzutoanu na przestrzeń o mnesze lczbe ymaró Udoodnono, Ŝe kaŝdy zbór zorcó losoo rozmeszczony przestrzen eloymaroe est ϕ-separoalny z pradopodobeństem rónym eden, pod arunkem zastosoana odpoedno duŝego ymaru przestrzen, na którą est rzutoany, t przestrzen generoane przez funkce bazoe ϕ Podstay teoretyczne sec RBF 87 Z terdzena Covera ynka Ŝe dla zboru przykładó x R k stnee ektor =(, 2,, p ) gdy p>k tak, Ŝe: T Φ(x ) dla x A T Φ(x ) < dla x B gdze T Φ(x )= yznacza grancę mędzy klasam A B Praktyczny nosek płynący z te obserac oznacza, Ŝ zastosoane sec duarstoe z edną arstą zaeraącą odpoedne funkce radalne arstą yścoą lnoą zapena rozązane doolnego problemu klasyfkac nelnoe 42

43 Przykłady radalnych funkc bazoych 88 Funkca Gaussa ϕ 2 exp r 2 2 σ ( r) = r= x c σ > Przykłady radalnych funkc bazoych 89 Funkca elomanoe (elokadratoe): ϕ 2 2 β ( r) = ( r + σ ) < β < β = 2 43

44 Przykłady radalnych funkc bazoych 9 Funkca potęgoe (elokadratoe odrócone): ϕ 2 2 α ( r) = ( r + σ ) α > np funkca Hardy ego: ϕ( r) = r σ Przykłady radalnych funkc bazoych 9 Funkca spółrzędne radalne (lnoa): ϕ ( r) = r= x c 44

45 Przykłady radalnych funkc bazoych 92 Funkca skleana (cenke płytk): ϕ ( r) = ( σr) 2 ln( σr) 93 Konstruoane sec RBF Proces uczena sec przebega trybe nadzoroanym składa sę z dóch etapó: Dobór parametró arsty radalne: Lczba funkc bazoych (emy, Ŝe ponna być duŝo mnesza nŝ lczba przykładó) PołoŜene centró funkc bazoych Szerokość funkc bazoych (dyspersa funkc) Dobór parametró arsty yścoe: Ustalene artośc ag Ustalene artośc eentualnego progu 45

46 94 Etap I budoy sec RBF Wybór centró: Losoy obszarze ogranczonym zmennoścą danych eścoych Losoy ale spośród reprezentatynych zorcó uczących Rozmeszczene ęzłach regularne satk Rozmeszczene z ykorzystanem algorytmó uczena nenadzoroanego (np metoda k-średnch, mapy Kohonena) Inne metody np probablstyczne 95 Etap I budoy sec RBF Ustalene szerokośc funkc: Stała dla szystkch funkc: σ = 2 p (d maksymalna odległość mędzy centram funkc bazoych; p lczba funkc) Róna odległośc centrum funkc radalne ϕ od centrum c e nablŝszego sąsada σ = mn c c Uśrednona odległość od d nablŝszych sąsadó (zazycza 3) d 2 σ = c c d = d 46

47 96 Etap II budoy sec RBF Uczene neuronu yścoego: Celem est mnmalzaca błędu: 2 n p E= ϕ( x c ) d 2 = = Wektor ag mnmalzuący E poszukany est metodam: Rozązyana układó rónań lnoych np pseudonersa macerzy Gradentoym np reguła delta Inne np hybrydoe połączene uczena nenadzoroanego arste radalne z nadzoroanym arste yścoe Uczene ag metodą pseudoners 97 Zgodne z budoą sec RBF dla n róŝnych przykładó realzue ona układ rónań postac: ϕ M ϕ n L L L ϕ p d M M = M, ϕ n ϕ np p d ϕ( x, c ) Φ= [ ϕ ] Wemy uŝ, Ŝe mus zachodzć k<p<<n, a to oznacza, Ŝ macerz Φ est macerzą prostokątną Przy ustalonych parametrach funkc radalnych, optymalzaca błędu E sproadza sę do rozązana układu rónań lnoych zględem ag: Φ=d Przy macerzy prostokątne Φ, ektor ag yznacza sę stosuąc pseudonersę macerzy Φ: zakładaąc, Ŝe Φ + = (Φ T Φ) - Φ T,mamy =Φ + d 47

48 99 Sec MLP a RBF Wele arst ukrytych nelnoych Jednorodne neurony arste ukryte Wszystke neurony nelnoe Globalna aproksymaca Uczene edyne ag na eścu neuronó Uczene skomplkoane dla elu arst Trudna ncalzaca Jedna arsta ukryta nelnoa ZróŜncoane parametry neuronó arste ukryte Neurony yścoe lnoe Torzy lokalne odzoroana przestrzen RóŜne typy uczonych parametró Szybke uczene dzęk arste Prosta ncalzaca Czego ne potrafą sec neuronoe Przetarzane symbolczne: Operace edytorske na tekstach Procesory yraŝeń algebracznych Przetarzane numeryczne z ysokm ymagana odnośne precyz oblczeń: Rachunkoość, ksęgoość,bankoość Oblczena nŝynerske (konstrukcyne) Weloetapoe procesy o charakterze mentalnym Pradzość/fałszyość sekenc sterdzeń logcznych Doodzene terdzeń Wnoskoane eloetapoe (systemy ekspercke) Planoane dzałań 48

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe Sztuczne sec neuronoe model konekconstyczny 2 Plan ykładu Geneza modelu konekconstycznego Głóne cechy Model sztucznego neuronu Archtektury sec neuronoych Proces uczena sę sec Uczene poedynczego neuronu

Bardziej szczegółowo

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Wykład 2: Uczenie nadzorowane sieci neuronowych - I Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za

Bardziej szczegółowo

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Wykład 2: Uczenie nadzorowane sieci neuronowych - I Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za

Bardziej szczegółowo

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe Sztuczne sec neuronowe Jerzy Stefanowsk Plan wykładu 1. Wprowadzene 2. Model sztucznego neuronu. 3. Topologe sec neuronowych 4. Reguły uczena sec neuronowych. 5. Klasyfkaca sec neuronowych. 6. Sec warstwowe

Bardziej szczegółowo

Plan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty)

Plan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty) Plan wykładu Dzałane neuronu dyskretnego warstwy neuronów dyskretnych Wykład : Reguły uczena sec neuronowych. Sec neuronowe ednokerunkowe. Reguła perceptronowa Reguła Wdrowa-Hoffa Reguła delta ałgorzata

Bardziej szczegółowo

Pattern Classification

Pattern Classification Pattern Classfcaton All materals n these sldes ere taken from Pattern Classfcaton nd ed by R. O. Duda, P. E. Hart and D. G. Stork, John Wley & Sons, 000 th the permsson of the authors and the publsher

Bardziej szczegółowo

Plan wykładu. Sztuczne sieci neuronowe. Uczenie nienadzorowane (bez nauczyciela) Uczenie nienadzorowane - przykłady

Plan wykładu. Sztuczne sieci neuronowe. Uczenie nienadzorowane (bez nauczyciela) Uczenie nienadzorowane - przykłady Plan yładu Wyład 10: Sec samoorganzuce s na zasadze spółzaodncta Sec samoorganzuace s na zasadze spółzaodncta: uczene nenadzoroane uczene onurencyne reguła WTA reguła WTM antoane etoroe mapa cech Kohonena

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 5. SZTUCZNE SIECI NEURONOWE REGRESJA Częstochowa 4 Dr hab. nż. Grzegorz Dudek Wdzał Elektrczn Poltechnka Częstochowska PROBLEM APROKSYMACJI FUNKCJI Aproksmaca funkc przblżane

Bardziej szczegółowo

Literatura SZTUCZNE SIECI NEURONOWE. Mózg/komputer jak to działa? MÓZG WZORZEC DOSKONAŁY KOMPUTER TWÓR DOSKONALONY SSN niekonwencjonalne przetwarzanie

Literatura SZTUCZNE SIECI NEURONOWE. Mózg/komputer jak to działa? MÓZG WZORZEC DOSKONAŁY KOMPUTER TWÓR DOSKONALONY SSN niekonwencjonalne przetwarzanie 007--06 SZTUCZNE SIECI NEURONOWE Archtektura Tp Przeznaczene Procedur uczena Zastosoana Lteratura. J. śurada, M. Barsk, W. Jędruch, Sztuczne sec neuronoe, PWN 996. R. Tadeusecz, Sec neuronoe, AOW 993 3.

Bardziej szczegółowo

WPŁYW PARAMETRÓW DYSKRETYZACJI NA NIEPEWNOŚĆ WYNIKÓW POMIARU OBIEKTÓW OBRAZU CYFROWEGO

WPŁYW PARAMETRÓW DYSKRETYZACJI NA NIEPEWNOŚĆ WYNIKÓW POMIARU OBIEKTÓW OBRAZU CYFROWEGO Walenty OWIECZKO WPŁYW PARAMETRÓW DYSKRETYZACJI A IEPEWOŚĆ WYIKÓW POMIARU OBIEKTÓW OBRAZU CYFROWEGO STRESZCZEIE W artykule przedstaono ynk analzy nepenośc pomaru ybranych cech obektu obrazu cyfroego. Wyznaczono

Bardziej szczegółowo

Temat: Operacje elementarne na wierszach macierzy

Temat: Operacje elementarne na wierszach macierzy Temat: Operacje elementarne na erszach macerzy Anna Rajfura Anna Rajfura Operacje elementarne na erszach macerzy n j m n A Typy operacj elementarnych. Zamana mejscam erszy oraz j, ozn.: j. Mnożene ersza

Bardziej szczegółowo

Problem plecakowy (KNAPSACK PROBLEM).

Problem plecakowy (KNAPSACK PROBLEM). Problem plecakowy (KNAPSACK PROBLEM). Zagadnene optymalzac zwane problemem plecakowym swą nazwę wzęło z analog do sytuac praktyczne podobne do problemu pakowana plecaka. Chodz o to, by zapakować maksymalne

Bardziej szczegółowo

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311 Sztuczne sec neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyk, p. 311 Wykład 6 PLAN: - Repetto (brevs) - Sec neuronowe z radalnym funkcjam bazowym Repetto W aspekce archtektury: zajmowalśmy

Bardziej szczegółowo

Systemy Inteligentnego Przetwarzania wykład 3: sieci rekurencyjne, sieci samoorganizujące się

Systemy Inteligentnego Przetwarzania wykład 3: sieci rekurencyjne, sieci samoorganizujące się Systemy Intelgentnego Przetwarzana wykład 3: sec rekurencyne, sec samoorganzuące sę Dr nż. Jacek Mazurkewcz Katedra Informatyk Technczne e-mal: Jacek.Mazurkewcz@pwr.edu.pl Sec neuronowe ze sprzężenem Sprzężena

Bardziej szczegółowo

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB Rozwązywane zadań optymalzacj w środowsku programu MATLAB Zagadnene optymalzacj polega na znajdowanu najlepszego, względem ustalonego kryterum, rozwązana należącego do zboru rozwązań dopuszczalnych. Standardowe

Bardziej szczegółowo

wiedzy Sieci neuronowe (c.d.)

wiedzy Sieci neuronowe (c.d.) Metody detekci uszkodzeń oparte na wiedzy Sieci neuronowe (c.d.) Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 8 Metody detekci uszkodzeń oparte na wiedzy Wprowadzenie

Bardziej szczegółowo

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna. Sieci neuronowe model konekcjonistyczny Plan wykładu Mózg ludzki a komputer Modele konekcjonistycze Perceptron Sieć neuronowa Uczenie sieci Sieci Hopfielda Mózg ludzki a komputer Twój mózg to 00 000 000

Bardziej szczegółowo

Wyróżnić należy następujące sieci rekurencyjne: sieć Hopfielda, jej uogólnienie sieć BAM, sieć Hamminga oraz sieci rezonansowe.

Wyróżnić należy następujące sieci rekurencyjne: sieć Hopfielda, jej uogólnienie sieć BAM, sieć Hamminga oraz sieci rezonansowe. 1. Seć Hopfelda 1.1 Sec ze sprzężene zrotn Sec ze sprzężene zrotn torzą odrębną grupę sec neuronoch, stępuącą róneż pod nazą sec rekurencnch bądź asocacnch. Zaknęce pętl sprzężena zrotnego poodue, ż seć

Bardziej szczegółowo

Podstawy teorii falek (Wavelets)

Podstawy teorii falek (Wavelets) Podstawy teor falek (Wavelets) Ψ(). Transformaca Haara (97).. Przykład pewne metody zapsu obrazu Transformaca Haara Przykład zapsu obrazu -D Podstawy matematyczne transformac Algorytmy rozkładana funkc

Bardziej szczegółowo

Neural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych.

Neural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych. Neural networks Lecture Notes n Pattern Recognton by W.Dzwnel Krótka hstora McCulloch Ptts (1943) - perwszy matematyczny ops dzalana neuronu przetwarzana przez nego danych. Proste neurony, które mogly

Bardziej szczegółowo

I. Elementy analizy matematycznej

I. Elementy analizy matematycznej WSTAWKA MATEMATYCZNA I. Elementy analzy matematycznej Pochodna funkcj f(x) Pochodna funkcj podaje nam prędkość zman funkcj: df f (x + x) f (x) f '(x) = = lm x 0 (1) dx x Pochodna funkcj podaje nam zarazem

Bardziej szczegółowo

Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu

Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu Wprowadzene do Sec Neuronowych Algorytm wstecznej propagacj błędu Maja Czoków, Jarosław Persa --6 Powtórzene. Perceptron sgmodalny Funkcja sgmodalna: σ(x) = + exp( c (x p)) Parametr c odpowada za nachylene

Bardziej szczegółowo

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych Zaawansowane metody numeryczne Komputerowa analza zagadneń różnczkowych 1. Układy równań lnowych P. F. Góra http://th-www.f.uj.edu.pl/zfs/gora/ semestr letn 2006/07 Podstawowe fakty Równane Ax = b, x,

Bardziej szczegółowo

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311 Sztuczne sec neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyk, p. 311 Wykład 1 PLAN: Jak (klasyczne) komputery ocenaą flozofę Alberta Enstena Hstora korzene teor sztucznych sec neuronowych

Bardziej szczegółowo

Klasyfkator lnowy Wstęp Klasyfkator lnowy jest najprostszym możlwym klasyfkatorem. Zakłada on lnową separację lnowy podzał dwóch klas mędzy sobą. Przedstawa to ponższy rysunek: 5 4 3 1 0-1 - -3-4 -5-5

Bardziej szczegółowo

Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE

Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE Inormatyka Podstawy Programowana 06/07 Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE 6. Równana algebraczne. Poszukujemy rozwązana, czyl chcemy określć perwastk rzeczywste równana:

Bardziej szczegółowo

u u u( x) u, x METODA RÓŻNIC SKOŃCZONYCH, METODA ELEMENTÓW BRZEGOWYCH i METODA ELEMENTÓW SKOŃCZONYCH

u u u( x) u, x METODA RÓŻNIC SKOŃCZONYCH, METODA ELEMENTÓW BRZEGOWYCH i METODA ELEMENTÓW SKOŃCZONYCH METODA RÓŻNIC SKOŃCZONYCH, METODA ELEMENTÓW BRZEGOWYCH METODA ELEMENTÓW SKOŃCZONYCH Szkc rozwązana równana Possona w przestrzen dwuwymarowe. Równane Possona to równae różnczkowe cząstkowe opsuące wele

Bardziej szczegółowo

Wykład 1 Zagadnienie brzegowe liniowej teorii sprężystości. Metody rozwiązywania, metody wytrzymałości materiałów. Zestawienie wzorów i określeń.

Wykład 1 Zagadnienie brzegowe liniowej teorii sprężystości. Metody rozwiązywania, metody wytrzymałości materiałów. Zestawienie wzorów i określeń. Wykład Zagadnene brzegowe lnowe teor sprężystośc. Metody rozwązywana, metody wytrzymałośc materałów. Zestawene wzorów określeń. Układ współrzędnych Kartezańsk, prostokątny. Ose x y z oznaczono odpowedno

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE METODY KLASYFIKACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

SYSTEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE METODY KLASYFIKACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska. SYSEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE MEODY KLASYFIKACJI Częstochowa 4 Dr hab. nż. Grzegorz Dude Wydzał Eletryczny Poltechna Częstochowsa FUNKCJE FISHEROWSKA DYSKRYMINACYJNE DYSKRYMINACJA I MASZYNA LINIOWA

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 8. SZTUCZNE SIECI NEURONOWE INNE ARCHITEKTURY Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska SIEĆ O RADIALNYCH FUNKCJACH BAZOWYCH

Bardziej szczegółowo

n liczba zmiennych decyzyjnych c współczynniki funkcji celu a współczynniki przy zmienych decyzyjnych w warunkach

n liczba zmiennych decyzyjnych c współczynniki funkcji celu a współczynniki przy zmienych decyzyjnych w warunkach Problem decyzyny cel różne sposoby dzałana (decyze) warunk ogranczaące (determnuą zbór decyz dopuszczalnych) kryterum wyboru: umożlwa porównane efektywnośc różnych decyz dopuszczalnych z punktu wdzena

Bardziej szczegółowo

Plan wykładu. Sztuczne sieci neuronowe. Uczenie nienadzorowane (bez nauczyciela) Uczenie nienadzorowane - przykłady

Plan wykładu. Sztuczne sieci neuronowe. Uczenie nienadzorowane (bez nauczyciela) Uczenie nienadzorowane - przykłady Plan yładu Wyład 7: Sec samoorganzuące sę na zasadze spółzaodncta Sec samoorganzuace sę na zasadze spółzaodncta: uczene nenadzoroane uczene onurencyne reguła WTA reguła WTM antoane etoroe mapa cech Kohonena

Bardziej szczegółowo

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia

Bardziej szczegółowo

Diagnostyka układów kombinacyjnych

Diagnostyka układów kombinacyjnych Dagnostyka układów kombnacyjnych 1. Wprowadzene Dagnostyka obejmuje: stwerdzene stanu układu, systemu lub ogólne sec logcznej. Jest to tzw. kontrola stanu wykrywająca czy dzałane sec ne jest zakłócane

Bardziej szczegółowo

7. Wykład VII: Warunki Kuhna-Tuckera

7. Wykład VII: Warunki Kuhna-Tuckera Wocech Grega, Metody Optymalzac 7 Wykład VII: Warunk Kuhna-Tuckera 7 Warunk koneczne stnena ekstremum Rozważane est zadane z ogranczenam nerównoścowym w postac: mn F( x ) x X X o F( x ), o { R x : h n

Bardziej szczegółowo

11/22/2014. Jeśli stała c jest równa zero to takie gry nazywamy grami o sumie zerowej.

11/22/2014. Jeśli stała c jest równa zero to takie gry nazywamy grami o sumie zerowej. /22/24 Dwuosobowe gry o sume zero DO NAUCZENIA I ZAPAMIĘTANIA: Defnca zaps ger o sume zero, adaptaca ogólnych defnc. Punkt sodłowy Twerdzena o zwązkach punktu sodłowego z koncepcam rozwązań PRZYPOMNIENIE:

Bardziej szczegółowo

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Sieci Hopfielda Najprostsze modele sieci z rekurencją sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Modele bardziej złoŝone: RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie

Bardziej szczegółowo

Wielokategorialne systemy uczące się i ich zastosowanie w bioinformatyce. Rafał Grodzicki

Wielokategorialne systemy uczące się i ich zastosowanie w bioinformatyce. Rafał Grodzicki Welokategoralne systemy uząe sę h zastosowane w bonformatye Rafał Grodzk Welokategoralny system uząy sę (multlabel learnng system) Zbór danyh weśowyh: d X = R Zbór klas (kategor): { 2 } =...Q Zbór uząy:

Bardziej szczegółowo

Plan wykładu. Sztuczne sieci neuronowe. Sieci rekurencyjne. Sieci rekurencyjne. Wykład 8: Sieci rekurencyjne: sie Hopfielda. Sieci rekurencyjne

Plan wykładu. Sztuczne sieci neuronowe. Sieci rekurencyjne. Sieci rekurencyjne. Wykład 8: Sieci rekurencyjne: sie Hopfielda. Sieci rekurencyjne Plan wykładu Wykład 8: Sec rekurencyne: se Hopfelda Małgorzata Krtowska Katedra Oprogramowana e-mal: mmac@.pb.balystok.pl Sec rekurencyne Se Hopfelda tryb odtwarzana funkca energ dynamka zman stanu wykorzystane

Bardziej szczegółowo

Sztuczne sieci neuronowe. Reguła perceptronowa. Nadzorowany proces nauki. Zasada uczenia. Zasada uczenia. dr inŝ. Stefan Brock 2007/2008 1

Sztuczne sieci neuronowe. Reguła perceptronowa. Nadzorowany proces nauki. Zasada uczenia. Zasada uczenia. dr inŝ. Stefan Brock 2007/2008 1 Sztuczne sec neuronoe.stefanbroc.neostrada.pl dr nŝ. Stefan Broc Plan ładó. Wproadzene, modele neuronó, uład perceptronoe, uczene neuronó. Uczene sec neuronoch, metoda steczne propagac błędó, nne metod

Bardziej szczegółowo

2012-10-11. Definicje ogólne

2012-10-11. Definicje ogólne 0-0- Defncje ogólne Logstyka nauka o przepływe surowców produktów gotowych rodowód wojskowy Utrzyywane zapasów koszty zwązane.n. z zarożene kaptału Brak w dostawach koszty zwązane.n. z przestoje w produkcj

Bardziej szczegółowo

Sortowanie szybkie Quick Sort

Sortowanie szybkie Quick Sort Sortowane szybke Quck Sort Algorytm sortowana szybkego opera sę na strateg "dzel zwycęża" (ang. dvde and conquer), którą możemy krótko scharakteryzować w trzech punktach: 1. DZIEL - problem główny zostae

Bardziej szczegółowo

Sieć neuronowa jako system ekspercki na rynku instrumentów pochodnych

Sieć neuronowa jako system ekspercki na rynku instrumentów pochodnych Rozdzał monograf: 'Bazy Danych: Rozó metod technoog', ozesk S., Małysak B., asprosk P., Mrozek D. (red.), WŁ 8.bdas.p Rozdzał 7 Seć neuronoa ako system eksperck na rynku nstrumentó pochodnych Streszczene.

Bardziej szczegółowo

BADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda

BADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda BADANIA OPERACYJNE Podejmowane decyzj w warunkach nepewnośc dr Adam Sojda Teora podejmowana decyzj gry z naturą Wynk dzałana zależy ne tylko od tego, jaką podejmujemy decyzję, ale równeż od tego, jak wystąp

Bardziej szczegółowo

Zestaw zadań 4: Przestrzenie wektorowe i podprzestrzenie. Liniowa niezależność. Sumy i sumy proste podprzestrzeni.

Zestaw zadań 4: Przestrzenie wektorowe i podprzestrzenie. Liniowa niezależność. Sumy i sumy proste podprzestrzeni. Zestaw zadań : Przestrzene wektorowe podprzestrzene. Lnowa nezależność. Sumy sumy proste podprzestrzen. () Wykazać, że V = C ze zwykłym dodawanem jako dodawanem wektorów operacją mnożena przez skalar :

Bardziej szczegółowo

Metody Sztucznej Inteligencji II

Metody Sztucznej Inteligencji II 17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału

Bardziej szczegółowo

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych Najprostsza jest jednostka lnowa: Neuron lnowy potraf ona rozpoznawać wektor wejścowy X = (x 1, x 2,..., x n ) T zapamętany we współczynnkach wagowych W = (w 1, w 2,..., w n ), Zauważmy, że y = W X Załóżmy,

Bardziej szczegółowo

Poszukiwanie optymalnego wyrównania harmonogramu zatrudnienia metodą analityczną

Poszukiwanie optymalnego wyrównania harmonogramu zatrudnienia metodą analityczną Mieczysław POŁOŃSKI Wydział Budownictwa i Inżynierii Środowiska, Szkoła Główna Gospodarstwa Wieskiego, Warszawa, ul. Nowoursynowska 159 e-mail: mieczyslaw_polonski@sggw.pl Poszukiwanie optymalnego wyrównania

Bardziej szczegółowo

Przykład 5.1. Kratownica dwukrotnie statycznie niewyznaczalna

Przykład 5.1. Kratownica dwukrotnie statycznie niewyznaczalna rzykład.. Kratownca dwukrotne statyczne newyznaczana oecene: korzystaąc z metody sł wyznaczyć sły w prętach ponższe kratowncy. const Rozwązane zadana rozpoczynamy od obczena stopna statyczne newyznaczanośc

Bardziej szczegółowo

Analiza danych. Analiza danych wielowymiarowych. Regresja liniowa. Dyskryminacja liniowa. PARA ZMIENNYCH LOSOWYCH

Analiza danych. Analiza danych wielowymiarowych. Regresja liniowa. Dyskryminacja liniowa.   PARA ZMIENNYCH LOSOWYCH Analza danych Analza danych welowymarowych. Regresja lnowa. Dyskrymnacja lnowa. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ PARA ZMIENNYCH LOSOWYCH Parę zmennych losowych X, Y możemy

Bardziej szczegółowo

Analiza danych OGÓLNY SCHEMAT. http://zajecia.jakubw.pl/ Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja)

Analiza danych OGÓLNY SCHEMAT. http://zajecia.jakubw.pl/ Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja) Analza danych Dane trenngowe testowe. Algorytm k najblższych sąsadów. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ OGÓLNY SCHEMAT Mamy dany zbór danych podzelony na klasy decyzyjne, oraz

Bardziej szczegółowo

Zaawansowane metody numeryczne

Zaawansowane metody numeryczne Wykład 9. jej modyfkacje. Oznaczena Będzemy rozpatrywać zagadnene rozwązana następującego układu n równań lnowych z n newadomym x 1... x n : a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x

Bardziej szczegółowo

Macierz prawdopodobieństw przejścia w pojedynczym kroku dla łańcucha Markowa jest postaci

Macierz prawdopodobieństw przejścia w pojedynczym kroku dla łańcucha Markowa jest postaci Zadane. Macerz radoodobeńst rzejśca ojedynczym kroku dla łańcucha Markoa...... o trzech stanach { } jest ostac 0 n 0 0 (oczyśce element stojący -tym erszu j -tej kolumne tej macerzy oznacza P( = j. Wtedy

Bardziej szczegółowo

Pojęcia. 1. pole powierzchni (object specific area) [F] Suma pól pikseli w wyróżnionym obiekcie/profilu.

Pojęcia. 1. pole powierzchni (object specific area) [F] Suma pól pikseli w wyróżnionym obiekcie/profilu. Pojęca 1. pole poerzchn (object specfc area) [] uma pól pksel yróżnonym obekce/proflu.. pole poerzchn całego obektu (total object specfc area) [ t ] uma pół pksel yróżnonym obekce po ypełnenu dzur. 3.

Bardziej szczegółowo

W praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np.

W praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np. Wykład 7 Uwaga: W praktyce często zdarza sę, że wynk obu prób możemy traktować jako wynk pomarów na tym samym elemence populacj np. wynk x przed wynk y po operacj dla tego samego osobnka. Należy wówczas

Bardziej szczegółowo

Instrukcja do ćwiczeń laboratoryjnych z przedmiotu: Badania operacyjne. Temat ćwiczenia: Problemy rozkroju materiałowego, zagadnienia dualne

Instrukcja do ćwiczeń laboratoryjnych z przedmiotu: Badania operacyjne. Temat ćwiczenia: Problemy rozkroju materiałowego, zagadnienia dualne Instrukca do ćwczeń laboratorynych z przedmotu: Badana operacyne Temat ćwczena: Problemy rozkrou materałowego, zagadnena dualne Zachodnopomorsk Unwersytet Technologczny Wydzał Inżyner Mechanczne Mechatronk

Bardziej szczegółowo

Metoda Różnic Skończonych

Metoda Różnic Skończonych Metody Oblczenoe, P.E.Srokosz Metoda Różnc Skończonych Część Belka na srężystym odłożu x L K SIŁY NĄCE Kontynuacja Zadana Wyznaczyć sły tnące belce na srężystym odłożu arunkach odarca jak na rysunku oyżej.

Bardziej szczegółowo

5. Pochodna funkcji. lim. x c x c. (x c) = lim. g(c + h) g(c) = lim

5. Pochodna funkcji. lim. x c x c. (x c) = lim. g(c + h) g(c) = lim 5. Pocodna funkcj Defncja 5.1 Nec f: (a, b) R nec c (a, b). Jeśl stneje granca lm x c x c to nazywamy ją pocodną funkcj f w punkce c oznaczamy symbolem f (c) Twerdzene 5.1 Jeśl funkcja f: (a, b) R ma pocodną

Bardziej szczegółowo

Wykład Turbina parowa kondensacyjna

Wykład Turbina parowa kondensacyjna Wykład 9 Maszyny ceplne turbna parowa Entropa Równane Claususa-Clapeyrona granca równowag az Dośwadczena W. Domnk Wydzał Fzyk UW ermodynamka 08/09 /5 urbna parowa kondensacyjna W. Domnk Wydzał Fzyk UW

Bardziej szczegółowo

Zastosowanie technik sztucznej inteligencji w analizie odwrotnej

Zastosowanie technik sztucznej inteligencji w analizie odwrotnej Zastosowane technk sztucznej ntelgencj w analze odwrotnej Ł. Sztangret, D. Szelga, J. Kusak, M. Petrzyk Katedra Informatyk Stosowanej Modelowana Akadema Górnczo-Hutncza, Kraków Motywacja Dokładność symulacj

Bardziej szczegółowo

Metody gradientowe poszukiwania ekstremum. , U Ŝądana wartość napięcia,

Metody gradientowe poszukiwania ekstremum. , U Ŝądana wartość napięcia, Metody gradentowe... Metody gradentowe poszukwana ekstremum Korzystają z nformacj o wartośc funkcj oraz jej gradentu. Wykazując ch zbeŝność zakłada sę, Ŝe funkcja celu jest ogranczona od dołu funkcją wypukłą

Bardziej szczegółowo

KURS STATYSTYKA. Lekcja 6 Regresja i linie regresji ZADANIE DOMOWE. www.etrapez.pl Strona 1

KURS STATYSTYKA. Lekcja 6 Regresja i linie regresji ZADANIE DOMOWE. www.etrapez.pl Strona 1 KURS STATYSTYKA Lekcja 6 Regresja lne regresj ZADANIE DOMOWE www.etrapez.pl Strona 1 Część 1: TEST Zaznacz poprawną odpowedź (tylko jedna jest prawdzwa). Pytane 1 Funkcja regresj I rodzaju cechy Y zależnej

Bardziej szczegółowo

Zapis informacji, systemy pozycyjne 1. Literatura Jerzy Grębosz, Symfonia C++ standard. Harvey M. Deitl, Paul J. Deitl, Arkana C++. Programowanie.

Zapis informacji, systemy pozycyjne 1. Literatura Jerzy Grębosz, Symfonia C++ standard. Harvey M. Deitl, Paul J. Deitl, Arkana C++. Programowanie. Zaps nformacj, systemy pozycyjne 1 Lteratura Jerzy Grębosz, Symfona C++ standard. Harvey M. Detl, Paul J. Detl, Arkana C++. Programowane. Zaps nformacj w komputerach Wszystke elementy danych przetwarzane

Bardziej szczegółowo

1. Wstęp. 2. Macierz admitancyjna.

1. Wstęp. 2. Macierz admitancyjna. 1. Wstęp. Znaomość stanu pracy SEE est podstawowym zagadnenem w sterowanu pracą systemu na wszystkch etapach: proektowana, rozwou, planowana stanów pracy oraz w czase beżące eksploatac. Kontrola rozpływów

Bardziej szczegółowo

Zasada superpozycji.

Zasada superpozycji. Zasada sperpozycj. e e e n rotnk skpony bezźródłoy m j m m j m n j n k ymszena atonomczne, fnkcje kładoe ( obodoe ) Zasada sperpozycj: W obodze SL doolna fnkcja kładoa (prąd lb napęce ) jest smą algebraczną

Bardziej szczegółowo

5. CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWE

5. CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWE 5. CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWE Oprócz transmtancj operatorowej, do opsu członów układów automatyk stosuje sę tzw. transmtancję wdmową. Transmtancję wdmową G(j wyznaczyć moŝna dzęk podstawenu do wzoru

Bardziej szczegółowo

XLI OLIMPIADA FIZYCZNA ETAP WSTĘPNY Zadanie teoretyczne

XLI OLIMPIADA FIZYCZNA ETAP WSTĘPNY Zadanie teoretyczne XLI OLIMPIADA FIZYCZNA ETAP WSTĘPNY Zadane teoretyczne Rozwąż dowolne rzez sebe wybrane dwa sośród odanych nże zadań: ZADANIE T Nazwa zadana: Protony antyrotony A. Cząstk o mase równe mase rotonu, ale

Bardziej szczegółowo

Badania operacyjne w logistyce i zarządzaniu produkcją

Badania operacyjne w logistyce i zarządzaniu produkcją Państwowa Wyższa Szkoła Zawodowa w Nowym Sączu Badana operacyne w logstyce zarządzanu produkcą cz. I Andrze Woźnak Nowy Sącz Komtet Redakcyny doc. dr Zdzsława Zacłona przewodncząca, prof. dr hab. nż. Jarosław

Bardziej szczegółowo

1. Logika, funkcje logiczne, preceptron.

1. Logika, funkcje logiczne, preceptron. Sieci neuronowe 1. Logika, funkcje logiczne, preceptron. 1. (Logika) Udowodnij prawa de Morgana, prawo pochłaniania p (p q), prawo wyłączonego środka p p oraz prawo sprzeczności (p p). 2. Wyraź funkcję

Bardziej szczegółowo

Sieci Neuronowe 1 Michał Bereta

Sieci Neuronowe 1 Michał Bereta Wprowadzene Zagadnena Sztucznej Intelgencj laboratorum Sec Neuronowe 1 Mchał Bereta Sztuczne sec neuronowe można postrzegać jako modele matematyczne, które swoje wzorce wywodzą z bolog obserwacj ludzkch

Bardziej szczegółowo

UCHWAŁA NR 279/XVIII/2011 Rady Miasta Płocka z dnia 29 grudnia 2011 roku

UCHWAŁA NR 279/XVIII/2011 Rady Miasta Płocka z dnia 29 grudnia 2011 roku UCHWAŁA NR 279/XVIII/2011 Rady Masta Płocka z dna 29 grudna 2011 roku sprae ustalena Regulamnu przyznaana przekazyana stypendó mejskch dla ucznó szkół proadzonych lub dotoanych przez Masto Płock zameldoanych

Bardziej szczegółowo

Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych

Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych Uniersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Steroania i Systemó Informatycznych ELEMENTY SZTUCZNEJ INTELIGENCJI Semestr letni 2010 Laboratorium nr 4 LINIOWE

Bardziej szczegółowo

Ciepło topnienia lodu

Ciepło topnienia lodu Cepło topnena lodu CELE SPIS TREŚCI Obseracja procesu ymany energ toarzyszącego zmane stanu skupena - topnenu. Pomary zman temperatury ody trakce topnena proadzonej do nej znanej masy lodu. Uzyskane dane

Bardziej szczegółowo

MECHANIKA BUDOWLI 13

MECHANIKA BUDOWLI 13 1 Oga Kopacz, Adam Łodygos, Krzysztof ymper, chał Płotoa, Wocech Pałos Konsutace nauoe: prof. dr hab. JERZY RAKOWSKI Poznań 00/00 ECHANIKA BUDOWLI 1 Ugęca bee drgaących. Wzory transformacyne bee o cągłym

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY

METODY INŻYNIERII WIEDZY METODY INŻYNIERII WIEDZY SZTUCZNE SIECI NEURONOWE MLP Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i Inżynierii

Bardziej szczegółowo

Model IS-LM-BP. Model IS-LM-BP jest wersją modelu ISLM w gospodarce otwartej. Pokazuje on zatem jak

Model IS-LM-BP. Model IS-LM-BP jest wersją modelu ISLM w gospodarce otwartej. Pokazuje on zatem jak Ćwczena z Makroekonom II Model IS-LM- Model IS-LM- jest wersją modelu ISLM w gospodarce otwartej. Pokazuje on zatem jak gospodarka taka zachowuje sę w krótkm okrese, w efekce dzałań podejmowanych w ramach

Bardziej szczegółowo

Wyrównanie spostrzeżeń pośrednich. Spostrzeżenia jednakowo dokładne

Wyrównanie spostrzeżeń pośrednich. Spostrzeżenia jednakowo dokładne Wyrónane spostrzeżeń pośrednch Szukay : X, Y, Z, T (elkośc pradze) Merzyy L, L, L,L n (spostrzeżena erzone bezpośredno pośrednczą yznaczenu x, y, z, t ) Spostrzeżena jednakoo dokładne Wyrónane polega na:

Bardziej szczegółowo

WikiWS For Business Sharks

WikiWS For Business Sharks WkWS For Busness Sharks Ops zadana konkursowego Zadane Opracowane algorytmu automatyczne przetwarzającego zdjęce odręczne narysowanego dagramu na tablcy lub kartce do postac wektorowej zapsanej w formace

Bardziej szczegółowo

Biblioteki w Devon Kwestionariusz konsultacyjny

Biblioteki w Devon Kwestionariusz konsultacyjny Bblotek Devon Kestorusz konsultacyny Chcelbyśmy pozć państa poglądy temat proponnych zman dotyczących obu dzała usług bblotych hrabste Devon. Opraclśmy sedem prop, które mał pły ły zakres czynnkó, m.n.:

Bardziej szczegółowo

Laboratorium ochrony danych

Laboratorium ochrony danych Laboratorum ochrony danych Ćwczene nr Temat ćwczena: Cała skończone rozszerzone Cel dydaktyczny: Opanowane programowej metody konstruowana cał skończonych rozszerzonych GF(pm), poznane ch własnośc oraz

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 5. UCZENIE SIĘ APROKSYMACJI FUNKCJI MODELE LINIOWE

SYSTEMY UCZĄCE SIĘ WYKŁAD 5. UCZENIE SIĘ APROKSYMACJI FUNKCJI MODELE LINIOWE SYSEMY UCZĄCE SIĘ WYKŁAD 5. UCZENIE SIĘ APROKSYMACJI FUNKCJI MODELE LINIOWE Częstochoa 4 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochoska MEODY APROKSYMACJI Metody aproksymacji

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką

Bardziej szczegółowo

Prawdziwa ortofotomapa

Prawdziwa ortofotomapa Prawdzwa ortofotomapa klasyczna a prawdzwa ortofotomapa mnmalzacja przesunęć obektów wystających martwych pól na klasycznej ortofotomape wpływ rodzaju modelu na wynk ortorektyfkacj budynków stratege opracowana

Bardziej szczegółowo

Konstrukcja gier sprawiedliwych i niesprawiedliwych poprzez. określanie prawdopodobieństwa.

Konstrukcja gier sprawiedliwych i niesprawiedliwych poprzez. określanie prawdopodobieństwa. Fundacja Centrum Edukacj Obyatelskej, ul. Noakoskego 10, 00-666 Warszaa, e-mal: ceo@ceo.org.l; Akadema ucznoska, Tel. 22 825 04 96, e-mal: au@ceo.org.l; ęcej nformacj:.akademaucznoska.l 1 Konstrukcja ger

Bardziej szczegółowo

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa

Bardziej szczegółowo

METODA RÓśNIC SKOŃCZONYCH WYśSZEGO RZĘDU I JEJ ZASTOSOWANIA W JEDNOWYMIAROWYCH PROBLEMACH BRZEGOWYCH MECHANIKI

METODA RÓśNIC SKOŃCZONYCH WYśSZEGO RZĘDU I JEJ ZASTOSOWANIA W JEDNOWYMIAROWYCH PROBLEMACH BRZEGOWYCH MECHANIKI Słaomr Mesk Krakó, dn. -- Mecanka Komputeroa V rok Wydzał InŜyner Lądoe Potecnka Krakoska PRACA DYPLOMOWA METODA RÓśNIC SKOŃCZONYCH WYśSZEGO RZĘDU I J ZASTOSOWANIA W JEDNOWYMIAROWYCH PROBLEMACH BRZEGOWYCH

Bardziej szczegółowo

Uczenie sieci typu MLP

Uczenie sieci typu MLP Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik

Bardziej szczegółowo

Układ realizujący funkcję AND

Układ realizujący funkcję AND Zadane 5. Zaprojekoać spradzć dzałane synchroncznych asynchroncznych rejesró akumulaora umożlających realzację operacj: odejmoana arymeycznego, AN, NOT, EX-OR. C x b C odoane: a a : odejmoane A-B, A AN

Bardziej szczegółowo

Algorytmy. i podstawy programowania. eci. Proste algorytmy sortowania tablic. 4. Wskaźniki i dynamiczna alokacja pami

Algorytmy. i podstawy programowania. eci. Proste algorytmy sortowania tablic. 4. Wskaźniki i dynamiczna alokacja pami MAREK GAGOLEWSKI INSTYTUT BADAŃ SYSTEMOWYCH PAN Algorytmy podstawy programowana 4. Wskaźnk dynamczna alokaca pam ec. Proste algorytmy sortowana tablc Matera ly dydaktyczne dla studentów matematyk na Wydzale

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 15. ALGORYTMY GENETYCZNE Częstochowa 014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska TERMINOLOGIA allele wartośc, waranty genów, chromosom - (naczej

Bardziej szczegółowo

± Δ. Podstawowe pojęcia procesu pomiarowego. x rzeczywiste. Określenie jakości poznania rzeczywistości

± Δ. Podstawowe pojęcia procesu pomiarowego. x rzeczywiste. Określenie jakości poznania rzeczywistości Podstawowe pojęca procesu pomarowego kreślene jakośc poznana rzeczywstośc Δ zmerzone rzeczywste 17 9 Zalety stosowana elektrycznych przyrządów 1/ 1. możlwość budowy czujnków zamenających werne każdą welkość

Bardziej szczegółowo

Prawdopodobieństwo i statystyka r.

Prawdopodobieństwo i statystyka r. Prawdopodobeństwo statystya.05.00 r. Zadane Zmenna losowa X ma rozład wyładnczy o wartośc oczewanej, a zmenna losowa Y rozład wyładnczy o wartośc oczewanej. Obe zmenne są nezależne. Oblcz E( Y X + Y =

Bardziej szczegółowo

Podstawy sztucznej inteligencji

Podstawy sztucznej inteligencji wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,

Bardziej szczegółowo

Określanie mocy cylindra C w zaleŝności od ostrości wzroku V 0 Ostrość wzroku V 0 7/5 6/5 5/5 4/5 3/5 2/5 Moc cylindra C 0,5 0,75 1,0 1,25 1,5 > 2

Określanie mocy cylindra C w zaleŝności od ostrości wzroku V 0 Ostrość wzroku V 0 7/5 6/5 5/5 4/5 3/5 2/5 Moc cylindra C 0,5 0,75 1,0 1,25 1,5 > 2 T A R C Z A Z E G A R O W A ASTYGMATYZM 1.Pojęca ogólne a) astygmatyzm prosty (najbardzej zgodny z pozomem) - najbardzej płask połudnk tzn. o najmnejszej mocy jest pozomy b) astygmatyzm odwrotny (najbardzej

Bardziej szczegółowo

8. MOC W OBWODZIE PRĄDU SINUSOIDALNEGO

8. MOC W OBWODZIE PRĄDU SINUSOIDALNEGO OBWODY I SYGNAŁY 8. MOC W OBWODZIE PRĄD SINSOIDALNEGO 8.. MOC CHWILOWA Jeśl na zacskach dójnka SLS ystępje napęcoe ymszene harmonczne, to prąd zmena sę róneż snsodalne z tą samą plsacją Nech () t m sn

Bardziej szczegółowo

ZASTOSOWANIE KLASYCZNEGO ALGORYTMU GENETYCZNEGO DO ROZWIĄZANIA ZBILANSOWANEGO ZAGADNIENIA TRANSPORTOWEGO

ZASTOSOWANIE KLASYCZNEGO ALGORYTMU GENETYCZNEGO DO ROZWIĄZANIA ZBILANSOWANEGO ZAGADNIENIA TRANSPORTOWEGO Studa Materały. Mscellanea Oeconomcae Rok 6, Nr 2/22 Wydzał Zarządzana Admnstrac Unwersytetu Jana Kochanowskego w Kelcach Z a r z ą d z a n e f n a n s e Rafał Prońko ZASTOSOWANIE KLASYCZNEGO ALGORYTMU

Bardziej szczegółowo

Dobór procesora sygnałowego w konstrukcji regulatora optymalnego

Dobór procesora sygnałowego w konstrukcji regulatora optymalnego Pomary Automatyka Robotyka 10/2008 Dobór procesora sygnałowego w konstrukc regulatora optymalnego Marusz Pauluk Potr Bana Darusz Marchewka Mace Rosół W pracy przedstawono przegląd dostępnych obecne procesorów

Bardziej szczegółowo

Inteligentne systemy przeciw atakom sieciowym

Inteligentne systemy przeciw atakom sieciowym Inteligentne systemy przeciw atakom sieciowym wykład Sztuczne sieci neuronowe (SSN) Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 1 / 36 Biologiczne

Bardziej szczegółowo

Proces narodzin i śmierci

Proces narodzin i śmierci Proces narodzn śmerc Jeżel w ewnej oulacj nowe osobnk ojawają sę w sosób losowy, rzy czym gęstość zdarzeń na jednostkę czasu jest stała w czase wynos λ, oraz lczba osobnków n, które ojawły sę od chwl do

Bardziej szczegółowo

Pokazać, że wyżej zdefiniowana struktura algebraiczna jest przestrzenią wektorową nad ciałem

Pokazać, że wyżej zdefiniowana struktura algebraiczna jest przestrzenią wektorową nad ciałem Zestaw zadań : Przestrzene wektorowe. () Wykazać, że V = C ze zwykłym dodawanem jako dodawanem wektorów operacją mnożena przez skalar : C C C, (z, v) z v := z v jest przestrzeną lnową nad całem lczb zespolonych

Bardziej szczegółowo