Sztuczne sieci neuronowe

Wielkość: px
Rozpocząć pokaz od strony:

Download "Sztuczne sieci neuronowe"

Transkrypt

1 Sztuczne sec neuronoe model konekconstyczny 2 Plan ykładu Geneza modelu konekconstycznego Głóne cechy Model sztucznego neuronu Archtektury sec neuronoych Proces uczena sę sec Uczene poedynczego neuronu Właścośc poedynczego neuronu

2 3 Ludzk mózgm komórek 3 2 km połą łączeń ( 4 ) połą łączeń ~,5 kg ag ~,5 l obęto tośc ~2 W poboru energ 4 Ludzk mózg m a komputer Jednostk oblczenoe Pamęć Czas operac Czas transms Lczba aktyac/s Komputer - 4 CPU 9 btó RAM 2 btó dysk - 8 s 9 bt/s 5 Mózg 5 - neuronó neuronó 4-3 s 4 bt/s 4 połączeń 4 po 2

3 Głóne cechy model konekconstycznych 5 Duża a lczba prostych ednostek przetarzana (neuronó) Subsymbolczna reprezentaca edzy - kodoane edzy za pomocą ag na połą łączenach Przetarzane rónolegr noległe e rozproszone Kluczoe znaczene ma seć połą łączeń,, e gęstog stość stopeń komplkac a ne budoa neuronu Nastotneszy problem to automatyzaca procesu uczena sę sec 6 Budoa neuronu eśce yśce Złożone one dzałane ane błony b komórk neroe - model błony synaptyczne (Hodgkn-Huxley,, Nagroda Nobla 963) Jądro - centrum oblczenoe neuronu, gdze zachodzą procesy kluczoe dla ego funkconoana 3

4 7 Sztuczny neuron x x e f() y x k k eśca ag pobudzene f aktyac yśce 8 Sztuczny neuron - budoa eśca - reprezentuą sygnały y zenętrzne, które płya yaą do neuronu (ymuszena) x ag - determnuą zględn dną ażno ność poszczególnych eść pobudzene (łączne) e - ypadkoa artość skalarna odzercedlaąca ca aktyność neuronu; zależne od funkc act() (),, która określa sposób b oblczana pobudzena na podstae eść oraz ag yśce y - artość sygnału u yścoego neuronu funkca aktyac f - determnue stan yśca na podstae pobudzena; określa charakterystykę neuronu 4

5 9 Sztuczny neuron x x e f() y x k k Podstaoe zależno nośc opsuące sztuczny neuron: e = act(x,,x k,,, k ) y = f(e) Prosty perceptron x x e f() y x k k Zależno nośc dla prostego perceptronu: k e act x ( x, ) y( x, ) gdy gdy f ( e) f ( e) 5

6 Prosty perceptron: próg g aktyac ako aga 2 x - x x 3 x k` = 2 3 k Zależno nośc dla prostego perceptronu: k e act x ( x, ) y( x, ) e f() gdy gdy y f ( e) f ( e) 3 Funkce aktyac neuronu Sgmodalna f ( e) exp( e) Tangens hperbolczny f ( e) tanh( e) Progoa (skokoa Heavsde a) f ( e) gdy gdy e e 6

7 4 Wpły parametru Funkca sgmodalna,9,8,7,6,5 f ( e),4 exp( e),3,2, ,5, 2, Im ększa artość, tym ększa stromość funkc aktyac W grancy funkca zblża a sę do skoku ednostkoego Przecdzedzna meśc sę przedzale [; ] - funkca est ednobegunoa (unpolarna) 5 Wpły parametru Tangens hperbolczny,8,6 f ( e) tanh( e),4, , ,4 -,6 -,8 -,5, 2, Im ększa artość, tym ększa stromość funkc aktyac W grancy funkca zblża a sę do skoku ednostkoego Przecdzedzna meśc sę przedzale [-;[ ] - funkca est dubegunoa (bpolarna) 7

8 Archtektura sztucznych sec neuronoych 6 Sztuczną seć neuronoą uzyskuemy łącz cząc c ze sobą arsty ele neuronó e f() x x 3 x k e f() e e f() f() y y 2 x e e f() f() e f() e f() Seć bez sprzęż ężeń (ang feedforarded) x 3 Seć ze sprzęż ężenam zrotnym (ang feedback) 7 Sec bez sprzęż ężeń Połą łączena medzy neuronam ne mogą torzyć cykl Sygnał podany na eśce propague sę przez seć skończonym czase Koleność krokó ustalaących artość pobudzena oraz stany yść neuronó zależy y od topolog sec Można uznać e za układy pozbaone pamęc Sygnał propagoany est ednym kerunku stąd d ch druga naza - ednokerunkoe Mogę być ułożone one edną lub ęce arst 8

9 8 Sec ze sprzęż ężenam Pomędzy neuronam mus poać sę co namne edno sprzęż ężene zrotne (sygnał z yśca poraca na eśce) W skranym przypadku sygnał podany na eśce może e propagoać sę przez seć neskończonym czase ngdy ne osągn gnąć stanu stablnego Charakteryzue e skomplkoana dynamka, ymagaąca złożone z one aparatury poęcoe (teora chaosu, teora złożonoz onośc) Zachouą sę ak układy z pamęc cą Seć ednoarstoa z eloma yścam 2 Sztuczną seć neuronoą est mplementacą złożone one funkc elu zmennych Naczęś ęśce est to rónoczesna realzaca tylu funkc le yść posada cała a seć x e f() y x 3 e f() y 2 e f() y 3 x k macerz ag 9

10 2 Uczene sec neuronoych Proces uczena polega na modyfkoanu ag sec Naczęś ęśce realzoane est uczene sę z przykład adó Uczene nadzoroane - przykłady opsane sąs zaróno atrybutam arunkoym, ak decyzynym Uczene nenadzoroane - dane opsane sąs tylko atrybutam arunkoym Cel uczena - rozązane zane penego problemu klasyfkac (decyze nomnalne), problemu regres (decyze numeryczne) lub problemu grupoana 22 Uczene sec neuronoych Algorytmy uczena sec modyfkuą ag neuronó bez zmany archtektury sec, która mus być zaproektoana cześne Proces uczena na zborze przykład adó D można sproadzć do problemu optymalzac (mnmalzac) cągłe przestrzen ag pene funkc błędu E: W opt argmn E( W, D) W gdze: W - macerz ag sec W opt - macerz optymalnych artośc ag sec, odpoadaąca sec o namneszym możlym błędze ak można osągn gnąć dla zboru danych D

11 Uczene nadzoroane sec neuronoych 23 W uczenu nadzoroanym funkca błęb łędu E est peną marą rozbeżno nośc mędzy rzeczystym stanam yść sec a artoścam podanym ako decyze zborze danych D Naczęś ęśce stosoaną marą est błąd średnokadratoy: k 2 EMSE y x z x D xd k gdze: k - lczba yść sec, x - przykład ze zboru D (ektor atrybutó arunkoych), y (x) - artość -tego yśca sec dla przykładu x, z (x) - artość pożądana dla przykładu x na yścu (atrybut decyzyny) Uczene poedynczego prostego perceptronu 24 Celem uczena nadzoroanego est realzaca penego odzoroana: z = F(x) gdze: x est ektorem atrybutó (zmennych) nezależnych, nych, z est pożą żądanym yścem neuronu, a odzoroane F est neznane zadane edyne postac zboru n przykład adó (zbór D) ) postac: x, z F( x ), n

12 Uczene poedynczego prostego perceptronu 25 Błąd d generoany przez neuron po podanu -tego przykładu na eśca est yrażany any różncr ncą: = z - y Agregaca szystkch błęb łędó popełnonych przez neuron dla poszczególnych przykład adó do błęb łędu średnokadratoego neuronu przebega następu puąco: E 2 n n 2 ( z y ) E, E ( ) 2 Mnmalzaca tego błęb łędu następue naczęś ęśce z zastosoanem heurystycznego algorytmu naększego spadku gradentu 2 Uczene poedynczego prostego perceptronu 26 W poedynczym kroku uczena yznaczana est artość o aką zmenona ma zostać określona aga sec zana popraką ag Modyfkaca -te ag na podstae błędu E popełnanego przezeń podczas propagac sygnału u dla -tego przykładu odbya sę g zależno nośc: E gdze: est elkośc cą,, która kontrolue pły gradentu na stosoaną poprakę określana est manem spółczynnka prędko dkośc uczena 2

13 Algorytm naększego spadku gradentu 27 Interpretaca grafczna na płaszczyp aszczyźne heurystyk naększego spadku gradentu: E ' Uczene poedynczego prostego perceptronu 28 Funkca błęb łędu ako funkca złożona z ona ymaga dalszych zabegó: E E y y Z defnc poedynczego błęb łędu E oraz = z - y mamy: E y ( z y ) A lnoy charakter funkc y do: y x dla perceptronu proadz 3

14 29 Reguła a delta Ostateczne heurystyka spadku gradentu nakazue mnmalzacę błędu zgodne z formułą łą: Δ x Poyższa formuła a określana est manem reguły y delta albo regułą ADELINE - popraka -te ag est prost proporconalna do błęb łędu popełnonego przez neuron oraz do elkośc sygnału u płya yaącego -tym eścem do neuronu Pełny krok uczena ymaga yznaczena zastosoana poprak na szystkch agach danego neuronu (róne neż ) 3 Algorytm uczena perceptronu Ustaamy artość spół prędko dkośc uczena 2 Wyberamy losoo ag początkoe perceptronu 3 Na eśca podaemy ektor uczący cy x 4 Oblczamy artość yśco coą perceptronu zgodne ze zorem: k y x 5 Porónuemy artość yśco coą z pożą żądaną z 6 Modyfkuemy ag zgodne z zależno noścą: x gdze z y 7 Jeśl ne konec epok uczena, racamy do kroku 3 8 Jeśl błąb łąd d całe epok est ększy od założonego, onego, racamy do kroku 3 4

15 3 Reguła a delta - podsumoane Cechy algorytmu uczena opartego na regule delta: Stosoana metoda spadku gradentu est heurystyką ne garantue znalezena optymalne konfgurac ag sec (lokalne mnma!) Współczynnk prędko dkośc uczena ma znaczący cy pły na przebeg procesu uczena Losoe artośc początkoe ag róner neż płya yaą na przebeg procesu uczena Poprak oblczane sąs dla każde ag nezależne Uczene sę przebega elu krokach ymaga elokrotnego propagoana przez seć danych z poszczególnych przykład adó Własnośc prostego perceptronu - klasyfkaca 32 Interpretaca grafczna prostego perceptronu o dóch eścach: y = + x + 2 = 2 y> y< W probleme bnarne klasyfkac poedynczy neuron mplementue grancę mędzy klasam decyzynym postac (hper)p( hper)płaszczyzny opsane rónanem: r n x x 5

16 33 Proces uczena sę klasyfkac W trakce uczena sę prosty perceptron manerue płaszczyzną celu oddzelena od sebe przykład adó z różnych klas = = =3 =647 x Podstay teoretyczne sec neuronoych 34 Terdzene Rosenblatta: Proces uczena perceptronu est zbeżny Perceptron może e nauczyć sę doolnego lnoo separoalnego problemu klasyfkac 6

17 35 Problemy klasyfkac Praktyczne problemy uczena mogą meć różną charakterystykę: x Problem lnoo separoalny x Problem lnoo neseparoalny Poedynczy neuron może e oddzelć od sebe tylko take klasy decyzyne, mędzy którym możle est poproadzene grancy postac (hper)p( hper)płaszczyzny 36 Znaczene basu Bas - aga przypsana progo aktyac tg b y = + x + 2 = 2 2 x = -( / 2 )x - ( / 2 ) y = a*x +b a = -( / 2 ) b=-( / 2 ) dla = zasze b= Istnene basu est koneczne, eśl możly ma być podzał dóch całkoce doolnych klas lnoo separoalnych 7

18 Uczene poedynczego neuronu nelnoego 37 Proces uczena neuronu nelnoego róner neż opera sę na regule spadku gradentu: E E E y Δ, y ale pochodna yśca po adze zmena są postać z poodu nelnoego charakteru funkc aktyac: y y e e Wemy, że e z defnc błęb łędu E oraz pobudzena e mamy: E y e x Reszta zależy y od ybrane funkc aktyac y=f (e) Uczene poedynczego neuronu nelnoego 38 Pochodna funkc sgmodalne zględem pobudzena: y f ( e) ( exp( e)) exp( e) y 2 ( )( exp( e)) *exp( e)*( ) e exp( e) exp( e) * 2 ( exp( e)) ( exp( e)) ( exp( e)) exp( e) * ( exp( e)) ( exp( e)) ( exp( e)) y y ( y ) e 8

19 Uczene poedynczego neuronu nelnoego 39 Ostateczne reguła a spadku gradentu nakazue poprakę ag neuronu nelnoego (sgmodalnego( sgmodalnego) ) zgodne z formułą łą: y Δ x x y ( y ) e Reguła a delta neuronu nelnoego różn sę członem y(-y),, ynkaącym z proadzone nelnoośc, który zększa poprak tym mocne m blże przykład znadue sę płaszczyzny decyzyne realzoane przez neuron 4 Problem XOR, x XOR(x, ), x Funkc XOR ne może e zostać odzoroana za pomocą poedynczego lnoego neuronu, gdyż potrzebna est ęce nż edna płaszczyzna p decyzyna by oddzelć od sebe de klasy ynkoe 9

20 Układy logczne a sec neuronoe 4 Implementaca podstaoych funkc logcznych za pomocą neuronó prostych z funkcą skokoą aktyac: - =5 = x 2 = AND _ y - =-49 x =- NOT _ y y = x y = -x =5 x = OR 2 = y = x _ y x AND OR x NOT Seć eloarstoa dla funkc XOR 42 Problem odzoroana funkc XOR można roząza zać edyne stosuąc c ęce nż edną arstę sec: y = x XOR = ((x AND NOT ) OR ( AND NOT x )) - =5 x 2 =- 3 =- = 4 = - =5 y = x AND NOT AND NOT y 5 = 6 = y 2 y 2 = -x =5 y = y + y 2-5 OR y x y y 2 XOR 2

21 Problem XOR: rozązane zane 43, AND NOT x y 2 = -x + - 5,,, x y = x x AND NOT Odzoroane funkc XOR est połą łączenem prostych odzoroań z arsty persze bardze złożone z one odzoroane zrealzoane dzęk arste druge 44 Seć eloarstoa x x 3 x k arsty ukryte arsta eścoa arsta yścoa W ramach edne arsty neurony ne komunkuą sę ze sobą Pomędzy arstam oboązue zasada każdy z każdym dym 2

22 45 Uczene sec eloarstoe Zastosoane reguły y delta: y Δ x z y e obec neuronó arsty, która ne est yścoa (ukryte) ymaga następu puące zmany sposobu oblczana błęb łędu przy prezentac -tego przykładu: N l ( k, l ) k ( p, l) ( p, l) p gdze ndeksy (k,l) dotyczą k-tego neuronu arste l-te, zaś N l+ to lczba neuronó l+-te arste sec 46 Uczene sec eloarstoe Reguła a yznaczana błęb łędu neuronu sec eloarstoe: Interpretaca: N l ( k, l ) k ( p, l) ( p, l) p Błąd d neuronu arste l-te est róny r sume błęb łędó popełnonych przez neurony z arsty l+-te, ażonych agam ake łącz czą dany neuron z neuronam arsty l+-te 22

23 47 Uczene sec eloarstoe Ilustraca grafczna reguły y yznaczana błęb łędu : N l ( k, l ) k ( p, l) ( p, l) p (,l ) (, l) (2, l) (, l ) (2,l ) ( 2, l ) (3,l ) ( 3, l ) arsta l arsta l+ Algorytm steczne propagac błędu 48 procedure backpropagaton(zbór przykład adó D) begn ncalzaca ag sec małym artoścam losoym; repeat for each xd propagaca x przez seć aż do yśca; porónane ektora yść y z pożą żądanym ynkem z oraz yznaczene błęb łędó ; steczna propagaca błęb łędu przez arsty ukryte t do arsty ostatne, przedostatne td; modyfkaca ag każdego neuronu sec stosoane do popełnonego błęb łędu; endfor Wyznaczene błęb łędu średnokadratoego E po szystkch przykładach untl E < E stop or nny_ar_stopu 23

24 49 Uczene sec eloarstoe x x k h h 2 h N2 - ( p,2) - arsta eścoa arsta ukryta ( p,3) y y 2 y N3 arsta yścoa z z 2 z N3 5 Uczene sec eloarstoe x x k h h 2 h N2 - ( p,2) - Dany est zbór D przykład adó: x,z Losuemy ag (małe e artośc) Wyberamy koleną parę ze zboru D Oblczamy artośc arste ukryte: hp, p N k 2 exp ( p,2) x y y 2 y N3 ( p,3) z z 2 z N3 24

25 5 Uczene sec eloarstoe x x k h h 2 y y 2 h N2 y N3 z z 2 z N3 - ( p,2) - ( p,3) Dany est zbór D przykład adó: x,z Losuemy ag (małe e artośc) Wyberamy koleną parę ze zboru D Oblczamy artośc arste ukryte: hp, p N k 2 exp ( p,2) x Oblczamy artośc arste yścoe: y p N2 exp ( p,3), p N3 h 52 Uczene sec eloarstoe x x k h h 2 y y 2 h N2 y N3 - ( p,2) ( p,3) Dany est zbór D przykład adó: x,z Losuemy ag (małe e artośc) Wyberamy koleną parę ze zboru D Oblczamy artośc arste ukryte: h p Oblczamy artośc arste yścoe: y p - Oblczamy błąb łąd d arste yścoe: ( p,3) z p y p p, N 3 z z 2 z N3 25

26 53 Uczene sec eloarstoe x x k h h 2 y y 2 h N2 y N3 z z 2 z N3 - ( p,2) ( p,3) Dany est zbór D przykład adó: x,z Losuemy ag (małe e artośc) Wyberamy koleną parę ze zboru D Oblczamy artośc arste ukryte: h p Oblczamy artośc arste yścoe: y p - Oblczamy błąb łąd d arste yścoe: ( p,3) z p y p p, N Oblczamy błąb łąd d arste ukryte: N3 (,2) ( p,3) ( p,3), p 3 N 2 54 Uczene sec eloarstoe x x k h h 2 y y 2 h N2 y N3 - ( p,2) - ( p,3) Dany est zbór D przykład adó: x,z Losuemy ag (małe e artośc) Wyberamy koleną parę ze zboru D Oblczamy artośc arste ukryte: h p Oblczamy artośc arste yścoe: y p Oblczamy błąb łąd d arste yścoe: ( p,3) Oblczamy błąb łąd d arste ukryte: (,2) Korekta ag dla arsty yścoe: h y ( y ) Δ ( p,3) ( p,3) p p 26

27 55 Uczene sec eloarstoe Dany est zbór D przykład adó: x,z Losuemy ag (małe e artośc) Wyberamy koleną parę ze zboru D Oblczamy artośc arste x x k - ukryte: h p Oblczamy artośc arste yścoe: h y h 2 y 2 h N2 y N3 ( p,2) - ( p,3) y p Oblczamy błąb łąd d arste yścoe: ( p,3) Oblczamy błąb łąd d arste ukryte: (,2) Korekta ag dla arsty yścoe: Δ ( p,3) Korekta ag dla arsty ukryte: x h ( h ) Δ ( p,2) (,2) p p 56 Uczene sec eloarstoe Dany est zbór D przykład adó: x,z Losuemy ag (małe e artośc) Wyberamy koleną parę ze zboru D Oblczamy artośc arste x x k - ukryte: h p Oblczamy artośc arste yścoe: h y h 2 y 2 h N2 y N3 ( p,2) - ( p,3) y p Oblczamy błąb łąd d arste yścoe: ( p,3) Oblczamy błąb łąd d arste ukryte: (,2) Korekta ag dla arsty yścoe: Δ ( p,3) Korekta ag dla arsty ukryte: Δ ( p Konec epok,2) 27

28 Cechy algorytmu steczne propagac błędu 57 Błędne dobrane artośc początkoe ag mogą utrudnać bądź unemożla lać zbeżno ność algorytmu Modyfkaca ag zasze poprzedzona est propagacą błędu do arsty poprzedne Błąd d popełnany przez neuron ne ma płyu na ego sąsadó z te same arsty Proces uczena ma charakter teracyny - eden przebeg po zborze uczącym cym nazyamy epoką Duża a złożonoz oność oblczenoa - przy m agach oraz n przykładach mamy do polczena m*n popraek Cechy algorytmu steczne propagac błędu 58 Zmany ag maą lokalny charakter - algorytm każdym kroku dostraa e do ednego przykładu Uczene ma charakter przyrostoy - zasze stnee możlo lość douczena sec na noych przykładach Algorytm est rażly na koleność prezentoana przykład adó Istnee ele arantó algorytmu steczne propagac, które maą za zadane przyśpeszy peszyć proces uczena lub poprać ego efekty (np( np steczna propagaca z członem momentum,, algorytm zmenne metryk, algorytm Levenberga-Marquardta n) 28

29 Efekt przeuczena sec neuronoych - przyczyny 59 Zbór r przykład adó D,, choć (z założena) reprezentatyny ngdy ne zaera pełne nformac o uczone funkc Istnee neskończene ele macerzy ag W,, dla których artość błędu E(W,D) osąga globalne mnmum Tylko nelczne konfgurace ag odpoadaą mnmum błęb łędu całe dzedzne uczone funkc dla przykład adó spoza zboru uczącego cego otrzymany ynk cale ne mus być optymalny (nny zbór r testuący) 6 Efekt przeuczena sec neuronoych błąd d E zbór r testuący zbór r uczący cy epok Zasko przeuczena może e być spoodoane zbyt długm uczenem sec Zatrzymane procesu uczena odpoednm momence pozala zachoać e zdolność do generalzac edzy 29

30 6 Uczene nenadzoroane sec Celem uczena nenadzoroanego est ykryane penych regularnośc danych uczących cych Dane prezentoane sąs ako ektory atrybutó (zmennych) nezależnych nych x,, ale pozbaone sąs nformac o pożą żądanym yścu sec Formalne mamy zatem zbór n przykład adó (zbór D), lecz bez atrybutu decyzynego postac: x, n Z punktu dzena analzy danych mamy do czynena z zadanem grupoana (analzy skupeń) 62 Uczene nenadzoroane sec Reguła Hebba: Jeżel el przesyłane sygnałó mędzy doma połą łączonym neuronam poodue ch spóln lną aktyność ść,, to należy zększy kszyć artość ag mędzy nm g zasady: h y h 2 y 2 h M y N k Δ h k Welkość zmany ag ponna być proporconalna do loczynu sygnału u chodzącego cego do neuronu (z tąt agą) ) sygnału ychodzącego cego z neuronu Reguła Hebba może e przyąć różną postać różnych r secach k y 3

31 63 Sec Hopfelda Seć ednoarstoa z lczbą neuronó rónr ną lczbe składoych ektora eścoego Seć rekurencyna Pełne połą łączena neuronó każdy z każdym dym Wszystke neurony sec pełn ną rolę zaróno eść ść, ak yść Neurony przetarzaą sygnały y bpolarne {-;}{ Skokoa funkca aktyac Rodza autoasocacyne pamęc - służy y do rozpoznaana yuczonych cześne zorcó 64 Sec Hopfelda: : algorytm Faza nauczana: yznaczene a pror artośc ag sec oparcu o zbór r przykład adó (zorcó) ) Faza rozpoznaana (odtarzana): cyklczna propagaca sygnałó przez seć dla noych danych eścoych aża do uzyskana stanu stablnego 3

32 65 Uczene sec Hopfelda x x 3 y y 2 y 3 Wag sec torzą macerz kadratoą o boku k rónym lczbe składoych zorca Macerz est symetryczna z yzeroanym agam na głóne przekątne, czyl: mn = nm oraz nn = Dla zboru N przykład adó (zorcó) ) uczene ag opera sę na formule: mn N (2x m )(2 x n ) m n 66 Uczene sec Hopfelda Przykład Wzorzec 5-elementoy 5 x =( ) Dla ednego zorca oblczena macerzy: mn N (2x 2 = (2x - )(2 - ) = ( - )(2 - ) = (-)()( = - 3 = (2x - )(2x 3 - ) = ( - )(2 - ) = (-)()( = - 4 = (2x - )(2x 4 - ) = ( - )( - ) = (-)(( )(-) = 5 = (2x - )(2x 5 - ) = ( - )(2 - ) = (-)()( = = (2 - )(2x 3 - ) = (2 - )(2 - ) = ()() = 24 = (2 - )(2x 4 - ) = (2 - )( - ) = ()(-) = - 25 = (2 - )(2x 5 - ) = (2 - )(2 - ) = ()() = = (2x 3 - )(2x 4 - ) = (2 - )( - ) = ()(-) = - 35 = (2x 3 - )(2x 5 - ) = (2 - )(2 - ) = ()() = 45 = (2x 4 - )(2x 5 - ) = ( - )(2 - ) = (-)()( = - m )(2 x n ) W oraz sproadzą sę do postac: ( 2x )(2 x ) mn m n 32

33 67 Uczene sec Hopfelda Przykład cd Koleny zorzec =( ) Zamast yznaczać kolene yrazy mn macerzy W po szystkch zorcach od razu, można yznaczyć naper nezależne dla każdego przykładu macerz W a następne szystke macerze zorcó zsumoać ze sobą: 2 W 2 W W Faza odtarzana: aktualzaca sec Hopfelda x x 3 y y 2 y 3 Propagaca sygnału u przez seć dla noych danych przypomna zasadę znaną z prostego perceptronu: k gdy n mnxn x n m m przecnym przypadku Ze zględu na rekurencyną topologę sec zmana yołana przez dane na e eścu może e ymagać elu cykl oblczeń zanm osągne ona stan stablny 33

34 Faza odtarzana: aktualzaca sec Hopfelda 69 Aktualzaca stanu sec zapoczątkoana noym ektorem eścoym odbya sę synchronczne albo asynchronczne Synchronczna aktualzaca: oblczamy rónoczer nocześne ne stany yścoe szystkch neuronó dla ne zmenaącego sę chloo stanu eścoego Asynchronczna aktualzaca: yznaczamy sekencyne stany yścoe neuronó edług losoe kolenośc, propaguąc c każdorazoo zmanę na eśce sec Seć osąga stan stablny kedy propagaca sygnału przez seć ne spoodue zmany na yścu stosunku do eśca dla żadnego z neuronó Faza odtarzana: aktualzaca synchronczna 7 Przykład cd 2 Zbór r zorcó: : 2 x =( ) 2 =( ) W W 2 2 Wektor eścoy: v=( ) Wyśca sec (teraca ): x = k n= n v n =*+(-2)*+*+*+*= 2)*+*+*+*=-2 f skok (-2)= = k n= 2n v n =(-2)*+*+*+*+*= f skok ()= x 3 = k n= 3n v n =*+*+*+(-2)*+2*= f skok ()= x 4 = k n= 4n v n =*+*+(-2)*+*+( 2)*+*+(-2)*= 2)*=-4 f skok (-4)= x 5 = k n= 5n v n =*+*+2*+(-2)*+*= 2)*+*= f skok ()= Noym stanem na eścu będze: b x=( ) zmana! 34

35 Faza odtarzana: aktualzaca synchronczna 7 Przykład cd W W Wektor eścoy (noy): v =( ) 2 2 Wyśca sec (teraca 2): x = k n= n v n =*+(-2)*+*+*+*= 2)*+*+*+*=-2 f skok (-2)= = k n= 2n v n =(-2)*+*+*+*+*= f skok ()= x 3 = k n= 3n v n =*+*+*+(-2)*+2*=2 f skok (2)= x 4 = k n= 4n v n =*+*+(-2)*+*+( 2)*+*+(-2)*= 2)*=-4 f skok (-4)= x 5 = k n= 5n v n =*+*+2*+(-2)*+*=2 2)*+*=2 f skok (2)= Potórzene stanu ( ) - konec oblczeń! Faza odtarzana: aktualzaca asynchronczna 73 Przykład cd 2 Inny ektor eścoy: 2 2 v=( ) W W 2 2 Losoe permutace neuronó: 2,4,3,5,, 2,4,3,5,, 2,4,3,5,, Wyśca sec: = k n= 2n x n =-2 f skok (-2)= noy stan: ( ) zmana! x 4 = k n= 4n x n =-4 f skok (-4)= noy stan: ( ) zmana! x 3 = k n= 3n x n =2 f skok (2)= noy stan: ( ) x 5 = k n= 5n x n =2 f skok (2)= noy stan: ( ) x = k n= n x n = f skok ()= noy stan: ( ) = k n= 2n x n =-2 f skok (-2)= noy stan: ( ) x 4 = k n= 4n x n =-4 f skok (-4)= noy stan: ( ) konec (brak zman!) 35

36 Przykład zastosoana sec Hopfelda 74 Problem: Rozpoznaane zorcó obrazó cyfr dzesętnych rozdzelczośc: c: pksel Parametry sec: Lczba neuronó: Lczba połą łączeń: : 495 Wynk dla 4 zorcó: : poprane rozpoznaane obrazó zaszumonych % Poyże 2% szumu nełaśce rozpoznaane Przykład zastosoana sec Hopfelda 75 Parametry sec: ta sama seć Wynk dla zorcó szystkch cyfr: nepoprane rozpoznaane obrazó zaszumonych uż % 36

37 Seć Hopfelda ako pamęć asocacyna 76 stan eścoy x x 3 zorce Dzałane ane sec o charakterze pamęc autoasocacyne opera sę na podanu sygnału u eścoego (mpulsoo) sobodne relaksac sec do stanu stablnego nablższego stano ncuącemu cemu Osągn gnęty stan nterpretuemy ako skoarzony z eścoym bodźcem yuczony zorzec z pamęc Seć Hopfelda ako pamęć asocacyna 77 Przykład x 3-2 x Aktyaca asynchronczna każdego neuronu poodue albo pozostane tym samym stane albo prześce do stanu oddalonego o (g odległośc Hammnga) Nr x Stan Wektor x 3 Nr stanu po aktyac neuronu:

38 Seć Hopfelda ako pamęć asocacyna 78 Dynamka sec - dagram prześć stanó Nezależne od stanu początkoego dzałane ane sec zbegne sę do stanu stablnego reprezentuącego eden z zapamętanych zorcó (3 lub 6) 79 Własnośc sec Hopfelda Pamęć asocacyna nformace zareestroane pamęc sąs dostępne po podanu na eśce nformac skoarzone, selekconuące ce eden z zapamętanych zorcó na drodze asocac Brak ścsłe lokalzac zareestroane nformac rozproszona reprezentaca postac zorca aktyac całe sec Rozproszone asynchronczne steroane każdy element sec dzała a oparcu o lokalne dane Duża a toleranca na błęb łędy nełaśce funkconoane nektórych elementó sec ne degradue e dzałana ana Ogranczona poemność pamęc dla N neuronó max N/(2logN) zorcó 38

39 8 Uczene nenadzoroane sec Nebezpeczeństa uczena nenadzoroanego: Wolneszy proces uczena porónanu z algorytmam nadzoroanym Trudno skazać,, który neuron yspecalzue sę rozpoznaanu które klasy danych Nełata nterpretaca ynkó dzałana ana sec Brak penośc co do faktu czy seć rozpoznała szystke zorce prezentoane poprzez dane Potrzeba stosoana zdecydoane bardze złożone z one budoy sec nż metodach nadzoroanych (mne ęce trzykrotne ęce neuronó arsty yścoe nż spodzeane lczby klas) Czego ne potrafą sec neuronoe Przetarzane symbolczne: Operace edytorske na tekstach Procesory yrażeń algebracznych Przetarzane numeryczne z ysokm ymagana odnośne ne precyz oblczeń: Rachunkoość ść,, ksęgoo goość,bankoość Oblczena nżynerske (konstrukcyne) Weloetapoe procesy o charakterze mentalnym Pradzość ść/fałszyość sekenc sterdzeń logcznych Doodzene terdzeń Wnoskoane eloetapoe (systemy ekspercke) Planoane dzałań 39

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe Sztuczne sec neuronoe model konekconstyczny 2 Plan ykładu Geneza modelu konekconstycznego Głóne cechy Model sztucznego neuronu Archtektury sec neuronoych Proces uczena sę sec Uczene poedynczego neuronu

Bardziej szczegółowo

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Wykład 2: Uczenie nadzorowane sieci neuronowych - I Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za

Bardziej szczegółowo

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Wykład 2: Uczenie nadzorowane sieci neuronowych - I Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za

Bardziej szczegółowo

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe Sztuczne sec neuronowe Jerzy Stefanowsk Plan wykładu 1. Wprowadzene 2. Model sztucznego neuronu. 3. Topologe sec neuronowych 4. Reguły uczena sec neuronowych. 5. Klasyfkaca sec neuronowych. 6. Sec warstwowe

Bardziej szczegółowo

Plan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty)

Plan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty) Plan wykładu Dzałane neuronu dyskretnego warstwy neuronów dyskretnych Wykład : Reguły uczena sec neuronowych. Sec neuronowe ednokerunkowe. Reguła perceptronowa Reguła Wdrowa-Hoffa Reguła delta ałgorzata

Bardziej szczegółowo

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB Rozwązywane zadań optymalzacj w środowsku programu MATLAB Zagadnene optymalzacj polega na znajdowanu najlepszego, względem ustalonego kryterum, rozwązana należącego do zboru rozwązań dopuszczalnych. Standardowe

Bardziej szczegółowo

Plan wykładu. Sztuczne sieci neuronowe. Uczenie nienadzorowane (bez nauczyciela) Uczenie nienadzorowane - przykłady

Plan wykładu. Sztuczne sieci neuronowe. Uczenie nienadzorowane (bez nauczyciela) Uczenie nienadzorowane - przykłady Plan yładu Wyład 10: Sec samoorganzuce s na zasadze spółzaodncta Sec samoorganzuace s na zasadze spółzaodncta: uczene nenadzoroane uczene onurencyne reguła WTA reguła WTM antoane etoroe mapa cech Kohonena

Bardziej szczegółowo

Problem plecakowy (KNAPSACK PROBLEM).

Problem plecakowy (KNAPSACK PROBLEM). Problem plecakowy (KNAPSACK PROBLEM). Zagadnene optymalzac zwane problemem plecakowym swą nazwę wzęło z analog do sytuac praktyczne podobne do problemu pakowana plecaka. Chodz o to, by zapakować maksymalne

Bardziej szczegółowo

Pattern Classification

Pattern Classification Pattern Classfcaton All materals n these sldes ere taken from Pattern Classfcaton nd ed by R. O. Duda, P. E. Hart and D. G. Stork, John Wley & Sons, 000 th the permsson of the authors and the publsher

Bardziej szczegółowo

WPŁYW PARAMETRÓW DYSKRETYZACJI NA NIEPEWNOŚĆ WYNIKÓW POMIARU OBIEKTÓW OBRAZU CYFROWEGO

WPŁYW PARAMETRÓW DYSKRETYZACJI NA NIEPEWNOŚĆ WYNIKÓW POMIARU OBIEKTÓW OBRAZU CYFROWEGO Walenty OWIECZKO WPŁYW PARAMETRÓW DYSKRETYZACJI A IEPEWOŚĆ WYIKÓW POMIARU OBIEKTÓW OBRAZU CYFROWEGO STRESZCZEIE W artykule przedstaono ynk analzy nepenośc pomaru ybranych cech obektu obrazu cyfroego. Wyznaczono

Bardziej szczegółowo

Systemy Inteligentnego Przetwarzania wykład 3: sieci rekurencyjne, sieci samoorganizujące się

Systemy Inteligentnego Przetwarzania wykład 3: sieci rekurencyjne, sieci samoorganizujące się Systemy Intelgentnego Przetwarzana wykład 3: sec rekurencyne, sec samoorganzuące sę Dr nż. Jacek Mazurkewcz Katedra Informatyk Technczne e-mal: Jacek.Mazurkewcz@pwr.edu.pl Sec neuronowe ze sprzężenem Sprzężena

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 5. SZTUCZNE SIECI NEURONOWE REGRESJA Częstochowa 4 Dr hab. nż. Grzegorz Dudek Wdzał Elektrczn Poltechnka Częstochowska PROBLEM APROKSYMACJI FUNKCJI Aproksmaca funkc przblżane

Bardziej szczegółowo

Podstawy teorii falek (Wavelets)

Podstawy teorii falek (Wavelets) Podstawy teor falek (Wavelets) Ψ(). Transformaca Haara (97).. Przykład pewne metody zapsu obrazu Transformaca Haara Przykład zapsu obrazu -D Podstawy matematyczne transformac Algorytmy rozkładana funkc

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE METODY KLASYFIKACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

SYSTEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE METODY KLASYFIKACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska. SYSEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE MEODY KLASYFIKACJI Częstochowa 4 Dr hab. nż. Grzegorz Dude Wydzał Eletryczny Poltechna Częstochowsa FUNKCJE FISHEROWSKA DYSKRYMINACYJNE DYSKRYMINACJA I MASZYNA LINIOWA

Bardziej szczegółowo

Literatura SZTUCZNE SIECI NEURONOWE. Mózg/komputer jak to działa? MÓZG WZORZEC DOSKONAŁY KOMPUTER TWÓR DOSKONALONY SSN niekonwencjonalne przetwarzanie

Literatura SZTUCZNE SIECI NEURONOWE. Mózg/komputer jak to działa? MÓZG WZORZEC DOSKONAŁY KOMPUTER TWÓR DOSKONALONY SSN niekonwencjonalne przetwarzanie 007--06 SZTUCZNE SIECI NEURONOWE Archtektura Tp Przeznaczene Procedur uczena Zastosoana Lteratura. J. śurada, M. Barsk, W. Jędruch, Sztuczne sec neuronoe, PWN 996. R. Tadeusecz, Sec neuronoe, AOW 993 3.

Bardziej szczegółowo

Wyróżnić należy następujące sieci rekurencyjne: sieć Hopfielda, jej uogólnienie sieć BAM, sieć Hamminga oraz sieci rezonansowe.

Wyróżnić należy następujące sieci rekurencyjne: sieć Hopfielda, jej uogólnienie sieć BAM, sieć Hamminga oraz sieci rezonansowe. 1. Seć Hopfelda 1.1 Sec ze sprzężene zrotn Sec ze sprzężene zrotn torzą odrębną grupę sec neuronoch, stępuącą róneż pod nazą sec rekurencnch bądź asocacnch. Zaknęce pętl sprzężena zrotnego poodue, ż seć

Bardziej szczegółowo

Neural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych.

Neural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych. Neural networks Lecture Notes n Pattern Recognton by W.Dzwnel Krótka hstora McCulloch Ptts (1943) - perwszy matematyczny ops dzalana neuronu przetwarzana przez nego danych. Proste neurony, które mogly

Bardziej szczegółowo

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych Zaawansowane metody numeryczne Komputerowa analza zagadneń różnczkowych 1. Układy równań lnowych P. F. Góra http://th-www.f.uj.edu.pl/zfs/gora/ semestr letn 2006/07 Podstawowe fakty Równane Ax = b, x,

Bardziej szczegółowo

wiedzy Sieci neuronowe (c.d.)

wiedzy Sieci neuronowe (c.d.) Metody detekci uszkodzeń oparte na wiedzy Sieci neuronowe (c.d.) Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 8 Metody detekci uszkodzeń oparte na wiedzy Wprowadzenie

Bardziej szczegółowo

Temat: Operacje elementarne na wierszach macierzy

Temat: Operacje elementarne na wierszach macierzy Temat: Operacje elementarne na erszach macerzy Anna Rajfura Anna Rajfura Operacje elementarne na erszach macerzy n j m n A Typy operacj elementarnych. Zamana mejscam erszy oraz j, ozn.: j. Mnożene ersza

Bardziej szczegółowo

7. Wykład VII: Warunki Kuhna-Tuckera

7. Wykład VII: Warunki Kuhna-Tuckera Wocech Grega, Metody Optymalzac 7 Wykład VII: Warunk Kuhna-Tuckera 7 Warunk koneczne stnena ekstremum Rozważane est zadane z ogranczenam nerównoścowym w postac: mn F( x ) x X X o F( x ), o { R x : h n

Bardziej szczegółowo

Klasyfkator lnowy Wstęp Klasyfkator lnowy jest najprostszym możlwym klasyfkatorem. Zakłada on lnową separację lnowy podzał dwóch klas mędzy sobą. Przedstawa to ponższy rysunek: 5 4 3 1 0-1 - -3-4 -5-5

Bardziej szczegółowo

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311 Sztuczne sec neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyk, p. 311 Wykład 6 PLAN: - Repetto (brevs) - Sec neuronowe z radalnym funkcjam bazowym Repetto W aspekce archtektury: zajmowalśmy

Bardziej szczegółowo

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna. Sieci neuronowe model konekcjonistyczny Plan wykładu Mózg ludzki a komputer Modele konekcjonistycze Perceptron Sieć neuronowa Uczenie sieci Sieci Hopfielda Mózg ludzki a komputer Twój mózg to 00 000 000

Bardziej szczegółowo

n liczba zmiennych decyzyjnych c współczynniki funkcji celu a współczynniki przy zmienych decyzyjnych w warunkach

n liczba zmiennych decyzyjnych c współczynniki funkcji celu a współczynniki przy zmienych decyzyjnych w warunkach Problem decyzyny cel różne sposoby dzałana (decyze) warunk ogranczaące (determnuą zbór decyz dopuszczalnych) kryterum wyboru: umożlwa porównane efektywnośc różnych decyz dopuszczalnych z punktu wdzena

Bardziej szczegółowo

Analiza danych. Analiza danych wielowymiarowych. Regresja liniowa. Dyskryminacja liniowa. PARA ZMIENNYCH LOSOWYCH

Analiza danych. Analiza danych wielowymiarowych. Regresja liniowa. Dyskryminacja liniowa.   PARA ZMIENNYCH LOSOWYCH Analza danych Analza danych welowymarowych. Regresja lnowa. Dyskrymnacja lnowa. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ PARA ZMIENNYCH LOSOWYCH Parę zmennych losowych X, Y możemy

Bardziej szczegółowo

WikiWS For Business Sharks

WikiWS For Business Sharks WkWS For Busness Sharks Ops zadana konkursowego Zadane Opracowane algorytmu automatyczne przetwarzającego zdjęce odręczne narysowanego dagramu na tablcy lub kartce do postac wektorowej zapsanej w formace

Bardziej szczegółowo

Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu

Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu Wprowadzene do Sec Neuronowych Algorytm wstecznej propagacj błędu Maja Czoków, Jarosław Persa --6 Powtórzene. Perceptron sgmodalny Funkcja sgmodalna: σ(x) = + exp( c (x p)) Parametr c odpowada za nachylene

Bardziej szczegółowo

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia

Bardziej szczegółowo

Analiza danych OGÓLNY SCHEMAT. http://zajecia.jakubw.pl/ Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja)

Analiza danych OGÓLNY SCHEMAT. http://zajecia.jakubw.pl/ Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja) Analza danych Dane trenngowe testowe. Algorytm k najblższych sąsadów. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ OGÓLNY SCHEMAT Mamy dany zbór danych podzelony na klasy decyzyjne, oraz

Bardziej szczegółowo

Wykład 1 Zagadnienie brzegowe liniowej teorii sprężystości. Metody rozwiązywania, metody wytrzymałości materiałów. Zestawienie wzorów i określeń.

Wykład 1 Zagadnienie brzegowe liniowej teorii sprężystości. Metody rozwiązywania, metody wytrzymałości materiałów. Zestawienie wzorów i określeń. Wykład Zagadnene brzegowe lnowe teor sprężystośc. Metody rozwązywana, metody wytrzymałośc materałów. Zestawene wzorów określeń. Układ współrzędnych Kartezańsk, prostokątny. Ose x y z oznaczono odpowedno

Bardziej szczegółowo

Zapis informacji, systemy pozycyjne 1. Literatura Jerzy Grębosz, Symfonia C++ standard. Harvey M. Deitl, Paul J. Deitl, Arkana C++. Programowanie.

Zapis informacji, systemy pozycyjne 1. Literatura Jerzy Grębosz, Symfonia C++ standard. Harvey M. Deitl, Paul J. Deitl, Arkana C++. Programowanie. Zaps nformacj, systemy pozycyjne 1 Lteratura Jerzy Grębosz, Symfona C++ standard. Harvey M. Detl, Paul J. Detl, Arkana C++. Programowane. Zaps nformacj w komputerach Wszystke elementy danych przetwarzane

Bardziej szczegółowo

Plan wykładu. Sztuczne sieci neuronowe. Sieci rekurencyjne. Sieci rekurencyjne. Wykład 8: Sieci rekurencyjne: sie Hopfielda. Sieci rekurencyjne

Plan wykładu. Sztuczne sieci neuronowe. Sieci rekurencyjne. Sieci rekurencyjne. Wykład 8: Sieci rekurencyjne: sie Hopfielda. Sieci rekurencyjne Plan wykładu Wykład 8: Sec rekurencyne: se Hopfelda Małgorzata Krtowska Katedra Oprogramowana e-mal: mmac@.pb.balystok.pl Sec rekurencyne Se Hopfelda tryb odtwarzana funkca energ dynamka zman stanu wykorzystane

Bardziej szczegółowo

Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE

Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE Inormatyka Podstawy Programowana 06/07 Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE 6. Równana algebraczne. Poszukujemy rozwązana, czyl chcemy określć perwastk rzeczywste równana:

Bardziej szczegółowo

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311 Sztuczne sec neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyk, p. 311 Wykład 1 PLAN: Jak (klasyczne) komputery ocenaą flozofę Alberta Enstena Hstora korzene teor sztucznych sec neuronowych

Bardziej szczegółowo

BADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda

BADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda BADANIA OPERACYJNE Podejmowane decyzj w warunkach nepewnośc dr Adam Sojda Teora podejmowana decyzj gry z naturą Wynk dzałana zależy ne tylko od tego, jaką podejmujemy decyzję, ale równeż od tego, jak wystąp

Bardziej szczegółowo

UCHWAŁA NR 279/XVIII/2011 Rady Miasta Płocka z dnia 29 grudnia 2011 roku

UCHWAŁA NR 279/XVIII/2011 Rady Miasta Płocka z dnia 29 grudnia 2011 roku UCHWAŁA NR 279/XVIII/2011 Rady Masta Płocka z dna 29 grudna 2011 roku sprae ustalena Regulamnu przyznaana przekazyana stypendó mejskch dla ucznó szkół proadzonych lub dotoanych przez Masto Płock zameldoanych

Bardziej szczegółowo

I. Elementy analizy matematycznej

I. Elementy analizy matematycznej WSTAWKA MATEMATYCZNA I. Elementy analzy matematycznej Pochodna funkcj f(x) Pochodna funkcj podaje nam prędkość zman funkcj: df f (x + x) f (x) f '(x) = = lm x 0 (1) dx x Pochodna funkcj podaje nam zarazem

Bardziej szczegółowo

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska

Bardziej szczegółowo

u u u( x) u, x METODA RÓŻNIC SKOŃCZONYCH, METODA ELEMENTÓW BRZEGOWYCH i METODA ELEMENTÓW SKOŃCZONYCH

u u u( x) u, x METODA RÓŻNIC SKOŃCZONYCH, METODA ELEMENTÓW BRZEGOWYCH i METODA ELEMENTÓW SKOŃCZONYCH METODA RÓŻNIC SKOŃCZONYCH, METODA ELEMENTÓW BRZEGOWYCH METODA ELEMENTÓW SKOŃCZONYCH Szkc rozwązana równana Possona w przestrzen dwuwymarowe. Równane Possona to równae różnczkowe cząstkowe opsuące wele

Bardziej szczegółowo

Sieć neuronowa jako system ekspercki na rynku instrumentów pochodnych

Sieć neuronowa jako system ekspercki na rynku instrumentów pochodnych Rozdzał monograf: 'Bazy Danych: Rozó metod technoog', ozesk S., Małysak B., asprosk P., Mrozek D. (red.), WŁ 8.bdas.p Rozdzał 7 Seć neuronoa ako system eksperck na rynku nstrumentó pochodnych Streszczene.

Bardziej szczegółowo

KURS STATYSTYKA. Lekcja 6 Regresja i linie regresji ZADANIE DOMOWE. www.etrapez.pl Strona 1

KURS STATYSTYKA. Lekcja 6 Regresja i linie regresji ZADANIE DOMOWE. www.etrapez.pl Strona 1 KURS STATYSTYKA Lekcja 6 Regresja lne regresj ZADANIE DOMOWE www.etrapez.pl Strona 1 Część 1: TEST Zaznacz poprawną odpowedź (tylko jedna jest prawdzwa). Pytane 1 Funkcja regresj I rodzaju cechy Y zależnej

Bardziej szczegółowo

Plan wykładu. Sztuczne sieci neuronowe. Uczenie nienadzorowane (bez nauczyciela) Uczenie nienadzorowane - przykłady

Plan wykładu. Sztuczne sieci neuronowe. Uczenie nienadzorowane (bez nauczyciela) Uczenie nienadzorowane - przykłady Plan yładu Wyład 7: Sec samoorganzuące sę na zasadze spółzaodncta Sec samoorganzuace sę na zasadze spółzaodncta: uczene nenadzoroane uczene onurencyne reguła WTA reguła WTM antoane etoroe mapa cech Kohonena

Bardziej szczegółowo

Metody Sztucznej Inteligencji II

Metody Sztucznej Inteligencji II 17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału

Bardziej szczegółowo

Poszukiwanie optymalnego wyrównania harmonogramu zatrudnienia metodą analityczną

Poszukiwanie optymalnego wyrównania harmonogramu zatrudnienia metodą analityczną Mieczysław POŁOŃSKI Wydział Budownictwa i Inżynierii Środowiska, Szkoła Główna Gospodarstwa Wieskiego, Warszawa, ul. Nowoursynowska 159 e-mail: mieczyslaw_polonski@sggw.pl Poszukiwanie optymalnego wyrównania

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 8. SZTUCZNE SIECI NEURONOWE INNE ARCHITEKTURY Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska SIEĆ O RADIALNYCH FUNKCJACH BAZOWYCH

Bardziej szczegółowo

± Δ. Podstawowe pojęcia procesu pomiarowego. x rzeczywiste. Określenie jakości poznania rzeczywistości

± Δ. Podstawowe pojęcia procesu pomiarowego. x rzeczywiste. Określenie jakości poznania rzeczywistości Podstawowe pojęca procesu pomarowego kreślene jakośc poznana rzeczywstośc Δ zmerzone rzeczywste 17 9 Zalety stosowana elektrycznych przyrządów 1/ 1. możlwość budowy czujnków zamenających werne każdą welkość

Bardziej szczegółowo

Zaawansowane metody numeryczne

Zaawansowane metody numeryczne Wykład 9. jej modyfkacje. Oznaczena Będzemy rozpatrywać zagadnene rozwązana następującego układu n równań lnowych z n newadomym x 1... x n : a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x

Bardziej szczegółowo

Badania operacyjne w logistyce i zarządzaniu produkcją

Badania operacyjne w logistyce i zarządzaniu produkcją Państwowa Wyższa Szkoła Zawodowa w Nowym Sączu Badana operacyne w logstyce zarządzanu produkcą cz. I Andrze Woźnak Nowy Sącz Komtet Redakcyny doc. dr Zdzsława Zacłona przewodncząca, prof. dr hab. nż. Jarosław

Bardziej szczegółowo

2012-10-11. Definicje ogólne

2012-10-11. Definicje ogólne 0-0- Defncje ogólne Logstyka nauka o przepływe surowców produktów gotowych rodowód wojskowy Utrzyywane zapasów koszty zwązane.n. z zarożene kaptału Brak w dostawach koszty zwązane.n. z przestoje w produkcj

Bardziej szczegółowo

Wykład Turbina parowa kondensacyjna

Wykład Turbina parowa kondensacyjna Wykład 9 Maszyny ceplne turbna parowa Entropa Równane Claususa-Clapeyrona granca równowag az Dośwadczena W. Domnk Wydzał Fzyk UW ermodynamka 08/09 /5 urbna parowa kondensacyjna W. Domnk Wydzał Fzyk UW

Bardziej szczegółowo

W praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np.

W praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np. Wykład 7 Uwaga: W praktyce często zdarza sę, że wynk obu prób możemy traktować jako wynk pomarów na tym samym elemence populacj np. wynk x przed wynk y po operacj dla tego samego osobnka. Należy wówczas

Bardziej szczegółowo

Biblioteki w Devon Kwestionariusz konsultacyjny

Biblioteki w Devon Kwestionariusz konsultacyjny Bblotek Devon Kestorusz konsultacyny Chcelbyśmy pozć państa poglądy temat proponnych zman dotyczących obu dzała usług bblotych hrabste Devon. Opraclśmy sedem prop, które mał pły ły zakres czynnkó, m.n.:

Bardziej szczegółowo

Sortowanie szybkie Quick Sort

Sortowanie szybkie Quick Sort Sortowane szybke Quck Sort Algorytm sortowana szybkego opera sę na strateg "dzel zwycęża" (ang. dvde and conquer), którą możemy krótko scharakteryzować w trzech punktach: 1. DZIEL - problem główny zostae

Bardziej szczegółowo

Sieci Neuronowe 1 Michał Bereta

Sieci Neuronowe 1 Michał Bereta Wprowadzene Zagadnena Sztucznej Intelgencj laboratorum Sec Neuronowe 1 Mchał Bereta Sztuczne sec neuronowe można postrzegać jako modele matematyczne, które swoje wzorce wywodzą z bolog obserwacj ludzkch

Bardziej szczegółowo

Proces narodzin i śmierci

Proces narodzin i śmierci Proces narodzn śmerc Jeżel w ewnej oulacj nowe osobnk ojawają sę w sosób losowy, rzy czym gęstość zdarzeń na jednostkę czasu jest stała w czase wynos λ, oraz lczba osobnków n, które ojawły sę od chwl do

Bardziej szczegółowo

Zestaw zadań 4: Przestrzenie wektorowe i podprzestrzenie. Liniowa niezależność. Sumy i sumy proste podprzestrzeni.

Zestaw zadań 4: Przestrzenie wektorowe i podprzestrzenie. Liniowa niezależność. Sumy i sumy proste podprzestrzeni. Zestaw zadań : Przestrzene wektorowe podprzestrzene. Lnowa nezależność. Sumy sumy proste podprzestrzen. () Wykazać, że V = C ze zwykłym dodawanem jako dodawanem wektorów operacją mnożena przez skalar :

Bardziej szczegółowo

Układ realizujący funkcję AND

Układ realizujący funkcję AND Zadane 5. Zaprojekoać spradzć dzałane synchroncznych asynchroncznych rejesró akumulaora umożlających realzację operacj: odejmoana arymeycznego, AN, NOT, EX-OR. C x b C odoane: a a : odejmoane A-B, A AN

Bardziej szczegółowo

Instrukcja do ćwiczeń laboratoryjnych z przedmiotu: Badania operacyjne. Temat ćwiczenia: Problemy rozkroju materiałowego, zagadnienia dualne

Instrukcja do ćwiczeń laboratoryjnych z przedmiotu: Badania operacyjne. Temat ćwiczenia: Problemy rozkroju materiałowego, zagadnienia dualne Instrukca do ćwczeń laboratorynych z przedmotu: Badana operacyne Temat ćwczena: Problemy rozkrou materałowego, zagadnena dualne Zachodnopomorsk Unwersytet Technologczny Wydzał Inżyner Mechanczne Mechatronk

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6 Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Zastosowane modelu potęgowego Przekształcene Boxa-Coxa 2. Zmenne cągłe za zmenne dyskretne 3. Interpretacja parametrów przy zmennych dyskretnych 1. Zastosowane

Bardziej szczegółowo

Sztuczne sieci neuronowe. Reguła perceptronowa. Nadzorowany proces nauki. Zasada uczenia. Zasada uczenia. dr inŝ. Stefan Brock 2007/2008 1

Sztuczne sieci neuronowe. Reguła perceptronowa. Nadzorowany proces nauki. Zasada uczenia. Zasada uczenia. dr inŝ. Stefan Brock 2007/2008 1 Sztuczne sec neuronoe.stefanbroc.neostrada.pl dr nŝ. Stefan Broc Plan ładó. Wproadzene, modele neuronó, uład perceptronoe, uczene neuronó. Uczene sec neuronoch, metoda steczne propagac błędó, nne metod

Bardziej szczegółowo

1. Wstęp. 2. Macierz admitancyjna.

1. Wstęp. 2. Macierz admitancyjna. 1. Wstęp. Znaomość stanu pracy SEE est podstawowym zagadnenem w sterowanu pracą systemu na wszystkch etapach: proektowana, rozwou, planowana stanów pracy oraz w czase beżące eksploatac. Kontrola rozpływów

Bardziej szczegółowo

Badanie współzależności dwóch cech ilościowych X i Y. Analiza korelacji prostej

Badanie współzależności dwóch cech ilościowych X i Y. Analiza korelacji prostej Badane współzależnośc dwóch cech loścowych X Y. Analza korelacj prostej Kody znaków: żółte wyróżnene nowe pojęce czerwony uwaga kursywa komentarz 1 Zagadnena 1. Zwązek determnstyczny (funkcyjny) a korelacyjny.

Bardziej szczegółowo

11/22/2014. Jeśli stała c jest równa zero to takie gry nazywamy grami o sumie zerowej.

11/22/2014. Jeśli stała c jest równa zero to takie gry nazywamy grami o sumie zerowej. /22/24 Dwuosobowe gry o sume zero DO NAUCZENIA I ZAPAMIĘTANIA: Defnca zaps ger o sume zero, adaptaca ogólnych defnc. Punkt sodłowy Twerdzena o zwązkach punktu sodłowego z koncepcam rozwązań PRZYPOMNIENIE:

Bardziej szczegółowo

Ciepło topnienia lodu

Ciepło topnienia lodu Cepło topnena lodu CELE SPIS TREŚCI Obseracja procesu ymany energ toarzyszącego zmane stanu skupena - topnenu. Pomary zman temperatury ody trakce topnena proadzonej do nej znanej masy lodu. Uzyskane dane

Bardziej szczegółowo

Diagnostyka układów kombinacyjnych

Diagnostyka układów kombinacyjnych Dagnostyka układów kombnacyjnych 1. Wprowadzene Dagnostyka obejmuje: stwerdzene stanu układu, systemu lub ogólne sec logcznej. Jest to tzw. kontrola stanu wykrywająca czy dzałane sec ne jest zakłócane

Bardziej szczegółowo

5. Pochodna funkcji. lim. x c x c. (x c) = lim. g(c + h) g(c) = lim

5. Pochodna funkcji. lim. x c x c. (x c) = lim. g(c + h) g(c) = lim 5. Pocodna funkcj Defncja 5.1 Nec f: (a, b) R nec c (a, b). Jeśl stneje granca lm x c x c to nazywamy ją pocodną funkcj f w punkce c oznaczamy symbolem f (c) Twerdzene 5.1 Jeśl funkcja f: (a, b) R ma pocodną

Bardziej szczegółowo

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe wykład 1. Właściwości sieci neuronowych Model matematyczny sztucznego neuronu Rodzaje sieci neuronowych Przegląd d głównych g

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 15. ALGORYTMY GENETYCZNE Częstochowa 014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska TERMINOLOGIA allele wartośc, waranty genów, chromosom - (naczej

Bardziej szczegółowo

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych. Wstęp do teorii sztucznej inteligencji Wykład III Modele sieci neuronowych. 1 Perceptron model najprostzszy przypomnienie Schemat neuronu opracowany przez McCullocha i Pittsa w 1943 roku. Przykład funkcji

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6 Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Zastosowane modelu potęgowego Model potęgowy Przekształcene Boxa-Coxa 2. Zmenne cągłe za zmenne dyskretne 3. Interpretacja parametrów przy zmennych dyskretnych

Bardziej szczegółowo

Wielokategorialne systemy uczące się i ich zastosowanie w bioinformatyce. Rafał Grodzicki

Wielokategorialne systemy uczące się i ich zastosowanie w bioinformatyce. Rafał Grodzicki Welokategoralne systemy uząe sę h zastosowane w bonformatye Rafał Grodzk Welokategoralny system uząy sę (multlabel learnng system) Zbór danyh weśowyh: d X = R Zbór klas (kategor): { 2 } =...Q Zbór uząy:

Bardziej szczegółowo

Wyrównanie spostrzeżeń pośrednich. Spostrzeżenia jednakowo dokładne

Wyrównanie spostrzeżeń pośrednich. Spostrzeżenia jednakowo dokładne Wyrónane spostrzeżeń pośrednch Szukay : X, Y, Z, T (elkośc pradze) Merzyy L, L, L,L n (spostrzeżena erzone bezpośredno pośrednczą yznaczenu x, y, z, t ) Spostrzeżena jednakoo dokładne Wyrónane polega na:

Bardziej szczegółowo

MECHANIKA BUDOWLI 13

MECHANIKA BUDOWLI 13 1 Oga Kopacz, Adam Łodygos, Krzysztof ymper, chał Płotoa, Wocech Pałos Konsutace nauoe: prof. dr hab. JERZY RAKOWSKI Poznań 00/00 ECHANIKA BUDOWLI 1 Ugęca bee drgaących. Wzory transformacyne bee o cągłym

Bardziej szczegółowo

Macierz prawdopodobieństw przejścia w pojedynczym kroku dla łańcucha Markowa jest postaci

Macierz prawdopodobieństw przejścia w pojedynczym kroku dla łańcucha Markowa jest postaci Zadane. Macerz radoodobeńst rzejśca ojedynczym kroku dla łańcucha Markoa...... o trzech stanach { } jest ostac 0 n 0 0 (oczyśce element stojący -tym erszu j -tej kolumne tej macerzy oznacza P( = j. Wtedy

Bardziej szczegółowo

1. Logika, funkcje logiczne, preceptron.

1. Logika, funkcje logiczne, preceptron. Sieci neuronowe 1. Logika, funkcje logiczne, preceptron. 1. (Logika) Udowodnij prawa de Morgana, prawo pochłaniania p (p q), prawo wyłączonego środka p p oraz prawo sprzeczności (p p). 2. Wyraź funkcję

Bardziej szczegółowo

Wstęp do metod numerycznych Faktoryzacja SVD Metody iteracyjne. P. F. Góra

Wstęp do metod numerycznych Faktoryzacja SVD Metody iteracyjne. P. F. Góra Wstęp do metod numerycznych Faktoryzacja SVD Metody teracyjne P. F. Góra http://th-www.f.uj.edu.pl/zfs/gora/ 2013 Sngular Value Decomposton Twerdzene 1. Dla każdej macerzy A R M N, M N, stneje rozkład

Bardziej szczegółowo

Algorytmy. i podstawy programowania. eci. Proste algorytmy sortowania tablic. 4. Wskaźniki i dynamiczna alokacja pami

Algorytmy. i podstawy programowania. eci. Proste algorytmy sortowania tablic. 4. Wskaźniki i dynamiczna alokacja pami MAREK GAGOLEWSKI INSTYTUT BADAŃ SYSTEMOWYCH PAN Algorytmy podstawy programowana 4. Wskaźnk dynamczna alokaca pam ec. Proste algorytmy sortowana tablc Matera ly dydaktyczne dla studentów matematyk na Wydzale

Bardziej szczegółowo

Konstrukcja gier sprawiedliwych i niesprawiedliwych poprzez. określanie prawdopodobieństwa.

Konstrukcja gier sprawiedliwych i niesprawiedliwych poprzez. określanie prawdopodobieństwa. Fundacja Centrum Edukacj Obyatelskej, ul. Noakoskego 10, 00-666 Warszaa, e-mal: ceo@ceo.org.l; Akadema ucznoska, Tel. 22 825 04 96, e-mal: au@ceo.org.l; ęcej nformacj:.akademaucznoska.l 1 Konstrukcja ger

Bardziej szczegółowo

Natalia Nehrebecka. Wykład 2

Natalia Nehrebecka. Wykład 2 Natala Nehrebecka Wykład . Model lnowy Postad modelu lnowego Zaps macerzowy modelu lnowego. Estymacja modelu Wartośd teoretyczna (dopasowana) Reszty 3. MNK przypadek jednej zmennej . Model lnowy Postad

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH

STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH 1 Test zgodnośc χ 2 Hpoteza zerowa H 0 ( Cecha X populacj ma rozkład o dystrybuance F). Hpoteza alternatywna H1( Cecha X populacj

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 7

Stanisław Cichocki. Natalia Nehrebecka. Wykład 7 Stansław Cchock Natala Nehrebecka Wykład 7 1 1. Zmenne cągłe a zmenne dyskretne 2. Interpretacja parametrów przy zmennych dyskretnych 1. Zmenne cągłe a zmenne dyskretne 2. Interpretacja parametrów przy

Bardziej szczegółowo

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych Najprostsza jest jednostka lnowa: Neuron lnowy potraf ona rozpoznawać wektor wejścowy X = (x 1, x 2,..., x n ) T zapamętany we współczynnkach wagowych W = (w 1, w 2,..., w n ), Zauważmy, że y = W X Załóżmy,

Bardziej szczegółowo

Przykład 5.1. Kratownica dwukrotnie statycznie niewyznaczalna

Przykład 5.1. Kratownica dwukrotnie statycznie niewyznaczalna rzykład.. Kratownca dwukrotne statyczne newyznaczana oecene: korzystaąc z metody sł wyznaczyć sły w prętach ponższe kratowncy. const Rozwązane zadana rozpoczynamy od obczena stopna statyczne newyznaczanośc

Bardziej szczegółowo

BADANIA OPERACYJNE ANALITYKA GOSPODARCZA

BADANIA OPERACYJNE ANALITYKA GOSPODARCZA BADANIA OPERACYJNE ANALITYKA GOSPODARCZA Egzamin pisemny 8.4.7 piątek, salae-6, godz. 8:-9:3 OBECNOŚĆ OBOWIĄZKOWA!!! Układ egzaminu. TEST z teorii: minut (test wielostronnego wyboru; próg 75%). ZADANIA:

Bardziej szczegółowo

METODA UNITARYZACJI ZEROWANEJ Porównanie obiektów przy ocenie wielokryterialnej. Ranking obiektów.

METODA UNITARYZACJI ZEROWANEJ Porównanie obiektów przy ocenie wielokryterialnej. Ranking obiektów. Opracowane: Dorota Mszczyńska METODA UNITARYZACJI ZEROWANEJ Porównane obektów przy ocene welokryteralnej. Rankng obektów. Porównane wybranych obektów (warantów decyzyjnych) ze względu na różne cechy (krytera)

Bardziej szczegółowo

Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych

Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych Uniersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Steroania i Systemó Informatycznych ELEMENTY SZTUCZNEJ INTELIGENCJI Semestr letni 2010 Laboratorium nr 4 LINIOWE

Bardziej szczegółowo

Pojęcia. 1. pole powierzchni (object specific area) [F] Suma pól pikseli w wyróżnionym obiekcie/profilu.

Pojęcia. 1. pole powierzchni (object specific area) [F] Suma pól pikseli w wyróżnionym obiekcie/profilu. Pojęca 1. pole poerzchn (object specfc area) [] uma pól pksel yróżnonym obekce/proflu.. pole poerzchn całego obektu (total object specfc area) [ t ] uma pół pksel yróżnonym obekce po ypełnenu dzur. 3.

Bardziej szczegółowo

XLI OLIMPIADA FIZYCZNA ETAP WSTĘPNY Zadanie teoretyczne

XLI OLIMPIADA FIZYCZNA ETAP WSTĘPNY Zadanie teoretyczne XLI OLIMPIADA FIZYCZNA ETAP WSTĘPNY Zadane teoretyczne Rozwąż dowolne rzez sebe wybrane dwa sośród odanych nże zadań: ZADANIE T Nazwa zadana: Protony antyrotony A. Cząstk o mase równe mase rotonu, ale

Bardziej szczegółowo

Procedura normalizacji

Procedura normalizacji Metody Badań w Geograf Społeczno Ekonomcznej Procedura normalzacj Budowane macerzy danych geografcznych mgr Marcn Semczuk Zakład Przedsęborczośc Gospodark Przestrzennej Instytut Geograf Unwersytet Pedagogczny

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6 Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Interpretacja parametrów przy zmennych objaśnających cągłych Semelastyczność 2. Zastosowane modelu potęgowego Model potęgowy 3. Zmenne cągłe za zmenne dyskretne

Bardziej szczegółowo

RUCH OBROTOWY Można opisać ruch obrotowy ze stałym przyspieszeniem ε poprzez analogię do ruchu postępowego jednostajnie zmiennego.

RUCH OBROTOWY Można opisać ruch obrotowy ze stałym przyspieszeniem ε poprzez analogię do ruchu postępowego jednostajnie zmiennego. RUCH OBROTOWY Można opsać ruch obrotowy ze stałym przyspeszenem ε poprzez analogę do ruchu postępowego jednostajne zmennego. Ruch postępowy a const. v v at s s v t at Ruch obrotowy const. t t t Dla ruchu

Bardziej szczegółowo

Modele wieloczynnikowe. Modele wieloczynnikowe. Modele wieloczynnikowe ogólne. α β β β ε. Analiza i Zarządzanie Portfelem cz. 4.

Modele wieloczynnikowe. Modele wieloczynnikowe. Modele wieloczynnikowe ogólne. α β β β ε. Analiza i Zarządzanie Portfelem cz. 4. Modele weloczynnkowe Analza Zarządzane Portfelem cz. 4 Ogólne model weloczynnkowy można zapsać jako: (,...,,..., ) P f F F F = n Dr Katarzyna Kuzak lub (,...,,..., ) f F F F = n Modele weloczynnkowe Można

Bardziej szczegółowo

(Dantzig G. B. (1963))

(Dantzig G. B. (1963)) (Dantzig G.. (1963)) Uniwersalna metoda numeryczna dla rozwiązywania zadań PL. Ideą metody est uporządkowany przegląd skończone ilości rozwiązań bazowych układu ograniczeń, które możemy utożsamiać, w przypadku

Bardziej szczegółowo

Twierdzenie Bezouta i liczby zespolone Javier de Lucas. Rozwi azanie 2. Z twierdzenia dzielenia wielomianów, mamy, że

Twierdzenie Bezouta i liczby zespolone Javier de Lucas. Rozwi azanie 2. Z twierdzenia dzielenia wielomianów, mamy, że Twerdzene Bezouta lczby zespolone Javer de Lucas Ćwczene 1 Ustal dla których a, b R można podzelć f 1 X) = X 4 3X 2 + ax b przez f 2 X) = X 2 3X+2 Oblcz a b Z 5 jeżel zak ladamy, że f 1 f 2 s a welomanam

Bardziej szczegółowo

Plan wykładu: Typowe dane. Jednoczynnikowa Analiza wariancji. Zasada: porównać zmienność pomiędzy i wewnątrz grup

Plan wykładu: Typowe dane. Jednoczynnikowa Analiza wariancji. Zasada: porównać zmienność pomiędzy i wewnątrz grup Jednoczynnkowa Analza Waranc (ANOVA) Wykład 11 Przypomnene: wykłady zadana kursu były zaczerpnęte z podręcznków: Statystyka dla studentów kerunków techncznych przyrodnczych, J. Koronack, J. Melnczuk, WNT

Bardziej szczegółowo

Hipotezy o istotności oszacowao parametrów zmiennych objaśniających ˆ ) ˆ

Hipotezy o istotności oszacowao parametrów zmiennych objaśniających ˆ ) ˆ WERYFIKACJA HIPOTEZY O ISTOTNOŚCI OCEN PARAMETRÓW STRUKTURALNYCH MODELU Hpoezy o sonośc oszacowao paramerów zmennych objaśnających Tesowane sonośc paramerów zmennych objaśnających sprowadza sę do nasępującego

Bardziej szczegółowo

Podstawy Sztucznej Inteligencji (PSZT)

Podstawy Sztucznej Inteligencji (PSZT) Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12

Bardziej szczegółowo

Uczenie sieci typu MLP

Uczenie sieci typu MLP Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik

Bardziej szczegółowo

Zadane 1: Wyznacz średne ruchome 3-okresowe z następujących danych obrazujących zużyce energ elektrycznej [kwh] w pewnym zakładze w mesącach styczeń - lpec 1998 r.: 400; 410; 430; 40; 400; 380; 370. Zadane

Bardziej szczegółowo