Sztuczne sieci neuronowe. Reguła perceptronowa. Nadzorowany proces nauki. Zasada uczenia. Zasada uczenia. dr inŝ. Stefan Brock 2007/2008 1
|
|
- Irena Orłowska
- 8 lat temu
- Przeglądów:
Transkrypt
1 Sztuczne sec neuronoe.stefanbroc.neostrada.pl dr nŝ. Stefan Broc Plan ładó. Wproadzene, modele neuronó, uład perceptronoe, uczene neuronó. Uczene sec neuronoch, metoda steczne propagac błędó, nne metod uczena. 3. Zastosoane sec neuronoch uładach steroana, modeloane sec neuronoch Matlabe 4. Sec las ANFIS, spółdzałane sec neuronoch nnch metod ntelgenc oblczenoe Nadzoroan proces nau Reguła perceptronoa - Wberz losoo ag początoe - Podaa losoo brane olenosc zorce x 3 - Modfu ag stosuąc regułę delta: (t+) (t) + η*err * x gdze err (śce_zorcoe - śce_atualne ) 0<η < - spólcznn szbosc uczena 4 - Potarza ro 3 aŝ do osągnęca rterum ońca (zbeŝność, masmalna lość terac) Zasada uczena Ogólna zasada nau dla sec neuronoch: Wetor ag [... n ] rośne proporconalne do locznu sgnału eścoego x uczącego r Zasada uczena + + η * r(, x, d ) * Dla reguł perceptronoe: def r d x Sgnał ucząc rr(,x,d ) dr nŝ. Stefan Broc 007/008
2 Cągła reguła perceptronoa - reguła delta Dla neuronó o cągłe róŝnczoalne func atac: r def [ d f ( x)]* f ( x) η *( d )* f ( net )* x t t Oblczane pochodne func atac Dla bpolarne func atac: f ( net) f ( net) + e λ * net ( ) Reguła delta dla arst neuronó Seć sładaąca sę z cągłch neuronó: z Γ[ W] [ z [ z z ] z J ] W M M O J J M J Inputs p p p 3 p R, S, R aer of S Neurons n f Σ b n Σ f b b S n S Σ f a a a S a f(wp + b) f ( ) 0 Γ( ) M 0 0 f ( ) M 0 PoŜądan sgnał śco: [ d dd O d ] 0 0 M f ( ) Błąd lasfac ednego obrazu eścoego E l ( d z ) l l Wartośc ag mnmalzuące błąd E l Sgnał błędu -tego neuronu z d l z η * l dr nŝ. Stefan Broc 007/008
3 PoneaŜ: net * Węc raŝene na orecę ag ma postać: +η z W W +η,,...,,,...,j t z z Błąd -tego neuronu net z z ( d z ) net ( d ( d ( d z ) * f ( net ) z ) *( z ) z z ) net Dla bpolarne, sgmodalne func atac Algortm uczena arst neuronó Dane - zesta par uczącch: {,d,,d,..., p,d p } (J*) d (*). Wbór η>0, E max >0. oso bór macerz W (*J) 3. l:0 E:0 4. : l d:d l z :f ( *) 5. +/* η*(d -z )(-z ) 6. Algortm uczena arst neuronó E : E + ( d z ) 7. Jezel l<p to l:l+, so do rou Zaonczene clu uczena (epo). Gd E<E max to onec, gd ne, to so do rou 3. Uogólnona reguła delta Seć duarstoa: arsta urta arsta ścoa. z Γ[ W] Γ[ WΓ[ Vx]] x ] [ x xx I V M J M J O I I M JI dr nŝ. Stefan Broc 007/008 3
4 Analogczna metoda gradentoa η * +η x Sgnał błędu neuronu arst urte Wśce -tego neuronu arst urte pła na błęd szstch neuronó arst ścoe f net ) ( V V +η x t Sgnał błędu neuronu arst urte ( d z ) z ( d z ) f [ net ( )] Wzór steczne propagac błędu + η * f ( net ) * x * z Ilustraca - nndsd.m dr nŝ. Stefan Broc 007/008 4
5 Wsteczna propagaca Matlabe % metoda steczne propagac bledu x[- - ; ]; % esca d[- - ]; % artosc oczeane net neff(mnmax(x),[3,],{'tansg','pureln'},'trangd'); net.tranparam.sho50; % setlana trace nau net.tranparam.lr0.05; % spolczn szbosc nau net.tranparam.epochs300; % masmalna losc epo net.tranparam.goale-5; % zadana doladnosc [net,tr]tran(net,x,d); % uczene sec asm(net,x) Wsteczna propagaca Matlabe >> nn_sb_ RAINGD, Epoch 0/300, MSE.5943/e-005, Gradent.76799/e- 00 RAINGD, Epoch 50/300, MSE /e-005, Gradent /e-00 RAINGD, Epoch 00/300, MSE /e-005, Gradent 0.060/e-00 RAINGD, Epoch 50/300, MSE e-005/e-005, Gradent /e-00 RAINGD, Epoch 00/300, MSE.4504e-005/e-005, Gradent /e-00 RAINGD, Epoch /300, MSE e-006/e-005, Gradent /e-00 RAINGD, Performance goal met. a Wsteczna propagaca Matlabe Metod popra procesu uczena Metod heurstczne metoda momentum metoda zmennego spółcznna szbośc nau metoda podatne steczne propagac Metod optmalzacne metoda gradentó sprzęŝonch metod quas-netonose Metoda momentum Nadane punto reprezentuącemu ag mas (bezładnośc) +η z Wpł spółcznna momentum α η ro n η z 0 < α < + α n Ilustraca - nndmo.m dr nŝ. Stefan Broc 007/008 5
6 Wpł spółcznna momentum % metoda steczne propagac bledu + metoda momentum x[- - ; ]; % esca d[- - ]; % artosc oczeane net neff(mnmax(x),[3,],{'tansg','pureln'},'trangdm'); net.tranparam.sho50; % setlana trace nau net.tranparam.lr0.05; % spolczn szbosc nau net.tranparam.epochs300; % masmalna losc epo net.tranparam.goale-5; % zadana doladnosc Wpł spółcznna momentum net.tranparam.mc0.9; % spolczn momentum [net,tr]tran(net,x,d); % uczene sec asm(net,x) Metoda zmennego spółcznna szbośc nau Adaptacna zmana spółcznn szbośc uczena a b uzsać moŝle duŝ spółcznn stabln proces nau Gd błąd olene epoce est ęsz nŝ poprzedno o ęce nz zdefnoana artość, spółcznn szbośc est zmneszan. Metoda zmennego spółcznna szbośc nau % metoda steczne propagac bledu z adaptacna zmana spolcznna x[- - ; ]; % esca d[- - ]; % artosc oczeane net neff(mnmax(x),[3,],{'tansg','pureln'},'trangda'); net.tranparam.sho50; % setlana trace nau net.tranparam.lr0.05; % spolczn szbosc nau net.tranparam.epochs300; % masmalna losc epo net.tranparam.goale-5; % zadana doladnosc net.tranparam.lr_nc.05; % spolczn zman szbosc nau [net,tr]tran(net,x,d); % uczene sec asm(net,x) Metoda zmennego spółcznna szbośc nau Metoda podatne steczne propagac Funca sgmodalna daleo od zera ma bardzo małe nachlene W efece tam przpadu naua przebega olno W metodze podatne pochodna func atac decdue tlo o znau zman etora ag. Wartość zman est ustaana adaptacne, ta b zapenć stablność. dr nŝ. Stefan Broc 007/008 6
7 Metoda podatne steczne propagac % metoda podatne steczne propagac bledu x[- - ; ]; % esca d[- - ]; % artosc oczeane net neff(mnmax(x),[3,],{'tansg','pureln'},'tranrp'); net.tranparam.sho0; % setlana trace nau net.tranparam.epochs300; % masmalna losc epo net.tranparam.goale-5; % zadana doladnosc [net,tr]tran(net,x,d); % uczene sec Metoda podatne steczne propagac asm(net,x) Metoda gradentó sprzęŝonch Metoda delta est metodą gradentoą - znacza sę erune poszuań porusza tm erunu (strom anon) Metod gradentó sprzęŝonch ntelgentne beraą erune poszuań. Jedna z nalepszch - metoda Polaa-Rbere a Metoda Polaa- Rbere a W sróce: orzon est cąg etoró g erunó poszuań h, ta Ŝe h są zaemne sprzęŝone. Gd optmalzoana funca n-maroa moŝe bć przedstaona ao forma adratoa, to mnmalzaca zdłuŝ n erunó h proadz do mnmum. Metoda Polaa- Rbere a % metoda gradentó sprzezonch Polaa-Rbre'a x[- - ; ]; % esca d[- - ]; % artosc oczeane net neff(mnmax(x),[3,],{'tansg','pureln'},'trancgp'); net.tranparam.sho0; % setlana trace nau net.tranparam.epochs300; % masmalna losc epo net.tranparam.goale-5; % zadana doladnosc [net,tr]tran(net,x,d); % uczene sec Metoda Polaa- Rbere a asm(net,x) dr nŝ. Stefan Broc 007/008 7
8 Metod quas-netonose Metoda optmalzac Netona - efetna, lecz maga lczena hesanu (macerz drugch pochodnch) func atac. Metod quas-netonose -bez lczena hesanu Napopularnesza - metoda BFGS Metod quas-netonose % metoda quas Netonosa BFGS x[- - ; ]; % esca d[- - ]; % artosc oczeane net neff(mnmax(x),[3,],{'tansg','pureln'},'tranbfg'); net.tranparam.sho0; % setlana trace nau net.tranparam.epochs300; % masmalna losc epo net.tranparam.goale-5; % zadana doladnosc [net,tr]tran(net,x,d); % uczene sec asm(net,x) Metoda quas-netonosa -BFGS Metoda aenberga-marquadta Aprosmaca hesanu poprzez aoban HJ *J Jest to naszbsz algortm uczena przedstaanch sec o średnm rozmarze (do luset ag) bardzo efetna mplementaca Matlabe Ilustraca - nndm.m Metoda aenberga-marquadta % metoda aenberga - Marquardta x[- - ; ]; % esca d[- - ]; % artosc oczeane net neff(mnmax(x),[3,],{'tansg','pureln'},'tranlm'); net.tranparam.sho0; % setlana trace nau net.tranparam.epochs300; % masmalna losc epo net.tranparam.goale-5; % zadana doladnosc [net,tr]tran(net,x,d); % uczene sec Metoda aenberga-marquadta asm(net,x) dr nŝ. Stefan Broc 007/008 8
9 Unane mnmó loalnch Potarzane testó Smuloane Ŝarzane Optmalzaca genetczna dr nŝ. Stefan Broc 007/008 9
Literatura SZTUCZNE SIECI NEURONOWE. Mózg/komputer jak to działa? MÓZG WZORZEC DOSKONAŁY KOMPUTER TWÓR DOSKONALONY SSN niekonwencjonalne przetwarzanie
007--06 SZTUCZNE SIECI NEURONOWE Archtektura Tp Przeznaczene Procedur uczena Zastosoana Lteratura. J. śurada, M. Barsk, W. Jędruch, Sztuczne sec neuronoe, PWN 996. R. Tadeusecz, Sec neuronoe, AOW 993 3.
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 5. SZTUCZNE SIECI NEURONOWE REGRESJA Częstochowa 4 Dr hab. nż. Grzegorz Dudek Wdzał Elektrczn Poltechnka Częstochowska PROBLEM APROKSYMACJI FUNKCJI Aproksmaca funkc przblżane
Plan wykładu. Sztuczne sieci neuronowe. Uczenie nienadzorowane (bez nauczyciela) Uczenie nienadzorowane - przykłady
Plan yładu Wyład 10: Sec samoorganzuce s na zasadze spółzaodncta Sec samoorganzuace s na zasadze spółzaodncta: uczene nenadzoroane uczene onurencyne reguła WTA reguła WTM antoane etoroe mapa cech Kohonena
Wykład 2: Uczenie nadzorowane sieci neuronowych - I
Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za
Wykład 2: Uczenie nadzorowane sieci neuronowych - I
Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za
Plan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty)
Plan wykładu Dzałane neuronu dyskretnego warstwy neuronów dyskretnych Wykład : Reguły uczena sec neuronowych. Sec neuronowe ednokerunkowe. Reguła perceptronowa Reguła Wdrowa-Hoffa Reguła delta ałgorzata
SYSTEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE METODY KLASYFIKACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.
SYSEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE MEODY KLASYFIKACJI Częstochowa 4 Dr hab. nż. Grzegorz Dude Wydzał Eletryczny Poltechna Częstochowsa FUNKCJE FISHEROWSKA DYSKRYMINACYJNE DYSKRYMINACJA I MASZYNA LINIOWA
max Wydział Elektroniki studia I st. Elektronika III r. EZI Technika optymalizacji Dr inż. Ewa Szlachcic
Zadane rograowana lnowego PL dla ogranczeń neszoścowch rz ogranczenach: a f c A b d =n, d c=n, d A =[ n], d b =, Postać anonczna zadana PL a c X : A b, Postać anonczna acerzowa zadana PL a Lczba zennch
Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB
Rozwązywane zadań optymalzacj w środowsku programu MATLAB Zagadnene optymalzacj polega na znajdowanu najlepszego, względem ustalonego kryterum, rozwązana należącego do zboru rozwązań dopuszczalnych. Standardowe
ż Ę ń Ś ó ź ó ń Ę ó ó ź ó Ń ó ó ż ż ó ż ń ó ć ń ź ó ó ó Ę Ę ó ź ó ó Ł Ł Ą Ś ó ń ó ń ó Ł Ł ó ó ó ń Ś Ń ń ń ó ó Ś ó ć ó Ą Ą ń ć ć ó ż ó ć Ł ó ń ó ó ż ó ó ć ż ż Ą ż ń ó Śó ó ó ó ć ć ć ń ó ć Ś ć ó ó ż ó ó
Sztuczne sieci neuronowe
Sztuczne sec neuronoe model konekconstyczny 2 Plan ykładu Geneza modelu konekconstycznego Głóne cechy Model sztucznego neuronu Archtektury sec neuronoych Proces uczena sę sec Uczene poedynczego neuronu
Nieliniowe zadanie optymalizacji bez ograniczeń numeryczne metody iteracyjne optymalizacji
Nelnowe zadane optymalzacj bez ogranczeń numeryczne metody teracyjne optymalzacj mn R n f ( ) = f Algorytmy poszuwana mnmum loalnego zadana programowana nelnowego: Bez ogranczeń Z ogranczenam Algorytmy
Wyróżnić należy następujące sieci rekurencyjne: sieć Hopfielda, jej uogólnienie sieć BAM, sieć Hamminga oraz sieci rezonansowe.
1. Seć Hopfelda 1.1 Sec ze sprzężene zrotn Sec ze sprzężene zrotn torzą odrębną grupę sec neuronoch, stępuącą róneż pod nazą sec rekurencnch bądź asocacnch. Zaknęce pętl sprzężena zrotnego poodue, ż seć
Sztuczne sieci neuronowe
Sztuczne sec neuronowe Jerzy Stefanowsk Plan wykładu 1. Wprowadzene 2. Model sztucznego neuronu. 3. Topologe sec neuronowych 4. Reguły uczena sec neuronowych. 5. Klasyfkaca sec neuronowych. 6. Sec warstwowe
Sztuczna Inteligencja Tematy projektów Sieci Neuronowe
PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia
Pattern Classification
Pattern Classification All materials in these slides were taen from Pattern Classification (2nd ed) by R. O. Duda, P. E. Hart and D. G. Stor, John Wiley & Sons, 2000 with the permission of the authors
Zadanie 1. Rzucamy symetryczną monetą tak długo, aż w dwóch kolejnych rzutach pojawią się,,reszki. Oblicz wartość oczekiwaną liczby wykonanych rzutów.
Pradopodobeństo statystya 6..3r. Zadae. Rzucamy symetryczą moetą ta długo aż dóch olejych rzutach pojaą sę resz. Oblcz artość oczeaą lczby yoaych rzutó. (A) 7 (B) 8 (C) 9 (D) (E) 6 Wsazóa: jeśl rzuce umer
Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311
Sztuczne sec neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyk, p. 311 Wykład 1 PLAN: Jak (klasyczne) komputery ocenaą flozofę Alberta Enstena Hstora korzene teor sztucznych sec neuronowych
Sztuczne sieci neuronowe
Sztuczne sec neuronoe model konekconstyczny 2 Plan ykładu Geneza modelu konekconstycznego Głóne cechy Model sztucznego neuronu Archtektury sec neuronoych Proces uczena sę sec Uczene poedynczego neuronu
MECHANIKA BUDOWLI 13
1 Oga Kopacz, Adam Łodygos, Krzysztof ymper, chał Płotoa, Wocech Pałos Konsutace nauoe: prof. dr hab. JERZY RAKOWSKI Poznań 00/00 ECHANIKA BUDOWLI 1 Ugęca bee drgaących. Wzory transformacyne bee o cągłym
Budownictwo, II rok sem IV METODY OBLICZENIOWE. dr inŝ. Piotr Srokosz IP Temat 8
Bdownctwo, II rok sem IV MEODY OBLICZEIOWE dr nŝ. Potr Srokosz IP- emat 8 emat 8 Równana róŝnczkowe cząstkowe Metoda Elementów Skończonch (MES) Zagadnene brzegowe Sformłowane zagadnena fzcznego Równana
Plan wykładu. Sztuczne sieci neuronowe. Uczenie nienadzorowane (bez nauczyciela) Uczenie nienadzorowane - przykłady
Plan yładu Wyład 7: Sec samoorganzuące sę na zasadze spółzaodncta Sec samoorganzuace sę na zasadze spółzaodncta: uczene nenadzoroane uczene onurencyne reguła WTA reguła WTM antoane etoroe mapa cech Kohonena
4. Zjawisko przepływu ciepła
. Zawso przepływu cepła P.Plucńs. Zawso przepływu cepła wymana cepła przez promenowane wymana cepła przez unoszene wymana cepła przez przewodzene + generowane cepła znane wartośc temperatury zolowany brzeg
Ł Ę Ę ź Ń Ą Ę Ó Ł Ą Ą Ś ć ć ć ć ź Ą Ę Ę Ę Ę ź Ę Ę Ą Ę ć ć ź Ą Ę ć Ł ź ć Ę ć ć Ę Ą ć Ń ć Ę Ś Ś ć Ę Ę Ę Ę Ń ź Ę Ę Ą ź ź ć Ż Ś ź Ń ź ź ź ź ć ź ć ź Ł Ś ć Ł Ę Ę ź Ń Ą Ę ź Ę Ł Ł Ł Ł Ł Ę ć Ń Ę Ń Ę Ł Ł Ł Ł Ł
123456 782923456 6 22336 46466 6 6 6 783863658386 6 6 6 6 4!"! 468983#84636434$4636 6 6 6 %&6 '5626 ()68'546 6 6 &6 6 82845469234548*+6 %6 6 6 %6 '56268'546"'844$$6 %6 6 6 %&6 '5626 ()68'546,6 6 6 6 -*386
5. MES w mechanice ośrodka ciągłego
. MES w mechance ośroda cągłego P.Pucńs. MES w mechance ośroda cągłego.. Stan równowag t S P x z y n ρb(x, y, z) u(x, y, z) P Wetor gęstośc sł masowych N/m 3 ρb ρ g Wetor gęstośc sł powerzchnowych N/m
Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu
Wprowadzene do Sec Neuronowych Algorytm wstecznej propagacj błędu Maja Czoków, Jarosław Persa --6 Powtórzene. Perceptron sgmodalny Funkcja sgmodalna: σ(x) = + exp( c (x p)) Parametr c odpowada za nachylene
ROZWIĄZYWANIE DWUWYMIAROWYCH USTALONYCH ZAGADNIEŃ PRZEWODZENIA CIEPŁA PRZY POMOCY ARKUSZA KALKULACYJNEGO
OZWIĄZYWAIE DWUWYMIAOWYCH USALOYCH ZAGADIEŃ PZEWODZEIA CIEPŁA PZY POMOCY AKUSZA KALKULACYJEGO OPIS MEODY Do rozwązana ustalonego pola temperatury wyorzystana est metoda blansów elementarnych. W metodze
ź Ł ć Ł Ś ć ć Ą ć ć ć ć Ę Ę Ł Ź Ę Ś Ś ź Ą ć ć Ą ć ć ć ć Ń ć ć ć Ą ć ć ć ć ź ć ź ć ć ć Ń Ł ć ź ź Ń Ę Ą ć ć ć ć ć ć Ę ć ć ć ć ć ć ć Ą Ę ź ć Ś Ł Ł ć ć ć ć ć Ę ć ć ć ź ć ć Ń ć ć ć ć ć ć ć ć ć ć ć ć ć ć ć ć
Egzamin poprawkowy z Analizy II 11 września 2013
Egzamn poprawkowy z nalzy II 11 wrześna 13 Uwag organzacyjne: każde zadane rozwązujemy na osobnej kartce Każde zadane należy podpsać menem nazwskem własnym oraz prowadzącego ćwczena Na wszelk wypadek prosmy
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska
Prawdopodobieństwo i statystyka r.
Prawdopodobeństwo statystya.05.00 r. Zadane Zmenna losowa X ma rozład wyładnczy o wartośc oczewanej, a zmenna losowa Y rozład wyładnczy o wartośc oczewanej. Obe zmenne są nezależne. Oblcz E( Y X + Y =
MATLAB Neural Network Toolbox uczenie sieci (dogłębnie)
MATLAB Neural Network Toolbox uczenie sieci (dogłębnie) WYKŁAD Piotr Ciskowski Neural Network Toolbox: NEURAL NETWORK TOOLBOX NOTACJA Neural Network Toolbox - notacja: pojedynczy neuron: z jednym wejściem
Modele rozmyte 1. Model Mamdaniego
Modele rozmte Cel torzena noch model: dążene do uzskana coraz ększej dokładnośc, maroośc lub uproszczena struktur. Model Mamdanego Np.: -^ + R: JEŻELI jest to jest B R: JEŻELI jest to jest B R: JEŻELI
Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych
Zaawansowane metody numeryczne Komputerowa analza zagadneń różnczkowych 1. Układy równań lnowych P. F. Góra http://th-www.f.uj.edu.pl/zfs/gora/ semestr letn 2006/07 Podstawowe fakty Równane Ax = b, x,
Pattern Classification
attern Classfcaton All materals n these sldes were taken from attern Classfcaton nd ed by R. O. Duda,. E. Hart and D. G. Stork, John Wley & Sons, 000 wth the permsson of the authors and the publsher Chapter
Neuron liniowy. Najprostsza sieć warstwa elementów liniowych
Najprostsza jest jednostka lnowa: Neuron lnowy potraf ona rozpoznawać wektor wejścowy X = (x 1, x 2,..., x n ) T zapamętany we współczynnkach wagowych W = (w 1, w 2,..., w n ), Zauważmy, że y = W X Załóżmy,
Ł Ą ż ż Ę ż Ó Ł ź ż ż Ś ż Ę Ę Ś Ą ć ż Ź Ś Ę Ś ĄÓ Ę Ź ż Ń ć ć ć ć ż ć ć Ę Ś ż ż ć ć ć Ę ć ż Ć Ś ć ć Ś ć ć ż ż ż Ź Ś ż ć ć ć ć ć ć Ś ć Ę ż Ę ć Ó ć ć ć ć Ę ć ć ć Ę Ś ż ć Ę Ź ć Ę Ć Ź ż ż Ś Ę ź ć Ź ż ć Ą ć
Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE
Inormatyka Podstawy Programowana 06/07 Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE 6. Równana algebraczne. Poszukujemy rozwązana, czyl chcemy określć perwastk rzeczywste równana:
BADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda
BADANIA OPERACYJNE Podejmowane decyzj w warunkach nepewnośc dr Adam Sojda Teora podejmowana decyzj gry z naturą Wynk dzałana zależy ne tylko od tego, jaką podejmujemy decyzję, ale równeż od tego, jak wystąp
Klasyfkator lnowy Wstęp Klasyfkator lnowy jest najprostszym możlwym klasyfkatorem. Zakłada on lnową separację lnowy podzał dwóch klas mędzy sobą. Przedstawa to ponższy rysunek: 5 4 3 1 0-1 - -3-4 -5-5
ILOCZYNY WEKTORÓW. s równoległe wtedy i tylko wtedy. b =
St Kowls Włd mtemt dl studentów erunu Mehn włd ILOZYNY WEKTORÓW 3 { : } trówmrow prestre tór mon nterpretow n tr sposo: Jo ór puntów W te nterpret element prestren 3 nw s puntm Nps on e punt m współrdne
Ł Ł ń ń Ą ń ń Ś ń Ź ń ń ń Ż ń Ł ń Ś ń ń ń Ą Ą Ł Ż ń ń Ś ń Ź ń ń ć Ź ń ć Ś ć ć ń Ź ń Ą Ł Ł Ę ĘĘ Ż Ź ć Ł ń Ś Ą Ł Ł Ł Ą Ę Ę ń Ń ń Ź ń ć Ż ń Ż Ś ń Ń ń Ń Ź Ą ć Ł ń ć ć Ź Ą Ą Ą Ź Ą Ł Ą Ś ń ń Ś Ś Ą Ć ŚĆ Ł ć Ż
Ł Ł Ś Ś ź Ć ź ź ź Ń Ł Ż Ś ź Ę Ż Ń Ę ź ź ź Ę ź Ł Ę ź Ę Ę Ę ź ź Ś ź ź Ł Ł Ź Ę Ł Ś ź Ę Ę Ę ń ź Ą ó Ę ĘĘ ź Ę ź Ą Ł Ę Ł Ą ź Ę ó Ź Ś ź Ń Ę Ę ĘĘ Ą Ś Ę Ł Ę Ć Ź ź Ź Ę Ę Ź ź Ź Ź Ź Ł Ż Ł Ę ź Ż Ź ź Ź Ź Ź Ź Ą Ż ŚĆ
Ź Ę Ę Ś Ś Ś ć Ę ć Ś ć Ź Ż Ś ć Ż Ź Ż Ą Ż Ę Ś Ź Ę Ź Ż Ó Ś ć ć Ś Ż Ć ź Ś Ń Ź ć Ó ź Ś Ń ź Ń Ź Ź ź Ż Ź Ź Ź Ź Ż Ź ć Ż Ę ź Ę ź ć Ń ć ć ć ć Ź Ę Ą ć Ę ć Ń ć ć Ź Ż ć Ó Ó Ó Ż ć Ó Ż Ę Ą Ź Ó Ń Ł ź ź Ń ć ć Ż ć Ś Ą
Ą Ń Ś Ę ź Ś Ś ź ź Ś Ś ź Ł Ś Ś Ś Ł ĘĘ Ś Ś Ś ć Ś Ś Ś Ś Ł Ó Ś Ł ć Ś Ść Ś Ś Ś Ń ć Ś Ł Ś Ź Ą ć ć Ł ź Ś Ą Ś Ł Ą Ś Ś Ą Ś Ś ź Ś ć Ł ć ć Ł Ł ć Ź ć ć Ś ć ź Ź ć Ś ć ć ć Ś Ą Ś Ś Ś ć Ś Ść Ś ć Ł ć Ś ć Ś Ś Ń ć ć Ł Ś
Ę ó ą ż Ę Ń ó ś ź ń ś ś Ę óń ż ńó Ę ń ń ń ą ń ź ż ń ś ó Ż ó ąż ż łś ż żń ż ź ó ż ę ż ó ł Ń ń ń Ń ą Ńź óś ńńóń ń ń ń ż śż ó ś ż ż ą ó Ą Ń ż ł ń ą ż ą ż
Ę ą Ę Ń ś ź ś ś Ę Ę ą ź ś Ż ą ś Ń ź ę Ń Ń ą Ńź ś ś ś ą Ą Ń ą ą Ę ą ą Ę ąą ą Ś ą ę ą Ś ą Ł Ś ś Ń Ą ź ź Ę ź Ć ą ą ś Ść Ą Ż Ł ś ęę ę ś ś ś ć ą ą Ń ę ęś ęść ą ęść ą ą ść ź ć ć ą ś ą ę ć ź ęść ę ć ą ęść ś ść
Odtworzenie wywodu metodą wstępującą (bottom up)
Przeglądane wejśca od lewej strony do prawej L (k) Odtwarzane wywodu prawostronnego Wystarcza znajomosc "k" następnych symbol łańcucha wejścowego hstor dotychczasowych redukcj, aby wyznaczyc jednoznaczne
Stanisław Cichocki. Natalia Nehrebecka. Wykład 6
Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Zastosowane modelu potęgowego Przekształcene Boxa-Coxa 2. Zmenne cągłe za zmenne dyskretne 3. Interpretacja parametrów przy zmennych dyskretnych 1. Zastosowane
Reprezentacje grup symetrii. g s
erezentace ru ymetr Teora rerezentac dea: oeracom ymetr rzyać oeratory dzałaące w rzetrzen func zwązać z nm funce, tóre oeratory te rzerowadzaą w ebe odobne a zb. untów odcza oerac ymetr rozważmy rzeztałcene
Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311
Sztuczne sec neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyk, p. 311 Wykład 6 PLAN: - Repetto (brevs) - Sec neuronowe z radalnym funkcjam bazowym Repetto W aspekce archtektury: zajmowalśmy
FUNKCJE DWÓCH ZMIENNYCH
FUNKCJE DWÓCH MIENNYCH De. JeŜel kaŝdemu puktow (, ) ze zoru E płaszczz XY przporządkujem pewą lczę rzeczwstą z, to mówm, Ŝe a zorze E określoa została ukcja z (, ). Gd zór E e jest wraźe poda, sprawdzam
Ó ź Ó ź Ź Ó Ź Ó Ó Ę Ź Ą Ć Ó Ó Ź Ś Ź ź Ę Ź ŚÓ Ś Ó ź Ó Ę Ź Ó Ó Ó ŚÓ Ź Ó ź ź Ź ź ź Ę Ś ź Ą Ś Ź ź Ę Ł Ś Ź Ś ź ź Ł Ś ź Ś Ś Ś Ę Ę Ł Ł Ą Ś Ę Ą Ę Ź Ę Ę Ó Ś Ę Ń Ś Ć Ś Ś Ó Ś Ę Ę Ł Ą Ę Ą Ś Ź Ć Ó Ł ź Ń Ź Ą ź Ę Ź Ź
Ś Ś Ś ż Ł Ą Ą Ń Ś ż Ś ż Ą ż ż Ó Ź Ź ć ć ż ć Ą ć ć Ś ć ŚÓ ć ć ć ż ź Ł ż Ś Ł Ą Ó ż Ź ż ć Ś Ą Ó ż ć ż ź ż ć Ś ć Ź ż Ń Ł Ł ż ż Ą Ś ź ż ć ć Ł Ą Ą Ś Ś ż ć Ó Ó Ś Ź ź ź ż Ą ż ż ć Ść Ó ż ć Ś ź Ś Ś Ł Ś Ł Ł Ł Ł Ł
Ń ŚÓ Ź Ś ź Ś Ś ć Ą ć Ź ć ć Ś ć Ś ź ć Ś ź Ś ć ź ć Ś ź Ę ć ć Ś Ś Ą ź Ś Ś Ś Ś ć Ś Ś Ś ź Ś Ś Ś Ś Ż ć Ś Ć ć ć ź ć Ś Ś Ś ŚĆ Ś ź Ś Ś ć ć ć Ś Ć ć ć Ć Ś Ś Ś ŚĆ Ś Ś Ś ć ć ź Ś Ż Ś Ś Ś Ś Ś Ś Ą Ż Ś Ś Ś Ś Ś ć ć Ó ź
ó ś ń Ś Ó Ó Ó Ó ś Ó ż Ó Ś Ę Ó ó Ó ó Ś Ó óó Ś ś Ó ć Ź Ó ś ś ż ó ó ś Ó Ó ń Ś ś Ó ń ż ś ś Ó Ę Ó Ó Ó ś ó ś Ó Ś Ó Ś ń ń Ó ó ń ż ś Ó Ó ż ń Ś ó ż ń Ó Ś ż ń Ś ść ż ó ń ż Ś ż Ś Ś Ś Ó ń ś Ś Ó ń Ó Ą Ó Ą ć ż Ą ś ń
ń ń ś Ś Ó Ó ń ń ść ś ś ś ś ś ś ś ś ć ś ść ś ś ć ś Ż ć ś ś ś ść ć ś ń ć Ź Ż ń ń ś Ż Ą ć ń ń ś śó Ż ś ć Ź ś Ó ś Ż ś Ź ś ś ś Ż ś ś ś Ź ś ń ś Ę ć ś ś ń ś ś ś ń Ż Ż ś ś ś ń ć ć Ż ś ń Ż ś ń Ą ś ś ć ś ś Ż ś ś
POPRAWA EFEKTYWNOŚCI METODY WSTECZNEJ
Nowoczesne techniki informatyczne - Ćwiczenie 6: POPRAWA EFEKTYWNOŚCI METODY BP str. 1 Ćwiczenie 6: UCZENIE SIECI WIELOWARSTWOWYCH. POPRAWA EFEKTYWNOŚCI METODY WSTECZNEJ PROPAGACJI BŁĘDU WYMAGANIA 1. Sztuczne
wiedzy Sieci neuronowe (c.d.)
Metody detekci uszkodzeń oparte na wiedzy Sieci neuronowe (c.d.) Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 8 Metody detekci uszkodzeń oparte na wiedzy Wprowadzenie
Uczenie Wielowarstwowych Sieci Neuronów o
Plan uczenie neuronu o ci gªej funkcji aktywacji uczenie jednowarstwowej sieci neuronów o ci gªej funkcji aktywacji uczenie sieci wielowarstwowej - metoda propagacji wstecznej neuronu o ci gªej funkcji
ŁĄ ę ł
ŁĄ ę ł ł ń ł ł ł ł ł ó ą Ń ł ń ł ł ł ż Ł ń ąó ż ąó ó ą ę ó ąę ą ł ą ę ń ł ś ół ż ł ł ł ą ń ś ół ń ł ł ę ł ó ł Ćć ć Ą ż ł ć ć ć ł ł ż ó ąę ó ó ą ś ó ół ż ą ń ł ó ą ę ą ó ę ś ś ó ą ę ą ą ęś ć ś ę ą ę ł ę
α i = n i /n β i = V i /V α i = β i γ i = m i /m
Ćwczene nr 2 Stechometra reakcj zgazowana A. Część perwsza: powtórzene koncentracje stężena 1. Stężene Stężene jest stosunkem lośc substancj rozpuszczonej do całkowtej lośc rozpuszczalnka. Sposoby wyrażena
Ą ś Ę ń ń ń Ć ś ć Ę Ę ż ę ę ż ż ż ź ć ż Ę ś ż ż ż ń ź ż ę Ą ę ę Ć ż ć Ę Ę ż Ó ś ż ż ż ś ż ź ć Ą ś ź ę Ę ń śł ż ę ż ń Ą Ó ń Ę Ż Ę ę ę ż ć ż ń ś ń Ć ń ć żę ś Ę ń ę ś Ę Ę ż ćż ć ę ż Ę ż ś Ę ń ć ś ż Ą ń ż
ż ń ęą ą ąą ą ą ń ą ż ń ż ń ęą ą ą ą ą ń ę ę ę ż ń ęą ą ą ą ą ń ą ą ą ą ź ń ż ń ęą ą ą ą ą ń ą ą ą ą ź ń ż ń ęą ą ą ą ą ń ą ą ą ą ź ń o o o o o o o ż ń ęą ą ą ą ź ś ść ż ś ść ń ę ą ą ę ą ą ż ń ęą
ĺ ĺ ę ĺ ż ż ĺ ś ń ś Ł ś ś ę ń ś ś ś ĺ Ż ś ę ń ę ę ę Ż ś ę ń ń ĺ Ł Ż ęć ś Í ż ĺ Ż ę ż ę ę ĺ ę ę ń ĺ ń ĺ ę ś ť ę ś ť Ě ę ń ę ń ż ę ż ę őż ę ę ő ś Ż ś ś í í í ę ô ę ę Í ę ś ę ń ń Ł ń ż ę ś ś ż ś ę ę í ő ę
ó ę ą ż ż ś ść Ó Ś ż Ó Ś ę ą żć ó ż Ó ż Ó ó ó ż Ó ż ó ą ą Ą ś ą ż ó ó ż ę Ć ż ż ż Ó ó ó ó ę ż ę Ó ż ę ż Ó Ę Ó ó Óś Ś ść ę ć Ś ę ąć śó ą ę ęż ó ó ż Ś ż
Ó śó ą ę Ę śćś ść ę ą ś ó ą ó Ł Ó ż Ś ą ś Ó ą ć ó ż ść śó ą Óść ó ż ż ą Ś Ś ż Ó ą Ó ą Ć Ś ż ó ż ę ąś ó ć Ś Ó ó ś ś ś ó Ó ś Ź ż ą ó ą żą śó Ś Ó Ś ó Ś Ś ąś Ó ó ę ą ż ż ś ść Ó Ś ż Ó Ś ę ą żć ó ż Ó ż Ó ó ó
min h = x x Algorytmy optymalizacji lokalnej Nieliniowe zadanie optymalizacji bez ograniczeń numeryczne metody iteracyjne optymalizacji x x
Nelnowe zaane optymalzacj bez ogranczeń numeryczne metoy teracyjne optymalzacj mn n x R ) = f x Algorytmy poszuwana mnmum loalnego la: f zaana programowana nelnowego bez ogranczeń zaana programowana nelnowego
Ź Ł Ęć ę ę ę ę Ę ń ę ń Ę Ś Ę ę ę ę ę ę ę ć ę ę ę ę Ę ę ń ź ć ć ć Ź ę Ę ć Ś ę ę ń ć Ę ź ę ę Ś Ę ę ę ę ę Ł ę Ź ć Ęę ę ę ń Ł Ś Ą ę ź ę ę Ę Ź Ę ę ń ę Ą ę ę Ę ę ę Ś Ś ź ź ń ń ź Ź ę ń Ę Ą ę Ę Ą ź ć Ę ę ń ę Ę
f x f y f, jest 4, mianowicie f = f xx f xy f yx
Zestaw 14 Pochodne wŝszch rzędów Niech będzie dana funkcja x f określona w pewnm obszarze D Przpuśćm Ŝe f x istnieją pochodne cząstkowe tej funkcji x x Pochodne cząstkowe tch pochodnch jeŝeli istnieją
δ δ δ 1 ε δ δ δ 1 ε ε δ δ δ ε ε = T T a b c 1 = T = T = T
M O D E L O W A N I E I N Y N I E R S K I E n r 4 7, I S S N 8 9 6-7 7 X M O D E L O W A N I E P A S Z C Z Y Z N B A Z O W Y C H K O R P U S W N A P O D S T A W I E P O M W S P R Z D N O C I O W Y C H
Ą Ą Ą Ń Ę Ę ń ń ń Ń Ń Ń ń Ą Ą ń ń ćż Ą Ę ń ń ń Ó ń Ż Ą ń ŚĆ Ń Ś Ń Ś Ą Ś ć ń ć ź ń Ń ń ć ź Ń Ś Ó Ż ń ź ź ń ĄŚ Ą Ś Ń ń ń ń Ę Ę ń Ż Ż Ż ń ć ń Ń ć ń Ń ŚĆ Ć ń Ń Ń ŚÓ Ą ć ć Ą Ń ź Ę ć ć ć ź ć ć ź ć ź ć ź Ę ć
Ś Ł Ą Ś Ś ź Ś ń ż ż Ó ż ż Ś Ł ż ń ń ń ż ń Ś ń ć ŚĘ Ó Ł Ę Ł Ś Ę Ę ń ń ń ń ń Ź ń ń ń ń ń ż ń ń ń ń ń Ę ż ż ć Ść ń ń ż Ń ż ż ń ń Ś Ą ń Ś ń ń ż Ó ż Ź ń ż ń Ś Ń Ó ż Ł ż Ą ź ź Ś Ł ć Ś ć ż ź ż ć ć Ę Ó Ś Ó ż ż
Ł Ł Ś ź ń ź ź ź Ś Ł Ę Ę Ś ż Ś ń Ą Ś Ą Ł ż ż ń ż ć ż ż ż ź ż ć ź Ę Ę ń ć ż Ł ń ż ż ż Ś ż Ś ż ż ż ż ż ż ż ń ń ż ż ż ć ż ń ż ń ź ż ć ż ż ć ń ż Ę Ę ć ń Ę ż ż ń ń ź Ę ź ż ń ż ń ź ż ż ż ń ż ż ż ż ż ż ż ż ń ń
Ł Ł Ś Ę ź ń ź ź Ś Ę Ę Ś Ą Ś Ę Ż Ł ń Ę Ś ć ć ń ć ń ń ń ź ń Ę ź ń ń ń ź ź Ś ź ź ć ń ń ń ń Ś ć Ś ń ń Ś ź ń Ę ń Ś ź ź ź ź ź Ę Ę Ę Ś ń Ś ć ń ń ń ń ń ń Ę ń ń ń ń ć ń ń ń ń ć ń Ś ć Ł ń ń ń ć ń ć ź ń ź ć ń ń ć
Ż ż Ł ż ż ż Ż Ś ż ż ż Ł Ż Ż ć ż Ż Ż Ż Ń Ż Ź ż Ź Ź ż Ż ż ż Ż Ł Ż Ł Ż ż Ż ż Ż Ż Ń Ą Ż Ń Ż Ń ć ż Ż ź Ś ć Ł Ł Ź Ż Ż ż Ł ż Ż Ł Ż Ł ź ć ż Ż Ż ż ż Ó ż Ł Ż ć Ż Ż Ę Ż Ż Ż ż Ż ż ż Ś ż Ż ż ż ź Ż Ń ć Ż ż Ż Ż ż ż ż
Zaawansowane metody numeryczne
Wykład 9. jej modyfkacje. Oznaczena Będzemy rozpatrywać zagadnene rozwązana następującego układu n równań lnowych z n newadomym x 1... x n : a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x
SWISS EPHEMERIS for the year 2012
JANUARY 2012 S 1 6 40 15 9j57'30 7a 7 19i50 13k49 20f 7 0b26 28g17 0a51 28k53 7j19 13 D58 12i59 1b42 1l54 M 2 6 44 12 10 58'39 19 1 21 11 15 3 20 21 0 27 28 21 0 52 28 55 7 22 13i59 12 56 1 49 1 57 T 3
XXX OLIMPIADA FIZYCZNA ETAP I Zadania teoretyczne
XXX OLIPIADA FIZYCZNA TAP I Zadana teoretczne Nazwa zadana ZADANI T1 Na odstawe wsółczesnch badań wadomo że jądro atomowe może znajdować sę tlo w stanach o oreślonch energach odobne ja dobrze znan atom
STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH
STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH 1 Test zgodnośc χ 2 Hpoteza zerowa H 0 ( Cecha X populacj ma rozkład o dystrybuance F). Hpoteza alternatywna H1( Cecha X populacj
65120/ / / /200
. W celu zbadana zależnośc pomędzy płcą klentów ch preferencjam, wylosowano kobet mężczyzn zadano m pytane: uważasz za lepszy produkt frmy A czy B? Wynk były następujące: Odpowedź Kobety Mężczyźn Wolę
Macierz prawdopodobieństw przejścia w pojedynczym kroku dla łańcucha Markowa jest postaci
Zadane. Macerz radoodobeńst rzejśca ojedynczym kroku dla łańcucha Markoa...... o trzech stanach { } jest ostac 0 n 0 0 (oczyśce element stojący -tym erszu j -tej kolumne tej macerzy oznacza P( = j. Wtedy
Sieć neuronowa jako system ekspercki na rynku instrumentów pochodnych
Rozdzał monograf: 'Bazy Danych: Rozó metod technoog', ozesk S., Małysak B., asprosk P., Mrozek D. (red.), WŁ 8.bdas.p Rozdzał 7 Seć neuronoa ako system eksperck na rynku nstrumentó pochodnych Streszczene.