Sztuczne sieci neuronowe. Reguła perceptronowa. Nadzorowany proces nauki. Zasada uczenia. Zasada uczenia. dr inŝ. Stefan Brock 2007/2008 1

Wielkość: px
Rozpocząć pokaz od strony:

Download "Sztuczne sieci neuronowe. Reguła perceptronowa. Nadzorowany proces nauki. Zasada uczenia. Zasada uczenia. dr inŝ. Stefan Brock 2007/2008 1"

Transkrypt

1 Sztuczne sec neuronoe.stefanbroc.neostrada.pl dr nŝ. Stefan Broc Plan ładó. Wproadzene, modele neuronó, uład perceptronoe, uczene neuronó. Uczene sec neuronoch, metoda steczne propagac błędó, nne metod uczena. 3. Zastosoane sec neuronoch uładach steroana, modeloane sec neuronoch Matlabe 4. Sec las ANFIS, spółdzałane sec neuronoch nnch metod ntelgenc oblczenoe Nadzoroan proces nau Reguła perceptronoa - Wberz losoo ag początoe - Podaa losoo brane olenosc zorce x 3 - Modfu ag stosuąc regułę delta: (t+) (t) + η*err * x gdze err (śce_zorcoe - śce_atualne ) 0<η < - spólcznn szbosc uczena 4 - Potarza ro 3 aŝ do osągnęca rterum ońca (zbeŝność, masmalna lość terac) Zasada uczena Ogólna zasada nau dla sec neuronoch: Wetor ag [... n ] rośne proporconalne do locznu sgnału eścoego x uczącego r Zasada uczena + + η * r(, x, d ) * Dla reguł perceptronoe: def r d x Sgnał ucząc rr(,x,d ) dr nŝ. Stefan Broc 007/008

2 Cągła reguła perceptronoa - reguła delta Dla neuronó o cągłe róŝnczoalne func atac: r def [ d f ( x)]* f ( x) η *( d )* f ( net )* x t t Oblczane pochodne func atac Dla bpolarne func atac: f ( net) f ( net) + e λ * net ( ) Reguła delta dla arst neuronó Seć sładaąca sę z cągłch neuronó: z Γ[ W] [ z [ z z ] z J ] W M M O J J M J Inputs p p p 3 p R, S, R aer of S Neurons n f Σ b n Σ f b b S n S Σ f a a a S a f(wp + b) f ( ) 0 Γ( ) M 0 0 f ( ) M 0 PoŜądan sgnał śco: [ d dd O d ] 0 0 M f ( ) Błąd lasfac ednego obrazu eścoego E l ( d z ) l l Wartośc ag mnmalzuące błąd E l Sgnał błędu -tego neuronu z d l z η * l dr nŝ. Stefan Broc 007/008

3 PoneaŜ: net * Węc raŝene na orecę ag ma postać: +η z W W +η,,...,,,...,j t z z Błąd -tego neuronu net z z ( d z ) net ( d ( d ( d z ) * f ( net ) z ) *( z ) z z ) net Dla bpolarne, sgmodalne func atac Algortm uczena arst neuronó Dane - zesta par uczącch: {,d,,d,..., p,d p } (J*) d (*). Wbór η>0, E max >0. oso bór macerz W (*J) 3. l:0 E:0 4. : l d:d l z :f ( *) 5. +/* η*(d -z )(-z ) 6. Algortm uczena arst neuronó E : E + ( d z ) 7. Jezel l<p to l:l+, so do rou Zaonczene clu uczena (epo). Gd E<E max to onec, gd ne, to so do rou 3. Uogólnona reguła delta Seć duarstoa: arsta urta arsta ścoa. z Γ[ W] Γ[ WΓ[ Vx]] x ] [ x xx I V M J M J O I I M JI dr nŝ. Stefan Broc 007/008 3

4 Analogczna metoda gradentoa η * +η x Sgnał błędu neuronu arst urte Wśce -tego neuronu arst urte pła na błęd szstch neuronó arst ścoe f net ) ( V V +η x t Sgnał błędu neuronu arst urte ( d z ) z ( d z ) f [ net ( )] Wzór steczne propagac błędu + η * f ( net ) * x * z Ilustraca - nndsd.m dr nŝ. Stefan Broc 007/008 4

5 Wsteczna propagaca Matlabe % metoda steczne propagac bledu x[- - ; ]; % esca d[- - ]; % artosc oczeane net neff(mnmax(x),[3,],{'tansg','pureln'},'trangd'); net.tranparam.sho50; % setlana trace nau net.tranparam.lr0.05; % spolczn szbosc nau net.tranparam.epochs300; % masmalna losc epo net.tranparam.goale-5; % zadana doladnosc [net,tr]tran(net,x,d); % uczene sec asm(net,x) Wsteczna propagaca Matlabe >> nn_sb_ RAINGD, Epoch 0/300, MSE.5943/e-005, Gradent.76799/e- 00 RAINGD, Epoch 50/300, MSE /e-005, Gradent /e-00 RAINGD, Epoch 00/300, MSE /e-005, Gradent 0.060/e-00 RAINGD, Epoch 50/300, MSE e-005/e-005, Gradent /e-00 RAINGD, Epoch 00/300, MSE.4504e-005/e-005, Gradent /e-00 RAINGD, Epoch /300, MSE e-006/e-005, Gradent /e-00 RAINGD, Performance goal met. a Wsteczna propagaca Matlabe Metod popra procesu uczena Metod heurstczne metoda momentum metoda zmennego spółcznna szbośc nau metoda podatne steczne propagac Metod optmalzacne metoda gradentó sprzęŝonch metod quas-netonose Metoda momentum Nadane punto reprezentuącemu ag mas (bezładnośc) +η z Wpł spółcznna momentum α η ro n η z 0 < α < + α n Ilustraca - nndmo.m dr nŝ. Stefan Broc 007/008 5

6 Wpł spółcznna momentum % metoda steczne propagac bledu + metoda momentum x[- - ; ]; % esca d[- - ]; % artosc oczeane net neff(mnmax(x),[3,],{'tansg','pureln'},'trangdm'); net.tranparam.sho50; % setlana trace nau net.tranparam.lr0.05; % spolczn szbosc nau net.tranparam.epochs300; % masmalna losc epo net.tranparam.goale-5; % zadana doladnosc Wpł spółcznna momentum net.tranparam.mc0.9; % spolczn momentum [net,tr]tran(net,x,d); % uczene sec asm(net,x) Metoda zmennego spółcznna szbośc nau Adaptacna zmana spółcznn szbośc uczena a b uzsać moŝle duŝ spółcznn stabln proces nau Gd błąd olene epoce est ęsz nŝ poprzedno o ęce nz zdefnoana artość, spółcznn szbośc est zmneszan. Metoda zmennego spółcznna szbośc nau % metoda steczne propagac bledu z adaptacna zmana spolcznna x[- - ; ]; % esca d[- - ]; % artosc oczeane net neff(mnmax(x),[3,],{'tansg','pureln'},'trangda'); net.tranparam.sho50; % setlana trace nau net.tranparam.lr0.05; % spolczn szbosc nau net.tranparam.epochs300; % masmalna losc epo net.tranparam.goale-5; % zadana doladnosc net.tranparam.lr_nc.05; % spolczn zman szbosc nau [net,tr]tran(net,x,d); % uczene sec asm(net,x) Metoda zmennego spółcznna szbośc nau Metoda podatne steczne propagac Funca sgmodalna daleo od zera ma bardzo małe nachlene W efece tam przpadu naua przebega olno W metodze podatne pochodna func atac decdue tlo o znau zman etora ag. Wartość zman est ustaana adaptacne, ta b zapenć stablność. dr nŝ. Stefan Broc 007/008 6

7 Metoda podatne steczne propagac % metoda podatne steczne propagac bledu x[- - ; ]; % esca d[- - ]; % artosc oczeane net neff(mnmax(x),[3,],{'tansg','pureln'},'tranrp'); net.tranparam.sho0; % setlana trace nau net.tranparam.epochs300; % masmalna losc epo net.tranparam.goale-5; % zadana doladnosc [net,tr]tran(net,x,d); % uczene sec Metoda podatne steczne propagac asm(net,x) Metoda gradentó sprzęŝonch Metoda delta est metodą gradentoą - znacza sę erune poszuań porusza tm erunu (strom anon) Metod gradentó sprzęŝonch ntelgentne beraą erune poszuań. Jedna z nalepszch - metoda Polaa-Rbere a Metoda Polaa- Rbere a W sróce: orzon est cąg etoró g erunó poszuań h, ta Ŝe h są zaemne sprzęŝone. Gd optmalzoana funca n-maroa moŝe bć przedstaona ao forma adratoa, to mnmalzaca zdłuŝ n erunó h proadz do mnmum. Metoda Polaa- Rbere a % metoda gradentó sprzezonch Polaa-Rbre'a x[- - ; ]; % esca d[- - ]; % artosc oczeane net neff(mnmax(x),[3,],{'tansg','pureln'},'trancgp'); net.tranparam.sho0; % setlana trace nau net.tranparam.epochs300; % masmalna losc epo net.tranparam.goale-5; % zadana doladnosc [net,tr]tran(net,x,d); % uczene sec Metoda Polaa- Rbere a asm(net,x) dr nŝ. Stefan Broc 007/008 7

8 Metod quas-netonose Metoda optmalzac Netona - efetna, lecz maga lczena hesanu (macerz drugch pochodnch) func atac. Metod quas-netonose -bez lczena hesanu Napopularnesza - metoda BFGS Metod quas-netonose % metoda quas Netonosa BFGS x[- - ; ]; % esca d[- - ]; % artosc oczeane net neff(mnmax(x),[3,],{'tansg','pureln'},'tranbfg'); net.tranparam.sho0; % setlana trace nau net.tranparam.epochs300; % masmalna losc epo net.tranparam.goale-5; % zadana doladnosc [net,tr]tran(net,x,d); % uczene sec asm(net,x) Metoda quas-netonosa -BFGS Metoda aenberga-marquadta Aprosmaca hesanu poprzez aoban HJ *J Jest to naszbsz algortm uczena przedstaanch sec o średnm rozmarze (do luset ag) bardzo efetna mplementaca Matlabe Ilustraca - nndm.m Metoda aenberga-marquadta % metoda aenberga - Marquardta x[- - ; ]; % esca d[- - ]; % artosc oczeane net neff(mnmax(x),[3,],{'tansg','pureln'},'tranlm'); net.tranparam.sho0; % setlana trace nau net.tranparam.epochs300; % masmalna losc epo net.tranparam.goale-5; % zadana doladnosc [net,tr]tran(net,x,d); % uczene sec Metoda aenberga-marquadta asm(net,x) dr nŝ. Stefan Broc 007/008 8

9 Unane mnmó loalnch Potarzane testó Smuloane Ŝarzane Optmalzaca genetczna dr nŝ. Stefan Broc 007/008 9

Literatura SZTUCZNE SIECI NEURONOWE. Mózg/komputer jak to działa? MÓZG WZORZEC DOSKONAŁY KOMPUTER TWÓR DOSKONALONY SSN niekonwencjonalne przetwarzanie

Literatura SZTUCZNE SIECI NEURONOWE. Mózg/komputer jak to działa? MÓZG WZORZEC DOSKONAŁY KOMPUTER TWÓR DOSKONALONY SSN niekonwencjonalne przetwarzanie 007--06 SZTUCZNE SIECI NEURONOWE Archtektura Tp Przeznaczene Procedur uczena Zastosoana Lteratura. J. śurada, M. Barsk, W. Jędruch, Sztuczne sec neuronoe, PWN 996. R. Tadeusecz, Sec neuronoe, AOW 993 3.

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 5. SZTUCZNE SIECI NEURONOWE REGRESJA Częstochowa 4 Dr hab. nż. Grzegorz Dudek Wdzał Elektrczn Poltechnka Częstochowska PROBLEM APROKSYMACJI FUNKCJI Aproksmaca funkc przblżane

Bardziej szczegółowo

Plan wykładu. Sztuczne sieci neuronowe. Uczenie nienadzorowane (bez nauczyciela) Uczenie nienadzorowane - przykłady

Plan wykładu. Sztuczne sieci neuronowe. Uczenie nienadzorowane (bez nauczyciela) Uczenie nienadzorowane - przykłady Plan yładu Wyład 10: Sec samoorganzuce s na zasadze spółzaodncta Sec samoorganzuace s na zasadze spółzaodncta: uczene nenadzoroane uczene onurencyne reguła WTA reguła WTM antoane etoroe mapa cech Kohonena

Bardziej szczegółowo

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Wykład 2: Uczenie nadzorowane sieci neuronowych - I Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za

Bardziej szczegółowo

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Wykład 2: Uczenie nadzorowane sieci neuronowych - I Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za

Bardziej szczegółowo

Plan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty)

Plan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty) Plan wykładu Dzałane neuronu dyskretnego warstwy neuronów dyskretnych Wykład : Reguły uczena sec neuronowych. Sec neuronowe ednokerunkowe. Reguła perceptronowa Reguła Wdrowa-Hoffa Reguła delta ałgorzata

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE METODY KLASYFIKACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

SYSTEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE METODY KLASYFIKACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska. SYSEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE MEODY KLASYFIKACJI Częstochowa 4 Dr hab. nż. Grzegorz Dude Wydzał Eletryczny Poltechna Częstochowsa FUNKCJE FISHEROWSKA DYSKRYMINACYJNE DYSKRYMINACJA I MASZYNA LINIOWA

Bardziej szczegółowo

max Wydział Elektroniki studia I st. Elektronika III r. EZI Technika optymalizacji Dr inż. Ewa Szlachcic

max Wydział Elektroniki studia I st. Elektronika III r. EZI Technika optymalizacji Dr inż. Ewa Szlachcic Zadane rograowana lnowego PL dla ogranczeń neszoścowch rz ogranczenach: a f c A b d =n, d c=n, d A =[ n], d b =, Postać anonczna zadana PL a c X : A b, Postać anonczna acerzowa zadana PL a Lczba zennch

Bardziej szczegółowo

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB Rozwązywane zadań optymalzacj w środowsku programu MATLAB Zagadnene optymalzacj polega na znajdowanu najlepszego, względem ustalonego kryterum, rozwązana należącego do zboru rozwązań dopuszczalnych. Standardowe

Bardziej szczegółowo

ż Ę ń Ś ó ź ó ń Ę ó ó ź ó Ń ó ó ż ż ó ż ń ó ć ń ź ó ó ó Ę Ę ó ź ó ó Ł Ł Ą Ś ó ń ó ń ó Ł Ł ó ó ó ń Ś Ń ń ń ó ó Ś ó ć ó Ą Ą ń ć ć ó ż ó ć Ł ó ń ó ó ż ó ó ć ż ż Ą ż ń ó Śó ó ó ó ć ć ć ń ó ć Ś ć ó ó ż ó ó

Bardziej szczegółowo

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe Sztuczne sec neuronoe model konekconstyczny 2 Plan ykładu Geneza modelu konekconstycznego Głóne cechy Model sztucznego neuronu Archtektury sec neuronoych Proces uczena sę sec Uczene poedynczego neuronu

Bardziej szczegółowo

Nieliniowe zadanie optymalizacji bez ograniczeń numeryczne metody iteracyjne optymalizacji

Nieliniowe zadanie optymalizacji bez ograniczeń numeryczne metody iteracyjne optymalizacji Nelnowe zadane optymalzacj bez ogranczeń numeryczne metody teracyjne optymalzacj mn R n f ( ) = f Algorytmy poszuwana mnmum loalnego zadana programowana nelnowego: Bez ogranczeń Z ogranczenam Algorytmy

Bardziej szczegółowo

Wyróżnić należy następujące sieci rekurencyjne: sieć Hopfielda, jej uogólnienie sieć BAM, sieć Hamminga oraz sieci rezonansowe.

Wyróżnić należy następujące sieci rekurencyjne: sieć Hopfielda, jej uogólnienie sieć BAM, sieć Hamminga oraz sieci rezonansowe. 1. Seć Hopfelda 1.1 Sec ze sprzężene zrotn Sec ze sprzężene zrotn torzą odrębną grupę sec neuronoch, stępuącą róneż pod nazą sec rekurencnch bądź asocacnch. Zaknęce pętl sprzężena zrotnego poodue, ż seć

Bardziej szczegółowo

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe Sztuczne sec neuronowe Jerzy Stefanowsk Plan wykładu 1. Wprowadzene 2. Model sztucznego neuronu. 3. Topologe sec neuronowych 4. Reguły uczena sec neuronowych. 5. Klasyfkaca sec neuronowych. 6. Sec warstwowe

Bardziej szczegółowo

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia

Bardziej szczegółowo

Pattern Classification

Pattern Classification Pattern Classification All materials in these slides were taen from Pattern Classification (2nd ed) by R. O. Duda, P. E. Hart and D. G. Stor, John Wiley & Sons, 2000 with the permission of the authors

Bardziej szczegółowo

Zadanie 1. Rzucamy symetryczną monetą tak długo, aż w dwóch kolejnych rzutach pojawią się,,reszki. Oblicz wartość oczekiwaną liczby wykonanych rzutów.

Zadanie 1. Rzucamy symetryczną monetą tak długo, aż w dwóch kolejnych rzutach pojawią się,,reszki. Oblicz wartość oczekiwaną liczby wykonanych rzutów. Pradopodobeństo statystya 6..3r. Zadae. Rzucamy symetryczą moetą ta długo aż dóch olejych rzutach pojaą sę resz. Oblcz artość oczeaą lczby yoaych rzutó. (A) 7 (B) 8 (C) 9 (D) (E) 6 Wsazóa: jeśl rzuce umer

Bardziej szczegółowo

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311 Sztuczne sec neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyk, p. 311 Wykład 1 PLAN: Jak (klasyczne) komputery ocenaą flozofę Alberta Enstena Hstora korzene teor sztucznych sec neuronowych

Bardziej szczegółowo

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe Sztuczne sec neuronoe model konekconstyczny 2 Plan ykładu Geneza modelu konekconstycznego Głóne cechy Model sztucznego neuronu Archtektury sec neuronoych Proces uczena sę sec Uczene poedynczego neuronu

Bardziej szczegółowo

MECHANIKA BUDOWLI 13

MECHANIKA BUDOWLI 13 1 Oga Kopacz, Adam Łodygos, Krzysztof ymper, chał Płotoa, Wocech Pałos Konsutace nauoe: prof. dr hab. JERZY RAKOWSKI Poznań 00/00 ECHANIKA BUDOWLI 1 Ugęca bee drgaących. Wzory transformacyne bee o cągłym

Bardziej szczegółowo

Budownictwo, II rok sem IV METODY OBLICZENIOWE. dr inŝ. Piotr Srokosz IP Temat 8

Budownictwo, II rok sem IV METODY OBLICZENIOWE. dr inŝ. Piotr Srokosz IP Temat 8 Bdownctwo, II rok sem IV MEODY OBLICZEIOWE dr nŝ. Potr Srokosz IP- emat 8 emat 8 Równana róŝnczkowe cząstkowe Metoda Elementów Skończonch (MES) Zagadnene brzegowe Sformłowane zagadnena fzcznego Równana

Bardziej szczegółowo

Plan wykładu. Sztuczne sieci neuronowe. Uczenie nienadzorowane (bez nauczyciela) Uczenie nienadzorowane - przykłady

Plan wykładu. Sztuczne sieci neuronowe. Uczenie nienadzorowane (bez nauczyciela) Uczenie nienadzorowane - przykłady Plan yładu Wyład 7: Sec samoorganzuące sę na zasadze spółzaodncta Sec samoorganzuace sę na zasadze spółzaodncta: uczene nenadzoroane uczene onurencyne reguła WTA reguła WTM antoane etoroe mapa cech Kohonena

Bardziej szczegółowo

4. Zjawisko przepływu ciepła

4. Zjawisko przepływu ciepła . Zawso przepływu cepła P.Plucńs. Zawso przepływu cepła wymana cepła przez promenowane wymana cepła przez unoszene wymana cepła przez przewodzene + generowane cepła znane wartośc temperatury zolowany brzeg

Bardziej szczegółowo

Ł Ę Ę ź Ń Ą Ę Ó Ł Ą Ą Ś ć ć ć ć ź Ą Ę Ę Ę Ę ź Ę Ę Ą Ę ć ć ź Ą Ę ć Ł ź ć Ę ć ć Ę Ą ć Ń ć Ę Ś Ś ć Ę Ę Ę Ę Ń ź Ę Ę Ą ź ź ć Ż Ś ź Ń ź ź ź ź ć ź ć ź Ł Ś ć Ł Ę Ę ź Ń Ą Ę ź Ę Ł Ł Ł Ł Ł Ę ć Ń Ę Ń Ę Ł Ł Ł Ł Ł

Bardziej szczegółowo

123456 782923456 6 22336 46466 6 6 6 783863658386 6 6 6 6 4!"! 468983#84636434$4636 6 6 6 %&6 '5626 ()68'546 6 6 &6 6 82845469234548*+6 %6 6 6 %6 '56268'546"'844$$6 %6 6 6 %&6 '5626 ()68'546,6 6 6 6 -*386

Bardziej szczegółowo

5. MES w mechanice ośrodka ciągłego

5. MES w mechanice ośrodka ciągłego . MES w mechance ośroda cągłego P.Pucńs. MES w mechance ośroda cągłego.. Stan równowag t S P x z y n ρb(x, y, z) u(x, y, z) P Wetor gęstośc sł masowych N/m 3 ρb ρ g Wetor gęstośc sł powerzchnowych N/m

Bardziej szczegółowo

Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu

Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu Wprowadzene do Sec Neuronowych Algorytm wstecznej propagacj błędu Maja Czoków, Jarosław Persa --6 Powtórzene. Perceptron sgmodalny Funkcja sgmodalna: σ(x) = + exp( c (x p)) Parametr c odpowada za nachylene

Bardziej szczegółowo

ROZWIĄZYWANIE DWUWYMIAROWYCH USTALONYCH ZAGADNIEŃ PRZEWODZENIA CIEPŁA PRZY POMOCY ARKUSZA KALKULACYJNEGO

ROZWIĄZYWANIE DWUWYMIAROWYCH USTALONYCH ZAGADNIEŃ PRZEWODZENIA CIEPŁA PRZY POMOCY ARKUSZA KALKULACYJNEGO OZWIĄZYWAIE DWUWYMIAOWYCH USALOYCH ZAGADIEŃ PZEWODZEIA CIEPŁA PZY POMOCY AKUSZA KALKULACYJEGO OPIS MEODY Do rozwązana ustalonego pola temperatury wyorzystana est metoda blansów elementarnych. W metodze

Bardziej szczegółowo

ź Ł ć Ł Ś ć ć Ą ć ć ć ć Ę Ę Ł Ź Ę Ś Ś ź Ą ć ć Ą ć ć ć ć Ń ć ć ć Ą ć ć ć ć ź ć ź ć ć ć Ń Ł ć ź ź Ń Ę Ą ć ć ć ć ć ć Ę ć ć ć ć ć ć ć Ą Ę ź ć Ś Ł Ł ć ć ć ć ć Ę ć ć ć ź ć ć Ń ć ć ć ć ć ć ć ć ć ć ć ć ć ć ć ć

Bardziej szczegółowo

Egzamin poprawkowy z Analizy II 11 września 2013

Egzamin poprawkowy z Analizy II 11 września 2013 Egzamn poprawkowy z nalzy II 11 wrześna 13 Uwag organzacyjne: każde zadane rozwązujemy na osobnej kartce Każde zadane należy podpsać menem nazwskem własnym oraz prowadzącego ćwczena Na wszelk wypadek prosmy

Bardziej szczegółowo

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska

Bardziej szczegółowo

Prawdopodobieństwo i statystyka r.

Prawdopodobieństwo i statystyka r. Prawdopodobeństwo statystya.05.00 r. Zadane Zmenna losowa X ma rozład wyładnczy o wartośc oczewanej, a zmenna losowa Y rozład wyładnczy o wartośc oczewanej. Obe zmenne są nezależne. Oblcz E( Y X + Y =

Bardziej szczegółowo

MATLAB Neural Network Toolbox uczenie sieci (dogłębnie)

MATLAB Neural Network Toolbox uczenie sieci (dogłębnie) MATLAB Neural Network Toolbox uczenie sieci (dogłębnie) WYKŁAD Piotr Ciskowski Neural Network Toolbox: NEURAL NETWORK TOOLBOX NOTACJA Neural Network Toolbox - notacja: pojedynczy neuron: z jednym wejściem

Bardziej szczegółowo

Modele rozmyte 1. Model Mamdaniego

Modele rozmyte 1. Model Mamdaniego Modele rozmte Cel torzena noch model: dążene do uzskana coraz ększej dokładnośc, maroośc lub uproszczena struktur. Model Mamdanego Np.: -^ + R: JEŻELI jest to jest B R: JEŻELI jest to jest B R: JEŻELI

Bardziej szczegółowo

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych Zaawansowane metody numeryczne Komputerowa analza zagadneń różnczkowych 1. Układy równań lnowych P. F. Góra http://th-www.f.uj.edu.pl/zfs/gora/ semestr letn 2006/07 Podstawowe fakty Równane Ax = b, x,

Bardziej szczegółowo

Pattern Classification

Pattern Classification attern Classfcaton All materals n these sldes were taken from attern Classfcaton nd ed by R. O. Duda,. E. Hart and D. G. Stork, John Wley & Sons, 000 wth the permsson of the authors and the publsher Chapter

Bardziej szczegółowo

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych Najprostsza jest jednostka lnowa: Neuron lnowy potraf ona rozpoznawać wektor wejścowy X = (x 1, x 2,..., x n ) T zapamętany we współczynnkach wagowych W = (w 1, w 2,..., w n ), Zauważmy, że y = W X Załóżmy,

Bardziej szczegółowo

Ł Ą ż ż Ę ż Ó Ł ź ż ż Ś ż Ę Ę Ś Ą ć ż Ź Ś Ę Ś ĄÓ Ę Ź ż Ń ć ć ć ć ż ć ć Ę Ś ż ż ć ć ć Ę ć ż Ć Ś ć ć Ś ć ć ż ż ż Ź Ś ż ć ć ć ć ć ć Ś ć Ę ż Ę ć Ó ć ć ć ć Ę ć ć ć Ę Ś ż ć Ę Ź ć Ę Ć Ź ż ż Ś Ę ź ć Ź ż ć Ą ć

Bardziej szczegółowo

Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE

Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE Inormatyka Podstawy Programowana 06/07 Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE 6. Równana algebraczne. Poszukujemy rozwązana, czyl chcemy określć perwastk rzeczywste równana:

Bardziej szczegółowo

BADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda

BADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda BADANIA OPERACYJNE Podejmowane decyzj w warunkach nepewnośc dr Adam Sojda Teora podejmowana decyzj gry z naturą Wynk dzałana zależy ne tylko od tego, jaką podejmujemy decyzję, ale równeż od tego, jak wystąp

Bardziej szczegółowo

Klasyfkator lnowy Wstęp Klasyfkator lnowy jest najprostszym możlwym klasyfkatorem. Zakłada on lnową separację lnowy podzał dwóch klas mędzy sobą. Przedstawa to ponższy rysunek: 5 4 3 1 0-1 - -3-4 -5-5

Bardziej szczegółowo

ILOCZYNY WEKTORÓW. s równoległe wtedy i tylko wtedy. b =

ILOCZYNY WEKTORÓW. s równoległe wtedy i tylko wtedy. b = St Kowls Włd mtemt dl studentów erunu Mehn włd ILOZYNY WEKTORÓW 3 { : } trówmrow prestre tór mon nterpretow n tr sposo: Jo ór puntów W te nterpret element prestren 3 nw s puntm Nps on e punt m współrdne

Bardziej szczegółowo

Ł Ł ń ń Ą ń ń Ś ń Ź ń ń ń Ż ń Ł ń Ś ń ń ń Ą Ą Ł Ż ń ń Ś ń Ź ń ń ć Ź ń ć Ś ć ć ń Ź ń Ą Ł Ł Ę ĘĘ Ż Ź ć Ł ń Ś Ą Ł Ł Ł Ą Ę Ę ń Ń ń Ź ń ć Ż ń Ż Ś ń Ń ń Ń Ź Ą ć Ł ń ć ć Ź Ą Ą Ą Ź Ą Ł Ą Ś ń ń Ś Ś Ą Ć ŚĆ Ł ć Ż

Bardziej szczegółowo

Ł Ł Ś Ś ź Ć ź ź ź Ń Ł Ż Ś ź Ę Ż Ń Ę ź ź ź Ę ź Ł Ę ź Ę Ę Ę ź ź Ś ź ź Ł Ł Ź Ę Ł Ś ź Ę Ę Ę ń ź Ą ó Ę ĘĘ ź Ę ź Ą Ł Ę Ł Ą ź Ę ó Ź Ś ź Ń Ę Ę ĘĘ Ą Ś Ę Ł Ę Ć Ź ź Ź Ę Ę Ź ź Ź Ź Ź Ł Ż Ł Ę ź Ż Ź ź Ź Ź Ź Ź Ą Ż ŚĆ

Bardziej szczegółowo

Ź Ę Ę Ś Ś Ś ć Ę ć Ś ć Ź Ż Ś ć Ż Ź Ż Ą Ż Ę Ś Ź Ę Ź Ż Ó Ś ć ć Ś Ż Ć ź Ś Ń Ź ć Ó ź Ś Ń ź Ń Ź Ź ź Ż Ź Ź Ź Ź Ż Ź ć Ż Ę ź Ę ź ć Ń ć ć ć ć Ź Ę Ą ć Ę ć Ń ć ć Ź Ż ć Ó Ó Ó Ż ć Ó Ż Ę Ą Ź Ó Ń Ł ź ź Ń ć ć Ż ć Ś Ą

Bardziej szczegółowo

Ą Ń Ś Ę ź Ś Ś ź ź Ś Ś ź Ł Ś Ś Ś Ł ĘĘ Ś Ś Ś ć Ś Ś Ś Ś Ł Ó Ś Ł ć Ś Ść Ś Ś Ś Ń ć Ś Ł Ś Ź Ą ć ć Ł ź Ś Ą Ś Ł Ą Ś Ś Ą Ś Ś ź Ś ć Ł ć ć Ł Ł ć Ź ć ć Ś ć ź Ź ć Ś ć ć ć Ś Ą Ś Ś Ś ć Ś Ść Ś ć Ł ć Ś ć Ś Ś Ń ć ć Ł Ś

Bardziej szczegółowo

Ę ó ą ż Ę Ń ó ś ź ń ś ś Ę óń ż ńó Ę ń ń ń ą ń ź ż ń ś ó Ż ó ąż ż łś ż żń ż ź ó ż ę ż ó ł Ń ń ń Ń ą Ńź óś ńńóń ń ń ń ż śż ó ś ż ż ą ó Ą Ń ż ł ń ą ż ą ż

Ę ó ą ż Ę Ń ó ś ź ń ś ś Ę óń ż ńó Ę ń ń ń ą ń ź ż ń ś ó Ż ó ąż ż łś ż żń ż ź ó ż ę ż ó ł Ń ń ń Ń ą Ńź óś ńńóń ń ń ń ż śż ó ś ż ż ą ó Ą Ń ż ł ń ą ż ą ż Ę ą Ę Ń ś ź ś ś Ę Ę ą ź ś Ż ą ś Ń ź ę Ń Ń ą Ńź ś ś ś ą Ą Ń ą ą Ę ą ą Ę ąą ą Ś ą ę ą Ś ą Ł Ś ś Ń Ą ź ź Ę ź Ć ą ą ś Ść Ą Ż Ł ś ęę ę ś ś ś ć ą ą Ń ę ęś ęść ą ęść ą ą ść ź ć ć ą ś ą ę ć ź ęść ę ć ą ęść ś ść

Bardziej szczegółowo

Odtworzenie wywodu metodą wstępującą (bottom up)

Odtworzenie wywodu metodą wstępującą (bottom up) Przeglądane wejśca od lewej strony do prawej L (k) Odtwarzane wywodu prawostronnego Wystarcza znajomosc "k" następnych symbol łańcucha wejścowego hstor dotychczasowych redukcj, aby wyznaczyc jednoznaczne

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6 Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Zastosowane modelu potęgowego Przekształcene Boxa-Coxa 2. Zmenne cągłe za zmenne dyskretne 3. Interpretacja parametrów przy zmennych dyskretnych 1. Zastosowane

Bardziej szczegółowo

Reprezentacje grup symetrii. g s

Reprezentacje grup symetrii. g s erezentace ru ymetr Teora rerezentac dea: oeracom ymetr rzyać oeratory dzałaące w rzetrzen func zwązać z nm funce, tóre oeratory te rzerowadzaą w ebe odobne a zb. untów odcza oerac ymetr rozważmy rzeztałcene

Bardziej szczegółowo

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311 Sztuczne sec neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyk, p. 311 Wykład 6 PLAN: - Repetto (brevs) - Sec neuronowe z radalnym funkcjam bazowym Repetto W aspekce archtektury: zajmowalśmy

Bardziej szczegółowo

FUNKCJE DWÓCH ZMIENNYCH

FUNKCJE DWÓCH ZMIENNYCH FUNKCJE DWÓCH MIENNYCH De. JeŜel kaŝdemu puktow (, ) ze zoru E płaszczz XY przporządkujem pewą lczę rzeczwstą z, to mówm, Ŝe a zorze E określoa została ukcja z (, ). Gd zór E e jest wraźe poda, sprawdzam

Bardziej szczegółowo

Ó ź Ó ź Ź Ó Ź Ó Ó Ę Ź Ą Ć Ó Ó Ź Ś Ź ź Ę Ź ŚÓ Ś Ó ź Ó Ę Ź Ó Ó Ó ŚÓ Ź Ó ź ź Ź ź ź Ę Ś ź Ą Ś Ź ź Ę Ł Ś Ź Ś ź ź Ł Ś ź Ś Ś Ś Ę Ę Ł Ł Ą Ś Ę Ą Ę Ź Ę Ę Ó Ś Ę Ń Ś Ć Ś Ś Ó Ś Ę Ę Ł Ą Ę Ą Ś Ź Ć Ó Ł ź Ń Ź Ą ź Ę Ź Ź

Bardziej szczegółowo

Ś Ś Ś ż Ł Ą Ą Ń Ś ż Ś ż Ą ż ż Ó Ź Ź ć ć ż ć Ą ć ć Ś ć ŚÓ ć ć ć ż ź Ł ż Ś Ł Ą Ó ż Ź ż ć Ś Ą Ó ż ć ż ź ż ć Ś ć Ź ż Ń Ł Ł ż ż Ą Ś ź ż ć ć Ł Ą Ą Ś Ś ż ć Ó Ó Ś Ź ź ź ż Ą ż ż ć Ść Ó ż ć Ś ź Ś Ś Ł Ś Ł Ł Ł Ł Ł

Bardziej szczegółowo

Ń ŚÓ Ź Ś ź Ś Ś ć Ą ć Ź ć ć Ś ć Ś ź ć Ś ź Ś ć ź ć Ś ź Ę ć ć Ś Ś Ą ź Ś Ś Ś Ś ć Ś Ś Ś ź Ś Ś Ś Ś Ż ć Ś Ć ć ć ź ć Ś Ś Ś ŚĆ Ś ź Ś Ś ć ć ć Ś Ć ć ć Ć Ś Ś Ś ŚĆ Ś Ś Ś ć ć ź Ś Ż Ś Ś Ś Ś Ś Ś Ą Ż Ś Ś Ś Ś Ś ć ć Ó ź

Bardziej szczegółowo

ó ś ń Ś Ó Ó Ó Ó ś Ó ż Ó Ś Ę Ó ó Ó ó Ś Ó óó Ś ś Ó ć Ź Ó ś ś ż ó ó ś Ó Ó ń Ś ś Ó ń ż ś ś Ó Ę Ó Ó Ó ś ó ś Ó Ś Ó Ś ń ń Ó ó ń ż ś Ó Ó ż ń Ś ó ż ń Ó Ś ż ń Ś ść ż ó ń ż Ś ż Ś Ś Ś Ó ń ś Ś Ó ń Ó Ą Ó Ą ć ż Ą ś ń

Bardziej szczegółowo

ń ń ś Ś Ó Ó ń ń ść ś ś ś ś ś ś ś ś ć ś ść ś ś ć ś Ż ć ś ś ś ść ć ś ń ć Ź Ż ń ń ś Ż Ą ć ń ń ś śó Ż ś ć Ź ś Ó ś Ż ś Ź ś ś ś Ż ś ś ś Ź ś ń ś Ę ć ś ś ń ś ś ś ń Ż Ż ś ś ś ń ć ć Ż ś ń Ż ś ń Ą ś ś ć ś ś Ż ś ś

Bardziej szczegółowo

POPRAWA EFEKTYWNOŚCI METODY WSTECZNEJ

POPRAWA EFEKTYWNOŚCI METODY WSTECZNEJ Nowoczesne techniki informatyczne - Ćwiczenie 6: POPRAWA EFEKTYWNOŚCI METODY BP str. 1 Ćwiczenie 6: UCZENIE SIECI WIELOWARSTWOWYCH. POPRAWA EFEKTYWNOŚCI METODY WSTECZNEJ PROPAGACJI BŁĘDU WYMAGANIA 1. Sztuczne

Bardziej szczegółowo

wiedzy Sieci neuronowe (c.d.)

wiedzy Sieci neuronowe (c.d.) Metody detekci uszkodzeń oparte na wiedzy Sieci neuronowe (c.d.) Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 8 Metody detekci uszkodzeń oparte na wiedzy Wprowadzenie

Bardziej szczegółowo

Uczenie Wielowarstwowych Sieci Neuronów o

Uczenie Wielowarstwowych Sieci Neuronów o Plan uczenie neuronu o ci gªej funkcji aktywacji uczenie jednowarstwowej sieci neuronów o ci gªej funkcji aktywacji uczenie sieci wielowarstwowej - metoda propagacji wstecznej neuronu o ci gªej funkcji

Bardziej szczegółowo

ŁĄ ę ł

ŁĄ ę ł ŁĄ ę ł ł ń ł ł ł ł ł ó ą Ń ł ń ł ł ł ż Ł ń ąó ż ąó ó ą ę ó ąę ą ł ą ę ń ł ś ół ż ł ł ł ą ń ś ół ń ł ł ę ł ó ł Ćć ć Ą ż ł ć ć ć ł ł ż ó ąę ó ó ą ś ó ół ż ą ń ł ó ą ę ą ó ę ś ś ó ą ę ą ą ęś ć ś ę ą ę ł ę

Bardziej szczegółowo

α i = n i /n β i = V i /V α i = β i γ i = m i /m

α i = n i /n β i = V i /V α i = β i γ i = m i /m Ćwczene nr 2 Stechometra reakcj zgazowana A. Część perwsza: powtórzene koncentracje stężena 1. Stężene Stężene jest stosunkem lośc substancj rozpuszczonej do całkowtej lośc rozpuszczalnka. Sposoby wyrażena

Bardziej szczegółowo

Ą ś Ę ń ń ń Ć ś ć Ę Ę ż ę ę ż ż ż ź ć ż Ę ś ż ż ż ń ź ż ę Ą ę ę Ć ż ć Ę Ę ż Ó ś ż ż ż ś ż ź ć Ą ś ź ę Ę ń śł ż ę ż ń Ą Ó ń Ę Ż Ę ę ę ż ć ż ń ś ń Ć ń ć żę ś Ę ń ę ś Ę Ę ż ćż ć ę ż Ę ż ś Ę ń ć ś ż Ą ń ż

Bardziej szczegółowo

ż ń ęą ą ąą ą ą ń ą ż ń ż ń ęą ą ą ą ą ń ę ę ę ż ń ęą ą ą ą ą ń ą ą ą ą ź ń ż ń ęą ą ą ą ą ń ą ą ą ą ź ń ż ń ęą ą ą ą ą ń ą ą ą ą ź ń o o o o o o o ż ń ęą ą ą ą ź ś ść ż ś ść ń ę ą ą ę ą ą ż ń ęą

Bardziej szczegółowo

ĺ ĺ ę ĺ ż ż ĺ ś ń ś Ł ś ś ę ń ś ś ś ĺ Ż ś ę ń ę ę ę Ż ś ę ń ń ĺ Ł Ż ęć ś Í ż ĺ Ż ę ż ę ę ĺ ę ę ń ĺ ń ĺ ę ś ť ę ś ť Ě ę ń ę ń ż ę ż ę őż ę ę ő ś Ż ś ś í í í ę ô ę ę Í ę ś ę ń ń Ł ń ż ę ś ś ż ś ę ę í ő ę

Bardziej szczegółowo

ó ę ą ż ż ś ść Ó Ś ż Ó Ś ę ą żć ó ż Ó ż Ó ó ó ż Ó ż ó ą ą Ą ś ą ż ó ó ż ę Ć ż ż ż Ó ó ó ó ę ż ę Ó ż ę ż Ó Ę Ó ó Óś Ś ść ę ć Ś ę ąć śó ą ę ęż ó ó ż Ś ż

ó ę ą ż ż ś ść Ó Ś ż Ó Ś ę ą żć ó ż Ó ż Ó ó ó ż Ó ż ó ą ą Ą ś ą ż ó ó ż ę Ć ż ż ż Ó ó ó ó ę ż ę Ó ż ę ż Ó Ę Ó ó Óś Ś ść ę ć Ś ę ąć śó ą ę ęż ó ó ż Ś ż Ó śó ą ę Ę śćś ść ę ą ś ó ą ó Ł Ó ż Ś ą ś Ó ą ć ó ż ść śó ą Óść ó ż ż ą Ś Ś ż Ó ą Ó ą Ć Ś ż ó ż ę ąś ó ć Ś Ó ó ś ś ś ó Ó ś Ź ż ą ó ą żą śó Ś Ó Ś ó Ś Ś ąś Ó ó ę ą ż ż ś ść Ó Ś ż Ó Ś ę ą żć ó ż Ó ż Ó ó ó

Bardziej szczegółowo

min h = x x Algorytmy optymalizacji lokalnej Nieliniowe zadanie optymalizacji bez ograniczeń numeryczne metody iteracyjne optymalizacji x x

min h = x x Algorytmy optymalizacji lokalnej Nieliniowe zadanie optymalizacji bez ograniczeń numeryczne metody iteracyjne optymalizacji x x Nelnowe zaane optymalzacj bez ogranczeń numeryczne metoy teracyjne optymalzacj mn n x R ) = f x Algorytmy poszuwana mnmum loalnego la: f zaana programowana nelnowego bez ogranczeń zaana programowana nelnowego

Bardziej szczegółowo

Ź Ł Ęć ę ę ę ę Ę ń ę ń Ę Ś Ę ę ę ę ę ę ę ć ę ę ę ę Ę ę ń ź ć ć ć Ź ę Ę ć Ś ę ę ń ć Ę ź ę ę Ś Ę ę ę ę ę Ł ę Ź ć Ęę ę ę ń Ł Ś Ą ę ź ę ę Ę Ź Ę ę ń ę Ą ę ę Ę ę ę Ś Ś ź ź ń ń ź Ź ę ń Ę Ą ę Ę Ą ź ć Ę ę ń ę Ę

Bardziej szczegółowo

f x f y f, jest 4, mianowicie f = f xx f xy f yx

f x f y f, jest 4, mianowicie f = f xx f xy f yx Zestaw 14 Pochodne wŝszch rzędów Niech będzie dana funkcja x f określona w pewnm obszarze D Przpuśćm Ŝe f x istnieją pochodne cząstkowe tej funkcji x x Pochodne cząstkowe tch pochodnch jeŝeli istnieją

Bardziej szczegółowo

δ δ δ 1 ε δ δ δ 1 ε ε δ δ δ ε ε = T T a b c 1 = T = T = T

δ δ δ 1 ε δ δ δ 1 ε ε δ δ δ ε ε = T T a b c 1 = T = T = T M O D E L O W A N I E I N Y N I E R S K I E n r 4 7, I S S N 8 9 6-7 7 X M O D E L O W A N I E P A S Z C Z Y Z N B A Z O W Y C H K O R P U S W N A P O D S T A W I E P O M W S P R Z D N O C I O W Y C H

Bardziej szczegółowo

Ą Ą Ą Ń Ę Ę ń ń ń Ń Ń Ń ń Ą Ą ń ń ćż Ą Ę ń ń ń Ó ń Ż Ą ń ŚĆ Ń Ś Ń Ś Ą Ś ć ń ć ź ń Ń ń ć ź Ń Ś Ó Ż ń ź ź ń ĄŚ Ą Ś Ń ń ń ń Ę Ę ń Ż Ż Ż ń ć ń Ń ć ń Ń ŚĆ Ć ń Ń Ń ŚÓ Ą ć ć Ą Ń ź Ę ć ć ć ź ć ć ź ć ź ć ź Ę ć

Bardziej szczegółowo

Ś Ł Ą Ś Ś ź Ś ń ż ż Ó ż ż Ś Ł ż ń ń ń ż ń Ś ń ć ŚĘ Ó Ł Ę Ł Ś Ę Ę ń ń ń ń ń Ź ń ń ń ń ń ż ń ń ń ń ń Ę ż ż ć Ść ń ń ż Ń ż ż ń ń Ś Ą ń Ś ń ń ż Ó ż Ź ń ż ń Ś Ń Ó ż Ł ż Ą ź ź Ś Ł ć Ś ć ż ź ż ć ć Ę Ó Ś Ó ż ż

Bardziej szczegółowo

Ł Ł Ś ź ń ź ź ź Ś Ł Ę Ę Ś ż Ś ń Ą Ś Ą Ł ż ż ń ż ć ż ż ż ź ż ć ź Ę Ę ń ć ż Ł ń ż ż ż Ś ż Ś ż ż ż ż ż ż ż ń ń ż ż ż ć ż ń ż ń ź ż ć ż ż ć ń ż Ę Ę ć ń Ę ż ż ń ń ź Ę ź ż ń ż ń ź ż ż ż ń ż ż ż ż ż ż ż ż ń ń

Bardziej szczegółowo

Ł Ł Ś Ę ź ń ź ź Ś Ę Ę Ś Ą Ś Ę Ż Ł ń Ę Ś ć ć ń ć ń ń ń ź ń Ę ź ń ń ń ź ź Ś ź ź ć ń ń ń ń Ś ć Ś ń ń Ś ź ń Ę ń Ś ź ź ź ź ź Ę Ę Ę Ś ń Ś ć ń ń ń ń ń ń Ę ń ń ń ń ć ń ń ń ń ć ń Ś ć Ł ń ń ń ć ń ć ź ń ź ć ń ń ć

Bardziej szczegółowo

Ż ż Ł ż ż ż Ż Ś ż ż ż Ł Ż Ż ć ż Ż Ż Ż Ń Ż Ź ż Ź Ź ż Ż ż ż Ż Ł Ż Ł Ż ż Ż ż Ż Ż Ń Ą Ż Ń Ż Ń ć ż Ż ź Ś ć Ł Ł Ź Ż Ż ż Ł ż Ż Ł Ż Ł ź ć ż Ż Ż ż ż Ó ż Ł Ż ć Ż Ż Ę Ż Ż Ż ż Ż ż ż Ś ż Ż ż ż ź Ż Ń ć Ż ż Ż Ż ż ż ż

Bardziej szczegółowo

Zaawansowane metody numeryczne

Zaawansowane metody numeryczne Wykład 9. jej modyfkacje. Oznaczena Będzemy rozpatrywać zagadnene rozwązana następującego układu n równań lnowych z n newadomym x 1... x n : a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x

Bardziej szczegółowo

SWISS EPHEMERIS for the year 2012

SWISS EPHEMERIS for the year 2012 JANUARY 2012 S 1 6 40 15 9j57'30 7a 7 19i50 13k49 20f 7 0b26 28g17 0a51 28k53 7j19 13 D58 12i59 1b42 1l54 M 2 6 44 12 10 58'39 19 1 21 11 15 3 20 21 0 27 28 21 0 52 28 55 7 22 13i59 12 56 1 49 1 57 T 3

Bardziej szczegółowo

XXX OLIMPIADA FIZYCZNA ETAP I Zadania teoretyczne

XXX OLIMPIADA FIZYCZNA ETAP I Zadania teoretyczne XXX OLIPIADA FIZYCZNA TAP I Zadana teoretczne Nazwa zadana ZADANI T1 Na odstawe wsółczesnch badań wadomo że jądro atomowe może znajdować sę tlo w stanach o oreślonch energach odobne ja dobrze znan atom

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH

STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH 1 Test zgodnośc χ 2 Hpoteza zerowa H 0 ( Cecha X populacj ma rozkład o dystrybuance F). Hpoteza alternatywna H1( Cecha X populacj

Bardziej szczegółowo

65120/ / / /200

65120/ / / /200 . W celu zbadana zależnośc pomędzy płcą klentów ch preferencjam, wylosowano kobet mężczyzn zadano m pytane: uważasz za lepszy produkt frmy A czy B? Wynk były następujące: Odpowedź Kobety Mężczyźn Wolę

Bardziej szczegółowo

Macierz prawdopodobieństw przejścia w pojedynczym kroku dla łańcucha Markowa jest postaci

Macierz prawdopodobieństw przejścia w pojedynczym kroku dla łańcucha Markowa jest postaci Zadane. Macerz radoodobeńst rzejśca ojedynczym kroku dla łańcucha Markoa...... o trzech stanach { } jest ostac 0 n 0 0 (oczyśce element stojący -tym erszu j -tej kolumne tej macerzy oznacza P( = j. Wtedy

Bardziej szczegółowo

Sieć neuronowa jako system ekspercki na rynku instrumentów pochodnych

Sieć neuronowa jako system ekspercki na rynku instrumentów pochodnych Rozdzał monograf: 'Bazy Danych: Rozó metod technoog', ozesk S., Małysak B., asprosk P., Mrozek D. (red.), WŁ 8.bdas.p Rozdzał 7 Seć neuronoa ako system eksperck na rynku nstrumentó pochodnych Streszczene.

Bardziej szczegółowo