Sztuczne sieci neuronowe
|
|
- Jolanta Orłowska
- 8 lat temu
- Przeglądów:
Transkrypt
1 Sztuczne sec neuronowe Jerzy Stefanowsk Plan wykładu 1. Wprowadzene 2. Model sztucznego neuronu. 3. Topologe sec neuronowych 4. Reguły uczena sec neuronowych. 5. Klasyfkaca sec neuronowych. 6. Sec warstwowe uczone algorytmem BP. 7. Zastosowana. Poznań, 2006
2 Wprowadzene Sztuczna seć neuronowa (SSN) - defnce: Zbór prostych ednostek oblczenowych przetwarzaących dane, komunkuących sę ze sobą pracuących równolegle. Lub nacze: Zbór połączonych ze sobą ednostek weścwo-wyścowych. Z każdym połączenem skoarzona est waga, która może zostać zmenona w trakce uczena. Dowolna sztuczna seć neuronowa może być zdefnowana poprzez określene: modelu sztucznego neuronu, topolog, reguły uczena sec.
3 Model sztucznego neuronu Sztuczny neuron = neuron: można rozpatrywać ako specyfczny przetwornk sygnałów. x 1 x 2 x 3 1 w 0 w w w f(e) y w n x n Podstawowe elementy składowe: n weść neuronu wraz z wagam w (wektor wag w wektor sygnałów weścowych x) eden sygnał wyścowy y pobudzene e neuronu ako suma ważona sygnałów weścowych pomneszona o próg Θ n e = w x = 1 Θ = w T x Θ wprowadźmy wagę w 0 = Θ, podłączone do stałego sygnału x 0 = 1; wówczas: n e = w w T x = x =0 funkca aktywac (prześca): y = f (e)
4 Funkce aktywac Ma stotne znaczene dla dzałana neuronu. Podstawowe typy funkc: lnowa y = k e nelnowe (cągłe necągłe, unpolarne bpolarne) funkca skoku ednostkowego, progowa (McCulloch Ptts): f () e = 1 0 dla dla e Θ e < Θ funkca sgmodalna: współczynnk stromośc β f () e 1 = 1+ exp ( βe) f(e) 1,2 1 0,8 0,6 0,4 0, e funkca tangens hperbolczny: αe f ( e) = tgh( ) 2 1 exp( αe) = 1+ exp( αe)
5 Inspraca: neuron bologczny budowa: soma, akson, dendryty, synapsy znaczene błony komórkowe w przesyłanu sygnału; polega ono na propagac zaburzena różncy potencałów pomędzy wnętrzem a zewnętrzem komórk; przyczyną tych zaburzeń est chwlowa utrata szczelnośc przez błonę komórkową zasada dzałana: wpływaące dendrytam bodźce (modulaca częstotlwośc) sumuą sę (oddzaływaą ze sobą) na błone komórkowe przy pomocy aksonu zakończonego synapsą/synapsam przekazywane są do nnego neuronu/neuronów po propagac sygnału różnca potencałów odbudowywana est przez tzw. pompy onowe neuronów mamy ~1010, dendrytów ~ różne rodzae neuronów
6 Topologa sec neuronowe (archtektura) Ogólne wyróżna sę dwa typy archtektur SSN: 1) sec ednokerunkowe ( ang. feedforwarded) t. sec o ednym kerunku przepływu sygnałów; Szczególnym przypadkem archtektury ednokerunkowe est seć warstwowa, reprezentuąca zdecydowane napopularneszą topologę; wysca sec warstwa wyscowa warstwy ukryte warstwa wescowa wesca sec 2) Inne, np. sec rekurencyne (feedback, bdrectonal) t. sec ze sprzężenam zwrotnym (seć Hopfelda) albo sec uczena sę przez współzawodnctwo (Kohonena) Zasady łączena neuronów mędzy sobą - każdy z każdym, - połączena mędzy kolenym warstwam w secach warstwowych, - tylko z pewną grupą neuronów, naczęśce z tzw. sąsedztwem.
7 Charakterystyka procesu uczena sec Wyróżna sę dwa podstawowe sposoby uczena sec: 1. uczene nadzorowane (ang. supervsed learnng), 2. uczene nenadzorowane (ang. unsupervsed learnng). Uczene nadzorowane dany est zbór przykładów uczących składaący sę z par weśce-wyśce (x, z), gdze z est pożądana odpowedzą sec na sygnały weścowe x (=1,..m). Zadanem sec est nauczyć sę możlwe ak nadokładne funkc przyblżaące powązane weśca z wyścem. x seć adaptacyna W y oblczane odległośc z - y Poządana odpowedź z Odległość pomędzy rzeczywstą a pożądaną odpowedzą sec est marą błędu używaną do korekc wag sec. Typowym przykładem est uczene sec welowarstwowe algorytmem wsteczne propagac błędu; każdy neuron lokalne zmnesza swó błąd stosuąc metodę spadku gradentu.
8 Reguła Wdrowa-Hoffa Reguły uczena sec neuronowych Dotyczy uczena nadzorowanego sec ednokerunkowych, gdze mnmalzue sę błąd pomędzy pożądaną a aktualną odpowedzą. δ = z y = z w Korekta wag est następuąca (Wdrow,Hoff 1962): T x w = η δ x Reguła delta Obowązue dla neuronów z cągłym funkcam aktywac nadzorowanego trybu uczena. Regułę delta wyprowadza sę ako wynk mnmalzac kryterum błędu średnokwadratowego Q. 2 N 1 ( z y ) = Q, Q = ( δ ) 2 1 N Q = 2 = 1 = 1 2 Korekta wag: w = η δ f '( e ) x gdze f () oznacza pochodną funkc aktywac. W przypadku funkc sgmodalne: w = η δ (1 y ) y Stosowana est do uczena welowarstwowych sec neuronowych wraz z algorytmem wsteczne propagac błędów (Rumelhart, McClelland 1986) x
9 Charakterystyka procesu uczena Uczene sę teracyne / uczene sę w ednym kroku Algorytm uczena: globalny (w kolene terac uczene obemue całą seć), lokalny (w kolene terac uczene obemue część sec) Sposób propagac sygnałów przez seć: synchronczny asynchronczny: przesyłane żetonów (counter-propagaton): specyfczny model propagac sygnału bazuący na dyskretnym pobudzenu w postac tzw. żetonu. Charakterystyka wybranych typów sec Typ sec Topologa Propagaca pobudzena Perceptron warstwowa synchron. SOM warstwowa synchron. Hopfeld rekurencyna synchr. lub asynchr Połączena każdy z każdym warstwam spec. ednowarstwa każdy z każdym nadzor. Uczene teracyne nenadzor. teracyne nenadzor. w ednym kroku
10 Wybrane typy sec neuronowych Warstwowe sec lnowe - Adalne/Madalne, Warstwowe sec nelnowe - welowarstwowa uczona algorytmem wsteczne propagac błędów, - sec welowarstwowe z modyfkacam algorytmu wsteczne propagac błędów, - sec z funkcam o symetr kołowe RBF. Sec ze sprzężenem zwrotnym - sec Hopfelda, - dwukerunkowa pamęć asocacyna BAM, Sec uczone przez współzawodnctwo - sec Kohonena, LVQ, - odwzorowane cech stotnych oraz sec samoorganzuące sę SOM, Sec rezonansowe ART oraz sec z kontrpropagacą, Sec neuronowe zntegrowane z algorytmam metaheurystycznym - symulowane wyżarzane maszyna Boltzmana, - algorytmy genetyczne, Metody hybrydowe wykorzystuące sec neuronowe, Systemy rozmyto-neuronowe.
11 Uwag na temat stosowane sec neuronowych R.Tadeusewcz (2000): Sec neuronowe mogą być stosowane z dużym prawdopodobeństwem odnesena sukcesu wszędze tam, gdze poawaą sę problemy zwązane z tworzenem model matematycznych pozwalaących odwzorowywać złożone zależnośc pomędzy pewnym sygnałam weścowym a wybranym sygnałam wyścowym Potrzeba automatycznego w wynku tzw. procesu uczena modelowana złożonych zależnośc. T.Mtchell (1997): Cechy charakterystyczne problemów dla SNN Przykłady uczące opsane są przez pary atrybut-wartość (na ogół zdefnowanych na skalach lczbowych; np. różnego rodzau sygnały lub rezultaty pomarów), Przyblżana funkca może meć wartośc dyskretne lub rzeczywste; może być także wektorem wartośc, Dane mogą zawerać błędy lub podlegać zaszumenu ; SSN są odporne na różnego rodzau uszkodzena danych, Akceptowalny est dług czas uczena sec, Akceptaca dla potencalne duże lczby parametrów algorytmu, które wymagaą dostroena metodam eksperymentalnym, Zadane ne wymaga rozumena przez człoweka funkc nauczone przez SNN - trudnośc z nterpretacą wedzy nabyte przez seć.
12 Algorytm wsteczne propagac błędów (backpropagaton) Jak znaleźć błąd popełnany przez neurony z warstw ukrytych? Błąd k-tego neuronu w l-te warstwe est równy sume błędów popełnonych przez neurony (p) z warstwy l+1-sze ważonych po wagach w k(p,l+1) łączących ten neuron z neuronam te warstwy: δ Nl+ 1 ( kl, ) = wk( p, l ) δ + 1 ( pl, + 1) p= 1
13 Algorytm wsteczne propagac błędu (backpropagaton, BP): 1. Poda na weśce sec koleny wektor wymuszeń x. 2. Przepropagu wymuszene przez seć, oblczaąc pobudzena neuronów w kolenych warstwach, aż do warstwy wyścowe. 3. Wektor wyść otrzymany w warstwe wyścowe y porówna z wektorem uczącym/oczekwanym z oblcz na te podstawe błędy δ popełnone przez neurony te warstwy. 4. Dokona wsteczne propagac błędu do kolenych warstw ukrytych, t. do ostatne, przedostatne td., aż do osągnęca warstwy wyścowe. 5. Dla każdego neuronu w sec dokona modyfkac wartośc wag stosowne do welkośc popełnonego błędu. 6. Sprawdź, czy błąd średnokwadratowy popełnany przez seć dla wszystkch przykładów ze zboru uczącego Q spadł ponże zadane wartośc Qstop; eśl tak - zakończ pracę, w przecwnym raze przedź do kroku 1.
14 Parametry reguły delta algorytmu wsteczne propagac błędu początkowa konfguraca wektora wag w: newelke wartośc losowe (dotyczy to wększośc algorytmów uczących). współczynnk prędkośc uczena η Decydue o wpływe błędu popełnanego przez neuron na korektę wartośc wag. Właścwy dobór ma kluczowe znaczene dla prędkośc zbeżnośc algorytmu: zbyt mała wartość spowalna proces uczena zwększa ryzyko wpadnęca w pułapkę lokalnego mnmum (punkt reprezentuący konfgurace sec porusza sę "małym kroczkam" po kraobraze energetycznym) E S p S k w
15 Człon momentu (bezwładnośc) Metoda nawększego spadku gradentu, opsana formułą (2.5): w Q = η w skłana -tą wagę do zmany wartośc stosowne do beżące wartośc gradentu w chwl, bez względu na dotychczasowy przebeg uczena. W welu przypadkach powodue to zbyt chaotyczne nadążane wektora wag za wektorem pobudzeń; est to szczególne wdoczne przy stosowanu modyfkac wag po prezentac każdego wzorca. Dlatego formułę tę rozbudowue sę często o tzw. człon bezwładnośc (momentum): w t t Q = η + α w w t 1 (0.1) Uzależna on (przez współczynnk α) wartość beżące modyfkac wag od modyfkac przeprowadzone w kroku poprzednm. Im wększe α w stosunku do η, tym algorytm est bardze stablny. Z reguły przymue sę α=0.9. Problem doboru welkośc warstw ukrytych Problem doboru rozmaru poedyncze warstwy pozostae do dzś otwarty. Brak ednoznaczne reguły określaące optymalny rozmar dane warstwy sec przy danym zborze uczącym. Znane są edyne ogólne zalecena, podyktowane ntucą dośwadczenem praktycznym: zbyt mała welkość warstw czyn seć nezdolną do adaptac do zadanego zboru przykładów/wymuszeń: w trakce uczena błąd średnokwadratowy utrzymue dużą wartość zbyt duże warstwy wprowadzaą ryzyko tzw. "uczena na pamęć": dysponuąc dużą lczbą neuronów seć "obemue" każdym z nch małą grupę przykładów (w skranym przypadku poedynczy wzorzec), unkaąć bardze kosztownego poszukwana akeś generalzac
16 Kedy przeprowadzać modyfkacę wag? Dwa podeśca: tzw. batch updatng: Przy prezentac kolenych przykładów poprawk wartośc wag w są kumulowane. Co pewną lczbę prezentac (z reguły równą rozmarow zboru uczącego, tzw. epoka/epoch) wag są modyfkowane przy pomocy tych skumulowanych poprawek. modyfkaca przyrostowa: Poprawk oblczone przy prezentac wzorca są używane bezpośredno (w tym samym kroku algorytmu) do modyfkac wag. Powszechne uważa sę, że batch updatng obcążone est poważną wadą: podczas kumulac poprawek wartośc wag może zachodzć ch wzaemne znoszene sę. Wypadkowa poprawka może być neznaczna, mmo że podczas prezentac poszczególnych wzorców dzałane neuronu obarczone było znacznym błędem. Powodue to obnżene "ruchlwośc" procesu przeszukwana przestrzen wag, a co za tym dze np. trudnośc z wyścem z mnmum lokalnego. Modyfkaca przyrostowa pozbawona est te wady: algorytm est bardze "ruchlwy", ryzyko utknęca w mnmum lokalnym est mnesze. Ne est ono ednak całkowce wyelmnowane: eśl przykłady w kolenych epokach prezentowane są stale w te same kolenośc, traektora sec/neuronu w przestrzen wag może ulec "zapętlenu".
17 Problem "przeuczena" "Przeuczene" (overlearnng): seć uczy sę "zbyt dobrze" poedynczych obektów, ne generalzuąc (szczególne stotne w nteresuącym nas zastosowanu w uczenu maszynowym, ML) y y x x Jak zapobec przeuczenu? dobrze dobrane kryterum stopu "eroza" wag; np. w : = 1 ( ε ) w Ten sam efekt da sę uzyskać dodaąc człon kary do błędu średnokwadratowego: Q = new Q + 1 γ w 2 Wada: bardze karze za edną dużą wagę, nż za wele małych. usuwane wag usuwane nadmarowych neuronów specalzowane algorytmy uczące: cascade correlaton 2
18 Uwag na temat stosowane sec neuronowych R.Tadeusewcz (2000): Sec neuronowe mogą być stosowane z dużym prawdopodobeństwem odnesena sukcesu wszędze tam, gdze poawaą sę problemy zwązane z tworzenem model matematycznych pozwalaących odwzorowywać złożone zależnośc pomędzy pewnym sygnałam weścowym a wybranym sygnałam wyścowym Potrzeba automatycznego w wynku tzw. procesu uczena modelowana złożonych zależnośc. T.Mtchell (1997): Cechy charakterystyczne problemów dla SNN Przykłady uczące opsane są przez pary atrybut-wartość (na ogół zdefnowanych na skalach lczbowych; np. różnego rodzau sygnały lub rezultaty pomarów), Przyblżana funkca może meć wartośc dyskretne lub rzeczywste; może być także wektorem wartośc, Dane mogą zawerać błędy lub podlegać zaszumenu ; SSN są odporne na różnego rodzau uszkodzena danych, Akceptowalny est dług czas uczena sec, Akceptaca dla potencalne duże lczby parametrów algorytmu, które wymagaą dostroena metodam eksperymentalnym, Zadane ne wymaga rozumena przez człoweka funkc nauczone przez SNN - trudnośc z nterpretacą wedzy nabyte przez seć.
Wykład 2: Uczenie nadzorowane sieci neuronowych - I
Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za
Bardziej szczegółowoWykład 2: Uczenie nadzorowane sieci neuronowych - I
Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za
Bardziej szczegółowo1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda
Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy
Bardziej szczegółowowiedzy Sieci neuronowe (c.d.)
Metody detekci uszkodzeń oparte na wiedzy Sieci neuronowe (c.d.) Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 8 Metody detekci uszkodzeń oparte na wiedzy Wprowadzenie
Bardziej szczegółowoNeural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych.
Neural networks Lecture Notes n Pattern Recognton by W.Dzwnel Krótka hstora McCulloch Ptts (1943) - perwszy matematyczny ops dzalana neuronu przetwarzana przez nego danych. Proste neurony, które mogly
Bardziej szczegółowoPlan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty)
Plan wykładu Dzałane neuronu dyskretnego warstwy neuronów dyskretnych Wykład : Reguły uczena sec neuronowych. Sec neuronowe ednokerunkowe. Reguła perceptronowa Reguła Wdrowa-Hoffa Reguła delta ałgorzata
Bardziej szczegółowoSZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 8. SZTUCZNE SIECI NEURONOWE INNE ARCHITEKTURY Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska SIEĆ O RADIALNYCH FUNKCJACH BAZOWYCH
Bardziej szczegółowoIMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ
IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,
Bardziej szczegółowoSztuczna Inteligencja Tematy projektów Sieci Neuronowe
PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia
Bardziej szczegółowoMetody Sztucznej Inteligencji II
17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału
Bardziej szczegółowoPodstawy Sztucznej Inteligencji (PSZT)
Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12
Bardziej szczegółowoSztuczne sieci neuronowe
www.math.uni.lodz.pl/ radmat Cel wykładu Celem wykładu jest prezentacja różnych rodzajów sztucznych sieci neuronowych. Biologiczny model neuronu Mózg człowieka składa się z około 10 11 komórek nerwowych,
Bardziej szczegółowoWykład 1: Wprowadzenie do sieci neuronowych
Wykład 1: Wprowadzenie do sieci neuronowych Historia badań nad sieciami neuronowymi. - początki: badanie komórek ośrodkowego układu nerwowego zwierząt i człowieka, czyli neuronów; próby wyjaśnienia i matematycznego
Bardziej szczegółowoSZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 5. SZTUCZNE SIECI NEURONOWE REGRESJA Częstochowa 4 Dr hab. nż. Grzegorz Dudek Wdzał Elektrczn Poltechnka Częstochowska PROBLEM APROKSYMACJI FUNKCJI Aproksmaca funkc przblżane
Bardziej szczegółowoNajprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;
Sieci Hopfielda Najprostsze modele sieci z rekurencją sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Modele bardziej złoŝone: RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie
Bardziej szczegółowoProblem plecakowy (KNAPSACK PROBLEM).
Problem plecakowy (KNAPSACK PROBLEM). Zagadnene optymalzac zwane problemem plecakowym swą nazwę wzęło z analog do sytuac praktyczne podobne do problemu pakowana plecaka. Chodz o to, by zapakować maksymalne
Bardziej szczegółowoUczenie sieci typu MLP
Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik
Bardziej szczegółowoLiteratura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu
Literatura Wykład : Wprowadzenie do sztucznych sieci neuronowych Małgorzata Krętowska Wydział Informatyki Politechnika Białostocka Tadeusiewicz R: Sieci neuronowe, Akademicka Oficyna Wydawnicza RM, Warszawa
Bardziej szczegółowoPodstawy sztucznej inteligencji
wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,
Bardziej szczegółowoAnaliza danych OGÓLNY SCHEMAT. http://zajecia.jakubw.pl/ Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja)
Analza danych Dane trenngowe testowe. Algorytm k najblższych sąsadów. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ OGÓLNY SCHEMAT Mamy dany zbór danych podzelony na klasy decyzyjne, oraz
Bardziej szczegółowoInteligentne systemy przeciw atakom sieciowym
Inteligentne systemy przeciw atakom sieciowym wykład Sztuczne sieci neuronowe (SSN) Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 1 / 36 Biologiczne
Bardziej szczegółowoSystemy Inteligentnego Przetwarzania wykład 3: sieci rekurencyjne, sieci samoorganizujące się
Systemy Intelgentnego Przetwarzana wykład 3: sec rekurencyne, sec samoorganzuące sę Dr nż. Jacek Mazurkewcz Katedra Informatyk Technczne e-mal: Jacek.Mazurkewcz@pwr.edu.pl Sec neuronowe ze sprzężenem Sprzężena
Bardziej szczegółowoSieci Neuronowe 1 Michał Bereta
Wprowadzene Zagadnena Sztucznej Intelgencj laboratorum Sec Neuronowe 1 Mchał Bereta Sztuczne sec neuronowe można postrzegać jako modele matematyczne, które swoje wzorce wywodzą z bolog obserwacj ludzkch
Bardziej szczegółowoInteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska
Bardziej szczegółowoWstęp do sztucznych sieci neuronowych
Wstęp do sztucznych sieci neuronowych Michał Garbowski Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Wydział Informatyki 15 grudnia 2011 Plan wykładu I 1 Wprowadzenie Inspiracja biologiczna
Bardziej szczegółowoAlgorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa
Bardziej szczegółowoTemat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE
Temat: Sztuczne Sieci Neuronowe Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sztuczne sieci neuronowe
Bardziej szczegółowoSIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe
SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe JOANNA GRABSKA-CHRZĄSTOWSKA Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA BUDOWA RZECZYWISTEGO NEURONU
Bardziej szczegółowosynaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.
Sieci neuronowe model konekcjonistyczny Plan wykładu Mózg ludzki a komputer Modele konekcjonistycze Perceptron Sieć neuronowa Uczenie sieci Sieci Hopfielda Mózg ludzki a komputer Twój mózg to 00 000 000
Bardziej szczegółowoSztuczne sieci neuronowe
Wydział Zarządzania AGH Katedra Informatyki Stosowanej Sztuczne sieci neuronowe Sztuczne sieci neuronowe Wprowadzenie Trochę historii Podstawy działania Funkcja aktywacji Typy sieci 2 Wprowadzenie Zainteresowanie
Bardziej szczegółowoWielokategorialne systemy uczące się i ich zastosowanie w bioinformatyce. Rafał Grodzicki
Welokategoralne systemy uząe sę h zastosowane w bonformatye Rafał Grodzk Welokategoralny system uząy sę (multlabel learnng system) Zbór danyh weśowyh: d X = R Zbór klas (kategor): { 2 } =...Q Zbór uząy:
Bardziej szczegółowoElementy inteligencji obliczeniowej
Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego
Bardziej szczegółowoW praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np.
Wykład 7 Uwaga: W praktyce często zdarza sę, że wynk obu prób możemy traktować jako wynk pomarów na tym samym elemence populacj np. wynk x przed wynk y po operacj dla tego samego osobnka. Należy wówczas
Bardziej szczegółowoWikiWS For Business Sharks
WkWS For Busness Sharks Ops zadana konkursowego Zadane Opracowane algorytmu automatyczne przetwarzającego zdjęce odręczne narysowanego dagramu na tablcy lub kartce do postac wektorowej zapsanej w formace
Bardziej szczegółowoSZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW
SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW Stefan WÓJTOWICZ, Katarzyna BIERNAT ZAKŁAD METROLOGII I BADAŃ NIENISZCZĄCYCH INSTYTUT ELEKTROTECHNIKI ul. Pożaryskego 8, 04-703 Warszawa tel.
Bardziej szczegółowoUczenie sieci radialnych (RBF)
Uczenie sieci radialnych (RBF) Budowa sieci radialnej Lokalne odwzorowanie przestrzeni wokół neuronu MLP RBF Budowa sieci radialnych Zawsze jedna warstwa ukryta Budowa neuronu Neuron radialny powinien
Bardziej szczegółowoNeuron liniowy. Najprostsza sieć warstwa elementów liniowych
Najprostsza jest jednostka lnowa: Neuron lnowy potraf ona rozpoznawać wektor wejścowy X = (x 1, x 2,..., x n ) T zapamętany we współczynnkach wagowych W = (w 1, w 2,..., w n ), Zauważmy, że y = W X Załóżmy,
Bardziej szczegółowoPodstawy teorii falek (Wavelets)
Podstawy teor falek (Wavelets) Ψ(). Transformaca Haara (97).. Przykład pewne metody zapsu obrazu Transformaca Haara Przykład zapsu obrazu -D Podstawy matematyczne transformac Algorytmy rozkładana funkc
Bardziej szczegółowoZastosowania sieci neuronowych
Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką
Bardziej szczegółowoWstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.
Wstęp do teorii sztucznej inteligencji Wykład III Modele sieci neuronowych. 1 Perceptron model najprostzszy przypomnienie Schemat neuronu opracowany przez McCullocha i Pittsa w 1943 roku. Przykład funkcji
Bardziej szczegółowo± Δ. Podstawowe pojęcia procesu pomiarowego. x rzeczywiste. Określenie jakości poznania rzeczywistości
Podstawowe pojęca procesu pomarowego kreślene jakośc poznana rzeczywstośc Δ zmerzone rzeczywste 17 9 Zalety stosowana elektrycznych przyrządów 1/ 1. możlwość budowy czujnków zamenających werne każdą welkość
Bardziej szczegółowoS O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor
S O M SELF-ORGANIZING MAPS Przemysław Szczepańczyk Łukasz Myszor Podstawy teoretyczne Map Samoorganizujących się stworzył prof. Teuvo Kohonen (1982 r.). SOM wywodzi się ze sztucznych sieci neuronowych.
Bardziej szczegółowoSztuczne sieci neuronowe (SNN)
Sztuczne sieci neuronowe (SNN) Pozyskanie informacji (danych) Wstępne przetwarzanie danych przygotowanie ich do dalszej analizy Selekcja informacji Ostateczny model decyzyjny SSN - podstawy Sieci neuronowe
Bardziej szczegółowoWykład 1 Zagadnienie brzegowe liniowej teorii sprężystości. Metody rozwiązywania, metody wytrzymałości materiałów. Zestawienie wzorów i określeń.
Wykład Zagadnene brzegowe lnowe teor sprężystośc. Metody rozwązywana, metody wytrzymałośc materałów. Zestawene wzorów określeń. Układ współrzędnych Kartezańsk, prostokątny. Ose x y z oznaczono odpowedno
Bardziej szczegółowoBIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.
Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej BIOCYBERNETYKA Adrian Horzyk SIECI NEURONOWE www.agh.edu.pl Mózg inspiruje nas od wieków Co takiego
Bardziej szczegółowowiedzy Sieci neuronowe
Metody detekcji uszkodzeń oparte na wiedzy Sieci neuronowe Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 7 Wprowadzenie Okres kształtowania się teorii sztucznych sieci
Bardziej szczegółowoSZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 15. ALGORYTMY GENETYCZNE Częstochowa 014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska TERMINOLOGIA allele wartośc, waranty genów, chromosom - (naczej
Bardziej szczegółowoSTATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH
STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH 1 Test zgodnośc χ 2 Hpoteza zerowa H 0 ( Cecha X populacj ma rozkład o dystrybuance F). Hpoteza alternatywna H1( Cecha X populacj
Bardziej szczegółowoSIECI RBF (RADIAL BASIS FUNCTIONS)
SIECI RBF (RADIAL BASIS FUNCTIONS) Wybrane slajdy z prezentacji prof. Tadeusiewicza Wykład Andrzeja Burdy S. Osowski, Sieci Neuronowe w ujęciu algorytmicznym, Rozdz. 5, PWNT, Warszawa 1996. opr. P.Lula,
Bardziej szczegółowoBadanie współzależności dwóch cech ilościowych X i Y. Analiza korelacji prostej
Badane współzależnośc dwóch cech loścowych X Y. Analza korelacj prostej Kody znaków: żółte wyróżnene nowe pojęce czerwony uwaga kursywa komentarz 1 Zagadnena 1. Zwązek determnstyczny (funkcyjny) a korelacyjny.
Bardziej szczegółowoMETODY INŻYNIERII WIEDZY
METODY INŻYNIERII WIEDZY SZTUCZNE SIECI NEURONOWE MLP Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i Inżynierii
Bardziej szczegółowoKURS STATYSTYKA. Lekcja 6 Regresja i linie regresji ZADANIE DOMOWE. www.etrapez.pl Strona 1
KURS STATYSTYKA Lekcja 6 Regresja lne regresj ZADANIE DOMOWE www.etrapez.pl Strona 1 Część 1: TEST Zaznacz poprawną odpowedź (tylko jedna jest prawdzwa). Pytane 1 Funkcja regresj I rodzaju cechy Y zależnej
Bardziej szczegółowoObliczenia Naturalne - Sztuczne sieci neuronowe
Literatura Wprowadzenie Obliczenia Naturalne - Sztuczne sieci neuronowe Paweł Paduch Politechnika Świętokrzyska 13 marca 2014 Paweł Paduch Obliczenia Naturalne - Sztuczne sieci neuronowe 1 z 43 Plan wykładu
Bardziej szczegółowoElementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2
Elementy Sztucznej Inteligencji Sztuczne sieci neuronowe cz. 2 1 Plan wykładu Uczenie bez nauczyciela (nienadzorowane). Sieci Kohonena (konkurencyjna) Sieć ze sprzężeniem zwrotnym Hopfielda. 2 Cechy uczenia
Bardziej szczegółowoTemat: Sieci neuronowe oraz technologia CUDA
Elbląg, 27.03.2010 Temat: Sieci neuronowe oraz technologia CUDA Przygotował: Mateusz Górny VIII semestr ASiSK Wstęp Sieci neuronowe są to specyficzne struktury danych odzwierciedlające sieć neuronów w
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.
Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 2013-11-26 Projekt pn. Wzmocnienie potencjału
Bardziej szczegółowoMODELOWANIE RZECZYWISTOŚCI
MODELOWANIE RZECZYWISTOŚCI Daniel Wójcik Instytut Biologii Doświadczalnej PAN Szkoła Wyższa Psychologii Społecznej d.wojcik@nencki.gov.pl dwojcik@swps.edu.pl tel. 022 5892 424 http://www.neuroinf.pl/members/danek/swps/
Bardziej szczegółowoSieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska
Sieci neuronowe w Statistica Agnieszka Nowak - Brzezioska Podstawowym elementem składowym sztucznej sieci neuronowej jest element przetwarzający neuron. Schemat działania neuronu: x1 x2 w1 w2 Dendrites
Bardziej szczegółowoSeminarium magisterskie. Dyskusja nad tematem pracy magisterskiej pisanej pod kierunkiem pani Dr hab. Małgorzaty Doman
Seminarium magisterskie Dyskusja nad tematem pracy magisterskiej pisanej pod kierunkiem pani Dr hab. Małgorzaty Doman Plan wystąpienia Ogólnie o sztucznych sieciach neuronowych Temat pracy magisterskiej
Bardziej szczegółowoOCENA DZIAŁANIA AE. METODY HEURYSTYCZNE wykład 4 LOSOWOŚĆ W AE KRZYWE ZBIEŻNOŚCI ANALIZA STATYSTYCZNA:
METODY HEURYSTYCZNE wykład 4 OCENA DZIAŁANIA AE 1 2 LOSOWOŚĆ W AE Różne zachowanie algorytmuw poszczególnych uruchomieniach przy jednakowych ustawieniach parametrów i identycznych populacjach początkowych.
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3
Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt
Bardziej szczegółowoLaboratorium ochrony danych
Laboratorum ochrony danych Ćwczene nr Temat ćwczena: Cała skończone rozszerzone Cel dydaktyczny: Opanowane programowej metody konstruowana cał skończonych rozszerzonych GF(pm), poznane ch własnośc oraz
Bardziej szczegółowoElementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron
Elementy kognitywistyki II: Sztuczna inteligencja WYKŁAD X: Sztuczny neuron Koneksjonizm: wprowadzenie 1943: Warren McCulloch, Walter Pitts: ogólna teoria przetwarzania informacji oparta na sieciach binarnych
Bardziej szczegółowoSieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ
optymalizacje podejmowanych decyzji Tomasz Karczyoski Wydział W-08 IZ Czym są sieci neuronowe Struktura matematycznych oraz programowy lub sprzętowy model, realizujących obliczenia lub przetwarzanie sygnałów
Bardziej szczegółowoLekcja 5: Sieć Kohonena i sieć ART
Lekcja 5: Sieć Kohonena i sieć ART S. Hoa Nguyen 1 Materiał Sieci Kohonena (Sieć samo-organizująca) Rysunek 1: Sieć Kohonena Charakterystyka sieci: Jednowarstwowa jednokierunkowa sieć. Na ogół neurony
Bardziej szczegółowoAlgorytmy. i podstawy programowania. eci. Proste algorytmy sortowania tablic. 4. Wskaźniki i dynamiczna alokacja pami
MAREK GAGOLEWSKI INSTYTUT BADAŃ SYSTEMOWYCH PAN Algorytmy podstawy programowana 4. Wskaźnk dynamczna alokaca pam ec. Proste algorytmy sortowana tablc Matera ly dydaktyczne dla studentów matematyk na Wydzale
Bardziej szczegółowoWidzenie komputerowe
Widzenie komputerowe Uczenie maszynowe na przykładzie sieci neuronowych (3) źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Zdolność uogólniania sieci neuronowej R oznaczenie
Bardziej szczegółowoWykład 1: Wprowadzenie do sieci neuronowych
Wykład 1: Wprowadzenie do sieci neuronowych Historia badań nad sieciami neuronowymi. początki: badanie komórek ośrodkowego układu nerwowego zwierząt i człowieka, czyli neuronów; próby wyjaśnienia i matematycznego
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
Bardziej szczegółowoOGÓLNE PODSTAWY SPEKTROSKOPII
WYKŁAD 8 OGÓLNE PODSTAWY SPEKTROSKOPII E E0 sn( ωt kx) ; k π ; ω πν ; λ T ν E (m c 4 p c ) / E +, dla fotonu m 0 p c p hk Rozkład energ w stane równowag: ROZKŁAD BOLTZMANA!!!!! P(E) e E / kt N E N E/
Bardziej szczegółowoUrządzenia wejścia-wyjścia
Urządzena wejśca-wyjśca Klasyfkacja urządzeń wejśca-wyjśca. Struktura mechanzmu wejśca-wyjśca (sprzętu oprogramowana). Interakcja jednostk centralnej z urządzenam wejśca-wyjśca: odpytywane, sterowane przerwanam,
Bardziej szczegółowoKlasyfkator lnowy Wstęp Klasyfkator lnowy jest najprostszym możlwym klasyfkatorem. Zakłada on lnową separację lnowy podzał dwóch klas mędzy sobą. Przedstawa to ponższy rysunek: 5 4 3 1 0-1 - -3-4 -5-5
Bardziej szczegółowoNEURAL NETWORK ) FANN jest biblioteką implementującą SSN, którą moŝna wykorzystać. w C, C++, PHP, Pythonie, Delphi a nawet w środowisku. Mathematica.
Wykorzystanie sztucznych sieci neuronowych do rozpoznawania języków: polskiego, angielskiego i francuskiego Tworzenie i nauczanie sieci przy pomocy języka C++ i biblioteki FANN (Fast Artificial Neural
Bardziej szczegółowoRozwiązywanie zadań optymalizacji w środowisku programu MATLAB
Rozwązywane zadań optymalzacj w środowsku programu MATLAB Zagadnene optymalzacj polega na znajdowanu najlepszego, względem ustalonego kryterum, rozwązana należącego do zboru rozwązań dopuszczalnych. Standardowe
Bardziej szczegółowoElementy kognitywistyki III: Modele i architektury poznawcze
Elementy kognitywistyki III: Modele i architektury poznawcze Wykład III: Psychologiczne modele umysłu Gwoli przypomnienia: Kroki w modelowaniu kognitywnym: teoretyczne ramy pojęciowe (modele pojęciowe)
Bardziej szczegółowoSieci neuronowe w Statistica
http://usnet.us.edu.pl/uslugi-sieciowe/oprogramowanie-w-usk-usnet/oprogramowaniestatystyczne/ Sieci neuronowe w Statistica Agnieszka Nowak - Brzezińska Podstawowym elementem składowym sztucznej sieci neuronowej
Bardziej szczegółowoInteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe wykład 1. Właściwości sieci neuronowych Model matematyczny sztucznego neuronu Rodzaje sieci neuronowych Przegląd d głównych g
Bardziej szczegółowoProjekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE
Inormatyka Podstawy Programowana 06/07 Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE 6. Równana algebraczne. Poszukujemy rozwązana, czyl chcemy określć perwastk rzeczywste równana:
Bardziej szczegółowo2012-10-11. Definicje ogólne
0-0- Defncje ogólne Logstyka nauka o przepływe surowców produktów gotowych rodowód wojskowy Utrzyywane zapasów koszty zwązane.n. z zarożene kaptału Brak w dostawach koszty zwązane.n. z przestoje w produkcj
Bardziej szczegółowoPodstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe. Krzysztof Regulski, WIMiIP, KISiM, B5, pok. 408
Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe Krzysztof Regulski, WIMiIP, KISiM, regulski@aghedupl B5, pok 408 Inteligencja Czy inteligencja jest jakąś jedną dziedziną, czy też jest to nazwa
Bardziej szczegółowoZapis informacji, systemy pozycyjne 1. Literatura Jerzy Grębosz, Symfonia C++ standard. Harvey M. Deitl, Paul J. Deitl, Arkana C++. Programowanie.
Zaps nformacj, systemy pozycyjne 1 Lteratura Jerzy Grębosz, Symfona C++ standard. Harvey M. Detl, Paul J. Detl, Arkana C++. Programowane. Zaps nformacj w komputerach Wszystke elementy danych przetwarzane
Bardziej szczegółowoBadania operacyjne w logistyce i zarządzaniu produkcją
Państwowa Wyższa Szkoła Zawodowa w Nowym Sączu Badana operacyne w logstyce zarządzanu produkcą cz. I Andrze Woźnak Nowy Sącz Komtet Redakcyny doc. dr Zdzsława Zacłona przewodncząca, prof. dr hab. nż. Jarosław
Bardziej szczegółowoMETODY INTELIGENCJI OBLICZENIOWEJ wykład 5
METODY INTELIGENCJI OBLICZENIOWEJ wykład 5 1 2 SZTUCZNE SIECI NEURONOWE cd 3 UCZENIE PERCEPTRONU: Pojedynczy neuron (lub 1 warstwa neuronów) typu percep- tronowego jest w stanie rozdzielić przestrzeń obsza-
Bardziej szczegółowoMODEL PROGNOZUJĄCY EKOEFEKTYWNOŚĆ TECHNOLOGII ZRÓWNOWAŻONEGO ROZWOJU W OPARCIU O SIECI NEURONOWE
ZADANIA 3.4., 3.5. 3.6 OPRACOWANIE, TESTOWANIE I WERYFIKACJA ALGORYTMU MODELU OCENY EKOEFEKTYWNOŚCI TECHNOLOGII MODEL PROGNOZUJĄCY EKOEFEKTYWNOŚĆ TECHNOLOGII ZRÓWNOWAŻONEGO ROZWOJU W OPARCIU O SIECI NEURONOWE
Bardziej szczegółowo8. Neuron z ciągłą funkcją aktywacji.
8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i
Bardziej szczegółowoPlan wykładu: Typowe dane. Jednoczynnikowa Analiza wariancji. Zasada: porównać zmienność pomiędzy i wewnątrz grup
Jednoczynnkowa Analza Waranc (ANOVA) Wykład 11 Przypomnene: wykłady zadana kursu były zaczerpnęte z podręcznków: Statystyka dla studentów kerunków techncznych przyrodnczych, J. Koronack, J. Melnczuk, WNT
Bardziej szczegółowoPoszukiwanie optymalnego wyrównania harmonogramu zatrudnienia metodą analityczną
Mieczysław POŁOŃSKI Wydział Budownictwa i Inżynierii Środowiska, Szkoła Główna Gospodarstwa Wieskiego, Warszawa, ul. Nowoursynowska 159 e-mail: mieczyslaw_polonski@sggw.pl Poszukiwanie optymalnego wyrównania
Bardziej szczegółowoOprogramowanie Systemów Obrazowania SIECI NEURONOWE
SIECI NEURONOWE Przedmiotem laboratorium jest stworzenie algorytmu rozpoznawania zwierząt z zastosowaniem sieci neuronowych w oparciu o 5 kryteriów: ile zwierzę ma nóg, czy żyje w wodzie, czy umie latać,
Bardziej szczegółowoSIECI REKURENCYJNE SIECI HOPFIELDA
SIECI REKURENCYJNE SIECI HOPFIELDA Joanna Grabska- Chrząstowska Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA SPRZĘŻENIE ZWROTNE W NEURONIE LINIOWYM sygnał
Bardziej szczegółowoRUCH OBROTOWY Można opisać ruch obrotowy ze stałym przyspieszeniem ε poprzez analogię do ruchu postępowego jednostajnie zmiennego.
RUCH OBROTOWY Można opsać ruch obrotowy ze stałym przyspeszenem ε poprzez analogę do ruchu postępowego jednostajne zmennego. Ruch postępowy a const. v v at s s v t at Ruch obrotowy const. t t t Dla ruchu
Bardziej szczegółowoAlgorytmy decyzyjne będące alternatywą dla sieci neuronowych
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny
Bardziej szczegółowoSztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335
Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Wykład 10 Mapa cech Kohonena i jej modyfikacje - uczenie sieci samoorganizujących się - kwantowanie wektorowe
Bardziej szczegółowoProf. Stanisław Jankowski
Prof. Stanisław Jankowski Zakład Sztucznej Inteligencji Zespół Statystycznych Systemów Uczących się p. 228 sjank@ise.pw.edu.pl Zakres badań: Sztuczne sieci neuronowe Maszyny wektorów nośnych SVM Maszyny
Bardziej szczegółowoWprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu
Wprowadzene do Sec Neuronowych Algorytm wstecznej propagacj błędu Maja Czoków, Jarosław Persa --6 Powtórzene. Perceptron sgmodalny Funkcja sgmodalna: σ(x) = + exp( c (x p)) Parametr c odpowada za nachylene
Bardziej szczegółowoWykład Turbina parowa kondensacyjna
Wykład 9 Maszyny ceplne turbna parowa Entropa Równane Claususa-Clapeyrona granca równowag az Dośwadczena W. Domnk Wydzał Fzyk UW ermodynamka 08/09 /5 urbna parowa kondensacyjna W. Domnk Wydzał Fzyk UW
Bardziej szczegółowoSystemy Ochrony Powietrza Ćwiczenia Laboratoryjne
ś POLITECHNIKA POZNAŃSKA INSTYTUT INŻYNIERII ŚRODOWISKA PROWADZĄCY: mgr nż. Łukasz Amanowcz Systemy Ochrony Powetrza Ćwczena Laboratoryjne 2 TEMAT ĆWICZENIA: Oznaczane lczbowego rozkładu lnowych projekcyjnych
Bardziej szczegółowoWprowadzenie do Sieci Neuronowych Sieci rekurencyjne
Wprowadzene do Sec Neuronowych Sec rekurencyjne M. Czoków, J. Persa 2010-12-07 1 Powtórzene Konstrukcja autoasocjatora Hopfelda 1.1 Konstrukcja Danych jest m obrazów wzorcowych ξ 1..ξ m, gdze każdy pojedynczy
Bardziej szczegółowoSYSTEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE METODY KLASYFIKACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.
SYSEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE MEODY KLASYFIKACJI Częstochowa 4 Dr hab. nż. Grzegorz Dude Wydzał Eletryczny Poltechna Częstochowsa FUNKCJE FISHEROWSKA DYSKRYMINACYJNE DYSKRYMINACJA I MASZYNA LINIOWA
Bardziej szczegółowoModelowanie i obliczenia techniczne. Metody numeryczne w modelowaniu: Optymalizacja
Modelowane oblczena technczne Metody numeryczne w modelowanu: Optymalzacja Zadane optymalzacj Optymalzacja to ulepszane lub poprawa jakośc danego rozwązana, projektu, opracowana. Celem optymalzacj jest
Bardziej szczegółowoELEMENTY SZTUCZNEJ INTELIGENCJI. Sztuczne sieci neuronowe
ELEMENTY SZTUCZNEJ INTELIGENCJI Sztuczne sieci neuronowe Plan 2 Wzorce biologiczne. Idea SSN - model sztucznego neuronu. Perceptron prosty i jego uczenie regułą delta Perceptron wielowarstwowy i jego uczenie
Bardziej szczegółowo