Systemy Inteligentnego Przetwarzania wykład 3: sieci rekurencyjne, sieci samoorganizujące się
|
|
- Patrycja Urbańska
- 6 lat temu
- Przeglądów:
Transkrypt
1 Systemy Intelgentnego Przetwarzana wykład 3: sec rekurencyne, sec samoorganzuące sę Dr nż. Jacek Mazurkewcz Katedra Informatyk Technczne e-mal:
2 Sec neuronowe ze sprzężenem Sprzężena zwrotne mędzy neuronam Dynamczne relace występuące w sec Poedyncza zmana stanu propagowana w całe sec Stan stablny wynkem prześca przez tymczasowe Stan stablny wynka z wag w sec ukształtowanych Sec rekurencyne maą symetryczne zestawy wag
3 Pamęć asocacyna Pamęć skoarzenowa ak w mózgu ludzkm Pamęć asocacyna gromadz obrazy Procedura uczena wdrukowane obrazów w wag Generowane odpowedz - prezentaca obrazu nablższego temu, który na weścu auto-asocaca: hetero-asocaca: Smoth Smth Smth cecha Smtha
4 Seć Hopfelda (1) Odległość Hammnga bnarny sygnał w d H = n = 1 [ x (1 y ) + (1 x ) y ] x 1 v 1 y 1 Jeśl odległość zero, to: y = x x 2 v 2 y 2 Odległość Hammnga to lczba różnących sę btów x N-1 x N v N-1 v N y N-1 y N neuron
5 Generowane odpowedz (1) Neuron wykonue dwe operace: w lczy sumę ważoną: p N wpv k = 1 ( k+ 1) ( ) = p x 1 v 1 y 1 aktualzue stan: ( + 1) v p k gdze: w p v (k) p = 1 for ( k+ 1) p 0 v p( k) for ( k+ 1) = p 0 1 for ( k+ 1) 0 waga sprzężene zwrotne sygnał sprzężena zwrotnego bas p x 2 x N-1 x N v 2 v N-1 v N neuron y 2 y N-1 y N
6 Generowane odpowedz (2) warunek początkowy: v ( 0) = x p p p w proces powtarzany do uzyskana zbeżnośc - brak zman w każdym neurone x 1 v 1 y 1 v ( k+ 1) = v ( k) = y p p p p uzyskane zbeżnośc osągnęce lokalnego mnmum funkc energetyczne, funkc Lapunova: 1 N N E( x) = w x x + x 2 = 1 = 1 = 1 N x 2 x N-1 v 2 v N-1 y 2 y N E x x T T ( ) = W x + x x N v N y N neuron
7 Uczene regułą Hebba ednokrotna prezentaca każdego wzorca uczącego w dane wędruą medzy wszystkm neuronam w sec x 1 v 1 y 1 w 1 = N 0 M ( m) ( m) x x dla m= 1 dla = x 2 v 2 y 2 warunek zbeżnośc: w = 0 w = w p pp p p p x N-1 v N-1 y N-1 algorytm: łatwy, szybk, mała poemność sec M = max N x N v N y N neuron
8 Pseudonwersa prawdłowe wag to: sygnały weścowe dostępne na wyścu stan stablny natychmast: W X = X x 1 v 1 w y 1 rozwązane równana macerzowego: x 2 v 2 y 2 ( T ) 1 W = X X X X T algorytm: złożony, duża poemność sec x N-1 v N-1 y N-1 M max = N x N v N y N neuron
9 Reguła Delta stroene wag krok po kroku z wyznaczanem beżące wartośc błędu: = + ( ) ( ) ( ) N W W x W x x , stała uczena T x 1 x 2 v 1 v 2 w y 1 y 2 podobny do metod gradentowych - ak w perceptrone welowarstwowym x N-1 v N-1 y N-1 algorytm: złożony, duża poemność sec M max = N x N v N y N neuron
10 Faza odtworzenowa Sygnały mocno uszkodzone mogą prowadzć do neznanych odpowedz stan sec est dalek od wypracowanego w procese uczena Wartość funkc energetyczne est dentyczna dla symetrycznych pobudzeń (+1,+1,-1) == (-1,-1,+1) oba rozwązana są tak samo dobre Procedura uczena może tworzyć dodatkowe lokalne mnma ako lnowe złożene wzorców uczących Dodatkowe mnma lokalne ne są zwązane ze wzorcam szczególne ważne przy duże lczbe wzorców uczących
11 Przykład praktyczny 10 cyfr, 7x7 pksel Reguła Hebba: 1 prawdłowa odpowedź Pseudonwersa delta: 7 prawdłowych odpowedz 9 odpowedz 1 zły pksel 4 odpowedz 2 złe pksele
12 Seć Hammnga (1)
13 Seć Hammnga (2) Seć Hammnga klasyfkator maksymalnego podobeństwa bnarne pobudzena zaszumone Lower Sub Net wyznacza N mnus odległość Hammnga względem M wzorców Upper Sub Net wybera węzeł o maksymalne odpowedz Węzły z progowanem nelnowym wyśca sę ne nasycaą Prog w wag Maxnet-u są stałe Prog zerowe, wag ustawone na 1 Wag o właścwoścach zbegana odpowedz
14 Seć Hammnga (3) dla Lower Sub Neta: w x = = N 2 2 wag w Maxnet-ce: for 0 N 1 and 0 M 1 wlk = 1 f f k k = 1 1 for 0 l, k M and 1 M a prog w Maxnet-ce zerowe
15 Seć Hammnga (4) wyśce Lower Sub Net-a to: = N 1 w x = 0 dla stałych wag Maxnet-a: y Maxnet wykonue co następue: ( ) f ( ) t for 0 N 1 and 0 M 1 0 = for 0 M 1 t t t y + = f y y ( ) ( ) ( ) t k k 1 for 0, k M 1 proces prowadzony est aż do uzyskana zbeżnośc
16 Samoorganzaca Uczene bez nauczycela przez obftość danych Uczene nenadzorowane gdze sensowne(?): znadowane podobeństwa algorytmy PCA klasyfkaca archetypy mapy cech
17 Eksperyment Pavlova POKARM (UCS) ŚLINOTOK (UCR) POKARM+DZWONEK (UCS + CS) ŚLINOTOK (CR) DZWONEK (CS) ŚLINOTOK (CR) CS CR UCS UCR pobudzene warunkowe warunkowa reakca pobudzene bezwarunkowe bezwarunkowa reakca
18 Zastosowana szukane podobeństw ednowyścowe sec ak blsko est sygnał weścowy do mary średne PCA seć welowyścowa edno wyśce eden element PCA elementy PCA odpowedzalne na podobeństwo wektor wyścowy mara korelac klasyfkaca bnarna seć welowyścowa kod 1 z n odnadywane pamętanych wzorców pamęć asocacyna kodowane kompresa danych
19 Reguła Hebba (1949) Neuron A pobudzany cyklczne przez neuron B stae sę coraz bardze podatny na pobudzene od neuronu B f(a) funkca aktywac może być lnowa X 1 W 1 w ( k + 1) = w( k) + w( k ) X 2 W 2 u f(a ) y w = x ( k) y ( k) W m X m
20 Idea reguły Hebba Problem: brak lmtów dla wag w = F( x, y ) Rozwązane: zestaw ogranczeń(lnsker) reguła Oa Ogranczena: Reguła Oa : reguła Hebba + normalzaca dodatkowe ogranczena: w w [ w, w + ] y ( k) = 0; m = 0 w = x ( k) = y ( k)[ x ( k) y ( k) w ( k)] x y w x ( k) y 0; w ( k) ( k) 0
21 Prncpal Component Analyss - PCA Lnearna konwersa do zredukowane przestrzen zachowuemy nastotnesze cechy procesu stochastycznego x Czynnk główny wektor wag według Oa : Kolene czynk reguła Sangera: y = Wx N K R x N N K K R W R y + ) ( ) ( ) ( k x W k x W k y N T = = = = = N k W x k y 0 ) ( ) (
22 Seć Rubnera & Tavana 1989 (1) Poedyncza warstwa ednokerunkowość wag: warstwa weścowa zgodne z regułą Hebba: w = x y Połączena wewnętrzne zgodne z regułą anty-hebb-ową: v = y y
23 Seć Rubnera & Tavana 1989 (2) y 1 y 2 y 3 y 4 v 41 v v v 21 v 32 v 43 w 11 w 45 x 1 x 2 x 3 x 4 x 5
24 Kompresa obrazu PCA Nadmar danych weścowych zastąpony przez małą lczbę kombnac wektora y w Stopeń kompres lczba komponentów PCA czynnk odpowedzalny za akość odtworzenową Węce czynnków: lepsza akość nższy współczynnk kompres Obraz odtworzony poprzez: 2 czynnk główne stopeń kompres: 28
25 Samoorganzuące sec neuronowe Akce nter-neuronowe Cel: weśce mapowane na wyśce Grupowane danych podobnych Separowane grup Seć Kohonena T. Kohonen z Fnland!
26 Uczene rywalzacyne WTA Wnner Takes All WTM Wnner Takes Most W X Y
27 WTA (1) Poedyncza warstwa neuronów przetwarzaących Komponenty sygnału weścowego x ładowane do wszystkch neuronów rywalzuących Start wartośc wag losowy Każdy neuron wyznacza sumę ważoną: Neuron zwycęzca to ten co maksymalną odpowedź ma! Neuron zwycęzca fnalne odpowedź równa 1 Odpowedz nnych neuronów równe 0 u = w x
28 WTA (2) Perwsza prezentaca wzorców by znaleźć neurony będące potencalnym zwycęzcam Modyfkaca wag zgodne z regułą Grossberga Jeśl sygnały uczące są zblżone do wektora wag neuronu zwycęzcy to wag tego neuronu reprezentuą wartość średną W X
29 WTM (1) Szukane zwycęzcy ak w WTA Wyśce neuronu zwycęzcy maksymalna Neuron zwycęzca aktywzue sąsadów swych Dystans mędzy neuronam warunkue stopeń aktywzac Stopeń aktywzac fragmentem procedury uczena Wszystke wag produktem procedury uczena
30 Sąsedztwo neuronów (1) Neurony w regularne satce Neuron centralny w centrum regonu Sąsedz w kolumnach werszach sąsedztwo proste sąsedztwo złożone
31 Sąsedztwo neuronów (2) funkca sąsedztwa h(r) funkca odległośc mędzy neuronam wprowadza wartośc nezbędne w procese kształtowana wag h( r) = 1 r lub h( r) = e r 2 sąsedztwo 2-D r dystans mędzy neuronem zwycęzcą a neuronem danym sąsedztwo 1-D
32 Reguła Grossberga sąsedztwo wokół neuronu zwycęzcy, welkość sąsedztwa malee wraz z postępem uczena, modulaca funkcyna stałe uczena. Reguła Grossberga: w l w w ( k + 1) = w ( k) + ( k) h(,,, )( x w ( k)) l k nr terac, - funkca parametru uczena, x l składowa wektora weścowego w l waga danego połączena, h funkca sąsedztwa, ( w, w ) ndeks neuronu zwycęzcy, (, ) ndeksy danego neuronu l l Funkca sąsedztwa = Mexcan Hat: a parametr sąsedztwa, r dystans od zwycęzcy do danego neuronu h( w, w,, ) 1 sn( ar) = ar 0 for for for r = 0 2 r (0, ) a other values r
33 Proces adaptac wektor weścowy neuron zwycęzca neurony z sąsedztwa
34 Welobok Voronoa Zbór danych dzelony na fragmenty Wektor Voronoa koordynaty neuronu weścowego powązane z wagam Ksązka kodowa zbór neuronów zwycęzców Welobok Voronoa regony tworzone według klucza sąsedztwa Słowa kodowe elementy poedynczego weloboku Voronoa x2 x1
35 Mary dystansu Eukldesowa: welobok Voronoa d(x,w) = X - W = N ( ( ) x ) w = 1 2 skalarna: d(x,w) = X W = X W cos Norma Manhattan L 1 : Norma L :
36 Normalzaca wektora weścowego Normalzaca wektora: X = 1 przed uczenem ~ x ( ) = n v = 1 mały wymar wektora uczącego normalzaca koneczne duży wymar wektora uczącego normalzaca pownna być x ( ) ( x ( ) v ) 2 x n wektor weścowy przed normalzacą ndeks wektora weścowego składnk wektora weścowego lczba składowych wektora weścowego
37 Algorytm uczena sec Kohonena 1. Losowa ncalzaca wag 2. Znalezene neuronu zwycęzcy dla każdego wzorca 3. Modyfkaca wag według reguły Grossberga 4. Modyfkaca stałe uczena, parametru a, 5. Jeśl stała uczena wększa od zera to powrót do kroku 3 z kolenym wzorcem uczącym.
38 Generowane odpowedz sec Kohonena Wyznaczene odległośc Eukldesowe mędzy wagam a sygnałem weścowym, Neuron zwycęzca posada odległość mnmalną, Każdy neuron lczy sumę ważoną: Out(, ) = N 1 l= 0 x l w l Out(, ) x l w l wyśce neuronu o ndekse (, ), komponenty N-elementowego wektora weścowego, waga zwązana z połączenem
Wykład 2: Uczenie nadzorowane sieci neuronowych - I
Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za
Plan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty)
Plan wykładu Dzałane neuronu dyskretnego warstwy neuronów dyskretnych Wykład : Reguły uczena sec neuronowych. Sec neuronowe ednokerunkowe. Reguła perceptronowa Reguła Wdrowa-Hoffa Reguła delta ałgorzata
Wykład 2: Uczenie nadzorowane sieci neuronowych - I
Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za
Sztuczne sieci neuronowe
Sztuczne sec neuronowe Jerzy Stefanowsk Plan wykładu 1. Wprowadzene 2. Model sztucznego neuronu. 3. Topologe sec neuronowych 4. Reguły uczena sec neuronowych. 5. Klasyfkaca sec neuronowych. 6. Sec warstwowe
Neural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych.
Neural networks Lecture Notes n Pattern Recognton by W.Dzwnel Krótka hstora McCulloch Ptts (1943) - perwszy matematyczny ops dzalana neuronu przetwarzana przez nego danych. Proste neurony, które mogly
Neuron liniowy. Najprostsza sieć warstwa elementów liniowych
Najprostsza jest jednostka lnowa: Neuron lnowy potraf ona rozpoznawać wektor wejścowy X = (x 1, x 2,..., x n ) T zapamętany we współczynnkach wagowych W = (w 1, w 2,..., w n ), Zauważmy, że y = W X Załóżmy,
Lekcja 5: Sieć Kohonena i sieć ART
Lekcja 5: Sieć Kohonena i sieć ART S. Hoa Nguyen 1 Materiał Sieci Kohonena (Sieć samo-organizująca) Rysunek 1: Sieć Kohonena Charakterystyka sieci: Jednowarstwowa jednokierunkowa sieć. Na ogół neurony
Podstawy teorii falek (Wavelets)
Podstawy teor falek (Wavelets) Ψ(). Transformaca Haara (97).. Przykład pewne metody zapsu obrazu Transformaca Haara Przykład zapsu obrazu -D Podstawy matematyczne transformac Algorytmy rozkładana funkc
Analiza danych OGÓLNY SCHEMAT. http://zajecia.jakubw.pl/ Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja)
Analza danych Dane trenngowe testowe. Algorytm k najblższych sąsadów. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ OGÓLNY SCHEMAT Mamy dany zbór danych podzelony na klasy decyzyjne, oraz
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 5. SZTUCZNE SIECI NEURONOWE REGRESJA Częstochowa 4 Dr hab. nż. Grzegorz Dudek Wdzał Elektrczn Poltechnka Częstochowska PROBLEM APROKSYMACJI FUNKCJI Aproksmaca funkc przblżane
Klasyfkator lnowy Wstęp Klasyfkator lnowy jest najprostszym możlwym klasyfkatorem. Zakłada on lnową separację lnowy podzał dwóch klas mędzy sobą. Przedstawa to ponższy rysunek: 5 4 3 1 0-1 - -3-4 -5-5
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 8. SZTUCZNE SIECI NEURONOWE INNE ARCHITEKTURY Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska SIEĆ O RADIALNYCH FUNKCJACH BAZOWYCH
Plan wykładu. Sztuczne sieci neuronowe. Sieci rekurencyjne. Sieci rekurencyjne. Wykład 8: Sieci rekurencyjne: sie Hopfielda. Sieci rekurencyjne
Plan wykładu Wykład 8: Sec rekurencyne: se Hopfelda Małgorzata Krtowska Katedra Oprogramowana e-mal: mmac@.pb.balystok.pl Sec rekurencyne Se Hopfelda tryb odtwarzana funkca energ dynamka zman stanu wykorzystane
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 15. ALGORYTMY GENETYCZNE Częstochowa 014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska TERMINOLOGIA allele wartośc, waranty genów, chromosom - (naczej
Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311
Sztuczne sec neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyk, p. 311 Wykład 1 PLAN: Jak (klasyczne) komputery ocenaą flozofę Alberta Enstena Hstora korzene teor sztucznych sec neuronowych
S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor
S O M SELF-ORGANIZING MAPS Przemysław Szczepańczyk Łukasz Myszor Podstawy teoretyczne Map Samoorganizujących się stworzył prof. Teuvo Kohonen (1982 r.). SOM wywodzi się ze sztucznych sieci neuronowych.
OGÓLNE PODSTAWY SPEKTROSKOPII
WYKŁAD 8 OGÓLNE PODSTAWY SPEKTROSKOPII E E0 sn( ωt kx) ; k π ; ω πν ; λ T ν E (m c 4 p c ) / E +, dla fotonu m 0 p c p hk Rozkład energ w stane równowag: ROZKŁAD BOLTZMANA!!!!! P(E) e E / kt N E N E/
Beata Szymańska Wojciech Topolski Marcin Tomasik KWANTYZACJA WEKTOROWA
Beata Szymańska Wocech Topolsk Marcn Tomask KWANTYZACJA WEKTOROWA 1 SPIS TREŚCI 1. Idea kwantyzac wektorowe...3 1.1 Kwantyzaca...3 1.2 Kwantyzaca wektorowa...3 1.3 Cechy kwantyzac wektorowe...3 2. Fazy
Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba
Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 1 Ćwczene 2: Perceptron WYMAGANIA 1. Sztuczne sec neuronowe budowa oraz ops matematyczny perceptronu (funkcje przejśca perceptronu), uczene perceptronu
Wielokategorialne systemy uczące się i ich zastosowanie w bioinformatyce. Rafał Grodzicki
Welokategoralne systemy uząe sę h zastosowane w bonformatye Rafał Grodzk Welokategoralny system uząy sę (multlabel learnng system) Zbór danyh weśowyh: d X = R Zbór klas (kategor): { 2 } =...Q Zbór uząy:
Natalia Nehrebecka. Wykład 2
Natala Nehrebecka Wykład . Model lnowy Postad modelu lnowego Zaps macerzowy modelu lnowego. Estymacja modelu Wartośd teoretyczna (dopasowana) Reszty 3. MNK przypadek jednej zmennej . Model lnowy Postad
Sieci Neuronowe 1 Michał Bereta
Wprowadzene Zagadnena Sztucznej Intelgencj laboratorum Sec Neuronowe 1 Mchał Bereta Sztuczne sec neuronowe można postrzegać jako modele matematyczne, które swoje wzorce wywodzą z bolog obserwacj ludzkch
W praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np.
Wykład 7 Uwaga: W praktyce często zdarza sę, że wynk obu prób możemy traktować jako wynk pomarów na tym samym elemence populacj np. wynk x przed wynk y po operacj dla tego samego osobnka. Należy wówczas
SIECI KOHONENA UCZENIE BEZ NAUCZYCIELA JOANNA GRABSKA-CHRZĄSTOWSKA
SIECI KOHONENA UCZENIE BEZ NAUCZYCIELA JOANNA GRABSKA-CHRZĄSTOWSKA Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA SAMOUCZENIE SIECI metoda Hebba W mózgu
Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311
Sztuczne sec neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyk, p. 311 Wykład 6 PLAN: - Repetto (brevs) - Sec neuronowe z radalnym funkcjam bazowym Repetto W aspekce archtektury: zajmowalśmy
Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;
Sieci Hopfielda Najprostsze modele sieci z rekurencją sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Modele bardziej złoŝone: RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie
Co to jest grupowanie
Grupowanie danych Co to jest grupowanie 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Szukanie grup, obszarów stanowiących lokalne gromady punktów Co to jest grupowanie
MATEMATYKA POZIOM ROZSZERZONY Kryteria oceniania odpowiedzi. Arkusz A II. Strona 1 z 5
MATEMATYKA POZIOM ROZSZERZONY Krytera ocenana odpowedz Arkusz A II Strona 1 z 5 Odpowedz Pytane 1 2 3 4 5 6 7 8 9 Odpowedź D C C A B 153 135 232 333 Zad. 10. (0-3) Dana jest funkcja postac. Korzystając
KURS STATYSTYKA. Lekcja 6 Regresja i linie regresji ZADANIE DOMOWE. www.etrapez.pl Strona 1
KURS STATYSTYKA Lekcja 6 Regresja lne regresj ZADANIE DOMOWE www.etrapez.pl Strona 1 Część 1: TEST Zaznacz poprawną odpowedź (tylko jedna jest prawdzwa). Pytane 1 Funkcja regresj I rodzaju cechy Y zależnej
Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.
Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 2013-11-26 Projekt pn. Wzmocnienie potencjału
Plan wykładu. Sztuczne sieci neuronowe. Uczenie nienadzorowane (bez nauczyciela) Uczenie nienadzorowane - przykłady
Plan yładu Wyład 10: Sec samoorganzuce s na zasadze spółzaodncta Sec samoorganzuace s na zasadze spółzaodncta: uczene nenadzoroane uczene onurencyne reguła WTA reguła WTM antoane etoroe mapa cech Kohonena
Monitorowanie i Diagnostyka w Systemach Sterowania
Monitorowanie i Diagnostyka w Systemach Sterowania Katedra Inżynierii Systemów Sterowania Dr inż. Michał Grochowski Monitorowanie i Diagnostyka w Systemach Sterowania na studiach II stopnia specjalności:
Wprowadzenie do Sieci Neuronowych Sieci rekurencyjne
Wprowadzene do Sec Neuronowych Sec rekurencyjne M. Czoków, J. Persa 2010-12-07 1 Powtórzene Konstrukcja autoasocjatora Hopfelda 1.1 Konstrukcja Danych jest m obrazów wzorcowych ξ 1..ξ m, gdze każdy pojedynczy
Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych
Zaawansowane metody numeryczne Komputerowa analza zagadneń różnczkowych 1. Układy równań lnowych P. F. Góra http://th-www.f.uj.edu.pl/zfs/gora/ semestr letn 2006/07 Podstawowe fakty Równane Ax = b, x,
Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010
Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010 Sieci neuronowe jednokierunkowa wielowarstwowa sieć neuronowa sieci Kohonena
Metody Sztucznej Inteligencji II
17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału
wiedzy Sieci neuronowe (c.d.)
Metody detekci uszkodzeń oparte na wiedzy Sieci neuronowe (c.d.) Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 8 Metody detekci uszkodzeń oparte na wiedzy Wprowadzenie
Programowanie Równoległe i Rozproszone
Programowane Równoległe Rozproszone Wykład Programowane Równoległe Rozproszone Lucjan Stapp Wydzał Matematyk Nauk Informacyjnych Poltechnka Warszawska (l.stapp@mn.pw.edu.pl) /38 PRR Wykład Chcemy rozwązać
Zapis informacji, systemy pozycyjne 1. Literatura Jerzy Grębosz, Symfonia C++ standard. Harvey M. Deitl, Paul J. Deitl, Arkana C++. Programowanie.
Zaps nformacj, systemy pozycyjne 1 Lteratura Jerzy Grębosz, Symfona C++ standard. Harvey M. Detl, Paul J. Detl, Arkana C++. Programowane. Zaps nformacj w komputerach Wszystke elementy danych przetwarzane
dy dx stąd w przybliżeniu: y
Przykłady do funkcj nelnowych funkcj Törnqusta Proszę sprawdzć uzasadnć, które z podanych zdań są prawdzwe, a które fałszywe: Przykład 1. Mesęczne wydatk na warzywa (y, w jednostkach penężnych, jp) w zależnośc
u u u( x) u, x METODA RÓŻNIC SKOŃCZONYCH, METODA ELEMENTÓW BRZEGOWYCH i METODA ELEMENTÓW SKOŃCZONYCH
METODA RÓŻNIC SKOŃCZONYCH, METODA ELEMENTÓW BRZEGOWYCH METODA ELEMENTÓW SKOŃCZONYCH Szkc rozwązana równana Possona w przestrzen dwuwymarowe. Równane Possona to równae różnczkowe cząstkowe opsuące wele
STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH
STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH 1 Test zgodnośc χ 2 Hpoteza zerowa H 0 ( Cecha X populacj ma rozkład o dystrybuance F). Hpoteza alternatywna H1( Cecha X populacj
Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335
Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Wykład 10 Mapa cech Kohonena i jej modyfikacje - uczenie sieci samoorganizujących się - kwantowanie wektorowe
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska
Sortowanie szybkie Quick Sort
Sortowane szybke Quck Sort Algorytm sortowana szybkego opera sę na strateg "dzel zwycęża" (ang. dvde and conquer), którą możemy krótko scharakteryzować w trzech punktach: 1. DZIEL - problem główny zostae
Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.
Wstęp do sieci neuronowych, wykład 7. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 212-11-28 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu
Stanisław Cichocki Natalia Nehrebecka. Zajęcia 4
Stansław Cchock Natala Nehrebecka Zajęca 4 1. Interpretacja parametrów przy zmennych zerojedynkowych Zmenne 0-1 Interpretacja przy zmennej 0 1 w modelu lnowym względem zmennych objaśnających Interpretacja
Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2
Elementy Sztucznej Inteligencji Sztuczne sieci neuronowe cz. 2 1 Plan wykładu Uczenie bez nauczyciela (nienadzorowane). Sieci Kohonena (konkurencyjna) Sieć ze sprzężeniem zwrotnym Hopfielda. 2 Cechy uczenia
SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe
SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe JOANNA GRABSKA-CHRZĄSTOWSKA Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA BUDOWA RZECZYWISTEGO NEURONU
Sieci Kohonena Grupowanie
Sieci Kohonena Grupowanie http://zajecia.jakubw.pl/nai UCZENIE SIĘ BEZ NADZORU Załóżmy, że mamy za zadanie pogrupować następujące słowa: cup, roulette, unbelievable, cut, put, launderette, loveable Nie
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa
SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW
SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW Stefan WÓJTOWICZ, Katarzyna BIERNAT ZAKŁAD METROLOGII I BADAŃ NIENISZCZĄCYCH INSTYTUT ELEKTROTECHNIKI ul. Pożaryskego 8, 04-703 Warszawa tel.
ELEKTROCHEMIA. ( i = i ) Wykład II b. Nadnapięcie Równanie Buttlera-Volmera Równania Tafela. Wykład II. Równowaga dynamiczna i prąd wymiany
Wykład II ELEKTROCHEMIA Wykład II b Nadnapęce Równane Buttlera-Volmera Równana Tafela Równowaga dynamczna prąd wymany Jeśl układ jest rozwarty przez elektrolzer ne płyne prąd, to ne oznacza wcale, że na
1. Komfort cieplny pomieszczeń
1. Komfort ceplny pomeszczeń Przy określanu warunków panuących w pomeszczenu używa sę zwykle dwóch poęć: mkroklmat komfort ceplny. Przez poęce mkroklmatu wnętrz rozume sę zespół wszystkch parametrów fzycznych
Diagnostyka układów kombinacyjnych
Dagnostyka układów kombnacyjnych 1. Wprowadzene Dagnostyka obejmuje: stwerdzene stanu układu, systemu lub ogólne sec logcznej. Jest to tzw. kontrola stanu wykrywająca czy dzałane sec ne jest zakłócane
Kodowanie informacji. Instytut Informatyki UWr Studia wieczorowe. Wykład nr 2: rozszerzone i dynamiczne Huffmana
Kodowane nformacj Instytut Informatyk UWr Studa weczorowe Wykład nr 2: rozszerzone dynamczne Huffmana Kod Huffmana - nemłe przypadk... Nech alfabet składa sę z 2 lter: P(a)=1/16 P(b)=15/16 Mamy H(1/16,
( ) ( ) 2. Zadanie 1. są niezależnymi zmiennymi losowymi o. oraz. rozkładach normalnych, przy czym EX. i σ są nieznane. 1 Niech X
Prawdopodobeństwo statystyka.. r. Zadane. Zakładamy, że,,,,, 5 są nezależnym zmennym losowym o rozkładach normalnych, przy czym E = μ Var = σ dla =,,, oraz E = μ Var = 3σ dla =,, 5. Parametry μ, μ σ są
7. Wykład VII: Warunki Kuhna-Tuckera
Wocech Grega, Metody Optymalzac 7 Wykład VII: Warunk Kuhna-Tuckera 7 Warunk koneczne stnena ekstremum Rozważane est zadane z ogranczenam nerównoścowym w postac: mn F( x ) x X X o F( x ), o { R x : h n
Sieci Neuronowe 2 Michał Bereta
Zagadnena Sztucznej Intelgencj laboratorum Sec Neuronowe 2 Mchał Bereta Cele laboratorum: zapoznane sę z nowym rodzajam sec neuronowych: secam Kohonena oraz secam radalnym porównane sec Kohonena oraz sec
Zastosowanie sieci neuronowych Kohonena do prognozowania obciążeń elektroenergetycznych
Tomasz CIECHULSKI 1, Stansław OSOWSKI 1,2 Wojskowa Akadema Technczna, Wydzał Elektronk (1), Poltechnka Warszawska, Wydzał Elektryczny (2) do:10.15199/48.2016.10.48 Zastosowane sec neuronowych Kohonena
Sztuczne sieci neuronowe
www.math.uni.lodz.pl/ radmat Cel wykładu Celem wykładu jest prezentacja różnych rodzajów sztucznych sieci neuronowych. Biologiczny model neuronu Mózg człowieka składa się z około 10 11 komórek nerwowych,
Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB
Rozwązywane zadań optymalzacj w środowsku programu MATLAB Zagadnene optymalzacj polega na znajdowanu najlepszego, względem ustalonego kryterum, rozwązana należącego do zboru rozwązań dopuszczalnych. Standardowe
Metody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF.
Metody sztucznej inteligencji Zadanie 3: ( klasteryzacja samoorganizująca się mapa Kohonena, (2 aproksymacja sieć RBF dr inż Przemysław Klęsk Klasteryzacja za pomocą samoorganizującej się mapy Kohonena
SIECI REKURENCYJNE SIECI HOPFIELDA
SIECI REKURENCYJNE SIECI HOPFIELDA Joanna Grabska- Chrząstowska Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA SPRZĘŻENIE ZWROTNE W NEURONIE LINIOWYM sygnał
Oligopol dynamiczny. Rozpatrzmy model sekwencyjnej konkurencji ilościowej jako gra jednokrotna z pełną i doskonalej informacją
Olgopol dynamczny Rozpatrzmy model sekwencyjnej konkurencj loścowej jako gra jednokrotna z pełną doskonalej nformacją (1934) Dwa okresy: t=0, 1 tzn. frma 2 podejmując decyzję zna decyzję frmy 1 Q=q 1 +q
Hipotezy o istotności oszacowao parametrów zmiennych objaśniających ˆ ) ˆ
WERYFIKACJA HIPOTEZY O ISTOTNOŚCI OCEN PARAMETRÓW STRUKTURALNYCH MODELU Hpoezy o sonośc oszacowao paramerów zmennych objaśnających Tesowane sonośc paramerów zmennych objaśnających sprowadza sę do nasępującego
Sztuczna Inteligencja Tematy projektów Sieci Neuronowe
PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia
Diagonalizacja macierzy kwadratowej
Dagonalzacja macerzy kwadratowej Dana jest macerz A nân. Jej wartośc własne wektory własne spełnają równane Ax x dla,..., n Każde z równań własnych osobno można zapsać w postac: a a an x x a a an x x an
FOLIA POMERANAE UNIVERSITATIS TECHNOLOGIAE STETINENSIS Folia Pomer. Univ. Technol. Stetin. 2012, Oeconomica 297 (68),
FOLIA POMERANAE UNIVERSITATIS TECHNOLOGIAE STETINENSIS Fola Pomer. Unv. Technol. Stetn. 2012, Oeconomca 297 (68), 107 116 Jadwga Zaród ZASTOSOWANIE SIECI KOHONENA DO PODZIAŁU WOJEWÓDZTWA ZACHODNIOPOMORSKIEGO
Sztuczna inteligencja
Sztuczna inteligencja Wykład 7. Architektury sztucznych sieci neuronowych. Metody uczenia sieci. źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Podstawowe architektury
n liczba zmiennych decyzyjnych c współczynniki funkcji celu a współczynniki przy zmienych decyzyjnych w warunkach
Problem decyzyny cel różne sposoby dzałana (decyze) warunk ogranczaące (determnuą zbór decyz dopuszczalnych) kryterum wyboru: umożlwa porównane efektywnośc różnych decyz dopuszczalnych z punktu wdzena
Natalia Nehrebecka. Zajęcia 4
St ł Cchock Stansław C h k Natala Nehrebecka Zajęca 4 1. Interpretacja parametrów przy zmennych zerojedynkowych Zmenne 0 1 Interpretacja przy zmennej 0 1 w modelu lnowym względem zmennych objaśnających
Badania sondażowe. Braki danych Konstrukcja wag. Agnieszka Zięba. Zakład Badań Marketingowych Instytut Statystyki i Demografii Szkoła Główna Handlowa
Badana sondażowe Brak danych Konstrukcja wag Agneszka Zęba Zakład Badań Marketngowych Instytut Statystyk Demograf Szkoła Główna Handlowa 1 Błędy braku odpowedz Całkowty brak odpowedz (UNIT nonresponse)
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych
SYSTEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE METODY KLASYFIKACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.
SYSEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE MEODY KLASYFIKACJI Częstochowa 4 Dr hab. nż. Grzegorz Dude Wydzał Eletryczny Poltechna Częstochowsa FUNKCJE FISHEROWSKA DYSKRYMINACYJNE DYSKRYMINACJA I MASZYNA LINIOWA
Alternatywne metody grupowania i wizualizacji wykorzystujące sieci konkurencyjne
Alternatywne metody grupowana wzualzacj wykorzystujące sec konkurencyjne Janusz Stal Akadema Ekonomczna w Krakowe Katedra Informatyk Streszczene: Samoogranzujące sę mapy cech (SOM) są jednym z rodzajów
Plan wykładu: Typowe dane. Jednoczynnikowa Analiza wariancji. Zasada: porównać zmienność pomiędzy i wewnątrz grup
Jednoczynnkowa Analza Waranc (ANOVA) Wykład 11 Przypomnene: wykłady zadana kursu były zaczerpnęte z podręcznków: Statystyka dla studentów kerunków techncznych przyrodnczych, J. Koronack, J. Melnczuk, WNT
Analiza danych. Analiza danych wielowymiarowych. Regresja liniowa. Dyskryminacja liniowa. PARA ZMIENNYCH LOSOWYCH
Analza danych Analza danych welowymarowych. Regresja lnowa. Dyskrymnacja lnowa. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ PARA ZMIENNYCH LOSOWYCH Parę zmennych losowych X, Y możemy
STANDARDOWE TECHNIKI KOMPRESJI SYGNAŁÓW
STANDARDOWE TECHNIKI KOMPRESJI SYGNAŁÓW Źródło Kompresja Kanał transmsj sek wdeo 60 Mbt 2 mn muzyk (44 00 próbek/sek, 6 btów/próbkę) 84 Mbt Dekompresja Odborca. Metody bezstratne 2. Metody stratne 2 Kodowane
Modelowanie i obliczenia techniczne. Metody numeryczne w modelowaniu: Optymalizacja
Modelowane oblczena technczne Metody numeryczne w modelowanu: Optymalzacja Zadane optymalzacj Optymalzacja to ulepszane lub poprawa jakośc danego rozwązana, projektu, opracowana. Celem optymalzacj jest
Podstawy sztucznej inteligencji
wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,
SYSTEMY UCZĄCE SIĘ WYKŁAD 15. ANALIZA DANYCH WYKRYWANIE OBSERWACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska
SYSTEMY UCZĄCE SIĘ WYKŁAD 15. ANALIZA DANYCH WYKRYWANIE OBSERWACJI ODSTAJĄCYCH, UZUPEŁNIANIE BRAKUJĄCYCH DANYCH Częstochowa 2014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska WYKRYWANIE
2012-10-11. Definicje ogólne
0-0- Defncje ogólne Logstyka nauka o przepływe surowców produktów gotowych rodowód wojskowy Utrzyywane zapasów koszty zwązane.n. z zarożene kaptału Brak w dostawach koszty zwązane.n. z przestoje w produkcj
ANALIZA PREFERENCJI SŁUCHACZY UNIWERSYTETU TRZECIEGO WIEKU Z WYKORZYSTANIEM WYBRANYCH METOD NIESYMETRYCZNEGO SKALOWANIA WIELOWYMIAROWEGO
Artur Zaborsk Unwersytet Ekonomczny we Wrocławu ANALIZA PREFERENCJI SŁUCHACZY UNIWERSYTETU TRZECIEGO WIEKU Z WYKORZYSTANIEM WYBRANYCH METOD NIESYMETRYCZNEGO SKALOWANIA WIELOWYMIAROWEGO Wprowadzene Od ukazana
Stanisław Cichocki. Natalia Nehrebecka. Wykład 7
Stansław Cchock Natala Nehrebecka Wykład 7 1 1. Zmenne cągłe a zmenne dyskretne 2. Interpretacja parametrów przy zmennych dyskretnych 1. Zmenne cągłe a zmenne dyskretne 2. Interpretacja parametrów przy
Modele wieloczynnikowe. Modele wieloczynnikowe. Modele wieloczynnikowe ogólne. α β β β ε. Analiza i Zarządzanie Portfelem cz. 4.
Modele weloczynnkowe Analza Zarządzane Portfelem cz. 4 Ogólne model weloczynnkowy można zapsać jako: (,...,,..., ) P f F F F = n Dr Katarzyna Kuzak lub (,...,,..., ) f F F F = n Modele weloczynnkowe Można
Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.
Wstęp do sieci neuronowych, wykład 7. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 213-11-19 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu
Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3
Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt
Stanisław Cichocki. Natalia Nehrebecka. Wykład 6
Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Interpretacja parametrów przy zmennych objaśnających cągłych Semelastyczność 2. Zastosowane modelu potęgowego Model potęgowy 3. Zmenne cągłe za zmenne dyskretne
Stanisław Cichocki. Natalia Nehrebecka. Wykład 6
Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Zastosowane modelu potęgowego Przekształcene Boxa-Coxa 2. Zmenne cągłe za zmenne dyskretne 3. Interpretacja parametrów przy zmennych dyskretnych 1. Zastosowane
Obliczenia inteligentne Zadanie 4
Sieci SOM Poniedziałek, 10:15 2007/2008 Krzysztof Szcześniak Cel Celem zadania jest zaimplementowanie neuronowej samoorganizującej się mapy wraz z metodą jej nauczania algorytmem gazu neuronowego. Część
EKONOMIA MENEDŻERSKA. Wykład 3 Funkcje produkcji 1 FUNKCJE PRODUKCJI. ANALIZA KOSZTÓW I KORZYŚCI SKALI. MINIMALIZACJA KOSZTÓW PRODUKCJI.
EONOMIA MENEDŻERSA Wykład 3 Funkcje rodukcj 1 FUNCJE PRODUCJI. ANAIZA OSZTÓW I ORZYŚCI SAI. MINIMAIZACJA OSZTÓW PRODUCJI. 1. FUNCJE PRODUCJI: JEDNO- I WIEOCZYNNIOWE Funkcja rodukcj określa zależność zdolnośc
Nie istnieje ogólna recepta, każdy przypadek musi być rozważany indywidualnie!
Kwesta wyboru struktury modelu neuronowego Schematyczne przedstawene etapów przetwarzana danych w procese neuronowego modelowana Ne stneje ogólna recepta, każdy przypadek mus być rozważany ndywdualne!
Wykład IX Optymalizacja i minimalizacja funkcji
Wykład IX Optymalzacja mnmalzacja funkcj Postawene zadana podstawowe dee jego rozwązana Proste metody mnmalzacj Metody teracj z wykorzystanem perwszej pochodnej Metody teracj z wykorzystanem drugej pochodnej
Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści
Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, 2013 Spis treści Przedmowa 7 1. Wstęp 9 1.1. Podstawy biologiczne działania neuronu 9 1.2. Pierwsze modele sieci neuronowej
MATLAB Neural Network Toolbox przegląd
MATLAB Neural Network Toolbox przegląd WYKŁAD Piotr Ciskowski Neural Network Toolbox: Neural Network Toolbox - zastosowania: przykłady zastosowań sieci neuronowych: The 1988 DARPA Neural Network Study
Prawdziwa ortofotomapa
Prawdzwa ortofotomapa klasyczna a prawdzwa ortofotomapa mnmalzacja przesunęć obektów wystających martwych pól na klasycznej ortofotomape wpływ rodzaju modelu na wynk ortorektyfkacj budynków stratege opracowana
Uczenie sieci typu MLP
Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik
Optymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt