Sieci samoorganizujce si. Jacek Bartman
|
|
- Milena Wróblewska
- 6 lat temu
- Przeglądów:
Transkrypt
1 Sieci samoorganizujce si
2 Po raz pierwszy opracowania na temat sieci samoorganizujcych z konkurencj i ssiedztwem pojawiy si w latach 70-tych. Ich autorem by fi"ski uczony Kohonen sieci Kohonena. Istota uczenia konkurencyjnego (uczenia z rywalizacj, compettive learning) po prezentacji wzorca wej)ciowego nastpuje okre)lenie neuronu wygrywajcego (ang. winner) i tylko ten neuron, ewentualnie grupa ssiadujcych z nim neuronów aktualizuje swoje wagi, tak by zbli+y, je do aktualnego wzorca. oczekuje si, +e podobne wzorce wej)ciowe powinny wywoywa, podobne odpowiedzi sieci. Decydujcy wpyw na sposób funkcjonowania sieci samoorganizujcej w trakcie procesu uczenia ma wybór miary odlego)ci wygrywajcego neuronu od wektora wej)ciowego. Ka+dy neuron (a dokadnie jego wagi) staje si pewnym wzorcem grupy bliskich sobie sygnaów wej)ciowych, przy czym neurony ssiadujce ze sob reprezentuj bliskie sobie, podobne obszary przestrzeni wzorców wej)ciowych. W ten sposób sie, samoorganizujca tworzy topologiczny, zale+ny od przyjtej metryki, obraz przestrzeni sygnaów wej)ciowych przeniesiony na wewntrzn struktur topologiczn sieci.
3 Najciekawsze efekty uzyskuje si wprowadzajc metody Kohonena dla sieci neuronowych dwuwymiarowych,
4 Topologie sieci siatka prostoktna siatka heksagonalna, acuch otwarty zamknity. acuch Linie czce neurony okrelaj relacje topologiczne. Kady neuron jest powizany z pozostaymi neuronami pewn relacj ssiedztwa, która okrela struktur sieci.
5 Odlego)ci pomidzy neuronami mo+na wyznaczy, w odniesieniu do metryki zdefiniowanej w przestrzeni sygnaów wej)ciowych, w odniesieniu topologii samej sieci - pozwala okre)la, ssiedztwo danego neuronu w postaci zbioru neuronów powizanych midzy sob odpowiednimi relacjami topologicznymi. Ssiedztwo rozpatruje si w ukadach: jednowymiarowych, neurony ssiednie le+ na jednej linii, dwuwymiarowych, neurony tworz siatk a ssiadami s neurony poo+one na lewo i na prawo oraz u góry i u dou rozpatrywanego neuronu, ewentualnie jeszcze na przektnych, wielowymiarowe, neurony uo+one s swobodnie w przestrzeniach wielowymiarowych, a twórca sieci okre)la zasady ssiedztwa. Istotnym parametrem jest okre)lenie ile neuronów obok (ssiadów z lewej, prawej itd.) ma podlega, uczeniu w przypadku zwycistwa danego neuronu.
6 Miara odlegoci W procesie samoorganizacji na ka+dym etapie nale+y wyoni, zwycizc - neuron, którego wektor wagowy ró+ni si najmniej od wektora na wej)ciu. W tym celu nale+y dobra, odpowiedni metryk. Najcz)ciej u+ywa si miary euklidesowej d ( x,w i ) = x wi = ( x j wij ) n j= 1 2 iloczynu skalarnego d n ( x,w i ) = ( x j wij ) j= 1 miary wedug normy L1 (Manhattan) d n ( x,w i ) = j= 1 x j w ij miary wedug normy L d ( x,wi ) = max xj wij j
7 Sieci Kohonena Sie, Kohonena zostaa nazwana przez jego twórc samoorganizujcym odwzorowaniem (Self-Organizing Map - SOM) lub samoorganizujcym odwzorowaniem cech (Self-Organizing Feature Map - SOFM) i jest najbardziej popularnym typem sieci okre)lanej mianem samoorganizujcej. W sieci tej mamy do czynienia z uczeniem konkurencyjnym. Sie, ma na celu utworzenie takiej struktury, która w najlepszy sposób bdzie odwzorowywaa zale+no)ci w przestrzeni wektorów wej)ciowych. sie, jest zwykle jednokierunkowa, ka+dy neuron jest poczony ze wszystkimi skadowymi N-wymiarowego wektora wej)ciowego x. wagi pocze" neuronów tworz wektor w i =[w i1, w i2,..., w in ] T. wektor sygnaów wej)ciowych x jest przed procesem uczenia normalizowany x =1: x ) i = x n i k = 1 x 2 k
8 Adaptacja wag w sieci Kohonena W trakcie uczenia sieci samoorganizujcych na wej)cie ka+dego neuronu podawany jest n-wymiarowy sygna x ze zbioru wzorców uczcych We wspózawodnictwie zwyci+a jeden neuron, którego wagi najmniej ró+ni si od odpowiednich skadowych wektora x. zwycizca (neuron w-ty) spenia relacj d ( x, w ) = min ( d( x, w )) w i=1,2... n i Wokó zwyciskiego neuronu przyjmuje si topologiczne ssiedztwo S w (n), którego promie" maleje w czasie. Nastpnie neuron zwycizca i neurony ssiadujce podlegaj adaptacji wedug reguy Kohonena (Kohonen, 1995) w i ( t ) = w ( t 1) + g( i, x) ( x w ( t 1) ) i i wspóczynnik uczenia g(i,x) funkcja ssiedztwa
9 definiuje które neurony, oprócz zwyciskiego, maj zmieni& wagi moe nie by& uwzgldniane (Winner Takes All) musi definiowa& stopie zmian dla ssiadów (Winner Takes Most) W klasycznym algorytmie Kohonena funkcja g(i,x) jest definiowana nastpujco. g Ssiedztwo ( i, x) 1 = 0 ( i, w ) ( i, w ) < d(i,w) oznacza odlego), euklidesow midzy neuronem zwyciskim w i i-tym neuronem. Wspóczynnik jest promieniem ssiedztwa o warto)ciach malejcych z czasem. Ten typ to ssiedztwo prostoktne. Drugim typem ssiedztwa, z jakim mo+na si spotka, w mapach Kohonena jest ssiedztwo gaussowskie: 2 d ( i, w ) g ( i, x) Ssiedztwo gausowskie jest lepsze i prowadzi do lepszych rezultatów uczenia i lepszej organizacji sieci. dla dla = e d d 2 2
10 Efekty uczenia sieci samoorganizujcych Po zako"czeniu procesu uczenia, a przed przystpieniem do pracy nale+y pamita, o tym, aby sie, skalibrowa,. Dokonuje tego nauczyciel, podajc po jednym sygnale wej)ciowym z ka+dej z klas - i opisujc który neuron która klas reprezentuje. Rozmieszczenie wag w przestrzeni tworzy wzy, które poczone z najbli+szymi ssiadami (w sensie ssiedztwa topologicznego) reprezentuj ksztat odtwarzajcy rozkad danych wej)ciowych. Jest to rozkad odpowiadajcy gsto)ci pojawiania si danych wej)ciowych w danym rejonie a nie wspórzdnych odpowiednich wektorów, gdy+ liczba prezentowanych wektorów wej)ciowych jest zwykle o kilka rzdów wy+sza ni+ liczba neuronów w sieci. Liczba neuronów w sieci w praktyce musi by, wiksza od liczby klas sygnaów wej)ciowych: kilka neuronów mo+e konkurowa, o reprezentacj danej klasy, nadmiarowo), powinna zapewni,, i+ mniej lubiane klasy równie+ bd rozpoznane.
11 Sie Counter Propagation sie CP Sie& CP stanowi poczenie sieci Kohonena i sieci Grossberga. Z propozycj tej sieci wystpi Robert Hecht-Nielsen, Jest odpowiedzi na wady sieci ze wsteczn propagacj, gdzie uczenie byo powolne i pracochonne. Ze wzgldu na do& prost zasad dziaania, funkcjonowanie sieci CP porównywane jest do odczytu gotowego wyniku z tablicy. Jej warstwa wejciowa dokonuje adaptacyjnej klasyfikacji sygnaów wejciowych, co pozwala na pewne uogólnianie gromadzonego dowiadczenia.
12 Architektura sieci CP Przedstawiony rysunek zosta uproszczony - w rzeczywistym modelu midzy warstw Kohonena, a warstw wyjciow wystpuj poczeniami typu kady z kadym,
13 Dzia%anie sieci CP Wektor wejciowy podawany na sie& musi by& znormalizowany x =1 ze wzgldu na konkurencyjne uczenia. Element pochodzcy z pierwszej warstwy, który jest optymalnie dopasowany do sygnau wejciowego x przesyany jest do dalszego przetwarzania w nastpnej warstwie jako jeden sygna - "eton".
14 rola pierwszej warstwy warstwy Kohonena W pierwszej warstwie realizowany jest algorytm Kohonena. wyliczany jest potencja membranowy u j wszystkich neuronów u j = Wybierany jest neuron którego pobudzenie jest najwiksze i tylko jego sygna wyj)ciowy przyjmuje warto), 1 y j = 1 0 dla Wybrany pojedynczy sygna - counter jest +etonem zastpujcym i symbolizujcym wszystkie sygnay wej)ciowe, Sygna u j (potencja membranowy) ka+dego neuronu w warstwie Kohonena jest miar podobie"stwa pomidzy sygnaem wektora x, a abstrakcyjnym wzorcem wytrenowanym na j-tym neuronie. w T j dla x i j i j u j u j > u i u i Wzorzec idealnego sygnau dla j-tego neuronu zawarty jest w jego wektorze wag w j. Je)li x = w j, wówczas neuron odpowiada sygnaem o maksymalnej warto)ci, je)li x w j, wówczas pobudzenie neuronu (u j ) jest miar cosinusa kta pomidzy wektorami x i w j.
15 rola drugiej warstwy warstwy Outstar Grosberga Druga warstwa sieci realizuje algorytm Outstar Grossberga: y = v T k v - macierz wspóczynników wagowych k wektor wyj), z warstwy Kohonena W praktyce tylko jeden element wektora k ma warto), 1, a pozostae maj warto), 0 Wystarczy uto+samienie wyj)cia y i z pewnym wspóczynnikiem wagowym v ij. Dziaanie takie przypomina odczyt z gotowej tablicy. Na ka+dym i-tym wyj)ciu sieci w trakcie procesu uczenia przygotowane zostaje m wariantów odpowiedzi v ij. Gdy warstwa Kohonena ustali, które z jej licznych wyj), otrzyma +eton" - na wszystkich wyj)ciach pojawiaj si tylko te warto)ci V ij, które odpowiadaj numerowi j, dla którego k j = 1.
16 Uczenie warstw w CP Uczenie sieci CP przebiega równocze)nie w obydwu warstwach sieci. Jest ono typem uczenia z nauczycielem, gdy+ wraz z ka+dym wektorem wej)ciowym x podawany jest wektor wyj)ciowy, jaki u+ytkownik chce uzyska, na wyj)ciu sieci. W tym przypadku uczenia nie wykorzystujemy pojcia bdu, co zachodzi przy klasycznym nauczaniu z nauczycielem. Ró+nic jest te+ brak wykorzystania informacji pochodzcych od nauczyciela, przy uczeniu pierwszej "ukrytej" warstwy sieci. Zmiany w stosunku do klasycznego nauczania z nauczycielem zostay zastpione dziaaniem: przy uczeniu pierwszej warstwy stosuje si technik Kohonena, która jest form uczenia bez nauczyciela. przy uczeniu drugiej warstwy wykorzystuje si algorytm Grossberga do bezpo)redniego wymuszania po+danych odpowiedzi sieci
17 warstwa Kohonena Warstwie Kohonena na t-tym kroku przedstawia si wektor x(t), a posiadajc z wcze)niejszego uczenia warto)ci wektorów, mo+na obliczy, T ( t) = w ( t ) x( t) Nastpnie wyznacza si numer zwycizcy - z u j Korekcie podlegaj wycznie wagi "zwyciskiego" neuronu wedug reguy w t = w t x t 1 w t 1 z ( ) ( ) ( ) ( ) z j ( ) z Wspóczynnik uczenia 1 przyjmowany jest zwykle jako równy 0,7 na pocztku procesu uczenia i stopniowo zmniejszany dla wikszych t. Jak w wielu algorytmach samouczenia, tak samo i tu najwa+niejsze s pierwsze kroki. Najpierw trzeba nada, wspóczynnikom wagowym w ij warto)ci pocztkowe tak, aby byy one unormowane.
18 Wa+nym krokiem jest takie dobranie kierunków wektorów wag, aby w sposób równomierny rozkaday si na powierzchni sfery jednostkowej w przestrzeni n-wymiarowej. Dobranie takich wag jest trudne, ponadto nie zawsze gwarantuje dobre wyniki. Powodem tego mo+e by, pojawienie si trakcie uczenia kilku zwyciskich neuronów. Aby zapobiec takiemu zjawisku pocztkowo wszystkim skadowym wszystkich wektorów wag nadaje si t sam warto), pocztkow 1 w ij ( 1 ) = n Powoduje to, +e wszystkie wektory wag s prawidowo unormowane, oraz pokrywaj si. Po takiej inicjalizacji zaczyna si proces uczenia z ma ró+nic, +e jako wektory wej)ciowe podaje si wektory o wspórzdnych obliczanych wedug wzoru 1 x t = t x t t i ( ) 2( ) i ( ) [ 1 2( )] n Funkcja adaptujca 2 (t) dla maych t przyjmuje bardzo mae warto)ci, natomiast potem ro)nie do warto)ci 1 i t warto), zachowuje przez reszt procesu uczenia.
19 Warstwa Grossberga Wagi v ij, w warstwie Grossberga, s zmieniane wedug reguy Widrowa-Hoffa: v ij ( t ) = v ( ) ( ) ij t di yi k j Poniewa+ tylko jedna warto), k j jest ró+na od zera i w ka+dym kroku procesu uczenia korygowane s tylko te wagi, które cz poszczególne neurony wyj)ciowej warstwy z jednym tylko "zwyciskim" elementem poprzedniej warstwy. Ta zasada zmniejsza pracochonno), procesu uczenia. Parametr 3 wybiera si zazwyczaj ostro+nie, tak aby proces uczenia nie spowodowa wpisania do "tablicy" bdnych warto)ci. Zwykle zaczyna si uczenie od warto)ci 3 =0,1, a potem si t warto), jeszcze mocniej redukuje.
20
21
Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335
Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Wykład 10 Mapa cech Kohonena i jej modyfikacje - uczenie sieci samoorganizujących się - kwantowanie wektorowe
Poprawa efektywnoci metody wstecznej propagacji bdu. Jacek Bartman
Poprawa efektywnoci metody wstecznej propagac bdu Algorytm wstecznej propagac bdu. Wygeneruj losowo wektory wag. 2. Podaj wybrany wzorzec na wejcie sieci. 3. Wyznacz odpowiedzi wszystkich neuronów wyjciowych
WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania
WYKŁAD 4 Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania PLAN WYKŁADU Metody uczenia sieci: Uczenie perceptronu Propagacja wsteczna Zastosowania Sterowanie (powtórzenie) Kompresja obrazu Rozpoznawanie
Lekcja 5: Sieć Kohonena i sieć ART
Lekcja 5: Sieć Kohonena i sieć ART S. Hoa Nguyen 1 Materiał Sieci Kohonena (Sieć samo-organizująca) Rysunek 1: Sieć Kohonena Charakterystyka sieci: Jednowarstwowa jednokierunkowa sieć. Na ogół neurony
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING NEURONOWE MAPY SAMOORGANIZUJĄCE SIĘ Self-Organizing Maps SOM Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki,
SIECI KOHONENA UCZENIE BEZ NAUCZYCIELA JOANNA GRABSKA-CHRZĄSTOWSKA
SIECI KOHONENA UCZENIE BEZ NAUCZYCIELA JOANNA GRABSKA-CHRZĄSTOWSKA Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA SAMOUCZENIE SIECI metoda Hebba W mózgu
Rys1. Schemat blokowy uk adu. Napi cie wyj ciowe czujnika [mv]
Wstp Po zapoznaniu si z wynikami bada czujnika piezoelektrycznego, ramach projektu zaprojektowano i zasymulowano nastpujce ukady: - ródo prdowe stabilizowane o wydajnoci prdowej ma (do zasilania czujnika);
S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor
S O M SELF-ORGANIZING MAPS Przemysław Szczepańczyk Łukasz Myszor Podstawy teoretyczne Map Samoorganizujących się stworzył prof. Teuvo Kohonen (1982 r.). SOM wywodzi się ze sztucznych sieci neuronowych.
Daniel Kierepka. Kompresja obrazów za pomoc sztucznych sieci neuronowych
Daniel Kierepka Kompresja obrazów za pomoc sztucznych sieci neuronowych We współczesnym wiecie do duym problemem jest przesyłanie danych o znacznej wielkoci w sieciach telekomunikacyjnych. W tej pracy
Obliczenia inteligentne Zadanie 4
Sieci SOM Poniedziałek, 10:15 2007/2008 Krzysztof Szcześniak Cel Celem zadania jest zaimplementowanie neuronowej samoorganizującej się mapy wraz z metodą jej nauczania algorytmem gazu neuronowego. Część
Uczenie Wielowarstwowych Sieci Neuronów o
Plan uczenie neuronu o ci gªej funkcji aktywacji uczenie jednowarstwowej sieci neuronów o ci gªej funkcji aktywacji uczenie sieci wielowarstwowej - metoda propagacji wstecznej neuronu o ci gªej funkcji
Sztuczna Inteligencja Tematy projektów Sieci Neuronowe
PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia
Uczenie sieci radialnych (RBF)
Uczenie sieci radialnych (RBF) Budowa sieci radialnej Lokalne odwzorowanie przestrzeni wokół neuronu MLP RBF Budowa sieci radialnych Zawsze jedna warstwa ukryta Budowa neuronu Neuron radialny powinien
Wprowadzenie. SOM jest skrótem od Self Organizing Maps, czyli Samoorganizujące się mapy.
SOM i WebSOM Wprowadzenie SOM jest skrótem od Self Organizing Maps, czyli Samoorganizujące się mapy. Podstawy teoretyczne stworzył fiński profesor Teuvo Kohonen w 1982 r SOM - ogólnie Celem tych sieci
Elementy Sztucznej Inteligencji
Elementy Sztucznej Inteligencji Sztuczne sieci neuronowe Plan Wzorce biologiczne. Idea SSN - model sztucznego neuronu. Perceptron prosty i jego uczenie reguł delta Perceptron wielowarstwowy i jego uczenie
Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2
Elementy Sztucznej Inteligencji Sztuczne sieci neuronowe cz. 2 1 Plan wykładu Uczenie bez nauczyciela (nienadzorowane). Sieci Kohonena (konkurencyjna) Sieć ze sprzężeniem zwrotnym Hopfielda. 2 Cechy uczenia
Uczenie sieci typu MLP
Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik
Elementy Sztucznej Inteligencji
Elementy Sztucznej Inteligencji Sztuczne sieci neuronowe wykład Elementy Sztucznej Inteligencji - wykład Plan Wzorce biologiczne. Idea SSN - model sztucznego neuronu. Perceptron prosty i jego uczenie reguł
KLUCZ PUNKTOWANIA ODPOWIEDZI
Egzamin maturalny maj 009 MATEMATYKA POZIOM PODSTAWOWY KLUCZ PUNKTOWANIA ODPOWIEDZI Zadanie 1. Matematyka poziom podstawowy Wyznaczanie wartoci funkcji dla danych argumentów i jej miejsca zerowego. Zdajcy
AUTO-ENKODER JAKO SKŠADNIK ARCHITEKTURY DEEP LEARNING
AUTO-ENKODER JAKO SKŠADNIK ARCHITEKTURY DEEP LEARNING Magdalena Wiercioch Uniwersytet Jagiello«ski 3 kwietnia 2014 Plan Uczenie gª bokie (deep learning) Auto-enkodery Rodzaje Zasada dziaªania Przykªady
geometry a w przypadku istnienia notki na marginesie: 1 z 5
1 z 5 geometry Pakiet słuy do okrelenia parametrów strony, podobnie jak vmargin.sty, ale w sposób bardziej intuicyjny. Parametry moemy okrela na dwa sposoby: okrelc je w polu opcji przy wywołaniu pakiety:
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa
Sztuczna inteligencja
Sztuczna inteligencja Wykład 7. Architektury sztucznych sieci neuronowych. Metody uczenia sieci. źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Podstawowe architektury
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 8. SZTUCZNE SIECI NEURONOWE INNE ARCHITEKTURY Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska SIEĆ O RADIALNYCH FUNKCJACH BAZOWYCH
SIECI RBF (RADIAL BASIS FUNCTIONS)
SIECI RBF (RADIAL BASIS FUNCTIONS) Wybrane slajdy z prezentacji prof. Tadeusiewicza Wykład Andrzeja Burdy S. Osowski, Sieci Neuronowe w ujęciu algorytmicznym, Rozdz. 5, PWNT, Warszawa 1996. opr. P.Lula,
Monitorowanie i Diagnostyka w Systemach Sterowania
Monitorowanie i Diagnostyka w Systemach Sterowania Katedra Inżynierii Systemów Sterowania Dr inż. Michał Grochowski Monitorowanie i Diagnostyka w Systemach Sterowania na studiach II stopnia specjalności:
wiczenie 5 Woltomierz jednokanaowy
wiczenie 5 Woltomierz jednokanaowy IMiO PW, LPTM, wiczenie 5, Woltomierz jednokanaowy -2- Celem wiczenia jest zapoznanie si# z programow% obsug% prostego przetwornika analogowo-cyfrowego na przykadzie
Dyskretyzacja sygnałów cigłych.
POLITECHNIKA LSKA WYDZIAŁ INYNIERII RODOWISKA I ENERGETYKI INSTYTUT MASZYN I URZDZE ENERGETYCZNYCH LABORATORIUM METROLOGII Dyskretyzacja sygnałów cigłych. (M 15) www.imiue.polsl.pl/~wwwzmiape Opracował:
Metody Sztucznej Inteligencji II
17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału
Adrian Horzyk
Metody Inteligencji Obliczeniowej Metoda K Najbliższych Sąsiadów (KNN) Adrian Horzyk horzyk@agh.edu.pl AGH Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej
Wst p do sieci neuronowych, wykªad 7 Uczenie nienadzorowane.
Wst p do sieci neuronowych, wykªad 7 Uczenie nienadzorowane. M. Czoków, J. Piersa Faculty of Mathematics and Computer Science, Nicolaus Copernicus University, Toru«, Poland 2011-11-22 1 Uczenie nienadzorowane
Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010
Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010 Sieci neuronowe jednokierunkowa wielowarstwowa sieć neuronowa sieci Kohonena
Sieci Neuronowe - Rok III - kierunek IS w IFAiIS UJ 2008/2009. Sieci Neuronowe. Wykład 4 Wariacje na temat propagacji wstecznej Sieci CP
Sieci Neuronowe - Rok III - kierunek IS w IFAiIS UJ 2008/2009 Sieci Neuronowe Wykład 4 Wariacje na temat propagacji wstecznej Sieci CP wykład przygotowany na podstawie. S. Osowski, Sieci neuronowe w ujęciu
Sieć przesyłająca żetony CP (counter propagation)
Sieci neuropodobne IX, specyficzne architektury 1 Sieć przesyłająca żetony CP (counter propagation) warstwa Kohonena: wektory wejściowe są unormowane jednostki mają unormowane wektory wag jednostki są
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING NEURONOWE MAPY SAMOORGANIZUJĄCE SIĘ ĆWICZENIA Self-Organizing Maps SOM Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki,
stopie szaro ci piksela ( x, y)
I. Wstp. Jednym z podstawowych zada analizy obrazu jest segmentacja. Jest to podział obrazu na obszary spełniajce pewne kryterium jednorodnoci. Jedn z najprostszych metod segmentacji obrazu jest progowanie.
METODY INTELIGENCJI OBLICZENIOWEJ wykład 5
METODY INTELIGENCJI OBLICZENIOWEJ wykład 5 1 2 SZTUCZNE SIECI NEURONOWE cd 3 UCZENIE PERCEPTRONU: Pojedynczy neuron (lub 1 warstwa neuronów) typu percep- tronowego jest w stanie rozdzielić przestrzeń obsza-
Temat: Problem najkrótszych cieek w grafach waonych, cz. I: Algorytmy typu label - setting.
Temat: Problem najkrótszych cieek w grafach waonych, cz. I: Algorytmy typu label - setting.. Oznaczenia i załoenia Oznaczenia G = - graf skierowany z funkcj wagi s wierzchołek ródłowy t wierzchołek
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska
Hierarchiczna analiza skupień
Hierarchiczna analiza skupień Cel analizy Analiza skupień ma na celu wykrycie w zbiorze obserwacji klastrów, czyli rozłącznych podzbiorów obserwacji, wewnątrz których obserwacje są sobie w jakimś określonym
ZASTOSOWANIA SIECI NEURONOWYCH
SN... 1 DZIEJE BADA¼ NAD SIECIAMI NEURONOWYMI - równoleg»y sposób przetwarzania informacji - 1957 : Perceptron, Cornell Aeronautical Laboratory (uk»ad elektromechaniczny do rozpoznawania znaków) 8 komórek,
SIEMENS GIGASET REPEATER
SIEMENS GIGASET REPEATER Wane wskazówki Wane wskazówki Wskazówki bezpieczestwa Gigaset repeater nie jest urzdzeniem wodoodpornym, nie naley wic umieszcza go w wilgotnych pomieszczeniach. Tylko dostarczony
Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2014/2015
Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner rok akademicki 2014/2015 Sieci Kohonena Sieci Kohonena Sieci Kohonena zostały wprowadzone w 1982 przez fińskiego
8. Neuron z ciągłą funkcją aktywacji.
8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i
KLUCZ PUNKTOWANIA ODPOWIEDZI
Egzamin maturalny maj 009 MATEMATYKA POZIOM ROZSZERZONY KLUCZ PUNKTOWANIA ODPOWIEDZI Zadanie. a) Wiadomoci i rozumienie Matematyka poziom rozszerzony Wykorzystanie pojcia wartoci argumentu i wartoci funkcji.
PROCEDURY REGULACYJNE STEROWNIKÓW PROGRAMOWALNYCH (PLC)
PROCEDURY REGULACYJNE STEROWNIKÓW PROGRAMOWALNYCH (PLC) W dotychczasowych systemach automatyki przemysłowej algorytm PID był realizowany przez osobny regulator sprztowy - analogowy lub mikroprocesorowy.
Elementy pneumatyczne
POLITECHNIKA LSKA W GLIWICACH WYDZIAŁ INYNIERII RODOWISKA i ENERGETYKI INSTYTUT MASZYN i URZDZE ENERGETYCZNYCH Elementy pneumatyczne Laboratorium automatyki (A 3) Opracował: dr in. Jacek Łyczko Sprawdził:
Tworzenie bazy danych Biblioteka tworzenie tabel i powiza, manipulowanie danymi. Zadania do wykonani przed przystpieniem do pracy:
wiczenie 2 Tworzenie bazy danych Biblioteka tworzenie tabel i powiza, manipulowanie danymi. Cel wiczenia: Zapoznanie si ze sposobami konstruowania tabel, powiza pomidzy tabelami oraz metodami manipulowania
Instrukcja obsługi programu MechKonstruktor
Instrukcja obsługi programu MechKonstruktor Opracował: Sławomir Bednarczyk Wrocław 2002 1 1. Opis programu komputerowego Program MechKonstruktor słuy do komputerowego wspomagania oblicze projektowych typowych
Blok funkcjonalny to specjalizowany układ cyfrowy przystosowany do wykonania jednej lub kilku okrelonych operacji przetwarzania sygnałów binarnych.
Omawiane do tej pory układy logiczne to inaczej mówic układy cyfrowe konstruowane z bramek i przerzutników. I w zasadzie mona z nich zaprojektowa i zbudowa dowolny układ cyfrowy. Problem jednak ley w tym,
Instrukcja dla pracowników Uniwersytetu Rzeszowskiego.
Dost p!do!infrastruktury!informatycznej. Instrukcja dla pracowników Uniwersytetu Rzeszowskiego. Wersja dokumentu: 1.0.0 Rzeszów: 23.10.2009 OPTeam S.A. 35-032 Rzeszów, ul. Lisa Kuli 3 INFORMACJA O NOWYCH
Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.
Wstęp do sieci neuronowych, wykład 7. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 212-11-28 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu
Temat: Technika zachłanna. Przykłady zastosowania. Własno wyboru zachłannego i optymalnej podstruktury.
Temat: Technika zachłanna. Przykłady zastosowania. Własno wyboru zachłannego i optymalnej podstruktury. Algorytm zachłanny ( ang. greedy algorithm) wykonuje zawsze działanie, które wydaje si w danej chwili
Temat: Problem minimalnego drzewa Steinera. Definicja problemu. Zastosowania. Algorytm dokładny Hakimi. Algorytmy aproksymacyjne.
Temat: Problem minimalnego drzewa Steinera. Definicja problemu. Zastosowania. Algorytm dokładny Hakimi. Algorytmy aproksymacyjne. 1. Definicja problemu Wejcie: Graf spójny niezorientowany G =
Wstęp do sieci neuronowych, wykład 8 Samoorganizacja topologiczna, analiza składowych głównych.
Wstęp do sieci neuronowych, wykład 8 Samoorganizacja topologiczna, analiza składowych głównych. M. Czoków, J. Piersa Faculty of Mathematics and Computer Science, Nicolaus Copernicus University, Toruń,
Program do konwersji obrazu na cig zero-jedynkowy
Łukasz Wany Program do konwersji obrazu na cig zero-jedynkowy Wstp Budujc sie neuronow do kompresji znaków, na samym pocztku zmierzylimy si z problemem przygotowywania danych do nauki sieci. Przyjlimy,
6.2. Baza i wymiar. V nazywamy baz-
62 Baza i wymiar V nazywamy baz- Definicja 66 Niech V bdzie przestrzeni, liniow, nad cia/em F Podzbiór B przestrzeni V, je2eli: () B jest liniowo niezale2ny, (2) B jest generuj,cy, tzn lin(b) =V Przyk/ady:
Program SMS4 Monitor
Program SMS4 Monitor INSTRUKCJA OBSŁUGI Wersja 1.0 Spis treci 1. Opis ogólny... 2 2. Instalacja i wymagania programu... 2 3. Ustawienia programu... 2 4. Opis wskaników w oknie aplikacji... 3 5. Opcje uruchomienia
Bazy danych Podstawy teoretyczne
Pojcia podstawowe Baza Danych jest to zbiór danych o okrelonej strukturze zapisany w nieulotnej pamici, mogcy zaspokoi potrzeby wielu u!ytkowników korzystajcych z niego w sposóbs selektywny w dogodnym
KLUCZ PUNKTOWANIA ODPOWIEDZI
Egzamin maturalny maj 009 MATEMATYKA POZIOM PODSTAWOWY KLUCZ PUNKTOWANIA ODPOWIEDZI Zadanie. a) Matematyka poziom podstawowy Wyznaczanie wartoci funkcji dla danych argumentów i jej miejsca zerowego. 0
ODPOWIEDZI I SCHEMAT PUNKTOWANIA ZESTAW NR 2 POZIOM PODSTAWOWY. 1. x y x y
Nr zadania Nr czynnoci Przykadowy zestaw zada nr z matematyki ODPOWIEDZI I SCHEMAT PUNKTOWANIA ZESTAW NR POZIOM PODSTAWOWY Etapy rozwizania zadania. Podanie dziedziny funkcji f: 6, 8.. Podanie wszystkich
Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści
Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, 2013 Spis treści Przedmowa 7 1. Wstęp 9 1.1. Podstawy biologiczne działania neuronu 9 1.2. Pierwsze modele sieci neuronowej
Planowanie adresacji IP dla przedsibiorstwa.
Planowanie adresacji IP dla przedsibiorstwa. Wstp Przy podejciu do planowania adresacji IP moemy spotka si z 2 głównymi przypadkami: planowanie za pomoc adresów sieci prywatnej przypadek, w którym jeeli
Bazy danych. Plan wykładu. Zalenoci funkcyjne. Wykład 4: Relacyjny model danych - zalenoci funkcyjne. SQL - podzapytania A B
Plan wykładu Bazy danych Wykład 4: Relacyjny model danych - zalenoci funkcyjne. SQL - podzapytania Definicja zalenoci funkcyjnych Klucze relacji Reguły dotyczce zalenoci funkcyjnych Domknicie zbioru atrybutów
Przyk adowa konfiguracja zwielokrotnianienia po czenia za pomoc Link Aggregation Control Protocol
Przykadowa konfiguracja zwielokrotnianienia poczenia za pomoc Link aggregation - polega na grupowaniu kilku pocze (kabli) sieciowych w jeden port logiczny (port AG), który jest widoczny jak pojedyncze
Metody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF.
Metody sztucznej inteligencji Zadanie 3: ( klasteryzacja samoorganizująca się mapa Kohonena, (2 aproksymacja sieć RBF dr inż Przemysław Klęsk Klasteryzacja za pomocą samoorganizującej się mapy Kohonena
Widzenie komputerowe
Widzenie komputerowe Uczenie maszynowe na przykładzie sieci neuronowych (3) źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Zdolność uogólniania sieci neuronowej R oznaczenie
Komputerowa Ksiga Podatkowa Wersja 11.4 ZAKOCZENIE ROKU
Komputerowa Ksiga Podatkowa Wersja 11.4 ZAKOCZENIE ROKU Przed przystpieniem do liczenia deklaracji PIT-36, PIT-37, PIT-O i zestawienia PIT-D naley zapozna si z objanieniami do powyszych deklaracji. Uwaga:
Rys.1 Schemat blokowy uk adu miliwatomierza.
Wstp Tematem projektu jest zaproponowanie ukadu do pomiaru mocy czynnej speniajcego nastpujce warunki: - moc znamionowa pomiaru P n = 00mW; - czstotliwo znamionowa pomiaru f n = khz; - znamionowa impedancja
Metody numeryczne. Wst p do metod numerycznych. Dawid Rasaªa. January 9, 2012. Dawid Rasaªa Metody numeryczne 1 / 9
Metody numeryczne Wst p do metod numerycznych Dawid Rasaªa January 9, 2012 Dawid Rasaªa Metody numeryczne 1 / 9 Metody numeryczne Czym s metody numeryczne? Istota metod numerycznych Metody numeryczne s
Systemy uczące się Lab 4
Systemy uczące się Lab 4 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 26 X 2018 Projekt zaliczeniowy Podstawą zaliczenia ćwiczeń jest indywidualne wykonanie projektu uwzględniającego
Oscyloskopy, analizatory stanów ScopeDAQ: dane techniczne
Oscyloskopy, analizatory stanów ScopeDAQ: dane techniczne ScopeDAQ 2.0 jest dwukanaowym oscyloskopem cyfrowym o maksymalnej czstotliwoci próbkowania 200MHz i rozdzielczoci przetwornika 8 bitów. Uytkownik
WYZNACZANIE OPTYMALNEJ KONFIGURACJI ZROBOTYZOWANEGO STANOWISKA MONTA OWEGO
K O M I S J A B U D O W Y M A S Z Y N P A N O D D Z I A W P O Z N A N I U Vol. 29 nr 2 Archiwum Technologii Maszyn i Automatyzacji 2009 RAFA KLUZ WYZNACZANIE OPTYMALNEJ KONFIGURACJI ZROBOTYZOWANEGO STANOWISKA
Co to jest grupowanie
Grupowanie danych Co to jest grupowanie 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Szukanie grup, obszarów stanowiących lokalne gromady punktów Co to jest grupowanie
Klonowanie MAC adresu oraz TTL
1. Co to jest MAC adres? Klonowanie MAC adresu oraz TTL Adres MAC (Media Access Control) to unikalny adres (numer seryjny) kadego urzdzenia sieciowego (jak np. karta sieciowa). Kady MAC adres ma długo
Podstawy sztucznej inteligencji
wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,
Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.
Wstęp do sieci neuronowych, wykład 7. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 213-11-19 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu
Kompresja obrazu z wykorzystaniem transformaty Karhunena-Loeve
Łukasz Chmiel Rafał Poninkiewicz ompresja obrazu z wykorzystaniem transformaty arhunena-loeve. Wstp Publikacja prezentuje metod kompresji obrazu z wykorzystaniem transformaty LT (arhunena-loeve. Stworzenie
Obliczenia Naturalne - Sztuczne sieci neuronowe
Literatura Wprowadzenie Obliczenia Naturalne - Sztuczne sieci neuronowe Paweł Paduch Politechnika Świętokrzyska 13 marca 2014 Paweł Paduch Obliczenia Naturalne - Sztuczne sieci neuronowe 1 z 43 Plan wykładu
Inteligentne systemy przeciw atakom sieciowym
Inteligentne systemy przeciw atakom sieciowym wykład Sztuczne sieci neuronowe (SSN) Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 1 / 36 Biologiczne
Bash i algorytmy. Elwira Wachowicz. 20 lutego
Bash i algorytmy Elwira Wachowicz elwira@ifd.uni.wroc.pl 20 lutego 2012 Elwira Wachowicz (elwira@ifd.uni.wroc.pl) Bash i algorytmy 20 lutego 2012 1 / 16 Inne przydatne polecenia Polecenie Dziaªanie Przykªad
Metody Informatyczne w Budownictwie Metoda Elementów Skoczonych ZADANIE NR 1
Metody Informatyczne w Budownictwie Metoda Elementów Skoczonych ZADANIE NR 1 Wyznaczy wektor sił i przemieszcze wzłowych dla układu elementów przedstawionego na rysunku poniej (rysunek nie jest w skali!).
Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.
Wstęp do teorii sztucznej inteligencji Wykład III Modele sieci neuronowych. 1 Perceptron model najprostzszy przypomnienie Schemat neuronu opracowany przez McCullocha i Pittsa w 1943 roku. Przykład funkcji
IV Powiatowy Konkurs Matematyka, Fizyka i Informatyka w Technice Etap finałowy 1 kwietnia 2016
IV Powiatowy Konkurs Matematyka, Fizyka i Informatyka w Technice Etap finałowy 1 kwietnia 2016 (imi i nazwisko uczestnika) (nazwa szkoły) Arkusz zawiera 8 zada. Zadania 1 i 2 bd oceniane dla kadego uczestnika,
FUNKCJE UYTKOWNIKA. Rozbrajanie systemu pod przymusem [Kod przymusu] Blokowanie linii
Instrukcja uytkownika centrali Orbit-5;strona 1 FUNKCJE UYTKOWNIKA FUNKCJA PROCEDURA Uzbrajanie systemu [Kod uytkownika] + [ARM] Uzbrajanie w trybie W domu [Kod uytkownika] + [STAY] Rozbrajanie systemu
Amortyzacja rodków trwałych
Amortyzacja rodków trwałych Wydawnictwo Podatkowe GOFIN http://www.gofin.pl/podp.php/190/665/ Dodatek do Zeszytów Metodycznych Rachunkowoci z dnia 2003-07-20 Nr 7 Nr kolejny 110 Warto pocztkow rodków trwałych
Wojciech Drzewiecki SYSTEMY INFORMACJI GEOGRAFICZNEJ
Wojciech Drzewiecki SYSTEMY INFORMACJI GEOGRAFICZNEJ Systemem Informacji Geograficznej (Systemem Informacji Przestrzennej, GIS, SIP) nazywamy skomputeryzowany system pozyskiwania, przechowywania, przetwarzania,
Podstawy dzia ania komputera kwantowego wykorzystuj cego
BIULETYN INSTYTUTU SYSTEMÓW INFORMATYCZNYCH 69-74 (8) Podstawy dziaania komputera kwantowego wykorzystujcego zjawisko jdrowego rezonansu magnetycznego J. WINIEWSKA jwisniewska@wat.edu.pl Instytut Systemów
Wektory w przestrzeni
Wektory w przestrzeni Informacje pomocnicze Denicja 1. Wektorem nazywamy uporz dkowan par punktów. Pierwszy z tych punktów nazywamy pocz tkiem wektora albo punktem zaczepienia wektora, a drugi - ko«cem
WYKŁAD 9. Wzorce projektowe czynnociowe Observer Visitor
WYKŁAD 9 Wzorce projektowe czynnociowe Observer Visitor Behavioral Design Pattern: Observer [obj] Okrela relacj jeden-do-wielu midzy obiektami. Gdy jeden z obiektów zmienia stan, wszystkie obiekty zalene
GAF 860 wzmacniacz kanałowy DVB-T / DVB-H INSTRUKCJA OBSŁUGI
GAF 860 wzmacniacz kanałowy DVB-T / DVB-H INSTRUKCJA OBSŁUGI GZT TELKOM-TELMOR SP. Z O.O. ul. Mickiewicza 5/7 80-425 Gdask, Polska Info: 0801 011 311 e-mail:export@telmor.pl http://www.telmor.pl IO-7538-300-02;
Wstp. Warto przepływu to
177 Maksymalny przepływ Załoenia: sie przepływow (np. przepływ cieczy, prdu, danych w sieci itp.) bdziemy modelowa za pomoc grafów skierowanych łuki grafu odpowiadaj kanałom wierzchołki to miejsca połcze
Sztuczne sieci neuronowe
www.math.uni.lodz.pl/ radmat Cel wykładu Celem wykładu jest prezentacja różnych rodzajów sztucznych sieci neuronowych. Biologiczny model neuronu Mózg człowieka składa się z około 10 11 komórek nerwowych,
Rasteryzacja (ang. rasterization or scan-conversion) Grafika rastrowa. Rysowanie linii (1) Rysowanie piksela
Rasteryzacja (ang. rasterization or scan-conversion) Grafika rastrowa Rados!aw Mantiuk Wydzia! Informatyki Zachodniopomorski Uniwersytet Technologiczny Zamiana ci!g"ej funkcji 2D na funkcj# dyskretn! (np.
Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu
Literatura Wykład : Wprowadzenie do sztucznych sieci neuronowych Małgorzata Krętowska Wydział Informatyki Politechnika Białostocka Tadeusiewicz R: Sieci neuronowe, Akademicka Oficyna Wydawnicza RM, Warszawa
Bazy danych. Plan wykładu. Podzapytania - wskazówki. Podzapytania po FROM. Wykład 5: Zalenoci wielowartociowe. Sprowadzanie do postaci normalnych.
Plan wykładu azy danych Wykład 5: Zalenoci wielowartociowe. Sprowadzanie do postaci normalnych. Dokoczenie SQL Zalenoci wielowartociowe zwarta posta normalna Dekompozycja do 4NF Przykład sprowadzanie do
1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda
Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy
Zastosowania sieci neuronowych
Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką