Sieci samoorganizujce si. Jacek Bartman

Wielkość: px
Rozpocząć pokaz od strony:

Download "Sieci samoorganizujce si. Jacek Bartman"

Transkrypt

1 Sieci samoorganizujce si

2 Po raz pierwszy opracowania na temat sieci samoorganizujcych z konkurencj i ssiedztwem pojawiy si w latach 70-tych. Ich autorem by fi"ski uczony Kohonen sieci Kohonena. Istota uczenia konkurencyjnego (uczenia z rywalizacj, compettive learning) po prezentacji wzorca wej)ciowego nastpuje okre)lenie neuronu wygrywajcego (ang. winner) i tylko ten neuron, ewentualnie grupa ssiadujcych z nim neuronów aktualizuje swoje wagi, tak by zbli+y, je do aktualnego wzorca. oczekuje si, +e podobne wzorce wej)ciowe powinny wywoywa, podobne odpowiedzi sieci. Decydujcy wpyw na sposób funkcjonowania sieci samoorganizujcej w trakcie procesu uczenia ma wybór miary odlego)ci wygrywajcego neuronu od wektora wej)ciowego. Ka+dy neuron (a dokadnie jego wagi) staje si pewnym wzorcem grupy bliskich sobie sygnaów wej)ciowych, przy czym neurony ssiadujce ze sob reprezentuj bliskie sobie, podobne obszary przestrzeni wzorców wej)ciowych. W ten sposób sie, samoorganizujca tworzy topologiczny, zale+ny od przyjtej metryki, obraz przestrzeni sygnaów wej)ciowych przeniesiony na wewntrzn struktur topologiczn sieci.

3 Najciekawsze efekty uzyskuje si wprowadzajc metody Kohonena dla sieci neuronowych dwuwymiarowych,

4 Topologie sieci siatka prostoktna siatka heksagonalna, acuch otwarty zamknity. acuch Linie czce neurony okrelaj relacje topologiczne. Kady neuron jest powizany z pozostaymi neuronami pewn relacj ssiedztwa, która okrela struktur sieci.

5 Odlego)ci pomidzy neuronami mo+na wyznaczy, w odniesieniu do metryki zdefiniowanej w przestrzeni sygnaów wej)ciowych, w odniesieniu topologii samej sieci - pozwala okre)la, ssiedztwo danego neuronu w postaci zbioru neuronów powizanych midzy sob odpowiednimi relacjami topologicznymi. Ssiedztwo rozpatruje si w ukadach: jednowymiarowych, neurony ssiednie le+ na jednej linii, dwuwymiarowych, neurony tworz siatk a ssiadami s neurony poo+one na lewo i na prawo oraz u góry i u dou rozpatrywanego neuronu, ewentualnie jeszcze na przektnych, wielowymiarowe, neurony uo+one s swobodnie w przestrzeniach wielowymiarowych, a twórca sieci okre)la zasady ssiedztwa. Istotnym parametrem jest okre)lenie ile neuronów obok (ssiadów z lewej, prawej itd.) ma podlega, uczeniu w przypadku zwycistwa danego neuronu.

6 Miara odlegoci W procesie samoorganizacji na ka+dym etapie nale+y wyoni, zwycizc - neuron, którego wektor wagowy ró+ni si najmniej od wektora na wej)ciu. W tym celu nale+y dobra, odpowiedni metryk. Najcz)ciej u+ywa si miary euklidesowej d ( x,w i ) = x wi = ( x j wij ) n j= 1 2 iloczynu skalarnego d n ( x,w i ) = ( x j wij ) j= 1 miary wedug normy L1 (Manhattan) d n ( x,w i ) = j= 1 x j w ij miary wedug normy L d ( x,wi ) = max xj wij j

7 Sieci Kohonena Sie, Kohonena zostaa nazwana przez jego twórc samoorganizujcym odwzorowaniem (Self-Organizing Map - SOM) lub samoorganizujcym odwzorowaniem cech (Self-Organizing Feature Map - SOFM) i jest najbardziej popularnym typem sieci okre)lanej mianem samoorganizujcej. W sieci tej mamy do czynienia z uczeniem konkurencyjnym. Sie, ma na celu utworzenie takiej struktury, która w najlepszy sposób bdzie odwzorowywaa zale+no)ci w przestrzeni wektorów wej)ciowych. sie, jest zwykle jednokierunkowa, ka+dy neuron jest poczony ze wszystkimi skadowymi N-wymiarowego wektora wej)ciowego x. wagi pocze" neuronów tworz wektor w i =[w i1, w i2,..., w in ] T. wektor sygnaów wej)ciowych x jest przed procesem uczenia normalizowany x =1: x ) i = x n i k = 1 x 2 k

8 Adaptacja wag w sieci Kohonena W trakcie uczenia sieci samoorganizujcych na wej)cie ka+dego neuronu podawany jest n-wymiarowy sygna x ze zbioru wzorców uczcych We wspózawodnictwie zwyci+a jeden neuron, którego wagi najmniej ró+ni si od odpowiednich skadowych wektora x. zwycizca (neuron w-ty) spenia relacj d ( x, w ) = min ( d( x, w )) w i=1,2... n i Wokó zwyciskiego neuronu przyjmuje si topologiczne ssiedztwo S w (n), którego promie" maleje w czasie. Nastpnie neuron zwycizca i neurony ssiadujce podlegaj adaptacji wedug reguy Kohonena (Kohonen, 1995) w i ( t ) = w ( t 1) + g( i, x) ( x w ( t 1) ) i i wspóczynnik uczenia g(i,x) funkcja ssiedztwa

9 definiuje które neurony, oprócz zwyciskiego, maj zmieni& wagi moe nie by& uwzgldniane (Winner Takes All) musi definiowa& stopie zmian dla ssiadów (Winner Takes Most) W klasycznym algorytmie Kohonena funkcja g(i,x) jest definiowana nastpujco. g Ssiedztwo ( i, x) 1 = 0 ( i, w ) ( i, w ) < d(i,w) oznacza odlego), euklidesow midzy neuronem zwyciskim w i i-tym neuronem. Wspóczynnik jest promieniem ssiedztwa o warto)ciach malejcych z czasem. Ten typ to ssiedztwo prostoktne. Drugim typem ssiedztwa, z jakim mo+na si spotka, w mapach Kohonena jest ssiedztwo gaussowskie: 2 d ( i, w ) g ( i, x) Ssiedztwo gausowskie jest lepsze i prowadzi do lepszych rezultatów uczenia i lepszej organizacji sieci. dla dla = e d d 2 2

10 Efekty uczenia sieci samoorganizujcych Po zako"czeniu procesu uczenia, a przed przystpieniem do pracy nale+y pamita, o tym, aby sie, skalibrowa,. Dokonuje tego nauczyciel, podajc po jednym sygnale wej)ciowym z ka+dej z klas - i opisujc który neuron która klas reprezentuje. Rozmieszczenie wag w przestrzeni tworzy wzy, które poczone z najbli+szymi ssiadami (w sensie ssiedztwa topologicznego) reprezentuj ksztat odtwarzajcy rozkad danych wej)ciowych. Jest to rozkad odpowiadajcy gsto)ci pojawiania si danych wej)ciowych w danym rejonie a nie wspórzdnych odpowiednich wektorów, gdy+ liczba prezentowanych wektorów wej)ciowych jest zwykle o kilka rzdów wy+sza ni+ liczba neuronów w sieci. Liczba neuronów w sieci w praktyce musi by, wiksza od liczby klas sygnaów wej)ciowych: kilka neuronów mo+e konkurowa, o reprezentacj danej klasy, nadmiarowo), powinna zapewni,, i+ mniej lubiane klasy równie+ bd rozpoznane.

11 Sie Counter Propagation sie CP Sie& CP stanowi poczenie sieci Kohonena i sieci Grossberga. Z propozycj tej sieci wystpi Robert Hecht-Nielsen, Jest odpowiedzi na wady sieci ze wsteczn propagacj, gdzie uczenie byo powolne i pracochonne. Ze wzgldu na do& prost zasad dziaania, funkcjonowanie sieci CP porównywane jest do odczytu gotowego wyniku z tablicy. Jej warstwa wejciowa dokonuje adaptacyjnej klasyfikacji sygnaów wejciowych, co pozwala na pewne uogólnianie gromadzonego dowiadczenia.

12 Architektura sieci CP Przedstawiony rysunek zosta uproszczony - w rzeczywistym modelu midzy warstw Kohonena, a warstw wyjciow wystpuj poczeniami typu kady z kadym,

13 Dzia%anie sieci CP Wektor wejciowy podawany na sie& musi by& znormalizowany x =1 ze wzgldu na konkurencyjne uczenia. Element pochodzcy z pierwszej warstwy, który jest optymalnie dopasowany do sygnau wejciowego x przesyany jest do dalszego przetwarzania w nastpnej warstwie jako jeden sygna - "eton".

14 rola pierwszej warstwy warstwy Kohonena W pierwszej warstwie realizowany jest algorytm Kohonena. wyliczany jest potencja membranowy u j wszystkich neuronów u j = Wybierany jest neuron którego pobudzenie jest najwiksze i tylko jego sygna wyj)ciowy przyjmuje warto), 1 y j = 1 0 dla Wybrany pojedynczy sygna - counter jest +etonem zastpujcym i symbolizujcym wszystkie sygnay wej)ciowe, Sygna u j (potencja membranowy) ka+dego neuronu w warstwie Kohonena jest miar podobie"stwa pomidzy sygnaem wektora x, a abstrakcyjnym wzorcem wytrenowanym na j-tym neuronie. w T j dla x i j i j u j u j > u i u i Wzorzec idealnego sygnau dla j-tego neuronu zawarty jest w jego wektorze wag w j. Je)li x = w j, wówczas neuron odpowiada sygnaem o maksymalnej warto)ci, je)li x w j, wówczas pobudzenie neuronu (u j ) jest miar cosinusa kta pomidzy wektorami x i w j.

15 rola drugiej warstwy warstwy Outstar Grosberga Druga warstwa sieci realizuje algorytm Outstar Grossberga: y = v T k v - macierz wspóczynników wagowych k wektor wyj), z warstwy Kohonena W praktyce tylko jeden element wektora k ma warto), 1, a pozostae maj warto), 0 Wystarczy uto+samienie wyj)cia y i z pewnym wspóczynnikiem wagowym v ij. Dziaanie takie przypomina odczyt z gotowej tablicy. Na ka+dym i-tym wyj)ciu sieci w trakcie procesu uczenia przygotowane zostaje m wariantów odpowiedzi v ij. Gdy warstwa Kohonena ustali, które z jej licznych wyj), otrzyma +eton" - na wszystkich wyj)ciach pojawiaj si tylko te warto)ci V ij, które odpowiadaj numerowi j, dla którego k j = 1.

16 Uczenie warstw w CP Uczenie sieci CP przebiega równocze)nie w obydwu warstwach sieci. Jest ono typem uczenia z nauczycielem, gdy+ wraz z ka+dym wektorem wej)ciowym x podawany jest wektor wyj)ciowy, jaki u+ytkownik chce uzyska, na wyj)ciu sieci. W tym przypadku uczenia nie wykorzystujemy pojcia bdu, co zachodzi przy klasycznym nauczaniu z nauczycielem. Ró+nic jest te+ brak wykorzystania informacji pochodzcych od nauczyciela, przy uczeniu pierwszej "ukrytej" warstwy sieci. Zmiany w stosunku do klasycznego nauczania z nauczycielem zostay zastpione dziaaniem: przy uczeniu pierwszej warstwy stosuje si technik Kohonena, która jest form uczenia bez nauczyciela. przy uczeniu drugiej warstwy wykorzystuje si algorytm Grossberga do bezpo)redniego wymuszania po+danych odpowiedzi sieci

17 warstwa Kohonena Warstwie Kohonena na t-tym kroku przedstawia si wektor x(t), a posiadajc z wcze)niejszego uczenia warto)ci wektorów, mo+na obliczy, T ( t) = w ( t ) x( t) Nastpnie wyznacza si numer zwycizcy - z u j Korekcie podlegaj wycznie wagi "zwyciskiego" neuronu wedug reguy w t = w t x t 1 w t 1 z ( ) ( ) ( ) ( ) z j ( ) z Wspóczynnik uczenia 1 przyjmowany jest zwykle jako równy 0,7 na pocztku procesu uczenia i stopniowo zmniejszany dla wikszych t. Jak w wielu algorytmach samouczenia, tak samo i tu najwa+niejsze s pierwsze kroki. Najpierw trzeba nada, wspóczynnikom wagowym w ij warto)ci pocztkowe tak, aby byy one unormowane.

18 Wa+nym krokiem jest takie dobranie kierunków wektorów wag, aby w sposób równomierny rozkaday si na powierzchni sfery jednostkowej w przestrzeni n-wymiarowej. Dobranie takich wag jest trudne, ponadto nie zawsze gwarantuje dobre wyniki. Powodem tego mo+e by, pojawienie si trakcie uczenia kilku zwyciskich neuronów. Aby zapobiec takiemu zjawisku pocztkowo wszystkim skadowym wszystkich wektorów wag nadaje si t sam warto), pocztkow 1 w ij ( 1 ) = n Powoduje to, +e wszystkie wektory wag s prawidowo unormowane, oraz pokrywaj si. Po takiej inicjalizacji zaczyna si proces uczenia z ma ró+nic, +e jako wektory wej)ciowe podaje si wektory o wspórzdnych obliczanych wedug wzoru 1 x t = t x t t i ( ) 2( ) i ( ) [ 1 2( )] n Funkcja adaptujca 2 (t) dla maych t przyjmuje bardzo mae warto)ci, natomiast potem ro)nie do warto)ci 1 i t warto), zachowuje przez reszt procesu uczenia.

19 Warstwa Grossberga Wagi v ij, w warstwie Grossberga, s zmieniane wedug reguy Widrowa-Hoffa: v ij ( t ) = v ( ) ( ) ij t di yi k j Poniewa+ tylko jedna warto), k j jest ró+na od zera i w ka+dym kroku procesu uczenia korygowane s tylko te wagi, które cz poszczególne neurony wyj)ciowej warstwy z jednym tylko "zwyciskim" elementem poprzedniej warstwy. Ta zasada zmniejsza pracochonno), procesu uczenia. Parametr 3 wybiera si zazwyczaj ostro+nie, tak aby proces uczenia nie spowodowa wpisania do "tablicy" bdnych warto)ci. Zwykle zaczyna si uczenie od warto)ci 3 =0,1, a potem si t warto), jeszcze mocniej redukuje.

20

21

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Wykład 10 Mapa cech Kohonena i jej modyfikacje - uczenie sieci samoorganizujących się - kwantowanie wektorowe

Bardziej szczegółowo

Poprawa efektywnoci metody wstecznej propagacji bdu. Jacek Bartman

Poprawa efektywnoci metody wstecznej propagacji bdu. Jacek Bartman Poprawa efektywnoci metody wstecznej propagac bdu Algorytm wstecznej propagac bdu. Wygeneruj losowo wektory wag. 2. Podaj wybrany wzorzec na wejcie sieci. 3. Wyznacz odpowiedzi wszystkich neuronów wyjciowych

Bardziej szczegółowo

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania WYKŁAD 4 Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania PLAN WYKŁADU Metody uczenia sieci: Uczenie perceptronu Propagacja wsteczna Zastosowania Sterowanie (powtórzenie) Kompresja obrazu Rozpoznawanie

Bardziej szczegółowo

Lekcja 5: Sieć Kohonena i sieć ART

Lekcja 5: Sieć Kohonena i sieć ART Lekcja 5: Sieć Kohonena i sieć ART S. Hoa Nguyen 1 Materiał Sieci Kohonena (Sieć samo-organizująca) Rysunek 1: Sieć Kohonena Charakterystyka sieci: Jednowarstwowa jednokierunkowa sieć. Na ogół neurony

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING NEURONOWE MAPY SAMOORGANIZUJĄCE SIĘ Self-Organizing Maps SOM Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki,

Bardziej szczegółowo

SIECI KOHONENA UCZENIE BEZ NAUCZYCIELA JOANNA GRABSKA-CHRZĄSTOWSKA

SIECI KOHONENA UCZENIE BEZ NAUCZYCIELA JOANNA GRABSKA-CHRZĄSTOWSKA SIECI KOHONENA UCZENIE BEZ NAUCZYCIELA JOANNA GRABSKA-CHRZĄSTOWSKA Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA SAMOUCZENIE SIECI metoda Hebba W mózgu

Bardziej szczegółowo

Rys1. Schemat blokowy uk adu. Napi cie wyj ciowe czujnika [mv]

Rys1. Schemat blokowy uk adu. Napi cie wyj ciowe czujnika [mv] Wstp Po zapoznaniu si z wynikami bada czujnika piezoelektrycznego, ramach projektu zaprojektowano i zasymulowano nastpujce ukady: - ródo prdowe stabilizowane o wydajnoci prdowej ma (do zasilania czujnika);

Bardziej szczegółowo

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor S O M SELF-ORGANIZING MAPS Przemysław Szczepańczyk Łukasz Myszor Podstawy teoretyczne Map Samoorganizujących się stworzył prof. Teuvo Kohonen (1982 r.). SOM wywodzi się ze sztucznych sieci neuronowych.

Bardziej szczegółowo

Daniel Kierepka. Kompresja obrazów za pomoc sztucznych sieci neuronowych

Daniel Kierepka. Kompresja obrazów za pomoc sztucznych sieci neuronowych Daniel Kierepka Kompresja obrazów za pomoc sztucznych sieci neuronowych We współczesnym wiecie do duym problemem jest przesyłanie danych o znacznej wielkoci w sieciach telekomunikacyjnych. W tej pracy

Bardziej szczegółowo

Obliczenia inteligentne Zadanie 4

Obliczenia inteligentne Zadanie 4 Sieci SOM Poniedziałek, 10:15 2007/2008 Krzysztof Szcześniak Cel Celem zadania jest zaimplementowanie neuronowej samoorganizującej się mapy wraz z metodą jej nauczania algorytmem gazu neuronowego. Część

Bardziej szczegółowo

Uczenie Wielowarstwowych Sieci Neuronów o

Uczenie Wielowarstwowych Sieci Neuronów o Plan uczenie neuronu o ci gªej funkcji aktywacji uczenie jednowarstwowej sieci neuronów o ci gªej funkcji aktywacji uczenie sieci wielowarstwowej - metoda propagacji wstecznej neuronu o ci gªej funkcji

Bardziej szczegółowo

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia

Bardziej szczegółowo

Uczenie sieci radialnych (RBF)

Uczenie sieci radialnych (RBF) Uczenie sieci radialnych (RBF) Budowa sieci radialnej Lokalne odwzorowanie przestrzeni wokół neuronu MLP RBF Budowa sieci radialnych Zawsze jedna warstwa ukryta Budowa neuronu Neuron radialny powinien

Bardziej szczegółowo

Wprowadzenie. SOM jest skrótem od Self Organizing Maps, czyli Samoorganizujące się mapy.

Wprowadzenie. SOM jest skrótem od Self Organizing Maps, czyli Samoorganizujące się mapy. SOM i WebSOM Wprowadzenie SOM jest skrótem od Self Organizing Maps, czyli Samoorganizujące się mapy. Podstawy teoretyczne stworzył fiński profesor Teuvo Kohonen w 1982 r SOM - ogólnie Celem tych sieci

Bardziej szczegółowo

Elementy Sztucznej Inteligencji

Elementy Sztucznej Inteligencji Elementy Sztucznej Inteligencji Sztuczne sieci neuronowe Plan Wzorce biologiczne. Idea SSN - model sztucznego neuronu. Perceptron prosty i jego uczenie reguł delta Perceptron wielowarstwowy i jego uczenie

Bardziej szczegółowo

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2 Elementy Sztucznej Inteligencji Sztuczne sieci neuronowe cz. 2 1 Plan wykładu Uczenie bez nauczyciela (nienadzorowane). Sieci Kohonena (konkurencyjna) Sieć ze sprzężeniem zwrotnym Hopfielda. 2 Cechy uczenia

Bardziej szczegółowo

Uczenie sieci typu MLP

Uczenie sieci typu MLP Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik

Bardziej szczegółowo

Elementy Sztucznej Inteligencji

Elementy Sztucznej Inteligencji Elementy Sztucznej Inteligencji Sztuczne sieci neuronowe wykład Elementy Sztucznej Inteligencji - wykład Plan Wzorce biologiczne. Idea SSN - model sztucznego neuronu. Perceptron prosty i jego uczenie reguł

Bardziej szczegółowo

KLUCZ PUNKTOWANIA ODPOWIEDZI

KLUCZ PUNKTOWANIA ODPOWIEDZI Egzamin maturalny maj 009 MATEMATYKA POZIOM PODSTAWOWY KLUCZ PUNKTOWANIA ODPOWIEDZI Zadanie 1. Matematyka poziom podstawowy Wyznaczanie wartoci funkcji dla danych argumentów i jej miejsca zerowego. Zdajcy

Bardziej szczegółowo

AUTO-ENKODER JAKO SKŠADNIK ARCHITEKTURY DEEP LEARNING

AUTO-ENKODER JAKO SKŠADNIK ARCHITEKTURY DEEP LEARNING AUTO-ENKODER JAKO SKŠADNIK ARCHITEKTURY DEEP LEARNING Magdalena Wiercioch Uniwersytet Jagiello«ski 3 kwietnia 2014 Plan Uczenie gª bokie (deep learning) Auto-enkodery Rodzaje Zasada dziaªania Przykªady

Bardziej szczegółowo

geometry a w przypadku istnienia notki na marginesie: 1 z 5

geometry a w przypadku istnienia notki na marginesie: 1 z 5 1 z 5 geometry Pakiet słuy do okrelenia parametrów strony, podobnie jak vmargin.sty, ale w sposób bardziej intuicyjny. Parametry moemy okrela na dwa sposoby: okrelc je w polu opcji przy wywołaniu pakiety:

Bardziej szczegółowo

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa

Bardziej szczegółowo

Sztuczna inteligencja

Sztuczna inteligencja Sztuczna inteligencja Wykład 7. Architektury sztucznych sieci neuronowych. Metody uczenia sieci. źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Podstawowe architektury

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 8. SZTUCZNE SIECI NEURONOWE INNE ARCHITEKTURY Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska SIEĆ O RADIALNYCH FUNKCJACH BAZOWYCH

Bardziej szczegółowo

SIECI RBF (RADIAL BASIS FUNCTIONS)

SIECI RBF (RADIAL BASIS FUNCTIONS) SIECI RBF (RADIAL BASIS FUNCTIONS) Wybrane slajdy z prezentacji prof. Tadeusiewicza Wykład Andrzeja Burdy S. Osowski, Sieci Neuronowe w ujęciu algorytmicznym, Rozdz. 5, PWNT, Warszawa 1996. opr. P.Lula,

Bardziej szczegółowo

Monitorowanie i Diagnostyka w Systemach Sterowania

Monitorowanie i Diagnostyka w Systemach Sterowania Monitorowanie i Diagnostyka w Systemach Sterowania Katedra Inżynierii Systemów Sterowania Dr inż. Michał Grochowski Monitorowanie i Diagnostyka w Systemach Sterowania na studiach II stopnia specjalności:

Bardziej szczegółowo

wiczenie 5 Woltomierz jednokanaowy

wiczenie 5 Woltomierz jednokanaowy wiczenie 5 Woltomierz jednokanaowy IMiO PW, LPTM, wiczenie 5, Woltomierz jednokanaowy -2- Celem wiczenia jest zapoznanie si# z programow% obsug% prostego przetwornika analogowo-cyfrowego na przykadzie

Bardziej szczegółowo

Dyskretyzacja sygnałów cigłych.

Dyskretyzacja sygnałów cigłych. POLITECHNIKA LSKA WYDZIAŁ INYNIERII RODOWISKA I ENERGETYKI INSTYTUT MASZYN I URZDZE ENERGETYCZNYCH LABORATORIUM METROLOGII Dyskretyzacja sygnałów cigłych. (M 15) www.imiue.polsl.pl/~wwwzmiape Opracował:

Bardziej szczegółowo

Metody Sztucznej Inteligencji II

Metody Sztucznej Inteligencji II 17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału

Bardziej szczegółowo

Adrian Horzyk

Adrian Horzyk Metody Inteligencji Obliczeniowej Metoda K Najbliższych Sąsiadów (KNN) Adrian Horzyk horzyk@agh.edu.pl AGH Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Bardziej szczegółowo

Wst p do sieci neuronowych, wykªad 7 Uczenie nienadzorowane.

Wst p do sieci neuronowych, wykªad 7 Uczenie nienadzorowane. Wst p do sieci neuronowych, wykªad 7 Uczenie nienadzorowane. M. Czoków, J. Piersa Faculty of Mathematics and Computer Science, Nicolaus Copernicus University, Toru«, Poland 2011-11-22 1 Uczenie nienadzorowane

Bardziej szczegółowo

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010 Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010 Sieci neuronowe jednokierunkowa wielowarstwowa sieć neuronowa sieci Kohonena

Bardziej szczegółowo

Sieci Neuronowe - Rok III - kierunek IS w IFAiIS UJ 2008/2009. Sieci Neuronowe. Wykład 4 Wariacje na temat propagacji wstecznej Sieci CP

Sieci Neuronowe - Rok III - kierunek IS w IFAiIS UJ 2008/2009. Sieci Neuronowe. Wykład 4 Wariacje na temat propagacji wstecznej Sieci CP Sieci Neuronowe - Rok III - kierunek IS w IFAiIS UJ 2008/2009 Sieci Neuronowe Wykład 4 Wariacje na temat propagacji wstecznej Sieci CP wykład przygotowany na podstawie. S. Osowski, Sieci neuronowe w ujęciu

Bardziej szczegółowo

Sieć przesyłająca żetony CP (counter propagation)

Sieć przesyłająca żetony CP (counter propagation) Sieci neuropodobne IX, specyficzne architektury 1 Sieć przesyłająca żetony CP (counter propagation) warstwa Kohonena: wektory wejściowe są unormowane jednostki mają unormowane wektory wag jednostki są

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING NEURONOWE MAPY SAMOORGANIZUJĄCE SIĘ ĆWICZENIA Self-Organizing Maps SOM Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki,

Bardziej szczegółowo

stopie szaro ci piksela ( x, y)

stopie szaro ci piksela ( x, y) I. Wstp. Jednym z podstawowych zada analizy obrazu jest segmentacja. Jest to podział obrazu na obszary spełniajce pewne kryterium jednorodnoci. Jedn z najprostszych metod segmentacji obrazu jest progowanie.

Bardziej szczegółowo

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5 METODY INTELIGENCJI OBLICZENIOWEJ wykład 5 1 2 SZTUCZNE SIECI NEURONOWE cd 3 UCZENIE PERCEPTRONU: Pojedynczy neuron (lub 1 warstwa neuronów) typu percep- tronowego jest w stanie rozdzielić przestrzeń obsza-

Bardziej szczegółowo

Temat: Problem najkrótszych cieek w grafach waonych, cz. I: Algorytmy typu label - setting.

Temat: Problem najkrótszych cieek w grafach waonych, cz. I: Algorytmy typu label - setting. Temat: Problem najkrótszych cieek w grafach waonych, cz. I: Algorytmy typu label - setting.. Oznaczenia i załoenia Oznaczenia G = - graf skierowany z funkcj wagi s wierzchołek ródłowy t wierzchołek

Bardziej szczegółowo

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska

Bardziej szczegółowo

Hierarchiczna analiza skupień

Hierarchiczna analiza skupień Hierarchiczna analiza skupień Cel analizy Analiza skupień ma na celu wykrycie w zbiorze obserwacji klastrów, czyli rozłącznych podzbiorów obserwacji, wewnątrz których obserwacje są sobie w jakimś określonym

Bardziej szczegółowo

ZASTOSOWANIA SIECI NEURONOWYCH

ZASTOSOWANIA SIECI NEURONOWYCH SN... 1 DZIEJE BADA¼ NAD SIECIAMI NEURONOWYMI - równoleg»y sposób przetwarzania informacji - 1957 : Perceptron, Cornell Aeronautical Laboratory (uk»ad elektromechaniczny do rozpoznawania znaków) 8 komórek,

Bardziej szczegółowo

SIEMENS GIGASET REPEATER

SIEMENS GIGASET REPEATER SIEMENS GIGASET REPEATER Wane wskazówki Wane wskazówki Wskazówki bezpieczestwa Gigaset repeater nie jest urzdzeniem wodoodpornym, nie naley wic umieszcza go w wilgotnych pomieszczeniach. Tylko dostarczony

Bardziej szczegółowo

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2014/2015

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2014/2015 Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner rok akademicki 2014/2015 Sieci Kohonena Sieci Kohonena Sieci Kohonena zostały wprowadzone w 1982 przez fińskiego

Bardziej szczegółowo

8. Neuron z ciągłą funkcją aktywacji.

8. Neuron z ciągłą funkcją aktywacji. 8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i

Bardziej szczegółowo

KLUCZ PUNKTOWANIA ODPOWIEDZI

KLUCZ PUNKTOWANIA ODPOWIEDZI Egzamin maturalny maj 009 MATEMATYKA POZIOM ROZSZERZONY KLUCZ PUNKTOWANIA ODPOWIEDZI Zadanie. a) Wiadomoci i rozumienie Matematyka poziom rozszerzony Wykorzystanie pojcia wartoci argumentu i wartoci funkcji.

Bardziej szczegółowo

PROCEDURY REGULACYJNE STEROWNIKÓW PROGRAMOWALNYCH (PLC)

PROCEDURY REGULACYJNE STEROWNIKÓW PROGRAMOWALNYCH (PLC) PROCEDURY REGULACYJNE STEROWNIKÓW PROGRAMOWALNYCH (PLC) W dotychczasowych systemach automatyki przemysłowej algorytm PID był realizowany przez osobny regulator sprztowy - analogowy lub mikroprocesorowy.

Bardziej szczegółowo

Elementy pneumatyczne

Elementy pneumatyczne POLITECHNIKA LSKA W GLIWICACH WYDZIAŁ INYNIERII RODOWISKA i ENERGETYKI INSTYTUT MASZYN i URZDZE ENERGETYCZNYCH Elementy pneumatyczne Laboratorium automatyki (A 3) Opracował: dr in. Jacek Łyczko Sprawdził:

Bardziej szczegółowo

Tworzenie bazy danych Biblioteka tworzenie tabel i powiza, manipulowanie danymi. Zadania do wykonani przed przystpieniem do pracy:

Tworzenie bazy danych Biblioteka tworzenie tabel i powiza, manipulowanie danymi. Zadania do wykonani przed przystpieniem do pracy: wiczenie 2 Tworzenie bazy danych Biblioteka tworzenie tabel i powiza, manipulowanie danymi. Cel wiczenia: Zapoznanie si ze sposobami konstruowania tabel, powiza pomidzy tabelami oraz metodami manipulowania

Bardziej szczegółowo

Instrukcja obsługi programu MechKonstruktor

Instrukcja obsługi programu MechKonstruktor Instrukcja obsługi programu MechKonstruktor Opracował: Sławomir Bednarczyk Wrocław 2002 1 1. Opis programu komputerowego Program MechKonstruktor słuy do komputerowego wspomagania oblicze projektowych typowych

Bardziej szczegółowo

Blok funkcjonalny to specjalizowany układ cyfrowy przystosowany do wykonania jednej lub kilku okrelonych operacji przetwarzania sygnałów binarnych.

Blok funkcjonalny to specjalizowany układ cyfrowy przystosowany do wykonania jednej lub kilku okrelonych operacji przetwarzania sygnałów binarnych. Omawiane do tej pory układy logiczne to inaczej mówic układy cyfrowe konstruowane z bramek i przerzutników. I w zasadzie mona z nich zaprojektowa i zbudowa dowolny układ cyfrowy. Problem jednak ley w tym,

Bardziej szczegółowo

Instrukcja dla pracowników Uniwersytetu Rzeszowskiego.

Instrukcja dla pracowników Uniwersytetu Rzeszowskiego. Dost p!do!infrastruktury!informatycznej. Instrukcja dla pracowników Uniwersytetu Rzeszowskiego. Wersja dokumentu: 1.0.0 Rzeszów: 23.10.2009 OPTeam S.A. 35-032 Rzeszów, ul. Lisa Kuli 3 INFORMACJA O NOWYCH

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane. Wstęp do sieci neuronowych, wykład 7. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 212-11-28 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu

Bardziej szczegółowo

Temat: Technika zachłanna. Przykłady zastosowania. Własno wyboru zachłannego i optymalnej podstruktury.

Temat: Technika zachłanna. Przykłady zastosowania. Własno wyboru zachłannego i optymalnej podstruktury. Temat: Technika zachłanna. Przykłady zastosowania. Własno wyboru zachłannego i optymalnej podstruktury. Algorytm zachłanny ( ang. greedy algorithm) wykonuje zawsze działanie, które wydaje si w danej chwili

Bardziej szczegółowo

Temat: Problem minimalnego drzewa Steinera. Definicja problemu. Zastosowania. Algorytm dokładny Hakimi. Algorytmy aproksymacyjne.

Temat: Problem minimalnego drzewa Steinera. Definicja problemu. Zastosowania. Algorytm dokładny Hakimi. Algorytmy aproksymacyjne. Temat: Problem minimalnego drzewa Steinera. Definicja problemu. Zastosowania. Algorytm dokładny Hakimi. Algorytmy aproksymacyjne. 1. Definicja problemu Wejcie: Graf spójny niezorientowany G =

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 8 Samoorganizacja topologiczna, analiza składowych głównych.

Wstęp do sieci neuronowych, wykład 8 Samoorganizacja topologiczna, analiza składowych głównych. Wstęp do sieci neuronowych, wykład 8 Samoorganizacja topologiczna, analiza składowych głównych. M. Czoków, J. Piersa Faculty of Mathematics and Computer Science, Nicolaus Copernicus University, Toruń,

Bardziej szczegółowo

Program do konwersji obrazu na cig zero-jedynkowy

Program do konwersji obrazu na cig zero-jedynkowy Łukasz Wany Program do konwersji obrazu na cig zero-jedynkowy Wstp Budujc sie neuronow do kompresji znaków, na samym pocztku zmierzylimy si z problemem przygotowywania danych do nauki sieci. Przyjlimy,

Bardziej szczegółowo

6.2. Baza i wymiar. V nazywamy baz-

6.2. Baza i wymiar. V nazywamy baz- 62 Baza i wymiar V nazywamy baz- Definicja 66 Niech V bdzie przestrzeni, liniow, nad cia/em F Podzbiór B przestrzeni V, je2eli: () B jest liniowo niezale2ny, (2) B jest generuj,cy, tzn lin(b) =V Przyk/ady:

Bardziej szczegółowo

Program SMS4 Monitor

Program SMS4 Monitor Program SMS4 Monitor INSTRUKCJA OBSŁUGI Wersja 1.0 Spis treci 1. Opis ogólny... 2 2. Instalacja i wymagania programu... 2 3. Ustawienia programu... 2 4. Opis wskaników w oknie aplikacji... 3 5. Opcje uruchomienia

Bardziej szczegółowo

Bazy danych Podstawy teoretyczne

Bazy danych Podstawy teoretyczne Pojcia podstawowe Baza Danych jest to zbiór danych o okrelonej strukturze zapisany w nieulotnej pamici, mogcy zaspokoi potrzeby wielu u!ytkowników korzystajcych z niego w sposóbs selektywny w dogodnym

Bardziej szczegółowo

KLUCZ PUNKTOWANIA ODPOWIEDZI

KLUCZ PUNKTOWANIA ODPOWIEDZI Egzamin maturalny maj 009 MATEMATYKA POZIOM PODSTAWOWY KLUCZ PUNKTOWANIA ODPOWIEDZI Zadanie. a) Matematyka poziom podstawowy Wyznaczanie wartoci funkcji dla danych argumentów i jej miejsca zerowego. 0

Bardziej szczegółowo

ODPOWIEDZI I SCHEMAT PUNKTOWANIA ZESTAW NR 2 POZIOM PODSTAWOWY. 1. x y x y

ODPOWIEDZI I SCHEMAT PUNKTOWANIA ZESTAW NR 2 POZIOM PODSTAWOWY. 1. x y x y Nr zadania Nr czynnoci Przykadowy zestaw zada nr z matematyki ODPOWIEDZI I SCHEMAT PUNKTOWANIA ZESTAW NR POZIOM PODSTAWOWY Etapy rozwizania zadania. Podanie dziedziny funkcji f: 6, 8.. Podanie wszystkich

Bardziej szczegółowo

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, 2013 Spis treści Przedmowa 7 1. Wstęp 9 1.1. Podstawy biologiczne działania neuronu 9 1.2. Pierwsze modele sieci neuronowej

Bardziej szczegółowo

Planowanie adresacji IP dla przedsibiorstwa.

Planowanie adresacji IP dla przedsibiorstwa. Planowanie adresacji IP dla przedsibiorstwa. Wstp Przy podejciu do planowania adresacji IP moemy spotka si z 2 głównymi przypadkami: planowanie za pomoc adresów sieci prywatnej przypadek, w którym jeeli

Bardziej szczegółowo

Bazy danych. Plan wykładu. Zalenoci funkcyjne. Wykład 4: Relacyjny model danych - zalenoci funkcyjne. SQL - podzapytania A B

Bazy danych. Plan wykładu. Zalenoci funkcyjne. Wykład 4: Relacyjny model danych - zalenoci funkcyjne. SQL - podzapytania A B Plan wykładu Bazy danych Wykład 4: Relacyjny model danych - zalenoci funkcyjne. SQL - podzapytania Definicja zalenoci funkcyjnych Klucze relacji Reguły dotyczce zalenoci funkcyjnych Domknicie zbioru atrybutów

Bardziej szczegółowo

Przyk adowa konfiguracja zwielokrotnianienia po czenia za pomoc Link Aggregation Control Protocol

Przyk adowa konfiguracja zwielokrotnianienia po czenia za pomoc Link Aggregation Control Protocol Przykadowa konfiguracja zwielokrotnianienia poczenia za pomoc Link aggregation - polega na grupowaniu kilku pocze (kabli) sieciowych w jeden port logiczny (port AG), który jest widoczny jak pojedyncze

Bardziej szczegółowo

Metody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF.

Metody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF. Metody sztucznej inteligencji Zadanie 3: ( klasteryzacja samoorganizująca się mapa Kohonena, (2 aproksymacja sieć RBF dr inż Przemysław Klęsk Klasteryzacja za pomocą samoorganizującej się mapy Kohonena

Bardziej szczegółowo

Widzenie komputerowe

Widzenie komputerowe Widzenie komputerowe Uczenie maszynowe na przykładzie sieci neuronowych (3) źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Zdolność uogólniania sieci neuronowej R oznaczenie

Bardziej szczegółowo

Komputerowa Ksiga Podatkowa Wersja 11.4 ZAKOCZENIE ROKU

Komputerowa Ksiga Podatkowa Wersja 11.4 ZAKOCZENIE ROKU Komputerowa Ksiga Podatkowa Wersja 11.4 ZAKOCZENIE ROKU Przed przystpieniem do liczenia deklaracji PIT-36, PIT-37, PIT-O i zestawienia PIT-D naley zapozna si z objanieniami do powyszych deklaracji. Uwaga:

Bardziej szczegółowo

Rys.1 Schemat blokowy uk adu miliwatomierza.

Rys.1 Schemat blokowy uk adu miliwatomierza. Wstp Tematem projektu jest zaproponowanie ukadu do pomiaru mocy czynnej speniajcego nastpujce warunki: - moc znamionowa pomiaru P n = 00mW; - czstotliwo znamionowa pomiaru f n = khz; - znamionowa impedancja

Bardziej szczegółowo

Metody numeryczne. Wst p do metod numerycznych. Dawid Rasaªa. January 9, 2012. Dawid Rasaªa Metody numeryczne 1 / 9

Metody numeryczne. Wst p do metod numerycznych. Dawid Rasaªa. January 9, 2012. Dawid Rasaªa Metody numeryczne 1 / 9 Metody numeryczne Wst p do metod numerycznych Dawid Rasaªa January 9, 2012 Dawid Rasaªa Metody numeryczne 1 / 9 Metody numeryczne Czym s metody numeryczne? Istota metod numerycznych Metody numeryczne s

Bardziej szczegółowo

Systemy uczące się Lab 4

Systemy uczące się Lab 4 Systemy uczące się Lab 4 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 26 X 2018 Projekt zaliczeniowy Podstawą zaliczenia ćwiczeń jest indywidualne wykonanie projektu uwzględniającego

Bardziej szczegółowo

Oscyloskopy, analizatory stanów ScopeDAQ: dane techniczne

Oscyloskopy, analizatory stanów ScopeDAQ: dane techniczne Oscyloskopy, analizatory stanów ScopeDAQ: dane techniczne ScopeDAQ 2.0 jest dwukanaowym oscyloskopem cyfrowym o maksymalnej czstotliwoci próbkowania 200MHz i rozdzielczoci przetwornika 8 bitów. Uytkownik

Bardziej szczegółowo

WYZNACZANIE OPTYMALNEJ KONFIGURACJI ZROBOTYZOWANEGO STANOWISKA MONTA OWEGO

WYZNACZANIE OPTYMALNEJ KONFIGURACJI ZROBOTYZOWANEGO STANOWISKA MONTA OWEGO K O M I S J A B U D O W Y M A S Z Y N P A N O D D Z I A W P O Z N A N I U Vol. 29 nr 2 Archiwum Technologii Maszyn i Automatyzacji 2009 RAFA KLUZ WYZNACZANIE OPTYMALNEJ KONFIGURACJI ZROBOTYZOWANEGO STANOWISKA

Bardziej szczegółowo

Co to jest grupowanie

Co to jest grupowanie Grupowanie danych Co to jest grupowanie 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Szukanie grup, obszarów stanowiących lokalne gromady punktów Co to jest grupowanie

Bardziej szczegółowo

Klonowanie MAC adresu oraz TTL

Klonowanie MAC adresu oraz TTL 1. Co to jest MAC adres? Klonowanie MAC adresu oraz TTL Adres MAC (Media Access Control) to unikalny adres (numer seryjny) kadego urzdzenia sieciowego (jak np. karta sieciowa). Kady MAC adres ma długo

Bardziej szczegółowo

Podstawy sztucznej inteligencji

Podstawy sztucznej inteligencji wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane. Wstęp do sieci neuronowych, wykład 7. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 213-11-19 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu

Bardziej szczegółowo

Kompresja obrazu z wykorzystaniem transformaty Karhunena-Loeve

Kompresja obrazu z wykorzystaniem transformaty Karhunena-Loeve Łukasz Chmiel Rafał Poninkiewicz ompresja obrazu z wykorzystaniem transformaty arhunena-loeve. Wstp Publikacja prezentuje metod kompresji obrazu z wykorzystaniem transformaty LT (arhunena-loeve. Stworzenie

Bardziej szczegółowo

Obliczenia Naturalne - Sztuczne sieci neuronowe

Obliczenia Naturalne - Sztuczne sieci neuronowe Literatura Wprowadzenie Obliczenia Naturalne - Sztuczne sieci neuronowe Paweł Paduch Politechnika Świętokrzyska 13 marca 2014 Paweł Paduch Obliczenia Naturalne - Sztuczne sieci neuronowe 1 z 43 Plan wykładu

Bardziej szczegółowo

Inteligentne systemy przeciw atakom sieciowym

Inteligentne systemy przeciw atakom sieciowym Inteligentne systemy przeciw atakom sieciowym wykład Sztuczne sieci neuronowe (SSN) Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 1 / 36 Biologiczne

Bardziej szczegółowo

Bash i algorytmy. Elwira Wachowicz. 20 lutego

Bash i algorytmy. Elwira Wachowicz. 20 lutego Bash i algorytmy Elwira Wachowicz elwira@ifd.uni.wroc.pl 20 lutego 2012 Elwira Wachowicz (elwira@ifd.uni.wroc.pl) Bash i algorytmy 20 lutego 2012 1 / 16 Inne przydatne polecenia Polecenie Dziaªanie Przykªad

Bardziej szczegółowo

Metody Informatyczne w Budownictwie Metoda Elementów Skoczonych ZADANIE NR 1

Metody Informatyczne w Budownictwie Metoda Elementów Skoczonych ZADANIE NR 1 Metody Informatyczne w Budownictwie Metoda Elementów Skoczonych ZADANIE NR 1 Wyznaczy wektor sił i przemieszcze wzłowych dla układu elementów przedstawionego na rysunku poniej (rysunek nie jest w skali!).

Bardziej szczegółowo

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych. Wstęp do teorii sztucznej inteligencji Wykład III Modele sieci neuronowych. 1 Perceptron model najprostzszy przypomnienie Schemat neuronu opracowany przez McCullocha i Pittsa w 1943 roku. Przykład funkcji

Bardziej szczegółowo

IV Powiatowy Konkurs Matematyka, Fizyka i Informatyka w Technice Etap finałowy 1 kwietnia 2016

IV Powiatowy Konkurs Matematyka, Fizyka i Informatyka w Technice Etap finałowy 1 kwietnia 2016 IV Powiatowy Konkurs Matematyka, Fizyka i Informatyka w Technice Etap finałowy 1 kwietnia 2016 (imi i nazwisko uczestnika) (nazwa szkoły) Arkusz zawiera 8 zada. Zadania 1 i 2 bd oceniane dla kadego uczestnika,

Bardziej szczegółowo

FUNKCJE UYTKOWNIKA. Rozbrajanie systemu pod przymusem [Kod przymusu] Blokowanie linii

FUNKCJE UYTKOWNIKA. Rozbrajanie systemu pod przymusem [Kod przymusu] Blokowanie linii Instrukcja uytkownika centrali Orbit-5;strona 1 FUNKCJE UYTKOWNIKA FUNKCJA PROCEDURA Uzbrajanie systemu [Kod uytkownika] + [ARM] Uzbrajanie w trybie W domu [Kod uytkownika] + [STAY] Rozbrajanie systemu

Bardziej szczegółowo

Amortyzacja rodków trwałych

Amortyzacja rodków trwałych Amortyzacja rodków trwałych Wydawnictwo Podatkowe GOFIN http://www.gofin.pl/podp.php/190/665/ Dodatek do Zeszytów Metodycznych Rachunkowoci z dnia 2003-07-20 Nr 7 Nr kolejny 110 Warto pocztkow rodków trwałych

Bardziej szczegółowo

Wojciech Drzewiecki SYSTEMY INFORMACJI GEOGRAFICZNEJ

Wojciech Drzewiecki SYSTEMY INFORMACJI GEOGRAFICZNEJ Wojciech Drzewiecki SYSTEMY INFORMACJI GEOGRAFICZNEJ Systemem Informacji Geograficznej (Systemem Informacji Przestrzennej, GIS, SIP) nazywamy skomputeryzowany system pozyskiwania, przechowywania, przetwarzania,

Bardziej szczegółowo

Podstawy dzia ania komputera kwantowego wykorzystuj cego

Podstawy dzia ania komputera kwantowego wykorzystuj cego BIULETYN INSTYTUTU SYSTEMÓW INFORMATYCZNYCH 69-74 (8) Podstawy dziaania komputera kwantowego wykorzystujcego zjawisko jdrowego rezonansu magnetycznego J. WINIEWSKA jwisniewska@wat.edu.pl Instytut Systemów

Bardziej szczegółowo

Wektory w przestrzeni

Wektory w przestrzeni Wektory w przestrzeni Informacje pomocnicze Denicja 1. Wektorem nazywamy uporz dkowan par punktów. Pierwszy z tych punktów nazywamy pocz tkiem wektora albo punktem zaczepienia wektora, a drugi - ko«cem

Bardziej szczegółowo

WYKŁAD 9. Wzorce projektowe czynnociowe Observer Visitor

WYKŁAD 9. Wzorce projektowe czynnociowe Observer Visitor WYKŁAD 9 Wzorce projektowe czynnociowe Observer Visitor Behavioral Design Pattern: Observer [obj] Okrela relacj jeden-do-wielu midzy obiektami. Gdy jeden z obiektów zmienia stan, wszystkie obiekty zalene

Bardziej szczegółowo

GAF 860 wzmacniacz kanałowy DVB-T / DVB-H INSTRUKCJA OBSŁUGI

GAF 860 wzmacniacz kanałowy DVB-T / DVB-H INSTRUKCJA OBSŁUGI GAF 860 wzmacniacz kanałowy DVB-T / DVB-H INSTRUKCJA OBSŁUGI GZT TELKOM-TELMOR SP. Z O.O. ul. Mickiewicza 5/7 80-425 Gdask, Polska Info: 0801 011 311 e-mail:export@telmor.pl http://www.telmor.pl IO-7538-300-02;

Bardziej szczegółowo

Wstp. Warto przepływu to

Wstp. Warto przepływu to 177 Maksymalny przepływ Załoenia: sie przepływow (np. przepływ cieczy, prdu, danych w sieci itp.) bdziemy modelowa za pomoc grafów skierowanych łuki grafu odpowiadaj kanałom wierzchołki to miejsca połcze

Bardziej szczegółowo

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe www.math.uni.lodz.pl/ radmat Cel wykładu Celem wykładu jest prezentacja różnych rodzajów sztucznych sieci neuronowych. Biologiczny model neuronu Mózg człowieka składa się z około 10 11 komórek nerwowych,

Bardziej szczegółowo

Rasteryzacja (ang. rasterization or scan-conversion) Grafika rastrowa. Rysowanie linii (1) Rysowanie piksela

Rasteryzacja (ang. rasterization or scan-conversion) Grafika rastrowa. Rysowanie linii (1) Rysowanie piksela Rasteryzacja (ang. rasterization or scan-conversion) Grafika rastrowa Rados!aw Mantiuk Wydzia! Informatyki Zachodniopomorski Uniwersytet Technologiczny Zamiana ci!g"ej funkcji 2D na funkcj# dyskretn! (np.

Bardziej szczegółowo

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu Literatura Wykład : Wprowadzenie do sztucznych sieci neuronowych Małgorzata Krętowska Wydział Informatyki Politechnika Białostocka Tadeusiewicz R: Sieci neuronowe, Akademicka Oficyna Wydawnicza RM, Warszawa

Bardziej szczegółowo

Bazy danych. Plan wykładu. Podzapytania - wskazówki. Podzapytania po FROM. Wykład 5: Zalenoci wielowartociowe. Sprowadzanie do postaci normalnych.

Bazy danych. Plan wykładu. Podzapytania - wskazówki. Podzapytania po FROM. Wykład 5: Zalenoci wielowartociowe. Sprowadzanie do postaci normalnych. Plan wykładu azy danych Wykład 5: Zalenoci wielowartociowe. Sprowadzanie do postaci normalnych. Dokoczenie SQL Zalenoci wielowartociowe zwarta posta normalna Dekompozycja do 4NF Przykład sprowadzanie do

Bardziej szczegółowo

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką

Bardziej szczegółowo