Wyk lad 9: Sztuczne sieci neuronowe
|
|
- Dorota Jarosz
- 7 lat temu
- Przeglądów:
Transkrypt
1 Wyk lad 9: Sztuczne sieci neuronowe Nguyen Hung Son Streszczenie Page 1 of 38
2 Page 2 of Wprowadzenie I cannot articulate enough to express my dislike to people who think that understanding spoils your experience... How would they know? Marvin Minsky
3 1.1. Historia sztucznych sieci neuronowych : Dawno, dawno temu: powsta ly neurony... Wprowadzenie Page 3 of J. C. Maxwell: zbada l mechanizm sprz eżenia zwrotnego; 1942 Weiner et al.: stworzy l cybernetyk e ; 1943 McCulloch-Pitts: Neurony 1949 Hebb: wskaza l mechanizm biologiczny; : Perceptron Rosenblatta: Perceptron Separated Input from Output at Computer Level Widrow and Hoff: Sieci ADALINE / MADALINE 1969 Minsky and Papert: Krytyczna frustracja do sieci neuronowych: Limited Advancement 1972 Amari, Anderson, Grossberg: Badanie nad Self Organizing Network, Symulacja modelu pami eci asocjacyjnej u cz lowieka Werbos: Propagacja wsteczna; 1982 John Hopfield: sieć rekurencyjna; 1986 McLelland and Rumelhart: ksiażce; Popularyzowali metod e propagacji wstecznej w swojej 1990 Mead: integracja sprz etowa i zastosowanie sieci w obronie i przemyśle.
4 Page 4 of Inspiracje neurofizjologiczne Mózg ludzki: objetość 1400 cm 3 i powierzchnie 2000 cm 2 (kula o tej samej objetości ma zaledwie 600 cm2). Masa mózgu wynosi 1,5 kg. Sa to wartości średnie, ponieważ sa w tym zakresie różnice pomiedzy różnymi ludźmi. Dla przyk ladu mózgi kobiet sa z regu ly mniejsze niż meżczyzn. Nie udowodniono do tej pory zwiazku miedzy wielkościa mózgu a jego intelektualna sprawnościa. Duże znaczenie dla intelektualnych zdolności ma natomiast kora mózgowa o grubości średnio 3 mm, zawierajaca: komórek nerwowych i komórek glejowych. Liczba po l aczeń miedzy komórkami to oko lo
5 Komórki nerwowe wysy laja i przyjmuja impulsy o czestotliwości Hz, czas trwania 1-2 ms, napieciu 100 ms i szybkości propagacji m/s. Szybkość pracy mózgu szacuje si e na operacji/s. Dla wykonania typowej reakcji mózg wykonuje nie wi ecej niż 100 elementarnych kroków, ponieważ czas reakcji jest mniejszy niż 300 ms. Pojemności kana lów zmys lów można szacować jako: wzrok 100 Mb/s, dotyk 1 Mb/s, s luch 15 Kb/s, w ech 1 Kb/s, smak 100 b/s. Page 5 of 38
6 1.3. Sztuczna sieć neuronowa Sieć neuronowa jest uproszczonym modelem mózgu. Sk lada sie ona z pewnej liczby elementów (neuronów) przetwarzajacych informacje. Neurony sa ze soba powiazane za pomoca po l aczeń o parametrach (wagach) modyfikowanych w trakcie procesu uczenia. Page 6 of 38 Wiekszość budowanych sieci ma budowe warstwowa.
7 1.4. Zastosowania sieci Wprowadzenie Page 7 of 38 Predykacja: Sieci neuronowe sa czesto wykorzystywane, aby na podstawie pewnych danych wejściowych przewidywa la dane wyjściowe. Ważna zaleta jest to, że sieć może nauczyć sie przewidywania sygna lów wyjściowych bez jawnego definiowania zwiazku miedzy danymi wejściowymi a wyjściowymi. Klasyfikacja i rozpoznawanie: Zadanie polega na przewidywaniu identyfikatora klasy, do której dany obiekt należy. Kojarzenie danych: Klasyczne systemy komputerowe moga gromadzić duże zbiory danych bez możliwości ich kojarzenia. Sieci neuronowe, dzieki zdolności uczenia sie i uogólniania doświadczeń, pozwalaja zautomatyzować procesy wnioskowania i pomagaja wykrywać istotne powiazania pomiedzy danymi. Analiza danych: Zadanie polega na znalezieniu zwiazków pomiedzy danymi. Realizacja tego zadania przez sieci neuronowe daje nowe możliwości w zakresie prowadzenia analiz ekonomicznych. Filtracja sygna lów Dane gospodarcze pochodzace z różnych 1róde l sa zak lócone. Klasyczne metody eliminacji śzumów pozwalaja usunać zak lócenia o charakterze losowym, lecz nie daja podstaw do eliminacji przek lamań systematycznych. Optymalizacja Sieci neuronowe - zw laszcza sieci Hopfielda - dobrze nadaja sie do optymalizacji decyzji gospodarczych. Doświadczalnie potwierdzono możliwości sieci do rozwiazywania zadań optymalizacji statycznej i dynamicznej. Szczególnie ciekawe jest zastosowanie sieci do optymalizacji kombinatorycznej i zagadnień bardzo trudnych obliczeniowo (również npzupe lnych), które moga być rozwiazane w krótkim czasie dzieki wspó lbieżnym wyliczaniu przez wiele elementów sieci. Dobrym przyk ladem jest sieć rozwiazuj aca klasyczny problem komiwojażera.
8 Page 8 of w laściwości sieci Adaptowalność i samo-organizacja: oparte o zasady uczenia adaptacyjnego (podstawa filozoficzna) Nieliniowość : oferuje możliwości uczenia si e aproksymacji funkcji i klasyfikacji. Przetwarzanie równoleg le: sprzetowa realizacja sieci pozwala przetwarzać duża ilość obliczeń dzieki równoleg lych po l aczeń.
9 2. Matematyczny model neuronu Wprowadzenie Page 9 of 38 o(x 1,..., x n ) = { 1 jeśli w0 + w 1 x w n x n > 0 1 w p.p. Czasem stosujemy prostsze obliczenia: { 1 if w x > 0 o( x) = 1 otherwise. Ogólnie, perceptron realizuje pewna funkcje!
10 Perceptron ma dość ograniczone możliwości. Z powodzeniem może reprezentować funkcje OR, AND, ale już nie poradzi sobie z funkcja XOR. Ogólnie funkcje reprezentowane przez perceptron to takie, które rozdzielaja liniowo obszar danych: Page 10 of 38
11 2.1. funkcja aktywacji: Wprowadzenie Page 11 of 38 Funkcja progowa (threshold function) sgn(x) = Funkcja sigmoidalna: σ(x) = W lasności: dσ(x) = σ(x)(1 σ(x)) dx Funkcja tangensu hiperbolicznego: e x th(x) = 1 [1 + tanh(x)] 2 { 1 if x > 0 0 otherwise.
12 3. Uczenie perceptronu Wprowadzenie Page 12 of Problem klasyfikacji Przyk lady: Klasyfikacja obrazów Predykcja finansowa Sterowanie funkcje boolowskie: x 1 x 2 AND Problem uczenia sie perceptronu: Znaleźć wartości wag dla perceptronu, które definiuja funkcje podobna do wzorców.
13 Przyk lad funkcja AND: Wprowadzenie Page 13 of 38
14 3.2. Regu ly uczenia si e: Wprowadzenie Page 14 of 38 gdzie Oznaczenia: w i w i + w i w i = η(t o)x i t = c( x) wartość funkcji celu (wzorca) o jest wartościa wyjściowa neuronu η jest ma l a sta l a, np. = 0.1, zwana sta l a uczenia sie Można wykazać teoretyczna zbieżność algorytmu uczenia sie w sytuacji: Dane treningowe sa liniowo separowalne η jest dostatecznie ma la.
15 Page 15 of 38 Wyjaśnienia regu l uczenia perceptronu: rozważmy najprotszy przypadek o = w 0 + w 1 x w n x n Szukajmy w i, które minimalizuja funkcje b l edu: E[ w] 1 (t d o d ) 2 2 d D gdzie D jest zbiorem przyk ladów treningowych. Metoda gradientu: [ E E[ w], E, E ] w 0 w 1 w n
16 Regu ly gradientu: i.e., w = η E[ w] w i = η E w i Page 16 of 38 E = 1 w i w i 2 E w i = 1 2 d = 1 2 = d = d d (t d o d ) 2 d w i (t d o d ) 2 2(t d o d ) w i (t d o d ) (t d o d ) w i (t d w x d ) (t d o d )( x i,d )
17 Page 17 of Gradient Descent Gradient-Descent(training examples, η) Each training example is a pair of the form x, t, where x is the vector of input values, and t is the target output value. η is the learning rate (e.g.,.05). Initialize each w i to some small random value Until the termination condition is met, Do Initialize each w i to zero. For each x, t in training examples, Do Input the instance x to the unit and compute the output o For each linear unit weight w i, Do w i w i + η(t o)x i For each linear unit weight w i, Do w i w i + w i
18 3.4. Incremental (Stochastic) Gradient Descent Wprowadzenie Batch mode Gradient Descent: Do until satisfied 1. Compute the gradient E D [ w] 2. w w η E D [ w] Page 18 of 38 Incremental mode Gradient Descent: Do until satisfied For each training example d in D 1. Compute the gradient E d [ w] 2. w w η E d [ w] E D [ w] 1 (t d o d ) 2 2 d D E d [ w] 1 2 (t d o d ) 2 Incremental Gradient Descent can approximate Batch Gradient Descent arbitrarily closely if η made small enough
19 3.5. Podsumowania Regu ly uczenia perceptronu gwarantuje sukces wtedy, gdy: Przyk lady treningowe sa liniowo separowane Dostatecznie ma ly jest wsp. uczenia sie η Page 19 of 38 Regu ly uczenia si e perceptronu stosuje zasad e maksymalnego spadku gradientu: Gwarantuje zbieżność do rozwiazań o (lokalnym) minimalnym b l edzie Przy dostatecznie ma lym wsp. uczenia si e η Dzia la nawet na danych szumiacych. Dzia la nawet wtedy, gdy dane nie sa liniowo separowane.
20 4. Sieci wielowarstwowe Page 20 of 38
21 4.1. perceptronu z sigmoidalna funkcja aktywacji Wprowadzenie E = 1 (t d o d ) 2 = 1 w i w i 2 2 d D = 1 2(t d o d ) 2 d = d (t d o d ) (t d o d ) = w i d o d net d w i net d d w i (t d o d ) 2 (t d o d ) ( o ) d w i Wiemy, że o d = σ(net d) = o d (1 o d ) net d net d Page 21 of 38 net d w i = ( w x d) w i = x i,d Wi ec E w i = d D (t d o d )o d (1 o d )x i,d
22 4.2. Backpropagation Algorithm Initialize all weights to small random numbers. Until satisfied, Do For each training example, Do 1. Input the training example to the network and compute the network outputs 2. For each output unit k Page 22 of 38 δ k o k (1 o k )(t k o k ) 3. For each hidden unit h δ h o h (1 o h ) w h,k δ k k outputs 4. Update each network weight w i,j where w i,j w i,j + w i,j w i,j = ηδ j x i,j
23 Gradient descent over entire network weight vector Easily generalized to arbitrary directed graphs Will find a local, not necessarily global error minimum In practice, often works well (can run multiple times) Often include weight momentum α w i,j (n) = ηδ j x i,j + α w i,j (n 1) Page 23 of 38 Minimizes error over training examples Will it generalize well to subsequent examples? Training can take thousands of iterations slow! Using network after training is very fast
24 5. Idea: Page 24 of 38
25 5.1. Sieci Hopfielda Wprowadzenie Page 25 of 38 Zbadane przez Hopfielda; Zwane również sieciami auto-asocjacyjnymi; Sa to jedno-warstwowe sieci z pe lnym po l aczeniem typu każdy z każdym ; Każdy neuron ma bipolarne wartość wejść i wyjść;
26 5.2. Operacje w sieciach Hopfielda: Zainicjuj wartości poczatkowe do sieci; Czekaj aż sieć sie ustabilizuje; To dzia la w czasie dyskretnym: t 1, t 2,..., t N ; wartości neuronów w chwili t n zależy od wartości neuronów w chwili t n 1 : u i (t n ) = j w ij y j (t n 1 ) + x i Page 26 of 38 y i (t n ) = 1 jeśli u i (t n ) > T i y i (t n 1 ) gdy u i (t n ) = T i 1 jeśli u i (t n ) < T i Istnieja modele synchroniczne i asynchroniczne; Odczytaj wartości neuronów jako wynik obliczeń;
27 Page 27 of Ustalenie wartości wag: UWAGA: wagi sie nie zmieniaja w procesie uczenia sie; Maciecz wag musi spe lniać warunki: symetryczność: zerowa przekatna: Zwykle chcemy, v 1,..., v P, gdzie w ij = w ji w ii = 0 aby sieć ustabilizowa la w jednym z wektorów: v p = (x p 1,...x p n) Aby to zapewnić możemy stosować regu ly Hebba: w ij = P x p i x p j p=1
28 Page 28 of Dlaczego to dzia la? Charakterystyczna w lasnościa dla bieżacego stanu sieci Hopfielda jest funkcja energii: E = 1 2 n i=1 n w ij x i x j j=1 n x i y i + Hopfield pokaza l, że funkcja energii jest nierosnaca; i=1 n T i y i i=1
29 Page 29 of SOM (Self-Organized Maps) - samorganizujaca sie mapa. Mapy topograficzne powstaje przez po l aczenia lokalne: neuron silnie pobudzany przez pobliskie po l aczenie, s labo przez odleg le, hamowany przez neurony pośrednie. Historia: von der Malsburg i Willshaw (1976), uczenie konkurencyjne, mechanizm Hebbowski, wzbudzenie typu Meksykańskiego kapelusza, model uk ladu wzrokowego. Amari (1980) - model ciag lej tkanki neuronowej. Kohonen (1981) - uproszczenie, bez hamowania; dwie fazy - konkurencja i kooperacja.
30 6.1. Algorytm SOM Struktura: Neurony sa umieszczone (ale nie po l aczone ze soba) na siatce 1,2 lub 3-wymiarowa. Każdy neuron ma N wag. Neuron i-ty ma wagi Wi (t) = (w i1,..., w in ), a wektor wejściowy ma wspó lrzedne: (x 1,..., x N ) (t - czas dyskretny) Page 30 of 38
31 Algorytm : 1. Inicjalizacja: przypadkowe W i (0) dla wszystkich i = 1..K. Definiuj wokó l neuronu po lożonego w miejscu r c siatki obszar sasiedztwa Os(r c, σ(t)) o promieniu σ(t). 2. Oblicz odleg lości d(x, W i ) = X W i = (x j w ij ) 2 j Page 31 of znajdź neuron c = argmin i X W i z wagami W c najbardziej podobnymi do X (neuron-zwyciezc e). 4. Zmień wagi wszystkich neuronów r i w sasiedztwie Os(r c, σ(t)) where W i (t + 1) = W i (t) + h(r i, r c )(X W i (t)) h(r i, r c ) = h 0 (t) e r r c 2 /σ 2 c (t) 5. Powoli zmniejszaj si l e h 0 (t) i promień σ(t). 6. Iteruj aż ustan a zmiany. Efekt: podzia l (tesselacja) na wieloboki Voronoia.
32 Page 32 of W lasności SOM Brak dowodu o zbieżności lub punktach stacjonarnych dla SOM: Wyniki analityczne tylko w 1D dla ciag lego czasu, proces Markova: wartości wag wzd luż prostej porzadkuj a sie. Powolna zbieżność: iteracji. Sasiednie neurony koduja sasiednie obszary, ale niekoniecznie odwrotnie Skrecone konfiguracje przy zbyt szybkiej redukcji sasiedztwa. Z lożoność O(KNn) dla K neuronów i n danych N- wymiarowych: konieczne porównanie wszystkich odleg lości; niezbyt duże mapy. Na komputerach wieloprocesorowych szukanie min z K b edzie powolne. SOM dzia la jak metoda klasteryzacji k-średnich jeśli σ = 0.
33 6.3. Modyfikacje SOM Próba wprowadzenia funkcji b l edu (Luttrell; Heskes i Kappen). B l ad lokalny neuronu i jest suma po wszystkich neuronach: E i (X; t) = 1 h( r i r j, t) X W i (t) 2 2 j Page 33 of 38 gdzie h( r i r j, t) = exp r i r j 2 2σ 2 (t) ; σ(t) = σ 0e 2σ 0t/t max Neuron-zwyciezca ma najmniejszy b l ad lokalny: c = argmin i E i (X; t)
34 6.4. Uczenie sieci 2D Wprowadzenie Page 34 of 38
35 6.5. Uczenie kwadratu w sieci 2D Wprowadzenie Page 35 of 38
36 6.6. Uczenie trojkata w sieci 1D Wprowadzenie Page 36 of 38 Tworzy si e fraktalne krzywe Peano.
37 6.7. Zniekszta lcenie Wprowadzenie Page 37 of 38 Poczatkowe zniekszta lcenia moga zniknać lub pozostać.
38 6.8. WEBSOM websom.hut.fi/websom/ Wprowadzenie Page 38 of 38
Sieci Rekurencyjne 1 / 33. Sieci Rekurencyjne. Nguyen Hung Son
Sieci Rekurencyjne 1 / 33 Sieci Rekurencyjne Nguyen Hung Son Outline Sieci Rekurencyjne 2 / 33 1 Sztuczne sieci neuronowe 2 Inne modele i zastosowania 3 Sieci rekurencyjne 4 Modele samoorganizacji Na poprzednim
Inteligentne systemy informacyjne
Inteligentne systemy informacyjne Moduł 10 Mieczysław Muraszkiewicz www.icie.com.pl/lect_pw.htm M. Muraszkiewicz strona 1 Sieci neuronowe szkic Moduł 10 M. Muraszkiewicz strona 2 Dwa nurty M. Muraszkiewicz
Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu
Literatura Wykład : Wprowadzenie do sztucznych sieci neuronowych Małgorzata Krętowska Wydział Informatyki Politechnika Białostocka Tadeusiewicz R: Sieci neuronowe, Akademicka Oficyna Wydawnicza RM, Warszawa
Sztuczna Inteligencja Tematy projektów Sieci Neuronowe
PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia
Elementy inteligencji obliczeniowej
Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego
synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.
Sieci neuronowe model konekcjonistyczny Plan wykładu Mózg ludzki a komputer Modele konekcjonistycze Perceptron Sieć neuronowa Uczenie sieci Sieci Hopfielda Mózg ludzki a komputer Twój mózg to 00 000 000
SID Wykład 8 Sieci neuronowe
SID Wykład 8 Sieci neuronowe Wydział Matematyki, Informatyki i Mechaniki UW slezak@mimuw.edu.pl Sztuczna inteligencja - uczenie Uczenie się jest procesem nastawionym na osiaganie rezultatów opartych o
Podstawy Sztucznej Inteligencji (PSZT)
Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12
MODELOWANIE RZECZYWISTOŚCI
MODELOWANIE RZECZYWISTOŚCI Daniel Wójcik Instytut Biologii Doświadczalnej PAN Szkoła Wyższa Psychologii Społecznej d.wojcik@nencki.gov.pl dwojcik@swps.edu.pl tel. 022 5892 424 http://www.neuroinf.pl/members/danek/swps/
Sztuczne sieci neuronowe
Wydział Zarządzania AGH Katedra Informatyki Stosowanej Sztuczne sieci neuronowe Sztuczne sieci neuronowe Wprowadzenie Trochę historii Podstawy działania Funkcja aktywacji Typy sieci 2 Wprowadzenie Zainteresowanie
Sieci Neuronowe Wprowadzenie do teorii i praktyki
Sieci neuronowe 14/04/2011 1 / 65 Sieci Neuronowe Wprowadzenie do teorii i praktyki Nguyen Hung Son, Uniwersytet Warszawski Część I Podstawy modelu sieci neuronowych Część II Uczenie sieci neuronych Część
Wykład 1: Wprowadzenie do sieci neuronowych
Wykład 1: Wprowadzenie do sieci neuronowych Historia badań nad sieciami neuronowymi. - początki: badanie komórek ośrodkowego układu nerwowego zwierząt i człowieka, czyli neuronów; próby wyjaśnienia i matematycznego
Uczenie sieci neuronowych i bayesowskich
Wstęp do metod sztucznej inteligencji www.mat.uni.torun.pl/~piersaj 2009-01-22 Co to jest neuron? Komputer, a mózg komputer mózg Jednostki obliczeniowe 1-4 CPU 10 11 neuronów Pojemność 10 9 b RAM, 10 10
wiedzy Sieci neuronowe
Metody detekcji uszkodzeń oparte na wiedzy Sieci neuronowe Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 7 Wprowadzenie Okres kształtowania się teorii sztucznych sieci
Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.
Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. zajecia.jakubw.pl/nai Literatura: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym. WNT, Warszawa 997. PODSTAWOWE ZAGADNIENIA TECHNICZNE AI
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe wykład 1. Właściwości sieci neuronowych Model matematyczny sztucznego neuronu Rodzaje sieci neuronowych Przegląd d głównych g
OCENA DZIAŁANIA AE. METODY HEURYSTYCZNE wykład 4 LOSOWOŚĆ W AE KRZYWE ZBIEŻNOŚCI ANALIZA STATYSTYCZNA:
METODY HEURYSTYCZNE wykład 4 OCENA DZIAŁANIA AE 1 2 LOSOWOŚĆ W AE Różne zachowanie algorytmuw poszczególnych uruchomieniach przy jednakowych ustawieniach parametrów i identycznych populacjach początkowych.
Sztuczne sieci neuronowe
www.math.uni.lodz.pl/ radmat Cel wykładu Celem wykładu jest prezentacja różnych rodzajów sztucznych sieci neuronowych. Biologiczny model neuronu Mózg człowieka składa się z około 10 11 komórek nerwowych,
Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.
Wstęp do teorii sztucznej inteligencji Wykład III Modele sieci neuronowych. 1 Perceptron model najprostzszy przypomnienie Schemat neuronu opracowany przez McCullocha i Pittsa w 1943 roku. Przykład funkcji
Systemy agentowe. Sieci neuronowe. Jędrzej Potoniec
Systemy agentowe Sieci neuronowe Jędrzej Potoniec Perceptron (Rossenblat, 1957) A. Géron, Hands-On Machine Learning with Scikit-Learn and TensorFlow 2017 Perceptron { 1 z 0 step(z) = 0 w przeciwnym przypadku
Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.
Wstęp do teorii sztucznej inteligencji Wykład II Uczenie sztucznych neuronów. 1 - powtórzyć o klasyfikacji: Sieci liniowe I nieliniowe Sieci rekurencyjne Uczenie z nauczycielem lub bez Jednowarstwowe I
1. Logika, funkcje logiczne, preceptron.
Sieci neuronowe 1. Logika, funkcje logiczne, preceptron. 1. (Logika) Udowodnij prawa de Morgana, prawo pochłaniania p (p q), prawo wyłączonego środka p p oraz prawo sprzeczności (p p). 2. Wyraź funkcję
SZTUCZNE SIECI NEURONOWE
INTELIGENTNE TECHNIKI KOMPUTEROWE wykład SZTUCZNE SIECI NEURONOWE HISTORIA SSN Walter Pitts, Warren McCulloch (94) opracowanie matematyczne pojęcia sztucznego neuronu.. Udowodnili też, iż ich wynalazek
Uczenie Wielowarstwowych Sieci Neuronów o
Plan uczenie neuronu o ci gªej funkcji aktywacji uczenie jednowarstwowej sieci neuronów o ci gªej funkcji aktywacji uczenie sieci wielowarstwowej - metoda propagacji wstecznej neuronu o ci gªej funkcji
Monitorowanie i Diagnostyka w Systemach Sterowania
Monitorowanie i Diagnostyka w Systemach Sterowania Katedra Inżynierii Systemów Sterowania Dr inż. Michał Grochowski Monitorowanie i Diagnostyka w Systemach Sterowania na studiach II stopnia specjalności:
Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści
Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, 2013 Spis treści Przedmowa 7 1. Wstęp 9 1.1. Podstawy biologiczne działania neuronu 9 1.2. Pierwsze modele sieci neuronowej
Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I.
Sieci M. I. Jordana Sieci rekurencyjne z parametrycznym biasem Leszek Rybicki 30 listopada 2007 Leszek Rybicki Sieci M. I. Jordana 1/21 Plan O czym będzie 1 Wstęp do sieci neuronowych Neurony i perceptrony
Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2013/2014
Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner rok akademicki 2013/2014 Sieci neuronowe Sieci neuronowe W XIX wieku sformułowano teorię opisującą podstawowe
Optymalizacja optymalizacji
7 maja 2008 Wstęp Optymalizacja lokalna Optymalizacja globalna Algorytmy genetyczne Badane czasteczki Wykorzystane oprogramowanie (Algorytm genetyczny) 2 Sieć neuronowa Pochodne met-enkefaliny Optymalizacja
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych
MATLAB Neural Network Toolbox przegląd
MATLAB Neural Network Toolbox przegląd WYKŁAD Piotr Ciskowski Neural Network Toolbox: Neural Network Toolbox - zastosowania: przykłady zastosowań sieci neuronowych: The 1988 DARPA Neural Network Study
Sieci neuronowe i ich ciekawe zastosowania. Autor: Wojciech Jamrozy III rok SMP / Informatyka
Sieci neuronowe i ich ciekawe zastosowania Autor: Wojciech Jamrozy III rok SMP / Informatyka Klasyczna algorytmika Sortowanie ciągu liczb Czy i ile razy dane słowo wystąpiło w tekście Najkrótsza droga
METODY INTELIGENCJI OBLICZENIOWEJ wykład 4
METODY INTELIGENCJI OBLICZENIOWEJ wykład 4 1 2 SZTUCZNE SIECI NEURONOWE HISTORIA SSN 3 Walter Pitts, Warren McCulloch (1943) opracowanie matematyczne pojęcia sztucznego neuronu.. Udowodnili też, iż ich
SZTUCZNE SIECI NEURONOWE
METODY INTELIGENCJI OBLICZENIOWEJ wykład 4 SZTUCZNE SIECI NEURONOWE HISTORIA SSN Walter Pitts, Warren McCulloch (94) opracowanie matematyczne pojęcia sztucznego neuronu.. Udowodnili też, iż ich wynalazek
Systemy agentowe. Sieci neuronowe. Jędrzej Potoniec
Systemy agentowe Sieci neuronowe Jędrzej Potoniec Złe wieści o teście To jest slajd, przy którym wygłaszam złe wieści. Perceptron (Rossenblat, 1957) A. Géron, Hands-On Machine Learning with Scikit-Learn
BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.
Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej BIOCYBERNETYKA Adrian Horzyk SIECI NEURONOWE www.agh.edu.pl Mózg inspiruje nas od wieków Co takiego
Sztuczne sieci neuronowe (SNN)
Sztuczne sieci neuronowe (SNN) Pozyskanie informacji (danych) Wstępne przetwarzanie danych przygotowanie ich do dalszej analizy Selekcja informacji Ostateczny model decyzyjny SSN - podstawy Sieci neuronowe
S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor
S O M SELF-ORGANIZING MAPS Przemysław Szczepańczyk Łukasz Myszor Podstawy teoretyczne Map Samoorganizujących się stworzył prof. Teuvo Kohonen (1982 r.). SOM wywodzi się ze sztucznych sieci neuronowych.
METODY INŻYNIERII WIEDZY
METODY INŻYNIERII WIEDZY SZTUCZNE SIECI NEURONOWE MLP Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i Inżynierii
Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.
Sieci rekurencyjne Ewa Adamus ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych 7 maja 2012 Jednowarstwowa sieć Hopfielda, z n neuronami Bipolarna funkcja przejścia W wariancie
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa
1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda
Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy
wiedzy Sieci neuronowe (c.d.)
Metody detekci uszkodzeń oparte na wiedzy Sieci neuronowe (c.d.) Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 8 Metody detekci uszkodzeń oparte na wiedzy Wprowadzenie
Metody Sztucznej Inteligencji II
17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału
Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;
Sieci Hopfielda Najprostsze modele sieci z rekurencją sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Modele bardziej złoŝone: RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie
8. Neuron z ciągłą funkcją aktywacji.
8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i
Wstęp do sieci neuronowych, wykład 01 Neuron biologiczny. Model perceptronu prostego.
Wstęp do sieci neuronowych, wykład 01. Model perceptronu prostego. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-04 In memoriam prof. dr hab. Tomasz Schreiber
Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści
Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, 2012 Spis treści Przedmowa do wydania drugiego Przedmowa IX X 1. Wstęp 1 2. Wybrane zagadnienia sztucznej inteligencji
Zastosowania sieci neuronowych
Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING NEURONOWE MAPY SAMOORGANIZUJĄCE SIĘ Self-Organizing Maps SOM Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki,
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-10 Projekt pn. Wzmocnienie
Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym
Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW 17 XII 2013 Jan Karwowski
Optymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
Wstęp do sztucznych sieci neuronowych
Wstęp do sztucznych sieci neuronowych Michał Garbowski Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Wydział Informatyki 15 grudnia 2011 Plan wykładu I 1 Wprowadzenie Inspiracja biologiczna
Wprowadzenie do Sieci Neuronowych Laboratorium 05 Algorytm wstecznej propagacji błędu
Wprowadzenie do Sieci Neuronowych Laboratorium Algorytm wstecznej propagacji błędu Maja Czoków, Jarosław Piersa --7. Powtórzenie Perceptron sigmoidalny Funkcja sigmoidalna: σ(x) = + exp( c (x p)) () Parametr
Seminarium magisterskie. Dyskusja nad tematem pracy magisterskiej pisanej pod kierunkiem pani Dr hab. Małgorzaty Doman
Seminarium magisterskie Dyskusja nad tematem pracy magisterskiej pisanej pod kierunkiem pani Dr hab. Małgorzaty Doman Plan wystąpienia Ogólnie o sztucznych sieciach neuronowych Temat pracy magisterskiej
Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE
Temat: Sztuczne Sieci Neuronowe Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sztuczne sieci neuronowe
Deep Learning na przykładzie Deep Belief Networks
Deep Learning na przykładzie Deep Belief Networks Jan Karwowski Zakład Sztucznej Inteligencji i Metod Obliczeniowych Wydział Matematyki i Nauk Informacyjnych PW 20 V 2014 Jan Karwowski (MiNI) Deep Learning
METODY INTELIGENCJI OBLICZENIOWEJ wykład 5
METODY INTELIGENCJI OBLICZENIOWEJ wykład 5 1 2 SZTUCZNE SIECI NEURONOWE cd 3 UCZENIE PERCEPTRONU: Pojedynczy neuron (lub 1 warstwa neuronów) typu percep- tronowego jest w stanie rozdzielić przestrzeń obsza-
Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3
Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt
Sieci neuronowe w Statistica
http://usnet.us.edu.pl/uslugi-sieciowe/oprogramowanie-w-usk-usnet/oprogramowaniestatystyczne/ Sieci neuronowe w Statistica Agnieszka Nowak - Brzezińska Podstawowym elementem składowym sztucznej sieci neuronowej
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt
SIECI NEURONOWE Wprowadzenie
SIECI NEURONOWE Wprowadzenie JOANNA GRABSKA-CHRZĄSTOWSKA Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA WYKŁADOWCA JOANNA GRABSKA CHRZĄSTOWSKA KATEDRA
Co to jest grupowanie
Grupowanie danych Co to jest grupowanie 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Szukanie grup, obszarów stanowiących lokalne gromady punktów Co to jest grupowanie
Temat: Sieci neuronowe oraz technologia CUDA
Elbląg, 27.03.2010 Temat: Sieci neuronowe oraz technologia CUDA Przygotował: Mateusz Górny VIII semestr ASiSK Wstęp Sieci neuronowe są to specyficzne struktury danych odzwierciedlające sieć neuronów w
METODY HEURYSTYCZNE 4
METODY HEURYSTYCZNE wykład 4 1 OCENA DZIAŁANIA ANIA AE 2 LOSOWOŚĆ W AE Różne zachowanie algorytmu w niezależnych nych uruchomieniach przy jednakowych ustawieniach parametrów w i identycznych populacjach
Widzenie komputerowe
Widzenie komputerowe Uczenie maszynowe na przykładzie sieci neuronowych (3) źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Zdolność uogólniania sieci neuronowej R oznaczenie
Sztuczne sieci neuronowe
Wydział Zarządzania AGH Katedra Informatyki Stosowanej Systemy wspomagania decyzji Wprowadzenie Trochę historii Podstawy działania Funkcja aktywacji Uczenie sieci Typy sieci Zastosowania 2 Wprowadzenie
Obliczenia Naturalne - Sztuczne sieci neuronowe
Literatura Wprowadzenie Obliczenia Naturalne - Sztuczne sieci neuronowe Paweł Paduch Politechnika Świętokrzyska 13 marca 2014 Paweł Paduch Obliczenia Naturalne - Sztuczne sieci neuronowe 1 z 43 Plan wykładu
I EKSPLORACJA DANYCH
I EKSPLORACJA DANYCH Zadania eksploracji danych: przewidywanie Przewidywanie jest podobne do klasyfikacji i szacowania, z wyjątkiem faktu, że w przewidywaniu wynik dotyczy przyszłości. Typowe zadania przewidywania
6. Perceptron Rosenblatta
6. Perceptron Rosenblatta 6-1 Krótka historia perceptronu Rosenblatta 6-2 Binarne klasyfikatory liniowe 6-3 Struktura perceptronu Rosenblatta 6-4 Perceptron Rosenblatta a klasyfikacja 6-5 Perceptron jednowarstwowy:
ELEMENTY SZTUCZNEJ INTELIGENCJI. Sztuczne sieci neuronowe
ELEMENTY SZTUCZNEJ INTELIGENCJI Sztuczne sieci neuronowe Plan 2 Wzorce biologiczne. Idea SSN - model sztucznego neuronu. Perceptron prosty i jego uczenie regułą delta Perceptron wielowarstwowy i jego uczenie
Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I
Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:
Inteligencja. Władysław Kopaliśki, Słownik wyrazów obcych i zwrotów obcojęzycznych
Wstęp Inteligencja Władysław Kopaliśki, Słownik wyrazów obcych i zwrotów obcojęzycznych inteligencja psych. zdolność rozumienia, kojarzenia; pojętność, bystrość; zdolność znajdowania właściwych, celowych
Statystyka w analizie i planowaniu eksperymentu
23 kwietnia 2014 Korelacja - wspó lczynnik korelacji 1 Gdy badamy różnego rodzaju rodzaju zjawiska (np. przyrodnicze) możemy stwierdzić, że na każde z nich ma wp lyw dzia lanie innych czynników; Korelacja
Wstęp do teorii sztucznej inteligencji
Wstęp do teorii sztucznej inteligencji Wykład IV SSN = Architektura + Algorytm Uczenie sztucznych neuronów. Przypomnienie. Uczenie z nauczycielem. Wagi i wejścia dla sieci neuronuowej: reprezentacja macierzowa
Uczenie sieci typu MLP
Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik
Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska
Sieci neuronowe w Statistica Agnieszka Nowak - Brzezioska Podstawowym elementem składowym sztucznej sieci neuronowej jest element przetwarzający neuron. Schemat działania neuronu: x1 x2 w1 w2 Dendrites
Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010
Materiały/konsultacje Automatyczna predykcja http://www.ibp.pwr.wroc.pl/kotulskalab Konsultacje wtorek, piątek 9-11 (uprzedzić) D1-115 malgorzata.kotulska@pwr.wroc.pl Co to jest uczenie maszynowe? Uczenie
Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.
Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2
Statystyka w analizie i planowaniu eksperymentu
31 marca 2014 Przestrzeń statystyczna - podstawowe zadania statystyki Zdarzeniom losowym określonym na pewnej przestrzeni zdarzeń elementarnych Ω można zazwyczaj na wiele różnych sposobów przypisać jakieś
Sztuczne sieci neuronowe. Uczenie, zastosowania
Wydział Zarządzania AGH Katedra Informatyki Stosowanej Sztuczne sieci neuronowe. Uczenie, zastosowania Inteligencja Sztuczne sieci neuronowe Metody uczenia Budowa modelu Algorytm wstecznej propagacji błędu
Lekcja 5: Sieć Kohonena i sieć ART
Lekcja 5: Sieć Kohonena i sieć ART S. Hoa Nguyen 1 Materiał Sieci Kohonena (Sieć samo-organizująca) Rysunek 1: Sieć Kohonena Charakterystyka sieci: Jednowarstwowa jednokierunkowa sieć. Na ogół neurony
Sztuczne sieci neuronowe
Sztuczne sieci neuronowe Bartłomiej Goral ETI 9.1 INTELIGENCJA Inteligencja naturalna i sztuczna. Czy istnieje potrzeba poznania inteligencji naturalnej przed przystąpieniem do projektowania układów sztucznej
Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2014/2015
Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner rok akademicki 2014/2015 Sieci Kohonena Sieci Kohonena Sieci Kohonena zostały wprowadzone w 1982 przez fińskiego
HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM
ZASTOSOWANIE SIECI NEURONOWYCH W SYSTEMACH AKTYWNEJ REDUKCJI HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM WPROWADZENIE Zwalczanie hałasu przy pomocy metod aktywnych redukcji hałasu polega
Statystyka w analizie i planowaniu eksperymentu
29 marca 2011 Przestrzeń statystyczna - podstawowe zadania statystyki Zdarzeniom losowym określonym na pewnej przestrzeni zdarzeń elementarnych Ω można zazwyczaj na wiele różnych sposobów przypisać jakieś
Przetwarzanie danych i rozwiązywanie problemów
Przetwarzanie danych i rozwiązywanie problemów Jak to robi komputer? 1. pobierz instrukcję z pamięci 2. pobierz z pamięci konieczne dane 3. wykonaj instrukcję 4. zapamiętaj wynik 5. Przejdź do 1. Instrukcje
Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie
Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie LABORKA Piotr Ciskowski ZASTOSOWANIA SIECI NEURONOWYCH IDENTYFIKACJA zastosowania przegląd zastosowania sieci neuronowych: o identyfikacja
Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2
Elementy Sztucznej Inteligencji Sztuczne sieci neuronowe cz. 2 1 Plan wykładu Uczenie bez nauczyciela (nienadzorowane). Sieci Kohonena (konkurencyjna) Sieć ze sprzężeniem zwrotnym Hopfielda. 2 Cechy uczenia
Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0
Uczenie się pojedynczego neuronu W0 X0=1 W1 x1 W2 s f y x2 Wp xp p x i w i=x w+wo i=0 Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z=0 Wówczas: W 1 x 1 + w 2 x 2 + = 0 Algorytm
Wprowadzenie do Sieci Neuronowych Laboratorium 06 Algorytm wstecznej propagacji błędu
Wprowadzenie do Sieci Neuronowych Laboratorium 6 Algorytm wstecznej propagacji błędu Maja Czoków, Jarosław Piersa 3--6 Powtórzenie. Perceptron sigmoidalny Funkcja sigmoidalna: σ(x) = + exp( c (x p)) ()
Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.
Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka ADALINE. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 218-1-15/22 Projekt pn.
ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ
ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ Maciej Patan Uniwersytet Zielonogórski WSTEP Zadanie minimalizacji bez ograniczeń f(ˆx) = min x R nf(x) f : R n R funkcja ograniczona z dołu Algorytm rozwiazywania Rekurencyjny
Podstawy Sztucznej Inteligencji
Politechnika Łódzka Katedra Informatyki Stosowanej Podstawy Sztucznej Inteligencji Laboratorium Ćwiczenie 2 Wykorzystanie środowiska Matlab do modelowania sztucznych sieci neuronowych Opracowali: Dr hab
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska
Sieć przesyłająca żetony CP (counter propagation)
Sieci neuropodobne IX, specyficzne architektury 1 Sieć przesyłająca żetony CP (counter propagation) warstwa Kohonena: wektory wejściowe są unormowane jednostki mają unormowane wektory wag jednostki są
Sztuczne Systemy Skojarzeniowe. Adrian Horzyk
Sztuczne Systemy Skojarzeniowe Inspiracje biologiczne Adrian Horzyk horzyk@agh.edu.pl AGH Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki
Neural Networks (The Machine-Learning Kind) BCS 247 March 2019
Neural Networks (The Machine-Learning Kind) BCS 247 March 2019 Neurons http://biomedicalengineering.yolasite.com/neurons.php Networks https://en.wikipedia.org/wiki/network_theory#/media/file:social_network_analysis_visualization.png
WYK LAD 5: GEOMETRIA ANALITYCZNA W R 3, PROSTA I P LASZCZYZNA W PRZESTRZENI R 3
WYK LAD 5: GEOMETRIA ANALITYCZNA W R 3, PROSTA I P LASZCZYZNA W PRZESTRZENI R 3 Definicja 1 Przestrzenia R 3 nazywamy zbiór uporzadkowanych trójek (x, y, z), czyli R 3 = {(x, y, z) : x, y, z R} Przestrzeń