Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Podobne dokumenty
Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba

Wykład 2: Uczenie nadzorowane sieci neuronowych - I


Sieci Neuronowe 1 Michał Bereta

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB

Funkcje i charakterystyki zmiennych losowych

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych

Zaawansowane metody numeryczne

SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW

Pokazać, że wyżej zdefiniowana struktura algebraiczna jest przestrzenią wektorową nad ciałem

5. Pochodna funkcji. lim. x c x c. (x c) = lim. g(c + h) g(c) = lim

Sieci Neuronowe 2 Michał Bereta

Metody gradientowe poszukiwania ekstremum. , U Ŝądana wartość napięcia,

p Z(G). (G : Z({x i })),

Zestaw zadań 4: Przestrzenie wektorowe i podprzestrzenie. Liniowa niezależność. Sumy i sumy proste podprzestrzeni.

Analiza danych. Analiza danych wielowymiarowych. Regresja liniowa. Dyskryminacja liniowa. PARA ZMIENNYCH LOSOWYCH

KURS STATYSTYKA. Lekcja 6 Regresja i linie regresji ZADANIE DOMOWE. Strona 1

Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych

Wykład IX Optymalizacja i minimalizacja funkcji

Uczenie sieci radialnych (RBF)

Stanisław Cichocki. Natalia Nehrebecka. Wykład 7

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Nieeuklidesowe sieci neuronowe

Neural networks. Krótka historia rozpoznawanie znaków alfanumerycznych.

Sztuczne Sieci Neuronowe

Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE

liniowym w przeciwnym przypadku mówimy o programowaniu nieliniowym.

MATEMATYKA POZIOM ROZSZERZONY Kryteria oceniania odpowiedzi. Arkusz A II. Strona 1 z 5

Nie istnieje ogólna recepta, każdy przypadek musi być rozważany indywidualnie!

ALGEBRY HALLA DLA POSETÓW SKOŃCZONEGO TYPU PRINJEKTYWNEGO

V. WPROWADZENIE DO PRZESTRZENI FUNKCYJNYCH

Analiza danych OGÓLNY SCHEMAT. Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja)

Modelowanie i obliczenia techniczne. Metody numeryczne w modelowaniu: Optymalizacja

Diagnostyka układów kombinacyjnych

Diagonalizacja macierzy kwadratowej

SYSTEMY UCZĄCE SIĘ WYKŁAD 15. ANALIZA DANYCH WYKRYWANIE OBSERWACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

Weryfikacja hipotez dla wielu populacji

Natalia Nehrebecka. Wykład 2

V. TERMODYNAMIKA KLASYCZNA

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Pattern Classification

) będą niezależnymi zmiennymi losowymi o tym samym rozkładzie normalnym z następującymi parametrami: nieznaną wartością 1 4

CAŁKOWANIE NUMERYCZNE całki pojedyncze

Stanisław Cichocki Natalia Nehrebecka. Zajęcia 4

METODA ELEMENTU SKOŃCZONEGO. Termokinetyka

SYSTEMY UCZĄCE SIĘ WYKŁAD 7. KLASYFIKATORY BAYESA. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

SYSTEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE METODY KLASYFIKACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych

Programowanie Równoległe i Rozproszone

Portfele zawierające walor pozbawiony ryzyka. Elementy teorii rynku kapitałowego

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH

Podstawy teorii falek (Wavelets)

Twierdzenie Bezouta i liczby zespolone Javier de Lucas. Rozwi azanie 2. Z twierdzenia dzielenia wielomianów, mamy, że

Natalia Nehrebecka. Zajęcia 4

Laboratorium ochrony danych

ZAJĘCIA X. Zasada największej wiarygodności

Wstęp do metod numerycznych Faktoryzacja SVD Metody iteracyjne. P. F. Góra

Systemy Inteligentnego Przetwarzania wykład 7: Sieci RBF

5. CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWE

Wprowadzenie do Sieci Neuronowych Sieci rekurencyjne

Natalia Nehrebecka. Zajęcia 3

Plan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty)

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Wprowadzenie. Support vector machines (maszyny wektorów wspierających, maszyny wektorów nośnych) SVM służy do: Zalety metody SVM

( ) ( ) 2. Zadanie 1. są niezależnymi zmiennymi losowymi o. oraz. rozkładach normalnych, przy czym EX. i σ są nieznane. 1 Niech X

Komputer kwantowy Zasady funkcjonowania. Dr hab. inż. Krzysztof Giaro Politechnika Gdańska Wydział ETI

Zastosowania sieci neuronowych

SZTUCZNA INTELIGENCJA

Stanisław Cichocki. Natalia Nehrebecka Katarzyna Rosiak-Lada. Zajęcia 3

Regresja liniowa i nieliniowa

Zadanie na wykonanie Projektu Zespołowego

Plan wykładu. Sztuczne sieci neuronowe. Problem dwuklasowy (N=1) Problem klasyfikacji. Wykład 6: Ocena jakoci sieci neuronowej Sieci RBF KLASYFIKATOR

Natalia Nehrebecka. Dariusz Szymański

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

W praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np.

WYBRANE ZASTOSOWANIA OPTYMALIZACJI ROZMYTEJ W STEROWANIU PROCESAMI ODLEWNICZYMI

Kier. MTR Programowanie w MATLABie Laboratorium Ćw. 12

Optymalizacja belki wspornikowej

Odtworzenie wywodu metodą wstępującą (bottom up)

1 Metody optymalizacji wielokryterialnej Ogólna charakterystyka problemu Tradycyjne metody optymalizacji wielokryterialnej...

SIECI RBF (RADIAL BASIS FUNCTIONS)

Model IS-LM-BP. Model IS-LM-BP jest wersją modelu ISLM w gospodarce otwartej. Pokazuje on zatem jak

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Warszawa, 28 stycznia 2017 r., Blok tematyczny II Sztuczne sieci neuronowe (środowisko MATLAB i Simulink z wykorzystaniem Neural Network Toolbox),

7.8. RUCH ZMIENNY USTALONY W KORYTACH PRYZMATYCZNYCH

Statystyka Inżynierska

(M2) Dynamika 1. ŚRODEK MASY. T. Środek ciężkości i środek masy

STATECZNOŚĆ SKARP. α - kąt nachylenia skarpy [ o ], φ - kąt tarcia wewnętrznego gruntu [ o ],

Szymon Chojnacki MODELOWANIE KONIUNKTURY GOSPODARCZEJ Z WYKORZYSTANIEM DANYCH TEKSTOWYCH

Zapis informacji, systemy pozycyjne 1. Literatura Jerzy Grębosz, Symfonia C++ standard. Harvey M. Deitl, Paul J. Deitl, Arkana C++. Programowanie.

KONSPEKT WYKŁADU. nt. METODA ELEMENTÓW SKOŃCZONYCH TEORIA I ZASTOSOWANIA. Piotr Konderla

WikiWS For Business Sharks

Minimalizacja globalna, algorytmy genetyczne i zastosowanie w geotechnice

Sztuczne sieci neuronowe

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Transkrypt:

Sztuczne sec neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyk, p. 311

Wykład 6 PLAN: - Repetto (brevs) - Sec neuronowe z radalnym funkcjam bazowym

Repetto W aspekce archtektury: zajmowalśmy sę tylko secam typu feed-forward W aspekce dzałana pojedynczego neuronu: rozważalśmy tylko neurony oblczające sumy ważone wejść (ze względu na najczęścej stosowaną funkcję aktywacj neurony te są zwane neuronam sgmodalnym)

Repetto (cd.) W aspekce uczena: szczegółowo przedstawono tylko gradentowe algorytmy uczena nadzorowanego: backpropagaton (wraz z modyfkacjam nercyjnym) (algorytm I rzędu) metodę zmennej metryk (algorytm II rzędu) metodę gradentów sprzężonych (algorytm I rzędu)

Repetto (cd.) Ponadto: Podano typowe reguły uczena (nenadzorowanego nadzorowanego) jako przypadk szczególne uogólnonej reguły uczena Przedstawono metody: - doboru współczynnków uczena - ncjalzacj wag - doboru archtektury sec - zwększana zdolnośc generalzujących

Sec neuronowe z radalnym funkcjam bazowym Sec o radalnych funkcjach bazowych (RBF) składają sę z jednej warstwy ukrytej oraz jednej warstwy wyjścowej. Neurony warstwy wyjścowej są lnowe Neurony ukryte realzują funkcję ϕ zmenającą sę radalne (stąd nazwa sec) wokół wybranego centrum c

Sec RBF (cd.) Formalne: Wyjśca neuronów ukrytych (radalnych) sec RBF generują wektor sygnałów y dany równanem: y = ϕ ( ) x c

Porównane dzałana neuronów sgmodalnych radalnych Neuron sgmodalny występujący w MLP reprezentuje w przestrzen wejścowej hperpłaszczyznę dzelącą tę przestrzeń na dwe otwarte klasy Neuron radalny reprezentuje hpersferę dokonującą podzału kołowego wokół punktu centralnego

Grafczne porównane dzałana neuronu sgmodalengo radalnego x _ + _ x x 1 + x 1 y = f = w j x j y ϕ j j ( ) x t j j

Sec RBF (cd.) W zadanach zawerających symetre kołowe zastosowane neuronów radalnych pozwala znaczne zmnejszyć lczbę neuronów ukrytych (a zatem zwększyć generalzację) Ponadto wystarczy zawsze jedna warstwa ukryta

Nelnowa ϕ-separowalność Nech ϕ (x) = [ϕ 1 (x), ϕ (x),..., ϕ k (x)] T będze wektorem funkcj radalnych w N wymarowej przestrzen wejścowej. Podzał tej przestrzen na klasy X + oraz X - jest nelnowo ϕ - separowalny jeśl stneje tak wektor w, że: w w T T ϕ ϕ ( x) > 0 dla x X ( ) x < 0 dla x X +

Nelnowa ϕ-separowalność (cd.) Zatem: Problem jest nelnowo ϕ-separowalny w przestrzen wejścowej x wymaru N jeśl jest lnowo separowalny w przestrzen rzutowana ϕ (x) wymaru k. Granca mędzy obu klasam w przestrzen ϕ (x) jest zdefnowana za pomocą hperpłaszczyzny o równanu: w T ϕ( x) = 0

Twerdzene o nelnowej ϕ-separowalnośc Dowolny zbór wzorców jest nelnowo ϕ-separowalny pod warunkem przyjęca odpowedno dużego wymaru k przestrzen rzutowana

Wnosek z twerdzena o nelnowej ϕ-separowalnośc Przyjęce dostateczne dużej lczby neuronów radalnych realzujących funkcje ϕ (x) zapewna rozwązane dowolnego problemu klasyfkacyjnego przy użycu dwu warstw: Warstwy ukrytej realzującej wektor ϕ (x) oraz Warstwy wyjścowej realzowanej przez neuron lnowy z wektorem wagowym w.

Interpolacja welowymarowa w secach RBF Poszukujemy nterpolacj welowymarowej odwzorowującej p różnych wektorów wejścowych x ( = 1,,..., p) z przestrzen wejścowej N wymarowej w zbór p lczb rzeczywstych d ( = 1,,..., p) za pomocą sec RBF

Interpolacja welowymarowa w secach RBF (cd.) Przedstawona nterpolacja jest równoważna poszukwanu takej funkcj radalnej F (x), dla której spełnone są warunk nterpolacj: gdze : F F ( x ) ( x) = w ( ) ϕ x x = 1 Wybór normy jest w zasadze dowolny, choć w praktyce najczęścej stosuje sę normę eukldesową. Wartośc wektorów x stanową centra funkcj radalnej. = d p

Interpolacja welowymarowa w secach RBF funkcje Greena Jako funkcje ϕ przyjmuje sę zazwyczaj funkcje radalne Greena G(x; x ) z których najpopularnejszą jest (neznormalzowana) funkcja Gaussa: N xx 1 G = e σ = e σ k= 1 [ x; x ] w której x oznaczają wektory wartośc średnch (centrów) a σ warancje ( x ) k x, k

Interpolacja jako superpozycja welowymarowych funkcj Gaussa Po podstawenu w mejsce funkcj radalnej welowymarowej neznormalzowanej funkcj Gaussa otrzymuje sę następujące równane nterpolujące: xx F p ( x) = = 1 w e Powyższe równane przedstawa superpozycję welowymarowych funkcj Gaussa z centram (wartoścam oczekwanym) ulokowanym w x szerokoścam (odchylenam standardowym) σ σ

Ogranczena Choć przedstawene poprzedne jest zawsze możlwe, jest ono nepraktyczne ze względu na lość neuronów ukrytych równą lośc próbek uczących p. Dlatego w praktyce stosuje sę przyblżene z ogranczenem do K neuronów

Przyblżene funkcj nterpolującej Funkcję F przyblża sę funkcją F* daną: F * ( x) w G( x; t ) gdze : G K = = 1 ( x; t ) = G( x t ), K < p Wektory t ( = 1,..., K) są centram które należy wyznaczyć (w przypadku szczególnym, gdy K = p otrzymuje sę rozwązane dokładne dla którego oczywśce: t = x,

Schemat sec RBF x 1 x ϕ 1 W 1 1 W 0... x N ϕ... ϕ K W W K y ( x; ) ϕ = G t

Uczene sec RBF Uczene sec RBF polega na takm doborze wag w funkcj Greena G(x; t ) gdze ( = 1,..., K) aby funkcja F* realzowana przez seć RBF możlwe najlepej przyblżała teoretyczną funkcję dokładną F.

Sec z hper-radalnym funkcjam bazowym (HRBF) W secach RBF funkcje bazowe Greena zależne są od normy eukldesowej W secach HRBF korzysta sę z uogólnonej normy eukldesowej, dla której każdy wymar ma swój odrębny współczynnk wag, a nawet wektor wag

Sec HRBF - uogólnona norma eukldesowa Uogólnona norma eukldesowa: x ( ) T Qx ( Qx) x T Q T Qx = = Q Przyjmując: Q T Q = C = [c kl ] dostajemy: x Q = N N k = 1 l= 1 c kl x k x l

Norma eukldesowa jako przypadek szczególny normy uogólnonej W szczególnośc jeśl Q jest macerzą dagonalną, wówczas: x Q = N k = c x Przy dodatkowym załażenu, że Q = 1 norma wagowa sprowadza sę do normy klasycznej: x Q = x

Dzałane sec HRBF Zastosowane uogólnonej normy wagowej daje uogólnone wyrażene rozwnęca funkcj radalnych: K ( ) ( ) = w G F = 1 * x x t Q Jednocześne powyższe równane opsuje dzałane sec HRBF

Uogólnona (neznormalzowana) funkcja Gaussa Neznormalzowana uogólnona funkcja Gaussa otrzymuje sę poprzez przyjęce dla -tej funkcj bazowej: gaussowskej funkcj radalnej Greena o centrum t oraz Macerzy wagowej Q Dana jest ona wzorem: ( ) [ ] [ ] ( ) [ ] [ ] = = e e G t x S t x t x Q Q t x Q T T T t x 1 1

Uogólnona (neznormalzowana) funkcja Gaussa (cd.) Neznormalzowana uogólnona funkcja Gaussa dana jest zatem wzorem: Wdać, że wyrażene ½ S -1 =Q T Q pełn funkcję czynnka 1/(σ ) standardowej welowymarowej funkcj Gaussa ( ) [ ] [ ] ( ) [ ] [ ] = = = e e G t x S t x t x Q Q t x Q T T T t x 1 1

Porównane sec RBF z secam sgmodalnym W secach RBF parametr funkcj aktywacj σ jest zależny od neuronu podlega uczenu, natomast w secach sgmodalnych analogczny parametr β jest stały jednakowy dla wszystkch neuronów. Argumentem funkcj radalnej jest odległość danej próbk x od centrum t, a w sec sgmodalnej jest to loczyn skalarny wektorów w T x. Neurony radalne dzelą przestrzeń na obszary lokalne poprzez hpersfery, natomast neurony sgmodalne dzelą przestrzeń na obszary globalne poprzez hperpłaszczyzny.

Uczene sec (H)RBF Uczene sec (hper)radalnych składa sę z dwóch etapów: 1. dobór centrów parametrów kształtu funkcj bazowych. dobór wag lnowych neuronów wyjścowych

Uczene sec (H)RBF (cd.) Poneważ zadane druge (doboru wag wyjścowych neuronów lnowych) może zostać rozwązane algebraczne, o le znane jest rozwązane zadana perwszego, zatem to zadane perwsze jest podstawowym zadanem w uczenu sec (H)RBF

Metody wyznaczana centrów parametrów kształtu funkcj bazowych Losowy wybór centrów funkcj bazowych Samoorganzujący sę proces podzału na klastery Uczene pod nadzorem (oparte o algorytmy propagacj wstecznej)

Losowy wybór centrów funkcj bazowych Rozwązane najprostsze, lecz dopuszczalne dla sec radalnych przy założenu, że rozkład danych uczących dobrze odzwercedla specyfkę problemu (a tak zawsze pownno być) Wówczas dobór stałych parametrów funkcj bazowych jest dokonywany losowo przy rozkładze równomernym

Dobór losowy centrów (cd.) Po dokonanu losowego wyboru centrów t oblcza sę wartość parametru zwązanego z odchylenem standardowym: 1 σ d K = σ = K W powyższym wzorze d oznacza maksymalną odległość mędzy centram t Funkcje bazowe są zatem postac: ( ) G x t = e d xt d K

Samoorganzujący sę proces podzału na klastery Dane wejścowe dzel sę na klastery (np. za pomocą algorytmu K-uśredneń) Lczba funkcj bazowych równa jest lośc klasterów Do centrum każdego klastera przyporządkowuje sę centrum funkcj bazowej

Gradentowe uczene pod nadzorem sec HRBF W metodze tej modyfkuje sę równocześne: centra funkcj bazowych, ch parametry oraz wartośc wektora wag neuronów lnowych warstwy wyjścowej

Gradentowe uczene pod nadzorem sec HRBF (cd.) Zdefnujmy błąd E jako: K 1 E = [ wϕ ( )] x d = 0 Przy czym wyjśce sec y jest określone jako: y ϕ K = 0 = 0 wϕ ( x), 1 T [ Q ( xt )] Q ( xt ) [ ] ( ) ( ) x = 1, ϕ x = e

Składowe gradentu względem parametrów podlegających uczenu j =1..N, =1..K, k =1..N ( ) ( ) ( )( ) ) ( ) ( 1 ) ( 1 ) ( ) ( 1 ) ( 1 0, j k k u jk N k k kj u j u z t x d y w e Q E z Q d y w e t E d y e w E d y w E = = = = =

Zmenne wykorzystywane do określana składowych gradentu j =1..N, =1..K, k =1..N z u ( ) j = = N N k = 1 ( () ) zk k = 1 Q ( ) x t () () jk k k

Gradentowe uczene pod nadzorem sec HRBF (cd.) Znając składowe gradentu funkcj błedu względem wszystkch parametrów podlegających uczenu można stosować dowolną metodę optymalzacj gradentowej, np. najwększego spadku, w której kerunek poszukwań p = -η E