SIECI RBF (RADIAL BASIS FUNCTIONS)



Podobne dokumenty
Sztuczne Sieci Neuronowe

Systemy Inteligentnego Przetwarzania wykład 7: Sieci RBF

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Uczenie sieci radialnych (RBF)

Budowa i własności. sztucznych neuronów i sieci

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW

SZTUCZNA INTELIGENCJA

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Przykładowe funkcje przejścia używane przy budowie sztucznych neuronów

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010

Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę

Sztuczne sieci neuronowe

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Sieci neuronowe w Statistica

Sieć przesyłająca żetony CP (counter propagation)

Zastosowania sieci neuronowych

I EKSPLORACJA DANYCH

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Streszczenie. Słowa kluczowe: modele neuronowe, parametry ciągników rolniczych

Zastosowania sieci neuronowych

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu


Podstawy Sztucznej Inteligencji (PSZT)

Elementy inteligencji obliczeniowej

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Projekt Sieci neuronowe

8. Neuron z ciągłą funkcją aktywacji.

Sztuczne sieci neuronowe (SNN)

wiedzy Sieci neuronowe (c.d.)

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE

wiedzy Sieci neuronowe

Sztuczne sieci neuronowe

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak

Podstawy sztucznej inteligencji

Analiza danych. TEMATYKA PRZEDMIOTU

Widzenie komputerowe

Metody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF.

ALGORYTMY SZTUCZNEJ INTELIGENCJI

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

Uczenie sieci typu MLP

PRÓBA ZASTOSOWANIA SIECI NEURONOWYCH DO PROGNOZOWANIA OSIADAŃ POWIERZCHNI TERENU POWSTAŁYCH NA SKUTEK EKSPLOATACJI GÓRNICZEJ**

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Metody Sztucznej Inteligencji II

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

Sieci Kohonena Grupowanie

Inteligentne systemy przeciw atakom sieciowym

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.

Optymalizacja ciągła

Algorytmy sztucznej inteligencji

Metody klasyfikacji i rozpoznawania wzorców. Najważniejsze rodzaje klasyfikatorów

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe

Seminarium magisterskie. Dyskusja nad tematem pracy magisterskiej pisanej pod kierunkiem pani Dr hab. Małgorzaty Doman

SZTUCZNA INTELIGENCJA

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Sztuczna inteligencja

Wstęp do sztucznych sieci neuronowych

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

Temat: Sieci neuronowe oraz technologia CUDA

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

Co to jest grupowanie

Akwizycja i przetwarzanie sygnałów cyfrowych

Badacze zbudowali wiele systemów technicznych, naśladujących w komputerze ludzki mózg. Najbardziej pożyteczne okazały się sieci neuronowe.

Definicja perceptronu wielowarstwowego

SZTUCZNA INTELIGENCJA

6. Perceptron Rosenblatta

Wstęp do sieci neuronowych, wykład 8 Uczenie nienadzorowane.

SIECI REKURENCYJNE SIECI HOPFIELDA

Nie istnieje ogólna recepta, każdy przypadek musi być rozważany indywidualnie!

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Lekcja 5: Sieć Kohonena i sieć ART

Plan prezentacji W P R O W A D Z E N I E. II FILAR WYTWARZANIA - Generacja Rozproszona (OZE/URE) wybrane kryteria klasyfikacji

METODY INŻYNIERII WIEDZY

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Sieci neuronowe i ich ciekawe zastosowania. Autor: Wojciech Jamrozy III rok SMP / Informatyka

Prof. Stanisław Jankowski

Wykład 1: Wprowadzenie do sieci neuronowych

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

MODELOWANIE RZECZYWISTOŚCI

Transkrypt:

SIECI RBF (RADIAL BASIS FUNCTIONS) Wybrane slajdy z prezentacji prof. Tadeusiewicza Wykład Andrzeja Burdy S. Osowski, Sieci Neuronowe w ujęciu algorytmicznym, Rozdz. 5, PWNT, Warszawa 1996. opr. P.Lula, R.Tadeusiewicz, STATISTICA Neural Networks PL. Przewodnik problemowy, StatSoft, Kraków 2001 http://www.statsoft.pl/textbook/stathome_stat.html?http%3a%2f%2fwww.statsoft.pl%2ftextbook%2fstneunet.html Joanna Grabska-Chrząstowska

Z neuronem liniowym (i z innymi neuronami budowanymi na jego bazie) związana jest jeszcze sprawa wyrazu wolnego w formule agregacji Czysta agregacja liniowa: n s i= 1 = wx i i ma wadę, polegającą na tym, że charakterystyka neuronu musi tu przechodzić przez początek układu x 1 x 2 x n x 0 1 w 1 w 2 = y s gw (, x) i i w i= 1, K, n n... w 0 y = s To nadal jest neuron liniowy! Żeby zachować liniową postać wzoru opisującego neuron dodaje się dodatkowe pseudowejście nazywane BIAS, które zawsze dostarcza sygnał 1 Bogatsze możliwości daje agregacja afiniczna (z wyrazem wolnym w formule): Wtedy agregacja jest nadal liniowa: s = n i= 1 n s = i= 0 w x i i w i x i + w 0

Odmiennie działającym elementem używanym w niektórych typach jest tzw. neuron radialny (wykorzystywany w sieciach RBF) x 1 1 t 1 r 1 f... f y x-t x n t n r n Agregacja sygnałów wejściowych w tym typie neuronu polega na obliczaniu odległości pomiędzy obecnym wektorem wejściowym X a ustalonym podczas uczenia centroidem pewnego podzbioru T Również nieliniowa funkcja przejścia w tych neuronach ma odmienną formę - dzwonu gaussoidy -czyli jest funkcją niemonotoniczną.

Sieć typu RBF w zastosowaniu do klasyfikacji (wykrywa i sygnalizuje skupiska danych wejściowych)

NEURON RADIALNY Neuron radialny jest zdefiniowany przez swoje centrum oraz parametr określany jako "promień". Punkt w przestrzeni N- wymiarowej jest definiowany przy użyciu N liczb, co dokładnie odpowiada liczbie wag w neuronie liniowym, ztego powodu centrum neuronu radialnego jest przechowywane w zestawie parametrów określanych w programie STATISTICA również jako "wagi" (chociaż przy wyznaczaniu łącznego pobudzenia neuronów nie dokonuje się mnożenia składowych sygnałów przez te "wagi" tylko wyznaczana jest odległość wektora wag i wektora sygnałów wejściowych). Promień (lub inaczej odchylenie) jest przechowywany wneuronie jakotak zwana "wartość progowa".

WYBÓR PARAMETRÓW CENTRÓW Powtórne próbkowanie. Metoda ta polega na tym, że wybrane w sposób losowy elementy ze zbioru uczącego kopiowane są do neuronów radialnych (jako występujące w tych neuronach zestawy wag). Ponieważ podlegające kopiowaniu sygnały wejściowe wybrane zostały w sposób losowy, więc "reprezentują" one (w sensie statystycznym) rozkład wszystkich danych uczących. Jednakże, jeśli liczba neuronów radialnych nie jest duża, to neurony te mogą stanowić w rzeczywistości złą reprezentację (Haykin, 1994). Algorytm k-średnich. Algorytm ten (Bishop, 1995) próbuje ustalić optymalny zbiór punktów, które stanowić będą centra skupień występujących w danych uczących. Mając K neuronów radialnych musimy wytworzyć K niezależnych centrów, w taki sposób, by reprezentowały one charakterystyczne skupiska wejściowych danych. Centra te ustala się w procesie iteracyjnym, w którym powtarzane są następujące czynności Każdy element zbioru uczącego przypisywany jest do tego centrum skupienia, które położone jest bliżej danego elementu niż wszystkie pozostałe centra; Każde centrum skupienia wyznaczane jest jako wektor średnich wartości zmiennych wyznaczony dla wszystkich punktów należących do danego skupienia.

Określenie wag neuronów radialnych metodą K-średnich Elementy zbioru uczącego dzielone są na grupy elementów podobnych (metodą k-średnich). W charakterze wag stosowane są środki ciężkości każdej wyróżnionej grupy. Przestrzeń sygnałów wejściowych oraz wag

WYBÓR PROMIENIA (ODCHYLENIA) Definiowanie przez użytkownika. Użytkownik samodzielnie określa wielkość odchylenia. Równomierny przydział odchyleń. Odchylenie (identyczne dla wszystkich neuronów) jest określane za pomocą pewnej reguły heurystycznej, uwzględniającej liczbę centrów oraz wielkość zajmowanej przez nie przestrzeni (Haykin, 1994). Przydział metodą k-najbliższych sąsiadów. Odchylenie dla każdego neuronu jest określane indywidualnie jako średnia odległość do jego k najbliższych sąsiadów (przypadków ze zbioru danych). Stąd odchylenia są mniejsze w mocno zagęszczonym obszarze danych, co umożliwia zachowanie drobnych szczegółów i większe w obszarze, w którym dane występują rzadko (umożliwia to lepszą interpolację).

Zastosowanie RBF (zamiast MLP) spowoduje, że sieć neuronowa znajdzie aproksymację lepiej dopasowaną do lokalnych właściwości zbioru danych, ale gorzej ekstrapolującą. MLP RBF Funkcja bazowe Wynik dopasowania

SNN- Statsoft

Mogą mieć do 128 warstw (w połączonych sieciach) i dowolną liczbę neuronów. Ograniczenia programu są związane wyłącznie z zasobami sprzętowymi komputera. SNN- Statsoft Sieci mogą mieć praktycznie nieograniczone rozmiary (przekraczające potrzeby pojawiające się w realnej praktyce)

Sieci RBF bywają nadmiernie wrażliwe na nawet nieliczne błędy w danych uczących

Sieć RBF Ma ona strukturę dwuwarstwową, warstwa ukryta realizuje odwzorowanie nieliniowe realizowane przez neurony radialnej funkcji bazowej. Neuron wyjściowy jest liniowy, a jego rolą jest sumowanie wagowe sygnałów pochodzących od neuronów warstwy ukrytej. Ogólna postać sieci radialnej RBF

Generalized interpolant to Neumann data R. Schaback. "A Practical Guide to Radial Basis Functions. April 2007.

Sieć radialna a sieć sigmoidalna Sieci neuronowe oradialnych funkcjach bazowych znalazły zastosowanie zarówno w rozwiązywaniu problemów klasyfikacyjnych, zadaniach aproksymacji funkcji wielu zmiennych, jak izagadnieniach predykcji... tych obszarachzastosowań gdzie funkcje sigmoidalne mają ugruntowaną pozycję. Wstosunku do sieci wielowarstwowych osigmoidalnych funkcjach aktywacji wyróżniają się pewnymi właściwościami szczególnymi, umożliwiającymi lepszeodwzorowanie cech charakterystycznych modelowanego procesu.

Bazowe funkcje radialne Sieci typu radialnego stanowią naturalne uzupełnienie sieci sigmoidalnych. Neuron sigmoidalny reprezentował w przestrzeni wielowymiarowej hiperplaszczyznę separującą tą przestrzeń na dwie kategorie (klasy), w których był spełniony odpowiedni warunek, albo ΣW ij x j > 0 albo Σ W ij x j < 0. Neuron radialny z kolei reprezentuje hipersferę, dokonującą podziału kołowego wokół punktu centralnego.

Sieć radialna a sieć sigmoidalna

Sieć radialna a sieć sigmoidalna Sieć sigmoidalna: Działanie funkcji rozciąga się od określonego punktu w przestrzeni aż do nieskończoności, reprezentuje aproksymację globalną funkcji zadanej. Nie ma niemożności fizycznego powiązania obszaru aktywności neuronu z odpowiednim obszarem danych uczących, trudności z określeniem optymalnego punktu startowego z procesie uczenia. Sieć radialna: Bazuje na funkcjach mających wartość niezerową jedynie w określonej przestrzeni tylko wokół centrów, realizuje aproksymację typu lokalnego, której zasięg działania jest bardzo ograniczony. Można się spodziewać że zdolności do uogólniania są gorsze niż dla sieci sigmoidalnych. Łatwość powiązania parametrów funkcji bazowych z fizycznym rozmieszczeniem danych w obszarze parametrów. Łatwość uzyskania dobrych wartości startowych w procesie uczenia pod nadzorem.

Sieć radialna a sieć sigmoidalna Sieć radialna: Przestrzenie decyzyjne tworzone w sieciach radialnych są stosunkowo proste i w sposób naturalny kształtowane. Sieć dostarcza nie tylko informacji do jakiej klasy należy wzorzec testujący, ale wskazuje również na ewentualną możliwość utworzenia oddzielnej klasy. Na ogół uważa się, że sieci radialne lepiej niż sieci sigmoidalne nadają się do takich żądań klasyfikacyjnych jak wykrywanie uszkodzeń w różnego rodzaju systemach, rozpoznawanie wzorców, itp. Znaczną zaletą sieci radialnych jest znacznie uproszczony algorytm uczenia. Przy istnieniu tylko jednej warstwy ukrytej i ścisłym powiązaniu aktywności neuronu z odpowiednim obszarem przestrzeni danych uczących, punkt startowy uczenia jest znacznie bliżej rozwiązania optymalnego, niż jest to możliwe w sieciach wielowarstwowych.

Sieć radialna a sieć sigmoidalna Sieć radialna cont.: Dodatkowo, możliwe jest odseparowanie etapu doboru parametrów funkcji bazowych od doboru wartości wag sieci (algorytm hybrydowy), co może przyśpieszyć i uprościć proces uczenia. Przy zastosowaniu ortogonalizacji proces optymalnego kształtowania struktury sieci jest stałym fragmentem uczenia, nie wymagającym żadnego dodatkowego wysiłku. Liczba neuronów ukrytych decyduje w dużym stopniu o dokładności odwzorowania i zdolnościach uogólniania sieci. W przypadku sieci radialnej problem doboru liczby neuronów ukrytych jest o wiele prostszy niż w sieciach sigmoidalnych, ze względu na lokalny charakter aproksymacji reprezentowany przez poszczególne funkcje bazowe.

Sieć RBF może być na różne sposoby hybrydyzowana - może być na przykład uczona algorytmem Kohonena i LVQ, co jest alternatywą do przypisywania centrów odzwierciedlającego rozkład danych. Warstwa wyjściowa (liniowa lub nie) może być uczona którymkolwiek z iteracyjnych algorytmów dla warstw z iloczynem skalarnym.

Dobór parametrów funkcji radialnych Znacznie lepsze rezultaty można uzyskać przez zastosowanie samoorganizujacegosię się procesu podziału danych uczących na klastry w jednej z jego licznych odmian. Centrum klastra jest utożsamiane z centrum odpowiedniej funkcji radialnej. Liczba tych funkcji jest równa liczbie klastrów i może być korygowana przez algorytm samoorganizacji. Proces podziału danych na klastry może być przeprowadzany metodą K-uśrednień. Aparat matematyczny zaangażowany w tą procedurę jest dość skomplikowany...

A tak wygląda struktura innej praktycznie użytecznej sieci klasy GRNN warstwa wejściowa służy do wprowadzania danych do sieci warstwa radialna każdy z neuronów reprezentuje skupienie występujące w danych warstwa regresyjna wyznacza elementy niezbędne do obliczenia wartości wyjściowej warstwa wyjściowa wyznacza odpowiedź sieci

Idea działania sieci realizujących regresję uogólnioną (GRNN -Generalized Regression Neural Network) Wejściowe wektory uczące dzielone są na skupienia -w szczególnym przypadku każdy wektor tworzy oddzielne skupienie, Dla każdego skupienia znana jest wartość zmiennej objaśnianej (wyjście sieci), wartość zmiennej objaśnianej dla dowolnego wektora wejściowego szacowana jest jako średnia ważona liczona z wartości tej zmiennej dla skupień - wagi uzależnione są od odległości wejścia od centrów skupień.