Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Podobne dokumenty
Obliczenia inteligentne Zadanie 4

Lekcja 5: Sieć Kohonena i sieć ART

Co to jest grupowanie

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

Sieci neuronowe - projekt

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010

Wprowadzenie. SOM jest skrótem od Self Organizing Maps, czyli Samoorganizujące się mapy.

Uczenie sieci radialnych (RBF)

Metody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF.

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Sztuczna inteligencja

8. Neuron z ciągłą funkcją aktywacji.

Monitorowanie i Diagnostyka w Systemach Sterowania

Wstęp do sieci neuronowych, wykład 8 Samoorganizacja topologiczna, analiza składowych głównych.

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2014/2015

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Uczenie sieci typu MLP

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

SIECI KOHONENA UCZENIE BEZ NAUCZYCIELA JOANNA GRABSKA-CHRZĄSTOWSKA

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Sieć przesyłająca żetony CP (counter propagation)

Wykład 5: Uczenie przez współzawodnictwo

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

Optymalizacja ciągła

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11,

SZTUCZNA INTELIGENCJA

Kwantowanie sygnałów analogowych na przykładzie sygnału mowy

Kompresja danych DKDA (7)

Algorytm grupowania danych typu kwantyzacji wektorów

wiedzy Sieci neuronowe

Kompresja danych Streszczenie Studia Dzienne Wykład 10,

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.

SIECI RBF (RADIAL BASIS FUNCTIONS)

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Sieci Kohonena Grupowanie

Zastosowania sieci neuronowych

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Zastosowania sieci neuronowych

Wydział Elektryczny. Katedra Telekomunikacji i Aparatury Elektronicznej. Instrukcja do pracowni specjalistycznej

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5

Wstęp do sieci neuronowych, wykład 8 Uczenie nienadzorowane.

Metody Sztucznej Inteligencji II

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Sztuczne sieci neuronowe (SNN)

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Instrukcja realizacji ćwiczenia

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

SIECI REKURENCYJNE SIECI HOPFIELDA

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Grupowanie VQ. Kwantyzacja wektorowa (VQ Vector Quantization) SOM Self-Organizing Maps. Wstępny podział na grupy. Walidacja grupowania

Wykład 10 Skalowanie wielowymiarowe

Kwantyzacja wektorowa. Plan 1. Zasada działania 2. Projektowanie. Algorytm LBG 3. Kwantyzatory strukturalne 4. Modyfikacje

Systemy uczące się Lab 4

dr inż. Piotr Odya dr inż. Piotr Suchomski

Sztuczne sieci neuronowe

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Kwantyzacja wektorowa. Kodowanie różnicowe.

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Transformata Fouriera

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 12,

Systemy Inteligentnego Przetwarzania wykład 7: Sieci RBF

Parametryzacja obrazu na potrzeby algorytmów decyzyjnych

1. W jaki sposób radzimy sobie z problemem zatrzymywania się w lokalnym minimum błędu podczas procesu uczenia?

Rozpoznawanie pisma ręcznego przy pomocy sieci neuronowej Kohonena

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Wstęp do teorii sztucznej inteligencji

Sygnał a informacja. Nośnikiem informacji mogą być: liczby, słowa, dźwięki, obrazy, zapachy, prąd itp. czyli różnorakie sygnały.

Według raportu ISO z 1988 roku algorytm JPEG składa się z następujących kroków: 0.5, = V i, j. /Q i, j

Zapis liczb binarnych ze znakiem

BIBLIOTEKA PROGRAMU R - BIOPS. Narzędzia Informatyczne w Badaniach Naukowych Katarzyna Bernat

Elementy inteligencji obliczeniowej

6. Perceptron Rosenblatta

Agnieszka Nowak Brzezińska Wykład III

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

Temat: ANFIS + TS w zadaniach. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

Kodowanie transformacyjne. Plan 1. Zasada 2. Rodzaje transformacji 3. Standard JPEG

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Podstawy Sztucznej Inteligencji (PSZT)

Algorytm grupowania danych typu kwantyzacji wektorów

Grafika Komputerowa Wykład 2. Przetwarzanie obrazów. mgr inż. Michał Chwesiuk 1/38

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.

Adrian Horzyk

Transkrypt:

Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Wykład 10 Mapa cech Kohonena i jej modyfikacje - uczenie sieci samoorganizujących się - kwantowanie wektorowe - algorytm WTA - uczenie mapy cech Kohonena algorytmem WTM - typy sąsiedztwa - algorytm stochastycznej relaksacji - algorytm SCS - algorytm gazu neuronowego Zastosowania mapy cech Kohonena

Mapa cech Kohonena Sieć konkurencyjna uczona bez nadzoru Uczeniu podlega zwycięski neuron oraz jego otoczenie Mapa wykorzystuje sąsiedztwo neuronów 1, 2 lub rzadziej więcej wymiarowe Zastosowanie: Do znajdowania regionów aktywizowanych podobnymi wartościami cech w kompresji stratnej obrazów

Uczenie sieci samoorganizujących się Celem uczenia samoorganizującego jest taki dobór wag neuronów, który zminimalizuje wartość oczekiwaną zniekształcenia, mierzonego jako błąd aproksymacji wektora wejściowego x wartościami wag neuronu zwycięskiego: E 1 p p i 1 x gdzie w(i) to numer zwycięskiego neuronu przy prezentacji wektora x i,a w w(i) to wektor wag tego neuronu i w w () i

Kwantowanie wektorowe Sieć po nauczeniu się, realizuje tzw. kwantowanie wektorowe VQ (ang. Vector Quantization), czyli aproksymację dowolnego wektora, poprzez wektor wzorca, najbliższy rozważanemu wektorowi (jest to równoważne kwantyzacji wektorowej przestrzeni wejściowej) Kwantowanie to zwane jest w tym przypadku LVQ (ang. Learning Vector Quantization), ze względu na poprzedzajacy proces uczenia, konieczny do osiągnięcia poprawnego kwantowania.

Algorytm WTA Przy wykorzystaniu sieci neuronowych, algorytm WTA (Winner Takes All) jest odpowiednikiem algorytmu K-uśrednień (K-means) znanego z analizy skupień Algorytm WTA polega na obliczaniu aktywacji każdego neuronu, a następnie wyborze zwycięzcy o największym sygnale wyjściowym

Uczenie mapy cech Kohonena Zwycięski neuron, a więc ten dla którego odległość między wektorem wag w w a wektorem wejściowym x jest najmniejsza podlega uczeniu, polegającym na adaptacji swoich wag w kierunku wektora x: w w ( k + 1) w ( k) + η( x w ( k) ) w Uwaga: jeżeli wektory wejściowe są normalizowane, wówczas minimalna odległość między wektorem wag w w a wektorem wejściowym x odpowiada równocześnie maksymalnej wartości iloczynu skalarnego: w w x w

Uczenie mapy cech Kohonena W ścisłym algorytmie WTA pozostałe neurony nie podlegają uczeniu, co prowadzi do słabej zbieżności W wersji uogólnionej WTM (Winner Takes Most), wykorzystywanej w mapie cech Kohonena, wprowadza się sąsiedztwo neuronu zwycięskiego, również podlegające modyfikacji Dodatkowo można wprowadzić modyfikację uwzględniającą zmęczenie zwycięskich neuronów: jest to modyfikacja zaczerpnięta z biologii, mająca na celu faworyzowanie neuronów o najmniejszej aktywności dla wyrównania szans

Uczenie mapy cech Kohonena metodą WTM Działanie algorytmu WTM przedstawia się następująco: w i ( k + 1) w ( k) + η G( i, x) ( x w ( k) ) i dla wszsytkich neuronów i należących do sąsiedztwa S w zwycięzcy, przy czym funkcja G określa wpływ odległości od zwycięzcy na wielkość modyfikacji i i

WTA jako szczególny przypadek WTM Definiując G(i, x) w postaci: G i (, x) 1 0 dla dla i i w w gdzie w oznacza numer zwycięzcy, dostajemy klasyczny algorytm WTA, jako przypadek szczególny algorytmu WTM

Uczenie mapy cech Kohonena metodą WTM W samoorganizujących się mapach Kohonena określa się najpierw zwycięzcę używając euklidesowej odległości, po czym ustala się wartość współczynnika adaptacji dla neuronów należących do sąsiedztwa.

Sąsiedztwo prostokątne W klasycznym algorytmie Kohonena funkcja G(i, x) jest zdefiniowana jako: G ( i, x) 1 0 dla dla d( i, w) λ pozostalych gdzie d(i, w) oznacza odległość euklidesową między wektorami wag neuronu zwycięzcy w oraz neuronu i-tego. Współczynnik λ jest promieniem sąsiedztwa o wartości malejącej wraz z postępem uczenia Sąsiedztwo takie nosi nazwę prostokątnego

Sąsiedztwo gaussowskie Innym typem sąsiedztwa stosowanym w mapach odwzorowań topologicznych Kohonena, jest sąsiedztwo gaussowskie, w którym funkcja G(i, x) jest zdefiniowana jako: G ( i, x) exp ( i, w) 2 Sąsiedztwo gaussowskie prowadzi do lepszej organizacji sieci, niż sąsiedztwo prostokątne d 2 2λ

Algorytm stochastycznej relaksacji W algorytmie stochastycznej relaksacji neuron i-ty podlega modyfikacji z prawdopodobieństwem danym przez rozkład Gibbsa: T jest parametrem zwanym temperaturą, jak w symulowanym wyżarzaniu () P i 2 x w i exp T 2 n x w j exp T 1 j

Zachowanie algorytmu stochastycznej relaksacji Przy wysokiej temperaturze wszystkie neurony zmieniają swe wektory wagowe z prawdopodobieństwem: () lim P i T W skrajnym przypadku, gdy T 0, P(i) 1 dla zwycięzcy oraz P(i) 0 dla neuronów różnych od zwycięzcy W trakcie działania algorytmu temperatura stopniowo obniża się od wartości maksymalnej do zera, dzięki czemu w granicy algorytm przechodzi w algorytm WTA 1 N

Sąsiedztwo w algorytmie stochastycznej relaksacji Sąsiedztwo w tym algorytmie jest również stochastyczne i dane jest wzorem: G ( i, x) 1 0 dla dla ( ) P i P pozostalych gdzie P jest liczbą losową o rozkładzie równomiernym z przedziału [0,1]

Algorytm SCS Algorytm SCS (Soft Competition Scheme) jest deterministyczną wersją algorytmu stochastycznej relaksacji, zmierzająca do poprawy efektywności wolnego algorytmu stochastycznego. W modyfikacji tej wartość binarna funkcji G przyjmowana z prawdopodobieństwem P jest zastąpiona wartością identycznie obliczanego prawdopodobieństwa, tzn.: ( i,x) P( i) G

Algorytm gazu neuronowego Wszystkie neurony sortuje się narastająco, według ich odległości od wektora x. Wartość funkcji sąsiedztwa wyznacza się ze wzoru: ( ) ( ) m i G i,x exp λ gdzie m(i) oznacza kolejność neuronu uzyskaną w procesie sortowania, a λ jest malejącym w czasie parametrem analogicznym do promienia sąsiedztwa w algorytmie Kohonena

Zachowanie się algorytmu gazu neuronowego Przy λ0, tylko zwycięzca podlega adaptacji, i algorytm staje się algorytmem WTA Przy λ 0 algorytm przypomina podejście zbiorów rozmytych, przy czym każdemu neuronowi odpowiada wartość funkcji przynależności do sąsiedztwa, określona poprzednim wzorem

Porównanie algorytmów samoorganizacji Jeżeli za kryterium przyjmiemy błąd kwantowania, wówczas otrzymamy następującą kolejność (od najlepszego do najgorszego) algorytmów samoorganizacji: - gaz neuronowy - SCS - K-means - Mapa Kohonena

Mapa cech Kohonena: zastosowanie w kompresji obrazów Obraz o rozmiarze N x N y pikseli (np. 512 512) podzielony jest na ramki n x n y pikseli każda (np. 4 4 piksele) Każdy piksel reprezentowany jest przez 8-bitowy odcień szarości Każda ramka stanowi pojedynczy (n x n y wymiarowy) wektor wejściowy x Sieć samoorganizująca zawiera n (np. 512) neuronów, każdy połączony z wszystkimi składowymi wektora x Uczenie sieci dowolnym z prezentowanych algorytmów ma na celu minimalizację błędu kwantowania, tak by każdemu x odpowiadały wektor wag neuronu zwycięzcy Przy kolejnej prezentacji ramek na wejście nauczonej sieci, plik skompresowany zawiera numery zwyciężających neuronów, oraz słownik w którym każdemu neuronowi przyporządkowany jest jego wektor wag

Mapa cech Kohonena: zastosowanie w kompresji obrazów Ponieważ zazwyczaj liczba ramek N r (N x N y )/(n x n y ) jest dużo większa od liczby neuronów n (u nas N r 16K ramek vs. n0.5k neuronów, tj. stosunek N r /n32), więc uzyskuje się kompresję obrazu o współczynniku kompresji K r danym przez: gdzie T jest liczbą bitów użytych na reprezentację piksela, a t liczbą bitów użytych na reprezentację wartości pojedynczej wagi (u nas T8bitów, oraz t8bitów) Stąd mamy: K r K r N r N 16K r n x n y T log 2 n + nn log (16 128) K (16 9 + 16 4) K x 16K 2 n y t 4 4 8 512 + 0.5K 16K 128 16K 13 4 4 8 128 13 10

Mapa cech Kohonena: zastosowanie w kompresji obrazów Jeżeli zamiast obrazu 512 512 rozważymy obraz 1024 1024, wówczas kompresja wzrośnie do: K r 4 16K 4 4 8 4 16K log2 512 + 0.5K 4 4 8 (16 512) K 16K 512 512 13 (16 36 + 16 4) K 16K 40 40

Mapa cech Kohonena: zastosowanie w kompresji obrazów Natomiast jeżeli zamiast obrazu 512 512 rozważymy obraz 256 256, wówczas kompresja zmaleje do: K r 0.25 16K 0.25 16K log (16 32) K (16 2.25 + 16 4) K 2 4 4 8 512 + 0.5K 16K 16K 32 6.25 4 4 8 32 6.25 5

Mapa cech Kohonena: zastosowanie w kompresji obrazów Można zauważyć ponadto, iż dla bardzo dużych obrazów (lub serii mniejszych), współczynnik kompresji asymptotycznie dążyć będzie do wartości: N rnxnyt nxnyt lim K r lim r N r N log 2 n + nn n t log 2 n N Jeżeli nie zmienimy rozmiaru ramki, ani ilości neuronów wyjściowych, da to graniczną wartość równą: K r 4 4 8 512 128 14.22 Większą kompresję uzyskamy tylko poprzez zwiększenie rozmiaru ramki i/lub zmniejszenie liczby neuronów, co jednak pogorszy jakość odtwarzanych obrazów poniżej obecnej wartości PSNR 26db r log 2 x y 9