WPŁYW FUNKCJI SĄSIEDZTWA NA EFEKTYWNOŚĆ UCZENIA SIECI NEURONOWYCH KOHONENA IMPLEMENTOWANYCH SPRZĘTOWO

Podobne dokumenty
S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Lekcja 5: Sieć Kohonena i sieć ART

MATLAB Neural Network Toolbox przegląd

Obliczenia inteligentne Zadanie 4

Monitorowanie i Diagnostyka w Systemach Sterowania

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 79 Electrical Engineering 2014

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Wprowadzenie. SOM jest skrótem od Self Organizing Maps, czyli Samoorganizujące się mapy.

SIECI KOHONENA UCZENIE BEZ NAUCZYCIELA JOANNA GRABSKA-CHRZĄSTOWSKA

Zastosowania sieci neuronowych

Co to jest grupowanie

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2014/2015

Poprawa procesu uczenia się sztucznej sieci neuronowej typu Neural Gas w kontekście realizacji sprzętowej 2

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010

SIEĆ GRNN W KOMPRESJI OBRAZÓW RADAROWYCH

Metody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF.

Metody Sztucznej Inteligencji II

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

Uczenie sieci typu MLP

Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej. Adam Żychowski

Akademia Morska w Szczecinie. Wydział Mechaniczny

Sztuczna inteligencja

A Zadanie

SIECI RBF (RADIAL BASIS FUNCTIONS)

Deep Learning na przykładzie Deep Belief Networks

Krytyczne czynniki sukcesu w zarządzaniu projektami

Wstęp do sieci neuronowych, wykład 8 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

Instrukcja realizacji ćwiczenia

DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI

Algorytmy sztucznej inteligencji

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

Metody klasyfikacji i rozpoznawania wzorców. Najważniejsze rodzaje klasyfikatorów

Oświadczenie. Oświadczam, że w niżej wymienionych publikacjach objętych moją rozprawą habilitacyjną swój udział oceniam następująco:

PROGNOZOWANIE CENY OGÓRKA SZKLARNIOWEGO ZA POMOCĄ SIECI NEURONOWYCH

CHARAKTERYSTYKA I ZASTOSOWANIA ALGORYTMÓW OPTYMALIZACJI ROZMYTEJ. E. ZIÓŁKOWSKI 1 Wydział Odlewnictwa AGH, ul. Reymonta 23, Kraków

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

Hard-Margin Support Vector Machines

Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner

ALGORYTM ROZPOZNAWANIA OBRAZÓW MATERIAŁÓW BIOLOGICZNYCH

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

ANALIZA WYDAJNOŚCI PRODUKCYJNEJ RODZINNEGO GOSPODARSTWA ROLNEGO PRZY POMOCY SIECI NEURONOWEJ

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Sieci Kohonena Grupowanie

Sztuczne sieci neuronowe

8. Neuron z ciągłą funkcją aktywacji.

The development of the technological process in an integrated computer system CAD / CAM (SerfCAM and MTS) with emphasis on their use and purpose.

IMPLEMENTATION OF THE SPECTRUM ANALYZER ON MICROCONTROLLER WITH ARM7 CORE IMPLEMENTACJA ANALIZATORA WIDMA NA MIKROKONTROLERZE Z RDZENIEM ARM7

wiedzy Sieci neuronowe (c.d.)

ZASTOSOWANIE METOD OPTYMALIZACJI W DOBORZE CECH GEOMETRYCZNYCH KARBU ODCIĄŻAJĄCEGO

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

Porównanie wyników symulacji wpływu kształtu i amplitudy zakłóceń na jakość sterowania piecem oporowym w układzie z regulatorem PID lub rozmytym

STRATEGIA DOBORU PARAMETRÓW SIECI NEURONOWEJ W ROZPOZNAWANIU PISMA

Teoria przetwarzania A/C i C/A.

DROGA ROZWOJU OD PROJEKTOWANIA 2D DO 3D Z WYKORZYSTANIEM SYSTEMÓW CAD NA POTRZEBY PRZEMYSŁU SAMOCHODOWEGO

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

ANALIZA EKONOMICZNA BUDOWY I EKSPLOATACJI SYSTEMÓW TELEFONII INTERNETOWEJ W PRZEDSIĘBIORSTWIE ROLNICZYM

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Uczenie sieci neuronowych i bayesowskich

WPŁYW SZYBKOŚCI STYGNIĘCIA NA WŁASNOŚCI TERMOFIZYCZNE STALIWA W STANIE STAŁYM

Sieć przesyłająca żetony CP (counter propagation)

Zarządzanie sieciami telekomunikacyjnymi

Sieci neuronowe i algorytmy uczenia Czyli co i jak andrzej.rusiecki.staff.iiar.pwr.wroc.pl s.

Symulacyjna analiza efektywnoêci sieci neuronowych w klasyfikacji bezwzorcowej

MODELOWANIE NEURONALNE ROZWOJU SYSTEMU ELEKTROENERGETYCZNEGO. CZĘŚĆ 2. MODELE SYSTEMU IEEE RTS

CLASSIFICATION OF SELECTED APPLES VARIETIES AND DRIED CARROTS USING NEURAL NETWORK TYPE KOHONEN

Optymalizacja optymalizacji

MODELOWANIE STANÓW CZYNNOŚCIOWYCH W JĘZYKU SIECI BAYESOWSKICH

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Technika mikroprocesorowa

WYZNACZANIE WARTOŚCI PODSTAWOWYCH PARAMETRÓW TECHNICZNYCH NOWOCZESNYCH KOMBAJNÓW ZBOŻOWYCH PRZY UŻYCIU SSN

ANALIZA PORÓWNAWCZA METOD POMIARU IMPEDANCJI PĘTLI ZWARCIOWEJ PRZY ZASTOSOWANIU PRZETWORNIKÓW ANALOGOWYCH

Sieci neuronowe w Statistica

PRZEWODNIK PO PRZEDMIOCIE

Analiza możliwości szacowania parametrów mieszanin rozkładów prawdopodobieństwa za pomocą sztucznych sieci neuronowych 4

SZTUCZNA INTELIGENCJA

Język opisu sprzętu VHDL

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

Podstawy Sztucznej Inteligencji (PSZT)

Zastosowania sieci neuronowych

Architektura komputerów

Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska

Planning and Cabling Networks

Podstawy sztucznej inteligencji

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

XIII International PhD Workshop OWD 2011, October 2011 METODA REEINGINEERINGU ORGANIZACJI Z WYKORZYSTANIEM SYMULATORA PROCESÓW BIZNESOWYCH

SIECI NEURONOWE Wprowadzenie

WPŁYW KOMPRESJI BARW NA DZIAŁANIE NEURONOWEGO MODELU IDENTYFIKACYJNEGO

Politechnika Lubelska

PRZETWARZANIE GRAFICZNYCH DANYCH EMPIRYCZNYCH DLA POTRZEB EDUKACJI SZTUCZNYCH SIECI NEURONOWYCH, MODELUJĄCYCH WYBRANE ZAGADNIENIA INŻYNIERII ROLNICZEJ

Badanie działania bramki NAND wykonanej w technologii TTL oraz układów zbudowanych w oparciu o tę bramkę.

Przykładowe funkcje przejścia używane przy budowie sztucznych neuronów

WYKORZYSTANIE SIECI NEURONOWYCH DO ODWZOROWANIA DEFORMACJI POWIERZCHNI NA TERENACH GÓRNICZYCH

Transkrypt:

ELEKTRYKA 11 Zeszyt 1 (17) Rok LVII Marta KOLASA, Rafał DŁUGOSZ Zakład Podstaw Elektrotechnik Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy Aleksandra FIGAS Katedra Inżynierii Komputerowej, Politechnika Poznańska WPŁYW FUNKCJI SĄSIEDZTWA NA EFEKTYWNOŚĆ UCZENIA SIECI NEURONOWYCH KOHONENA IMPLEMENTOWANYCH SPRZĘTOWO Streszczenie. W pracy przedstawiono wyniki badań prezentujące wpływ wyboru funkcji sąsiedztwa (neighborhood function - NF) w sieciach Kohonena na jakość procesu uczenia się tych sieci. Celem badań jest określenie, która NF może być najefektywniej zrealizowana sprzętowo, a jednocześnie nie pogarsza jakości procesu uczenia się samoorganizujących się sieci neuronowych. Zbadano efektywność uczenia sieci Kohonena, korzystając z miary błędu kwantyzacji oraz błędu topograficznego. Dokonano porównania uzyskanych wyników dla czterech typów funkcji sąsiedztwa oraz trzech topologii warstwy wyjściowej sieci. Słowa kluczowe: sieci neuronowe Kohonena, funkcja sąsiedztwa, implementacje CMOS, niski pobór mocy AN INFLUENCE OF THE NEIGHBORHOOD FUNCTION ON THE LEARNING PROCESS OF THE HARDWARE IMPLEMENTED KOHONEN NEURAL NETWORKS Summary. The paper presents an influence of the type of the neighborhood function (NF) on the learning process of the Kohonen neural networks. Four different NF and three topology have been compared. The objective was to determine which NF is the most efficient looking both from the transistor level implementation and the learning quality points of view. The effectiveness of the learning process of SOMs was assessed using two criteria: the quantization error and the topographic error. Keywords: Kohonen neural networks, neighborhood function, CMOS implementation, low energy consumption 1. WPROWADZENIE Sztuczna sieć neuronowa realizowana sprzętowo jest uniwersalnym narzędziem, umożliwiającym równoległe przetwarzanie informacji. Spotkać można różne implementacje

64 M. Kolasa, R. Długosz, A. Figas takich siec najczęściej jednak są stosowane programowe realizacje z wykorzystaniem komputera. Wynika to w dużej mierze z łatwości oraz szybkości implementacji. Rozwiązania tego typu mają jednak swoje ograniczenia, zwłaszcza w przypadku, gdy celem jest ich implementacja w aparaturze, wymagającej dużej miniaturyzacj niskiego poboru mocy oraz niskiego kosztu wykonania, przy jednoczesnej wymaganej dużej mocy obliczeniowej. Problem ten może zostać rozwiązany poprzez implementacje takich sieci jako układów ASIC (ang. Application Specific Integrated Circuit), które w porównaniu z ich implementacjami programowymi pozwalają na zmniejszenie poboru energii oraz prowadzą do wzrostu szybkości przetwarzania danych nawet o kilka rzędów wielkości [4, 5]. Polepszenie parametrów uzyskuje się głównie dzięki możliwości równoległej pracy wszystkich neuronów w sieciach tego typu. Z drugiej strony, złożony proces projektowania powoduje, że sprzętowe implementacje są ciągle rzadkością w porównaniu z ich implementacjami programowymi. Przykładem siec które w stosunkowo prosty sposób mogą być implementowane sprzętowo, są sieci Kohonena. Sieci te realizują odwzorowanie pomiędzy przestrzenią wejściową oraz wyjściową, w wyniku czego powstaje mapa zachowująca najbardziej znaczące topologiczne zależności pomiędzy elementami przestrzeni wejściowej [6]. Prace badawcze nad sprzętowymi implementacjami takich sieci prowadzono już wiele lat temu [1]. Brak jest jednak efektywnych realizacji sprzętowych takich siec co stało się motywacją badań prowadzonych przez autorów tego artykułu. W ostatnich latach obserwujemy bardzo szybki rozwój urządzeń przenośnych w takich dziedzinach zastosowań, w których pobór mocy stał się jednym z najbardziej istotnych parametrów. Spowodowało to konieczność optymalizacji algorytmów obliczeniowych pod kątem pobieranej mocy. Przykładem takich zastosowań są bezprzewodowe sieci sensoryczne (ang. WSN - Wireless Sensor Networks) bądź WBSN (ang. Wireless Body Sensor Networks). Obecnie coraz większą popularność zyskują systemy diagnostyczne oparte na sieciach WBSN. W sieciach tego typu nacisk jest kładziony na rozwiązania sprzętowe, które są samowystarczalne pod względem zasilania w energię. W tej klasie układów sprzętowe realizacje sztucznych sieci neuronowych, z uwagi na znacznie niższy pobór energii w stosunku do ich programowych odpowiedników, mogą znaleźć szeroki zakres zastosowań. Z tego względu rozwój sztucznych sieci neuronowych w tym kierunku zyskał ostatnio na znaczeniu. Nad sieciami tego typu autorzy artykułu pracują od kilku lat. W tym czasie wykonali prototypowy układ ASIC, w którym zaimplementowali w pełni analogową sieć WTA (ang. Winner Takes All), którą przedstawili w pracy [5]. Ostatnie prace autorów skupiają się na opracowaniu koncepcji elastycznego oraz w pełni programowalnego mechanizmu sąsiedztwa, który może być wykorzystany w analogowej sieci opisanej w [5], zwiększając znacząco jej funkcjonalność, oraz na opracowaniu w pełni cyfrowej sieci WTM (ang. Winner Takes Most). Zaproponowany mechanizm jest bardzo szybkim równoległym, asynchronicznym

Wpływ funkcji sąsiedztwa 65 rozwiązaniem, które cechuje bardzo prosta struktura, gdyż nie wymaga on zastosowania sterującego systemu zegarowego.. SAMOORGANIZUJĄCA SIĘ SIEĆ KOHONENA Sieci Kohonena, nazywane samoorganizującymi się mapami (ang. SOM - Self- Organized Maps), składają się z jednej warstwy neuronów, które tworzą mapę z liczbą wyjść równą liczbie neuronów. Konkurencyjne uczenie w sieciach tego typu polega na prezentowaniu sieci wzorców uczących X. Wagi poszczególnych neuronów adaptują się w taki sposób, że neurony te stają się reprezentantami poszczególnych klas sygnałów wejściowych [6]. Można wyróżnić dwa podstawowe typy sieci Kohonena: WTA oraz WTM. W obu przypadkach dla każdego wektora wejściowego X najpierw jest określana odległość pomiędzy wektorem wejściowym X oraz wektorem wag W w poszczególnych neuronach [6]. Konkurencję wygrywa ten neuron, którego wektor wag W jest najbardziej podobny do wzorca uczącego X. Metoda WTA jest podstawową metodą uczenia konkurencyjnego, gdzie adaptacji podlega jedynie zwycięski neuron. W wyniku adaptacji przybliża się on do prezentowanego wzorca wejściowego X. Metoda WTA jest algorytmem słabo zbieżnym, szczególnie w sytuacj gdy sieć zawiera dużą liczbę neuronów. Metoda WTM jest bardziej złożona obliczeniowo, ale charakteryzuje się większą zbieżnością. W praktyce, większe znaczenie ma algorytm WTM, gdzie wokół neuronu zwycięzcy definiuje się jego topologiczne sąsiedztwo o określonym promieniu R, typowo malejącym w trakcie procesu uczenia. W metodzie WTM adaptacji podlegają wagi neuronu zwycięzcy oraz dodatkowo tych neuronów, które należą do jego sąsiedztwa. Adaptacja odbywa się zgodnie z poniższą zależnością: (1) gdzie η(k) jest współczynnikiem uczenia w k-tej epoce uczącej, W j jest wektorem wag danego j-tego neuronu, X jest wzorcem uczącym w l-tej prezentacj natomiast G() jest zadaną funkcją sąsiedztwa. W metodzie WTM można rozróżnić takie pojęcia, jak: topologia siec funkcja sąsiedztwa oraz jego zasięg. Zasięg sąsiedztwa, R jest parametrem mającym wpływ na liczbę neuronów, które są zaliczane do sąsiedztwa zwycięskiego neuronu, czyli podlegają uczeniu w danym cyklu. Neurony w mapie najczęściej są połączone w sztywną siatkę, w której dla zadanej wartości promienia R każdy neuron ma określoną listę sąsiadów [, 3]. Najczęściej występującą topologią sieci jest dwuwymiarowa mapa, w której neurony są rozmieszczone jak w węzłach regularnej siatki złożonej z wierszy i kolumn. W takiej siatce każdy neuron ma przynajmniej czterech sąsiadów. Zazwyczaj rozróżnia się topologie, w których każdy neuron ma 4, 8 lub 6 sąsiadów [6]. W pracy topologie te będą oznaczane odpowiednio jako Rect4,

66 M. Kolasa, R. Długosz, A. Figas Rect8 oraz Hex. Poszczególne neurony, które należą do sąsiedztwa neuronu zwycięskiego w danej konkurencj zmieniają swoje wagi z różną intensywnością, która zależy m.in. od zastosowanej funkcji sąsiedztwa (NF) G(). W klasycznym podejściu jest stosowana prostokątna funkcja sąsiedztwa (ang. RNF rectangular neighborhood function), która jest zdefiniowana następująco: 1 dla d( R G( R, d( ) () 0 dla d( R gdzie d( jest odległością pomiędzy zwycięskim i-tym neuronem oraz każdym dowolnym j-tym neuronem mapy, natomiast R jest promieniem sąsiedztwa. Znacznie lepsze rezultaty są osiągane przy użyciu funkcji Gaussa (ang. GNF - Gaussian neighborhood function), którą definiuje się następująco [6, 10, 11]: d ( G ( R, d ( ) exp (3) R W literaturze zaproponowano wiele implementacji funkcji Gaussa w postaci układów elektronicznych, głównie analogowych [1, 8, 9]. GNF z powodu swojej złożoności nie może być w prosty sposób zrealizowana w dużych (w sensie liczby neuronów), zajmujących niewielką powierzchnię, energooszczędnych sieciach SOM. Dlatego w pracy zweryfikowano, czy trójkątna funkcja sąsiedztwa (ang. TNF triangular neighborhood function) może zostać użyta jako zamiennik GNF, nie pogarszając jakości procesu uczenia sieci. Funkcja ta może być znacznie prościej zrealizowana sprzętowo. Jest zdefiniowana następująco: a( ) ( R d( ) c dla d( R G( R, d( ) (4) 0 dla d( R gdzie a jest nachyleniem funkcji trójkątnej, natomiast η jest wartością współczynnika uczenia zwycięskiego neuronu. Implementacja sprzętowa funkcji trójkątnej została zaproponowana przez autorów w pracy [7]. Rozpatrując sprzętowe implementacje NF, w pracy [13] zaproponowano inne rozwiązanie oparte na wykładniczej funkcji sąsiedztwa (WNF). Polega ono na tym, że bity w sygnale reprezentującym człon η(k)g() w (1) są na kolejnych pierścieniach neuronów otaczających neuron zwycięski przesuwane w prawo. W rezultacie, wartość zależności η(k)g() na danym pierścieniu jest jej połową wartości z poprzedniego pierścienia: 1 G( R, d( ) d( dla d( R 1 dla j i Koncepcja ta jest bardzo atrakcyjna z punktu widzenia realizacji sprzętowej, ponieważ nie zawiera operacji mnożenia oraz dzielenia, przez co jest bardzo szybka. Z drugiej strony, (5)

Wpływ funkcji sąsiedztwa 67 zmniejsza ona liczbę wartośc które może osiągnąć NF. W pracy tej zweryfikowano tę koncepcję za pomocą modelu programowego sieci SOM. Efektywność procesu uczenia samoorganizującej się sieci neuronowej oceniono za pomocą dwóch typowo wykorzystywanych kryteriów: błędu kwantyzacji oraz błędu topograficznego [14, ]. Błąd kwantyzacji jest definiowany następująco: Qerr m n j 1 l 1 ( x m j l w ) gdzie m jest parametrem określającym liczbę wzorców uczących w wejściowym zbiorze danych, natomiast n określa liczbę wejść sieci. Błąd kwantyzacji jest to błąd popełniany przez sieć podczas aproksymacji wektora wejściowego wektorem wag neuronu zwycięskiego. Błąd ten pozwala na ocenę dopasowania mapy neuronów do danych wejściowych, jednak nie może być zastosowany do oceny topograficznego uporządkowania mapy. Jakość odwzorowania topograficznego jest oceniana z wykorzystaniem błędu topograficznego E T1, który jest definiowany w następujący sposób: E m l( x T m ) 1 i i 1 il (6) 1 1 (7) Wartość l(x i ) jest równa 1, w przypadku kiedy dwa najbliższe wektorowi wejściowemu neurony są ze sobą połączone, tj. są najbliższymi sąsiadami w przestrzeni mapy. W przeciwnym przypadku wartość l(x i ) jest równa 0. Pożądana wartość błędu topograficznego E T1 wynosi 0, co oznacza, że dla każdego wektora uczącego dwa neurony, których wektor wag jest najbardziej zbliżony do wektora wejściowego, są również najbliższymi sąsiadami w mapie. Błąd topograficzny jest ważną miarą, która daje możliwość oceny zorganizowania siec wskazując na pojawiające się splątania na mapie, które powodują obniżenie jakości wyników prezentowanych przez mapę. 3. PORÓWNANIE WPŁYWU TYPU FUNKCJI SĄSIEDZTWA NA PROCES UCZENIA SIECI W rozdziale tym przedstawiono wpływ rodzaju funkcji sąsiedztwa na jakość procesu uczenia. Badania przeprowadzono dla dwunastu przypadków. Zbadano trzy topologie sieci opisane wcześniej, czyli Rect4, Rect8 oraz Hex, oraz cztery funkcje sąsiedztwa: prostokątną (RNF), trójkątną (TNF), wykładniczą (WNF) oraz Gaussa (GNF). Badano mapy o rozmiarze od 4x4 do x neuronów. Do badań wykorzystano dane wejściowe dwuwymiarowe tworzące równomiernie rozmieszczone centra, których liczba była równa liczbie neuronów tworzących mapę. Każde centrum jest reprezentowane przez równą liczbę wzorców uczących X(l).

68 M. Kolasa, R. Długosz, A. Figas Liczba optymalnych przypadków 9 8 7 6 5 4 3 1 0 RNF TNF GNF WNF 4x4 8x8 10x10 16x16 x 6x6 Rozmiar mapy 3x3 36x36 38x38 39x39 (a) (b) Liczba optymalnych przypadków 9 8 7 6 5 4 3 1 0 RNF TNF GNF WNF 4x4 8x8 10x10 16x16 x 6x6 3x3 Rozmiar mapy Liczba optymalnych przypadków 7 6 5 4 3 1 0 RNF TNF GNF WNF 4x4 8x8 10x10 16x16 x 6x6 Rozmiar mapy 3x3 36x36 38x38 (c) Rys. 1. Liczba przypadków, dla których mapa została prawidłowo zorganizowana w zależności od zastosowanej funkcji sąsiedztwa, w funkcji liczby neuronów, dla topologii: (a) Rect4, (b) Rect8, (c) Hex Fig. 1. Number of cases for which the map was correctly organised dependently on the neighborhood function used as a function of the number of neurons for topologies: (a) Rect4, (b) Rect8, (c) Hex Równomiernie rozmieszczone dwuwymiarowe dane uczące wybrano ze względu na możliwość obiektywnego porównania uzyskanych wyników dla różnych przypadków opisanych powyżej. W takim przypadku łatwo jest ocenić stopień organizacji sieci po równomierności rozkładu neuronów na płaszczyźnie oraz regularności węzłów siatki [11]. Równomierne rozmieszczenie wektorów wejściowych pozwala na idealne dopasowanie się mapy do danych wejściowych [8]. Aby uzyskać porównywalne wynik wejściowa przestrzeń danych była dopasowana do rozmiaru mapy. W związku z tym bez względu na rozmiar mapy optymalna wartość błędu kwantyzacji Q err równała się w tym przypadku zawsze 16.e-3. Badania przeprowadzono w funkcji wartości początkowej promienia sąsiedztwa, oznaczanego jako R max.

Wpływ funkcji sąsiedztwa 69 0 4 6 Rmax 8 10 1 14 (a) 45 0 10 Rmax 50 60 (c) v 0 4 6 Rmax 8 10 1 14 (e) 0 1 3 Rmax 4 5 6 7 (g) 45 0 5 10 Rmax (b) 0 1 3 Rmax 4 5 6 7 (d) 45 0 5 10 Rmax (f) 0 4 6 Rmax 8 10 1 14 (h) v 0 5 10 Rmax (i) Rys.. Błąd kwantyzacji po zakończeniu procesu uczenia sieci w funkcji maksymalnej wartości promienia sąsiedztwa, R max, dla różnych funkcji sąsiedztwa, różnych topologii sieci oraz różnej liczby neuronów tworzących mapę, dla topologii: (a)-(c) Rect4, (d)-(f) Rect8, (g)-(i) Hex Fig.. Quantization error after stopping the learning process of the network vs. the maximum value of the neighborhood radius R max for different neighborhood functions, different network topologies and different number of neurons constituting the map, for topologies: (a)-(c) Rect4, (d)-(f) Rect8, (g)-(i) Hex

70 M. Kolasa, R. Długosz, A. Figas Rysunek 1 ilustruje liczbę takich przypadków (różnych wartości R max ), dla których mapa została prawidłowo ułożona dla poszczególnych funkcji sąsiedztwa oraz dla poszczególnych topologii mapy. Dla optymalnej wartości błędu kwantyzacji Q err wartość błędu topograficznego E T1 wyniosła 0. Na rysunku przedstawiono wartości błędu kwantyzacji Q err po zakończonym procesie uczenia SOM, w zależności od zastosowanej funkcji sąsiedztwa oraz topologii warstwy wyjściowej sieci. Wyniki przedstawiono w funkcji wartości początkowej promienia R max. Prostokątna funkcja sąsiedztwa jest funkcją najprostszą do implementacji sprzętowej, jednak w szerokim zakresie parametrów uczących daje ona znacznie gorsze wyniki niż czy też Gaussa. Zastosowanie wykładniczej funkcji sąsiedztwa, która jest prostsza do zaimplementowania niż oraz Gaussa, nie daje również zadowalających wyników. Oznacza to, że dla sieci o rozmiarze większym niż 10x10 neuronów nie udaje się uzyskać optymalnego ułożenia mapy. Wyniki przedstawione na rysunkach 1 oraz pokazują, że pozwala na otrzymanie równie dobrych bądź nawet lepszych wyników niż te, które zostały uzyskane przy wykorzystaniu funkcji Gaussa, która jest powszechnie uznawana za najlepszą. Wybór funkcji trójkątnej wpływa na zmniejszenie liczby elementów w zaimplementowanej sprzętowo sieci neuronowej. W konsekwencj prowadzi to do zmniejszenia obszaru zajmowanego w układzie scalonym oraz do zmniejszenia poboru mocy. Sieć w tym przypadku daje równie dobre wyniki jak te, które są uzyskiwane przy wykorzystaniu funkcji Gaussa. Na wykresie przedstawiającym liczbę optymalnych R max, pozwalających na prawidłowe rozmieszczenie neuronów w zależności od zastosowanej funkcji sąsiedztwa, dla poszczególnych topologii sieci oraz różnych rozmiarów map jest widoczne, że trójkątna funkcja sąsiedztwa prowadzi do właściwego rozmieszczenia neuronów w największym zakresie R max, zwłaszcza dla większych rozmiarów map. W przypadku dużych map jest widoczna decydująca przewaga funkcji sąsiedztwa innych niż prostokątna oraz wykładnicza. Dla większych rozmiarów map optymalne rozmieszczenie mapy uzyskuje się jedynie przy odpowiednim doborze badanych parametrów sieci. Wyniki zaprezentowane na rysunkach 1 oraz (c), (i) pokazują, że prawidłowe rozmieszczenie neuronów dla trzech badanych topologii sieci uzyskano tylko dla trójkątnej funkcji sąsiedztwa. Uzasadnia to celowość użycia funkcji sąsiedztwa innych niż prostokątna, jednakże nie we wszystkich przypadkach. Wykresy z rysunku (a), (d) i (g) pokazują, że dla mniejszych map z 4x4 i 8x8 neuronami wybór topologii siec zasięgu oraz funkcji sąsiedztwa nie wpływa znacząco na wynik procesu uczenia sieci neuronowej. W tych przypadkach powinna być wykorzystana ze względu na znaczące oszczędności pobieranej energii oraz większą szybkość działania. Zaimplementowany przez autorów na poziomie tranzystora mechanizm sąsiedztwa z prostokątną funkcją sąsiedztwa zużywa jedynie % energi w porównaniu z przypadkiem gdy zastosowano trójkątną funkcję sąsiedztwa.

Wpływ funkcji sąsiedztwa 71 Warto jednak podkreślić, że energia zużywana w przypadku funkcji trójkątnej stanowi jedynie 10% energii zużywanej, gdy jest stosowana. Powyższe rozważania wskazują, iż w sprzętowej implementacji sieci SOM najbardziej optymalne jest zastosowanie trójkątnej funkcji sąsiedztwa, która oferuje stosunkowo niską złożoność sprzętową, jednocześnie oferując dużą efektywność oraz elastyczność. 4. PODSUMOWANIE W sprzętowej implementacji sieci SOM istotny jest odpowiedni dobór jej parametrów, takich jak np. funkcja sąsiedztwa. Zastosowanie zbyt prostej funkcji sąsiedztwa wpływa na pogorszenie jakości procesu uczenia takiej sieci. Z drugiej strony, zbyt złożona funkcja sąsiedztwa znacząco zwiększa złożoność całego układu scalonego. W pracy pokazano, że trójkątna funkcja sąsiedztwa jest rozwiązaniem najbardziej optymalnym z punktu widzenia efektywności procesu uczenia sieci Kohonena zarówno pod względem poboru mocy oraz obszaru zajmowanego w układzie scalonym. Zastosowanie tej funkcji pozwala na znaczące uproszczenie całej struktury zaimplementowanej sprzętowo sieci SOM, nie wpływając na pogorszenie jakości procesu uczenia. BIBLIOGRAFIA 1. Abuelma`ati M. T., Shwehneh A.: A reconfigurable Gaussian/Triangular Basis Function Computation Circuit. IEEE International Conference on Computer Systems and Applications 06, s. 3-39.. Boniecki P.: The Kohonen neural network in classification problems solving in agricultural engineering. Journal of Research and Applications in Agricultural Engineering 05, Vol. 50, s. 37-. 3. Brocki Ł.: Kohonen self-organizing map for the traveling salesperson problem, Recent Advances in Mechatronics, Springer, 07. 4. Długosz R., Kolasa M.: CMOS, programmable, asynchronous neighborhood mechanism for WTM Kohonen neural network. Proc. International Conference Mixed Design of Integrated Circuits and Systems, Poznań 08, s. 197-1. 5. Długosz R., Talaśka T., Pedrycz W., Wojtyna R.: Realization of the conscience mechanism in cmos implementation of winner-takes-all self-organizing neural networks. IEEE Transactions on Neural Networks 10, Vol. 1 (6), s. 961-971. 6. Kohonen T.: Self-Organizing Maps, third ed. Springer, Berlin 01.

7 M. Kolasa, R. Długosz, A. Figas 7. Kolasa M., Długosz R., Bieliński K.: White Electronics, Programmable, Asynchronous, Triangular Neighborhood Function for Self-Organizing Maps Realized on Transistor Level. INTL Journal of Electronics and Telecommunications 10, Vol. 56, No. 4, s. 367-373. 8. Li F., Chang C. H., Siek L.: A compact current mode neuron circuit with Gaussian taper learning capability. IEEE International Symposium on Circuits and Systems 09, s. 19-13. 9. Masmoudi D. S., Dieng A. T., Masmoudi M.: A subtreshold Mode Programmable Implementation of the Gaussian Function for RBF Neural Networks Applications. IEEE International Symposium on Intelligent Control 0, s. 454-459. 10. Mokris I., Forgac R.: Decreasing the Feature Space Dimension by Kohonen Self- Organizing Maps. nd Slovakian Hungarian Joint Symposium on Applied Machine Intelligence, Słowacja 04. 11. Osowski S.: Sieci neuronowe w ujęciu algorytmicznym. WNT, Warszawa 1996. 1. Peiris V., Hochet B., Abdo S., Declercq M.: Implementation of a Kohonen map with learning capabilities. Proc. IEEE International Symposium on Circuit and Systems, Singapur 1991, s. 01-04. 13. Pena J., Vanegas M., Valencia A.: Digital hardware architectures of Kohonen s self organizing feature maps with exponential neighboring function. Proc. of IEEE International Conference on Reconfigurable Computing and FPGA s, Meksyk 06, s. 1-8. 14. Su M-C., Chang H-T., Chou C-H.: A Novel Measure for Quantifying the Topology Preservation of Self-Organizing Feature Maps. Neural Processing Letters 0, Vol., s. 137-145.. Uriarte E.A., Martin F.D.: Topology Preservation in SOM. International Journal of Applied Mathematics and Computer Sciences 05, Vol. 1, s. 19-. Wpłynęło do Redakcji dnia 17 marca 11 r. Recenzent: Prof. dr hab. inż. Janusz Walczak Abstract In this paper we investigated an influence of the neighborhood function (NF) on the learning process of the hardware implemented Kohonen neural networks. The objective of the paper was to determine which neighborhood function is the most efficient looking from the transistor level implementation and the learning quality points of view.

Wpływ funkcji sąsiedztwa 73 A comparative study illustrating how the quality of the learning process depends on the type of the NF and other network parameters has been presented in the paper. To make the presented results representative the simulations have been performed for different map sizes ranging in-between 4x4 (16 neurons) and x (1600 neurons). The simulations have been performed for twelve general cases i.e. for three different map topologies: rectangular with four and eight neighbors and haxagonal and four neighborhood functions: rectangular (RNF), exponential (WNF), triangular (TNF) and Gaussian (GNF) neighborhood function. The effectiveness of the learning process of the SOM has been assessed using two criteria: the quantization error and the topographic error. The verification of the SOM has been carried out by running one learning set composed of -element training patterns (D). Detailed simulations carried out for the software model of such network show that the TNF forms a good approximation of the Gaussian neighborhood function (GNF), while being implemented in a much easier way on transistor level. Comparing the TNF with the GNF, the RNF and the WNF one can observe that for small maps up to 8x8 neurons all these functions and the map topologies offer a similar learning quality. The situation becomes different in case of large maps. It was not possible to train properly the SOM with more than x neurons with RNF and WNF. The best results have been achieved for the TNF and the Rect8 topology.