Sieci samoorganizujące się na zasadzie współzawodnictwa



Podobne dokumenty
Lekcja 5: Sieć Kohonena i sieć ART

MATLAB Neural Network Toolbox przegląd

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2014/2015

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

Hard-Margin Support Vector Machines

Co to jest grupowanie

SIECI KOHONENA UCZENIE BEZ NAUCZYCIELA JOANNA GRABSKA-CHRZĄSTOWSKA

Sieci Kohonena Grupowanie

Monitorowanie i Diagnostyka w Systemach Sterowania

Wprowadzenie. SOM jest skrótem od Self Organizing Maps, czyli Samoorganizujące się mapy.

Obliczenia inteligentne Zadanie 4

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Machine Learning for Data Science (CS4786) Lecture 11. Spectral Embedding + Clustering

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Machine Learning for Data Science (CS4786) Lecture11. Random Projections & Canonical Correlation Analysis

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Uczenie sieci radialnych (RBF)

Metody Sztucznej Inteligencji II

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Wykład 5: Uczenie przez współzawodnictwo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 8 Uczenie nienadzorowane.

Metody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF.

Sztuczna inteligencja

Wstęp do głębokich sieci neuronowych. Paweł Morawiecki IPI PAN

SIECI RBF (RADIAL BASIS FUNCTIONS)

Uczenie sieci typu MLP

Grupowanie VQ. Kwantyzacja wektorowa (VQ Vector Quantization) SOM Self-Organizing Maps. Wstępny podział na grupy. Walidacja grupowania

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

deep learning for NLP (5 lectures)

Sieci Rekurencyjne 1 / 33. Sieci Rekurencyjne. Nguyen Hung Son

Metody statyczne selekcji i konstruowania cech dla wizualizacji danych wielowymiarowych

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Sieć przesyłająca żetony CP (counter propagation)

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

2. Reprezentacje danych wielowymiarowych sposoby sobie radzenia z nimi. a. Wprowadzenie, aspekt psychologiczny, wady statystyki

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

Adrian Horzyk

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Michał Kozielski Łukasz Warchał. Instytut Informatyki, Politechnika Śląska

Zastosowania sieci neuronowych

Podstawy Sztucznej Inteligencji

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe. Krzysztof Regulski, WIMiIP, KISiM, B5, pok. 408

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej. Adam Żychowski

1. Grupowanie Algorytmy grupowania:

Dariusz Brzeziński Instytut Informatyki, Politechnika Poznańska

Algorytmy rozpoznawania obrazów. 11. Analiza skupień. dr inż. Urszula Libal. Politechnika Wrocławska

KLASYFIKACJA. Słownik języka polskiego

FOLIA POMERANAE UNIVERSITATIS TECHNOLOGIAE STETINENSIS Folia Pomer. Univ. Technol. Stetin., Oeconomica 2018, 347(93)4, 57 68

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

PRZETWARZANIE GRAFICZNYCH DANYCH EMPIRYCZNYCH DLA POTRZEB EDUKACJI SZTUCZNYCH SIECI NEURONOWYCH, MODELUJĄCYCH WYBRANE ZAGADNIENIA INŻYNIERII ROLNICZEJ

Sieci neuronowe - projekt

DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI

TTIC 31210: Advanced Natural Language Processing. Kevin Gimpel Spring Lecture 9: Inference in Structured Prediction

Systemy uczące się Lab 4

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Elementy kognitywistyki III: Modele i architektury poznawcze

Algorytm grupowania danych typu kwantyzacji wektorów

SIECI NEURONOWE Wprowadzenie

8. Neuron z ciągłą funkcją aktywacji.

ALGORYTM ROZPOZNAWANIA OBRAZÓW MATERIAŁÓW BIOLOGICZNYCH

Wstęp do teorii sztucznej inteligencji

Instrukcja obsługi User s manual

Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner

Wprowadzenie do programu RapidMiner, część 5 Michał Bereta

SZTUCZNA INTELIGENCJA

Podstawy Sztucznej Inteligencji (PSZT)

ZASTOSOWANIE SAMOORGANIZUJĄCYCH SIĘ MAP CECH W DIAGNOSTYCE SILNIKÓW O ZAPŁONIE SAMOCZYNNYM

Próba formalizacji doboru parametrów generalizacji miejscowości dla opracowań w skalach przeglądowych

Podstawy sztucznej inteligencji

Analiza Sieci Społecznych Pajek

Zastosowania sieci neuronowych

Linear Classification and Logistic Regression. Pascal Fua IC-CVLab

WPŁYW FUNKCJI SĄSIEDZTWA NA EFEKTYWNOŚĆ UCZENIA SIECI NEURONOWYCH KOHONENA IMPLEMENTOWANYCH SPRZĘTOWO

Asocjacyjna reprezentacja danych i wnioskowanie

A Zadanie

Systemy wbudowane. Poziomy abstrakcji projektowania systemów HW/SW. Wykład 9: SystemC modelowanie na różnych poziomach abstrakcji

SIEĆ GRNN W KOMPRESJI OBRAZÓW RADAROWYCH

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

MATLAB Neural Network Toolbox uczenie sieci (dogłębnie)

Wstęp do sieci neuronowych, wykład 8 Samoorganizacja topologiczna, analiza składowych głównych.

Pozyskiwanie wiedzy z baz danych z pomocą sieci neuropodobnych

Machine Learning for Data Science (CS4786) Lecture 24. Differential Privacy and Re-useable Holdout

Zakopane, plan miasta: Skala ok. 1: = City map (Polish Edition)

sieci jednowarstwowe w MATLABie LABORKA Piotr Ciskowski

Data Mining Wykład 9. Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster. Plan wykładu. Sformułowanie problemu

Sztuczne sieci neuronowe

wiedzy Sieci neuronowe

Rozpoznawanie twarzy metodą PCA Michał Bereta 1. Testowanie statystycznej istotności różnic między jakością klasyfikatorów

Inteligentne systemy przeciw atakom sieciowym

Transkrypt:

Sieci samoorganizujące się na zasadzie współzawodnictwa JERZY STEFANOWSKI Instytut Informatyki Politechnika Poznańska

Plan 1. Wprowadzenie 2. Wykrywanie grup sieci LVQ 3. Reguły uczenia się konkurencyjnego 4. Projekcja wielowymiarowa 5. Sieci SOM i ich algorytmy uczenia 6. WebSOM i inne zastosowania 7. Uwagi końcowe

Wprowadzenie Inny tryb uczenia się: Bez nadzoru (brak informacji y o zadanym wyjściu; tylko opis przykładów x) Sieć sama powinna wykrywać istotne zależności w danych wejściowych, badać podobieństwo wektorów x, rozpoznawania cech istotnych czy regularności bez nadzoru Typowe zastosowanie grupowanie, kodowanie i kompresja, projekcja wielowymiarowa, wykrywanie cech istotnych. Kluczowe jest badanie podobieństwa wektorów (wejścia, wagi), Miara iloczynu skalarnego wektora wag i wektora wejściowego Zasady uczenia się konkurencyjnego (przez współzawodnictwo) Tylko zwycięskie neurony lub ich sąsiedzi są nauczani (modyfikacja wag) Na ogół prostsza topologia sieci

Typowe zastosowania Grupowanie obserwacji: Sieć w wyniku procesu uczenia dokonuje podziału przykładów uczących na klasy (grupy) przykładów podobnych do siebie i przyporządkowuje każdej klasie różne elementy wyjściowe sieci sieci LVQ. Tworzenie mapy cech: Dane wejściowe transformowane są z wielowymiarowej przestrzeni przykładów w małowymiarową przestrzeń ich cech charakterystycznych. Elementy warstwy wyjściowej są geometrycznie uporządkowane. Wymaga się, aby podobne przykłady wejściowe generowały aktywność bliskich geometrycznie elementów wyjściowych - Sieci SOM Kohonena. Analiza czynników głównych: Sieć posiada wyjście wieloelementowe, a każdy z elementów odpowiada za jeden z tzw. czynników głównych, według których określane jest podobieństwo sygnałów wejściowych.

Podstawowa sieć Kohonena LVQ Celem jest grupowanie wektorów wejściowych x Istota działania podobieństwo Podobne wektory powinny pobudzać te same neurony Prosta topologia y y j gdzie y = wx= w x j j ij i i Reguła konkurencyjnego uczenia się x i x

Wektory i miary podobieństwa Dany jest zbiór uczący { x, x2,, } 1 K x n Podobieństwo dwóch wektorów odległość Euklidesowa x i x j = ( xi x j ) ( xi x j ) Równoważna miara cosinusowa (kątowa) T cos(θ ) = x x i T i x x j j cosθ j = a j a T j q q 2 2 = t i= 1 t i= 1 a 2 ij a ij q i t i= 1 q 2 i d j Θ q

Sieć Kohonena - LVQ Przetwarza się kolejne wektory x poszukując p grup odpowiadają im wybrane neurony Przed rozpoczęciem uczenia wektory wag są inicjowane losowo (małe liczby z przedziału -0.5;0.5) Wektory wag są normalizowane dla kolejnych p neuronów w ˆ = i w w i i Stosuję się regułę zwyciężca bierze wszystko w celu identyfikację neuronu zwyciężcy. Wagi neuronu zwycięskiego podlegają modyfikacji

Reguła zwycięzca bierze wszystko Określenie zwycięzcy: x wˆ = min i= 1, K, p x wˆ Alternatywnie iloczyn skalarny m i wˆ T m x = max i=1, K, p wˆ T i x Zwycięzcą jest jeden neuron m. Korekcja wag w m odbywa się wyłącznie dla neuronu zwycięzcy według reguły: w = η ( x wm) m η -stała uczenia (na ogół między 0.1 a 0.7) Przykład interpretacja geometryczna

Uczenie zwycięskiego neuronu Po odnalezieniu zwycięskiego neuronu dokonuje się aktualizacji wag (k numer kolejnego kroku) ) ˆ ( 1 k m k m k m w x w w + = + η 1 1 1 ˆ + + + = k m k m k m w w w x Wk Wk+1 ( m) m w x w = η

Kilka uwag o uczeniu sieci Po zakończeniu uczenia znormalizowane wektory wag (neuronów) wskazują środki ciężkości wykrytych grup obserwacji analogia do k-średnich. Dobór wag początkowych rozrzucenie po przestrzeni (hiperkuli) Problem doboru liczby neuronów (martwe neurony) Tzw. techniki sumienia sumienie ten sam neuron nie zwycięża zbyt często Stopniowe zmniejszanie prędkości uczenia Iteracyjne powtarzanie prezentacji przykładów W ostatnim kroku kalibracja sieci

Odzworowanie cech istotnych W eksploracji danych duże znaczenie ma transformacja wysoce-wielowymiarowych danych wejściowych w małowymiarowe przestrzenia tak aby zauważyć pewną harmonijną strukturę danych Podejścia analityczne (projekcje w statystyce) np. PCA

Sieci SOM Podstawą odwzorowania takie uporządkowanie neuronów, takie że położenie zwycięskich neuronów niesie informacje Topologia relacja sąsiedztwa Podobne przykłady wejściowe x powinny aktywizować sąsiednie neurony Gęstość wzorców w zredukowanej przestrzeni musi odpowiadać gęstości przykładów w oryginalnej przestrzeni

Self-Organizing Feature Map (SOM) SOMs, also called topological ordered maps, or Kohonen Self- Organizing Feature Map (KSOMs) It maps all the points in a high-dimensional source space into a 2 to 3-d target space, s.t., the distance and proximity relationship (i.e., topology) are preserved as much as possible Similar to specific clustering: cluster centers tend to lie in a lowdimensional manifold in the feature space Clustering is performed by having several units competing for the current object The unit whose weight vector is closest to the current object wins The winner and its neighbors learn by having their weights adjusted SOMs are believed to resemble processing that can occur in the brain Useful for visualizing high-dimensional data in 2- or 3-D space

nsupervised Learning: ohonen s Self-Organizing Map (SOM) [2] Another Clustering Algorithm aka Self-Organizing Feature Map (SOFM) Given: vectors of attribute values (x 1, x 2,, x n ) Returns: vectors of attribute values (x 1, x 2,, x k ) Typically, n >> k (n is high, k = 1, 2, or 3; hence dimensionality reducing ) Output: vectors x, the projections of input points x; also get P(x j x i ) Mapping from x to x is topology preserving Topology Preserving Networks Intuitive idea: similar input vectors will map to similar clusters Recall: informal definition of cluster (isolated set of mutually similar entities) Restatement: clusters of X (high-d) will still be clusters of X (low-d) Representation of Node Clusters Group of neighboring artificial neural network units (neighborhood of nodes) SOMs: combine ideas of topology-preserving networks, unsupervised learning Implementation: http://www.cis.hut.fi/nnrc/ and MATLAB NN Toolkit

Projekcja

Sieć 2D, dane 3D o=dane ' = wagi sieci o ' ' ' oo ' ' ' ' ' ' ' ' '' ' o ' ' ' ' ' o o ' ' ' 'o ' o' przestrzeń cech x y z neurony wejściowe wagi przypisane połączeniom 2-D siatka neuronów

Uczenie sieci 2D x=dane o=pozycje wag neuronów o o o o x o x o o x o o xo o o N-wymiarowa przestrzeń danych wagi wskazują na punkty w N-D siatka neuronów w 2-D

Intuicja przekształcenia (A.Bartkowiak) z zachowaniem sąsiedztwa geometrycznego

Typowe topologie sieci SOM Dwie typowe topologie i sąsiedztwo

Uczenie SOM Neurony reagują na sygnały X podobne do W. Podobny = iloczyn skalarny największy lub odległość min. Znajdź najsilniej reagujący neuron c. ( X W ) 2 ; c argmin X W = = X W j i ij j j i Przesuń wagi neuronu c i neuronów w sąsiedztwie O(c): ( 2 ) 2 σ hrr (,,) t = h()exp t r r / () t w stronę wektora X: c 0 c c ( t+ 1 ) = ( t) + h( r, r t) ( t) ( t) dla i O( c) W W X W i i i c, i

Modelowanie sąsiedztwa Typowe funkcje

Algorytm SOM Siatka neuronów i = 1.. K w 1D-3D, każdy neuron z N wagami. Neurony z wagami W i (t) = {W i1 W i2.. W in }, wektory X={X 1, X 2.. X N }. t - dyskretny czas; nie ma połączeń pomiędzy neuronami! 1. Inicjalizacja: przypadkowe W i (0) dla wszystkich i=1..k. Funkcja sąsiedztwa h( r-r c /σ(t),t) definiuje wokół neuronu położonego w miejscu r c siatki obszar O s (r c ). 2. Oblicz odległości d(x,w), znajdź neuron z wagami W c najbardziej podobnymi do X (neuron-zwycięzcę). 3. Zmień wagi wszystkich neuronów w sąsiedztwie O s (r c ) 4. Powoli zmniejszaj siłę h 0 (t) i promień σ(t). 5. Iteruj aż ustaną zmiany. Efekt: podział (tesselacja) na wieloboki Voronoia.

An example of analysing olive oil in Italy An example of SOM application: 572 samples of olive oil were collected from 9 Italian provinces. Content of 8 fats was determine for each oil. SOM 20 x 20 network, Maps 8D => 2D. Classification accuracy was around 95-97%. Note that topographical relations are preserved, region 3 is most diverse.

Other examples Natural language processing: linguistic analysis, parsing, learning languages, hyphenation patterns. Optimization: configuration of telephone connections, VLSI design, time series prediction, scheduling algorithms. Signal processing: adaptive filters, real-time signal analysis, radar, sonar seismic, USG, EKG, EEG and other medical signals... Image recognition and processing: segmentation, object recognition, texture recognition... Content-based retrieval: examples of WebSOM, Cartia, VisierPicSom similarity based image retrieval.

Quality of life data WorldBank data 1992, 39 quality of life indicators. SOM map and the same colors on the world map. More examples of business applications from http://www.eudaptics.com/

Analiza cech istotnych A self-organizing map showing US Congress voting patterns visualized in Synapse. The first two boxes show clustering and distances while the remaining ones show the component planes. Red means a yes vote while blue means a no vote in the component planes (except the party component where red is Republican and blue is Democrat).

Web Document Clustering Using SOM The result of SOM clustering of 12088 Web articles The picture on the right: drilling down on the keyword mining Based on websom.hut.fi Web page

Gaz neuronowy Wariant uczenia konkurencyjnego (Schulten i Martinez 1991) Algorytm NG typu SOM: 1. przypadkowa inicjalizacja N wektorów; t=0; 2. Wybierz przypadkowy wektor V 3. Zrób ranking wag najbliższych V; k=1..n W V W V ; i< j i Zastosuj regułę adaptacji: j ( )( ) W = ε () t h i V W i λ i zmniejszając eksponencjalnie obszar λ i stałą uczenia ε(t).

BEATCA nowa koncepcja wyszukiwarki o interfejsie mapowym (M.Kłopotek, K.Ciesielski, D.Czerski, M.Dramiński IPI PAN Warszawa) Nowa koncepcja wyszukiwarki mapowej Pełen cykl przetwarzania miliona dokumentów - 48 godz. współistnienie wielu koncepcji map (SOM, GNG, Immunologiczne) współistnienie wielu koncepcji reprezentacji map (czwotokątn sześciokątne, dwuwymiarowe euklidesowskie, hiperboliczne "rybie oko", prezentacja na kuli, torusie, walcu) Możliwość przyrostowego generowania mapy Środowisko do badań eksperymentalnych nad nowymi koncepcjami map

Etapy tworzenia mapy Zbiór dokumentów Mapa dokumentów Punkty w przestrzeni dokumentów Grupy w przestrzeni dokumentów

User interface of BEATCA software

The traditional flat map - hexagonal

Map visualizations in 3D

Hierarchical maps Level 3 Level 2 Level 1