Lekcja 5: Sieć Kohonena i sieć ART

Podobne dokumenty
Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010

SIECI KOHONENA UCZENIE BEZ NAUCZYCIELA JOANNA GRABSKA-CHRZĄSTOWSKA

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

Metody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF.

Sztuczna inteligencja

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

Co to jest grupowanie

Wprowadzenie. SOM jest skrótem od Self Organizing Maps, czyli Samoorganizujące się mapy.

SZTUCZNA INTELIGENCJA

Metody Sztucznej Inteligencji II

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Zastosowania sieci neuronowych

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Uczenie sieci radialnych (RBF)

Obliczenia inteligentne Zadanie 4

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Sieć przesyłająca żetony CP (counter propagation)

Monitorowanie i Diagnostyka w Systemach Sterowania

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

Wstęp do sieci neuronowych, wykład 8 Uczenie nienadzorowane.

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.

Inteligentne systemy przeciw atakom sieciowym

Wstęp do sieci neuronowych, wykład 8 Samoorganizacja topologiczna, analiza składowych głównych.

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2014/2015

Sieci Kohonena Grupowanie

Elementy inteligencji obliczeniowej

Sztuczne sieci neuronowe

wiedzy Sieci neuronowe

Podstawy sztucznej inteligencji

Algorytm grupowania danych typu kwantyzacji wektorów

sieci jednowarstwowe w MATLABie LABORKA Piotr Ciskowski

I EKSPLORACJA DANYCH

2.4. Algorytmy uczenia sieci neuronowych

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Obliczenia Naturalne - Sztuczne sieci neuronowe

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

Uczenie sieci typu MLP

Rozpoznawanie pisma ręcznego przy pomocy sieci neuronowej Kohonena

Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe. Krzysztof Regulski, WIMiIP, KISiM, B5, pok. 408

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Rozpoznawanie obrazów

Zastosowania sieci neuronowych

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

ELEMENTY SZTUCZNEJ INTELIGENCJI. Sztuczne sieci neuronowe

Celem tych ćwiczeń jest zapoznanie się z klasyfikacją za pomocą sieci neuronowych.

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Instrukcja realizacji ćwiczenia

Elementy kognitywistyki III: Modele i architektury poznawcze

Wstęp do teorii sztucznej inteligencji

Agnieszka Nowak Brzezińska Wykład III

Systemy uczące się Lab 4

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

Przykładowa analiza danych

Elementy modelowania matematycznego

SPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization

Agnieszka Nowak Brzezińska Wykład III

METODY HEURYSTYCZNE wykład 5

8. Neuron z ciągłą funkcją aktywacji.

MODELOWANIE RZECZYWISTOŚCI

Lista. Przestrzenie liniowe. Zadanie 1 Sprawdź, czy (V, +, ) jest przestrzenią liniową nadr :

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

6. Perceptron Rosenblatta

1. Logika, funkcje logiczne, preceptron.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Analiza nastrojów gospodarczych z wykorzystaniem sieci Kohonena

Systemy Inteligentnego Przetwarzania wykład 7: Sieci RBF

Temat: Sieci neuronowe oraz technologia CUDA

Sieci Neuronowe - Rok III - kierunek IS w IFAiIS UJ 2008/2009. Sieci Neuronowe. Wykład 8 Sieci rezonansowe

Widzenie komputerowe

SIECI REKURENCYJNE SIECI HOPFIELDA

Temat: ANFIS + TS w zadaniach. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

METODY HEURYSTYCZNE wykład 5

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Definicja perceptronu wielowarstwowego

Wstęp do teorii sztucznej inteligencji

Algorytm Dijkstry znajdowania najkrótszej ścieżki w grafie

Algorytm grupowania danych typu kwantyzacji wektorów

MATLAB Neural Network Toolbox przegląd

Wykład 1: Wprowadzenie do sieci neuronowych

ALGORYTMICZNA I STATYSTYCZNA ANALIZA DANYCH

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe

Wykład 5: Uczenie przez współzawodnictwo

Sztuczne sieci neuronowe (SNN)

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD XI: Sztuczne sieci neuronowe

SIEĆ NEURONOWA JAKO NARZĘDZIE APROKSYMACJI I KLASYFIKACJI DANYCH. Jakub Karbowski Gimnazjum nr 17 w Krakowie

Transkrypt:

Lekcja 5: Sieć Kohonena i sieć ART S. Hoa Nguyen 1 Materiał Sieci Kohonena (Sieć samo-organizująca) Rysunek 1: Sieć Kohonena Charakterystyka sieci: Jednowarstwowa jednokierunkowa sieć. Na ogół neurony na warstwie wyjściowej tworzą pełną topologię, np. mapa kwadratowa Algorytm uczenia a) inicjalizacja wag sieci, b) pobranie przykładu uczącego, c) obliczenie odległości wektora wejściowego do wag każdego z neuronów, d) wybranie neuronu zwycięzcy (wygrywającego) dla którego odległość wag od wektora wejściowego jest najmniejsza (Euklidesowa miara odległości, iloczyn skalarny wektorów, odległość Mahattana, norma L) e) skoryguj wartości poszczególnych wag tego neuronu f) powtórzenie kroków 2-5 dla wszystkich przykładów uczących N razy. Reguły uczenia 1

Starategia WTA (Winer Takes All): W t+1 = W t + η(x W t ) Starategia WTM (Winer Takes Most): W t+1 = W t + ηg(t, i)(x W t ) G(t, i) = e ( d 2 (i) 2σ 2 ) (t) d(i) jest odległością między zbadanym neuronem a zwycięskim. promieniem sąsiedztwa neuronu zwycięskiego w momencie t A σ(t) jest σ(t) = σ 0 e ( t λ ) (λ > 0) Sieci ART (Adaptive Resonance Theory) Rysunek 2: Sieć ART Charakterystyka sieci: Dwuwarstwowa jednokierunkowa sieć. Dolna warstwa zawiera K neuronów, jeśli dane wejściowe mają wymiar K. Sygnały wejściowe są binarne 0 lub 1. Algorytm uczenia a) inicjalizacja wag sieci: = 1 w i = K i=1 + α gdzie w i wagi połączeń od dolnej warstwy do górnej warstwy, a wagi połączeń od górnej do dolnej warstwy. b) pobranie przykładu uczącego. c) wyznacz neuron zwycięski (miarą iloczynu skalarnego). 2

d) sprawdź stopień podobieństwa: ρ = K i=1 x i i x i e) jeśli ρ ρ min modyfikuj wagi neuronu zwycięskiego zgodnie z regułą uczenia: = x i w i = K j=1 v jx j + α f) jeśli ρ < ρ min dołóż następny neuron do górnej warstwy. g) powtórzenie kroków b-g dla wszystkich przykładów uczących N razy. Sieci Fuzzy ART Charakterystyka sieci: Dwuwarstwowa jednokierunkowa sieć: Dolna warstwa zawiera 2K neuronów, jeśli dane wejściowe mają wymiar K. Sygnały wejściowe są rzeczywiste należące do [0, 1]. Wektor wejściowy X o wymiarze K jest reprezentowany przez wektor o wymiarze 2K: [X, X c ], gdzie X c jest wektorem komplementarnym do X Algorytm uczenia a) inicjalizacja wag sieci: = 1 w i = 2K i=1 + α gdzie w i wagi połączeń od dolnej warstwy do górnej warstwy, a wagi połączeń od górnej do dolnej warstwy. b) pobranie przykładu uczącego. c) wyznacz neuron zwycięski (miarą iloczynu skalarnego). d) sprawdź stopień podobieństwa: ρ = 2K i=1 (x i ) i x i e) jeśli ρ ρ min modyfikuj wagi neuronu zwycięskiego zgodnie z regułą uczenia: = x i w i = 2K j=1 (v j x j ) + α f) jeśli ρ < ρ min dołóż następny neuron do górnej warstwy. g) powtórzenie kroków b-g dla wszystkich przykładów uczących N razy. W tym algorytmie jest rozmytą operacją. 3

2 Zadania Symulacja sieci Kohonena: http://www.nnwj.de/sample-applet.html. Zadanie 1. Projektować sieci Kohonena umożliwiające grupowanie danych dwuwymiarowych przedstawionych na rysunkach 3 i 4. Podać liczbę neuronów, liczbę wejść i wyjść. Dla każdego ze zbioru danych zaproponować algorytm uczenia i odpowiednią funkcję odległości. Rysunek 3: Zadania 1: Pierwszy zbiór punktów. Rysunek 4: Zadania 1: Drugi zbiór punktów. Zadanie 2. Dla sieci Kohonena o strukturze podanej na Rysunku 5, wykonuj jeden cykl uczenia dla wzorców : X 1 = (1, 0), X 2 = (0, 1) a) Zakłada się, że wagi początkowe wszystkich neuronów wynoszą 1. Unormuj wektory wag. b) Dla wektora wejściowego, wyznacz neuron zwycięski (jeśli neurony są równoodległe od wktora wejściowego rozstrzygnąć arbitralnie). c) Modyfikuj wagi neuronu zwycięskiego (współczynnik uczenia wynosi 0.5) i unormuj wektor wag. 4

Rysunek 5: Sieć Kohonena do zadania 2 Zadanie 3. (Grupy drukarek) W celu grupowania drukarek o podobnych cechach, zastosowano sieć Kohonena. W zbiorze Opisy_Drukarek są parametry drukarek. Struktura sieci jest następująca: a) sieć ma 2 wejścia, b) wartswa wyjściowa składa się z 4 neuronów. Wykonać następujące czynności w Excelu: a) Symuluj działanie sieci dla przykładów treningowych używając strategii WTA (Winner Takes All): Unormalizuj wektory cech. Wyznacz dla każdego wektora treningowego neuron o najbliższym wektorze wag. Dla neuronu zwycięskiego aktualizuj wagi. b) Narysować położenie danych wejściowych (każda drukarka odpowiada jednemu punktu w przestrzeni R 2 ) c) Narysować grupy wektorów wejściowych. Zadanie 4. Stosowano sieć rezonansową ART, do zapamiętania wzorców podanych na Rysunku 6. Przyjmując próg podobieństwa ρ min = 0, 6 przeprowadź uczenie sieci. a) Proponuj strukturę sieci. b) Inicjalizuj wagi neuronów w dolnej warstwie i górnej warstwie. c) Wyznacz neuron zwycięski i przeprowadź test podobieństwa. d) Jeśli wynik testu jest pozytywny modyfikuj wagi neuronu zwycięskiego. e) Z którym wzorcem jest skojarzony wzorzec testowy? Zadanie 5. Sieć fuzzy ART jest używana do grupowania punktów w R 2. Zakłada się, że warstwa wyjściowa składa się z dwóch neuronów z parametrami podanymi w rysunku 2. 5

Rysunek 6: Wzorce do zadania 4 a) Podaj liczbę neuronów w warstwie wejściowej. b) Dla punktu zielonego i czerwonego, przeprowadź uczenia sieci, przyjmując próg podobieństwa ρ min = 0, 6, α = 1. c) Podaj interpretaję geometryczną wektora wag V 1 i V 2 przed uczeniem i po uczeniu. d) Jeśli wynik testu jest pozytywny modyfikuj wagi neuronu zwycięskiego. e) Do której grupy należy punkt o współrzędnych [0.8, 0.5]? Rysunek 7: Zbiór punktów do zadania 5 Zadanie 6. (Grupy kwiatów) (5 punktów) Implementować jeden z następujących algorytmów grupowania danych 6

algorytm k-średnich (k-means) or sieć Kohonena dla zbioru danych z opisami Irisów (Data/Iris). w celu podzielenia zbioru kwiatków na k grup. Wyznacz k, żeby łączny błąd grupawania jest najmniejszy (błąd grupowania jest sumą odległości punktów w grupie do jej centroida).? 7