Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Podobne dokumenty
Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 8 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 8 Samoorganizacja topologiczna, analiza składowych głównych.

Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

Wst p do sieci neuronowych, wykªad 7 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Lekcja 5: Sieć Kohonena i sieć ART

Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

Systemy uczące się Lab 4

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova

Elementy inteligencji obliczeniowej

Sieci Kohonena Grupowanie

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010

Metody numeryczne w przykładach

Uczenie sieci radialnych (RBF)

Algorytmy stochastyczne laboratorium 03

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

E: Rekonstrukcja ewolucji. Algorytmy filogenetyczne

Uczenie sieci typu MLP

Optymalizacja ciągła

Data Mining Wykład 9. Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster. Plan wykładu. Sformułowanie problemu

Prawa potęgowe w grafach przepływu informacji dla geometrycznych sieci neuronowych

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Sztuczna inteligencja

wiedzy Sieci neuronowe

Hierarchiczna analiza skupień

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2014/2015

MATEMATYKA DYSKRETNA - KOLOKWIUM 2

Drzewa spinające MST dla grafów ważonych Maksymalne drzewo spinające Drzewo Steinera. Wykład 6. Drzewa cz. II

Uczenie sieci neuronowych i bayesowskich

Grafy Alberta-Barabasiego

SIECI KOHONENA UCZENIE BEZ NAUCZYCIELA JOANNA GRABSKA-CHRZĄSTOWSKA

Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę

Elektroniczne materiały dydaktyczne do przedmiotu Wstęp do Sieci Neuronowych

Algorytm Dijkstry znajdowania najkrótszej ścieżki w grafie

Co to jest grupowanie

Uniwersalne Środowisko Nauczania (USN) formy wsparcia dla studentów niepełnosprawnych

Wprowadzenie do Sieci Neuronowych Laboratorium 04 Algorytmy konstrukcyjne dla sieci skierowanych

SIECI RBF (RADIAL BASIS FUNCTIONS)

Sieci neuronowe i ich ciekawe zastosowania. Autor: Wojciech Jamrozy III rok SMP / Informatyka

Podstawy Sztucznej Inteligencji (PSZT)

Kolorowanie wierzchołków Kolorowanie krawędzi Kolorowanie regionów i map. Wykład 8. Kolorowanie

Wprowadzenie do Sieci Neuronowych Laboratorium 05 Algorytm wstecznej propagacji błędu

Agnieszka Nowak Brzezińska

Metody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF.

WYMAGANIA EDUKACYJNE Z MATEMATYKI W KLASIE II W PUBLICZNYM GIMNAZJUM NR 2 W ZESPOLE SZKÓŁ W RUDKACH

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Wstęp do sieci neuronowych, wykład 15, Neuron Hodgkina-Huxleya

Wstęp do sieci neuronowych, wykład 09, Walidacja jakości uczenia. Metody statystyczne.

Tryb i zasady przyznawania Stypendium Wypłata Stypendium Postanowienia ko cowe

Sztuczne sieci neuronowe (SNN)

Wprowadzenie. SOM jest skrótem od Self Organizing Maps, czyli Samoorganizujące się mapy.

Digraf. 13 maja 2017

Sieć przesyłająca żetony CP (counter propagation)

Reprezentacje grafów nieskierowanych Reprezentacje grafów skierowanych. Wykład 2. Reprezentacja komputerowa grafów

Grafy i sieci wybrane zagadnienia wykład 3: modele służące porównywaniu sieci

1. Logika, funkcje logiczne, preceptron.

Grupowanie VQ. Kwantyzacja wektorowa (VQ Vector Quantization) SOM Self-Organizing Maps. Wstępny podział na grupy. Walidacja grupowania

Algorytmy aproksymacyjne dla problemów stochastycznych

Wstęp do sieci neuronowych, wykład 13-14, Walidacja jakości uczenia. Metody statystyczne.

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Funkcje charakterystyczne zmiennych losowych, linie regresji 1-go i 2-go rodzaju

Adrian Horzyk

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

Grupowanie Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 201/633

Optymalizacja. Przeszukiwanie lokalne

a) 7 b) 19 c) 21 d) 34

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Agnieszka Nowak Brzezińska Wykład III

WYKŁAD 9 METODY ZMIENNEJ METRYKI

Porównanie algorytmów wyszukiwania najkrótszych ścieżek międz. grafu. Daniel Golubiewski. 22 listopada Instytut Informatyki

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Arkusz zawiera informacje prawnie chronione do momentu rozpoczęcia egzaminu. (dla klas trzecich liceum i klas czwartych technikum)

Algorytm grupowania danych typu kwantyzacji wektorów

Wstęp do sieci neuronowych, wykład 01 Neuron biologiczny. Model perceptronu prostego.

SIECI REKURENCYJNE SIECI HOPFIELDA

Algorytmy mrówkowe. H. Bednarz. Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Inteligentne systemy informatyczne

Nauczanie zdalne przedmiotów matematycznych

KONSPEKT LEKCJI MATEMATYKI (2 LEKCJE) W III KLASIE GIMNAZJUM OPRACOWAŁA RENATA WOŁCZYŃSKA

Zofia Kruczkiewicz, Algorytmu i struktury danych, Wykład 14, 1

Transkrypt:

Wstęp do sieci neuronowych, wykład 7. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 213-11-19 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu w dziedzinach matematyczno-przyrodniczych realizowany w ramach Poddziałania 4.1.1 Programu Operacyjnego Kapitał Ludzki

1 Uczenie z nauczycielem Uczenie bez nauczyciela 2 dla danych symbolicznych

Uczenie z nauczycielem Uczenie bez nauczyciela 1 Uczenie z nauczycielem Uczenie bez nauczyciela 2 dla danych symbolicznych

Uczenie z nauczycielem Uczenie bez nauczyciela Uczenie z nauczycielem (przyp.) Dane: zestaw przykładów uczących E k poprawne odpowiedzi C k Cel: znalezienie wartości wag w ij (które minimalizuje pewien błąd)

Uczenie z nauczycielem Uczenie bez nauczyciela Uczenie z nauczycielem (przyp.) Source: http://www.classicgaming.cc/classics/ spaceinvaders/wallpaper.php

Uczenie z nauczycielem Uczenie bez nauczyciela Uczenie bez nauczyciela Dane: zestaw przykładów uczących E k Cel: znalezienie wartości wag w ij (które minimalizuje pewien błąd)

Uczenie z nauczycielem Uczenie bez nauczyciela Uczenie bez nauczyciela

dla danych symbolicznych 1 Uczenie z nauczycielem Uczenie bez nauczyciela 2 dla danych symbolicznych

Motywacja dla danych symbolicznych Dane: dane uczące, numeryczne w przestrzeni R n graf G = (V, E)

Motywacja dla danych symbolicznych Cel: zmapować graf na dane uczące, tak aby był rozmieszczony równomiernie a sąsiednie wierzchołki leżały niedaleko (alternatywne sformułowanie zmapować dane uczące uczące na graf, tak aby podobne były w tym samym lub sąsiednich wierzchołkach i przypisanie danych do wierzchołka było równomierne

Algorytm dla danych symbolicznych 1 przypisujemy neuronom małe losowe wagi (pozycje w R d ) p 1...p d 2 dla t = 1..T wykonujemy: 1 losujemy przykład P, 2 znajdujemy jednostkę v V, której zestaw wag π(v) leży najbliżej P, 3 dla neuronu zwycięzcy i wszystkich jego sąsiadów s(v) wykonujemy: π(w) = π(w) + α(t)(p π(w)), gdzie α(t) maleje od 1 do wraz z postępem algorytmu, np. α(t) = 1 t 1 T,

Topologie sieci dla danych symbolicznych

Przykład dla danych symbolicznych 2 15-4 -3 2 15 1-2 1 5-1 5-5 -1-1 -5 5 1 2 3 1 4-5 -1-1 -5 5

Motywacja dla danych symbolicznych ograniczyć wzrost wag zwiększyć gładkość dopasowania zwiększyć specjalizację w obrębie klas

dla danych symbolicznych 1 ustawiamy losowe wagi neuronom, 2 dla t = 1..T wykonujemy: 1 losujemy przykład P, 2 znajdujemy jednostkę v V, której zestaw wag π(v) leży najbliżej P, 3 dla neuronu zwycięzcy i wierzchołków odległych o co najwyżej λ krawędzi: gdzie G(w, v) = π(w) := π(w) + α(t)g(w, v)(p π(w)), { 1 w = v < 1 i malejąca wraz z ilością krawędzi między v i w

Kwadratowa funkcja sąsiedztwa dla danych symbolicznych G(w, v) = { 1 ρ(w, v) λ w p. p. 1.8.6.4.2 6 4 2 4 2-2 -4-2 M. Czoków, J. Piersa -4-6 WSN 212/213 Wykład 7 6

dla danych symbolicznych Gaussowska funkcja sąsiedztwa dla rosnącej λ G(w, v) = exp( ρ2 (w, v) 2λ 2 ). click 2 1.5 1.5 6 4 2 4 2 6

Funkcja sąsiedztwa - mexican hat dla danych symbolicznych MH(v, w) = 2exp( ρ2 (v, w) 2λ 2 1 ) exp( ρ2 (v, w) 2λ 2 ), λ 1 < λ 2 2 1.5 -.5-16 4 2-2 -4-6 -6-4 -2 2 4 6

Przykład dla danych symbolicznych

Przykład dla danych symbolicznych kliknij Kohonen: G =siatka, E = sześcian.

Przykład dla danych symbolicznych kliknij Kohonen + Gauss: G =siatka, E = sześcian.

Przykład dla danych symbolicznych kliknij Kohonen: G =siatka, E = sfera 2d.

Przykład dla danych symbolicznych kliknij Kohonen+Gauss: G =siatka, E = sfera 2d.

dla danych symbolicznych Wizualizacja danych za pomocą danej struktury przestrzennej (zadanej przez graf) w innym wymiarze (przykłady są wtedy rozłożone jednostajnie na obszarze reprezentacji) przejście do wyższego wymiaru (np. krzywa wypełniająca przestrzeń), przejście do niższego wymiaru (wizualizacja skomplikowanych struktur z zachowaniem topologii, ale nie odległości).

Strefy wpływów dla danych symbolicznych 4 4 3 3 2 2 1 1-1 -1-2 -2-3 -3-4 -6-4 -2 2 4 6-4 -6-4 -2 2

Odległość Minkowskiego dla danych symbolicznych Odległość Minkowskiego jest to uogólniona funkcja odległości między punktami przestrzeni euklidesowej. Nazywana jest również odległością L p. Wzór na tę funkcję w zależności od p ma postać: K d(x, y) = ( (x k y k ) p ) 1 p. k=1

Odległość Minkowskiego 1.5 dla danych symbolicznych m=.5 m=1 m=1.5 m=2 m=4 m=1 -.5-1 -1 -.5.5 1 1.5

Najbliższy punkt w różnych metrykach dla danych symbolicznych 6 6 4 4 2 2-2 -2-4 P = 1-4 P = 2-6 -6-4 -2 2 4 6-6 -6-4 -2 2 4 6

Najbliższy punkt w różnych metrykach dla danych symbolicznych 6 6 4 4 2 2-2 -2-4 P = 3-4 P = 1-6 -6-4 -2 2 4 6-6 -6-4 -2 2 4 6

Motywacja dla danych symbolicznych Chcemy dostosować algorytm Kohonena, dla wejść, które mają współrzędne symboliczne (opisane wektorem zerojedynkowym - prawda lub fałsz) Zał. dla danych symbolicznych dana jest funkcją odległości d. d(x, x) = d(x, y) = d(y, x)

dla danych symbolicznych dla wejść symbolicznych 1 każdy węzeł w grafie otrzymuje prototyp (typowy przedstawiciel klasy) oraz listę przykładów (klasę którą reprezentuje prototyp) 2 przypisz węzłom losowe startowe prototypy, 3 powtarzaj wiele razy: wyczyść listy klasyfikacyjne, każdemu wierzchołkowi w przypisz listę takich przykładów, że prototyp p(w) jest do nich najbliższy, każdemu wierzchołkowi w przypisz nowy prototyp medianę uogólnioną z listy klasyfikacyjnej w i list sąsiadów w, 4 zwróć sieć.

Mediana uogólniona dla danych symbolicznych Mediana uogólniona zbioru {a 1,..., a n } element a i, który minimalizuje j d 2 (a i, a j ).