Wstęp do sieci neuronowych, wykład 8 Uczenie nienadzorowane.

Podobne dokumenty
Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych, wykład 8 Samoorganizacja topologiczna, analiza składowych głównych.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

Sieci Kohonena Grupowanie

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Lekcja 5: Sieć Kohonena i sieć ART

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

Uczenie sieci typu MLP

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

Uczenie sieci neuronowych i bayesowskich

Wst p do sieci neuronowych, wykªad 7 Uczenie nienadzorowane.

Sieci neuronowe i ich ciekawe zastosowania. Autor: Wojciech Jamrozy III rok SMP / Informatyka

Wstęp do sieci neuronowych, wykład 01 Neuron biologiczny. Model perceptronu prostego.

Wstęp do sieci neuronowych, wykład 01 Neuron biologiczny. Model perceptronu prostego.

Hierarchiczna analiza skupień

Optymalizacja ciągła

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Data Mining Wykład 9. Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster. Plan wykładu. Sformułowanie problemu

Uczenie sieci radialnych (RBF)

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova

Elementy inteligencji obliczeniowej

Co to jest grupowanie

Grupowanie Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 201/633

Wprowadzenie do Sieci Neuronowych Laboratorium 05 Algorytm wstecznej propagacji błędu

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

wiedzy Sieci neuronowe

Elektroniczne materiały dydaktyczne do przedmiotu Wstęp do Sieci Neuronowych

Prawa potęgowe w grafach przepływu informacji dla geometrycznych sieci neuronowych

Metody numeryczne w przykładach

Uniwersalne Środowisko Nauczania (USN) formy wsparcia dla studentów niepełnosprawnych

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Algorytm grupowania danych typu kwantyzacji wektorów

Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę

Drzewa spinające MST dla grafów ważonych Maksymalne drzewo spinające Drzewo Steinera. Wykład 6. Drzewa cz. II

Symulacje geometrycznych sieci neuronowych w środowisku rozproszonym

Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych. Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

SPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Grupowanie VQ. Kwantyzacja wektorowa (VQ Vector Quantization) SOM Self-Organizing Maps. Wstępny podział na grupy. Walidacja grupowania

Problemy z ograniczeniami

Wstęp do sieci neuronowych, wykład 15, Neuron Hodgkina-Huxleya

Sieć przesyłająca żetony CP (counter propagation)

Algorytmy stochastyczne laboratorium 03

Nauczanie zdalne przedmiotów matematycznych

WYKŁAD 9 METODY ZMIENNEJ METRYKI

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

SIECI RBF (RADIAL BASIS FUNCTIONS)

Metody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF.

E: Rekonstrukcja ewolucji. Algorytmy filogenetyczne

Matematyczne Podstawy Informatyki

Monitorowanie i Diagnostyka w Systemach Sterowania

Algorytm grupowania danych typu kwantyzacji wektorów

BADANIE DIAGNOSTYCZNE W ROKU SZKOLNYM 2011/2012

WYMAGANIA EDUKACYJNE Z MATEMATYKI W KLASIE II W PUBLICZNYM GIMNAZJUM NR 2 W ZESPOLE SZKÓŁ W RUDKACH

Symulacyjna analiza efektywnoêci sieci neuronowych w klasyfikacji bezwzorcowej

ALGORYTMICZNA I STATYSTYCZNA ANALIZA DANYCH

Prawdopodobieństwo geometryczne

Redukcja wariancji w metodach Monte-Carlo

Tryb i zasady przyznawania Stypendium Wypłata Stypendium Postanowienia ko cowe

PRÓBNY EGZAMIN MATURALNY

ID1SII4. Informatyka I stopień (I stopień / II stopień) ogólnoakademicki (ogólno akademicki / praktyczny) stacjonarne (stacjonarne / niestacjonarne)

Statystyki teoriografowe grafów funkcjonalnych w sieciach neuronowych

ZESTAW POPRAWNYCH ODPOWIEDZI DO ARKUSZA - ETAP WOJEWÓDZKI

Grafy Alberta-Barabasiego

Kolorowanie wierzchołków Kolorowanie krawędzi Kolorowanie regionów i map. Wykład 8. Kolorowanie

Wprowadzenie do Sieci Neuronowych Laboratorium 04 Algorytmy konstrukcyjne dla sieci skierowanych

Jak trudne jest numeryczne całkowanie (O złożoności zadań ciągłych)

Algorytmy mrówkowe. H. Bednarz. Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Inteligentne systemy informatyczne

Zagadnienia na powtórzenie

8. Drzewa decyzyjne, bagging, boosting i lasy losowe

WYMAGANIE EDUKACYJNE Z MATEMATYKI W KLASIE II GIMNAZJUM. dopuszczającą dostateczną dobrą bardzo dobrą celującą

Reprezentacje grafów nieskierowanych Reprezentacje grafów skierowanych. Wykład 2. Reprezentacja komputerowa grafów

Lista zadania nr 4 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie

UMOWA PARTNERSKA. - zwanymi dalej wydziałami współprowadzącymi.

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Systemy uczące się Lab 4

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010

Algorytmy stochastyczne Wykład 12, Uczenie parametryczne w sieciach bayesowskich

Wstęp do sieci neuronowych, wykład 09, Walidacja jakości uczenia. Metody statystyczne.

Algorytmy metaheurystyczne Wykład 6. Piotr Syga

Algorytmy stochastyczne, wykład 01 Podstawowy algorytm genetyczny

Transkrypt:

Wstęp do sieci neuronowych, wykład 8. M. Czoków, J. Piersa, A. Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 1-811-6 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu w dziedzinach matematyczno-przyrodniczych realizowany w ramach Poddziałania.1.1 Programu Operacyjnego Kapitał Ludzki

1 Uczenie z nauczycielem Uczenie bez nauczyciela 3 Przykład

Uczenie z nauczycielem Uczenie bez nauczyciela 1 Uczenie z nauczycielem Uczenie bez nauczyciela 3 Przykład

Uczenie z nauczycielem Uczenie bez nauczyciela Uczenie z nauczycielem (przyp.) Dane: zestaw przykładów uczących E k poprawne odpowiedzi C k Cel: znalezienie wartości wag w ij (które minimalizuje pewien błąd)

Uczenie z nauczycielem Uczenie bez nauczyciela Uczenie z nauczycielem (przyp.) Source: http://www.classicgaming.cc/classics/ spaceinvaders/wallpaper.php

Uczenie z nauczycielem Uczenie bez nauczyciela Uczenie bez nauczyciela Dane: zestaw przykładów uczących E k Cel: znalezienie wartości wag w ij (które minimalizuje pewien błąd)

Uczenie z nauczycielem Uczenie bez nauczyciela Uczenie bez nauczyciela

1 Uczenie z nauczycielem Uczenie bez nauczyciela 3 Przykład

Motywacja Neural Networks - A Systematic Introduction, Raul Rojas, Springer-Verlag, Berlin, New-York, 1996

Motywacja http://www.is.umk.pl/ duch/ref/1/1-plastic/motorsomato.gif

Motywacja Dane: dane uczące, numeryczne w przestrzeni R n graf G = (V, E)

Motywacja Cel: zmapować graf na dane uczące, tak aby był rozmieszczony równomiernie a sąsiednie wierzchołki leżały niedaleko alternatywne sformułowanie: zmapować dane uczące na graf, tak aby podobne były w tym samym lub sąsiednich wierzchołkach i przypisanie danych do wierzchołka było równomierne

Algorytm 1 przypisujemy neuronom małe losowe wagi (pozycje w R d ) p 1...p d dla t = 1..T wykonujemy: 1 losujemy przykład P, znajdujemy jednostkę v V, której zestaw wag π(v) leży najbliżej P, 3 dla neuronu zwycięzcy i wszystkich jego sąsiadów s(v) wykonujemy: π(w) = π(w) + α(t)(p π(w)), gdzie α(t) maleje od 1 do wraz z postępem algorytmu, np. α(t) = 1 t 1 T,

Topologie sieci

Przykład 15 - -3 15 1-1 5-1 5-5 -1-1 -5 5 1 3 1-5 -1-1 -5 5

Motywacja ograniczyć wzrost wag zwiększyć gładkość dopasowania zwiększyć specjalizację w obrębie klas

1 ustawiamy losowe wagi neuronom, dla t = 1..T wykonujemy: 1 losujemy przykład P, znajdujemy jednostkę v V, której zestaw wag π(v) leży najbliżej P, 3 dla neuronu zwycięzcy i wierzchołków odległych o co najwyżej λ krawędzi: gdzie G(w, v) = π(w) := π(w) + α(t)g(w, v)(p π(w)), { 1 w = v < 1 i malejąca wraz z ilością krawędzi między v i w

Kwadratowa funkcja sąsiedztwa G(w, v) = { 1 ρ(w, v) λ w p. p. 1.8.6.. 6 - - - - M. Czoków, J. Piersa, A. Rutkowski -6-6 WSN 18/19 Wykład 8 6

Gaussowska funkcja sąsiedztwa dla rosnącej λ G(w, v) = exp( ρ (w, v) λ ). click 1.5 1.5 6 6

Funkcja sąsiedztwa - mexican hat MH(v, w) = exp( ρ (v, w) λ 1 ) exp( ρ (v, w) λ ), λ 1 < λ 1.5 -.5-16 - - -6-6 - - 6

Przykład: RGB

Przykład: RGB

Przykład kliknij Kohonen: G =siatka, E = sześcian.

Przykład kliknij Kohonen + Gauss: G =siatka, E = sześcian.

Przykład kliknij Kohonen: G =siatka, E = sfera d.

Przykład kliknij Kohonen+Gauss: G =siatka, E = sfera d.

Wizualizacja danych za pomocą danej struktury przestrzennej (zadanej przez graf) w innym wymiarze (przykłady są wtedy rozłożone jednostajnie na obszarze reprezentacji) przejście do wyższego wymiaru (np. krzywa wypełniająca przestrzeń), przejście do niższego wymiaru (wizualizacja skomplikowanych struktur z zachowaniem topologii, ale nie odległości).

Strefy wpływów 3 3 1 1-1 -1 - - -3-3 - -6 - - 6 - -6 - -

Odległość Minkowskiego Odległość Minkowskiego jest to uogólniona funkcja odległości między punktami przestrzeni euklidesowej. Nazywana jest również odległością L p. Wzór na tę funkcję w zależności od p ma postać: K d(x, y) = ( (x k y k ) p ) 1 p. k=1

Odległość Minkowskiego 1.5 m=.5 m=1 m=1.5 m= m= m=1 -.5-1 -1 -.5.5 1 1.5

Najbliższy punkt w różnych metrykach 6 6 - - - P = 1 - P = -6-6 - - 6-6 -6 - - 6

Najbliższy punkt w różnych metrykach 6 6 - - - P = 3 - P = 1-6 -6 - - 6-6 -6 - - 6

Przejście do wyższego wymiaru Rysunek za Stanisław Ossowski, Sieci neuronowe w ujęciu algorytmicznym.

Przykład 1 Uczenie z nauczycielem Uczenie bez nauczyciela 3 Przykład

Przykład Dane: Wynik: zbiór punktów w R n : { E = E (1),.., E (m)}, E (i) R n, oczekiwana liczba kategorii k m. podział zbioru E na klastry K 1... K k, każdy z klastrów powinien zawierać punkty, które leżą w pobliżu siebie, klastry są parami rozłączne i j K i K j =.

Środek ciężkości Przykład Środkiem ciężkości zbioru punktów { x (1),.., x (n)}, x (i) R n nazywamy punkt: i x (i) m (i) i m(i), gdzie: m (i) > masa (waga) i-tego punktu.

Przykład 1 ustal ilość kategorii k, przypisz przykłady kategoriom, 3 dla każdej kategorii oblicz jej środek ciężkości, powtarzaj wiele razy, wybierz przykład E, znajdź dla E kategorię o najbliższym środku ciężkości, jeżeli nie był do niej przypisany, to przypisz tam E, uaktualnij środki ciężkości w obu kategoriach (tj. wypisanej i wpisanej), zakończ, gdy stan się ustabilizuje,

Przykład działania 1/5 Przykład 1 1 8 6-6 - - 6

Przykład działania /5 Przykład 1 1 8 6-6 - - 6

Przykład działania 3/5 Przykład 1 1 8 6-6 - - 6

Przykład działania /5 Przykład 1 1 8 6-6 - - 6

Przykład działania 5/5 Przykład 1 1 8 6-6 - - 6

Do czego wykorzystać Przykład 1 1 1.5 8 1 6.5-6 - - 6-6 - - 6 6 8 1 1

Do czego wykorzystać Przykład out 1.5 1.5 1 1.5.5-6 - - 6 6 8 1 1-6 - - 6 6 8 1 1

Przykład Inicjalizacja środków ciężkości w k-means++ 1 Przydziel losowemu przykładowi pierwszą kategorię. Dla każdego przykładu E (i), któremu nie została przypisana żadna kategoria, oblicz D(E (i) ) odległość pomiędzy przykładem, a najbliższym środkiem ciężkości. 3 Wylosuj przykład, któremu przydzielona zostanie kolejna kategoria; każdy przykład E (i) może zostać wylosowany z prawdopodobieństwem proporcjonalnym do D (E (i) ). Powtarzaj krok i 3, aż zostanie wyznaczonych k środków ciężkości.