Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Podobne dokumenty
Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 8 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej

Wstęp do sieci neuronowych, wykład 8 Samoorganizacja topologiczna, analiza składowych głównych.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

Lekcja 5: Sieć Kohonena i sieć ART

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Wst p do sieci neuronowych, wykªad 7 Uczenie nienadzorowane.

Data Mining Wykład 9. Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster. Plan wykładu. Sformułowanie problemu

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa

Elektroniczne materiały dydaktyczne do przedmiotu Wstęp do Sieci Neuronowych

Sieci Kohonena Grupowanie

wiedzy Sieci neuronowe

Sieci neuronowe i ich ciekawe zastosowania. Autor: Wojciech Jamrozy III rok SMP / Informatyka

Uczenie sieci radialnych (RBF)

Systemy uczące się Lab 4

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova

Elementy inteligencji obliczeniowej

Agnieszka Nowak Brzezińska

Algorytmy stochastyczne laboratorium 03

Hierarchiczna analiza skupień

Optymalizacja ciągła

Uczenie sieci typu MLP

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010

Uczenie sieci neuronowych i bayesowskich

Podstawy Sztucznej Inteligencji (PSZT)

WYMAGANIA EDUKACYJNE NIEZBĘDNE DO UZYSKANIA POSZCZEGÓLNYCH ŚRÓDROCZNYCH I ROCZNYCH OCEN KLASYFIKACYJNYCH Z MATEMATYKI

Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę

SIECI KOHONENA UCZENIE BEZ NAUCZYCIELA JOANNA GRABSKA-CHRZĄSTOWSKA

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

WYMAGANIA EDUKACYJNE Z MATEMATYKI W KLASIE II W PUBLICZNYM GIMNAZJUM NR 2 W ZESPOLE SZKÓŁ W RUDKACH

Metody numeryczne w przykładach

Agnieszka Nowak Brzezińska Wykład III

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Drzewa spinające MST dla grafów ważonych Maksymalne drzewo spinające Drzewo Steinera. Wykład 6. Drzewa cz. II

Grafy Alberta-Barabasiego

Metody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF.

E: Rekonstrukcja ewolucji. Algorytmy filogenetyczne

Adrian Horzyk

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Co to jest grupowanie

WYMAGANIE EDUKACYJNE Z MATEMATYKI W KLASIE II GIMNAZJUM. dopuszczającą dostateczną dobrą bardzo dobrą celującą

Sztuczna inteligencja

Agnieszka Nowak Brzezińska Wykład III

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2014/2015

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

SIECI RBF (RADIAL BASIS FUNCTIONS)

Algorytm Dijkstry znajdowania najkrótszej ścieżki w grafie

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

Kolorowanie wierzchołków Kolorowanie krawędzi Kolorowanie regionów i map. Wykład 8. Kolorowanie

Uniwersalne Środowisko Nauczania (USN) formy wsparcia dla studentów niepełnosprawnych

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Uczeń otrzymuje ocenę dostateczną, jeśli opanował wiadomości i umiejętności konieczne na ocenę dopuszczającą oraz dodatkowo:

Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych. Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS

Prawa potęgowe w grafach przepływu informacji dla geometrycznych sieci neuronowych

Sieć przesyłająca żetony CP (counter propagation)

MATEMATYKA DYSKRETNA - KOLOKWIUM 2

Wprowadzenie do Sieci Neuronowych Laboratorium 04 Algorytmy konstrukcyjne dla sieci skierowanych

Technikum Nr 2 im. gen. Mieczysława Smorawińskiego w Zespole Szkół Ekonomicznych w Kaliszu

str 1 WYMAGANIA EDUKACYJNE ( ) - matematyka - poziom podstawowy Dariusz Drabczyk

Relacja: III Seminarium Naukowe "Inżynierskie zastosowania technologii informatycznych"

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Sztuczne sieci neuronowe

Matematyka 3 wymagania edukacyjne

Grupowanie VQ. Kwantyzacja wektorowa (VQ Vector Quantization) SOM Self-Organizing Maps. Wstępny podział na grupy. Walidacja grupowania

Wprowadzenie do Sieci Neuronowych Laboratorium 05 Algorytm wstecznej propagacji błędu

DZIAŁ 1. STATYSTYKA DZIAŁ 2. FUNKCJE

Techniki uczenia maszynowego nazwa przedmiotu SYLABUS

SZTUCZNA INTELIGENCJA

P(F=1) F P(C1 = 1 F = 1) P(C1 = 1 F = 0) P(C2 = 1 F = 1) P(C2 = 1 F = 0) P(R = 1 C2 = 1) P(R = 1 C2 = 0)

Wstęp do sieci neuronowych, wykład 15, Neuron Hodgkina-Huxleya

Arkusz zawiera informacje prawnie chronione do momentu rozpoczęcia egzaminu. (dla klas trzecich liceum i klas czwartych technikum)

Kryteria oceniania z matematyki Klasa III poziom rozszerzony

Grupowanie Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 201/633

SIECI REKURENCYJNE SIECI HOPFIELDA

Sztuczne sieci neuronowe (SNN)

Eksploracja danych. Grupowanie. Wprowadzanie Definicja problemu Klasyfikacja metod grupowania Grupowanie hierarchiczne. Grupowanie wykład 1

Elementy kognitywistyki III: Modele i architektury poznawcze

Asocjacyjna reprezentacja danych i wnioskowanie

Reprezentacje grafów nieskierowanych Reprezentacje grafów skierowanych. Wykład 2. Reprezentacja komputerowa grafów

Transkrypt:

Wstęp do sieci neuronowych, wykład 7. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 212-11-28 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu w dziedzinach matematyczno-przyrodniczych realizowany w ramach Poddziałania 4.1.1 Programu Operacyjnego Kapitał Ludzki

1 Uczenie z nauczycielem Uczenie bez nauczyciela 2 dla danych symbolicznych

Uczenie z nauczycielem Uczenie bez nauczyciela 1 Uczenie z nauczycielem Uczenie bez nauczyciela 2 dla danych symbolicznych

Uczenie z nauczycielem Uczenie bez nauczyciela Uczenie z nauczycielem (przyp.) Dane: zestaw przykładów uczących E k poprawne odpowiedzi C k Cel: znalezienie wartości wag w ij (które minimalizuje pewien błąd)

Uczenie z nauczycielem Uczenie bez nauczyciela Uczenie z nauczycielem (przyp.)

Uczenie z nauczycielem Uczenie bez nauczyciela Uczenie bez nauczyciela Dane: zestaw przykładów uczących E k Cel: znalezienie wartości wag w ij (które minimalizuje pewien błąd)

Uczenie z nauczycielem Uczenie bez nauczyciela Uczenie bez nauczyciela

Uczenie z nauczycielem Uczenie bez nauczyciela Uczenie bez nauczyciela Donald Hebb (1949) Neurons that fire together, wire together. Neuron, który jako pierwszy zgłosił odpowiedź na dany impuls, jest uznawany za specjalistę i jego wagi są zmieniane tak, by rozpoznawał właśnie tę klasę impulsów.

Uczenie z nauczycielem Uczenie bez nauczyciela wykrywanie podobieństwa pomiędzy wzorcami (wg wybranego kryterium), analiza składowych głównych tworzenie map cech klasyfikacja określanie prototypu kodowanie

dla danych symbolicznych 1 Uczenie z nauczycielem Uczenie bez nauczyciela 2 dla danych symbolicznych

Motywacja dla danych symbolicznych Dane: dane uczące, numeryczne w przestrzeni R n graf G = (V, E)

Motywacja dla danych symbolicznych Cel: zmapować graf na dane uczące, tak aby był rozmieszczony równomiernie a sąsiednie wierzchołki leżały niedaleko (alternatywne sformułowanie zmapować dane uczące uczące na graf, tak aby podobne były w tym samym lub sąsiednich wierzchołkach i przypisanie danych do wierzchołka było równomierne

Algorytm dla danych symbolicznych 1 przypisujemy neuronom małe losowe wagi (pozycje w R d ) p 1...p d 2 dla t = 1..T wykonujemy: 1 losujemy przykład P, 2 znajdujemy jednostkę v V, której zestaw wag π(v) leży najbliżej P, 3 dla neuronu zwycięzcy i wszystkich jego sąsiadów s(v) wykonujemy: π(w) = π(w) + α(t)(p π(w)), gdzie α(t) maleje od 1 do wraz z postępem algorytmu, np. α(t) = 1 t 1 T,

Topologie sieci dla danych symbolicznych

Przykład dla danych symbolicznych 2 15-4 -3 2 15 1-2 1 5-1 5-5 -1-1 -5 5 1 2 3 1 4-5 -1-1 -5 5

Motywacja dla danych symbolicznych ograniczyć wzrost wag zwiększyć gładkość dopasowania zwiększyć specjalizację w obrębie klas

dla danych symbolicznych 1 ustawiamy losowe wagi neuronom, 2 dla t = 1..T wykonujemy: 1 losujemy przykład P, 2 znajdujemy jednostkę v V, której zestaw wag π(v) leży najbliżej P, 3 dla neuronu zwycięzcy i wierzchołków odległych o co najwyżej λ krawędzi: gdzie G(w, v) = π(w) := π(w) + α(t)g(w, v)(p π(w)), { 1 w = v < 1 i malejąca wraz z ilością krawędzi między v i w

Kwadratowa funkcja sąsiedztwa dla danych symbolicznych G(w, v) = { 1 ρ(w, v) λ w p. p. 1.8.6.4.2 6 4 2 4 2-2 -4-2 M. Czoków, J. Piersa -4-6 WSN 212/213 Wykład 7 6

dla danych symbolicznych Gaussowska funkcja sąsiedztwa dla rosnącej λ G(w, v) = exp( ρ2 (w, v) 2λ 2 ). click 2 1.5 1.5 6 4 2 4 2 6

Funkcja sąsiedztwa - mexican hat dla danych symbolicznych MH(v, w) = 2exp( ρ2 (v, w) 2λ 2 1 ) exp( ρ2 (v, w) 2λ 2 ), λ 1 < λ 2 2 1.5 -.5-16 4 2-2 -4-6 -6-4 -2 2 4 6

Przykład dla danych symbolicznych

Przykład dla danych symbolicznych kliknij Siatka prostokątna rozprowadzona przez algorytm Kohonena na trzech ścianach (o wspólnym wierzchołku) sześcianu.

Przykład dla danych symbolicznych kliknij Siatka prostokątna rozprowadzona przez rozszerzony algorytm Kohonena na trzech ścianach (o wspólnym wierzchołku) sześcianu. W algorytmie zastosowano gaussowską funkcję sąsiedztwa.

Przykład dla danych symbolicznych kliknij Siatka prostokątna rozprowadzona przez algorytm Kohonena na powierzchni kuli.

Przykład dla danych symbolicznych kliknij Siatka prostokątna rozprowadzona przez rozszerzony algorytm Kohonena na powierzchni kuli. W algorytmie zastosowano gaussowską funkcję sąsiedztwa.

dla danych symbolicznych Wizualizacja danych za pomocą danej struktury przestrzennej (zadanej przez graf) w innym wymiarze (przykłady są wtedy rozłożone jednostajnie na obszarze reprezentacji) przejście do wyższego wymiaru (np. krzywa wypełniająca przestrzeń), przejście do niższego wymiaru (wizualizacja skomplikowanych struktur z zachowaniem topologii, ale nie odległości).

Strefy wpływów dla danych symbolicznych 4 4 3 3 2 2 1 1-1 -1-2 -2-3 -3-4 -6-4 -2 2 4 6-4 -6-4 -2 2

Odległość Minkowskiego dla danych symbolicznych Odległość Minkowskiego jest to uogólniona funkcja odległości między punktami przestrzeni euklidesowej. Nazywana jest również odległością L p. Wzór na tę funkcję w zależności od p ma postać: K d(x, y) = ( (x k y k ) p ) 1 p. k=1

Odległość Minkowskiego 1.5 dla danych symbolicznych m=.5 m=1 m=1.5 m=2 m=4 m=1 -.5-1 -1 -.5.5 1 1.5

Najbliższy punkt w różnych metrykach dla danych symbolicznych 6 6 4 4 2 2-2 -2-4 P = 1-4 P = 2-6 -6-4 -2 2 4 6-6 -6-4 -2 2 4 6

Najbliższy punkt w różnych metrykach dla danych symbolicznych 6 6 4 4 2 2-2 -2-4 P = 3-4 P = 1-6 -6-4 -2 2 4 6-6 -6-4 -2 2 4 6

Motywacja dla danych symbolicznych Chcemy dostosować algorytm Kohonena, dla wejść, które mają współrzędne symboliczne (opisane wektorem zerojedynkowym - prawda lub fałsz) Zał. dla danych symbolicznych dana jest funkcją odległości d. d(x, x) = d(x, y) = d(y, x)

dla danych symbolicznych dla wejść symbolicznych 1 każdy węzeł w grafie otrzymuje prototyp (typowy przedstawiciel klasy) oraz listę przykładów (klasę którą reprezentuje prototyp) 2 przypisz węzłom losowe startowe prototypy, 3 powtarzaj wiele razy: wyczyść listy klasyfikacyjne, każdemu wierzchołkowi w przypisz listę takich przykładów, że prototyp p(w) jest do nich najbliższy, każdemu wierzchołkowi w przypisz nowy prototyp medianę uogólnioną z listy klasyfikacyjnej w i list sąsiadów w, 4 zwróć sieć.

Mediana uogólniona dla danych symbolicznych Mediana uogólniona zbioru {a 1,..., a n } element a i, który minimalizuje j d 2 (a i, a j ).