Prawa potęgowe w grafach przepływu informacji dla geometrycznych sieci neuronowych

Podobne dokumenty
Symulacje geometrycznych sieci neuronowych w środowisku rozproszonym

Grafy Alberta-Barabasiego

Obszary strukturalne i funkcyjne mózgu

Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Algorytm Dijkstry znajdowania najkrótszej ścieżki w grafie

Drzewa spinające MST dla grafów ważonych Maksymalne drzewo spinające Drzewo Steinera. Wykład 6. Drzewa cz. II

draft Prawa bezskalowe w grafach przepływu informacji dla geometrycznych sieci neuronowych, symulacje w środowisku współbieżnym

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

MATEMATYKA DYSKRETNA - MATERIAŁY DO WYKŁADU GRAFY

Algorytmy metaheurystyczne Wykład 6. Piotr Syga

Graf. Definicja marca / 1

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Modelowanie sieci złożonych

Algorytmy mrówkowe (optymalizacja kolonii mrówek, Ant Colony optimisation)

Algorytmy wyznaczania centralności w sieci Szymon Szylko

Algorytmy mrówkowe w dynamicznych problemach transportowych

Zestaw 2: Zmienne losowe. 0, x < 1, 2, 2 x, 1 1 x, 1 x, F 9 (x) =

Matematyka dyskretna. Andrzej Łachwa, UJ, /14

Przykłady grafów. Graf prosty, to graf bez pętli i bez krawędzi wielokrotnych.

Reprezentacje grafów nieskierowanych Reprezentacje grafów skierowanych. Wykład 2. Reprezentacja komputerowa grafów

Algorytmiczna teoria grafów

Prawdopodobieństwo i statystyka

Wstęp do sieci neuronowych, wykład 8 Uczenie nienadzorowane.

Prawdopodobieństwo i statystyka r.

Podstawowe własności grafów. Wykład 3. Własności grafów

1. Pokaż, że estymator MNW parametru β ma postać β = nieobciążony. Znajdź estymator parametru σ 2.

Matematyczne Podstawy Informatyki

WYŻSZA SZKOŁA INFORMATYKI STOSOWANEJ I ZARZĄDZANIA

Drzewa. Jeżeli graf G jest lasem, który ma n wierzchołków i k składowych, to G ma n k krawędzi. Własności drzew

Przecięcia odcinków. Wykład /07

KURS MATEMATYKA DYSKRETNA

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

PRÓBNY EGZAMIN MATURALNY

Algorytmika Problemów Trudnych

Algorytmiczna teoria grafów

Indukcja matematyczna

Droga i cykl Eulera Przykłady zastosowania drogi i cyku Eulera Droga i cykl Hamiltona. Wykład 4. Droga i cykl Eulera i Hamiltona

Optymalizacja. Symulowane wyżarzanie

Suma dwóch grafów. Zespolenie dwóch grafów

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

Algorytmy stochastyczne laboratorium 03

Porównanie algorytmów wyszukiwania najkrótszych ścieżek międz. grafu. Daniel Golubiewski. 22 listopada Instytut Informatyki

Grafem nazywamy strukturę G = (V, E): V zbiór węzłów lub wierzchołków, Grafy dzielimy na grafy skierowane i nieskierowane:

Statystyki teoriografowe grafów funkcjonalnych w sieciach neuronowych

Uczenie sieci neuronowych i bayesowskich

Programowanie sieciowe. Tadeusz Trzaskalik

Digraf. 13 maja 2017

Czy istnieje zamknięta droga spaceru przechodząca przez wszystkie mosty w Królewcu dokładnie jeden raz?

PRÓBNY EGZAMIN MATURALNY

Hierarchical Cont-Bouchaud model

Wykład 4. Droga i cykl Eulera i Hamiltona

166 Wstęp do statystyki matematycznej

Wprowadzenie do Sieci Neuronowych Laboratorium 05 Algorytm wstecznej propagacji błędu

( ) Arkusz I Zadanie 1. Wartość bezwzględna Rozwiąż równanie. Naszkicujmy wykresy funkcji f ( x) = x + 3 oraz g ( x) 2x

Kujawsko-Pomorskie Centrum Edukacji Nauczycieli w Bydgoszczy PLACÓWKA AKREDYTOWANA KLUCZ PUNKTOWANIA ZADAŃ ZAMKNIĘTYCH

Kolorowanie wierzchołków

Matematyka dyskretna. Andrzej Łachwa, UJ, /14

ALHE. prof. Jarosław Arabas semestr 15Z

Testowanie hipotez statystycznych. Wprowadzenie

Wymagania na poszczególne oceny szkolne z. matematyki. dla uczniów klasy IIIa i IIIb. Gimnazjum im. Jana Pawła II w Mętowie. w roku szkolnym 2015/2016

Próbny egzamin maturalny z matematyki Poziom rozszerzony

TEORIA GRAFÓW I SIECI

Algorytmy równoległe. Rafał Walkowiak Politechnika Poznańska Studia inżynierskie Informatyka 2010

PRÓBNY EGZAMIN MATURALNY

Metody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF.

Techniki optymalizacji

Algorytmy Równoległe i Rozproszone Część V - Model PRAM II

Wstęp do sieci neuronowych, wykład 14 Maszyna Boltzmanna

Laboratorium nr 7. Zmienne losowe typu skokowego.

Analiza Algorytmów 2018/2019 (zadania na laboratorium)

Teoria grafów podstawy. Materiały pomocnicze do wykładu. wykładowca: dr Magdalena Kacprzak

Algorytmy grafowe. Wykład 1 Podstawy teorii grafów Reprezentacje grafów. Tomasz Tyksiński CDV

KURS MATEMATYKA DYSKRETNA

Co to jest grupowanie

PRÓBNY EGZAMIN MATURALNY Z MATEMATYKI

Matematyka dyskretna. Andrzej Łachwa, UJ, /15

Algorytmy mrówkowe. H. Bednarz. Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Inteligentne systemy informatyczne

Funkcje dwóch zmiennych

6. Wstępne pojęcia teorii grafów

Przejście fazowe w sieciach złożonych w modelu Axelroda

PDF created with FinePrint pdffactory Pro trial version

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

PRÓBNY EGZAMIN MATURALNY

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych

Wersja testu A 18 czerwca 2009 r.

Prawdopodobieństwo i statystyka

Testowanie hipotez statystycznych.

Wykład 8. Drzewo rozpinające (minimum spanning tree)

E: Rekonstrukcja ewolucji. Algorytmy filogenetyczne

1 + x 1 x 1 + x + 1 x. dla x 0.. Korzystając z otrzymanego wykresu wyznaczyć funkcję g(m) wyrażającą liczbę pierwiastków równania.

PRÓBNY EGZAMIN MATURALNY

Detekcja rozkładów o ciężkich ogonach

EGZAMIN MATURALNY Z MATEMATYKI

Zastosowanie rozmytych map kognitywnych do badania scenariuszy rozwoju jednostek naukowo-dydaktycznych

Transkrypt:

w grafach przepływu informacji dla geometrycznych sieci neuronowych www.mat.uni.torun.pl/~piersaj 2009-06-10

1 2 3 symulacji Graf przepływu ładunku Wspóczynnik klasteryzacji

X (p) p α Rozkłady prawdopodobieństwa Statystyka Fizyka

Sieci bezskalowe deg(v) stopień wierzchołka v w grafie P(deg(v) = p) p α Przykłady sieci bezskalowych: Internet WWW sieci lingwistyczne sieci współpracy naukowej sieci znajomości złożone sieci neuronowe (naturalne)

Dany podzbiór V R 3. N neuronów należących do V N Poiss(c V ) Każdy neuron n i jest opisany poprzez: współrzędne w R 3 (x, y, z) iid U V ładunek k i połączenia synaptyczne do innych neuronów P((n i, n j ) E) wagi połączeń w ij iid N(0, σ 2 ) 1 d(n i, n j ) α

Funkcja energetyczna E = i,j k i k j w i,j E min

Algorytm symulowanego wyżarzania Wylosuj parę neuronów n i, n j połączonych krawędzią. Jeżeli k i = 0 powtórz losowanie. Jeżeli przeniesienie jednej jednostki ładunku z n i do n j zmniejsza energię o E to zaakceptuj tę zmianę (k i = k i 1; k j = k j + 1). W przeciwnym wypadku zaakceptuj zmianę z prawdopodobieństwem równym P = exp ( β E) gdzie β > 0 jest zwiększane w trakcie symulacji, E jest zmianą energii. Powtarzaj kroki 1..4 do uzyskania zbieżności.

Algorytm symulowanego wyżarzania Dla każdego węzła określamy deg in (n) ilość ładunku, który wpłynął trakcie symulacji. Definiujemy funkcję f : N N f (x) = n V 1 degin (n)=x Hipoteza: f (x) x 2

Wykresy przepływu Połóżmy: Teraz Po zlogarytmowaniu: g(x) = i x g(x) x 1 f (i) h(ln(x)) = ln(g(x)) Podstawiając y = ln x oraz g(x) = cx α h(y) = ln(cx α ) = ln(c) + α ln(x) = αy + c 1

Wykresy przepływu

Przybliżenie parametru nachylenia y = 1.27048x + 13.7703 s x = i x i s xx = i x 2 i s y = i y i s xy = i x i â = s xyn s x s y s xx N s 2 x

Przybliżenie parametru nachylenia y = 1.08951x + 12.939 Po odcięciu skrajnych wartości. x[0.015 : 0.5]y[0.015 : 0.5]

Przybliżenie parametru nachylenia

Uproszczenie modelu Określamy wsparcie neuronu: W i = j w ij Niech n 1, n 2, takie że W 1 > W 2. Policzymy różnicę energii E 2 E 1 po przesłaniu jednostki ładunku z n 2 do n 1. Przy β 0 zmiana prowadząca do zwiększenia się energii zawsze jest odrzucana.

Uproszczenie modelu E 1 = C + k 1 k i w 1i + k 2 k j w 2j + w 12 k 1 k 2 i S 1 \{n 2 } j S 2 \{n 1 } E 2 = C + k 1 + 1 k i w 1i + k 2 1 k j w 2j + j S 2 \{n 1 } i S 1 \{n 2 } j S 2 \{n 1 } w 12 k 1 + 1 (k 2 1) E 2 E 1 = ( k 1 + 1 k i k 1 k i )w 1i + i S 1 \{n 2 } ( k 2 1 k j k 2 k j )w 2j + w 12 ( k 1 k 2 + 2 k 1 k 2 )

Uproszczenie modelu k 1 > k i dla n i S 1 (w szczególności k 1 > k 2 ) E 2 E 1 = j S 1 w 1i + j S 2 w 2j + N(0, 4σ 2 ) = W 1 + W 2 + N(0, 4σ 2 ) 0 zazwyczaj Preferowany będzie przepływ ładunku do jednostki o większym wsparciu. k 1 < k i dla n i S 1 E 2 E 1 = j S 1 w 1i + j S 2 w 2j + N(0, 4σ 2 ) = W 1 W 2 + N(0, 4σ 2 ) 0 zazwyczaj Po zamianie znaków preferowany będzie przepływ ładunku do jednostki o mniejszym wsparciu (ale większym ładunku).

Uproszczenie modelu Oznaczmy S 1 = n ilość sąsiadów n 1. Powstają dwie możliwe sytuacje lokalnie minimalizujące energię: Gdy ładunek płynie do jednostek o małym wsparciu: k 1 = 0, k i = c dla i S 1. Wówczas energia wyniesie E = i (c 0)w 1i = ncw 1 Gdy ładunek płynie do jednostek o dużym wsparciu: k 1 = nc, k i = 0 dla i S 1. Wówczas energia wyniesie E = i (nc 0)w 1i = n 2 cw 1

Uproszczenie modelu Pierwsza sytuacja jest metastabilna, z postępem symulacji zanika. Przepływ ładunku z n i do n j odbywa się jeżeli W i W j Dynamika sieci przechodzi na tryb zwycięzca bierze wszystko (winner take all). Uproszczenie: losowane są tylko krawędzie e = (n i, n j ), takie że max(w i, W j ) min(w l : k l > 0).

Porównanie symulacji Graf przepływu ładunku Wspóczynnik klasteryzacji przed po wszystkich 59M 215M 1.3G 314M 250M 700M 550M ważnych 10M 20M 50M 50M 50M 100M 100M przyjętych 220k 435k 654k 570k 850k 817k 1.5M czas 1h+ 3h+ 10h 2.5 4.5h 3.5h 8h geometria sfera sfera kostka sfera kostka sfera kostka

symulacji Graf przepływu ładunku Wspóczynnik klasteryzacji węzłów krawędzi kroków mnk geometria zbieżność 4771 400k 50M -1.079x + 11.4 sfera 0.65% 7033 435k 20M -1.3x + 13.0 sfera 1.2% 6967 420k 30M -1.251x + 12.6 sfera 1.5% 9049 570k 50M -1.209x + 12.6 sfera 0.9% 12403 800k 100M -1.118x + 12.5 sfera 0.8% 12556 800k 25M -1.226x + 12.6 sfera 5%(!!) 12573 800k 50M -1.1x + 12.3 sfera 0.9% 19607 1.2M 50M -1.102x + 12.8 sfera 2.5% (!!) 9836 680k 100M -1.149x + 12.4 kostka 0.6% 9917 700k 50M -1.3x + 13.0 kostka 1% 13157 960k 50M -1.066x + 12.3 kostka 0.8% 21825 1.7M 100M -1.17x + 13.3 kostka 0.8% 21858 1.7M 100M -1.129x + 13.1 kostka 1%

Rozmieszczenie elity symulacji Graf przepływu ładunku Wspóczynnik klasteryzacji

Graf przepływu ładunku symulacji Graf przepływu ładunku Wspóczynnik klasteryzacji DFS bez ograniczeń Graf złożony z krawędzi, którymi płynie największa ilość ładunku do neuronów o największym wsparciu.

Graf przepływu ładunku symulacji Graf przepływu ładunku Wspóczynnik klasteryzacji Kolejka priorytetowa + ograniczenie 100 krawędzi na graf

Współczynnik klasteryzacji symulacji Graf przepływu ładunku Wspóczynnik klasteryzacji C i = 2E i k i (k i 1) k i ilość krawędzi incydentnych z i E i ilość krawędzi w podgrafie obciętym do {u : (u, i) E} C = 1 N i C i Wykres współczynnika klasteryzacji w zależności od progu d. (uv) E i p uv > d

Wykres zaakceprowanych zmian symulacji Graf przepływu ładunku Wspóczynnik klasteryzacji

Co dalej? symulacji Graf przepływu ładunku Wspóczynnik klasteryzacji Optymalizacja Zaawansowana analiza grafu Symulacje większych instancji

Wykorzystane narzędzia symulacji Graf przepływu ładunku Wspóczynnik klasteryzacji Eclipse CDT R-project (analiza i wykresy) OpenGL (biblioteki) SDL, SDL ttf (biblioteki) KILE, GIMP (prezentacja)

symulacji Graf przepływu ładunku Wspóczynnik klasteryzacji Praca współfinansowana ze środków Europejskiego Funduszu Społecznego i Budżetu Państwa w ramach Zintegrowanego Programu Operacyjnego Rozwoju Regionalnego, Działania 2.6 Regionalne Strategie Innowacyjne i transfer wiedzy projektu własnego Województwa Kujawsko-Pomorskiego Stypendia dla doktorantów 2008/2009 ZPORR