Statystyki teoriografowe grafów funkcjonalnych w sieciach neuronowych



Podobne dokumenty
Symulacje geometrycznych sieci neuronowych w środowisku rozproszonym

Obszary strukturalne i funkcyjne mózgu

draft Prawa bezskalowe w grafach przepływu informacji dla geometrycznych sieci neuronowych, symulacje w środowisku współbieżnym

Grafy Alberta-Barabasiego

Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej

Prawa potęgowe w grafach przepływu informacji dla geometrycznych sieci neuronowych

Wstęp do sieci neuronowych, wykład 8 Uczenie nienadzorowane.

Detekcja motywów w złożonych strukturach sieciowych perspektywy zastosowań Krzysztof Juszczyszyn

Sieci: grafy i macierze. Sieci afiliacji. Analiza sieci społecznych. Najważniejsze pytania. Komunikatory internetowe

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Spontaniczna struktura bezskalowa w grafach przepływu impulsów dla rekurencyjnych sieci neuronowych

Filip Piękniewski - Curriculum Vitae

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

W sieci małego świata od DNA po facebooka. Dr hab. Katarzyna Sznajd-Weron, prof. PWr.

Warsztaty metod fizyki teoretycznej

Badania w sieciach złożonych

Sieci złożone. Modelarnia 2014/2015 Katarzyna Sznajd-Weron

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty

Wykładnicze grafy przypadkowe: teoria i przykłady zastosowań do analizy rzeczywistych sieci złożonych

Modelowanie sieci złożonych

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Przejścia fazowe w uogólnionym modelu modelu q-wyborcy na grafie zupełnym

Struktury bezskalowe w rekurencyjnych sieciach neuronowych

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Wstęp do sieci neuronowych, wykład 14 Maszyna Boltzmanna

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa

Nowy generator grafów dwudzielnych

Centralność w sieciach społecznych. Radosław Michalski Social Network Group - kwiecień 2009

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova

Bładzenie przypadkowe i lokalizacja

Wprowadzenie do pulsujących sieci neuronowych

GMWØJCIK Publications

Przejście fazowe w sieciach złożonych w modelu Axelroda

WYŻSZA SZKOŁA INFORMATYKI STOSOWANEJ I ZARZĄDZANIA

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 01 Neuron biologiczny. Model perceptronu prostego.

Matematyka Stosowana na Politechnice Wrocławskiej. Komitet Matematyki PAN, luty 2017 r.

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Częstochowa,

Praca dyplomowa inżynierska

Algorytm Dijkstry znajdowania najkrótszej ścieżki w grafie

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Równowaga Heidera symulacje mitozy społecznej

Michał Matuszak. Wydział Matematyki i Informatyki Uniwersytet Adama Mickiewicza Tel:

POISSONOWSKA APROKSYMACJA W SYSTEMACH NIEZAWODNOŚCIOWYCH

Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej. Adam Żychowski

Inform., 72(1-3): (2006) 2 Antonio Cano Gómez, Giovanna Guaiana and Jean-Éric Pin When Does Partial Commutative

Uczenie sieci neuronowych i bayesowskich

Sieci bezskalowe. Filip Piękniewski

Małe dzieci uczą się od chwili narodzin Fundacja Komeńskiego

Michał Kozielski Łukasz Warchał. Instytut Informatyki, Politechnika Śląska

Deep Learning na przykładzie Deep Belief Networks

Struktury bezskalowe w rekurencyjnych sieciach neuronowych

Poszukiwanie strukturalnych i funkcjonalnych połączeń w ludzkim mózgu

UWAGI O WŁAŚCIWOŚCIACH LICZBY ZNIEWOLENIA DLA GRAFÓW

Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Podstawy Sztucznej Inteligencji (PSZT)

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Algorytmy stochastyczne laboratorium 03

MODELOWANIE I SYMULACJA Kościelisko, czerwca 2006r. Oddział Warszawski PTETiS Wydział Elektryczny Politechniki Warszawskiej Polska Sekcja IEEE

Analiza sieci przedsiębiorstw z wykorzystaniem metody SNA

Grafy stochastyczne i sieci złożone

Kierunek: Matematyka Poziom studiów: Studia II stopnia Forma i tryb studiów: Stacjonarne

Co to jest grupowanie

SWISS EPHEMERIS for the year 2012

Życiorys. Wojciech Paszke. 04/2005 Doktor nauk technicznych w dyscyplinie Informatyka. Promotor: Prof. Krzysztof Ga lkowski

Mikro- i makro-ewolucja sieci społecznych

sieci społecznych metodą analizy - future work...

Seminarium IO. Zastosowanie metody PSO w Dynamic Vehicle Routing Problem (kontynuacja) Michał Okulewicz


Elektroniczne materiały dydaktyczne do przedmiotu Wstęp do Sieci Neuronowych

Wstęp do sieci neuronowych, wykład 15, Neuron Hodgkina-Huxleya

PLAN STUDIÓW DOKTORANCKICH Z FIZYKI I ASTRONOMII DZIEDZINA / NAUKI FIZYCZNE DYSCYPLINA / FIZYKA lub ASTRONOMIA

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

Problem skoczka szachowego i inne cykle Hamiltona na szachownicy n x n

Podanym określeniom przyporządkuj wskaźnik bibliometryczny. Wskaźnik oceny czasopism. Wskaźnik oceny czasopism. Wskaźnik oceny czasopism

Przykłady grafów. Graf prosty, to graf bez pętli i bez krawędzi wielokrotnych.

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

MATEMATYKA DYSKRETNA - MATERIAŁY DO WYKŁADU GRAFY

Podsieci rozległe: Sieć wzbudzeń podstawowych. Andrzej Rutkowski

Modelowanie układów złożonych. oferta dydaktyczna kierunki badawcze realizowane na Wydziale Fizyki PW

Monitorowanie i Diagnostyka w Systemach Sterowania

Analiza sygnału EKG i modelowanie pracy serca

Kierunek: Matematyka Poziom studiów: Studia II stopnia Forma i tryb studiów: Stacjonarne

Wstęp do sieci neuronowych, wykład 01 Neuron biologiczny. Model perceptronu prostego.

PLAN STUDIÓW STACJONARNYCH PIERWSZEGO STOPNIA MATEMATYKA. od roku akademickiego 2013/2014 (ze zmianami zatw. 2 VII 2014)

Neuronalne korelaty przeżyć estetycznych (Rekonstrukcja eksperymentu)

PLAN STUDIÓW STACJONARNYCH PIERWSZEGO STOPNIA MATEMATYKA. od roku akademickiego 2015/2016

Field of study: Electronics and Telecommunications Study level: First-cycle studies Form and type of study: Full-time studies. Auditorium classes

Znajdowanie skojarzeń na maszynie równoległej

Porównanie rozwiązań równowagowych Stackelberga w grach z wynikami stosowania algorytmu UCT

Wyjazdy dla studentów Politechniki Krakowskiej zainteresowanych studiami częściowymi w Tianjin Polytechnic University (Chiny).

Activities Performed by prof. Tadeusiewicz in Books and Journals Editorial Boards

Suma dwóch grafów. Zespolenie dwóch grafów

Machine Learning for Data Science (CS4786) Lecture 11. Spectral Embedding + Clustering

Nazwa Wydziału Nazwa jednostki prowadzącej moduł Nazwa modułu kształcenia. Kod modułu Język kształcenia Efekty kształcenia dla modułu kształcenia

Transkrypt:

Statystyki teoriografowe grafów funkcjonalnych w sieciach neuronowych Wydział Matematyki i Informatyki, UMK 2011-12-21

1 Wstęp Motywacja 2 Model 3 4 Dalsze plany Referencje

Motywacja 1 Wstęp Motywacja 2 Model 3 4 Dalsze plany Referencje

Motywacja Wstęp Motywacja Skąd się wzięły grafy losowe? Siatka Pełny

Motywacja Wstęp Motywacja Model losowy (ER) i Alberty-Barabasiego [1], Charakterystyki grafów losowych, Siatka + losowe zmiany: Losowy ER:

Motywacja Wstęp Motywacja Potęgowy rozkład stopni grafu, Stany krytyczne skomplikowanych układów, Graf Alberty Barabasiego

Motywacja Wstęp Motywacja Aktywność mózgowa (fmri) w trakcie prostych czynności [3], Aktywność sieciach neuronowych?

Nasz wkład Wstęp Motywacja Analiza przepływu aktywności w grafach pełnych (Filip Piękniewski)...... oraz rzadkich zanurzonych w R 3 (JP), Model przepływu aktywności pomiędzy jednostkami, Analiza rozkładu stopni (bezskalowość), charakterystycznej długości ścieżek i klasteryzacji (graf małego świata) uzyskanej sieci.

Model 1 Wstęp Motywacja 2 Model 3 4 Dalsze plany Referencje

Model Wstęp Model Jednostki rozmieszczone losowo na S 2, Abstrakcyjny poziom aktywności σ i (ładunek, spin), Połączenia synaptyczne zależne od geometrycznej lokalizacji, { d(u, v) α d(u, v) 1 P({u, v} E) = 1 wpw, α < 1 losowe wagi synaps w ij, Energia układu: E( σ) = (u,v) E w u,v σ v σ u

Dynamika Wstęp Model Wybieramy parę neuronów u, v V połączonych synapsą {u, v} E, taką że σ u 1, Dokonujemy transferu jednej jednostki ładunku z u do v, σ u := σ u 1, σ v := σ v + 1, Jeżeli powoduje to spadek energii układu, to akceptujemy zmianę, Jeżeli powoduje wzrost o E, to akceptujemy z prawdopodobieństwem P(u v) = exp( β E) i odrzucamy wpw. Kończymy po osiągnięciu stanu stabilnego, wracamy do 1.

Ewolucja sieci Hopfielda Model click

Graf aktywności funkcjonalnej Model Zapamiętujemy dokonane transfery przez krawędź d uv, Wybieramy wszystkie neurony, V 1 = V, Krawędzie powyżej progu E 1 = {e = {u, v} E : d uv + d vu θ}, Graf aktywności funkcjonalnej = G 1 := (V 1, E 1 )

Graf aktywności funkcjonalnej Model Losowy Erdős-Rényi ego: Uzyskany graf:

1 Wstęp Motywacja 2 Model 3 4 Dalsze plany Referencje

w grafie P(deg in (v) = k)

10 3 Degree distribution 12k 28k 78k 10 5 CCDF 12k 28k 78k 10 4 10 2 10 3 Counts Counts 10 2 10 1 10 1 10 0 10 0 10 1 10 2 10 3 10 4 10 5 Degree 10 0 10 0 10 1 10 2 10 3 10 4 10 5 Complementary Cumulative Degree Distribution

Średnica grafu / charakterystyczna długość ścieżki D = max u,v V L = avg u,v V min u=p 1,p 2,...,p n=v:(p i,p i+1 ) E) min u=p 1,p 2,...,p n=v:(p i,p i+1 ) E) p 1..p n p 1..p n

Charakterystyczna i maksymalna długość ścieżki 7 6 APL = - 2.5 APL = -3.5 MPL = -2.5 MPL = -3.5 5 diameter 4 3 2 1 0 0 10000 20000 30000 40000 50000 60000 neurons

C(u) = {e = (w, v) : e E (w, u) E (v, u) E} {(w, v) : (w, u) E (v, u) E} C = 1 C(u) V u V

10 3 Clustering coefficient 28k 10 2 Counts 10 1 10 0 10-3 10-2 10-1 10 0 Clustering

path-length ratio clustering ratio small-world-ness indicator λ = L REAL L TEO γ = C REAL C TEO σ = γ λ

Stosunek długości ścieżki 5 L real L teo 4 3 Length 2 1 0 0 10000 20000 30000 40000 50000 60000 Neurons

Stosunek długości klasteryzacji 10 0 c real c teo 10-1 10-2 Clustering 10-3 10-4 10-5 10-6 0 10000 20000 30000 40000 50000 60000 Neurons

Wsk. małego świata 10 2 = / 10 1 10 0 10-1 0 10000 20000 30000 40000 50000 60000 Neurons

ER {e C : v R n Adj v = Adj e} 10 3 10 2 10 1 eig i 10 0 10-1 10-2 10-3 10 0 10 1 10 2 i 10 3 10 4

Typowe spektrum grafu aktywności funkcyjnej 6 10 5 10 all eigenvalues in linear segment 4 10 3 10 2 10 eig i 10 1 0 10-1 10 range = 1000.. 23000 = 68.53 % -2 10-3 10-4 10 100 101 102 i 103 104 10 5

Ewolucja spektrum w trakcie dynamiki 5000 lower bound i1 upper bound i2 segment length i2-i 1 4000 3000 index 2000 1000 0 0 20 40 simulation 60 80 100 progress [%]

Ewolucja spektrum w trakcie dynamiki click

Rozkład stopni Network Size α Notes Source Brain fmri 31k 2.0 r c = 0.6 Eguiluz [3] Brain fmri 17k 2.1 r c = 0.7 Eguiluz [3] Brain fmri 4.8k 2.2 r c = 0.8 Eguiluz [3] Cortex 54 1.34 k α e k/kc He et al. [5] Ising model 40k 2 T = 2.3 (crit.) Fraiman et al. [4] Simplified model 58k 2.098 S 2 Piersa et al. [6]

Długość ścieżki Network Size L real L rand Notes Source Brain fmri 31k 11.4 3.9 r c = 0.6 Eguiluz [3] Brain fmri 17k 12.9 5.3 r c = 0.7 Eguiluz [3] Brain fmri 4.8k 6.0 6.0 r c = 0.8 Eguiluz [3] Cortex 54 3.05 2.65 He et al. [5] Human fmri 90 2.82 2.94 Basset Bullmore [2] Ising model 40k 6.8 2.71 T = 2.3 (crit.) Fraiman et al. [4] Simplified model 50k 2.89 2.71 S 2, d = 2.5 Piersa [7]

Klasteryzacja Wstęp Network Size C real C rand Notes Source Brain fmri 31k 0.14 4.3 10 4 r c = 0.6 Eguiluz [3] Brain fmri 17k 0.13 3.7 10 4 r c = 0.7 Eguiluz [3] Brain fmri 4.8k 0.13 8.9 10 4 r c = 0.8 Eguiluz [3] Cortex 54 0.3 0.13 He et al. [5] Human fmri 90 0.25 0.12 Basset Bullmore [2] Ising model 40k 0.516 0.048 T = 2.3 (crit.) Fraiman et al. [4] Simplified model 50k 0.18 2.4 10 3 S 2, d = 2.5 Piersa

Plany Wstęp Dalsze plany Referencje Rozprawa doktorska! Odporność na szumy i awarie, Dynamika i analiza na ewoluującej sieci, Analiza asymetrycznych grafów przepływu aktywności.

Referencje I Wstęp Dalsze plany Referencje R. Albert, A. L. Barabasi, Statistical mechanics of complex networks, Reviews of modern physics, Vol 74, January 2002 D. S. Bassett E. Bullmore Small-World Brain Networks, The Neuroscientist, Volume 12, Number 6, 2006 V. Eguiluz, D. Chialvo, G. Cecchi, M. Baliki, V. Apkarian Scale-free brain functional networks, Physical Review Letters, PRL 94 018102, JAN 2005, D. Fraiman, P. Balenzuela, J. Foss, D. R. Chialvo, Ising-like dynamics in large-scale functional brain networks, Physical Review E, Volume 79, Issue 6, doi:10.1103/physreve.79.061922, June 2009.

Referencje II Wstęp Dalsze plany Referencje Y. He, Z. J. Chen, A. C. Evans, Small-World Anatomical Networks in the Human Brain Revealed by Cortical Thickness from MRI, Cerebral Cortex October 2007;17:2407-2419. J. Piersa, F. Piekniewski, T. Schreiber, Theoretical model for mesoscopic-level scale-free self-organization of functional brain networks, IEEE Transactions on Neural Networks, vol. 21, no. 11, November 2010 J. Piersa Diameter of the spike-flow graphs of geometrical neural networks, accepted for postproceedings 9th International Conference on Parallel Processing and Applied Mathematics, serie Lecture Notes on Computer Science, September 2011.

Referencje III Wstęp Dalsze plany Referencje D. Watts, S. Strogatz Collective dynamics of small-world networks, Nature, vol 393, 4 June 1998, pp. 440-442.

Podziękowania Dalsze plany Referencje Autor pragnie podziękować projektowi PL-Grid za dostęp do infrastruktury obliczeniowej. Praca finansowana przez Ministerstwo Nauki i Szkolnictwa Wyższego z grantu DEC-2011/01/N/ST6/01931.