Symulacje geometrycznych sieci neuronowych w środowisku rozproszonym
|
|
- Łukasz Walczak
- 4 lat temu
- Przeglądów:
Transkrypt
1 Symulacje geometrycznych sieci neuronowych w środowisku rozproszonym Jarosław Piersa, Tomasz Schreiber {piersaj, tomeks}(at)mat.umk.pl
2 1 2
3 Dany podzbiór V R 3. N neuronów należących do V N Poiss(c V ) Każdy neuron n i jest opisany poprzez: współrzędne w R 3 (x, y, z) iid U V ładunek k i połączenia synaptyczne do innych neuronów P((n i, n j ) E) wagi połączeń w ij iid N(0, σ 2 ) 1 d(n i, n j ) α
4 Funkcja energetyczna E = i,j k i k j w i,j 10 5 E min
5 Wylosuj parę neuronów n i, n j połączonych krawędzią. Jeżeli k i = 0 powtórz losowanie. Jeżeli przeniesienie jednej jednostki ładunku z n i do n j zmniejsza energię to zaakceptuj tę zmianę (k i = k i 1; k j = k j + 1). W przeciwnym wypadku zaakceptuj zmianę z prawdopodobieństwem równym P = exp ( β E) gdzie β 0, E jest zmianą energii. Powtarzaj kroki 1..4 jak długo zachodzą zmiany.
6 Dla konkretnego węzła: C(v) = 2Ev k v (k v 1) k v ilość krawędzi incydentnych z v E v ilość krawędzi w podgrafie obciętym do {u : (u, v) E} grafu: CC = 1 N v C(v)
7 Rozkład CC W podziałce loglog 0.02 CC distribution 10-1 CC distribution freq 0.01 freq CC 10-5 CC 10 0
8 w modelu ER każda krawędź jest dodana niezależnie z prawdopodobieństwem p ˆp = E V ( V 1)/2 dla V = oraz E mamy ˆp = sąsiedztwo v może mieć maksymalnie k v krawędzi, z których średnio p k v jest w grafie C v średnio wyniesie p kv k v = p wartość oczekiwana CC wyniesie również p CC ER
9 język C++ biblioteka pthread testowane na Core 2 Quad 2GHz, 1-4 wątki 6 mutexów na rejestry sieci neuronowej mutex na każdy neuron liczne obszary krytyczne symulacji (energia, listy krawędzi, listy neuronów, liczniki iteracji, czasomierze...)
10 th 1 th 2 th 3 th 4 3.5e+07 3e e neuron id 6000 domain 2e e e e neuron id thread for (int i=0< i<n-1; i++) for (int j=i+1< j<n; j++) if (rand() < g(dist(n(i), n(j)))) addedge(i,j);
11 12000 th 1 th 2 th 3 th 4 2e e neuron id 6000 domain 1e e thread neuron id
12 Symulacja for (int i=0; i<iterations; i++) simulateonestep(); Th 1 {n 11, n 12 }... Th k {n k1, n k2 } ( k 2 P( i j {n i1, n i2 } {n j1, n j2 } ) ) n(n 1)(n (n 2k + 2) ( n k = 2) ( k ) 2 (n 2k 1 + o(n 2k 2 )) n 2k + o(n 2k 2 k2 ) n
13 Symulacja (... ) pthread mutex lock(& m u t e x e n e r g i a ) ; e n e r g i a += zmiana ; pthread mutex unlock(& m u t e x e n e r g i a ) ; pthread mutex lock(& m u t e x i l o s c Z m i a n P r z y j e t y c h ) ; i l o s c E f e k t y w n y c h Z m i a n++; i f ( zmiana >0) ilosczmianpodgore++; pthread mutex unlock(& m u t e x i l o s c Z m i a n P r z y j e t y c h ) ; pthread mutex lock(& m u t e x n r I t e r a c j i ) ; o s t a t n i a Z m i a n a = ++n r I t e r a c j i ; pthread mutex unlock(& m u t e x n r I t e r a c j i ) ; (... )
14 Symulacja k Neurons time (mins) iterations per second threads threads
15 Symulacja
16 Bibliografia R. Albert, A. L. Barabasi, Statistical mechanics of complex networks, Reviews of modern physics, Vol 74, January 2002 E. Bullmore, O. Sporns, Complex brain networks: graph theoretical analysis of structural and functional systems, Nature Reviews, Neuroscience, vol 10, March 2009 V. Eguıluz, D. Chialvo, G. Cecchi, M. Baliki, V. Apkarian Scale-Free Brain Functional Networks, Physical Review Letters, PRL , JAN 2005, F. Piekniewski, Spontaneous scale-free structures in spike flow graphs for recurrent neural networks, Ph.D. dissertation, Warsaw University, Warsaw, Poland, 2008, F. Piekniewski and T.Schreiber, Spontaneous scale-free structure of spike flow graphs in recurrent neural networks, Neural Networks vol. 21, no. 10, pp , 2008
17 Praca współfinansowana ze środków Europejskiego Funduszu Społecznego i Budżetu Państwa w ramach Zintegrowanego Programu Operacyjnego Rozwoju Regionalnego, Działania 2.6 Regionalne Strategie Innowacyjne i transfer wiedzy projektu własnego Województwa Kujawsko-Pomorskiego Stypendia dla doktorantów 2008/2009 ZPORR
Obszary strukturalne i funkcyjne mózgu
Spis treści 2010-03-16 Spis treści 1 Spis treści 2 Jak charakteryzować grafy? 3 4 Wielkości charakterystyczne Jak charakteryzować grafy? Średni stopień wierzchołków Rozkład stopni wierzchołków Graf jest
Bardziej szczegółowodraft Prawa bezskalowe w grafach przepływu informacji dla geometrycznych sieci neuronowych, symulacje w środowisku współbieżnym
Prawa bezskalowe w grafach przepływu informacji dla geometrycznych sieci neuronowych, symulacje w środowisku współbieżnym Jarosław Piersa, Tomasz Schreiber Uniwersytet Mikołaja Kopernika, Wydział Matematyki
Bardziej szczegółowoPrawa potęgowe w grafach przepływu informacji dla geometrycznych sieci neuronowych
w grafach przepływu informacji dla geometrycznych sieci neuronowych www.mat.uni.torun.pl/~piersaj 2009-06-10 1 2 3 symulacji Graf przepływu ładunku Wspóczynnik klasteryzacji X (p) p α Rozkłady prawdopodobieństwa
Bardziej szczegółowoStatystyki teoriografowe grafów funkcjonalnych w sieciach neuronowych
Statystyki teoriografowe grafów funkcjonalnych w sieciach neuronowych Wydział Matematyki i Informatyki, UMK 2011-12-21 1 Wstęp Motywacja 2 Model 3 4 Dalsze plany Referencje Motywacja 1 Wstęp Motywacja
Bardziej szczegółowoGrafy Alberta-Barabasiego
Spis treści 2010-01-18 Spis treści 1 Spis treści 2 Wielkości charakterystyczne 3 Cechy 4 5 6 7 Wielkości charakterystyczne Wielkości charakterystyczne Rozkład stopnie wierzchołków P(deg(x) = k) Graf jest
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej
Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2013-01-09
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 11 Łańcuchy Markova
Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova M. Czoków, J. Piersa 2010-12-21 1 Definicja Własności Losowanie z rozkładu dyskretnego 2 3 Łańcuch Markova Definicja Własności Losowanie z rozkładu
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda
Wstęp do sieci neuronowych, wykład 9. M. Czoków, J. Piersa 2010-12-07 1 Sieci skierowane 2 Modele sieci rekurencyjnej Energia sieci 3 Sieci skierowane Sieci skierowane Sieci skierowane graf połączeń synaptycznych
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda
Wstęp do sieci neuronowych, wykład 10. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-12-13 1 Modele sieci rekurencyjnej Energia sieci 2 3 Modele sieci
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda
Wstęp do sieci neuronowych, wykład 9. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-12-10 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa
Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa M. Czoków, J. Piersa 2012-01-10 1 Łańcucha Markowa 2 Istnienie Szukanie stanu stacjonarnego 3 1 Łańcucha Markowa 2 Istnienie Szukanie stanu stacjonarnego
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 8 Uczenie nienadzorowane.
Wstęp do sieci neuronowych, wykład 8. M. Czoków, J. Piersa, A. Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 1-811-6 Projekt pn. Wzmocnienie potencjału dydaktycznego
Bardziej szczegółowoModelowanie sieci złożonych
Modelowanie sieci złożonych B. Wacław Instytut Fizyki UJ Czym są sieci złożone? wiele układów ma strukturę sieci: Internet, WWW, sieć cytowań, sieci komunikacyjne, społeczne itd. sieć = graf: węzły połączone
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.
Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 2013-11-26 Projekt pn. Wzmocnienie potencjału
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda
Wstęp do sieci neuronowych, wykład 10. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-12-19 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu
Bardziej szczegółowoSpontaniczna struktura bezskalowa w grafach przepływu impulsów dla rekurencyjnych sieci neuronowych
Spontaniczna struktura bezskalowa w grafach przepływu impulsów dla rekurencyjnych sieci neuronowych Filip Piękniewski Wydział Matematyki i Informatyki Uniwersytetu Mikołaja Kopernika w Toruniu Praca doktorska
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.
Wstęp do sieci neuronowych, wykład 7. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 212-11-28 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu
Bardziej szczegółowoPodanym określeniom przyporządkuj wskaźnik bibliometryczny. Wskaźnik oceny czasopism. Wskaźnik oceny czasopism. Wskaźnik oceny czasopism
Pytanie 2 Za pomocą opcji Cited Reference Search w bazie Web of Science Core Collection znajdziesz cytowania publikacji indeksowanych przez WoS oraz cytowania publikacji zamieszczonych w ich bibliografiach
Bardziej szczegółowoPOISSONOWSKA APROKSYMACJA W SYSTEMACH NIEZAWODNOŚCIOWYCH
POISSONOWSKA APROKSYMACJA W SYSTEMACH NIEZAWODNOŚCIOWYCH Barbara Popowska bpopowsk@math.put.poznan.pl Politechnika Poznańska http://www.put.poznan.pl/ PROGRAM REFERATU 1. WPROWADZENIE 2. GRAF JAKO MODEL
Bardziej szczegółowoAlgorytmy stochastyczne laboratorium 03
Algorytmy stochastyczne laboratorium 03 Jarosław Piersa 10 marca 2014 1 Projekty 1.1 Problem plecakowy (1p) Oznaczenia: dany zbiór przedmiotów x 1,.., x N, każdy przedmiot ma określoną wagę w(x i ) i wartość
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3
Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.
Wstęp do sieci neuronowych, wykład 7. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 213-11-19 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu
Bardziej szczegółowoPrzejście fazowe w sieciach złożonych w modelu Axelroda
Przejście fazowe w sieciach złożonych w modelu Axelroda Korzeń W., Maćkowski M., Rozwadowski P., Szczeblewska P., Sznajder W. 1 Opiekun: Tomasz Raducha 1 Uniwersytet Warszawski, Wydział Fizyki 3 Streszczenie
Bardziej szczegółowoAlgorytmy mrówkowe. H. Bednarz. Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Inteligentne systemy informatyczne
Algorytmy mrówkowe H. Bednarz Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Inteligentne systemy informatyczne 13 kwietnia 2015 1 2 3 4 Przestrzeń poszukiwań Ograniczenia
Bardziej szczegółowoWarsztaty metod fizyki teoretycznej
Warsztaty metod fizyki teoretycznej Zestaw 6 Układy złożone- sieci w otaczającym nas świecie Marcin Zagórski, Jan Kaczmarczyk 17.04.2012 1 Wprowadzenie W otaczającym nas świecie odnajdujemy wiele struktur,
Bardziej szczegółowoMATEMATYKA DYSKRETNA - MATERIAŁY DO WYKŁADU GRAFY
ERIAŁY DO WYKŁADU GRAFY Graf nieskierowany Grafem nieskierowanym nazywamy parę G = (V, E), gdzie V jest pewnym zbiorem skończonym (zwanym zbiorem wierzchołków grafu G), natomiast E jest zbiorem nieuporządkowanych
Bardziej szczegółowoAlgorytmy mrówkowe (optymalizacja kolonii mrówek, Ant Colony optimisation)
Algorytmy mrówkowe (optymalizacja kolonii mrówek, Ant Colony optimisation) Jest to technika probabilistyczna rozwiązywania problemów obliczeniowych, które mogą zostać sprowadzone do problemu znalezienie
Bardziej szczegółowoPrawdopodobieństwo i statystyka r.
Zadanie. Niech (X, Y) ) będzie dwuwymiarową zmienną losową, o wartości oczekiwanej (μ, μ, wariancji każdej ze współrzędnych równej σ oraz kowariancji równej X Y ρσ. Staramy się obserwować niezależne realizacje
Bardziej szczegółowoPodstawowe własności grafów. Wykład 3. Własności grafów
Wykład 3. Własności grafów 1 / 87 Suma grafów Niech będą dane grafy proste G 1 = (V 1, E 1) oraz G 2 = (V 2, E 2). 2 / 87 Suma grafów Niech będą dane grafy proste G 1 = (V 1, E 1) oraz G 2 = (V 2, E 2).
Bardziej szczegółowoReprezentacje grafów nieskierowanych Reprezentacje grafów skierowanych. Wykład 2. Reprezentacja komputerowa grafów
Wykład 2. Reprezentacja komputerowa grafów 1 / 69 Macierz incydencji Niech graf G będzie grafem nieskierowanym bez pętli o n wierzchołkach (x 1, x 2,..., x n) i m krawędziach (e 1, e 2,..., e m). 2 / 69
Bardziej szczegółowoNierówności macierzowe
Nierówności macierzowe Tomasz Tkocz KMISMaP Uniwersytet Warszawski Toruńska Letnia Szkoła Matematyki 2009, 3.IX.2009r. Plan 1 2 3 4 Zadanko na rozgrzewkę Zadanie NiechA = [a ij ] i,j=1,...n będziemacierząn
Bardziej szczegółowoPrzykłady grafów. Graf prosty, to graf bez pętli i bez krawędzi wielokrotnych.
Grafy Graf Graf (ang. graph) to zbiór wierzchołków (ang. vertices), które mogą być połączone krawędziami (ang. edges) w taki sposób, że każda krawędź kończy się i zaczyna w którymś z wierzchołków. Graf
Bardziej szczegółowoUczenie sieci neuronowych i bayesowskich
Wstęp do metod sztucznej inteligencji www.mat.uni.torun.pl/~piersaj 2009-01-22 Co to jest neuron? Komputer, a mózg komputer mózg Jednostki obliczeniowe 1-4 CPU 10 11 neuronów Pojemność 10 9 b RAM, 10 10
Bardziej szczegółowoMichał Kozielski Łukasz Warchał. Instytut Informatyki, Politechnika Śląska
Michał Kozielski Łukasz Warchał Instytut Informatyki, Politechnika Śląska Algorytm DBSCAN Algorytm OPTICS Analiza gęstego sąsiedztwa w grafie Wstępne eksperymenty Podsumowanie Algorytm DBSCAN Analiza gęstości
Bardziej szczegółowoDrzewa spinające MST dla grafów ważonych Maksymalne drzewo spinające Drzewo Steinera. Wykład 6. Drzewa cz. II
Wykład 6. Drzewa cz. II 1 / 65 drzewa spinające Drzewa spinające Zliczanie drzew spinających Drzewo T nazywamy drzewem rozpinającym (spinającym) (lub dendrytem) spójnego grafu G, jeżeli jest podgrafem
Bardziej szczegółowoSystemy mrówkowe. Opracowali: Dawid Strucker, Konrad Baranowski
Systemy mrówkowe Opracowali: Dawid Strucker, Konrad Baranowski Wprowadzenie Algorytmy mrówkowe oparte są o zasadę inteligencji roju (ang. swarm intelligence). Służą głównie do znajdowania najkrótszej drogi
Bardziej szczegółowoWstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty
Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-03 Projekt pn. Wzmocnienie potencjału
Bardziej szczegółowoWYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa
WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 2 i 3 Zmienna losowa Agata Boratyńska Agata Boratyńska Rachunek prawdopodobieństwa, wykład 2 i 3 1 / 19 Zmienna losowa Definicja Dana jest przestrzeń probabilistyczna
Bardziej szczegółowoPageRank. Bartosz Makuracki. 28 listopada B. Makuracki PageRank
PageRank Bartosz Makuracki 28 listopada 2013 Definicja Definicja PageRank jest algorytmem używanym przez wyszukiwarkę Google do ustalania kolejności stron pojawiających się w wynikach wyszukiwania. Definicja
Bardziej szczegółowoGeometryczna zbieżność algorytmu Gibbsa
Geometryczna zbieżność algorytmu Gibbsa Iwona Żerda Wydział Matematyki i Informatyki, Uniwersytet Jagielloński 6 grudnia 2013 6 grudnia 2013 1 / 19 Plan prezentacji 1 Algorytm Gibbsa 2 Tempo zbieżności
Bardziej szczegółowoWprowadzenie do pulsujących sieci neuronowych
Zakład Algebry i Kombinatoryki Wydział Matematyki i Nauk Informacyjnych 31 maja 2017 Wstęp Plan prezentacji Biologiczna inspiracja modeli neuronów. Modelowe neuronów naturalnych. Neurony trzeciej generacji
Bardziej szczegółowoSystemy uczące się Lab 4
Systemy uczące się Lab 4 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 26 X 2018 Projekt zaliczeniowy Podstawą zaliczenia ćwiczeń jest indywidualne wykonanie projektu uwzględniającego
Bardziej szczegółowoAlgorytmika Problemów Trudnych
Algorytmika Problemów Trudnych Wykład 9 Tomasz Krawczyk krawczyk@tcs.uj.edu.pl Kraków, semestr letni 2016/17 plan wykładu Algorytmy aproksymacyjne: Pojęcie algorytmu aproksymacyjnego i współczynnika aproksymowalności.
Bardziej szczegółowoNajprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;
Sieci Hopfielda Najprostsze modele sieci z rekurencją sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Modele bardziej złoŝone: RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie
Bardziej szczegółowoRównowaga Heidera symulacje mitozy społecznej
Równowaga Heidera symulacje mitozy społecznej Przemysław Gawroński Katedra Informatyki Stosowanej we współpracy z Krzysztofem Kułakowskim, Piotrem Gronkiem Plan Klasyczny model równowagi Heidera. Skala
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych
Bardziej szczegółowoProblem komiwojażera ACO. Zagadnienie optymalizacyjne, polegające na znalezieniu minimalnego cyklu Hamiltona w pełnym grafie ważonym.
Problem komiwojażera ACO Zagadnienie optymalizacyjne, polegające na znalezieniu minimalnego cyklu Hamiltona w pełnym grafie ważonym. -Wikipedia Problem do rozwiązania zazwyczaj jest przedstawiany jako
Bardziej szczegółowoWprowadzenie do Sieci Neuronowych Laboratorium 05 Algorytm wstecznej propagacji błędu
Wprowadzenie do Sieci Neuronowych Laboratorium Algorytm wstecznej propagacji błędu Maja Czoków, Jarosław Piersa --7. Powtórzenie Perceptron sigmoidalny Funkcja sigmoidalna: σ(x) = + exp( c (x p)) () Parametr
Bardziej szczegółowoAlgorytm Dijkstry znajdowania najkrótszej ścieżki w grafie
Algorytm Dijkstry znajdowania najkrótszej ścieżki w grafie Używane struktury danych: V - zbiór wierzchołków grafu, V = {1,2,3...,n} E - zbiór krawędzi grafu, E = {(i,j),...}, gdzie i, j Î V i istnieje
Bardziej szczegółowoWykładnicze grafy przypadkowe: teoria i przykłady zastosowań do analizy rzeczywistych sieci złożonych
Gdańsk, Warsztaty pt. Układy Złożone (8 10 maja 2014) Agata Fronczak Zakład Fizyki Układów Złożonych Wydział Fizyki Politechniki Warszawskiej Wykładnicze grafy przypadkowe: teoria i przykłady zastosowań
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 15, Neuron Hodgkina-Huxleya
Wstęp do sieci neuronowych, wykład 15, Neuron Hodgkina-Huxleya Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2019-01-21 Projekt pn. Wzmocnienie
Bardziej szczegółowoSKOJARZENIA i ZBIORY WEWN. STABILNE WIERZCH. Skojarzeniem w grafie G nazywamy dowolny podzbiór krawędzi parami niezależnych.
SKOJARZENIA i ZBIORY WEWN. STABILNE WIERZCH. Rozważamy graf G = (V, E) Dwie krawędzie e, e E nazywamy niezależnymi, jeśli nie są incydentne ze wspólnym wierzchołkiem. Skojarzeniem w grafie G nazywamy dowolny
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-10 Projekt pn. Wzmocnienie
Bardziej szczegółowoAlgorytmy równoległe. Rafał Walkowiak Politechnika Poznańska Studia inżynierskie Informatyka 2010
Algorytmy równoległe Rafał Walkowiak Politechnika Poznańska Studia inżynierskie Informatyka Znajdowanie maksimum w zbiorze n liczb węzły - maksimum liczb głębokość = 3 praca = 4++ = 7 (operacji) n - liczność
Bardziej szczegółowoDetekcja motywów w złożonych strukturach sieciowych perspektywy zastosowań Krzysztof Juszczyszyn
Detekcja motywów w złożonych strukturach sieciowych perspektywy zastosowań Krzysztof Juszczyszyn Instytut Informatyki Technicznej PWr MOTYWY SIECIOWE -NETWORK MOTIFS 1. Co to jest? 2. Jak mierzyć? 3. Gdzie
Bardziej szczegółowoTestowanie hipotez statystycznych. Wprowadzenie
Wrocław University of Technology Testowanie hipotez statystycznych. Wprowadzenie Jakub Tomczak Politechnika Wrocławska jakub.tomczak@pwr.edu.pl 10.04.2014 Pojęcia wstępne Populacja (statystyczna) zbiór,
Bardziej szczegółowoHistoria Rachunku Prawdopodobieństwa i Statystyki WYKŁAD VII: Ronald Fisher. Statystyka Matematyczna jako oddzielna dyscyplina
Historia Rachunku Prawdopodobieństwa i Statystyki WYKŁAD VII: Ronald Fisher. Statystyka Matematyczna jako oddzielna dyscyplina MiNI PW, semestr zimowy 2016/2017 Ronald Fisher (1890-1962) Studiował matematykę
Bardziej szczegółowoKujawsko-Pomorskie Centrum Edukacji Nauczycieli w Bydgoszczy PLACÓWKA AKREDYTOWANA KLUCZ PUNKTOWANIA ZADAŃ ZAMKNIĘTYCH
Kujawsko-Pomorskie Centrum Edukacji Nauczycieli w Bydgoszczy PLACÓWKA AKREDYTOWANA KLUCZ PUNKTOWANIA ZADAŃ ZAMKNIĘTYCH Nr zad Odp. 1 4 5 6 7 8 9 10 11 1 1 14 B B C A D D A B C A B D C C Nr zad Odp. 15
Bardziej szczegółowoHarmonogramowanie przedsięwzięć
Harmonogramowanie przedsięwzięć Mariusz Kaleta Instytut Automatyki i Informatyki Stosowanej Politechnika Warszawska luty 2014, Warszawa Politechnika Warszawska Harmonogramowanie przedsięwzięć 1 / 25 Wstęp
Bardziej szczegółowoSPOTKANIE 9: Metody redukcji wymiarów
Wrocław University of Technology SPOTKANIE 9: Metody redukcji wymiarów Piotr Klukowski* Studenckie Koło Naukowe Estymator piotr.klukowski@pwr.wroc.pl 08.12.2015 *Część slajdów pochodzi z prezentacji dr
Bardziej szczegółowoHierarchiczna analiza skupień
Hierarchiczna analiza skupień Cel analizy Analiza skupień ma na celu wykrycie w zbiorze obserwacji klastrów, czyli rozłącznych podzbiorów obserwacji, wewnątrz których obserwacje są sobie w jakimś określonym
Bardziej szczegółowoSortowanie topologiczne skierowanych grafów acyklicznych
Sortowanie topologiczne skierowanych grafów acyklicznych Metody boolowskie w informatyce Robert Sulkowski http://robert.brainusers.net 23 stycznia 2010 1 Definicja 1 (Cykl skierowany). Niech C = (V, A)
Bardziej szczegółowoPróbny egzamin maturalny z matematyki Poziom rozszerzony
Kujawsko-Pomorskie Centrum Edukacji Nauczycieli w Bydgoszczy PLACÓWKA AKREDYTOWANA KOD PESEL PRÓBNY EGZAMIN MATURALNY Z MATEMATYKI Marzec 2019 POZIOM ROZSZERZONY 1. Rozwiązania zadań i odpowiedzi wpisuj
Bardziej szczegółowoINSTRUKCJE REPETYCYJNE PĘTLE
INSTRUKCJE REPETYCYJNE PĘTLE Pętla while( ) while ( wyrażenie ) instrukcja; while ( wyrażenie ) instrukcja_1; instrukcja_2;... instrukcja_n; Pętla wykonywana jest tak długo jak wartość wyrażenie jest różna
Bardziej szczegółowoWersja testu A 18 czerwca 2009 r.
Wersja testu A 18 czerwca 2009 r. 1. a. T b. N c. T d. N 2. a. T b. N c. N d. T 3. a. N b. T c. N d. T 4. a. T b. T c. N d. T 5. a. T b. T c. N d. N 6. a. T b. T c. T d. N 7. a. N b. T c. N d. T 8. a.
Bardziej szczegółowoDrzewa. Jeżeli graf G jest lasem, który ma n wierzchołków i k składowych, to G ma n k krawędzi. Własności drzew
Drzewa Las - graf, który nie zawiera cykli Drzewo - las spójny Jeżeli graf G jest lasem, który ma n wierzchołków i k składowych, to G ma n k krawędzi. Własności drzew Niech T graf o n wierzchołkach będący
Bardziej szczegółowoElementy inteligencji obliczeniowej
Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.
Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka ADALINE. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 218-1-15/22 Projekt pn.
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 14 Maszyna Boltzmanna
do sieci neuronowych, wykład 14 Maszyna Boltzmanna M. Czoków, J. Piersa Faculty of Mathematics and Computer Science, Nicolaus Copernicus University, Toruń, Poland 2014-01-21 Problemy z siecią Hopfilda
Bardziej szczegółowoWprowadzenie do sieci neuronowych i zagadnień deep learning
Wprowadzenie do sieci neuronowych i zagadnień deep learning Inteligentne Obliczenia Wydział Mechatroniki Politechniki Warszawskiej Anna Sztyber INO (IAiR PW) Deep learning Anna Sztyber 1 / 28 Deep learning
Bardziej szczegółowoAlgorytmy metaheurystyczne Wykład 11. Piotr Syga
Algorytmy metaheurystyczne Wykład 11 Piotr Syga 22.05.2017 Drzewa decyzyjne Idea Cel Na podstawie przesłanek (typowo zbiory rozmyte) oraz zbioru wartości w danych testowych, w oparciu o wybrane miary,
Bardziej szczegółowoJądrowe klasyfikatory liniowe
Jądrowe klasyfikatory liniowe Waldemar Wołyński Wydział Matematyki i Informatyki UAM Poznań Wisła, 9 grudnia 2009 Waldemar Wołyński () Jądrowe klasyfikatory liniowe Wisła, 9 grudnia 2009 1 / 19 Zagadnienie
Bardziej szczegółowoZŁOŻONOŚĆ OBLICZENIOWA ALGORYTMÓW
ZŁOŻONOŚĆ OBLICZENIOWA ALGORYTMÓW RELACJE MIEDZY KLASAMI ZŁOŻONOŚCI Bartosz Zieliński Katedra Fizyki Teoretycznej i Informatyki Zima 2011-2012 KLASY ZŁOŻONOŚCI KLASE ZŁOŻONOŚCI OPISUJE SIE PODAJAC: Model
Bardziej szczegółowoPRÓBNY EGZAMIN MATURALNY
PRÓBNY EGZAMIN MATURALNY Z MATEMATYKI ZESTAW NR 194057 WYGENEROWANY AUTOMATYCZNIE W SERWISIE ZADANIA.INFO POZIOM PODSTAWOWY CZAS PRACY: 170 MINUT 1 Zadania zamknięte ZADANIE 1 (1 PKT) { 21x 14y = 28 Rozwiazaniem
Bardziej szczegółowoGraf. Definicja marca / 1
Graf 25 marca 2018 Graf Definicja 1 Graf ogólny to para G = (V, E), gdzie V jest zbiorem wierzchołków (węzłów, punktów grafu), E jest rodziną krawędzi, które mogą być wielokrotne, dokładniej jednoelementowych
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład XI: Testowanie hipotez statystycznych 12 stycznia 2015 Przykład Motywacja X 1, X 2,..., X N N (µ, σ 2 ), Y 1, Y 2,..., Y M N (ν, δ 2 ). Chcemy sprawdzić, czy µ = ν i σ 2 = δ 2, czyli że w obu populacjach
Bardziej szczegółowoAlgorytmy stochastyczne, wykład 01 Podstawowy algorytm genetyczny
Algorytmy stochastyczne, wykład 01 J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2014-02-21 In memoriam prof. dr hab. Tomasz Schreiber (1975-2010) 1 2 3 Różne Orientacyjny
Bardziej szczegółowoWYŻSZA SZKOŁA INFORMATYKI STOSOWANEJ I ZARZĄDZANIA
DRZEWA i LASY Drzewem nazywamy graf spójny nie zawierający cykli elementarnych. Lasem nazywamy graf nie zawierający cykli elementarnych. Przykłady drzew i lasów takie krawędzie są wykluczone drzewo las
Bardziej szczegółowoNowy generator grafów dwudzielnych
Nowy generator grafów dwudzielnych w analizie systemów rekomendujących Szymon Chojnacki Instytut Podstaw Informatyki Polskiej Akademii Nauk 08 marca 2011 roku Plan prezentacji 1 Wprowadzenie 2 Dane rzeczywiste
Bardziej szczegółowoStruktury danych i złożoność obliczeniowa Wykład 5. Prof. dr hab. inż. Jan Magott
Struktury danych i złożoność obliczeniowa Wykład. Prof. dr hab. inż. Jan Magott Algorytmy grafowe: podstawowe pojęcia, reprezentacja grafów, metody przeszukiwania, minimalne drzewa rozpinające, problemy
Bardziej szczegółowoStrategie kwantowe w teorii gier
Uniwersytet Jagielloński adam.wyrzykowski@uj.edu.pl 18 stycznia 2015 Plan prezentacji 1 Gra w odwracanie monety (PQ penny flip) 2 Wojna płci Definicje i pojęcia Równowagi Nasha w Wojnie płci 3 Kwantowanie
Bardziej szczegółowoĄ Ń Ę Ę Ą Ę Ć ź Ż Ż Ą ń Ź Ż Ż ń ń Ź Ą Ń Ą Ą Ę ń ź Ę Ę Ż Ć Ą ź Ą Ę ń ź Ę ń ń Ą Ż Ę ń Ą ń ń Ę Ę Ę Ź ń Ę ń ń ń ń Ź Ę Ś ź Ą Ń ń Ż Ź Ę Ź ń ń ń Ę Ę ń Ż Ą ń ńń Ś ń ń Ż Ż Ę Ż Ń Ę Ą Ń Ł ń ń ń ń ń ń ń ń Ś Ź Ę Ś
Bardziej szczegółowoŁ ŚĆ ń Ś Ł Ź Ć Ł Ą ńń ć Ż Ą Ł Ś ń Ł ć Ś ń ć ć ć Ó Ż ć ć Ą Ś ć Ś ć Ń Ś ć Ś ć Ś Ć Ś Ż Ś Ś Ż Ś Ó ń ć ć Ź Ł ć ć ć ń ń ć ć Ą ć ć ć Ź ć ć ć ć ć ć Ó Ź Ó Ł Ł Ń ć ć Ź Ą ć ć ń ć Ą ć ć ć Ł Ź Ź Ź Ż Ł Ż Ł Ż ć ń ć Ą
Bardziej szczegółowoKolorowanie wierzchołków
Kolorowanie wierzchołków Mając dany graf, pokolorować jego wierzchołki w taki sposób, aby każde dwa wierzchołki sąsiednie miały inny kolor. Każda krawędź łączy wierzchołki różnych kolorów. Takie pokolorowanie
Bardziej szczegółowoPrzejścia fazowe w uogólnionym modelu modelu q-wyborcy na grafie zupełnym
Przejścia fazowe w uogólnionym modelu modelu q-wyborcy na grafie zupełnym Piotr Nyczka Institute of Theoretical Physics University of Wrocław Artykuły Opinion dynamics as a movement in a bistable potential
Bardziej szczegółowoObliczenia Naturalne - Algorytmy Mrówkowe
Plan Literatura Obliczenia Naturalne - Algorytmy Mrówkowe Paweł Paduch Politechnika Świętokrzyska 8 maja 2014 Paweł Paduch Obliczenia Naturalne - Algorytmy Mrówkowe 1 z 43 Plan wykładu Plan Literatura
Bardziej szczegółowoMacierz o wymiarach m n. a 21. a 22. A =
Macierze 1 Macierz o wymiarach m n A = a 11 a 12 a 1n a 21 a 22 a 2n a m1 a m2 a mn Mat m n (R) zbiór macierzy m n o współczynnikach rzeczywistych Analogicznie określamy Mat m n (Z), Mat m n (Q) itp 2
Bardziej szczegółowoAlgorytmy mrówkowe (ang. Ant Colony Optimization)
Algorytmy mrówkowe (ang. Ant Colony Optimization) 1. Wprowadzenie do ACO a) mrówki naturalne b) mrówki sztuczne c) literatura (kilka pozycji) 2. ACO i TSP 1. Wprowadzenie do ACO a) mrówki naturalne ślepe,
Bardziej szczegółowoGramatyki grafowe. Dla v V, ϕ(v) etykieta v. Klasa grafów nad Σ - G Σ.
Gramatyki grafowe Def. Nieskierowany NL-graf (etykietowane wierzchołki) jest czwórką g = (V, E, Σ, ϕ), gdzie: V niepusty zbiór wierzchołków, E V V zbiór krawędzi, Σ - skończony, niepusty alfabet etykiet
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.
Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2
Bardziej szczegółowoPodstawy Sztucznej Inteligencji (PSZT)
Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12
Bardziej szczegółowozadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych
zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych 1. [E.A 5.10.1996/zad.4] Funkcja gęstości dana jest wzorem { 3 x + 2xy + 1 y dla (x y) (0 1) (0 1) 4 4 P (X > 1 2 Y > 1 2 ) wynosi:
Bardziej szczegółowoObliczenia inspirowane Naturą
Obliczenia inspirowane Naturą Wykład 03 (uzupełnienie Wykładu 02) Jarosław Miszczak IITiS PAN Gliwice 31/03/2016 1 / 17 1 2 / 17 Dynamika populacji Równania Lotki-Voltery opisują model drapieżnik-ofiara.
Bardziej szczegółowo