Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej
|
|
- Aleksander Dudek
- 4 lat temu
- Przeglądów:
Transkrypt
1 Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu w dziedzinach matematyczno-przyrodniczych realizowany w ramach Poddziałania Programu Operacyjnego Kapitał Ludzki
2 1 Sieci Hopfielda 2 3 Złożoność pamięciowa Dynamika stochastyczna
3 Sieci Hopfielda 1 Sieci Hopfielda 2 3 Złożoność pamięciowa Dynamika stochastyczna
4 Sieci Hopfielda Model sieci rekurencyjnej każda jednostka ma przypisany swój spin σ i { 1, +1} jest to aktualna aktywacja neuronu i, która może się zmieniać podczas dynamiki, połączenia synaptyczne mają przypisane wagi w ij = w ji R, przyjmujemy w ii = 0, jeżeli krawędzi nie ma w grafie, to przyjmujemy w = 0, ponadto neurony otrzymują swoje pole zewnętrzne h i R podobnie jak wagi są to wartości ustalone w trakcie procesu
5 Sieci Hopfielda Określmy energię sieci zależną od bieżącej konfiguracji spinów neuronów: energia E( σ) = 1 w ij σ i σ j 2 i i j h i σ i
6 Sieci Hopfielda Dynamika Glaubera Losujemy neuron σ i, Przypisujemy σ i = sign( j w ij σ j + h i ) Powtarzamy 1 i 2 aż do ustabilizowania się sytuacji.
7 Dynamika Little a Sieci Hopfielda Rozpoczynamy z losowego σ 0 Powtarzamy wielokrotnie: Przypisujemy σ t+1 := sign(w σ t + h) gdzie W = [w ij ] i,j=1..n macierz wag, h wektor pól zewnętrznych, σ t wektor spinów w t-tym kroku.
8 1 Sieci Hopfielda 2 3 Złożoność pamięciowa Dynamika stochastyczna
9 Dwupodział Grafu Problem: Dany jest graf ważony G = (V, E), v : E R 0. Cel: Podzielić V na dwa podzbiory V = U 1 U 2, takie że sumaryczna waga krawędzi pomiędzy U 1 a U 2 będzie minimalna. Krawędzie w obrębie jednej klasy (z U 1 do U 1 oraz z U 2 do U 2 ) są darmowe. (u,v) E:u U 1,v U 2 v((u, v)) min
10 Dwupodział Grafu
11 Konfiguracja sieci Oznaczenia: spin neuronu σ i = +1: przynależność do zbioru U 1, v i U 1, spin σ i = 1: v i U 2. konfiguracja sigma jednoznacznie odpowiada podziałowi V na dwa podzbiory.
12 Składnik optymalizujący: E 1 ( σ) = i j σ i σ j v(ij)
13 Składnik optymalizujący: E 1 ( σ) = i j σ i σ j v(ij) Składnik penalizujący: ( ) 2 E 2 ( σ) = ( U 1 U 2 ) 2 = σ i i Pomiń obliczenia
14 Energia E( σ) = c 1 E 1 + c 2 E 2
15 Energia E( σ) = c 1 E 1 + c 2 E 2 Gdzie c 1, c 2 > 0 są skalarami. Powinno przy tym zachodzić: c 1 E 1 c 2 E 2. W efekcie:
16 Energia E( σ) = c 1 E 1 + c 2 E 2 Gdzie c 1, c 2 > 0 są skalarami. Powinno przy tym zachodzić: c 1 E 1 c 2 E 2. W efekcie: E( σ) = c 1 σ i σ j v(i, j) + c 2 σ i σ j + i j i j i σ 2 i
17 Energia E( σ) = c 1 E 1 + c 2 E 2 Gdzie c 1, c 2 > 0 są skalarami. Powinno przy tym zachodzić: c 1 E 1 c 2 E 2. W efekcie: E( σ) = c 1 σ i σ j v(i, j) + c 2 σ i σ j + i j i j i σ 2 i
18 Energia E( σ) = c 1 E 1 + c 2 E 2 Gdzie c 1, c 2 > 0 są skalarami. Powinno przy tym zachodzić: c 1 E 1 c 2 E 2. W efekcie: E( σ) = c 1 σ i σ j v(i, j) + c 2 σ i σ j + i j i j i σ 2 i ponieważ i σ2 i = i 1 = const
19 Energia E( σ) = c 1 E 1 + c 2 E 2 Gdzie c 1, c 2 > 0 są skalarami. Powinno przy tym zachodzić: c 1 E 1 c 2 E 2. W efekcie: E( σ) = c 1 σ i σ j v(i, j) + c 2 σ i σ j + i j i j i σ 2 i ponieważ i σ2 i = i 1 = const E( σ) = 1 σ i σ j 2 (c 1 v(i, j) c 2 ) 2 i j
20 Wagi Otrzymujemy zależności na: wagi w ij = 2 (c 1 v(i, j) c 2 ) oraz pola zewnętrzne h i = 0
21 Problem: Dany graf G = (V, E) oraz k kolorów {1,.., k}. Cel: Chcemy każdemu z wierzchołków v V przypisać jeden z k kolorów, tak aby sąsiadujące wierzchołki otrzymały różne kolorowania. Tzn. znaleźć funkcję F : V {1,.., k} spełniającą: Jeżeli graf jest planarny, to k 4. (u,v) E F (u) F (v)
22 Konfiguracja sieci N = k V neuronów, indeksowanych podwójnym oznaczeniem σ iα, i numer wierzchołka w grafie, α numer koloru, σ iα {0, +1}, σ iα = +1 wierzchołek i ma przypisany kolor α, σ iα = 0 wierzchołek i nie ma przypisanego koloru α, konfiguracja dopuszcza przypisanie więcej niż jednego koloru jednocześnie.
23 Konfiguracja sieci
24 Pomiń obliczenia
25 Pomiń obliczenia Oznaczmy v ij = { +1 (i, j) E 0 wpw
26 Pomiń obliczenia Oznaczmy { +1 (i, j) E v ij = 0 wpw δ αβ = { +1 α = β 0 wpw
27 Pomiń obliczenia Oznaczmy { +1 (i, j) E v ij = 0 wpw δ αβ = { +1 α = β 0 wpw Składnik optymalizujący energii: E 1 ( σ) = c 1 v ij σ iα σ jβ δ αβ i j α,β
28 Pomiń obliczenia Oznaczmy { +1 (i, j) E v ij = 0 wpw δ αβ = { +1 α = β 0 wpw Składnik optymalizujący energii: E 1 ( σ) = c 1 v ij σ iα σ jβ δ αβ E 1 ( σ) = 1 2 i j i,j,α,β α,β 2c 1 v ij δ αβ σ iα σ jβ
29 Składnik penalizujący energii: ( E 2 ( σ) = c α i σ iα ) 2
30 Składnik penalizujący energii: ( E 2 ( σ) = c ) 2 σ iα i α E 2 ( σ) = c σ iα + σ iα σ iβ + i α α β α σ 2 iα
31 Składnik penalizujący energii: ( E 2 ( σ) = c ) 2 σ iα i α E 2 ( σ) = c σ iα + σ iα σ iβ + i α α β α = c 2 N σ iα + σ iα σ iβ i α i α β σ 2 iα
32 Składnik penalizujący energii: ( E 2 ( σ) = c ) 2 σ iα i α E 2 ( σ) = c σ iα + σ iα σ iβ + σ 2 iα i α α β α = c 2 N σ iα + σ iα σ iβ i α i α β = c 2 N σ iα + δ ij σ iα σ iβ iα j i α β
33 Składnik penalizujący energii: E 2 ( σ) = c iα σ iα + 2 δ ij (1 δ αβ )σ iα σ iβ ijαβ
34 Składnik penalizujący energii: E 2 ( σ) = c iα σ iα + 2 δ ij (1 δ αβ )σ iα σ iβ ijαβ E = E 1 + E 2
35 Składnik penalizujący energii: E 2 ( σ) = c iα σ iα + 2 δ ij (1 δ αβ )σ iα σ iβ ijαβ E = E 1 + E 2 E( σ) = 1 2 ( 2c 1 v ij δ αβ 2c 2 δ ij (1 δ αβ ))σ iα σ jβ + iα i,j,α,β σ iα c 2
36 Wagi Otrzymujemy zależności na: wagi w ijαβ = 2c 1 v ij δ αβ 2c 2 δ ij (1 δ αβ ) oraz pola zewnętrzne h iα = c 2
37 Problem: Dany jest graf ważony G = (V, E) oraz wagi krawędzi v : V V R. Jeżeli (u 1 u 2 ) / E, to jej waga jest duża v((u 1 u 2 )) N max e E v(e). Cel: Chcemy znaleźć kolejność wierzchołków (permutację τ S N ), taką by odwiedzenie wierzchołków w jej kolejności, dało minimalny koszt. N 1 i=1 v((u τ(i) u τ(i+1) )) + v(u τn u τ1 ) min
38 Konfiguracja sieci sieć składa się z N 2 = V 2 neuronów indeksowanych podwójnym oznaczeniem σ iµ, σ iµ = +1 µ-tym elementem cyklu jest wierzchołek v i, σ iµ = 0 że wierzchołek v i nie został odwiedzony w kroku µ-tym cyklu, konfiguracja σ dopuszcza sytuacje, w których jakiś wierzchołek może być odwiedzony więcej niż raz, dopuszamy też odwiedzenie dwóch lub więcej wierzchołków na raz.
39
40 Składnik optymalizujący energii: E 1 ( σ) = c 1 v ij (δ µ,ν 1 + δ µ 1,ν ) σ iµ σ jν iµ jν
41 Składnik optymalizujący energii: E 1 ( σ) = c 1 v ij (δ µ,ν 1 + δ µ 1,ν ) σ iµ σ jν iµ jν Składnik penalizujący energii: ( ) 2 ( E 2 ( σ) = c 2 σ iµ 1 + c 2 σ iµ 1 µ i i µ ) 2 Pomiń obliczenia
42 ( E 2 ( σ) = c 2 µ i σ2 iµ + i j σ iµσ jµ 2 ) i σ iµ + 1 ( + c 2 i µ σ2 iµ + µ ν σ iµσ iν 2 ) µ σ iµ + 1
43 ( E 2 ( σ) = c 2 µ i σ2 iµ + i j σ iµσ jµ 2 ) i σ iµ + 1 ( + c 2 i µ σ2 iµ + µ ν σ iµσ iν 2 ) µ σ iµ + 1 E 2 ( σ) = c 2 µν δ µν ij (1 δ ij)σ iµ σ jν c 2 iµ σ iµ + c 2 i,j δ ij µν (1 δ µν)σ iµ σ jν c 2 iµ σ iµ
44 ( E 2 ( σ) = c 2 µ i σ2 iµ + i j σ iµσ jµ 2 ) i σ iµ + 1 ( + c 2 i µ σ2 iµ + µ ν σ iµσ iν 2 ) µ σ iµ + 1 E 2 ( σ) = c 2 µν δ µν ij (1 δ ij)σ iµ σ jν c 2 iµ σ iµ + c 2 i,j δ ij µν (1 δ µν)σ iµ σ jν c 2 iµ σ iµ
45 ( E 2 ( σ) = c 2 µ i σ2 iµ + i j σ iµσ jµ 2 ) i σ iµ + 1 ( + c 2 i µ σ2 iµ + µ ν σ iµσ iν 2 ) µ σ iµ + 1 E 2 ( σ) = c 2 µν δ µν ij (1 δ ij)σ iµ σ jν c 2 iµ σ iµ + c 2 i,j δ ij µν (1 δ µν)σ iµ σ jν c 2 iµ σ iµ E 2 ( σ) = c 2 (δ µν (1 δ ij ) + δ ij (1 δ µν )) σ iµ σ jν 2c 2 ijµν iµ σ iµ
46 E( σ) = 1 σ iµ σ jν ( c 2 (δ µν (1 δ ij ) + δ ij (1 δ µν )) 2 ijµν c 1 v ij (δ µ,ν 1 + δ µ 1,ν )) c 2 iµ σ iµ
47 Wagi Otrzymujemy zależności na: wagi w ijµν = c 2 (δ µν (1 δ ij ) + δ ij (1 δ µν )) c 1 v ij (δ µ,ν 1 + δ µ 1,ν )) oraz na pola zewnętrzne h iµ = c 2
48 Problem: Danych jest N zadań oraz N wykonawców. Koszt wykonania zadania α przez wykonawcę i wynosi v iα, gdzie i, α = 1..N. Cel: Chcemy przyporządkować zadania wykonawcom tak, aby każde zadanie zostało wykonane oraz każdy wykonawca wykonał zadanie. Szukamy najtańszego przydziału (permutacji τ S N ): i v i,τi min
49 Konfiguracja sieci sieć liczy N 2 neuronów indeksowanych podwójnym oznaczeniem σ iα, i numer pracy, α numer wykonawcy, Niech σ iα {0, +1}, σ iα = +1 zadanie i wykonuje pracownik α, σ iα = 0 zadania i nie wykonuje pracownik α,
50 Składnik optymalizujący energii: E 1 ( σ) = c 1 v iα σ iα iα
51 Składnik optymalizujący energii: E 1 ( σ) = c 1 v iα σ iα Składnik penalizujący energii: ( ) 2 ( E 2 ( σ) = c 2 σ iα 1 + c 2 σ iα 1 iα α i i α ) 2
52 Po przeliczeniach (analogicznie jak przy cyklu Hammiltona): E 2 ( σ) = c 2 (δ αβ (1 δ ij ) + δ ij (1 δ αβ )) σ iα σ jβ 2c 2 ijαβ iα σ iα
53 Wagi Zależności na: wagi w ijαβ = 2c 2 (δ αβ (1 δ ij ) + δ ij (1 δ αβ )) oraz na pola zewnętrzne h iα = 2c 2 c 1 v iα
54 Złożoność pamięciowa Dynamika stochastyczna 1 Sieci Hopfielda 2 3 Złożoność pamięciowa Dynamika stochastyczna
55 Złożoność pamięciowa Dynamika stochastyczna Reprezentacja naiwna int N=100; float wagi[n][n][n][n]; Niech V = N = 100, Sieć liczy N 2 = 10 4 neuronów, Ilość krawędzi synaptycznych (N 2 ) 2 = 10 8, Tablica float-ów (4B) 400MB na sieć... Wagi są symetryczne w ijαβ = w jiβα, więc tablice dynamiczne redukują o połowę.
56 Złożoność pamięciowa Dynamika stochastyczna Jak oszczędzić? Wagi w autoasocjatorze Hopfielda: w ij = 1 N P ξ µ i ξ µ j, µ=1 P µ=1 ξµ i ξ µ j P,..., +P, P N 2, więc 1B wystarczy na 127 wzorców, zamiast tablicy wag przetrzymujemy P N 2 tablic z wzorcami uczącymi, wymaga to PN 2 = ( 4B) = 4MB (za cenę liczenia wag za każdym razem).
57 Złożoność pamięciowa Dynamika stochastyczna Jak oszczędzić? Wagi w problemie kolorowania wierzchołków: w ijαβ = 2c 1 v ij δ αβ 2c 2 δ ij (1 δ αβ ) c 1 i c 2 są stałe, δ αβ, δ ij {0, 1} i można je policzyć w czasie stałym, v ij jest jedyną informacją, którą trzeba przechować, tablica (symetryczna) v zajmie N 2 4B = 40kB
58 Dynamika stochastyczna Złożoność pamięciowa Dynamika stochastyczna 1 Rozpoczynamy ze startowego lub losowego układu spinów σ, 2 Powtarzamy wielokrotnie: 1 Próbujemy zmienić spin losowo wybranej jednostki, 2 Jeżeli redukuje to energię, to przyjmujemy tą zmianę, 3 Jeżeli zwiększa to energię o E, to przyjmujemy zmianę z prawdopodobieństwem P = exp( β E) i odrzucamy z komplementarnym. β > 0 jest temperaturą odwrotną i rośnie w trakcie dynamiki.
59 Złożoność pamięciowa Dynamika stochastyczna Ewolucja sieci Hopfielda w wysokiej temperaturze Uwaga. Animacja jest znacznie przyśpieszona i może powodować zmęczenie wzroku! click
60 Złożoność pamięciowa Dynamika stochastyczna Ewolucja sieci Hopfielda w niskiej temperaturze Uwaga. Animacja jest znacznie przyśpieszona i może powodować zmęczenie wzroku! click
61 Złożoność pamięciowa Dynamika stochastyczna Zadania Przedstaw sposób kodowania problemu grafowego (dwupodział, kolorowanie, cykl Hammiltona) na konfigurację sieci neuronowej. Zaimplementuj sieć neuronową do rozwiązywania problemu grafowego (jeden z powyższych). Przemodeluj reprezentację, aby sieć mogła pracować na większych danych. Zapoznaj się z zagadnieniem symulowanego wyżarzania (simmulated annealing). Dodaj ten mechanizm do implementacji.
Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda
Wstęp do sieci neuronowych, wykład 10. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-12-13 1 Modele sieci rekurencyjnej Energia sieci 2 3 Modele sieci
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda
Wstęp do sieci neuronowych, wykład 10. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-12-19 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda
Wstęp do sieci neuronowych, wykład 9. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-12-10 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda
Wstęp do sieci neuronowych, wykład 9. M. Czoków, J. Piersa 2010-12-07 1 Sieci skierowane 2 Modele sieci rekurencyjnej Energia sieci 3 Sieci skierowane Sieci skierowane Sieci skierowane graf połączeń synaptycznych
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.
Wstęp do sieci neuronowych, wykład 7. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 212-11-28 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.
Wstęp do sieci neuronowych, wykład 7. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 213-11-19 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 8 Uczenie nienadzorowane.
Wstęp do sieci neuronowych, wykład 8. M. Czoków, J. Piersa, A. Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 1-811-6 Projekt pn. Wzmocnienie potencjału dydaktycznego
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.
Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 2013-11-26 Projekt pn. Wzmocnienie potencjału
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.
Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 13-1- Projekt pn. Wzmocnienie potencjału dydaktycznego
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3
Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa
Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa M. Czoków, J. Piersa 2012-01-10 1 Łańcucha Markowa 2 Istnienie Szukanie stanu stacjonarnego 3 1 Łańcucha Markowa 2 Istnienie Szukanie stanu stacjonarnego
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 14 Maszyna Boltzmanna
do sieci neuronowych, wykład 14 Maszyna Boltzmanna M. Czoków, J. Piersa Faculty of Mathematics and Computer Science, Nicolaus Copernicus University, Toruń, Poland 2014-01-21 Problemy z siecią Hopfilda
Bardziej szczegółowoPrawa potęgowe w grafach przepływu informacji dla geometrycznych sieci neuronowych
w grafach przepływu informacji dla geometrycznych sieci neuronowych www.mat.uni.torun.pl/~piersaj 2009-06-10 1 2 3 symulacji Graf przepływu ładunku Wspóczynnik klasteryzacji X (p) p α Rozkłady prawdopodobieństwa
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-10 Projekt pn. Wzmocnienie
Bardziej szczegółowoWstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty
Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-03 Projekt pn. Wzmocnienie potencjału
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 11 Łańcuchy Markova
Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova M. Czoków, J. Piersa 2010-12-21 1 Definicja Własności Losowanie z rozkładu dyskretnego 2 3 Łańcuch Markova Definicja Własności Losowanie z rozkładu
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 2 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 213-1-15 Projekt pn. Wzmocnienie potencjału
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych
Bardziej szczegółowoNajprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;
Sieci Hopfielda Najprostsze modele sieci z rekurencją sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Modele bardziej złoŝone: RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.
Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2
Bardziej szczegółowoAlgorytmy mrówkowe (optymalizacja kolonii mrówek, Ant Colony optimisation)
Algorytmy mrówkowe (optymalizacja kolonii mrówek, Ant Colony optimisation) Jest to technika probabilistyczna rozwiązywania problemów obliczeniowych, które mogą zostać sprowadzone do problemu znalezienie
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.
Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka ADALINE. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 218-1-15/22 Projekt pn.
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych
Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. dla sieci skierowanych Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-25 1 Motywacja
Bardziej szczegółowoAlgorytmy stochastyczne laboratorium 03
Algorytmy stochastyczne laboratorium 03 Jarosław Piersa 10 marca 2014 1 Projekty 1.1 Problem plecakowy (1p) Oznaczenia: dany zbiór przedmiotów x 1,.., x N, każdy przedmiot ma określoną wagę w(x i ) i wartość
Bardziej szczegółowoPrzykłady grafów. Graf prosty, to graf bez pętli i bez krawędzi wielokrotnych.
Grafy Graf Graf (ang. graph) to zbiór wierzchołków (ang. vertices), które mogą być połączone krawędziami (ang. edges) w taki sposób, że każda krawędź kończy się i zaczyna w którymś z wierzchołków. Graf
Bardziej szczegółowoDigraf. 13 maja 2017
Digraf 13 maja 2017 Graf skierowany, digraf, digraf prosty Definicja 1 Digraf prosty G to (V, E), gdzie V jest zbiorem wierzchołków, E jest rodziną zorientowanych krawędzi, między różnymi wierzchołkami,
Bardziej szczegółowoZofia Kruczkiewicz, Algorytmu i struktury danych, Wykład 14, 1
Wykład Algorytmy grafowe metoda zachłanna. Właściwości algorytmu zachłannego:. W przeciwieństwie do metody programowania dynamicznego nie występuje etap dzielenia na mniejsze realizacje z wykorzystaniem
Bardziej szczegółowoa) 7 b) 19 c) 21 d) 34
Zadanie 1. Pytania testowe dotyczące podstawowych własności grafów. Zadanie 2. Przy każdym z zadań może się pojawić polecenie krótkiej charakterystyki algorytmu. Zadanie 3. W zadanym grafie sprawdzenie
Bardziej szczegółowoSymulacje geometrycznych sieci neuronowych w środowisku rozproszonym
Symulacje geometrycznych sieci neuronowych w środowisku rozproszonym Jarosław Piersa, Tomasz Schreiber {piersaj, tomeks}(at)mat.umk.pl 2010-07-21 1 2 Dany podzbiór V R 3. N neuronów należących do V N Poiss(c
Bardziej szczegółowoF. Piękniewski and T. Schreiber. Preprint No 8/2005 Version 1, posted on April 20, 2005
presence of correlated patterns F. Piękniewski and T. Schreiber Preprint No 8/2005 Version 1, posted on April 20, 2005 UNIWERSYTET MIKOŁAJA KOPERNIKA W TORUNIU WYDZIAŁ MATEMATYKI I INFORMATYKI Filip Piękniewski
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
Bardziej szczegółowoIMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ
IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,
Bardziej szczegółowoPodstawy Sztucznej Inteligencji (PSZT)
Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12
Bardziej szczegółowoAlgorytmy stochastyczne, wykład 02 Algorytmy genetyczne
Algorytmy stochastyczne, wykład 02 Algorytmy genetyczne J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2014-02-27 1 Mutacje algorytmu genetycznego 2 Dziedzina niewypukła abstrakcyjna
Bardziej szczegółowoAlgorytmiczna teoria grafów
Przedmiot fakultatywny 20h wykładu + 20h ćwiczeń 21 lutego 2014 Zasady zaliczenia 1 ćwiczenia (ocena): kolokwium, zadania programistyczne (implementacje algorytmów), praca na ćwiczeniach. 2 Wykład (egzamin)
Bardziej szczegółowoSztuczne sieci neuronowe
www.math.uni.lodz.pl/ radmat Cel wykładu Celem wykładu jest prezentacja różnych rodzajów sztucznych sieci neuronowych. Biologiczny model neuronu Mózg człowieka składa się z około 10 11 komórek nerwowych,
Bardziej szczegółowoAlgorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa
Bardziej szczegółowoBadania operacyjne: Wykład Zastosowanie kolorowania grafów w planowaniu produkcji typu no-idle
Badania operacyjne: Wykład Zastosowanie kolorowania grafów w planowaniu produkcji typu no-idle Paweł Szołtysek 12 czerwca 2008 Streszczenie Planowanie produkcji jest jednym z problemów optymalizacji dyskretnej,
Bardziej szczegółowoDowód probabilistyczny Uwagi do dowodu Bibliografia. Prawo Haczykowe. Łukasz Bieniasz-Krzywiec
09.10.2008 Plan prezentacji 1 Wstęp Diagram Ferrersa Tableau Young a Haczyk (Hook) Twierdzenie Haczykowe 2 3 4 Diagram Ferrersa Wstęp Diagram Ferrersa Tableau Young a Haczyk (Hook) Twierdzenie Haczykowe
Bardziej szczegółowoWstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.
Wstęp do teorii sztucznej inteligencji Wykład III Modele sieci neuronowych. 1 Perceptron model najprostzszy przypomnienie Schemat neuronu opracowany przez McCullocha i Pittsa w 1943 roku. Przykład funkcji
Bardziej szczegółowoGrafy Alberta-Barabasiego
Spis treści 2010-01-18 Spis treści 1 Spis treści 2 Wielkości charakterystyczne 3 Cechy 4 5 6 7 Wielkości charakterystyczne Wielkości charakterystyczne Rozkład stopnie wierzchołków P(deg(x) = k) Graf jest
Bardziej szczegółowoSieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.
Sieci rekurencyjne Ewa Adamus ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych 7 maja 2012 Jednowarstwowa sieć Hopfielda, z n neuronami Bipolarna funkcja przejścia W wariancie
Bardziej szczegółowoKolorowanie wierzchołków Kolorowanie krawędzi Kolorowanie regionów i map. Wykład 8. Kolorowanie
Wykład 8. Kolorowanie 1 / 62 Kolorowanie wierzchołków - definicja Zbiory niezależne Niech G będzie grafem bez pętli. Definicja Mówimy, że G jest grafem k kolorowalnym, jeśli każdemu wierzchołkowi możemy
Bardziej szczegółowoProgramowanie dynamiczne i algorytmy zachłanne
Programowanie dynamiczne i algorytmy zachłanne Tomasz Głowacki tglowacki@cs.put.poznan.pl Zajęcia finansowane z projektu "Rozwój i doskonalenie kształcenia na Politechnice Poznańskiej w zakresie technologii
Bardziej szczegółowoAlgorytmy grafowe. Wykład 1 Podstawy teorii grafów Reprezentacje grafów. Tomasz Tyksiński CDV
Algorytmy grafowe Wykład 1 Podstawy teorii grafów Reprezentacje grafów Tomasz Tyksiński CDV Rozkład materiału 1. Podstawowe pojęcia teorii grafów, reprezentacje komputerowe grafów 2. Przeszukiwanie grafów
Bardziej szczegółowoDrzewa spinające MST dla grafów ważonych Maksymalne drzewo spinające Drzewo Steinera. Wykład 6. Drzewa cz. II
Wykład 6. Drzewa cz. II 1 / 65 drzewa spinające Drzewa spinające Zliczanie drzew spinających Drzewo T nazywamy drzewem rozpinającym (spinającym) (lub dendrytem) spójnego grafu G, jeżeli jest podgrafem
Bardziej szczegółowoProcesy stochastyczne
Wykład IV: dla łańcuchów Markowa 14 marca 2017 Wykład IV: Klasyfikacja stanów Kiedy rozkład stacjonarny jest jedyny? Przykład Macierz jednostkowa I wymiaru #E jest macierzą stochastyczną. Dla tej macierzy
Bardziej szczegółowoZadania z ćwiczeń #18 (pon. 7 maja) Matematyka Dyskretna
Zadania z ćwiczeń #18 (pon. 7 maja) Matematyka Dyskretna Q1.: Mamy dany zbiór artykułów, z których każdy ma co najmniej k z n możliwych tagów. Chcemy bardzo z grubsza pokategoryzować artykuły w jak najmniejszą
Bardziej szczegółowoProcesy stochastyczne
Wykład I: Istnienie procesów stochastycznych 2 marca 2015 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane są
Bardziej szczegółowoRównoległy algorytm wyznaczania bloków dla cyklicznego problemu przepływowego z przezbrojeniami
Równoległy algorytm wyznaczania bloków dla cyklicznego problemu przepływowego z przezbrojeniami dr inż. Mariusz Uchroński Wrocławskie Centrum Sieciowo-Superkomputerowe Agenda Cykliczny problem przepływowy
Bardziej szczegółowoMetody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium JAVA Zadanie nr 2 Rozpoznawanie liter autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z problemem klasyfikacji
Bardziej szczegółowoProcesy stochastyczne
Wykład I: Istnienie procesów stochastycznych 21 lutego 2017 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane
Bardziej szczegółowo8. Neuron z ciągłą funkcją aktywacji.
8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i
Bardziej szczegółowoReprezentacje grafów nieskierowanych Reprezentacje grafów skierowanych. Wykład 2. Reprezentacja komputerowa grafów
Wykład 2. Reprezentacja komputerowa grafów 1 / 69 Macierz incydencji Niech graf G będzie grafem nieskierowanym bez pętli o n wierzchołkach (x 1, x 2,..., x n) i m krawędziach (e 1, e 2,..., e m). 2 / 69
Bardziej szczegółowoTechniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I
Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:
Bardziej szczegółowoAlgorytmy wyznaczania centralności w sieci Szymon Szylko
Algorytmy wyznaczania centralności w sieci Szymon Szylko Zakład systemów Informacyjnych Wrocław 10.01.2008 Agenda prezentacji Cechy sieci Algorytmy grafowe Badanie centralności Algorytmy wyznaczania centralności
Bardziej szczegółowoPorównanie algorytmów wyszukiwania najkrótszych ścieżek międz. grafu. Daniel Golubiewski. 22 listopada Instytut Informatyki
Porównanie algorytmów wyszukiwania najkrótszych ścieżek między wierzchołkami grafu. Instytut Informatyki 22 listopada 2015 Algorytm DFS w głąb Algorytm przejścia/przeszukiwania w głąb (ang. Depth First
Bardziej szczegółowoWykład 4. Droga i cykl Eulera i Hamiltona
Wykład 4. i Hamiltona Wykład 4. i Hamiltona 1 / 35 Grafy Eulera Niech G będzie grafem spójnym. Definicja Jeżeli w grafie G istnieje zamknięta droga prosta zawierająca wszystkie krawędzie grafu, to taką
Bardziej szczegółowoUczenie sieci typu MLP
Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik
Bardziej szczegółowoProgramowanie dynamiczne
Programowanie dynamiczne Programowanie rekurencyjne: ZALETY: - prostota - naturalność sformułowania WADY: - trudność w oszacowaniu zasobów (czasu i pamięci) potrzebnych do realizacji Czy jest możliwe wykorzystanie
Bardziej szczegółowoDroga i cykl Eulera Przykłady zastosowania drogi i cyku Eulera Droga i cykl Hamiltona. Wykład 4. Droga i cykl Eulera i Hamiltona
Wykład 4. Droga i cykl Eulera i Hamiltona 1 / 92 Grafy Eulera Droga i cykl Eulera Niech G będzie grafem spójnym. Definicja Jeżeli w grafie G istnieje zamknięta droga prosta zawierająca wszystkie krawędzie
Bardziej szczegółowoSIECI REKURENCYJNE SIECI HOPFIELDA
SIECI REKURENCYJNE SIECI HOPFIELDA Joanna Grabska- Chrząstowska Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA SPRZĘŻENIE ZWROTNE W NEURONIE LINIOWYM sygnał
Bardziej szczegółowowiedzy Sieci neuronowe (c.d.)
Metody detekci uszkodzeń oparte na wiedzy Sieci neuronowe (c.d.) Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 8 Metody detekci uszkodzeń oparte na wiedzy Wprowadzenie
Bardziej szczegółowoKolorowanie wierzchołków grafu
Kolorowanie wierzchołków grafu Niech G będzie grafem prostym. Przez k-kolorowanie właściwe wierzchołków grafu G rozumiemy takie przyporządkowanie wierzchołkom grafu liczb naturalnych ze zbioru {1,...,
Bardziej szczegółowosynaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.
Sieci neuronowe model konekcjonistyczny Plan wykładu Mózg ludzki a komputer Modele konekcjonistycze Perceptron Sieć neuronowa Uczenie sieci Sieci Hopfielda Mózg ludzki a komputer Twój mózg to 00 000 000
Bardziej szczegółowoGrafem nazywamy strukturę G = (V, E): V zbiór węzłów lub wierzchołków, Grafy dzielimy na grafy skierowane i nieskierowane:
Wykład 4 grafy Grafem nazywamy strukturę G = (V, E): V zbiór węzłów lub wierzchołków, E zbiór krawędzi, Grafy dzielimy na grafy skierowane i nieskierowane: Formalnie, w grafach skierowanych E jest podzbiorem
Bardziej szczegółowoMETODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING NEURONOWE MAPY SAMOORGANIZUJĄCE SIĘ Self-Organizing Maps SOM Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki,
Bardziej szczegółowoWykład 10 Grafy, algorytmy grafowe
. Typy złożoności obliczeniowej Wykład Grafy, algorytmy grafowe Typ złożoności oznaczenie n Jedna operacja trwa µs 5 logarytmiczna lgn. s. s.7 s liniowa n. s.5 s. s Logarytmicznoliniowa nlgn. s.8 s.4 s
Bardziej szczegółowoE: Rekonstrukcja ewolucji. Algorytmy filogenetyczne
E: Rekonstrukcja ewolucji. Algorytmy filogenetyczne Przypominajka: 152 drzewo filogenetyczne to drzewo, którego liśćmi są istniejące gatunki, a węzły wewnętrzne mają stopień większy niż jeden i reprezentują
Bardziej szczegółowoStatystyki teoriografowe grafów funkcjonalnych w sieciach neuronowych
Statystyki teoriografowe grafów funkcjonalnych w sieciach neuronowych Wydział Matematyki i Informatyki, UMK 2011-12-21 1 Wstęp Motywacja 2 Model 3 4 Dalsze plany Referencje Motywacja 1 Wstęp Motywacja
Bardziej szczegółowoCo to jest model Isinga?
Co to jest model Isinga? Fakty eksperymentalne W pewnych metalach (np. Fe, Ni) następuje spontaniczne ustawianie się spinów wzdłuż pewnego kierunku, powodując powstanie makroskopowego pola magnetycznego.
Bardziej szczegółowoKomputerowa analiza zagadnień różniczkowych 6. Metoda diagramowa. Obszary stabilności. P. F. Góra
Komputerowa analiza zagadnień różniczkowych 6. Metoda diagramowa. Obszary stabilności. P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2013 Metoda diagramowa Ręczne wyprowadzanie równan wiaż acych współczynniki
Bardziej szczegółowoUczenie sieci neuronowych i bayesowskich
Wstęp do metod sztucznej inteligencji www.mat.uni.torun.pl/~piersaj 2009-01-22 Co to jest neuron? Komputer, a mózg komputer mózg Jednostki obliczeniowe 1-4 CPU 10 11 neuronów Pojemność 10 9 b RAM, 10 10
Bardziej szczegółowoSieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I.
Sieci M. I. Jordana Sieci rekurencyjne z parametrycznym biasem Leszek Rybicki 30 listopada 2007 Leszek Rybicki Sieci M. I. Jordana 1/21 Plan O czym będzie 1 Wstęp do sieci neuronowych Neurony i perceptrony
Bardziej szczegółowoSztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek
Sztuczne sieci neuronowe Ćwiczenia Piotr Fulmański, Marta Grzanek Piotr Fulmański 1 Wydział Matematyki i Informatyki, Marta Grzanek 2 Uniwersytet Łódzki Banacha 22, 90-232, Łódź Polska e-mail 1: fulmanp@math.uni.lodz.pl,
Bardziej szczegółowoAlgorytmy stochastyczne, wykład 08 Sieci bayesowskie
Algorytmy stochastyczne, wykład 08 Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2014-04-10 Prawdopodobieństwo Prawdopodobieństwo Prawdopodobieństwo warunkowe Zmienne
Bardziej szczegółowoAlgorytmy i struktury danych. Co dziś? Tytułem przypomnienia metoda dziel i zwyciężaj. Wykład VIII Elementarne techniki algorytmiczne
Algorytmy i struktury danych Wykład VIII Elementarne techniki algorytmiczne Co dziś? Algorytmy zachłanne (greedyalgorithms) 2 Tytułem przypomnienia metoda dziel i zwyciężaj. Problem można podzielić na
Bardziej szczegółowoZŁOŻONOŚĆ OBLICZENIOWA ALGORYTMÓW
ZŁOŻONOŚĆ OBLICZENIOWA ALGORYTMÓW NIEDETERMINISTYCZNE MASZYNY TURINGA Bartosz Zieliński Katedra Fizyki Teoretycznej i Informatyki Zima 2011-2012 NIEDETERMINISTYCZNE MASZYNY TURINGA DEFINICJA: NIEDETERMINISTYCZNA
Bardziej szczegółowoPrzekształcenia liniowe
Przekształcenia liniowe Zadania Które z następujących przekształceń są liniowe? (a) T : R 2 R 2, T (x, x 2 ) = (2x, x x 2 ), (b) T : R 2 R 2, T (x, x 2 ) = (x + 3x 2, x 2 ), (c) T : R 2 R, T (x, x 2 )
Bardziej szczegółowoMatematyczne Podstawy Informatyki
Matematyczne Podstawy Informatyki dr inż. Andrzej Grosser Instytut Informatyki Teoretycznej i Stosowanej Politechnika Częstochowska Rok akademicki 03/0 Przeszukiwanie w głąb i wszerz I Przeszukiwanie metodą
Bardziej szczegółowoĆwiczenia: Ukryte procesy Markowa lista 1 kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II
Ćwiczenia: Ukryte procesy Markowa lista kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II dr Jarosław Kotowicz Zadanie. Dany jest łańcuch Markowa, który może przyjmować wartości,,...,
Bardziej szczegółowoAlgorytm Dijkstry znajdowania najkrótszej ścieżki w grafie
Algorytm Dijkstry znajdowania najkrótszej ścieżki w grafie Używane struktury danych: V - zbiór wierzchołków grafu, V = {1,2,3...,n} E - zbiór krawędzi grafu, E = {(i,j),...}, gdzie i, j Î V i istnieje
Bardziej szczegółowoPriorytetyzacja przypadków testowych za pomocą macierzy
Priorytetyzacja przypadków testowych za pomocą macierzy W niniejszym artykule przedstawiony został problem przyporządkowania priorytetów do przypadków testowych przed rozpoczęciem testów oprogramowania.
Bardziej szczegółowoModelowanie rynków finansowych z wykorzystaniem pakietu R
Modelowanie rynków finansowych z wykorzystaniem pakietu R Metody numeryczne i symulacje stochastyczne Mateusz Topolewski woland@mat.umk.pl Wydział Matematyki i Informatyki UMK Plan działania 1 Całkowanie
Bardziej szczegółowoWYŻSZA SZKOŁA INFORMATYKI STOSOWANEJ I ZARZĄDZANIA
DRZEWA i LASY Drzewem nazywamy graf spójny nie zawierający cykli elementarnych. Lasem nazywamy graf nie zawierający cykli elementarnych. Przykłady drzew i lasów takie krawędzie są wykluczone drzewo las
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład XI: Testowanie hipotez statystycznych 12 stycznia 2015 Przykład Motywacja X 1, X 2,..., X N N (µ, σ 2 ), Y 1, Y 2,..., Y M N (ν, δ 2 ). Chcemy sprawdzić, czy µ = ν i σ 2 = δ 2, czyli że w obu populacjach
Bardziej szczegółowoZŁOŻONOŚĆ OBLICZENIOWA ALGORYTMÓW
ZŁOŻONOŚĆ OBLICZENIOWA ALGORYTMÓW RELACJE MIEDZY KLASAMI ZŁOŻONOŚCI Bartosz Zieliński Katedra Fizyki Teoretycznej i Informatyki Zima 2011-2012 KLASY ZŁOŻONOŚCI KLASE ZŁOŻONOŚCI OPISUJE SIE PODAJAC: Model
Bardziej szczegółowoProblem komiwojażera ACO. Zagadnienie optymalizacyjne, polegające na znalezieniu minimalnego cyklu Hamiltona w pełnym grafie ważonym.
Problem komiwojażera ACO Zagadnienie optymalizacyjne, polegające na znalezieniu minimalnego cyklu Hamiltona w pełnym grafie ważonym. -Wikipedia Problem do rozwiązania zazwyczaj jest przedstawiany jako
Bardziej szczegółowoWykład 9: Markov Chain Monte Carlo
RAP 412 17.12.2008 Wykład 9: Markov Chain Monte Carlo Wykładowca: Andrzej Ruciński Pisarz: Ewelina Rychlińska i Wojciech Wawrzyniak Wstęp W tej części wykładu zajmiemy się zastosowaniami łańcuchów Markowa
Bardziej szczegółowoGeometryczna zbieżność algorytmu Gibbsa
Geometryczna zbieżność algorytmu Gibbsa Iwona Żerda Wydział Matematyki i Informatyki, Uniwersytet Jagielloński 6 grudnia 2013 6 grudnia 2013 1 / 19 Plan prezentacji 1 Algorytm Gibbsa 2 Tempo zbieżności
Bardziej szczegółowoAlgorytmy stochastyczne, wykład 01 Podstawowy algorytm genetyczny
Algorytmy stochastyczne, wykład 01 J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2014-02-21 In memoriam prof. dr hab. Tomasz Schreiber (1975-2010) 1 2 3 Różne Orientacyjny
Bardziej szczegółowoMatematyka dyskretna. Andrzej Łachwa, UJ, A/14
Matematyka dyskretna Andrzej Łachwa, UJ, 2016 andrzej.lachwa@uj.edu.pl 9A/14 Permutacje Permutacja zbioru skończonego X to bijekcja z X w X. Zbiór permutacji zbioru oznaczamy przez, a permutacje małymi
Bardziej szczegółowoAlgorytmy mrówkowe w dynamicznych problemach transportowych
y w dynamicznych problemach transportowych prof. dr hab Jacek Mandziuk MiNI, PW 3 czerwca 2013 Cel pracy Zbadanie zachowania algorytmu go zwykłego oraz z zaimplementowanymi optymalizacjami dla problemów
Bardziej szczegółowoStruktury danych i złożoność obliczeniowa Wykład 7. Prof. dr hab. inż. Jan Magott
Struktury danych i złożoność obliczeniowa Wykład 7 Prof. dr hab. inż. Jan Magott Problemy NP-zupełne Transformacją wielomianową problemu π 2 do problemu π 1 (π 2 π 1 ) jest funkcja f: D π2 D π1 spełniająca
Bardziej szczegółowoWykorzystanie algorytmów mrówkowych w dynamicznym problem
Wykorzystanie algorytmów mrówkowych w dynamicznym problemie marszrutyzacji Promotor: dr inż. Aneta Poniszewska-Marańda Współpromotor: mgr inż. Łukasz Chomątek 14 czerwca 2013 Przedmiot i cele pracy dyplomowej
Bardziej szczegółowoWykład 8. Drzewo rozpinające (minimum spanning tree)
Wykład 8 Drzewo rozpinające (minimum spanning tree) 1 Minimalne drzewo rozpinające - przegląd Definicja problemu Własności minimalnych drzew rozpinających Algorytm Kruskala Algorytm Prima Literatura Cormen,
Bardziej szczegółowoMETODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING NEURONOWE MAPY SAMOORGANIZUJĄCE SIĘ ĆWICZENIA Self-Organizing Maps SOM Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki,
Bardziej szczegółowoMatematyczne Podstawy Informatyki
Matematyczne Podstawy Informatyki dr inż. Andrzej Grosser Instytut Informatyki Teoretycznej i Stosowanej Politechnika Częstochowska Rok akademicki 2013/2014 Twierdzenie 2.1 Niech G będzie grafem prostym
Bardziej szczegółowoWybrane podstawowe rodzaje algorytmów
Wybrane podstawowe rodzaje algorytmów Tomasz Głowacki tglowacki@cs.put.poznan.pl Zajęcia finansowane z projektu "Rozwój i doskonalenie kształcenia na Politechnice Poznańskiej w zakresie technologii informatycznych
Bardziej szczegółowo