Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej

Wielkość: px
Rozpocząć pokaz od strony:

Download "Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej"

Transkrypt

1 Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu w dziedzinach matematyczno-przyrodniczych realizowany w ramach Poddziałania Programu Operacyjnego Kapitał Ludzki

2 1 Sieci Hopfielda 2 3 Złożoność pamięciowa Dynamika stochastyczna

3 Sieci Hopfielda 1 Sieci Hopfielda 2 3 Złożoność pamięciowa Dynamika stochastyczna

4 Sieci Hopfielda Model sieci rekurencyjnej każda jednostka ma przypisany swój spin σ i { 1, +1} jest to aktualna aktywacja neuronu i, która może się zmieniać podczas dynamiki, połączenia synaptyczne mają przypisane wagi w ij = w ji R, przyjmujemy w ii = 0, jeżeli krawędzi nie ma w grafie, to przyjmujemy w = 0, ponadto neurony otrzymują swoje pole zewnętrzne h i R podobnie jak wagi są to wartości ustalone w trakcie procesu

5 Sieci Hopfielda Określmy energię sieci zależną od bieżącej konfiguracji spinów neuronów: energia E( σ) = 1 w ij σ i σ j 2 i i j h i σ i

6 Sieci Hopfielda Dynamika Glaubera Losujemy neuron σ i, Przypisujemy σ i = sign( j w ij σ j + h i ) Powtarzamy 1 i 2 aż do ustabilizowania się sytuacji.

7 Dynamika Little a Sieci Hopfielda Rozpoczynamy z losowego σ 0 Powtarzamy wielokrotnie: Przypisujemy σ t+1 := sign(w σ t + h) gdzie W = [w ij ] i,j=1..n macierz wag, h wektor pól zewnętrznych, σ t wektor spinów w t-tym kroku.

8 1 Sieci Hopfielda 2 3 Złożoność pamięciowa Dynamika stochastyczna

9 Dwupodział Grafu Problem: Dany jest graf ważony G = (V, E), v : E R 0. Cel: Podzielić V na dwa podzbiory V = U 1 U 2, takie że sumaryczna waga krawędzi pomiędzy U 1 a U 2 będzie minimalna. Krawędzie w obrębie jednej klasy (z U 1 do U 1 oraz z U 2 do U 2 ) są darmowe. (u,v) E:u U 1,v U 2 v((u, v)) min

10 Dwupodział Grafu

11 Konfiguracja sieci Oznaczenia: spin neuronu σ i = +1: przynależność do zbioru U 1, v i U 1, spin σ i = 1: v i U 2. konfiguracja sigma jednoznacznie odpowiada podziałowi V na dwa podzbiory.

12 Składnik optymalizujący: E 1 ( σ) = i j σ i σ j v(ij)

13 Składnik optymalizujący: E 1 ( σ) = i j σ i σ j v(ij) Składnik penalizujący: ( ) 2 E 2 ( σ) = ( U 1 U 2 ) 2 = σ i i Pomiń obliczenia

14 Energia E( σ) = c 1 E 1 + c 2 E 2

15 Energia E( σ) = c 1 E 1 + c 2 E 2 Gdzie c 1, c 2 > 0 są skalarami. Powinno przy tym zachodzić: c 1 E 1 c 2 E 2. W efekcie:

16 Energia E( σ) = c 1 E 1 + c 2 E 2 Gdzie c 1, c 2 > 0 są skalarami. Powinno przy tym zachodzić: c 1 E 1 c 2 E 2. W efekcie: E( σ) = c 1 σ i σ j v(i, j) + c 2 σ i σ j + i j i j i σ 2 i

17 Energia E( σ) = c 1 E 1 + c 2 E 2 Gdzie c 1, c 2 > 0 są skalarami. Powinno przy tym zachodzić: c 1 E 1 c 2 E 2. W efekcie: E( σ) = c 1 σ i σ j v(i, j) + c 2 σ i σ j + i j i j i σ 2 i

18 Energia E( σ) = c 1 E 1 + c 2 E 2 Gdzie c 1, c 2 > 0 są skalarami. Powinno przy tym zachodzić: c 1 E 1 c 2 E 2. W efekcie: E( σ) = c 1 σ i σ j v(i, j) + c 2 σ i σ j + i j i j i σ 2 i ponieważ i σ2 i = i 1 = const

19 Energia E( σ) = c 1 E 1 + c 2 E 2 Gdzie c 1, c 2 > 0 są skalarami. Powinno przy tym zachodzić: c 1 E 1 c 2 E 2. W efekcie: E( σ) = c 1 σ i σ j v(i, j) + c 2 σ i σ j + i j i j i σ 2 i ponieważ i σ2 i = i 1 = const E( σ) = 1 σ i σ j 2 (c 1 v(i, j) c 2 ) 2 i j

20 Wagi Otrzymujemy zależności na: wagi w ij = 2 (c 1 v(i, j) c 2 ) oraz pola zewnętrzne h i = 0

21 Problem: Dany graf G = (V, E) oraz k kolorów {1,.., k}. Cel: Chcemy każdemu z wierzchołków v V przypisać jeden z k kolorów, tak aby sąsiadujące wierzchołki otrzymały różne kolorowania. Tzn. znaleźć funkcję F : V {1,.., k} spełniającą: Jeżeli graf jest planarny, to k 4. (u,v) E F (u) F (v)

22 Konfiguracja sieci N = k V neuronów, indeksowanych podwójnym oznaczeniem σ iα, i numer wierzchołka w grafie, α numer koloru, σ iα {0, +1}, σ iα = +1 wierzchołek i ma przypisany kolor α, σ iα = 0 wierzchołek i nie ma przypisanego koloru α, konfiguracja dopuszcza przypisanie więcej niż jednego koloru jednocześnie.

23 Konfiguracja sieci

24 Pomiń obliczenia

25 Pomiń obliczenia Oznaczmy v ij = { +1 (i, j) E 0 wpw

26 Pomiń obliczenia Oznaczmy { +1 (i, j) E v ij = 0 wpw δ αβ = { +1 α = β 0 wpw

27 Pomiń obliczenia Oznaczmy { +1 (i, j) E v ij = 0 wpw δ αβ = { +1 α = β 0 wpw Składnik optymalizujący energii: E 1 ( σ) = c 1 v ij σ iα σ jβ δ αβ i j α,β

28 Pomiń obliczenia Oznaczmy { +1 (i, j) E v ij = 0 wpw δ αβ = { +1 α = β 0 wpw Składnik optymalizujący energii: E 1 ( σ) = c 1 v ij σ iα σ jβ δ αβ E 1 ( σ) = 1 2 i j i,j,α,β α,β 2c 1 v ij δ αβ σ iα σ jβ

29 Składnik penalizujący energii: ( E 2 ( σ) = c α i σ iα ) 2

30 Składnik penalizujący energii: ( E 2 ( σ) = c ) 2 σ iα i α E 2 ( σ) = c σ iα + σ iα σ iβ + i α α β α σ 2 iα

31 Składnik penalizujący energii: ( E 2 ( σ) = c ) 2 σ iα i α E 2 ( σ) = c σ iα + σ iα σ iβ + i α α β α = c 2 N σ iα + σ iα σ iβ i α i α β σ 2 iα

32 Składnik penalizujący energii: ( E 2 ( σ) = c ) 2 σ iα i α E 2 ( σ) = c σ iα + σ iα σ iβ + σ 2 iα i α α β α = c 2 N σ iα + σ iα σ iβ i α i α β = c 2 N σ iα + δ ij σ iα σ iβ iα j i α β

33 Składnik penalizujący energii: E 2 ( σ) = c iα σ iα + 2 δ ij (1 δ αβ )σ iα σ iβ ijαβ

34 Składnik penalizujący energii: E 2 ( σ) = c iα σ iα + 2 δ ij (1 δ αβ )σ iα σ iβ ijαβ E = E 1 + E 2

35 Składnik penalizujący energii: E 2 ( σ) = c iα σ iα + 2 δ ij (1 δ αβ )σ iα σ iβ ijαβ E = E 1 + E 2 E( σ) = 1 2 ( 2c 1 v ij δ αβ 2c 2 δ ij (1 δ αβ ))σ iα σ jβ + iα i,j,α,β σ iα c 2

36 Wagi Otrzymujemy zależności na: wagi w ijαβ = 2c 1 v ij δ αβ 2c 2 δ ij (1 δ αβ ) oraz pola zewnętrzne h iα = c 2

37 Problem: Dany jest graf ważony G = (V, E) oraz wagi krawędzi v : V V R. Jeżeli (u 1 u 2 ) / E, to jej waga jest duża v((u 1 u 2 )) N max e E v(e). Cel: Chcemy znaleźć kolejność wierzchołków (permutację τ S N ), taką by odwiedzenie wierzchołków w jej kolejności, dało minimalny koszt. N 1 i=1 v((u τ(i) u τ(i+1) )) + v(u τn u τ1 ) min

38 Konfiguracja sieci sieć składa się z N 2 = V 2 neuronów indeksowanych podwójnym oznaczeniem σ iµ, σ iµ = +1 µ-tym elementem cyklu jest wierzchołek v i, σ iµ = 0 że wierzchołek v i nie został odwiedzony w kroku µ-tym cyklu, konfiguracja σ dopuszcza sytuacje, w których jakiś wierzchołek może być odwiedzony więcej niż raz, dopuszamy też odwiedzenie dwóch lub więcej wierzchołków na raz.

39

40 Składnik optymalizujący energii: E 1 ( σ) = c 1 v ij (δ µ,ν 1 + δ µ 1,ν ) σ iµ σ jν iµ jν

41 Składnik optymalizujący energii: E 1 ( σ) = c 1 v ij (δ µ,ν 1 + δ µ 1,ν ) σ iµ σ jν iµ jν Składnik penalizujący energii: ( ) 2 ( E 2 ( σ) = c 2 σ iµ 1 + c 2 σ iµ 1 µ i i µ ) 2 Pomiń obliczenia

42 ( E 2 ( σ) = c 2 µ i σ2 iµ + i j σ iµσ jµ 2 ) i σ iµ + 1 ( + c 2 i µ σ2 iµ + µ ν σ iµσ iν 2 ) µ σ iµ + 1

43 ( E 2 ( σ) = c 2 µ i σ2 iµ + i j σ iµσ jµ 2 ) i σ iµ + 1 ( + c 2 i µ σ2 iµ + µ ν σ iµσ iν 2 ) µ σ iµ + 1 E 2 ( σ) = c 2 µν δ µν ij (1 δ ij)σ iµ σ jν c 2 iµ σ iµ + c 2 i,j δ ij µν (1 δ µν)σ iµ σ jν c 2 iµ σ iµ

44 ( E 2 ( σ) = c 2 µ i σ2 iµ + i j σ iµσ jµ 2 ) i σ iµ + 1 ( + c 2 i µ σ2 iµ + µ ν σ iµσ iν 2 ) µ σ iµ + 1 E 2 ( σ) = c 2 µν δ µν ij (1 δ ij)σ iµ σ jν c 2 iµ σ iµ + c 2 i,j δ ij µν (1 δ µν)σ iµ σ jν c 2 iµ σ iµ

45 ( E 2 ( σ) = c 2 µ i σ2 iµ + i j σ iµσ jµ 2 ) i σ iµ + 1 ( + c 2 i µ σ2 iµ + µ ν σ iµσ iν 2 ) µ σ iµ + 1 E 2 ( σ) = c 2 µν δ µν ij (1 δ ij)σ iµ σ jν c 2 iµ σ iµ + c 2 i,j δ ij µν (1 δ µν)σ iµ σ jν c 2 iµ σ iµ E 2 ( σ) = c 2 (δ µν (1 δ ij ) + δ ij (1 δ µν )) σ iµ σ jν 2c 2 ijµν iµ σ iµ

46 E( σ) = 1 σ iµ σ jν ( c 2 (δ µν (1 δ ij ) + δ ij (1 δ µν )) 2 ijµν c 1 v ij (δ µ,ν 1 + δ µ 1,ν )) c 2 iµ σ iµ

47 Wagi Otrzymujemy zależności na: wagi w ijµν = c 2 (δ µν (1 δ ij ) + δ ij (1 δ µν )) c 1 v ij (δ µ,ν 1 + δ µ 1,ν )) oraz na pola zewnętrzne h iµ = c 2

48 Problem: Danych jest N zadań oraz N wykonawców. Koszt wykonania zadania α przez wykonawcę i wynosi v iα, gdzie i, α = 1..N. Cel: Chcemy przyporządkować zadania wykonawcom tak, aby każde zadanie zostało wykonane oraz każdy wykonawca wykonał zadanie. Szukamy najtańszego przydziału (permutacji τ S N ): i v i,τi min

49 Konfiguracja sieci sieć liczy N 2 neuronów indeksowanych podwójnym oznaczeniem σ iα, i numer pracy, α numer wykonawcy, Niech σ iα {0, +1}, σ iα = +1 zadanie i wykonuje pracownik α, σ iα = 0 zadania i nie wykonuje pracownik α,

50 Składnik optymalizujący energii: E 1 ( σ) = c 1 v iα σ iα iα

51 Składnik optymalizujący energii: E 1 ( σ) = c 1 v iα σ iα Składnik penalizujący energii: ( ) 2 ( E 2 ( σ) = c 2 σ iα 1 + c 2 σ iα 1 iα α i i α ) 2

52 Po przeliczeniach (analogicznie jak przy cyklu Hammiltona): E 2 ( σ) = c 2 (δ αβ (1 δ ij ) + δ ij (1 δ αβ )) σ iα σ jβ 2c 2 ijαβ iα σ iα

53 Wagi Zależności na: wagi w ijαβ = 2c 2 (δ αβ (1 δ ij ) + δ ij (1 δ αβ )) oraz na pola zewnętrzne h iα = 2c 2 c 1 v iα

54 Złożoność pamięciowa Dynamika stochastyczna 1 Sieci Hopfielda 2 3 Złożoność pamięciowa Dynamika stochastyczna

55 Złożoność pamięciowa Dynamika stochastyczna Reprezentacja naiwna int N=100; float wagi[n][n][n][n]; Niech V = N = 100, Sieć liczy N 2 = 10 4 neuronów, Ilość krawędzi synaptycznych (N 2 ) 2 = 10 8, Tablica float-ów (4B) 400MB na sieć... Wagi są symetryczne w ijαβ = w jiβα, więc tablice dynamiczne redukują o połowę.

56 Złożoność pamięciowa Dynamika stochastyczna Jak oszczędzić? Wagi w autoasocjatorze Hopfielda: w ij = 1 N P ξ µ i ξ µ j, µ=1 P µ=1 ξµ i ξ µ j P,..., +P, P N 2, więc 1B wystarczy na 127 wzorców, zamiast tablicy wag przetrzymujemy P N 2 tablic z wzorcami uczącymi, wymaga to PN 2 = ( 4B) = 4MB (za cenę liczenia wag za każdym razem).

57 Złożoność pamięciowa Dynamika stochastyczna Jak oszczędzić? Wagi w problemie kolorowania wierzchołków: w ijαβ = 2c 1 v ij δ αβ 2c 2 δ ij (1 δ αβ ) c 1 i c 2 są stałe, δ αβ, δ ij {0, 1} i można je policzyć w czasie stałym, v ij jest jedyną informacją, którą trzeba przechować, tablica (symetryczna) v zajmie N 2 4B = 40kB

58 Dynamika stochastyczna Złożoność pamięciowa Dynamika stochastyczna 1 Rozpoczynamy ze startowego lub losowego układu spinów σ, 2 Powtarzamy wielokrotnie: 1 Próbujemy zmienić spin losowo wybranej jednostki, 2 Jeżeli redukuje to energię, to przyjmujemy tą zmianę, 3 Jeżeli zwiększa to energię o E, to przyjmujemy zmianę z prawdopodobieństwem P = exp( β E) i odrzucamy z komplementarnym. β > 0 jest temperaturą odwrotną i rośnie w trakcie dynamiki.

59 Złożoność pamięciowa Dynamika stochastyczna Ewolucja sieci Hopfielda w wysokiej temperaturze Uwaga. Animacja jest znacznie przyśpieszona i może powodować zmęczenie wzroku! click

60 Złożoność pamięciowa Dynamika stochastyczna Ewolucja sieci Hopfielda w niskiej temperaturze Uwaga. Animacja jest znacznie przyśpieszona i może powodować zmęczenie wzroku! click

61 Złożoność pamięciowa Dynamika stochastyczna Zadania Przedstaw sposób kodowania problemu grafowego (dwupodział, kolorowanie, cykl Hammiltona) na konfigurację sieci neuronowej. Zaimplementuj sieć neuronową do rozwiązywania problemu grafowego (jeden z powyższych). Przemodeluj reprezentację, aby sieć mogła pracować na większych danych. Zapoznaj się z zagadnieniem symulowanego wyżarzania (simmulated annealing). Dodaj ten mechanizm do implementacji.

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda Wstęp do sieci neuronowych, wykład 10. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-12-13 1 Modele sieci rekurencyjnej Energia sieci 2 3 Modele sieci

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda Wstęp do sieci neuronowych, wykład 10. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-12-19 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda Wstęp do sieci neuronowych, wykład 9. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-12-10 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda Wstęp do sieci neuronowych, wykład 9. M. Czoków, J. Piersa 2010-12-07 1 Sieci skierowane 2 Modele sieci rekurencyjnej Energia sieci 3 Sieci skierowane Sieci skierowane Sieci skierowane graf połączeń synaptycznych

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane. Wstęp do sieci neuronowych, wykład 7. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 212-11-28 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane. Wstęp do sieci neuronowych, wykład 7. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 213-11-19 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 8 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 8 Uczenie nienadzorowane. Wstęp do sieci neuronowych, wykład 8. M. Czoków, J. Piersa, A. Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 1-811-6 Projekt pn. Wzmocnienie potencjału dydaktycznego

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd. Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 2013-11-26 Projekt pn. Wzmocnienie potencjału

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline. Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 13-1- Projekt pn. Wzmocnienie potencjału dydaktycznego

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa

Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa M. Czoków, J. Piersa 2012-01-10 1 Łańcucha Markowa 2 Istnienie Szukanie stanu stacjonarnego 3 1 Łańcucha Markowa 2 Istnienie Szukanie stanu stacjonarnego

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 14 Maszyna Boltzmanna

Wstęp do sieci neuronowych, wykład 14 Maszyna Boltzmanna do sieci neuronowych, wykład 14 Maszyna Boltzmanna M. Czoków, J. Piersa Faculty of Mathematics and Computer Science, Nicolaus Copernicus University, Toruń, Poland 2014-01-21 Problemy z siecią Hopfilda

Bardziej szczegółowo

Prawa potęgowe w grafach przepływu informacji dla geometrycznych sieci neuronowych

Prawa potęgowe w grafach przepływu informacji dla geometrycznych sieci neuronowych w grafach przepływu informacji dla geometrycznych sieci neuronowych www.mat.uni.torun.pl/~piersaj 2009-06-10 1 2 3 symulacji Graf przepływu ładunku Wspóczynnik klasteryzacji X (p) p α Rozkłady prawdopodobieństwa

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-10 Projekt pn. Wzmocnienie

Bardziej szczegółowo

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-03 Projekt pn. Wzmocnienie potencjału

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova M. Czoków, J. Piersa 2010-12-21 1 Definicja Własności Losowanie z rozkładu dyskretnego 2 3 Łańcuch Markova Definicja Własności Losowanie z rozkładu

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 2 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 213-1-15 Projekt pn. Wzmocnienie potencjału

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych

Bardziej szczegółowo

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Sieci Hopfielda Najprostsze modele sieci z rekurencją sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Modele bardziej złoŝone: RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline. Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2

Bardziej szczegółowo

Algorytmy mrówkowe (optymalizacja kolonii mrówek, Ant Colony optimisation)

Algorytmy mrówkowe (optymalizacja kolonii mrówek, Ant Colony optimisation) Algorytmy mrówkowe (optymalizacja kolonii mrówek, Ant Colony optimisation) Jest to technika probabilistyczna rozwiązywania problemów obliczeniowych, które mogą zostać sprowadzone do problemu znalezienie

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE. Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka ADALINE. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 218-1-15/22 Projekt pn.

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. dla sieci skierowanych Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-25 1 Motywacja

Bardziej szczegółowo

Algorytmy stochastyczne laboratorium 03

Algorytmy stochastyczne laboratorium 03 Algorytmy stochastyczne laboratorium 03 Jarosław Piersa 10 marca 2014 1 Projekty 1.1 Problem plecakowy (1p) Oznaczenia: dany zbiór przedmiotów x 1,.., x N, każdy przedmiot ma określoną wagę w(x i ) i wartość

Bardziej szczegółowo

Przykłady grafów. Graf prosty, to graf bez pętli i bez krawędzi wielokrotnych.

Przykłady grafów. Graf prosty, to graf bez pętli i bez krawędzi wielokrotnych. Grafy Graf Graf (ang. graph) to zbiór wierzchołków (ang. vertices), które mogą być połączone krawędziami (ang. edges) w taki sposób, że każda krawędź kończy się i zaczyna w którymś z wierzchołków. Graf

Bardziej szczegółowo

Digraf. 13 maja 2017

Digraf. 13 maja 2017 Digraf 13 maja 2017 Graf skierowany, digraf, digraf prosty Definicja 1 Digraf prosty G to (V, E), gdzie V jest zbiorem wierzchołków, E jest rodziną zorientowanych krawędzi, między różnymi wierzchołkami,

Bardziej szczegółowo

Zofia Kruczkiewicz, Algorytmu i struktury danych, Wykład 14, 1

Zofia Kruczkiewicz, Algorytmu i struktury danych, Wykład 14, 1 Wykład Algorytmy grafowe metoda zachłanna. Właściwości algorytmu zachłannego:. W przeciwieństwie do metody programowania dynamicznego nie występuje etap dzielenia na mniejsze realizacje z wykorzystaniem

Bardziej szczegółowo

a) 7 b) 19 c) 21 d) 34

a) 7 b) 19 c) 21 d) 34 Zadanie 1. Pytania testowe dotyczące podstawowych własności grafów. Zadanie 2. Przy każdym z zadań może się pojawić polecenie krótkiej charakterystyki algorytmu. Zadanie 3. W zadanym grafie sprawdzenie

Bardziej szczegółowo

Symulacje geometrycznych sieci neuronowych w środowisku rozproszonym

Symulacje geometrycznych sieci neuronowych w środowisku rozproszonym Symulacje geometrycznych sieci neuronowych w środowisku rozproszonym Jarosław Piersa, Tomasz Schreiber {piersaj, tomeks}(at)mat.umk.pl 2010-07-21 1 2 Dany podzbiór V R 3. N neuronów należących do V N Poiss(c

Bardziej szczegółowo

F. Piękniewski and T. Schreiber. Preprint No 8/2005 Version 1, posted on April 20, 2005

F. Piękniewski and T. Schreiber. Preprint No 8/2005 Version 1, posted on April 20, 2005 presence of correlated patterns F. Piękniewski and T. Schreiber Preprint No 8/2005 Version 1, posted on April 20, 2005 UNIWERSYTET MIKOŁAJA KOPERNIKA W TORUNIU WYDZIAŁ MATEMATYKI I INFORMATYKI Filip Piękniewski

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej

Bardziej szczegółowo

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,

Bardziej szczegółowo

Podstawy Sztucznej Inteligencji (PSZT)

Podstawy Sztucznej Inteligencji (PSZT) Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12

Bardziej szczegółowo

Algorytmy stochastyczne, wykład 02 Algorytmy genetyczne

Algorytmy stochastyczne, wykład 02 Algorytmy genetyczne Algorytmy stochastyczne, wykład 02 Algorytmy genetyczne J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2014-02-27 1 Mutacje algorytmu genetycznego 2 Dziedzina niewypukła abstrakcyjna

Bardziej szczegółowo

Algorytmiczna teoria grafów

Algorytmiczna teoria grafów Przedmiot fakultatywny 20h wykładu + 20h ćwiczeń 21 lutego 2014 Zasady zaliczenia 1 ćwiczenia (ocena): kolokwium, zadania programistyczne (implementacje algorytmów), praca na ćwiczeniach. 2 Wykład (egzamin)

Bardziej szczegółowo

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe www.math.uni.lodz.pl/ radmat Cel wykładu Celem wykładu jest prezentacja różnych rodzajów sztucznych sieci neuronowych. Biologiczny model neuronu Mózg człowieka składa się z około 10 11 komórek nerwowych,

Bardziej szczegółowo

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa

Bardziej szczegółowo

Badania operacyjne: Wykład Zastosowanie kolorowania grafów w planowaniu produkcji typu no-idle

Badania operacyjne: Wykład Zastosowanie kolorowania grafów w planowaniu produkcji typu no-idle Badania operacyjne: Wykład Zastosowanie kolorowania grafów w planowaniu produkcji typu no-idle Paweł Szołtysek 12 czerwca 2008 Streszczenie Planowanie produkcji jest jednym z problemów optymalizacji dyskretnej,

Bardziej szczegółowo

Dowód probabilistyczny Uwagi do dowodu Bibliografia. Prawo Haczykowe. Łukasz Bieniasz-Krzywiec

Dowód probabilistyczny Uwagi do dowodu Bibliografia. Prawo Haczykowe. Łukasz Bieniasz-Krzywiec 09.10.2008 Plan prezentacji 1 Wstęp Diagram Ferrersa Tableau Young a Haczyk (Hook) Twierdzenie Haczykowe 2 3 4 Diagram Ferrersa Wstęp Diagram Ferrersa Tableau Young a Haczyk (Hook) Twierdzenie Haczykowe

Bardziej szczegółowo

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych. Wstęp do teorii sztucznej inteligencji Wykład III Modele sieci neuronowych. 1 Perceptron model najprostzszy przypomnienie Schemat neuronu opracowany przez McCullocha i Pittsa w 1943 roku. Przykład funkcji

Bardziej szczegółowo

Grafy Alberta-Barabasiego

Grafy Alberta-Barabasiego Spis treści 2010-01-18 Spis treści 1 Spis treści 2 Wielkości charakterystyczne 3 Cechy 4 5 6 7 Wielkości charakterystyczne Wielkości charakterystyczne Rozkład stopnie wierzchołków P(deg(x) = k) Graf jest

Bardziej szczegółowo

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych. Sieci rekurencyjne Ewa Adamus ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych 7 maja 2012 Jednowarstwowa sieć Hopfielda, z n neuronami Bipolarna funkcja przejścia W wariancie

Bardziej szczegółowo

Kolorowanie wierzchołków Kolorowanie krawędzi Kolorowanie regionów i map. Wykład 8. Kolorowanie

Kolorowanie wierzchołków Kolorowanie krawędzi Kolorowanie regionów i map. Wykład 8. Kolorowanie Wykład 8. Kolorowanie 1 / 62 Kolorowanie wierzchołków - definicja Zbiory niezależne Niech G będzie grafem bez pętli. Definicja Mówimy, że G jest grafem k kolorowalnym, jeśli każdemu wierzchołkowi możemy

Bardziej szczegółowo

Programowanie dynamiczne i algorytmy zachłanne

Programowanie dynamiczne i algorytmy zachłanne Programowanie dynamiczne i algorytmy zachłanne Tomasz Głowacki tglowacki@cs.put.poznan.pl Zajęcia finansowane z projektu "Rozwój i doskonalenie kształcenia na Politechnice Poznańskiej w zakresie technologii

Bardziej szczegółowo

Algorytmy grafowe. Wykład 1 Podstawy teorii grafów Reprezentacje grafów. Tomasz Tyksiński CDV

Algorytmy grafowe. Wykład 1 Podstawy teorii grafów Reprezentacje grafów. Tomasz Tyksiński CDV Algorytmy grafowe Wykład 1 Podstawy teorii grafów Reprezentacje grafów Tomasz Tyksiński CDV Rozkład materiału 1. Podstawowe pojęcia teorii grafów, reprezentacje komputerowe grafów 2. Przeszukiwanie grafów

Bardziej szczegółowo

Drzewa spinające MST dla grafów ważonych Maksymalne drzewo spinające Drzewo Steinera. Wykład 6. Drzewa cz. II

Drzewa spinające MST dla grafów ważonych Maksymalne drzewo spinające Drzewo Steinera. Wykład 6. Drzewa cz. II Wykład 6. Drzewa cz. II 1 / 65 drzewa spinające Drzewa spinające Zliczanie drzew spinających Drzewo T nazywamy drzewem rozpinającym (spinającym) (lub dendrytem) spójnego grafu G, jeżeli jest podgrafem

Bardziej szczegółowo

Procesy stochastyczne

Procesy stochastyczne Wykład IV: dla łańcuchów Markowa 14 marca 2017 Wykład IV: Klasyfikacja stanów Kiedy rozkład stacjonarny jest jedyny? Przykład Macierz jednostkowa I wymiaru #E jest macierzą stochastyczną. Dla tej macierzy

Bardziej szczegółowo

Zadania z ćwiczeń #18 (pon. 7 maja) Matematyka Dyskretna

Zadania z ćwiczeń #18 (pon. 7 maja) Matematyka Dyskretna Zadania z ćwiczeń #18 (pon. 7 maja) Matematyka Dyskretna Q1.: Mamy dany zbiór artykułów, z których każdy ma co najmniej k z n możliwych tagów. Chcemy bardzo z grubsza pokategoryzować artykuły w jak najmniejszą

Bardziej szczegółowo

Procesy stochastyczne

Procesy stochastyczne Wykład I: Istnienie procesów stochastycznych 2 marca 2015 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane są

Bardziej szczegółowo

Równoległy algorytm wyznaczania bloków dla cyklicznego problemu przepływowego z przezbrojeniami

Równoległy algorytm wyznaczania bloków dla cyklicznego problemu przepływowego z przezbrojeniami Równoległy algorytm wyznaczania bloków dla cyklicznego problemu przepływowego z przezbrojeniami dr inż. Mariusz Uchroński Wrocławskie Centrum Sieciowo-Superkomputerowe Agenda Cykliczny problem przepływowy

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium JAVA Zadanie nr 2 Rozpoznawanie liter autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z problemem klasyfikacji

Bardziej szczegółowo

Procesy stochastyczne

Procesy stochastyczne Wykład I: Istnienie procesów stochastycznych 21 lutego 2017 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane

Bardziej szczegółowo

8. Neuron z ciągłą funkcją aktywacji.

8. Neuron z ciągłą funkcją aktywacji. 8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i

Bardziej szczegółowo

Reprezentacje grafów nieskierowanych Reprezentacje grafów skierowanych. Wykład 2. Reprezentacja komputerowa grafów

Reprezentacje grafów nieskierowanych Reprezentacje grafów skierowanych. Wykład 2. Reprezentacja komputerowa grafów Wykład 2. Reprezentacja komputerowa grafów 1 / 69 Macierz incydencji Niech graf G będzie grafem nieskierowanym bez pętli o n wierzchołkach (x 1, x 2,..., x n) i m krawędziach (e 1, e 2,..., e m). 2 / 69

Bardziej szczegółowo

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:

Bardziej szczegółowo

Algorytmy wyznaczania centralności w sieci Szymon Szylko

Algorytmy wyznaczania centralności w sieci Szymon Szylko Algorytmy wyznaczania centralności w sieci Szymon Szylko Zakład systemów Informacyjnych Wrocław 10.01.2008 Agenda prezentacji Cechy sieci Algorytmy grafowe Badanie centralności Algorytmy wyznaczania centralności

Bardziej szczegółowo

Porównanie algorytmów wyszukiwania najkrótszych ścieżek międz. grafu. Daniel Golubiewski. 22 listopada Instytut Informatyki

Porównanie algorytmów wyszukiwania najkrótszych ścieżek międz. grafu. Daniel Golubiewski. 22 listopada Instytut Informatyki Porównanie algorytmów wyszukiwania najkrótszych ścieżek między wierzchołkami grafu. Instytut Informatyki 22 listopada 2015 Algorytm DFS w głąb Algorytm przejścia/przeszukiwania w głąb (ang. Depth First

Bardziej szczegółowo

Wykład 4. Droga i cykl Eulera i Hamiltona

Wykład 4. Droga i cykl Eulera i Hamiltona Wykład 4. i Hamiltona Wykład 4. i Hamiltona 1 / 35 Grafy Eulera Niech G będzie grafem spójnym. Definicja Jeżeli w grafie G istnieje zamknięta droga prosta zawierająca wszystkie krawędzie grafu, to taką

Bardziej szczegółowo

Uczenie sieci typu MLP

Uczenie sieci typu MLP Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik

Bardziej szczegółowo

Programowanie dynamiczne

Programowanie dynamiczne Programowanie dynamiczne Programowanie rekurencyjne: ZALETY: - prostota - naturalność sformułowania WADY: - trudność w oszacowaniu zasobów (czasu i pamięci) potrzebnych do realizacji Czy jest możliwe wykorzystanie

Bardziej szczegółowo

Droga i cykl Eulera Przykłady zastosowania drogi i cyku Eulera Droga i cykl Hamiltona. Wykład 4. Droga i cykl Eulera i Hamiltona

Droga i cykl Eulera Przykłady zastosowania drogi i cyku Eulera Droga i cykl Hamiltona. Wykład 4. Droga i cykl Eulera i Hamiltona Wykład 4. Droga i cykl Eulera i Hamiltona 1 / 92 Grafy Eulera Droga i cykl Eulera Niech G będzie grafem spójnym. Definicja Jeżeli w grafie G istnieje zamknięta droga prosta zawierająca wszystkie krawędzie

Bardziej szczegółowo

SIECI REKURENCYJNE SIECI HOPFIELDA

SIECI REKURENCYJNE SIECI HOPFIELDA SIECI REKURENCYJNE SIECI HOPFIELDA Joanna Grabska- Chrząstowska Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA SPRZĘŻENIE ZWROTNE W NEURONIE LINIOWYM sygnał

Bardziej szczegółowo

wiedzy Sieci neuronowe (c.d.)

wiedzy Sieci neuronowe (c.d.) Metody detekci uszkodzeń oparte na wiedzy Sieci neuronowe (c.d.) Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 8 Metody detekci uszkodzeń oparte na wiedzy Wprowadzenie

Bardziej szczegółowo

Kolorowanie wierzchołków grafu

Kolorowanie wierzchołków grafu Kolorowanie wierzchołków grafu Niech G będzie grafem prostym. Przez k-kolorowanie właściwe wierzchołków grafu G rozumiemy takie przyporządkowanie wierzchołkom grafu liczb naturalnych ze zbioru {1,...,

Bardziej szczegółowo

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna. Sieci neuronowe model konekcjonistyczny Plan wykładu Mózg ludzki a komputer Modele konekcjonistycze Perceptron Sieć neuronowa Uczenie sieci Sieci Hopfielda Mózg ludzki a komputer Twój mózg to 00 000 000

Bardziej szczegółowo

Grafem nazywamy strukturę G = (V, E): V zbiór węzłów lub wierzchołków, Grafy dzielimy na grafy skierowane i nieskierowane:

Grafem nazywamy strukturę G = (V, E): V zbiór węzłów lub wierzchołków, Grafy dzielimy na grafy skierowane i nieskierowane: Wykład 4 grafy Grafem nazywamy strukturę G = (V, E): V zbiór węzłów lub wierzchołków, E zbiór krawędzi, Grafy dzielimy na grafy skierowane i nieskierowane: Formalnie, w grafach skierowanych E jest podzbiorem

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING NEURONOWE MAPY SAMOORGANIZUJĄCE SIĘ Self-Organizing Maps SOM Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki,

Bardziej szczegółowo

Wykład 10 Grafy, algorytmy grafowe

Wykład 10 Grafy, algorytmy grafowe . Typy złożoności obliczeniowej Wykład Grafy, algorytmy grafowe Typ złożoności oznaczenie n Jedna operacja trwa µs 5 logarytmiczna lgn. s. s.7 s liniowa n. s.5 s. s Logarytmicznoliniowa nlgn. s.8 s.4 s

Bardziej szczegółowo

E: Rekonstrukcja ewolucji. Algorytmy filogenetyczne

E: Rekonstrukcja ewolucji. Algorytmy filogenetyczne E: Rekonstrukcja ewolucji. Algorytmy filogenetyczne Przypominajka: 152 drzewo filogenetyczne to drzewo, którego liśćmi są istniejące gatunki, a węzły wewnętrzne mają stopień większy niż jeden i reprezentują

Bardziej szczegółowo

Statystyki teoriografowe grafów funkcjonalnych w sieciach neuronowych

Statystyki teoriografowe grafów funkcjonalnych w sieciach neuronowych Statystyki teoriografowe grafów funkcjonalnych w sieciach neuronowych Wydział Matematyki i Informatyki, UMK 2011-12-21 1 Wstęp Motywacja 2 Model 3 4 Dalsze plany Referencje Motywacja 1 Wstęp Motywacja

Bardziej szczegółowo

Co to jest model Isinga?

Co to jest model Isinga? Co to jest model Isinga? Fakty eksperymentalne W pewnych metalach (np. Fe, Ni) następuje spontaniczne ustawianie się spinów wzdłuż pewnego kierunku, powodując powstanie makroskopowego pola magnetycznego.

Bardziej szczegółowo

Komputerowa analiza zagadnień różniczkowych 6. Metoda diagramowa. Obszary stabilności. P. F. Góra

Komputerowa analiza zagadnień różniczkowych 6. Metoda diagramowa. Obszary stabilności. P. F. Góra Komputerowa analiza zagadnień różniczkowych 6. Metoda diagramowa. Obszary stabilności. P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2013 Metoda diagramowa Ręczne wyprowadzanie równan wiaż acych współczynniki

Bardziej szczegółowo

Uczenie sieci neuronowych i bayesowskich

Uczenie sieci neuronowych i bayesowskich Wstęp do metod sztucznej inteligencji www.mat.uni.torun.pl/~piersaj 2009-01-22 Co to jest neuron? Komputer, a mózg komputer mózg Jednostki obliczeniowe 1-4 CPU 10 11 neuronów Pojemność 10 9 b RAM, 10 10

Bardziej szczegółowo

Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I.

Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I. Sieci M. I. Jordana Sieci rekurencyjne z parametrycznym biasem Leszek Rybicki 30 listopada 2007 Leszek Rybicki Sieci M. I. Jordana 1/21 Plan O czym będzie 1 Wstęp do sieci neuronowych Neurony i perceptrony

Bardziej szczegółowo

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek Sztuczne sieci neuronowe Ćwiczenia Piotr Fulmański, Marta Grzanek Piotr Fulmański 1 Wydział Matematyki i Informatyki, Marta Grzanek 2 Uniwersytet Łódzki Banacha 22, 90-232, Łódź Polska e-mail 1: fulmanp@math.uni.lodz.pl,

Bardziej szczegółowo

Algorytmy stochastyczne, wykład 08 Sieci bayesowskie

Algorytmy stochastyczne, wykład 08 Sieci bayesowskie Algorytmy stochastyczne, wykład 08 Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2014-04-10 Prawdopodobieństwo Prawdopodobieństwo Prawdopodobieństwo warunkowe Zmienne

Bardziej szczegółowo

Algorytmy i struktury danych. Co dziś? Tytułem przypomnienia metoda dziel i zwyciężaj. Wykład VIII Elementarne techniki algorytmiczne

Algorytmy i struktury danych. Co dziś? Tytułem przypomnienia metoda dziel i zwyciężaj. Wykład VIII Elementarne techniki algorytmiczne Algorytmy i struktury danych Wykład VIII Elementarne techniki algorytmiczne Co dziś? Algorytmy zachłanne (greedyalgorithms) 2 Tytułem przypomnienia metoda dziel i zwyciężaj. Problem można podzielić na

Bardziej szczegółowo

ZŁOŻONOŚĆ OBLICZENIOWA ALGORYTMÓW

ZŁOŻONOŚĆ OBLICZENIOWA ALGORYTMÓW ZŁOŻONOŚĆ OBLICZENIOWA ALGORYTMÓW NIEDETERMINISTYCZNE MASZYNY TURINGA Bartosz Zieliński Katedra Fizyki Teoretycznej i Informatyki Zima 2011-2012 NIEDETERMINISTYCZNE MASZYNY TURINGA DEFINICJA: NIEDETERMINISTYCZNA

Bardziej szczegółowo

Przekształcenia liniowe

Przekształcenia liniowe Przekształcenia liniowe Zadania Które z następujących przekształceń są liniowe? (a) T : R 2 R 2, T (x, x 2 ) = (2x, x x 2 ), (b) T : R 2 R 2, T (x, x 2 ) = (x + 3x 2, x 2 ), (c) T : R 2 R, T (x, x 2 )

Bardziej szczegółowo

Matematyczne Podstawy Informatyki

Matematyczne Podstawy Informatyki Matematyczne Podstawy Informatyki dr inż. Andrzej Grosser Instytut Informatyki Teoretycznej i Stosowanej Politechnika Częstochowska Rok akademicki 03/0 Przeszukiwanie w głąb i wszerz I Przeszukiwanie metodą

Bardziej szczegółowo

Ćwiczenia: Ukryte procesy Markowa lista 1 kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II

Ćwiczenia: Ukryte procesy Markowa lista 1 kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II Ćwiczenia: Ukryte procesy Markowa lista kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II dr Jarosław Kotowicz Zadanie. Dany jest łańcuch Markowa, który może przyjmować wartości,,...,

Bardziej szczegółowo

Algorytm Dijkstry znajdowania najkrótszej ścieżki w grafie

Algorytm Dijkstry znajdowania najkrótszej ścieżki w grafie Algorytm Dijkstry znajdowania najkrótszej ścieżki w grafie Używane struktury danych: V - zbiór wierzchołków grafu, V = {1,2,3...,n} E - zbiór krawędzi grafu, E = {(i,j),...}, gdzie i, j Î V i istnieje

Bardziej szczegółowo

Priorytetyzacja przypadków testowych za pomocą macierzy

Priorytetyzacja przypadków testowych za pomocą macierzy Priorytetyzacja przypadków testowych za pomocą macierzy W niniejszym artykule przedstawiony został problem przyporządkowania priorytetów do przypadków testowych przed rozpoczęciem testów oprogramowania.

Bardziej szczegółowo

Modelowanie rynków finansowych z wykorzystaniem pakietu R

Modelowanie rynków finansowych z wykorzystaniem pakietu R Modelowanie rynków finansowych z wykorzystaniem pakietu R Metody numeryczne i symulacje stochastyczne Mateusz Topolewski woland@mat.umk.pl Wydział Matematyki i Informatyki UMK Plan działania 1 Całkowanie

Bardziej szczegółowo

WYŻSZA SZKOŁA INFORMATYKI STOSOWANEJ I ZARZĄDZANIA

WYŻSZA SZKOŁA INFORMATYKI STOSOWANEJ I ZARZĄDZANIA DRZEWA i LASY Drzewem nazywamy graf spójny nie zawierający cykli elementarnych. Lasem nazywamy graf nie zawierający cykli elementarnych. Przykłady drzew i lasów takie krawędzie są wykluczone drzewo las

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład XI: Testowanie hipotez statystycznych 12 stycznia 2015 Przykład Motywacja X 1, X 2,..., X N N (µ, σ 2 ), Y 1, Y 2,..., Y M N (ν, δ 2 ). Chcemy sprawdzić, czy µ = ν i σ 2 = δ 2, czyli że w obu populacjach

Bardziej szczegółowo

ZŁOŻONOŚĆ OBLICZENIOWA ALGORYTMÓW

ZŁOŻONOŚĆ OBLICZENIOWA ALGORYTMÓW ZŁOŻONOŚĆ OBLICZENIOWA ALGORYTMÓW RELACJE MIEDZY KLASAMI ZŁOŻONOŚCI Bartosz Zieliński Katedra Fizyki Teoretycznej i Informatyki Zima 2011-2012 KLASY ZŁOŻONOŚCI KLASE ZŁOŻONOŚCI OPISUJE SIE PODAJAC: Model

Bardziej szczegółowo

Problem komiwojażera ACO. Zagadnienie optymalizacyjne, polegające na znalezieniu minimalnego cyklu Hamiltona w pełnym grafie ważonym.

Problem komiwojażera ACO. Zagadnienie optymalizacyjne, polegające na znalezieniu minimalnego cyklu Hamiltona w pełnym grafie ważonym. Problem komiwojażera ACO Zagadnienie optymalizacyjne, polegające na znalezieniu minimalnego cyklu Hamiltona w pełnym grafie ważonym. -Wikipedia Problem do rozwiązania zazwyczaj jest przedstawiany jako

Bardziej szczegółowo

Wykład 9: Markov Chain Monte Carlo

Wykład 9: Markov Chain Monte Carlo RAP 412 17.12.2008 Wykład 9: Markov Chain Monte Carlo Wykładowca: Andrzej Ruciński Pisarz: Ewelina Rychlińska i Wojciech Wawrzyniak Wstęp W tej części wykładu zajmiemy się zastosowaniami łańcuchów Markowa

Bardziej szczegółowo

Geometryczna zbieżność algorytmu Gibbsa

Geometryczna zbieżność algorytmu Gibbsa Geometryczna zbieżność algorytmu Gibbsa Iwona Żerda Wydział Matematyki i Informatyki, Uniwersytet Jagielloński 6 grudnia 2013 6 grudnia 2013 1 / 19 Plan prezentacji 1 Algorytm Gibbsa 2 Tempo zbieżności

Bardziej szczegółowo

Algorytmy stochastyczne, wykład 01 Podstawowy algorytm genetyczny

Algorytmy stochastyczne, wykład 01 Podstawowy algorytm genetyczny Algorytmy stochastyczne, wykład 01 J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2014-02-21 In memoriam prof. dr hab. Tomasz Schreiber (1975-2010) 1 2 3 Różne Orientacyjny

Bardziej szczegółowo

Matematyka dyskretna. Andrzej Łachwa, UJ, A/14

Matematyka dyskretna. Andrzej Łachwa, UJ, A/14 Matematyka dyskretna Andrzej Łachwa, UJ, 2016 andrzej.lachwa@uj.edu.pl 9A/14 Permutacje Permutacja zbioru skończonego X to bijekcja z X w X. Zbiór permutacji zbioru oznaczamy przez, a permutacje małymi

Bardziej szczegółowo

Algorytmy mrówkowe w dynamicznych problemach transportowych

Algorytmy mrówkowe w dynamicznych problemach transportowych y w dynamicznych problemach transportowych prof. dr hab Jacek Mandziuk MiNI, PW 3 czerwca 2013 Cel pracy Zbadanie zachowania algorytmu go zwykłego oraz z zaimplementowanymi optymalizacjami dla problemów

Bardziej szczegółowo

Struktury danych i złożoność obliczeniowa Wykład 7. Prof. dr hab. inż. Jan Magott

Struktury danych i złożoność obliczeniowa Wykład 7. Prof. dr hab. inż. Jan Magott Struktury danych i złożoność obliczeniowa Wykład 7 Prof. dr hab. inż. Jan Magott Problemy NP-zupełne Transformacją wielomianową problemu π 2 do problemu π 1 (π 2 π 1 ) jest funkcja f: D π2 D π1 spełniająca

Bardziej szczegółowo

Wykorzystanie algorytmów mrówkowych w dynamicznym problem

Wykorzystanie algorytmów mrówkowych w dynamicznym problem Wykorzystanie algorytmów mrówkowych w dynamicznym problemie marszrutyzacji Promotor: dr inż. Aneta Poniszewska-Marańda Współpromotor: mgr inż. Łukasz Chomątek 14 czerwca 2013 Przedmiot i cele pracy dyplomowej

Bardziej szczegółowo

Wykład 8. Drzewo rozpinające (minimum spanning tree)

Wykład 8. Drzewo rozpinające (minimum spanning tree) Wykład 8 Drzewo rozpinające (minimum spanning tree) 1 Minimalne drzewo rozpinające - przegląd Definicja problemu Własności minimalnych drzew rozpinających Algorytm Kruskala Algorytm Prima Literatura Cormen,

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING NEURONOWE MAPY SAMOORGANIZUJĄCE SIĘ ĆWICZENIA Self-Organizing Maps SOM Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki,

Bardziej szczegółowo

Matematyczne Podstawy Informatyki

Matematyczne Podstawy Informatyki Matematyczne Podstawy Informatyki dr inż. Andrzej Grosser Instytut Informatyki Teoretycznej i Stosowanej Politechnika Częstochowska Rok akademicki 2013/2014 Twierdzenie 2.1 Niech G będzie grafem prostym

Bardziej szczegółowo

Wybrane podstawowe rodzaje algorytmów

Wybrane podstawowe rodzaje algorytmów Wybrane podstawowe rodzaje algorytmów Tomasz Głowacki tglowacki@cs.put.poznan.pl Zajęcia finansowane z projektu "Rozwój i doskonalenie kształcenia na Politechnice Poznańskiej w zakresie technologii informatycznych

Bardziej szczegółowo