Wstęp do sieci neuronowych, wykład 14 Maszyna Boltzmanna

Wielkość: px
Rozpocząć pokaz od strony:

Download "Wstęp do sieci neuronowych, wykład 14 Maszyna Boltzmanna"

Transkrypt

1 do sieci neuronowych, wykład 14 Maszyna Boltzmanna M. Czoków, J. Piersa Faculty of Mathematics and Computer Science, Nicolaus Copernicus University, Toruń, Poland

2 Problemy z siecią Hopfilda Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna minima logalne tendencje do oscylacji (dynamika synchroniczna) płytkie baseny atrakcyjne

3 Nicolas Metropolis ( ) Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna członek zespołu badawczego Projektu Manhattan współtwórca komputerów MANIAC (1952) i MANIAC II (1957) jeden z autorów metod Monte Carlo (wraz z S. Ulamem i J. von Neumannem) algorytm Metropolisa (1953) zaliczony do czołowych 10 algorytmów, które wywarły najwiekszy wpływ na rozwój i praktyke nauki i techniki w XX wieku (wg Computing Science and Engineering)

4 Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna Algorytm Metropolisa wersja orginalna Mamy dany otwarty układ termodynamiczny: E i - energia i-tego stanu Cel: znaleźć stan o minimalnej energii

5 Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna Algorytm Metropolisa wersja orginalna Algorytm: Wykonujemy wielokrotnie: dla danego stanu i-tego wykonujemy statystyczny ruch cząstki, otrzymując stan j-ty, Jeżeli E j E i 0, przechodzimy do stanu j-tego bezwarunkowo, w p.p. przechodzimy do stanu j z prawdopodobieństwem exp( (E j E i ) k b T ), gdzie k b - stała Boltzmanna, T - temperatura bezwzględna

6 Adaptacja algorytmu Metropolisa Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna Jak dostosować ten algorytm do dziedziny problemów optymalizacyjnych? rozwiązanie stan układu termodynamicznego funkcja oceny energia układu przekształcenie lokalne ruch cząstki optimum globalne stan o minimalnej energii parametr T temperatura i stała Boltzmanna

7 Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna Rola temperatury T w algorytmie Metropolisa Rozważmy funkcję g(x) = e x/t dla x > 0 T + wtedy x/t 0, więc e x/t 1 każde rozwiązanie jest akceptowane T 0 wtedy x/t +, więc e x/t 0 akceptowane są tylko lepsze rozwiązania (patrz dynamika Glaudera) interpretacja: T > 0 zakres tolerancji dla gorszych rozwiazań

8 Maszyna Boltzmanna definicja Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna Maszyny Boltzmanna to stochastyczna wersja sieci Hopfielda zaproponowana w pracy Ackley, Hinton, Sejnowski, 1985 doi: /s (85) Modyfikacja polega na tym, że dynamika zadana jest przez algorytm Metropolisa.

9 Dynamika Glaubera przypomnienie Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna Dynamika asynchroniczna w temperaturze 0. wylosuj neuron σ i jeśli spin jest niezgodny z lokalnym polem wypadkowym M i, zmieniamy go σ i = sign( w ij σ j + h i ) j Przypomnienie - pole wypadkowe M i = j w ijσ j + h i powtarzamy aż do ustabilizowania się sytuacji

10 Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna Maszyna Boltzmanna podstawowe założenia Rozważmy sieć rekurencyjną z dynamiką asynchroniczną Przestrzeń konfiguracji tej sieci stanowi przestrzeń stanów łańcucha Markowa Zadajmy mechanizm przejść zgodny z algorytmem Metropolisa

11 Maszyna Boltzmanna dynamika Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna wylosuj neuron σ i jeśli spin jest niezgodny z lokalnym polem wypadkowym M i, zmieniamy go σ i = sign( w ij σ j + h i ) j jeśli jest zgodny, zmieniamy go z prawdopodobieństwem exp( 2 M i /T ), lub pozostawiamy z komplementarnym prawdopodobieństwem powtarzamy aż do ustabilizowania się sytuacji

12 Uwagi Algorytm Metropolisa Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna Rozważmy dwie konfiguracje σ i σ różniące się na i-tym miejscu Niech σ będzie zgodna z lokalnym polem wypadkowym M i, a σ niepożądanym Wtedy zachodzi: Zatem zachodzi E( σ ) E( σ) = 2 M i exp( 2 M i /T ) = exp( (E( σ ) E( σ))/t )

13 Uwagi Algorytm Metropolisa Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna Obie strony równania są dodatnie Zatem 0 < exp( 2 M i /T ) < 1. E( σ ) E( σ) = 2 M i

14 Uwagi Algorytm Metropolisa Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna

15 Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna Stacjonarność stanów maszyny Boltzmanna Twierdzenie. Rozkład stacjonarny dla łańcucha Markowa zadanego przez stany maszyny Boltzmanna ma postać: P( σ) = exp( E( σ)/t ) σ exp( E( σ )/T ) = exp( E( σ)/t ), Z(T ) gdzie Z(T ) jest czynnikiem normalizującym znanym jako funkcja rozdziału. Dzięki tej funkcji mamy do czynienia z prawdziwym prawdopodobieństwem. Rozkład ten jest zwany miarą Gibbsa.

16 Dowód stacjonarności Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna Udowodnijmy stacjonarność zadanego łańcucha Markowa. Niech A i B będą dowolnymi stanami należącymi do tego łańcucha. π jest rozkładem stacjonarnym zadanego łańcucha Markowa o macierzy przejścia P.

17 Dowód stacjonarności Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna P AB p-stwo przejścia ze stanu A do B w jednym kroku π A p-stwo znalezienia się w stanie A π A P AB p-stwo wychodzące z A do B π A ( B P AB) = π A p-stwo wychodzące z A B π BP BA p-stwo wchodzące do A

18 Dowód stacjonarności Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna Twierdzenie. Łańcuch jest stacjonarny p-stwo wchodzące = p-stwo wychodzące dla każdego stanu, czyli: A ( B π B P BA = π A ( B P AB ) = π A ) Powyższa równość zachodzi zawsze jeśli spełniony jest warunek: A,B (π B P BA = π A P AB ), ponieważ: A ( B π B P BA = B π A P AB ).

19 Dowód stacjonarności Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna Pokażemy teraz, że dla naszego łańcucha zachodzi A,B (π B P BA = π A P AB ), czym udowodnimy jego stacjonarność.

20 Dowód stacjonarności Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna Rozważmy dwie konfiguracje σ i σ różniące się na i-tym miejscu. Niech σ będzie zgodna z lokalnym polem wypadkowym M i, a σ nie. Wówczas przepływ z σ do σ wynosi 1 N P( σ ) = exp( E( σ )/T ), NZ(T ) gdzie N to długość wektora reprezentującego konfigurację sieci.

21 Dowód stacjonarności Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna Z drugiej strony, przepływ z σ do σ wynosi exp( 2 M i /T ) N P( σ) = exp( (E( σ ) E( σ))/t ) exp( E( σ)/t ) N Z(T ) = exp( E( σ )/T ) NZ(T ) Zatem przepływ z σ do σ wynosi tyle samo co przepływ z σ do σ, co kończy dowód.

22 Energia a rozkład stacjonarny Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna 4 3 energia beta = 0.1 beta = 1.0 beta = 2.0 beta = 5.0 beta =

23 Algorytm symulowanego wyżarzania motywacja W procesie minimalizacji energii bardzo niepożądanym zjawiskiem jest nagły skok do stanu o wyższej energii, gdy już było dość dobrze. Na początku działania algorytmu dopuszczalne jest chaotyczne zachowanie, które może pozwolić znaleźć odpowiedni obszar przestrzeni energetycznej (taki o dużym spadku, który sugeruje bliskość minimum globalnego), W okolicach globalnego minimum nie opłaca się już skakanie do wyższych terenów, bo opóźnia to tylko osiągnięcie owego minimum.

24 Algorytm symulowanego wyżarzania

25 Algorytm symulowanego wyżarzania Połączenie dwóch heurystyk: algorytm Metropolisa schemat chłodzenia W istocie symulowane wyżarzanie jest to algorytm Metropolisa ze zmienną temperaturą.

26 Algorytm symulowanego wyżarzania Dynamika MB z symulowanym wyżarzaniem przypisz numer bieżącej iteracji k = 1 oraz temperaturę T = cτ(k), gdzie c jest to dodatni parametr wylosuj neuron σ i jeśli spin jest niezgodny z lokalnym polem wypadkowym M i, zmień go σ i = sign( w ij σ j + h i ) j jeśli jest zgodny, zmień go z prawdopodobieństwem exp( 2 M i /T ), lub zostaw zwiększ k o jeden oraz zaktualizuj wartość temperatury T = cτ(k) powtarzaj, aż osiągniesz temperaturę równą lub bliską 0 i stan się ustabilizuje

27 Algorytm symulowanego wyżarzania Schematy chłodzenia schemat logarytmiczny (Boltzmanna): τ(k) = 1/ log k, schemat liniowy (Cauchy ego) τ(k) = 1/k, dla małego k > 0 np. k = 1/4 schemat geometryczny τ(k) = a k, gdzie 0 < a < 1 schemat logarytmiczny (w przeciwieństwie do pozostałych) gwarantuje (przy pewnych naturalnych założeniach) znalezienie optimum globalnego z prawdopodobieństwem 1, jednak średni czas potrzebny do jego osiągnięcia jest porównywalny z rozmiarem przestrzeni rozwiązań badania empiryczne sugerują, że największą przydatność praktyczną ma schemat geometryczny (najszybszy)

28 Algorytm symulowanego wyżarzania

29 Algorytm symulowanego wyżarzania Ewolucja maszyny Boltzmanna w wysokiej temperaturze click

30 Algorytm symulowanego wyżarzania Ewolucja maszyny Boltzmanna w niskiej temperaturze click

31 Wprowadzenie Algorytm - założenia ogólne Problem przeszukiwania przestrzeni Maszyny Boltzmanna są zasadniczo używane do rozwiązywania dwóch różnych obliczeniowych problemów. przeszukiwanie przestrzeni stanów, w którym wagi dla połączeń są stałe i są wykorzystywane do reprezentacji funkcji kosztu próbkowanie wektorów stanów, które mają małe wartości funkcji kosztu.

32 Wprowadzenie Algorytm - założenia ogólne Problem uczenia maszyn Boltzmanna Dane: Wynik: zbiór przykładów, który odzwierciedla częstość występowania (zadaję miarę probabilistyczną (empiryczną) na zbiorze konfiguracji sieci) wagi połączeń sieci, tak aby generowała te dane z zadanym prawdopodobieństwem.

33 Wprowadzenie Algorytm - założenia ogólne Architektura maszyny Boltzmanna warstwa wejściowa, warstwa wyjściowa i jednostki ukryte. Konfigurację warstwy wejściowej = α i, warstwy wyjściowej = α 0, przez wektor α konfiguracja obu widocznych warstw, (tzn. scalone wektory α i i α 0 ) Konfiguracja jednostek ukrytych = β. Jednostki ukryte nie tworzą warstw. Nie wyróżniamy żadnej konkretnej struktury połączeń między jednostkami.

34 Architektura maszyny Boltzmanna Wprowadzenie Algorytm - założenia ogólne wyjście 0 { w ij i j i wejście

35 Wprowadzenie Algorytm - założenia ogólne Architektura maszyny Boltzmanna Ukryte neurony nie są brane pod uwagę jako część zapamiętanego wzorca w procesie uczenia Jednostki ukryte pozwalają zwiększyć moc obliczeniową sieci (uwalniając ją od statystyki drugiego rzędu i zapamiętywania wzorców wyłącznie na podstawie korelacji między parami elementów

36 Wprowadzenie Algorytm - założenia ogólne Uwagi pracujemy w kodownaiu 0, 1 lub 1, 1. nie ma pól zewnetrznych, ale dopuszczamy wagi w ii dla kodowania 0, 1

37 Założenia ogólne Algorytm Metropolisa Wprowadzenie Algorytm - założenia ogólne Q(α) rozkład empiryczny po zbiorze danych P(α) rozkład stacjonarny w maszynie Boltzmanna, zależny tylko od wag i temperatury T (= const w trakcie uczenia) Prawdopodobieństwo konfiguracji widocznych jednostek: P(α) = β P(α, β) = exp( E αβ/t ), Z(T ) β gdzie E αβ energia przy zadanych α i β Z(T ) jak wcześniej

38 Wprowadzenie Algorytm - założenia ogólne Entropia względna Cel: znalezienie takiego zestawu wag, który minimalizuje entropię względną (rozbieżność Kullbacka-Lieblera) tych dwóch rozkładów: D KL (Q(α), P(α)) = α Q(α)log Q(α) P(α) intuicyjne: odległość między rozkładami P i Q jeżeli P i Q są identyczne, to D KL (Q, P) = 0

39 Wprowadzenie Algorytm - założenia ogólne Uczenie maszyny Boltzmanna gradien descent uaktualniamy wagi zgodnie ze wzorem: w ij = η D kl w ij = η α Q(α) P(α), P(α) w ij η współczynnik uczenia zauważmy że Q jest zadane i nie zależy od wag: Q(α) w ij = 0

40 Uczenie maszyny Boltzmanna Wprowadzenie Algorytm - założenia ogólne w ij = η α Q(α) P(α), P(α) w ij = Pβ P(α) = ( e E αβ /T Z(T ) ) w ij w ij ( P β exp E αβ /T ) (Z(T )) w ij Z(T ) w ij β e E αβ/t Z(T ) 2 = ( P β exp E αβ /T ) w ij Z(T ) (Z(T )) w ij β e E αβ/t Z(T ) 2

41 Uczenie maszyny Boltzmanna Wprowadzenie Algorytm - założenia ogólne = ( P β exp E αβ /T ) w ij Z(T ) (Z(T )) w ij β e E αβ/t Z(T ) 2 = β e E αβ/t ( E αβ /T ) w ij Z(T ) ( P αβ e E αβ /T ) w ij β e E αβ/t Z(T ) 2 = β e E αβ/t ( ( 1 2 TZ(T ) P i j w ij s i s j )) w ij ( P αβ e E αβ /T ) w ij β e E αβ/t Z(T ) 2 = β e E αβ/t s i s j TZ(T ) ( P αβ e E αβ /T ) w ij β e E αβ/t Z(T ) 2

42 Uczenie maszyny Boltzmanna Wprowadzenie Algorytm - założenia ogólne = = = β e E αβ/t s i s j TZ(T ) β e Eαβ/T s i s j TZ(T ) β P(α, β)s is j T ( P αβ e E αβ /T ) w ij β e E αβ/t Z(T ) 2 ( αβ e E αβ/t s i s j )( β e E αβ/t ) TZ(T ) 2 ( αβ P(α, β)s is j )( β P(α, β)) T = 1 T [ β s i s j P(α, β) s i s j P(α) P(α)]

43 Uczenie maszyny Boltzmanna Wprowadzenie Algorytm - założenia ogólne Z wyrażeń: P(α) w ij w ij = η α = 1 T [ β Q(α) P(α), P(α) w ij s i s j P(α, β) P(α) s i s j P(α) ] wynika: w ij = η T [ α Q(α) P(α) s i s j P(α, β) α β Q(α) s i s j P(α) ] = η T [ αβ Q(α)P(β α)s i s j α Q(α) s i s j P(α) ] = η T [ s is j Q(α) s i s j P(α) ]

44 Wprowadzenie Algorytm - założenia ogólne Uczenie maszyny Boltzmanna Uwagi: s i s j Q(α) liczymy bezpośrednio z danych s i s j P(α) liczymy metodą Monte-Carlo ten algorytm zawsze zbiega, ponieważ D KL jest funkcją wypukłą

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda Wstęp do sieci neuronowych, wykład 9. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-12-10 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda Wstęp do sieci neuronowych, wykład 9. M. Czoków, J. Piersa 2010-12-07 1 Sieci skierowane 2 Modele sieci rekurencyjnej Energia sieci 3 Sieci skierowane Sieci skierowane Sieci skierowane graf połączeń synaptycznych

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej

Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2013-01-09

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda Wstęp do sieci neuronowych, wykład 10. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-12-13 1 Modele sieci rekurencyjnej Energia sieci 2 3 Modele sieci

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda Wstęp do sieci neuronowych, wykład 10. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-12-19 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa

Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa M. Czoków, J. Piersa 2012-01-10 1 Łańcucha Markowa 2 Istnienie Szukanie stanu stacjonarnego 3 1 Łańcucha Markowa 2 Istnienie Szukanie stanu stacjonarnego

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova M. Czoków, J. Piersa 2010-12-21 1 Definicja Własności Losowanie z rozkładu dyskretnego 2 3 Łańcuch Markova Definicja Własności Losowanie z rozkładu

Bardziej szczegółowo

Wst p do sieci neuronowych, wykªad 13 Maszyna Boltzmanna

Wst p do sieci neuronowych, wykªad 13 Maszyna Boltzmanna Wst p do sieci neuronowych, wykªad 13 Maszyna Boltzmanna M. Czoków, J. Piersa Wydziaª Matematyki i Informatyki, Uniwersytet Mikoªaja Kopernika w Toruniu 2012-01-23 Projekt pn. IKS - Inwestycja w Kierunki

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline. Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2

Bardziej szczegółowo

Elementy inteligencji obliczeniowej

Elementy inteligencji obliczeniowej Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego

Bardziej szczegółowo

Uczenie sieci neuronowych i bayesowskich

Uczenie sieci neuronowych i bayesowskich Wstęp do metod sztucznej inteligencji www.mat.uni.torun.pl/~piersaj 2009-01-22 Co to jest neuron? Komputer, a mózg komputer mózg Jednostki obliczeniowe 1-4 CPU 10 11 neuronów Pojemność 10 9 b RAM, 10 10

Bardziej szczegółowo

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia

Bardziej szczegółowo

Algorytmy MCMC (Markowowskie Monte Carlo) dla skokowych procesów Markowa

Algorytmy MCMC (Markowowskie Monte Carlo) dla skokowych procesów Markowa Algorytmy MCMC (Markowowskie Monte Carlo) dla skokowych procesów Markowa Wojciech Niemiro 1 Uniwersytet Warszawski i UMK Toruń XXX lat IMSM, Warszawa, kwiecień 2017 1 Wspólne prace z Błażejem Miasojedowem,

Bardziej szczegółowo

Optymalizacja. Symulowane wyżarzanie

Optymalizacja. Symulowane wyżarzanie dr hab. inż. Instytut Informatyki Politechnika Poznańska www.cs.put.poznan.pl/mkomosinski, Maciej Hapke Wyżarzanie wzrost temperatury gorącej kąpieli do takiej wartości, w której ciało stałe topnieje powolne

Bardziej szczegółowo

Metody Optymalizacji: Przeszukiwanie z listą tabu

Metody Optymalizacji: Przeszukiwanie z listą tabu Metody Optymalizacji: Przeszukiwanie z listą tabu Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje: wtorek

Bardziej szczegółowo

Algorytm Metropolisa-Hastingsa

Algorytm Metropolisa-Hastingsa Seminarium szkoleniowe, 25 kwietnia 2006 Plan prezentacji 1 Problem Metoda MCMC 2 Niezależny algorytm Metropolisa-Hastingsa Bła dzenie losowe Zbieżność procedury Metropolisa-Hastingsa Problem Metoda MCMC

Bardziej szczegółowo

Uczenie sieci typu MLP

Uczenie sieci typu MLP Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład IV: 27 października 2014 Współczynnik korelacji Brak korelacji a niezależność Definicja współczynnika korelacji Współczynnikiem korelacji całkowalnych z kwadratem zmiennych losowych X i Y nazywamy

Bardziej szczegółowo

Metody probabilistyczne

Metody probabilistyczne Metody probabilistyczne. Twierdzenia graniczne Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 20.2.208 / 26 Motywacja Rzucamy wielokrotnie uczciwą monetą i zliczamy

Bardziej szczegółowo

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:

Bardziej szczegółowo

Procesy stochastyczne

Procesy stochastyczne Wykład IV: dla łańcuchów Markowa 14 marca 2017 Wykład IV: Klasyfikacja stanów Kiedy rozkład stacjonarny jest jedyny? Przykład Macierz jednostkowa I wymiaru #E jest macierzą stochastyczną. Dla tej macierzy

Bardziej szczegółowo

Procesy stochastyczne

Procesy stochastyczne Wykład I: Istnienie procesów stochastycznych 21 lutego 2017 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt

Bardziej szczegółowo

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Sieci Hopfielda Najprostsze modele sieci z rekurencją sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Modele bardziej złoŝone: RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie

Bardziej szczegółowo

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych. Wstęp do teorii sztucznej inteligencji Wykład III Modele sieci neuronowych. 1 Perceptron model najprostzszy przypomnienie Schemat neuronu opracowany przez McCullocha i Pittsa w 1943 roku. Przykład funkcji

Bardziej szczegółowo

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów. Wstęp do teorii sztucznej inteligencji Wykład II Uczenie sztucznych neuronów. 1 - powtórzyć o klasyfikacji: Sieci liniowe I nieliniowe Sieci rekurencyjne Uczenie z nauczycielem lub bez Jednowarstwowe I

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd. Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 2013-11-26 Projekt pn. Wzmocnienie potencjału

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metody kierunków poparwy (metoda Newtona-Raphsona, metoda gradientów sprzężonych) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.03.2019 1

Bardziej szczegółowo

Spacery losowe generowanie realizacji procesu losowego

Spacery losowe generowanie realizacji procesu losowego Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z

Bardziej szczegółowo

Wprowadzenie do Sieci Neuronowych Laboratorium 05 Algorytm wstecznej propagacji błędu

Wprowadzenie do Sieci Neuronowych Laboratorium 05 Algorytm wstecznej propagacji błędu Wprowadzenie do Sieci Neuronowych Laboratorium Algorytm wstecznej propagacji błędu Maja Czoków, Jarosław Piersa --7. Powtórzenie Perceptron sigmoidalny Funkcja sigmoidalna: σ(x) = + exp( c (x p)) () Parametr

Bardziej szczegółowo

wiedzy Sieci neuronowe

wiedzy Sieci neuronowe Metody detekcji uszkodzeń oparte na wiedzy Sieci neuronowe Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 7 Wprowadzenie Okres kształtowania się teorii sztucznych sieci

Bardziej szczegółowo

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 4. Metody kierunków poprawy (metoda spadku wzdłuż gradientu) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 21.03.2019 1 / 41 Plan wykładu Minimalizacja

Bardziej szczegółowo

Transformaty. Kodowanie transformujace

Transformaty. Kodowanie transformujace Transformaty. Kodowanie transformujace Kodowanie i kompresja informacji - Wykład 10 10 maja 2009 Szeregi Fouriera Każda funkcję okresowa f (t) o okresie T można zapisać jako f (t) = a 0 + a n cos nω 0

Bardziej szczegółowo

Fuzja sygnałów i filtry bayesowskie

Fuzja sygnałów i filtry bayesowskie Fuzja sygnałów i filtry bayesowskie Roboty Manipulacyjne i Mobilne dr inż. Janusz Jakubiak Katedra Cybernetyki i Robotyki Wydział Elektroniki, Politechnika Wrocławska Wrocław, 10.03.2015 Dlaczego potrzebna

Bardziej szczegółowo

Podstawy Sztucznej Inteligencji (PSZT)

Podstawy Sztucznej Inteligencji (PSZT) Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12

Bardziej szczegółowo

Procesy stochastyczne

Procesy stochastyczne Wykład I: Istnienie procesów stochastycznych 2 marca 2015 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane są

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład XIII: Prognoza. 26 stycznia 2015 Wykład XIII: Prognoza. Prognoza (predykcja) Przypuśćmy, że mamy dany ciąg liczb x 1, x 2,..., x n, stanowiących wyniki pomiaru pewnej zmiennej w czasie wielkości

Bardziej szczegółowo

Układy równań i nierówności liniowych

Układy równań i nierówności liniowych Układy równań i nierówności liniowych Wiesław Krakowiak 1 grudnia 2010 1 Układy równań liniowych DEFINICJA 11 Układem równań m liniowych o n niewiadomych X 1,, X n, nazywamy układ postaci: a 11 X 1 + +

Bardziej szczegółowo

Prognozowanie i Symulacje. Wykład I. Matematyczne metody prognozowania

Prognozowanie i Symulacje. Wykład I. Matematyczne metody prognozowania Prognozowanie i Symulacje. Wykład I. e-mail:e.kozlovski@pollub.pl Spis treści Szeregi czasowe 1 Szeregi czasowe 2 3 Szeregi czasowe Definicja 1 Szereg czasowy jest to proces stochastyczny z czasem dyskretnym

Bardziej szczegółowo

Sieć przesyłająca żetony CP (counter propagation)

Sieć przesyłająca żetony CP (counter propagation) Sieci neuropodobne IX, specyficzne architektury 1 Sieć przesyłająca żetony CP (counter propagation) warstwa Kohonena: wektory wejściowe są unormowane jednostki mają unormowane wektory wag jednostki są

Bardziej szczegółowo

Ćwiczenia: Ukryte procesy Markowa lista 1 kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II

Ćwiczenia: Ukryte procesy Markowa lista 1 kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II Ćwiczenia: Ukryte procesy Markowa lista kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II dr Jarosław Kotowicz Zadanie. Dany jest łańcuch Markowa, który może przyjmować wartości,,...,

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką

Bardziej szczegółowo

I EKSPLORACJA DANYCH

I EKSPLORACJA DANYCH I EKSPLORACJA DANYCH Zadania eksploracji danych: przewidywanie Przewidywanie jest podobne do klasyfikacji i szacowania, z wyjątkiem faktu, że w przewidywaniu wynik dotyczy przyszłości. Typowe zadania przewidywania

Bardziej szczegółowo

8. Neuron z ciągłą funkcją aktywacji.

8. Neuron z ciągłą funkcją aktywacji. 8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE. Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka ADALINE. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 218-1-15/22 Projekt pn.

Bardziej szczegółowo

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie Jarosław Kotowicz Instytut Matematyki Uniwersytet w

Bardziej szczegółowo

Wykład 9: Markov Chain Monte Carlo

Wykład 9: Markov Chain Monte Carlo RAP 412 17.12.2008 Wykład 9: Markov Chain Monte Carlo Wykładowca: Andrzej Ruciński Pisarz: Ewelina Rychlińska i Wojciech Wawrzyniak Wstęp W tej części wykładu zajmiemy się zastosowaniami łańcuchów Markowa

Bardziej szczegółowo

Metody matematyczne w analizie danych eksperymentalnych - sygnały, cz. 2

Metody matematyczne w analizie danych eksperymentalnych - sygnały, cz. 2 Metody matematyczne w analizie danych eksperymentalnych - sygnały, cz. 2 Dr hab. inż. Agnieszka Wyłomańska Faculty of Pure and Applied Mathematics Hugo Steinhaus Center Wrocław University of Science and

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt

Bardziej szczegółowo

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Wykład 10 Mapa cech Kohonena i jej modyfikacje - uczenie sieci samoorganizujących się - kwantowanie wektorowe

Bardziej szczegółowo

Proces rezerwy w czasie dyskretnym z losową stopą procentową i losową składką

Proces rezerwy w czasie dyskretnym z losową stopą procentową i losową składką z losową stopą procentową i losową składką Instytut Matematyki i Informatyki Politechniki Wrocławskiej 10 czerwca 2008 Oznaczenia Wprowadzenie ξ n liczba wypłat w (n 1, n], Oznaczenia Wprowadzenie ξ n

Bardziej szczegółowo

ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH

ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH Transport, studia I stopnia Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać ogólna równania nieliniowego Często występującym, ważnym problemem obliczeniowym

Bardziej szczegółowo

Geometryczna zbieżność algorytmu Gibbsa

Geometryczna zbieżność algorytmu Gibbsa Geometryczna zbieżność algorytmu Gibbsa Iwona Żerda Wydział Matematyki i Informatyki, Uniwersytet Jagielloński 6 grudnia 2013 6 grudnia 2013 1 / 19 Plan prezentacji 1 Algorytm Gibbsa 2 Tempo zbieżności

Bardziej szczegółowo

Elementy wspo łczesnej teorii inwersji

Elementy wspo łczesnej teorii inwersji Elementy wspo łczesnej teorii inwersji Metoda optymalizacyjna (2) W. Debski, 8.01.2015 Liniowy problem odwrotny m est (λ) = m apr + (G T G + λi) 1 G T ( dobs G m apr) +δ d est d o = + λ I ( G T G + λi

Bardziej szczegółowo

Metody probabilistyczne

Metody probabilistyczne Metody probabilistyczne 13. Elementy statystki matematycznej I Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 17.01.2019 1 / 30 Zagadnienia statystki Przeprowadzamy

Bardziej szczegółowo

Ważną rolę odgrywają tzw. funkcje harmoniczne. Przyjmujemy następującą definicję. u = 0, (6.1) jest operatorem Laplace a. (x,y)

Ważną rolę odgrywają tzw. funkcje harmoniczne. Przyjmujemy następującą definicję. u = 0, (6.1) jest operatorem Laplace a. (x,y) Wykład 6 Funkcje harmoniczne Ważną rolę odgrywają tzw. funkcje harmoniczne. Przyjmujemy następującą definicję. e f i n i c j a Funkcję u (x 1, x 2,..., x n ) nazywamy harmoniczną w obszarze R n wtedy i

Bardziej szczegółowo

Co to jest model Isinga?

Co to jest model Isinga? Co to jest model Isinga? Fakty eksperymentalne W pewnych metalach (np. Fe, Ni) następuje spontaniczne ustawianie się spinów wzdłuż pewnego kierunku, powodując powstanie makroskopowego pola magnetycznego.

Bardziej szczegółowo

ANALIZA MATEMATYCZNA Z ELEMENTAMI STATYSTYKI MATEMATYCZNEJ

ANALIZA MATEMATYCZNA Z ELEMENTAMI STATYSTYKI MATEMATYCZNEJ ANALIZA MATEMATYCZNA Z ELEMENTAMI STATYSTYKI MATEMATYCZNEJ FUNKCJE DWÓCH ZMIENNYCH RZECZYWISTYCH Definicja 1. Niech A będzie dowolnym niepustym zbiorem. Metryką w zbiorze A nazywamy funkcję rzeczywistą

Bardziej szczegółowo

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH Transport, studia I stopnia rok akademicki 2011/2012 Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Uwagi wstępne Układ liniowych równań algebraicznych można

Bardziej szczegółowo

Algorytmy stochastyczne Wykład 12, Uczenie parametryczne w sieciach bayesowskich

Algorytmy stochastyczne Wykład 12, Uczenie parametryczne w sieciach bayesowskich Algorytmy stochastyczne Wykład 2, Uczenie parametryczne w sieciach bayesowskich Jarosław Piersa 204-05-22 Zagadnienie uczenia sieci bayesowskich Problem mamy strukturę sieci bayesowskiej węzły, stany i

Bardziej szczegółowo

Prawa potęgowe w grafach przepływu informacji dla geometrycznych sieci neuronowych

Prawa potęgowe w grafach przepływu informacji dla geometrycznych sieci neuronowych w grafach przepływu informacji dla geometrycznych sieci neuronowych www.mat.uni.torun.pl/~piersaj 2009-06-10 1 2 3 symulacji Graf przepływu ładunku Wspóczynnik klasteryzacji X (p) p α Rozkłady prawdopodobieństwa

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-10 Projekt pn. Wzmocnienie

Bardziej szczegółowo

Deep Learning na przykładzie Deep Belief Networks

Deep Learning na przykładzie Deep Belief Networks Deep Learning na przykładzie Deep Belief Networks Jan Karwowski Zakład Sztucznej Inteligencji i Metod Obliczeniowych Wydział Matematyki i Nauk Informacyjnych PW 20 V 2014 Jan Karwowski (MiNI) Deep Learning

Bardziej szczegółowo

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład Rozdział 1 Wektory losowe 1.1 Wektor losowy i jego rozkład Definicja 1 Wektor X = (X 1,..., X n ), którego każda współrzędna jest zmienną losową, nazywamy n-wymiarowym wektorem losowym (krótko wektorem

Bardziej szczegółowo

Algorytmy metaheurystyczne Wykład 6. Piotr Syga

Algorytmy metaheurystyczne Wykład 6. Piotr Syga Algorytmy metaheurystyczne Wykład 6 Piotr Syga 10.04.2017 Wprowadzenie Inspiracje Wprowadzenie ACS idea 1 Zaczynamy z pustym rozwiązaniem początkowym 2 Dzielimy problem na komponenty (przedmiot do zabrania,

Bardziej szczegółowo

REGRESJA LINIOWA Z UOGÓLNIONĄ MACIERZĄ KOWARIANCJI SKŁADNIKA LOSOWEGO. Aleksander Nosarzewski Ekonometria bayesowska, prowadzący: dr Andrzej Torój

REGRESJA LINIOWA Z UOGÓLNIONĄ MACIERZĄ KOWARIANCJI SKŁADNIKA LOSOWEGO. Aleksander Nosarzewski Ekonometria bayesowska, prowadzący: dr Andrzej Torój 1 REGRESJA LINIOWA Z UOGÓLNIONĄ MACIERZĄ KOWARIANCJI SKŁADNIKA LOSOWEGO Aleksander Nosarzewski Ekonometria bayesowska, prowadzący: dr Andrzej Torój 2 DOTYCHCZASOWE MODELE Regresja liniowa o postaci: y

Bardziej szczegółowo

Matematyka Dyskretna Zestaw 2

Matematyka Dyskretna Zestaw 2 Materiały dydaktyczne Matematyka Dyskretna (Zestaw ) Matematyka Dyskretna Zestaw 1. Wykazać, że nie istnieje liczba naturalna, która przy dzieleniu przez 18 daje resztę 13, a przy dzieleniu przez 1 daje

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline. Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 13-1- Projekt pn. Wzmocnienie potencjału dydaktycznego

Bardziej szczegółowo

Programowanie liniowe

Programowanie liniowe Programowanie liniowe Maciej Drwal maciej.drwal@pwr.wroc.pl 1 Problem programowania liniowego min x c T x (1) Ax b, (2) x 0. (3) gdzie A R m n, c R n, b R m. Oznaczmy przez x rozwiązanie optymalne, tzn.

Bardziej szczegółowo

Matematyka Dyskretna 2/2008 rozwiązania. x 2 = 5x 6 (1) s 1 = Aα 1 + Bβ 1. A + B = c 2 A + 3 B = d

Matematyka Dyskretna 2/2008 rozwiązania. x 2 = 5x 6 (1) s 1 = Aα 1 + Bβ 1. A + B = c 2 A + 3 B = d C. Bagiński Materiały dydaktyczne 1 Matematyka Dyskretna /008 rozwiązania 1. W każdym z następujących przypadków podać jawny wzór na s n i udowodnić indukcyjnie jego poprawność: (a) s 0 3, s 1 6, oraz

Bardziej szczegółowo

Lekcja 5: Sieć Kohonena i sieć ART

Lekcja 5: Sieć Kohonena i sieć ART Lekcja 5: Sieć Kohonena i sieć ART S. Hoa Nguyen 1 Materiał Sieci Kohonena (Sieć samo-organizująca) Rysunek 1: Sieć Kohonena Charakterystyka sieci: Jednowarstwowa jednokierunkowa sieć. Na ogół neurony

Bardziej szczegółowo

Funkcje analityczne. Wykład 4. Odwzorowania wiernokątne. Paweł Mleczko. Funkcje analityczne (rok akademicki 2016/2017) dla każdego s = (s.

Funkcje analityczne. Wykład 4. Odwzorowania wiernokątne. Paweł Mleczko. Funkcje analityczne (rok akademicki 2016/2017) dla każdego s = (s. Funkcje analityczne Wykład 4. Odwzorowania wiernokątne Paweł Mleczko Funkcje analityczne (rok akademicki 2016/2017) 1 Przekształcenia płaszczyzny Płaszczyzna jako przestrzeń liniowa, odwzorowania liniowe

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium JAVA Zadanie nr 2 Rozpoznawanie liter autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z problemem klasyfikacji

Bardziej szczegółowo

Przegląd metod optymalizacji wielowymiarowej. Funkcja testowa. Funkcja testowa. Notes. Notes. Notes. Notes. Tomasz M. Gwizdałła

Przegląd metod optymalizacji wielowymiarowej. Funkcja testowa. Funkcja testowa. Notes. Notes. Notes. Notes. Tomasz M. Gwizdałła Przegląd metod optymalizacji wielowymiarowej Tomasz M. Gwizdałła 2012.12.06 Funkcja testowa Funkcją testową dla zagadnień rozpatrywanych w ramach tego wykładu będzie funkcja postaci f (x) = (x 1 1) 4 +

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych klasyfikacja LABORKA Piotr Ciskowski zadanie 1. klasyfikacja zwierząt sieć jednowarstwowa żródło: Tadeusiewicz. Odkrywanie własności sieci neuronowych, str. 159 Przykład

Bardziej szczegółowo

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ. Zadania z Procesów Stochastycznych 1 1. Udowodnij, że z prawdopodobieństwem 1 trajektorie procesu Poissona są niemalejące, przyjmują wartości z Z +, mają wszystkie skoki równe 1 oraz dążą do nieskończoności.

Bardziej szczegółowo

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki WYKŁAD 6 Witold Bednorz, Paweł Wolff 1 Instytut Matematyki Uniwersytet Warszawski Rachunek Prawdopodobieństwa, WNE, 2010-2011 Własności Wariancji Przypomnijmy, że VarX = E(X EX) 2 = EX 2 (EX) 2. Własności

Bardziej szczegółowo

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna. Sieci neuronowe model konekcjonistyczny Plan wykładu Mózg ludzki a komputer Modele konekcjonistycze Perceptron Sieć neuronowa Uczenie sieci Sieci Hopfielda Mózg ludzki a komputer Twój mózg to 00 000 000

Bardziej szczegółowo

Obliczenia inspirowane Naturą

Obliczenia inspirowane Naturą Obliczenia inspirowane Naturą Wykład 03 (uzupełnienie Wykładu 02) Jarosław Miszczak IITiS PAN Gliwice 31/03/2016 1 / 17 1 2 / 17 Dynamika populacji Równania Lotki-Voltery opisują model drapieżnik-ofiara.

Bardziej szczegółowo

Metody iteracyjne rozwiązywania układów równań liniowych (5.3) Normy wektorów i macierzy (5.3.1) Niech. x i. i =1

Metody iteracyjne rozwiązywania układów równań liniowych (5.3) Normy wektorów i macierzy (5.3.1) Niech. x i. i =1 Normy wektorów i macierzy (5.3.1) Niech 1 X =[x x Y y =[y1 x n], oznaczają wektory przestrzeni R n, a yn] niech oznacza liczbę rzeczywistą. Wyrażenie x i p 5.3.1.a X p = p n i =1 nosi nazwę p-tej normy

Bardziej szczegółowo

Modelowanie sieci złożonych

Modelowanie sieci złożonych Modelowanie sieci złożonych B. Wacław Instytut Fizyki UJ Czym są sieci złożone? wiele układów ma strukturę sieci: Internet, WWW, sieć cytowań, sieci komunikacyjne, społeczne itd. sieć = graf: węzły połączone

Bardziej szczegółowo

Rozdział 5. Macierze. a 11 a a 1m a 21 a a 2m... a n1 a n2... a nm

Rozdział 5. Macierze. a 11 a a 1m a 21 a a 2m... a n1 a n2... a nm Rozdział 5 Macierze Funkcję, która każdej parze liczb naturalnych (i,j) (i = 1,,n;j = 1,,m) przyporządkowuje dokładnie jedną liczbę a ij F, gdzie F = R lub F = C, nazywamy macierzą (rzeczywistą, gdy F

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane. Wstęp do sieci neuronowych, wykład 7. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 212-11-28 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu

Bardziej szczegółowo

Przekształcenia liniowe

Przekształcenia liniowe Przekształcenia liniowe Zadania Które z następujących przekształceń są liniowe? (a) T : R 2 R 2, T (x, x 2 ) = (2x, x x 2 ), (b) T : R 2 R 2, T (x, x 2 ) = (x + 3x 2, x 2 ), (c) T : R 2 R, T (x, x 2 )

Bardziej szczegółowo

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych. Sieci rekurencyjne Ewa Adamus ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych 7 maja 2012 Jednowarstwowa sieć Hopfielda, z n neuronami Bipolarna funkcja przejścia W wariancie

Bardziej szczegółowo

Informacja o przestrzeniach Hilberta

Informacja o przestrzeniach Hilberta Temat 10 Informacja o przestrzeniach Hilberta 10.1 Przestrzenie unitarne, iloczyn skalarny Niech dana będzie przestrzeń liniowa X. Załóżmy, że każdej parze elementów x, y X została przyporządkowana liczba

Bardziej szczegółowo

Równanie Schrödingera

Równanie Schrödingera Równanie Schrödingera Maciej J. Mrowiński 29 lutego 2012 Zadanie RS1 Funkcja falowa opisująca stan pewnej cząstki w chwili t = 0 ma następującą postać: A(a Ψ(x,0) = 2 x 2 ) gdy x [ a,a] 0 gdy x / [ a,a]

Bardziej szczegółowo

Funkcje analityczne. Wykład 4. Odwzorowania wiernokątne. Paweł Mleczko. Funkcje analityczne (rok akademicki 2017/2018)

Funkcje analityczne. Wykład 4. Odwzorowania wiernokątne. Paweł Mleczko. Funkcje analityczne (rok akademicki 2017/2018) Funkcje analityczne Wykład 4. Odwzorowania wiernokątne Paweł Mleczko Funkcje analityczne (rok akademicki 2017/2018) 1. Przekształcenia płaszczyzny Płaszczyzna jako przestrzeń liniowa, odwzorowania liniowe

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład XV: Zagadnienia redukcji wymiaru danych 2 lutego 2015 r. Standaryzacja danych Standaryzacja danych Własności macierzy korelacji Definicja Niech X będzie zmienną losową o skończonym drugim momencie.

Bardziej szczegółowo

Janusz Adamowski METODY OBLICZENIOWE FIZYKI Kwantowa wariacyjna metoda Monte Carlo. Problem własny dla stanu podstawowego układu N cząstek

Janusz Adamowski METODY OBLICZENIOWE FIZYKI Kwantowa wariacyjna metoda Monte Carlo. Problem własny dla stanu podstawowego układu N cząstek Janusz Adamowski METODY OBLICZENIOWE FIZYKI 1 Rozdział 20 KWANTOWE METODY MONTE CARLO 20.1 Kwantowa wariacyjna metoda Monte Carlo Problem własny dla stanu podstawowego układu N cząstek (H E 0 )ψ 0 (r)

Bardziej szczegółowo

Wstęp do sztucznych sieci neuronowych

Wstęp do sztucznych sieci neuronowych Wstęp do sztucznych sieci neuronowych Michał Garbowski Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Wydział Informatyki 15 grudnia 2011 Plan wykładu I 1 Wprowadzenie Inspiracja biologiczna

Bardziej szczegółowo

2. P (E) = 1. β B. TSIM W3: Sygnały stochastyczne 1/27

2. P (E) = 1. β B. TSIM W3: Sygnały stochastyczne 1/27 SYGNAŁY STOCHASTYCZNE Przestrzeń probabilistyczna i zmienna losowa Definicja Przestrzenią probabilistyczną (doświadczeniem) nazywamy trójkę uporządkowaną (E, B, P ), gdzie: E przestrzeń zdarzeń elementarnych;

Bardziej szczegółowo

Metody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF.

Metody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF. Metody sztucznej inteligencji Zadanie 3: ( klasteryzacja samoorganizująca się mapa Kohonena, (2 aproksymacja sieć RBF dr inż Przemysław Klęsk Klasteryzacja za pomocą samoorganizującej się mapy Kohonena

Bardziej szczegółowo

Definicje i przykłady

Definicje i przykłady Rozdział 1 Definicje i przykłady 1.1 Definicja równania różniczkowego 1.1 DEFINICJA. Równaniem różniczkowym zwyczajnym rzędu n nazywamy równanie F (t, x, ẋ, ẍ,..., x (n) ) = 0. (1.1) W równaniu tym t jest

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład VII: Metody specjalne Monte Carlo 24 listopada 2014 Transformacje specjalne Przykład - symulacja rozkładu geometrycznego Niech X Ex(λ). Rozważmy zmienną losową [X ], która przyjmuje wartości naturalne.

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 8 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 8 Uczenie nienadzorowane. Wstęp do sieci neuronowych, wykład 8. M. Czoków, J. Piersa, A. Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 1-811-6 Projekt pn. Wzmocnienie potencjału dydaktycznego

Bardziej szczegółowo

Wyznaczniki. Mirosław Sobolewski. Wydział Matematyki, Informatyki i Mechaniki UW. 6. Wykład z algebry liniowej Warszawa, listopad 2013

Wyznaczniki. Mirosław Sobolewski. Wydział Matematyki, Informatyki i Mechaniki UW. 6. Wykład z algebry liniowej Warszawa, listopad 2013 Wyznaczniki Mirosław Sobolewski Wydział Matematyki, Informatyki i Mechaniki UW 6. Wykład z algebry liniowej Warszawa, listopad 2013 Mirosław Sobolewski (UW) Warszawa, listopad 2013 1 / 13 Terminologia

Bardziej szczegółowo