Wstęp do sieci neuronowych, wykład 14 Maszyna Boltzmanna
|
|
- Sławomir Rutkowski
- 5 lat temu
- Przeglądów:
Transkrypt
1 do sieci neuronowych, wykład 14 Maszyna Boltzmanna M. Czoków, J. Piersa Faculty of Mathematics and Computer Science, Nicolaus Copernicus University, Toruń, Poland
2 Problemy z siecią Hopfilda Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna minima logalne tendencje do oscylacji (dynamika synchroniczna) płytkie baseny atrakcyjne
3 Nicolas Metropolis ( ) Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna członek zespołu badawczego Projektu Manhattan współtwórca komputerów MANIAC (1952) i MANIAC II (1957) jeden z autorów metod Monte Carlo (wraz z S. Ulamem i J. von Neumannem) algorytm Metropolisa (1953) zaliczony do czołowych 10 algorytmów, które wywarły najwiekszy wpływ na rozwój i praktyke nauki i techniki w XX wieku (wg Computing Science and Engineering)
4 Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna Algorytm Metropolisa wersja orginalna Mamy dany otwarty układ termodynamiczny: E i - energia i-tego stanu Cel: znaleźć stan o minimalnej energii
5 Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna Algorytm Metropolisa wersja orginalna Algorytm: Wykonujemy wielokrotnie: dla danego stanu i-tego wykonujemy statystyczny ruch cząstki, otrzymując stan j-ty, Jeżeli E j E i 0, przechodzimy do stanu j-tego bezwarunkowo, w p.p. przechodzimy do stanu j z prawdopodobieństwem exp( (E j E i ) k b T ), gdzie k b - stała Boltzmanna, T - temperatura bezwzględna
6 Adaptacja algorytmu Metropolisa Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna Jak dostosować ten algorytm do dziedziny problemów optymalizacyjnych? rozwiązanie stan układu termodynamicznego funkcja oceny energia układu przekształcenie lokalne ruch cząstki optimum globalne stan o minimalnej energii parametr T temperatura i stała Boltzmanna
7 Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna Rola temperatury T w algorytmie Metropolisa Rozważmy funkcję g(x) = e x/t dla x > 0 T + wtedy x/t 0, więc e x/t 1 każde rozwiązanie jest akceptowane T 0 wtedy x/t +, więc e x/t 0 akceptowane są tylko lepsze rozwiązania (patrz dynamika Glaudera) interpretacja: T > 0 zakres tolerancji dla gorszych rozwiazań
8 Maszyna Boltzmanna definicja Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna Maszyny Boltzmanna to stochastyczna wersja sieci Hopfielda zaproponowana w pracy Ackley, Hinton, Sejnowski, 1985 doi: /s (85) Modyfikacja polega na tym, że dynamika zadana jest przez algorytm Metropolisa.
9 Dynamika Glaubera przypomnienie Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna Dynamika asynchroniczna w temperaturze 0. wylosuj neuron σ i jeśli spin jest niezgodny z lokalnym polem wypadkowym M i, zmieniamy go σ i = sign( w ij σ j + h i ) j Przypomnienie - pole wypadkowe M i = j w ijσ j + h i powtarzamy aż do ustabilizowania się sytuacji
10 Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna Maszyna Boltzmanna podstawowe założenia Rozważmy sieć rekurencyjną z dynamiką asynchroniczną Przestrzeń konfiguracji tej sieci stanowi przestrzeń stanów łańcucha Markowa Zadajmy mechanizm przejść zgodny z algorytmem Metropolisa
11 Maszyna Boltzmanna dynamika Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna wylosuj neuron σ i jeśli spin jest niezgodny z lokalnym polem wypadkowym M i, zmieniamy go σ i = sign( w ij σ j + h i ) j jeśli jest zgodny, zmieniamy go z prawdopodobieństwem exp( 2 M i /T ), lub pozostawiamy z komplementarnym prawdopodobieństwem powtarzamy aż do ustabilizowania się sytuacji
12 Uwagi Algorytm Metropolisa Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna Rozważmy dwie konfiguracje σ i σ różniące się na i-tym miejscu Niech σ będzie zgodna z lokalnym polem wypadkowym M i, a σ niepożądanym Wtedy zachodzi: Zatem zachodzi E( σ ) E( σ) = 2 M i exp( 2 M i /T ) = exp( (E( σ ) E( σ))/t )
13 Uwagi Algorytm Metropolisa Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna Obie strony równania są dodatnie Zatem 0 < exp( 2 M i /T ) < 1. E( σ ) E( σ) = 2 M i
14 Uwagi Algorytm Metropolisa Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna
15 Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna Stacjonarność stanów maszyny Boltzmanna Twierdzenie. Rozkład stacjonarny dla łańcucha Markowa zadanego przez stany maszyny Boltzmanna ma postać: P( σ) = exp( E( σ)/t ) σ exp( E( σ )/T ) = exp( E( σ)/t ), Z(T ) gdzie Z(T ) jest czynnikiem normalizującym znanym jako funkcja rozdziału. Dzięki tej funkcji mamy do czynienia z prawdziwym prawdopodobieństwem. Rozkład ten jest zwany miarą Gibbsa.
16 Dowód stacjonarności Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna Udowodnijmy stacjonarność zadanego łańcucha Markowa. Niech A i B będą dowolnymi stanami należącymi do tego łańcucha. π jest rozkładem stacjonarnym zadanego łańcucha Markowa o macierzy przejścia P.
17 Dowód stacjonarności Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna P AB p-stwo przejścia ze stanu A do B w jednym kroku π A p-stwo znalezienia się w stanie A π A P AB p-stwo wychodzące z A do B π A ( B P AB) = π A p-stwo wychodzące z A B π BP BA p-stwo wchodzące do A
18 Dowód stacjonarności Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna Twierdzenie. Łańcuch jest stacjonarny p-stwo wchodzące = p-stwo wychodzące dla każdego stanu, czyli: A ( B π B P BA = π A ( B P AB ) = π A ) Powyższa równość zachodzi zawsze jeśli spełniony jest warunek: A,B (π B P BA = π A P AB ), ponieważ: A ( B π B P BA = B π A P AB ).
19 Dowód stacjonarności Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna Pokażemy teraz, że dla naszego łańcucha zachodzi A,B (π B P BA = π A P AB ), czym udowodnimy jego stacjonarność.
20 Dowód stacjonarności Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna Rozważmy dwie konfiguracje σ i σ różniące się na i-tym miejscu. Niech σ będzie zgodna z lokalnym polem wypadkowym M i, a σ nie. Wówczas przepływ z σ do σ wynosi 1 N P( σ ) = exp( E( σ )/T ), NZ(T ) gdzie N to długość wektora reprezentującego konfigurację sieci.
21 Dowód stacjonarności Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna Z drugiej strony, przepływ z σ do σ wynosi exp( 2 M i /T ) N P( σ) = exp( (E( σ ) E( σ))/t ) exp( E( σ)/t ) N Z(T ) = exp( E( σ )/T ) NZ(T ) Zatem przepływ z σ do σ wynosi tyle samo co przepływ z σ do σ, co kończy dowód.
22 Energia a rozkład stacjonarny Idea algorytmu Maszyna Boltzmanna Stacjonarność stanów maszyny Boltzmanna 4 3 energia beta = 0.1 beta = 1.0 beta = 2.0 beta = 5.0 beta =
23 Algorytm symulowanego wyżarzania motywacja W procesie minimalizacji energii bardzo niepożądanym zjawiskiem jest nagły skok do stanu o wyższej energii, gdy już było dość dobrze. Na początku działania algorytmu dopuszczalne jest chaotyczne zachowanie, które może pozwolić znaleźć odpowiedni obszar przestrzeni energetycznej (taki o dużym spadku, który sugeruje bliskość minimum globalnego), W okolicach globalnego minimum nie opłaca się już skakanie do wyższych terenów, bo opóźnia to tylko osiągnięcie owego minimum.
24 Algorytm symulowanego wyżarzania
25 Algorytm symulowanego wyżarzania Połączenie dwóch heurystyk: algorytm Metropolisa schemat chłodzenia W istocie symulowane wyżarzanie jest to algorytm Metropolisa ze zmienną temperaturą.
26 Algorytm symulowanego wyżarzania Dynamika MB z symulowanym wyżarzaniem przypisz numer bieżącej iteracji k = 1 oraz temperaturę T = cτ(k), gdzie c jest to dodatni parametr wylosuj neuron σ i jeśli spin jest niezgodny z lokalnym polem wypadkowym M i, zmień go σ i = sign( w ij σ j + h i ) j jeśli jest zgodny, zmień go z prawdopodobieństwem exp( 2 M i /T ), lub zostaw zwiększ k o jeden oraz zaktualizuj wartość temperatury T = cτ(k) powtarzaj, aż osiągniesz temperaturę równą lub bliską 0 i stan się ustabilizuje
27 Algorytm symulowanego wyżarzania Schematy chłodzenia schemat logarytmiczny (Boltzmanna): τ(k) = 1/ log k, schemat liniowy (Cauchy ego) τ(k) = 1/k, dla małego k > 0 np. k = 1/4 schemat geometryczny τ(k) = a k, gdzie 0 < a < 1 schemat logarytmiczny (w przeciwieństwie do pozostałych) gwarantuje (przy pewnych naturalnych założeniach) znalezienie optimum globalnego z prawdopodobieństwem 1, jednak średni czas potrzebny do jego osiągnięcia jest porównywalny z rozmiarem przestrzeni rozwiązań badania empiryczne sugerują, że największą przydatność praktyczną ma schemat geometryczny (najszybszy)
28 Algorytm symulowanego wyżarzania
29 Algorytm symulowanego wyżarzania Ewolucja maszyny Boltzmanna w wysokiej temperaturze click
30 Algorytm symulowanego wyżarzania Ewolucja maszyny Boltzmanna w niskiej temperaturze click
31 Wprowadzenie Algorytm - założenia ogólne Problem przeszukiwania przestrzeni Maszyny Boltzmanna są zasadniczo używane do rozwiązywania dwóch różnych obliczeniowych problemów. przeszukiwanie przestrzeni stanów, w którym wagi dla połączeń są stałe i są wykorzystywane do reprezentacji funkcji kosztu próbkowanie wektorów stanów, które mają małe wartości funkcji kosztu.
32 Wprowadzenie Algorytm - założenia ogólne Problem uczenia maszyn Boltzmanna Dane: Wynik: zbiór przykładów, który odzwierciedla częstość występowania (zadaję miarę probabilistyczną (empiryczną) na zbiorze konfiguracji sieci) wagi połączeń sieci, tak aby generowała te dane z zadanym prawdopodobieństwem.
33 Wprowadzenie Algorytm - założenia ogólne Architektura maszyny Boltzmanna warstwa wejściowa, warstwa wyjściowa i jednostki ukryte. Konfigurację warstwy wejściowej = α i, warstwy wyjściowej = α 0, przez wektor α konfiguracja obu widocznych warstw, (tzn. scalone wektory α i i α 0 ) Konfiguracja jednostek ukrytych = β. Jednostki ukryte nie tworzą warstw. Nie wyróżniamy żadnej konkretnej struktury połączeń między jednostkami.
34 Architektura maszyny Boltzmanna Wprowadzenie Algorytm - założenia ogólne wyjście 0 { w ij i j i wejście
35 Wprowadzenie Algorytm - założenia ogólne Architektura maszyny Boltzmanna Ukryte neurony nie są brane pod uwagę jako część zapamiętanego wzorca w procesie uczenia Jednostki ukryte pozwalają zwiększyć moc obliczeniową sieci (uwalniając ją od statystyki drugiego rzędu i zapamiętywania wzorców wyłącznie na podstawie korelacji między parami elementów
36 Wprowadzenie Algorytm - założenia ogólne Uwagi pracujemy w kodownaiu 0, 1 lub 1, 1. nie ma pól zewnetrznych, ale dopuszczamy wagi w ii dla kodowania 0, 1
37 Założenia ogólne Algorytm Metropolisa Wprowadzenie Algorytm - założenia ogólne Q(α) rozkład empiryczny po zbiorze danych P(α) rozkład stacjonarny w maszynie Boltzmanna, zależny tylko od wag i temperatury T (= const w trakcie uczenia) Prawdopodobieństwo konfiguracji widocznych jednostek: P(α) = β P(α, β) = exp( E αβ/t ), Z(T ) β gdzie E αβ energia przy zadanych α i β Z(T ) jak wcześniej
38 Wprowadzenie Algorytm - założenia ogólne Entropia względna Cel: znalezienie takiego zestawu wag, który minimalizuje entropię względną (rozbieżność Kullbacka-Lieblera) tych dwóch rozkładów: D KL (Q(α), P(α)) = α Q(α)log Q(α) P(α) intuicyjne: odległość między rozkładami P i Q jeżeli P i Q są identyczne, to D KL (Q, P) = 0
39 Wprowadzenie Algorytm - założenia ogólne Uczenie maszyny Boltzmanna gradien descent uaktualniamy wagi zgodnie ze wzorem: w ij = η D kl w ij = η α Q(α) P(α), P(α) w ij η współczynnik uczenia zauważmy że Q jest zadane i nie zależy od wag: Q(α) w ij = 0
40 Uczenie maszyny Boltzmanna Wprowadzenie Algorytm - założenia ogólne w ij = η α Q(α) P(α), P(α) w ij = Pβ P(α) = ( e E αβ /T Z(T ) ) w ij w ij ( P β exp E αβ /T ) (Z(T )) w ij Z(T ) w ij β e E αβ/t Z(T ) 2 = ( P β exp E αβ /T ) w ij Z(T ) (Z(T )) w ij β e E αβ/t Z(T ) 2
41 Uczenie maszyny Boltzmanna Wprowadzenie Algorytm - założenia ogólne = ( P β exp E αβ /T ) w ij Z(T ) (Z(T )) w ij β e E αβ/t Z(T ) 2 = β e E αβ/t ( E αβ /T ) w ij Z(T ) ( P αβ e E αβ /T ) w ij β e E αβ/t Z(T ) 2 = β e E αβ/t ( ( 1 2 TZ(T ) P i j w ij s i s j )) w ij ( P αβ e E αβ /T ) w ij β e E αβ/t Z(T ) 2 = β e E αβ/t s i s j TZ(T ) ( P αβ e E αβ /T ) w ij β e E αβ/t Z(T ) 2
42 Uczenie maszyny Boltzmanna Wprowadzenie Algorytm - założenia ogólne = = = β e E αβ/t s i s j TZ(T ) β e Eαβ/T s i s j TZ(T ) β P(α, β)s is j T ( P αβ e E αβ /T ) w ij β e E αβ/t Z(T ) 2 ( αβ e E αβ/t s i s j )( β e E αβ/t ) TZ(T ) 2 ( αβ P(α, β)s is j )( β P(α, β)) T = 1 T [ β s i s j P(α, β) s i s j P(α) P(α)]
43 Uczenie maszyny Boltzmanna Wprowadzenie Algorytm - założenia ogólne Z wyrażeń: P(α) w ij w ij = η α = 1 T [ β Q(α) P(α), P(α) w ij s i s j P(α, β) P(α) s i s j P(α) ] wynika: w ij = η T [ α Q(α) P(α) s i s j P(α, β) α β Q(α) s i s j P(α) ] = η T [ αβ Q(α)P(β α)s i s j α Q(α) s i s j P(α) ] = η T [ s is j Q(α) s i s j P(α) ]
44 Wprowadzenie Algorytm - założenia ogólne Uczenie maszyny Boltzmanna Uwagi: s i s j Q(α) liczymy bezpośrednio z danych s i s j P(α) liczymy metodą Monte-Carlo ten algorytm zawsze zbiega, ponieważ D KL jest funkcją wypukłą
Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda
Wstęp do sieci neuronowych, wykład 9. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-12-10 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda
Wstęp do sieci neuronowych, wykład 9. M. Czoków, J. Piersa 2010-12-07 1 Sieci skierowane 2 Modele sieci rekurencyjnej Energia sieci 3 Sieci skierowane Sieci skierowane Sieci skierowane graf połączeń synaptycznych
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej
Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2013-01-09
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda
Wstęp do sieci neuronowych, wykład 10. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-12-13 1 Modele sieci rekurencyjnej Energia sieci 2 3 Modele sieci
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda
Wstęp do sieci neuronowych, wykład 10. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-12-19 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa
Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa M. Czoków, J. Piersa 2012-01-10 1 Łańcucha Markowa 2 Istnienie Szukanie stanu stacjonarnego 3 1 Łańcucha Markowa 2 Istnienie Szukanie stanu stacjonarnego
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 11 Łańcuchy Markova
Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova M. Czoków, J. Piersa 2010-12-21 1 Definicja Własności Losowanie z rozkładu dyskretnego 2 3 Łańcuch Markova Definicja Własności Losowanie z rozkładu
Bardziej szczegółowoWst p do sieci neuronowych, wykªad 13 Maszyna Boltzmanna
Wst p do sieci neuronowych, wykªad 13 Maszyna Boltzmanna M. Czoków, J. Piersa Wydziaª Matematyki i Informatyki, Uniwersytet Mikoªaja Kopernika w Toruniu 2012-01-23 Projekt pn. IKS - Inwestycja w Kierunki
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.
Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2
Bardziej szczegółowoElementy inteligencji obliczeniowej
Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego
Bardziej szczegółowoUczenie sieci neuronowych i bayesowskich
Wstęp do metod sztucznej inteligencji www.mat.uni.torun.pl/~piersaj 2009-01-22 Co to jest neuron? Komputer, a mózg komputer mózg Jednostki obliczeniowe 1-4 CPU 10 11 neuronów Pojemność 10 9 b RAM, 10 10
Bardziej szczegółowoSztuczna Inteligencja Tematy projektów Sieci Neuronowe
PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia
Bardziej szczegółowoAlgorytmy MCMC (Markowowskie Monte Carlo) dla skokowych procesów Markowa
Algorytmy MCMC (Markowowskie Monte Carlo) dla skokowych procesów Markowa Wojciech Niemiro 1 Uniwersytet Warszawski i UMK Toruń XXX lat IMSM, Warszawa, kwiecień 2017 1 Wspólne prace z Błażejem Miasojedowem,
Bardziej szczegółowoOptymalizacja. Symulowane wyżarzanie
dr hab. inż. Instytut Informatyki Politechnika Poznańska www.cs.put.poznan.pl/mkomosinski, Maciej Hapke Wyżarzanie wzrost temperatury gorącej kąpieli do takiej wartości, w której ciało stałe topnieje powolne
Bardziej szczegółowoMetody Optymalizacji: Przeszukiwanie z listą tabu
Metody Optymalizacji: Przeszukiwanie z listą tabu Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje: wtorek
Bardziej szczegółowoAlgorytm Metropolisa-Hastingsa
Seminarium szkoleniowe, 25 kwietnia 2006 Plan prezentacji 1 Problem Metoda MCMC 2 Niezależny algorytm Metropolisa-Hastingsa Bła dzenie losowe Zbieżność procedury Metropolisa-Hastingsa Problem Metoda MCMC
Bardziej szczegółowoUczenie sieci typu MLP
Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład IV: 27 października 2014 Współczynnik korelacji Brak korelacji a niezależność Definicja współczynnika korelacji Współczynnikiem korelacji całkowalnych z kwadratem zmiennych losowych X i Y nazywamy
Bardziej szczegółowoMetody probabilistyczne
Metody probabilistyczne. Twierdzenia graniczne Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 20.2.208 / 26 Motywacja Rzucamy wielokrotnie uczciwą monetą i zliczamy
Bardziej szczegółowoTechniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I
Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:
Bardziej szczegółowoProcesy stochastyczne
Wykład IV: dla łańcuchów Markowa 14 marca 2017 Wykład IV: Klasyfikacja stanów Kiedy rozkład stacjonarny jest jedyny? Przykład Macierz jednostkowa I wymiaru #E jest macierzą stochastyczną. Dla tej macierzy
Bardziej szczegółowoProcesy stochastyczne
Wykład I: Istnienie procesów stochastycznych 21 lutego 2017 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3
Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt
Bardziej szczegółowoNajprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;
Sieci Hopfielda Najprostsze modele sieci z rekurencją sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Modele bardziej złoŝone: RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie
Bardziej szczegółowoWstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.
Wstęp do teorii sztucznej inteligencji Wykład III Modele sieci neuronowych. 1 Perceptron model najprostzszy przypomnienie Schemat neuronu opracowany przez McCullocha i Pittsa w 1943 roku. Przykład funkcji
Bardziej szczegółowoWstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.
Wstęp do teorii sztucznej inteligencji Wykład II Uczenie sztucznych neuronów. 1 - powtórzyć o klasyfikacji: Sieci liniowe I nieliniowe Sieci rekurencyjne Uczenie z nauczycielem lub bez Jednowarstwowe I
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.
Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 2013-11-26 Projekt pn. Wzmocnienie potencjału
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 5. Metody kierunków poparwy (metoda Newtona-Raphsona, metoda gradientów sprzężonych) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.03.2019 1
Bardziej szczegółowoSpacery losowe generowanie realizacji procesu losowego
Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z
Bardziej szczegółowoWprowadzenie do Sieci Neuronowych Laboratorium 05 Algorytm wstecznej propagacji błędu
Wprowadzenie do Sieci Neuronowych Laboratorium Algorytm wstecznej propagacji błędu Maja Czoków, Jarosław Piersa --7. Powtórzenie Perceptron sigmoidalny Funkcja sigmoidalna: σ(x) = + exp( c (x p)) () Parametr
Bardziej szczegółowowiedzy Sieci neuronowe
Metody detekcji uszkodzeń oparte na wiedzy Sieci neuronowe Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 7 Wprowadzenie Okres kształtowania się teorii sztucznych sieci
Bardziej szczegółowoInteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 4. Metody kierunków poprawy (metoda spadku wzdłuż gradientu) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 21.03.2019 1 / 41 Plan wykładu Minimalizacja
Bardziej szczegółowoTransformaty. Kodowanie transformujace
Transformaty. Kodowanie transformujace Kodowanie i kompresja informacji - Wykład 10 10 maja 2009 Szeregi Fouriera Każda funkcję okresowa f (t) o okresie T można zapisać jako f (t) = a 0 + a n cos nω 0
Bardziej szczegółowoFuzja sygnałów i filtry bayesowskie
Fuzja sygnałów i filtry bayesowskie Roboty Manipulacyjne i Mobilne dr inż. Janusz Jakubiak Katedra Cybernetyki i Robotyki Wydział Elektroniki, Politechnika Wrocławska Wrocław, 10.03.2015 Dlaczego potrzebna
Bardziej szczegółowoPodstawy Sztucznej Inteligencji (PSZT)
Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12
Bardziej szczegółowoProcesy stochastyczne
Wykład I: Istnienie procesów stochastycznych 2 marca 2015 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane są
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład XIII: Prognoza. 26 stycznia 2015 Wykład XIII: Prognoza. Prognoza (predykcja) Przypuśćmy, że mamy dany ciąg liczb x 1, x 2,..., x n, stanowiących wyniki pomiaru pewnej zmiennej w czasie wielkości
Bardziej szczegółowoUkłady równań i nierówności liniowych
Układy równań i nierówności liniowych Wiesław Krakowiak 1 grudnia 2010 1 Układy równań liniowych DEFINICJA 11 Układem równań m liniowych o n niewiadomych X 1,, X n, nazywamy układ postaci: a 11 X 1 + +
Bardziej szczegółowoPrognozowanie i Symulacje. Wykład I. Matematyczne metody prognozowania
Prognozowanie i Symulacje. Wykład I. e-mail:e.kozlovski@pollub.pl Spis treści Szeregi czasowe 1 Szeregi czasowe 2 3 Szeregi czasowe Definicja 1 Szereg czasowy jest to proces stochastyczny z czasem dyskretnym
Bardziej szczegółowoSieć przesyłająca żetony CP (counter propagation)
Sieci neuropodobne IX, specyficzne architektury 1 Sieć przesyłająca żetony CP (counter propagation) warstwa Kohonena: wektory wejściowe są unormowane jednostki mają unormowane wektory wag jednostki są
Bardziej szczegółowoĆwiczenia: Ukryte procesy Markowa lista 1 kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II
Ćwiczenia: Ukryte procesy Markowa lista kierunek: matematyka, specjalność: analiza danych i modelowanie, studia II dr Jarosław Kotowicz Zadanie. Dany jest łańcuch Markowa, który może przyjmować wartości,,...,
Bardziej szczegółowoZastosowania sieci neuronowych
Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką
Bardziej szczegółowoI EKSPLORACJA DANYCH
I EKSPLORACJA DANYCH Zadania eksploracji danych: przewidywanie Przewidywanie jest podobne do klasyfikacji i szacowania, z wyjątkiem faktu, że w przewidywaniu wynik dotyczy przyszłości. Typowe zadania przewidywania
Bardziej szczegółowo8. Neuron z ciągłą funkcją aktywacji.
8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.
Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka ADALINE. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 218-1-15/22 Projekt pn.
Bardziej szczegółowoLista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie
Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie Jarosław Kotowicz Instytut Matematyki Uniwersytet w
Bardziej szczegółowoWykład 9: Markov Chain Monte Carlo
RAP 412 17.12.2008 Wykład 9: Markov Chain Monte Carlo Wykładowca: Andrzej Ruciński Pisarz: Ewelina Rychlińska i Wojciech Wawrzyniak Wstęp W tej części wykładu zajmiemy się zastosowaniami łańcuchów Markowa
Bardziej szczegółowoMetody matematyczne w analizie danych eksperymentalnych - sygnały, cz. 2
Metody matematyczne w analizie danych eksperymentalnych - sygnały, cz. 2 Dr hab. inż. Agnieszka Wyłomańska Faculty of Pure and Applied Mathematics Hugo Steinhaus Center Wrocław University of Science and
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt
Bardziej szczegółowoSztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335
Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Wykład 10 Mapa cech Kohonena i jej modyfikacje - uczenie sieci samoorganizujących się - kwantowanie wektorowe
Bardziej szczegółowoProces rezerwy w czasie dyskretnym z losową stopą procentową i losową składką
z losową stopą procentową i losową składką Instytut Matematyki i Informatyki Politechniki Wrocławskiej 10 czerwca 2008 Oznaczenia Wprowadzenie ξ n liczba wypłat w (n 1, n], Oznaczenia Wprowadzenie ξ n
Bardziej szczegółowoROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH
Transport, studia I stopnia Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać ogólna równania nieliniowego Często występującym, ważnym problemem obliczeniowym
Bardziej szczegółowoGeometryczna zbieżność algorytmu Gibbsa
Geometryczna zbieżność algorytmu Gibbsa Iwona Żerda Wydział Matematyki i Informatyki, Uniwersytet Jagielloński 6 grudnia 2013 6 grudnia 2013 1 / 19 Plan prezentacji 1 Algorytm Gibbsa 2 Tempo zbieżności
Bardziej szczegółowoElementy wspo łczesnej teorii inwersji
Elementy wspo łczesnej teorii inwersji Metoda optymalizacyjna (2) W. Debski, 8.01.2015 Liniowy problem odwrotny m est (λ) = m apr + (G T G + λi) 1 G T ( dobs G m apr) +δ d est d o = + λ I ( G T G + λi
Bardziej szczegółowoMetody probabilistyczne
Metody probabilistyczne 13. Elementy statystki matematycznej I Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 17.01.2019 1 / 30 Zagadnienia statystki Przeprowadzamy
Bardziej szczegółowoWażną rolę odgrywają tzw. funkcje harmoniczne. Przyjmujemy następującą definicję. u = 0, (6.1) jest operatorem Laplace a. (x,y)
Wykład 6 Funkcje harmoniczne Ważną rolę odgrywają tzw. funkcje harmoniczne. Przyjmujemy następującą definicję. e f i n i c j a Funkcję u (x 1, x 2,..., x n ) nazywamy harmoniczną w obszarze R n wtedy i
Bardziej szczegółowoCo to jest model Isinga?
Co to jest model Isinga? Fakty eksperymentalne W pewnych metalach (np. Fe, Ni) następuje spontaniczne ustawianie się spinów wzdłuż pewnego kierunku, powodując powstanie makroskopowego pola magnetycznego.
Bardziej szczegółowoANALIZA MATEMATYCZNA Z ELEMENTAMI STATYSTYKI MATEMATYCZNEJ
ANALIZA MATEMATYCZNA Z ELEMENTAMI STATYSTYKI MATEMATYCZNEJ FUNKCJE DWÓCH ZMIENNYCH RZECZYWISTYCH Definicja 1. Niech A będzie dowolnym niepustym zbiorem. Metryką w zbiorze A nazywamy funkcję rzeczywistą
Bardziej szczegółowoUKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH
Transport, studia I stopnia rok akademicki 2011/2012 Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Uwagi wstępne Układ liniowych równań algebraicznych można
Bardziej szczegółowoAlgorytmy stochastyczne Wykład 12, Uczenie parametryczne w sieciach bayesowskich
Algorytmy stochastyczne Wykład 2, Uczenie parametryczne w sieciach bayesowskich Jarosław Piersa 204-05-22 Zagadnienie uczenia sieci bayesowskich Problem mamy strukturę sieci bayesowskiej węzły, stany i
Bardziej szczegółowoPrawa potęgowe w grafach przepływu informacji dla geometrycznych sieci neuronowych
w grafach przepływu informacji dla geometrycznych sieci neuronowych www.mat.uni.torun.pl/~piersaj 2009-06-10 1 2 3 symulacji Graf przepływu ładunku Wspóczynnik klasteryzacji X (p) p α Rozkłady prawdopodobieństwa
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-10 Projekt pn. Wzmocnienie
Bardziej szczegółowoDeep Learning na przykładzie Deep Belief Networks
Deep Learning na przykładzie Deep Belief Networks Jan Karwowski Zakład Sztucznej Inteligencji i Metod Obliczeniowych Wydział Matematyki i Nauk Informacyjnych PW 20 V 2014 Jan Karwowski (MiNI) Deep Learning
Bardziej szczegółowoRozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład
Rozdział 1 Wektory losowe 1.1 Wektor losowy i jego rozkład Definicja 1 Wektor X = (X 1,..., X n ), którego każda współrzędna jest zmienną losową, nazywamy n-wymiarowym wektorem losowym (krótko wektorem
Bardziej szczegółowoAlgorytmy metaheurystyczne Wykład 6. Piotr Syga
Algorytmy metaheurystyczne Wykład 6 Piotr Syga 10.04.2017 Wprowadzenie Inspiracje Wprowadzenie ACS idea 1 Zaczynamy z pustym rozwiązaniem początkowym 2 Dzielimy problem na komponenty (przedmiot do zabrania,
Bardziej szczegółowoREGRESJA LINIOWA Z UOGÓLNIONĄ MACIERZĄ KOWARIANCJI SKŁADNIKA LOSOWEGO. Aleksander Nosarzewski Ekonometria bayesowska, prowadzący: dr Andrzej Torój
1 REGRESJA LINIOWA Z UOGÓLNIONĄ MACIERZĄ KOWARIANCJI SKŁADNIKA LOSOWEGO Aleksander Nosarzewski Ekonometria bayesowska, prowadzący: dr Andrzej Torój 2 DOTYCHCZASOWE MODELE Regresja liniowa o postaci: y
Bardziej szczegółowoMatematyka Dyskretna Zestaw 2
Materiały dydaktyczne Matematyka Dyskretna (Zestaw ) Matematyka Dyskretna Zestaw 1. Wykazać, że nie istnieje liczba naturalna, która przy dzieleniu przez 18 daje resztę 13, a przy dzieleniu przez 1 daje
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.
Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 13-1- Projekt pn. Wzmocnienie potencjału dydaktycznego
Bardziej szczegółowoProgramowanie liniowe
Programowanie liniowe Maciej Drwal maciej.drwal@pwr.wroc.pl 1 Problem programowania liniowego min x c T x (1) Ax b, (2) x 0. (3) gdzie A R m n, c R n, b R m. Oznaczmy przez x rozwiązanie optymalne, tzn.
Bardziej szczegółowoMatematyka Dyskretna 2/2008 rozwiązania. x 2 = 5x 6 (1) s 1 = Aα 1 + Bβ 1. A + B = c 2 A + 3 B = d
C. Bagiński Materiały dydaktyczne 1 Matematyka Dyskretna /008 rozwiązania 1. W każdym z następujących przypadków podać jawny wzór na s n i udowodnić indukcyjnie jego poprawność: (a) s 0 3, s 1 6, oraz
Bardziej szczegółowoLekcja 5: Sieć Kohonena i sieć ART
Lekcja 5: Sieć Kohonena i sieć ART S. Hoa Nguyen 1 Materiał Sieci Kohonena (Sieć samo-organizująca) Rysunek 1: Sieć Kohonena Charakterystyka sieci: Jednowarstwowa jednokierunkowa sieć. Na ogół neurony
Bardziej szczegółowoFunkcje analityczne. Wykład 4. Odwzorowania wiernokątne. Paweł Mleczko. Funkcje analityczne (rok akademicki 2016/2017) dla każdego s = (s.
Funkcje analityczne Wykład 4. Odwzorowania wiernokątne Paweł Mleczko Funkcje analityczne (rok akademicki 2016/2017) 1 Przekształcenia płaszczyzny Płaszczyzna jako przestrzeń liniowa, odwzorowania liniowe
Bardziej szczegółowoMetody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium JAVA Zadanie nr 2 Rozpoznawanie liter autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z problemem klasyfikacji
Bardziej szczegółowoPrzegląd metod optymalizacji wielowymiarowej. Funkcja testowa. Funkcja testowa. Notes. Notes. Notes. Notes. Tomasz M. Gwizdałła
Przegląd metod optymalizacji wielowymiarowej Tomasz M. Gwizdałła 2012.12.06 Funkcja testowa Funkcją testową dla zagadnień rozpatrywanych w ramach tego wykładu będzie funkcja postaci f (x) = (x 1 1) 4 +
Bardziej szczegółowoZastosowania sieci neuronowych
Zastosowania sieci neuronowych klasyfikacja LABORKA Piotr Ciskowski zadanie 1. klasyfikacja zwierząt sieć jednowarstwowa żródło: Tadeusiewicz. Odkrywanie własności sieci neuronowych, str. 159 Przykład
Bardziej szczegółowo2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.
Zadania z Procesów Stochastycznych 1 1. Udowodnij, że z prawdopodobieństwem 1 trajektorie procesu Poissona są niemalejące, przyjmują wartości z Z +, mają wszystkie skoki równe 1 oraz dążą do nieskończoności.
Bardziej szczegółowoWYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki
WYKŁAD 6 Witold Bednorz, Paweł Wolff 1 Instytut Matematyki Uniwersytet Warszawski Rachunek Prawdopodobieństwa, WNE, 2010-2011 Własności Wariancji Przypomnijmy, że VarX = E(X EX) 2 = EX 2 (EX) 2. Własności
Bardziej szczegółowosynaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.
Sieci neuronowe model konekcjonistyczny Plan wykładu Mózg ludzki a komputer Modele konekcjonistycze Perceptron Sieć neuronowa Uczenie sieci Sieci Hopfielda Mózg ludzki a komputer Twój mózg to 00 000 000
Bardziej szczegółowoObliczenia inspirowane Naturą
Obliczenia inspirowane Naturą Wykład 03 (uzupełnienie Wykładu 02) Jarosław Miszczak IITiS PAN Gliwice 31/03/2016 1 / 17 1 2 / 17 Dynamika populacji Równania Lotki-Voltery opisują model drapieżnik-ofiara.
Bardziej szczegółowoMetody iteracyjne rozwiązywania układów równań liniowych (5.3) Normy wektorów i macierzy (5.3.1) Niech. x i. i =1
Normy wektorów i macierzy (5.3.1) Niech 1 X =[x x Y y =[y1 x n], oznaczają wektory przestrzeni R n, a yn] niech oznacza liczbę rzeczywistą. Wyrażenie x i p 5.3.1.a X p = p n i =1 nosi nazwę p-tej normy
Bardziej szczegółowoModelowanie sieci złożonych
Modelowanie sieci złożonych B. Wacław Instytut Fizyki UJ Czym są sieci złożone? wiele układów ma strukturę sieci: Internet, WWW, sieć cytowań, sieci komunikacyjne, społeczne itd. sieć = graf: węzły połączone
Bardziej szczegółowoRozdział 5. Macierze. a 11 a a 1m a 21 a a 2m... a n1 a n2... a nm
Rozdział 5 Macierze Funkcję, która każdej parze liczb naturalnych (i,j) (i = 1,,n;j = 1,,m) przyporządkowuje dokładnie jedną liczbę a ij F, gdzie F = R lub F = C, nazywamy macierzą (rzeczywistą, gdy F
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.
Wstęp do sieci neuronowych, wykład 7. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 212-11-28 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu
Bardziej szczegółowoPrzekształcenia liniowe
Przekształcenia liniowe Zadania Które z następujących przekształceń są liniowe? (a) T : R 2 R 2, T (x, x 2 ) = (2x, x x 2 ), (b) T : R 2 R 2, T (x, x 2 ) = (x + 3x 2, x 2 ), (c) T : R 2 R, T (x, x 2 )
Bardziej szczegółowoSieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.
Sieci rekurencyjne Ewa Adamus ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych 7 maja 2012 Jednowarstwowa sieć Hopfielda, z n neuronami Bipolarna funkcja przejścia W wariancie
Bardziej szczegółowoInformacja o przestrzeniach Hilberta
Temat 10 Informacja o przestrzeniach Hilberta 10.1 Przestrzenie unitarne, iloczyn skalarny Niech dana będzie przestrzeń liniowa X. Załóżmy, że każdej parze elementów x, y X została przyporządkowana liczba
Bardziej szczegółowoRównanie Schrödingera
Równanie Schrödingera Maciej J. Mrowiński 29 lutego 2012 Zadanie RS1 Funkcja falowa opisująca stan pewnej cząstki w chwili t = 0 ma następującą postać: A(a Ψ(x,0) = 2 x 2 ) gdy x [ a,a] 0 gdy x / [ a,a]
Bardziej szczegółowoFunkcje analityczne. Wykład 4. Odwzorowania wiernokątne. Paweł Mleczko. Funkcje analityczne (rok akademicki 2017/2018)
Funkcje analityczne Wykład 4. Odwzorowania wiernokątne Paweł Mleczko Funkcje analityczne (rok akademicki 2017/2018) 1. Przekształcenia płaszczyzny Płaszczyzna jako przestrzeń liniowa, odwzorowania liniowe
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład XV: Zagadnienia redukcji wymiaru danych 2 lutego 2015 r. Standaryzacja danych Standaryzacja danych Własności macierzy korelacji Definicja Niech X będzie zmienną losową o skończonym drugim momencie.
Bardziej szczegółowoJanusz Adamowski METODY OBLICZENIOWE FIZYKI Kwantowa wariacyjna metoda Monte Carlo. Problem własny dla stanu podstawowego układu N cząstek
Janusz Adamowski METODY OBLICZENIOWE FIZYKI 1 Rozdział 20 KWANTOWE METODY MONTE CARLO 20.1 Kwantowa wariacyjna metoda Monte Carlo Problem własny dla stanu podstawowego układu N cząstek (H E 0 )ψ 0 (r)
Bardziej szczegółowoWstęp do sztucznych sieci neuronowych
Wstęp do sztucznych sieci neuronowych Michał Garbowski Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Wydział Informatyki 15 grudnia 2011 Plan wykładu I 1 Wprowadzenie Inspiracja biologiczna
Bardziej szczegółowo2. P (E) = 1. β B. TSIM W3: Sygnały stochastyczne 1/27
SYGNAŁY STOCHASTYCZNE Przestrzeń probabilistyczna i zmienna losowa Definicja Przestrzenią probabilistyczną (doświadczeniem) nazywamy trójkę uporządkowaną (E, B, P ), gdzie: E przestrzeń zdarzeń elementarnych;
Bardziej szczegółowoMetody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF.
Metody sztucznej inteligencji Zadanie 3: ( klasteryzacja samoorganizująca się mapa Kohonena, (2 aproksymacja sieć RBF dr inż Przemysław Klęsk Klasteryzacja za pomocą samoorganizującej się mapy Kohonena
Bardziej szczegółowoDefinicje i przykłady
Rozdział 1 Definicje i przykłady 1.1 Definicja równania różniczkowego 1.1 DEFINICJA. Równaniem różniczkowym zwyczajnym rzędu n nazywamy równanie F (t, x, ẋ, ẍ,..., x (n) ) = 0. (1.1) W równaniu tym t jest
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład VII: Metody specjalne Monte Carlo 24 listopada 2014 Transformacje specjalne Przykład - symulacja rozkładu geometrycznego Niech X Ex(λ). Rozważmy zmienną losową [X ], która przyjmuje wartości naturalne.
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 8 Uczenie nienadzorowane.
Wstęp do sieci neuronowych, wykład 8. M. Czoków, J. Piersa, A. Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 1-811-6 Projekt pn. Wzmocnienie potencjału dydaktycznego
Bardziej szczegółowoWyznaczniki. Mirosław Sobolewski. Wydział Matematyki, Informatyki i Mechaniki UW. 6. Wykład z algebry liniowej Warszawa, listopad 2013
Wyznaczniki Mirosław Sobolewski Wydział Matematyki, Informatyki i Mechaniki UW 6. Wykład z algebry liniowej Warszawa, listopad 2013 Mirosław Sobolewski (UW) Warszawa, listopad 2013 1 / 13 Terminologia
Bardziej szczegółowo