dr Igor T. Podolak 19 grudnia 2013, 9 i 16 stycznia 2014
|
|
- Weronika Czarnecka
- 9 lat temu
- Przeglądów:
Transkrypt
1 dr Igor T Podolak 19 grudnia 2013, 9 i 16 stycznia / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 1/47 47
2 Potrzeba głębokich architektur podstawowe problemy 1 w problemach klasyfikacji potrzebujemy lepszych reprezentacji 2 jak przejść od poziomu pikseli do poziomu bardziej ogólnych pojęć? 3 cechy wyższego poziomu są zwykle bardzo złożone do opisania 4 głębokie architektury odpowiadają składaniu cech poziomu niższego mózgi ssaków mają pięć do dziesięciu poziomów przetwarzania 5 dodatkowym problemem jest znaczna zmienność funkcji 2 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 2/47 47
3 Złożoność funkcji a ich uczenie jak głębokiej architektury wymagają funkcje do reprezentacji? funkcja może być reprezentowana w sposób zwarty przez układ o głębokości n jeśli wymaga to wykładniczo wiele elementów obliczeniowych by reprezentować ją układem o głębokości n 1 dla zbioru neuronów jako elementów obliczeniowych, głębokości układu odpowiada liczba warstw liczba elementów obliczeniowych zależy też od liczby przykładów słaba generalizacja jeśli użyjemy zbyt płytkich architektur x * + * f(x,y) y 3 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 3/47 47
4 Głębokość architektury alternatywa: płytkie czy głębokie 1 przedstawienie funkcji przez układ o niewystarczającej głębokości będzie wymagać wykładniczo wiele elementów obliczeniowych (neuronów) na przykład problem obliczania parzystości 2 może później? PCA pozwala na tworzenie rozproszonych reprezentacji jednak nie pozwoli na utworzenie głębokiej struktury 3 drzewa decyzyjne też właściwie mają dwa poziomy pierwszym jest znalezienie obszaru drugim aproksymacja wewnątrz tego obszaru lasy drzew dodają jeden poziom 4 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 4/47 47
5 Płytkie architektury typy podejść suma ważona suma ważona suma ważona ustalone funkcje bazowe wzorce proste adaptowalne funkcje bazowe 1 szereg funkcji wykrywających konkretne wzorce nie znamy wszystkich możliwych cech, to nie jest rozsądne rozwiązanie 2 odpowiada architekturze z kernelami f(x) = b + α i K(x, x i ) daje zwartą reprezentację lokalne kernele są niewiele lepsze od predefiniowanych cech kernele globalne źle ekstrapolują lokalne kernele wykorzystują założenie o gładkości, co jednak wymaga definicji odległości gładkość jest niewystarczająca jeśli funkcja ma dużą zmienność 3 podstawowe funkcje uczone w sposób nadzorowany warstwowe sieci neuronowe, sieci RBF, boosting, adaptowalne kernele 5 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 5/47 47
6 Zmienność funkcji funkcja jest wysoce zmienna gdy aproksymacja jej kawałkami będzie wymagać bardzo wielu elementów obliczeniowych lokalny estymator będzie osiągał dobrą dokładność dla x przy wykorzystaniu punktów w jego okolicach związane z przekleństwem wymiarowości jednak dla dobrej generalizacji ważniejsza jest liczba wariantów funkcji, której chcemy się nauczyć nauczanie jest niepraktyczne dla lokalnych kerneli należy szukać zwartych reprezentacji, które pozwolą na lepszą generalizację 6 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 6/47 47
7 Rozproszone reprezentacje pojecie rzadkości (sparsity) reprezentacje rzadkie (sparse) mieszczą się gdzieś pośrodku między one out of n i typu log 2 w ludzkim mózgu aktywowanych jest jednocześnie 1 4% neuronów algorytmy klastrujące zwykle budują klastry wykluczające się budowanie rozproszonych reprezentacji można nazwać multi-klastrowaniem PCA też buduje rozproszoną reprezentację wykorzystamy nienadzorowane nauczanie do budowy rozproszonych reprezentacji wykorzystanie maszyny Boltzmanna szereg związanych reprezentacji 7 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 7/47 47
8 Głębokie architektury organizacja warstw h k = tanh(b k + W k h k 1 ) (1) najwyższa warstwa uczona z wykorzystaniem algorytmu nadzorowanego softmax albo na przykład L(h l, y) = log P(Y = y x) = log h l y metody spadku źle sobie radzą przy wielowarstwowych architekturach 1 często utykają w pozornych minimach lub plateau 2 im głębsza architektura, tym trudniej to wykryć 3 gradient niesie coraz mniej informacji gdy jest propagowany przez wiele warstw 4 wyniki dla gradientowo uczonych głębokich architektur są często słabsze niż dla płytkich h 4 h 3 h 2 h 1 x 8 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 8/47 47
9 Głębokie architektury problemy uczenia prawdopodobnie problem wynika ze złej inicjalizacji wag przy bardzo dużej liczbie połączeń mamy dużą liczbę płaskich minimów lepsze wyniki można osiągnąć przez wstępny preprocessing w trybie nienadzorowanym wyjście jednego modelu staje się wejściem dla kolejnego ograniczona maszyna Boltzmanna enkoder dekoder końcowy model może być dostrajamy w trybie nadzorowanym h 4 h 3 h 2 h 1 x 9 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 9/47 47
10 Głębokie architektury optymalizacja czy generalizacja? dla tego samego błędu nauczania nienadzorowane przed-nauczanie poprawia błąd generalizacji [Erhan et al 2009] nienadzorowany preprocessing jest formą regularyzacji czy założonego prior na parametrach ewidentnie lepsza generalizacja niż prosta optymalizacja szczególnie wydatne dla małych zbiorów uczących h 4 h 3 h 2 h 1 x 10 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 10/47 47
11 Głębokie architektury optymalizacja czy generalizacja? słabe niskie warstwy powodują słabe wyniki także bez preprocessingu głębokie sieci z losową inicjalizacją radzą sobie gorzej na zbiorze trenującym i testującym gdy wysokie warstwy są ograniczone h 4 h 3 nienadzorowane przed-uczenie polepsza generalizację przez dostrojenie niskich warstw nienadzorowane wstępne uczenie jest ograniczone do wyszukiwania regularności w rozkładach wejściowych jeśli P(Y X) i P(X) są nieskorelowane, to dobre modelowanie P(X) nie wspomoże dobrej generalizacji jeśli są skorelowane, to pary (X, Y) dają informację zarówno o P(X) i o P(Y X) 11 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 11/47 47 h 2 h 1 x
12 Doświadczenie inicjalizacja losowa czy nienadzorowana? layer net, budget of iterations 0 unsupervised supervised unsupervised supervised 10 0 Online classification error Number of examples seen x / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 12/47 47
13 Zwykła inicjalizacja czy nienadzorowana? doświadczenia [Erhan et al 2009] zysk z nienadzorowanej inicjalizacji wzrasta wraz z liczbą wykorzystanych warstw doświadczenia na denoising auto-encoder 13 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 13/47 47
14 Zwykła inicjalizacja czy nienadzorowana? relacja generalizacji do błędu nauczania przy tym samym błędzie nauczania modele z wstępną inicjalizacją algorytmem nienadzorowanym dają niższy błąd niż inicjalizowane losowo wyniki są szczególnie dobre dla mniejszych zbiorów uczących jest to zdecydowanie efekt raczej generalizacji niż optymalizacji nauczania efekty jak przy dobrej regularyzacji mimo, że nie było takiej explicite model denoising auto-encoder radzi sobie dobrze, gdy wielkość warstwy ukrytej w auto-enkoderze jest większa niż warstwy wejściowej Igor T Podolak, nienadzorowana WMiI UJ igorpodolak@ujedupl inicjalizacjagłębokie pomaga uczenie, nowe przy perspektywy większych uczenia maszynowego warstwach i 14 / 14/47 47
15 Inicjalizacja których warstw ma największy wpływ? różne sposoby inicjalizowania poszczególnych warstw model z nienadzorowaną inicjalizacją tylko pierwszej warstwy działa prawie tak dobrze jak model w całości inicjalizowany model z nienadzorowaną inicjalizacją drugiej warstwy działa znacznie gorzej podobnie do modelu bez wstępnego nauczania warstwy są uczone do odtwarzania informacji jeśli inicjalizacja pierwszej warstwy jest losowa, to druga nie ma czego odtwarzać 15 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 15/47 47
16 Inne głębokie architektury sieć konwolucyjna propozycja Fukushimy (Neocognitron), potem rozwinięta przez LeCuna duża głębokość: na zmianę konwolucje i wybór wagi z małego obszaru, a także dzielone przez bardzo długi czas najlepszy wynik na danych MNIST dopiero obecne architektury głębokie osiągnęły lepsze wyniki 16 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 16/47 47
17 Auto-enkodery kolejno budowane sieci neuronowe z jedną warstwą ukrytą uczące się auto-asocjacji warstwa ukryta jest traktowana jako stratna reprezentacja wejścia nie może być dobrą kompresją wszystkich przykładów pozwala na znalezienie dobrej reprezentacji w sensie dobrej generalizacji jednak nie dla dowolnych wejść! warstwa ukryta ma dodany silny czynnik regularyzacyjny pozwala na radzenie sobie z problemami znacznej przewagi liczby neuronów ukrytych nad przykładami zamiast uczyć się funkcji identycznościowej, wyszukuje regularności dobrą strategią uczenia jest dodawanie szumu do przykładów to przypomina w zachowaniu RBMy 17 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 17/47 47
18 Sigmoidal Belief Network modele generatywne modele można opisać jako modele grafowe (graphical models) problem explaining away: wiele warstw struktury może pomóc w sigmoidal belief neurony w warstwie są od siebie niezależne przy danych wartościach z warstwy powyżej P(h k i = 1 h k+1 ) = sigm(b k i + j P(x,h 1,, h l ) W k+1 ij h k+1 j ) = P(h l ) ( l 1 P(h k h k+1 ) ) P(x h 1 ) k=1 W h 2 W T W W W T W W T W T v 2 W T h 1 W v 1 W T h 0 W 18 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 18/47 47 v 0
19 Sigmoidal Belief Network sieć o nieskończonej głębokości dane są generowane od warstwy na nieskończonej głębokości log p(v 0 ) w 00 ij log p(v 0 ) w 00 ij = = h 0 j (v 0 i ^v 0 i ) h 0 j (v 0 i v 1 i ) ponieważ wagi się powtarzają log p(v 0 ) w 00 = ij + v 1 i (h 0 j h 1 j ) h 0 j (v 0 i v 1 i ) + + h 1 j (v 1 i v 2 i ) + wszystkie elementy redukują się do postaci maszyny Boltzmanna W W T h 2 W T W W W T W W T v 2 W T h 1 W v 1 W T h 0 W 19 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 19/47 47 v 0
20 Maszyna Boltzmanna Energy(x, h) = b T x c T h h T Wx x T Ux h T Vh P(x) = 1 Z exp( Energy(x)) Z = x exp( Energy(x)) V h W U x log P(x) θ = h P(h x) Energy(x, h) + x,h Energy( x, h) P( x, h) θ θ 20 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 20/47 47
21 Maszyna Boltzmanna nauczanie log P(x) θ = h P(h x) Energy(x, h) + x,h Energy( x, h) P( x, h) θ θ V h W U x w fazie dodatniej (positive) wektor x jest przypisany (clamped) do wektora obserwowalnego i próbkujemy h mając dane x, w fazie ujemnej (negative) oba x oraz h są próbkowane, najlepiej z całego modelu 21 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 21/47 47
22 Deep Belief Network P(x, h 1,, h l ) = P(h l 1, h l ) ( l 2 P(h k h k+1 ) ) P(x h 1 ) k=1 RBM w górnej warstwie odpowiada sieci o nieskończonej liczbie warstw 1 uczenie W 0 przy założeniu, że wszystkie wagi są związane 2 zamrożenie W 0 i używanie odtąd W T 0 dla uzyskania rozkładów posterior w pierwszej warstwie nawet jeśli zmiany będą oznaczać, że ten rozkład nie będzie prawdziwy 3 utworzenie RBM modelującego dane wyższego poziomu W 2 W T 1 W T 0 h 3 RBM P(h 2, h 3 ) h 2 W 1 h 1 W 0 22 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 22/47 47 x
23 Ograniczona maszyna Boltzmanna RBM niezależność x ij gdy dane h, oraz h i gdy dane x Energy(x, h) = b T x c T h h T Wx U = 0, V = 0, stąd P(h x) = i P(h i x) oraz P(x h) = i P(x j h) P(h i = 1 x) = exp(c i+w i x) 1+exp(c i +W i x) = sigm(c i + W i x) h W 1 dla każdej wagi w ij mierzymy korelację v 0 i h0 j gdy przykłady są zadane (clamped) na warstwie widzialnej 2 używając próbkowania Gibbsa uruchamiamy łańcuch Markowa aż układ osiągnie stan stabilny i mierzymy wtedy korelację v i h j 3 to daje gradient log p(v0 ) w ij = v 0 i h0 j v i h j jak w logistic belief network! 23 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 23/47 47 x
24 Ograniczona maszyna Boltzmanna RBM nauczanie Energy(x, h) = b T x c T h h T Wx h W x próbkowanie Gibbsa pełnego modelu Boltzmanna jest bardzo powolne w RBM nie ma potrzeby próbkowania fazy dodatniej, bo gradient może być podany analitycznie próbkowanie: x 1 P(x), h 1 P(h x 1 ), x 2 P(x h 1 ), h 2 P(h x 2 ),, x k+1 P(x h k ) 24 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 24/47 47
25 Ograniczona maszyna Boltzmanna RBM contrastive divergence h W x 1 próbkujemy po pojedynczym przykładzie uczącym zamiast po wszystkich możliwych częste poprawianie parametrów i tak wprowadza szum uśrednienia i dodatkowa wariancja wprowadzana przez wzięcie jednego albo kilku próbek zamiast pełnej sumy jest uśrednione w procesie w kolejnych poprawek, dodatkowa wariancję jest mniejsza lub porównywalna do wariancji podczas poprawek 25 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 25/47 47
26 Ograniczona maszyna Boltzmanna RBM contrastive divergence h W x 2 wykonujemy tylko k kroków próbkowania wiadomo, że wraz z k, błąd maleje jeśli rozkład modelu jest bliski do empirycznego, tzn P P, startując z x P, MCMC już zbiegł i wystarczy nam jeden krok by osiągnąć nie obarczoną błędem próbkę z P (ale wciąż skorelowaną z x), okazuje się, że nawet k = 1 wystarcza dla osiągnięcia dobrych rezultatów, 26 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 26/47 47
27 Ograniczona maszyna Boltzmanna RBM contrastive divergence h W x CD przybliża gradient log-likelihood lokalnie wokół przykładu x 1 x = x k+1 ma rozkład wycentrowany w x 1 i rozszerza się wraz ze wzrostem k aż do osiągnięcia rozkładu modelu, poprawka CD k obniży energię w sąsiedztwie x 1, x ma większą szansę, że jest w obszarach o wyższym prawdopodobieństwie według modelu, można myśleć o nienadzorowanym uczeniu jako wykrywaniu krawędzi decyzyjnej oddzielającej obszary o wysokim prawdopodobieństwie gdzie jest wiele przykładów od reszty 27 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 27/47 47
28 Ograniczona maszyna Boltzmanna RBM contrastive divergence h W x Twierdzenie Niech x 1 h 1 x 2 h 2 będzie zbieżnym łańcuchem Gibbsa startując od x 1 Wtedy gradient log-likelihood log P(x 1 ) θ = FE(x 1) θ [ ] [ ] FE(xt ) P(xt ) + E + E θ θ i ostatni term dąży do zera wraz z t dążącym do dwa pierwsze termy są właśnie poprawką w CD k ograniczonym to t kroków; w praktyce k = 1 wystarcza 28 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 28/47 47
29 Dane MNIST na RBM 300 iteracji, 500 ukrytych 29 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 29/47 47
30 Dane MNIST na RBM po kilku krokach nauczania, 625 ukrytych 30 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 30/47 47
31 Dane MNIST na RBM 300 iteracji, 625 ukrytych 31 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 31/47 47
32 Dane MNIST na RBM jeden cykl próbkowania, 625 ukrytych 32 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 32/47 47
33 Dane MNIST na RBM dziesięć cykli próbkowania, 625 ukrytych 33 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 33/47 47
34 Dane MNIST na RBM 100 cykli próbkowania, 625 ukrytych 34 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 34/47 47
35 Dane MNIST na RBM cykli próbkowania, 625 ukrytych 35 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 35/47 47
36 Dane MNIST na RBM cykli próbkowania, 625 ukrytych 36 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 36/47 47
37 Deep Belief Network down and up 1 DBN jest uczony zachłannie warstwa po warstwie 2 Q(h k h k 1 ) będzie aproksymacją P(h k h k 1 ) implementowaną przez wagi klasyfikujące z dołu do góry 3 wagi z góry na dół są generatywne 4 aby otrzymać albo reprezentację wszystkich warstw 41 próbkujemy h 1 Q(h 1 x) albo ^h 1 = E[Q(h 1 x)] albo próbkowanie albo mean field wektorem prawdopodobieństw ukrytych neuronów, ^h 1 i = sigm(b 1 + Wi 1 x) 42 biorąc h 1 albo ^h 1 jako wejście do kolejnego RBM, obliczamy ^h 2 albo próbkę h 2 aż do najwyższej warstwy, Q(h 2 h 1 ) Q(h 1 x) h 3 P(h 2, h 3 ) RBM P(h 2 h 1 ) P(x h 1 ) 37 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 37/47 47 h 2 h 1 x
38 Deep Belief Network down and up używając DBN jako modelu generatywnego 1 próbkuj widzialny wektor h l 1 z najwyższego poziomu przez łańcuch próbkowania Gibbsa zamiennie przez h l P(h l h l 1 ) i h l 1 P(h l 1 h l ) jeśli próbkowanie rozpoczniemy od h l 1 uzyskanego z przykładu uczącego x, to prawdopodobnie będzie potrzeba mniej kroków próbkowania 2 dla k = l 1,, 1 próbkowanie h k 1 P(h k 1 h k ), 3 x = h 0 Q(h 2 h 1 ) Q(h 1 x) h 3 P(h 2, h 3 ) RBM P(h 2 h 1 ) h 2 h 1 P(x h 1 ) x 38 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 38/47 47
39 Deep Belief Network dalsze etapy nauczania po nauczeniu wyższych warstw, wagi na niższych niekoniecznie są optymalne po nauczeniu wszystkich warstw wagi rozpoznające (do góry) są uniezależniane od generatywnych (w dół) DBN wykorzystuje algorytm wake sleep 1 w up pass wybierane są stochastycznie aktywacje każdej zmiennej ukrytej 2 wagi generatywne są modyfikowane dla maksymalizacji likelihood wejścia 3 w przejściu down pass (w dół) wybierane są stochastyczne aktywacje warstw poniżej 4 wagi nieskierowane i wagi generatywne nie są zmieniane 5 wagi rozpoznające są modyfikowane to odpowiednik fazy snu Q(h 2 h 1 ) Q(h 1 x) h 3 P(h 2, h 3 ) RBM P(h 2 h 1 ) h 2 h 1 P(x h 1 ) x 39 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 39/47 47
40 Deep Belief Network pamięć asocjacyjna pamięć asocjacyjna może być uruchamiana do osiągnięcia stabilności uruchomienie jej na kilka cykli próbkowania Gibbsa będzie odpowiadać podejściu contrastive divergence 1 w ten sposób wagi rozpoznające są uczone dla reprezentacji, które są średnimi aktywacjami podobnych do tych dla prawdziwych przykładów (down pass) 2 jeśli dla danego x aktywacje warstw są zawsze identyczne, to down pass będzie modyfikował tylko wagi związane z tymi stanami nie będą zmieniane wagi związane z innymi stanami równie dobrymi dla generuji (w dół) x Q(h 2 h 1 ) Q(h 1 x) h 3 P(h 2, h 3 ) RBM P(h 2 h 1 ) h 2 h 1 P(x h 1 ) x 40 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 40/47 47
41 Deep Belief Network poprawa wraz z dodawaniem warstw? wagi W 2 są inicjalizowane na (W 1 ) T N P(v n ; θ) E Q(h 1 v n )[log(p(v n h 1 ; W 1 ))] n n KL(Q(h 1 v n ) P(h 1 ; W 2 )) n h 3 P(h 2, h 3 ) RBM h 2 nauczanie w kierunku gradientu loglikelihood po W 2 W 2 staje się lepszym modelem rozkładu h 1 rozumowanie da się rozwinąć na kolejne warstwy praktycznie używamy dużych przybliżeń rozumowanie tylko pod warunkiem inicjalizacji W 2 na (W 1 ) T Q(h 2 h 1 ) Q(h 1 x) P(h 2 h 1 ) P(x h 1 ) 41 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 41/47 47 h 1 x
42 Deep Belief Network 42 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 42/47 47
43 Deep Boltzmann Machine DBN nie są głębokimi sieciami Boltzmanna DBM to układ o energii E(x, h 1, h 2 ; θ) = x T W 1 h 1 h 1 W 2 h 2 w DBN zastąpienie pierwszego RBM 1 P(h 1 v) modelem kolejnej warstwy RBM 2 P(h 1 h 2 ) powinno dać lepsze przybliżenie P(h 1 W 1, W 2 ) 1 h 2 jednak zależy także od v 2 użycie W 1 do góry i W 2 w dół oznaczałoby podwójne zliczanie dowodów konieczna jest sprytna modyfikacja RBM RBM h 2 W 2 W 1 v h 2 W 2 h 1 h 1 W 1 v 43 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 43/47 47
44 Deep Boltzmann Machine sprytna modyfikacja podwajamy wagi z warstwy widzialnej do ukrytej p(h 1 j = 1 v) =σ( i p(v i = 1 h 1 ) =σ( j W 1 ijv i + i W 1 ijh 1 j ) analogicznie w ostatniej parze warstw p(h 1 j = 1 h 2 ) =σ( m p(h 2 m = 1 h 1 ) =σ( j W 2 jmh 2 m + m W 2 jmh 1 j ) W 1 ijv i ) W 2 jmh 2 m) RBM RBM h 2 W 2 W 1 h 2 W 2 h 1 h 1 W 1 we wszystkich warstwach pośrednich v v wystarczy podzielić wszystkie wagi przez 2 44 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 44/47 47
45 Deep Boltzmann Machine dla nowego przykładu 1 inferencja w górę aktywacji wszystkich warstw 2 alternatywne próbkowanie nieparzystych i parzystych warstw (z wagami połówkowymi) 3 to odpowiada próbkowaniu Gibbsa modelu DBM warstwy widzialna i ostatnia muszą być zduplikowane 1 widzialna ma aktywacje ustalone na dane 2 ostatnia może mieć różne wartości inicjalizacja warstw dla nowego przykładu możliwa z wagami o podwójnych wartościach nie ma potrzeby pamiętania stanu z poprzedniej aktywacji dla danego przykładu RBM RBM h 2 W 2 W 1 v h 2 W 2 h 1 h 1 W 1 v 45 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 45/47 47
46 There is always something more to come someday 46 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 46/47 47
47 Bibliografia Bengio Y, LeCun Y, Scaling learning algorithms towards AI, W: Large-scale kernel machines, Bottou, Chapelle, DeCoste, Weston (ed), MIT, (2007) Bengio Y, Learning deep architectures for AI, Foundations and trends in Machine Learning (2009) Bengio Y, Courville A, Vincent P, Representation learning: a review and new perspectives, arxiv: v2:18 Oct 2012 (2012) Erhan D, Manzagol P-A, Bengio Y, Bengio S, Vincent P, The difficulty of training deep architectures and the effect of unsupervised pre-training, JMLR 5:W&CP 5, AISTATS 2009 (2009) Salakhutdinov, R, Hinton, G, Deep Boltzmann Machines, W: JMLR: W 5&CP 5, AISTATS 2009 (2009) Salakhutdinov, R, Hinton, G, An efficient learning procedure for Deep Boltzmann Machines, MIT-CSAIL-TR (2010) Weston J, Ratle F, Mobahi H, Collobert R, Deep learning via semi-supervised embedding, W; Neural Networks: Tricks of the trade, Montavon et al (eds), LNCS 7700, pp (2012) 47 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 47/47 47
Deep Learning na przykładzie Deep Belief Networks
Deep Learning na przykładzie Deep Belief Networks Jan Karwowski Zakład Sztucznej Inteligencji i Metod Obliczeniowych Wydział Matematyki i Nauk Informacyjnych PW 20 V 2014 Jan Karwowski (MiNI) Deep Learning
AUTO-ENKODER JAKO SKŠADNIK ARCHITEKTURY DEEP LEARNING
AUTO-ENKODER JAKO SKŠADNIK ARCHITEKTURY DEEP LEARNING Magdalena Wiercioch Uniwersytet Jagiello«ski 3 kwietnia 2014 Plan Uczenie gª bokie (deep learning) Auto-enkodery Rodzaje Zasada dziaªania Przykªady
IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ
IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,
Podstawy Sztucznej Inteligencji (PSZT)
Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12
Wrocław University of Technology. Uczenie głębokie. Maciej Zięba
Wrocław University of Technology Uczenie głębokie Maciej Zięba UCZENIE GŁĘBOKIE (ang. deep learning) = klasa metod uczenia maszynowego, gdzie model ma strukturę hierarchiczną złożoną z wielu nieliniowych
Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335
Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Wykład 10 Mapa cech Kohonena i jej modyfikacje - uczenie sieci samoorganizujących się - kwantowanie wektorowe
Optymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
Uczenie sieci neuronowych i bayesowskich
Wstęp do metod sztucznej inteligencji www.mat.uni.torun.pl/~piersaj 2009-01-22 Co to jest neuron? Komputer, a mózg komputer mózg Jednostki obliczeniowe 1-4 CPU 10 11 neuronów Pojemność 10 9 b RAM, 10 10
Uczenie sieci radialnych (RBF)
Uczenie sieci radialnych (RBF) Budowa sieci radialnej Lokalne odwzorowanie przestrzeni wokół neuronu MLP RBF Budowa sieci radialnych Zawsze jedna warstwa ukryta Budowa neuronu Neuron radialny powinien
Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3
Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa
8. Neuron z ciągłą funkcją aktywacji.
8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i
Elementy inteligencji obliczeniowej
Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego
Zastosowania sieci neuronowych
Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką
Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych
Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych mgr inż. C. Dendek prof. nzw. dr hab. J. Mańdziuk Politechnika Warszawska, Wydział Matematyki i Nauk Informacyjnych Outline 1 Uczenie
Metody Sztucznej Inteligencji II
17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału
Uczenie sieci typu MLP
Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik
Sieć przesyłająca żetony CP (counter propagation)
Sieci neuropodobne IX, specyficzne architektury 1 Sieć przesyłająca żetony CP (counter propagation) warstwa Kohonena: wektory wejściowe są unormowane jednostki mają unormowane wektory wag jednostki są
Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;
Sieci Hopfielda Najprostsze modele sieci z rekurencją sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Modele bardziej złoŝone: RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie
Dariusz Brzeziński Instytut Informatyki, Politechnika Poznańska
Dariusz Brzeziński Instytut Informatyki, Politechnika Poznańska Podstawowe architektury sieci neuronowych Generowanie sztucznych danych Jak się nie przemęczyć Korzystanie z istniejących wag Zamrażanie
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING UCZENIE GŁĘBOKIE I GŁĘBOKIE SIECI NEURONOWE DEEP LEARNING AND DEEP NEURAL NETWORKS Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki,
SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.
SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska INFORMACJE WSTĘPNE Hipotezy do uczenia się lub tworzenia
Wprowadzenie do sieci neuronowych i zagadnień deep learning
Wprowadzenie do sieci neuronowych i zagadnień deep learning Inteligentne Obliczenia Wydział Mechatroniki Politechniki Warszawskiej Anna Sztyber INO (IAiR PW) Deep learning Anna Sztyber 1 / 28 Deep learning
1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda
Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy
Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010
Materiały/konsultacje Automatyczna predykcja http://www.ibp.pwr.wroc.pl/kotulskalab Konsultacje wtorek, piątek 9-11 (uprzedzić) D1-115 malgorzata.kotulska@pwr.wroc.pl Co to jest uczenie maszynowe? Uczenie
ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ
ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ Maciej Patan Uniwersytet Zielonogórski WSTEP Zadanie minimalizacji bez ograniczeń f(ˆx) = min x R nf(x) f : R n R funkcja ograniczona z dołu Algorytm rozwiazywania Rekurencyjny
TEORETYCZNE PODSTAWY INFORMATYKI
1 TEORETYCZNE PODSTAWY INFORMATYKI WFAiS UJ, Informatyka Stosowana I rok studiów, I stopień Wykład 16 2 Data Science: Uczenie maszynowe Uczenie maszynowe: co to znaczy? Metody Regresja Klasyfikacja Klastering
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych
Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.
Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2
Optymalizacja systemów
Optymalizacja systemów Laboratorium - problem detekcji twarzy autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, P. Klukowski Cel zadania Celem zadania jest zapoznanie się z gradientowymi algorytmami optymalizacji
Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań
Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW
synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.
Sieci neuronowe model konekcjonistyczny Plan wykładu Mózg ludzki a komputer Modele konekcjonistycze Perceptron Sieć neuronowa Uczenie sieci Sieci Hopfielda Mózg ludzki a komputer Twój mózg to 00 000 000
Aby mówić o procesie decyzyjnym Markowa musimy zdefiniować następujący zestaw (krotkę): gdzie:
Spis treści 1 Uczenie ze wzmocnieniem 2 Proces decyzyjny Markowa 3 Jak wyznaczyć optymalną strategię? 3.1 Algorytm iteracji funkcji wartościującej 3.2 Algorytm iteracji strategii 4 Estymowanie modelu dla
Podstawy sztucznej inteligencji
wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 4. UCZENIE SIĘ INDUKCYJNE Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska WSTĘP Wiedza pozyskana przez ucznia ma charakter odwzorowania
Co to jest grupowanie
Grupowanie danych Co to jest grupowanie 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Szukanie grup, obszarów stanowiących lokalne gromady punktów Co to jest grupowanie
Widzenie komputerowe
Widzenie komputerowe Uczenie maszynowe na przykładzie sieci neuronowych (3) źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Zdolność uogólniania sieci neuronowej R oznaczenie
Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0
Uczenie się pojedynczego neuronu W0 X0=1 W1 x1 W2 s f y x2 Wp xp p x i w i=x w+wo i=0 Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z=0 Wówczas: W 1 x 1 + w 2 x 2 + = 0 Algorytm
Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa
Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa M. Czoków, J. Piersa 2012-01-10 1 Łańcucha Markowa 2 Istnienie Szukanie stanu stacjonarnego 3 1 Łańcucha Markowa 2 Istnienie Szukanie stanu stacjonarnego
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-10 Projekt pn. Wzmocnienie
S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor
S O M SELF-ORGANIZING MAPS Przemysław Szczepańczyk Łukasz Myszor Podstawy teoretyczne Map Samoorganizujących się stworzył prof. Teuvo Kohonen (1982 r.). SOM wywodzi się ze sztucznych sieci neuronowych.
Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE
Temat: Sztuczne Sieci Neuronowe Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sztuczne sieci neuronowe
Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I
Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:
TEORETYCZNE PODSTAWY INFORMATYKI
1 TEORETYCZNE PODSTAWY INFORMATYKI WFAiS UJ, Informatyka Stosowana I rok studiów, I stopień Wykład 14c 2 Definicje indukcyjne Twierdzenia dowodzone przez indukcje Definicje indukcyjne Definicja drzewa
Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18
Eksploracja Danych wykład 4 Sebastian Zając WMP.SNŚ UKSW 10 maja 2017 Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja 2017 1 / 18 Klasyfikacja danych Klasyfikacja Najczęściej stosowana (najstarsza)
Projekt Sieci neuronowe
Projekt Sieci neuronowe Chmielecka Katarzyna Gr. 9 IiE 1. Problem i dane Sieć neuronowa miała za zadanie nauczyć się klasyfikować wnioski kredytowe. W projekcie wykorzystano dane pochodzące z 110 wniosków
Inteligentne systemy przeciw atakom sieciowym
Inteligentne systemy przeciw atakom sieciowym wykład Sztuczne sieci neuronowe (SSN) Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 1 / 36 Biologiczne
Systemy uczące się wykład 2
Systemy uczące się wykład 2 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 19 X 2018 Podstawowe definicje Fakt; Przesłanka; Konkluzja; Reguła; Wnioskowanie. Typy wnioskowania
Spacery losowe generowanie realizacji procesu losowego
Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z
1.7. Eksploracja danych: pogłębianie, przeszukiwanie i wyławianie
Wykaz tabel Wykaz rysunków Przedmowa 1. Wprowadzenie 1.1. Wprowadzenie do eksploracji danych 1.2. Natura zbiorów danych 1.3. Rodzaje struktur: modele i wzorce 1.4. Zadania eksploracji danych 1.5. Komponenty
Pattern Classification
Pattern Classification All materials in these slides were taken from Pattern Classification (2nd ed) by R. O. Duda, P. E. Hart and D. G. Stork, John Wiley & Sons, 2000 with the permission of the authors
Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.
Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 2013-11-26 Projekt pn. Wzmocnienie potencjału
Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017
Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład III bogumil.konopka@pwr.edu.pl 2016/2017 Wykład III - plan Regresja logistyczna Ocena skuteczności klasyfikacji Macierze pomyłek Krzywe
Elementy kognitywistyki III: Modele i architektury poznawcze
Elementy kognitywistyki III: Modele i architektury poznawcze Wykład VII: Modelowanie uczenia się w sieciach neuronowych Uczenie się sieci i trening nienaruszona struktura sieci (z pewnym ale ) nienaruszone
Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę
Norbert Jankowski Ontogeniczne sieci neuronowe O sieciach zmieniających swoją strukturę Warszawa 2003 Opracowanie książki było wspierane stypendium Uniwersytetu Mikołaja Kopernika Spis treści Wprowadzenie
Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova
Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova M. Czoków, J. Piersa 2010-12-21 1 Definicja Własności Losowanie z rozkładu dyskretnego 2 3 Łańcuch Markova Definicja Własności Losowanie z rozkładu
Rozpoznawanie obrazów
Rozpoznawanie obrazów Ćwiczenia lista zadań nr 7 autorzy: A. Gonczarek, J.M. Tomczak Przykładowe problemy Klasyfikacja binarna Dla obrazu x zaproponowano dwie cechy φ(x) = (φ 1 (x) φ 2 (x)) T. Na obrazie
Reprezentacje grafów nieskierowanych Reprezentacje grafów skierowanych. Wykład 2. Reprezentacja komputerowa grafów
Wykład 2. Reprezentacja komputerowa grafów 1 / 69 Macierz incydencji Niech graf G będzie grafem nieskierowanym bez pętli o n wierzchołkach (x 1, x 2,..., x n) i m krawędziach (e 1, e 2,..., e m). 2 / 69
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING NEURONOWE MAPY SAMOORGANIZUJĄCE SIĘ Self-Organizing Maps SOM Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki,
I EKSPLORACJA DANYCH
I EKSPLORACJA DANYCH Zadania eksploracji danych: przewidywanie Przewidywanie jest podobne do klasyfikacji i szacowania, z wyjątkiem faktu, że w przewidywaniu wynik dotyczy przyszłości. Typowe zadania przewidywania
Sztuczna Inteligencja Tematy projektów Sieci Neuronowe
PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia
Oprogramowanie Systemów Obrazowania SIECI NEURONOWE
SIECI NEURONOWE Przedmiotem laboratorium jest stworzenie algorytmu rozpoznawania zwierząt z zastosowaniem sieci neuronowych w oparciu o 5 kryteriów: ile zwierzę ma nóg, czy żyje w wodzie, czy umie latać,
Systemy agentowe. Sieci neuronowe. Jędrzej Potoniec
Systemy agentowe Sieci neuronowe Jędrzej Potoniec Złe wieści o teście To jest slajd, przy którym wygłaszam złe wieści. Perceptron (Rossenblat, 1957) A. Géron, Hands-On Machine Learning with Scikit-Learn
Klasyfikacja z milionami etykiet
Klasyfikacja z milionami etykiet Krzysztof Dembczyński Zakład Inteligentnych Systemów Wspomagania Decyzji Politechnika Poznańska Big Data: Przetwarzanie i eksploracja Poznań, 22 kwietnia 2016 r. Geoff
Metody numeryczne I Równania nieliniowe
Metody numeryczne I Równania nieliniowe Janusz Szwabiński szwabin@ift.uni.wroc.pl Metody numeryczne I (C) 2004 Janusz Szwabiński p.1/66 Równania nieliniowe 1. Równania nieliniowe z pojedynczym pierwiastkiem
Wprowadzenie do uczenia maszynowego
Wprowadzenie do uczenia maszynowego Agnieszka Ławrynowicz 12 stycznia 2017 Co to jest uczenie maszynowe? dziedzina nauki, która zajmuje się sprawianiem aby komputery mogły uczyć się bez ich zaprogramowania
Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych
inż. Marek Duczkowski Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych słowa kluczowe: algorytm gradientowy, optymalizacja, określanie wodnicy W artykule
SIECI RBF (RADIAL BASIS FUNCTIONS)
SIECI RBF (RADIAL BASIS FUNCTIONS) Wybrane slajdy z prezentacji prof. Tadeusiewicza Wykład Andrzeja Burdy S. Osowski, Sieci Neuronowe w ujęciu algorytmicznym, Rozdz. 5, PWNT, Warszawa 1996. opr. P.Lula,
Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.
Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka ADALINE. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 218-1-15/22 Projekt pn.
WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)
WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO Stanisław Kowalik (Poland, Gliwice) 1. Wprowadzenie Wstrząsy podziemne i tąpania występujące w kopalniach
Algorytmy równoległe: ocena efektywności prostych algorytmów dla systemów wielokomputerowych
Algorytmy równoległe: ocena efektywności prostych algorytmów dla systemów wielokomputerowych Rafał Walkowiak Politechnika Poznańska Studia inżynierskie Informatyka 2014/15 Znajdowanie maksimum w zbiorze
MATLAB Neural Network Toolbox przegląd
MATLAB Neural Network Toolbox przegląd WYKŁAD Piotr Ciskowski Neural Network Toolbox: Neural Network Toolbox - zastosowania: przykłady zastosowań sieci neuronowych: The 1988 DARPA Neural Network Study
Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.
Wstęp do teorii sztucznej inteligencji Wykład II Uczenie sztucznych neuronów. 1 - powtórzyć o klasyfikacji: Sieci liniowe I nieliniowe Sieci rekurencyjne Uczenie z nauczycielem lub bez Jednowarstwowe I
Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda
Wstęp do sieci neuronowych, wykład 9. M. Czoków, J. Piersa 2010-12-07 1 Sieci skierowane 2 Modele sieci rekurencyjnej Energia sieci 3 Sieci skierowane Sieci skierowane Sieci skierowane graf połączeń synaptycznych
STRATEGIA DOBORU PARAMETRÓW SIECI NEURONOWEJ W ROZPOZNAWANIU PISMA
ZESZYTY NAUKOWE POLITECHNIKI ŚLĄSKIEJ 2016 Seria: ORGANIZACJA I ZARZĄDZANIE z. 96 Nr kol. 1963 Wiktor WALENTYNOWICZ wiktorwalentynowicz@hotmail.com Ireneusz J. JÓŹWIAK Politechnika Wrocławska Wydział Informatyki
Uczenie ze wzmocnieniem
Uczenie ze wzmocnieniem Maria Ganzha Wydział Matematyki i Nauk Informatycznych 2018-2019 O projekcie nr 2 roboty (samochody, odkurzacze, drony,...) gry planszowe, sterowanie (optymalizacja; windy,..) optymalizacja
Systemy agentowe. Sieci neuronowe. Jędrzej Potoniec
Systemy agentowe Sieci neuronowe Jędrzej Potoniec Perceptron (Rossenblat, 1957) A. Géron, Hands-On Machine Learning with Scikit-Learn and TensorFlow 2017 Perceptron { 1 z 0 step(z) = 0 w przeciwnym przypadku
Pojęcie szeregu nieskończonego:zastosowania do rachunku prawdopodobieństwa wykład 1
Pojęcie szeregu nieskończonego:zastosowania do rachunku prawdopodobieństwa wykład dr Mariusz Grządziel 5 lutego 04 Paradoks Zenona z Elei wersja uwspółcześniona Zenek goni Andrzeja; prędkość Andrzeja:
SPOTKANIE 9: Metody redukcji wymiarów
Wrocław University of Technology SPOTKANIE 9: Metody redukcji wymiarów Piotr Klukowski* Studenckie Koło Naukowe Estymator piotr.klukowski@pwr.wroc.pl 08.12.2015 *Część slajdów pochodzi z prezentacji dr
Sztuczne Sieci Neuronowe
Sztuczne Sieci Neuronowe Wykład 7 Sieci neuronowe o radialnych funkcjach bazowych wykład przygotowany na podstawie. S. Osowski, Sieci Neuronowe w ujęciu algorytmicznym, Rozdz. 5, PWNT, Warszawa 1996. 26/11/08
Algorytmy równoległe. Rafał Walkowiak Politechnika Poznańska Studia inżynierskie Informatyka 2010
Algorytmy równoległe Rafał Walkowiak Politechnika Poznańska Studia inżynierskie Informatyka Znajdowanie maksimum w zbiorze n liczb węzły - maksimum liczb głębokość = 3 praca = 4++ = 7 (operacji) n - liczność
Algorytmy MCMC (Markowowskie Monte Carlo) dla skokowych procesów Markowa
Algorytmy MCMC (Markowowskie Monte Carlo) dla skokowych procesów Markowa Wojciech Niemiro 1 Uniwersytet Warszawski i UMK Toruń XXX lat IMSM, Warszawa, kwiecień 2017 1 Wspólne prace z Błażejem Miasojedowem,
Testowanie hipotez statystycznych
9 października 2008 ...czyli definicje na rozgrzewkę n-elementowa próba losowa - wektor n zmiennych losowych (X 1,..., X n ); intuicyjnie: wynik n eksperymentów realizacja próby (X 1,..., X n ) w ω Ω :
Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej
Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2013-01-09
Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu
Literatura Wykład : Wprowadzenie do sztucznych sieci neuronowych Małgorzata Krętowska Wydział Informatyki Politechnika Białostocka Tadeusiewicz R: Sieci neuronowe, Akademicka Oficyna Wydawnicza RM, Warszawa
Wprowadzenie do teorii ekonometrii. Wykład 1 Warunkowa wartość oczekiwana i odwzorowanie liniowe
Wprowadzenie do teorii ekonometrii Wykład 1 Warunkowa wartość oczekiwana i odwzorowanie liniowe Zajęcia Wykład Laboratorium komputerowe 2 Zaliczenie EGZAMIN (50%) Na egzaminie obowiązują wszystkie informacje
wiedzy Sieci neuronowe (c.d.)
Metody detekci uszkodzeń oparte na wiedzy Sieci neuronowe (c.d.) Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 8 Metody detekci uszkodzeń oparte na wiedzy Wprowadzenie
LEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów
LEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów Łukasz Piątek, Jerzy W. Grzymała-Busse Katedra Systemów Ekspertowych i Sztucznej Inteligencji, Wydział Informatyki
Prawdopodobieństwo i statystyka
Wykład XIV: Metody Monte Carlo 19 stycznia 2016 Przybliżone obliczanie całki oznaczonej Rozważmy całkowalną funkcję f : [0, 1] R. Chcemy znaleźć przybliżoną wartość liczbową całki 1 f (x) dx. 0 Jeden ze
Prof. Stanisław Jankowski
Prof. Stanisław Jankowski Zakład Sztucznej Inteligencji Zespół Statystycznych Systemów Uczących się p. 228 sjank@ise.pw.edu.pl Zakres badań: Sztuczne sieci neuronowe Maszyny wektorów nośnych SVM Maszyny
CLUSTERING. Metody grupowania danych
CLUSTERING Metody grupowania danych Plan wykładu Wprowadzenie Dziedziny zastosowania Co to jest problem klastrowania? Problem wyszukiwania optymalnych klastrów Metody generowania: k centroidów (k - means
Sztuczne sieci neuronowe (SNN)
Sztuczne sieci neuronowe (SNN) Pozyskanie informacji (danych) Wstępne przetwarzanie danych przygotowanie ich do dalszej analizy Selekcja informacji Ostateczny model decyzyjny SSN - podstawy Sieci neuronowe
KADD Minimalizacja funkcji
Minimalizacja funkcji n-wymiarowych Forma kwadratowa w n wymiarach Procedury minimalizacji Minimalizacja wzdłuż prostej w n-wymiarowej przestrzeni Metody minimalizacji wzdłuż osi współrzędnych wzdłuż kierunków
Kwantyzacja wektorowa. Kodowanie różnicowe.
Kwantyzacja wektorowa. Kodowanie różnicowe. Kodowanie i kompresja informacji - Wykład 7 12 kwietnia 2010 Kwantyzacja wektorowa wprowadzenie Zamiast kwantyzować pojedyncze elementy kwantyzujemy całe bloki
Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych
Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. dla sieci skierowanych Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-25 1 Motywacja
Adrian Horzyk
Metody Inteligencji Obliczeniowej Metoda K Najbliższych Sąsiadów (KNN) Adrian Horzyk horzyk@agh.edu.pl AGH Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej