dr Igor T. Podolak 19 grudnia 2013, 9 i 16 stycznia 2014

Wielkość: px
Rozpocząć pokaz od strony:

Download "dr Igor T. Podolak 19 grudnia 2013, 9 i 16 stycznia 2014"

Transkrypt

1 dr Igor T Podolak 19 grudnia 2013, 9 i 16 stycznia / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 1/47 47

2 Potrzeba głębokich architektur podstawowe problemy 1 w problemach klasyfikacji potrzebujemy lepszych reprezentacji 2 jak przejść od poziomu pikseli do poziomu bardziej ogólnych pojęć? 3 cechy wyższego poziomu są zwykle bardzo złożone do opisania 4 głębokie architektury odpowiadają składaniu cech poziomu niższego mózgi ssaków mają pięć do dziesięciu poziomów przetwarzania 5 dodatkowym problemem jest znaczna zmienność funkcji 2 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 2/47 47

3 Złożoność funkcji a ich uczenie jak głębokiej architektury wymagają funkcje do reprezentacji? funkcja może być reprezentowana w sposób zwarty przez układ o głębokości n jeśli wymaga to wykładniczo wiele elementów obliczeniowych by reprezentować ją układem o głębokości n 1 dla zbioru neuronów jako elementów obliczeniowych, głębokości układu odpowiada liczba warstw liczba elementów obliczeniowych zależy też od liczby przykładów słaba generalizacja jeśli użyjemy zbyt płytkich architektur x * + * f(x,y) y 3 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 3/47 47

4 Głębokość architektury alternatywa: płytkie czy głębokie 1 przedstawienie funkcji przez układ o niewystarczającej głębokości będzie wymagać wykładniczo wiele elementów obliczeniowych (neuronów) na przykład problem obliczania parzystości 2 może później? PCA pozwala na tworzenie rozproszonych reprezentacji jednak nie pozwoli na utworzenie głębokiej struktury 3 drzewa decyzyjne też właściwie mają dwa poziomy pierwszym jest znalezienie obszaru drugim aproksymacja wewnątrz tego obszaru lasy drzew dodają jeden poziom 4 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 4/47 47

5 Płytkie architektury typy podejść suma ważona suma ważona suma ważona ustalone funkcje bazowe wzorce proste adaptowalne funkcje bazowe 1 szereg funkcji wykrywających konkretne wzorce nie znamy wszystkich możliwych cech, to nie jest rozsądne rozwiązanie 2 odpowiada architekturze z kernelami f(x) = b + α i K(x, x i ) daje zwartą reprezentację lokalne kernele są niewiele lepsze od predefiniowanych cech kernele globalne źle ekstrapolują lokalne kernele wykorzystują założenie o gładkości, co jednak wymaga definicji odległości gładkość jest niewystarczająca jeśli funkcja ma dużą zmienność 3 podstawowe funkcje uczone w sposób nadzorowany warstwowe sieci neuronowe, sieci RBF, boosting, adaptowalne kernele 5 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 5/47 47

6 Zmienność funkcji funkcja jest wysoce zmienna gdy aproksymacja jej kawałkami będzie wymagać bardzo wielu elementów obliczeniowych lokalny estymator będzie osiągał dobrą dokładność dla x przy wykorzystaniu punktów w jego okolicach związane z przekleństwem wymiarowości jednak dla dobrej generalizacji ważniejsza jest liczba wariantów funkcji, której chcemy się nauczyć nauczanie jest niepraktyczne dla lokalnych kerneli należy szukać zwartych reprezentacji, które pozwolą na lepszą generalizację 6 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 6/47 47

7 Rozproszone reprezentacje pojecie rzadkości (sparsity) reprezentacje rzadkie (sparse) mieszczą się gdzieś pośrodku między one out of n i typu log 2 w ludzkim mózgu aktywowanych jest jednocześnie 1 4% neuronów algorytmy klastrujące zwykle budują klastry wykluczające się budowanie rozproszonych reprezentacji można nazwać multi-klastrowaniem PCA też buduje rozproszoną reprezentację wykorzystamy nienadzorowane nauczanie do budowy rozproszonych reprezentacji wykorzystanie maszyny Boltzmanna szereg związanych reprezentacji 7 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 7/47 47

8 Głębokie architektury organizacja warstw h k = tanh(b k + W k h k 1 ) (1) najwyższa warstwa uczona z wykorzystaniem algorytmu nadzorowanego softmax albo na przykład L(h l, y) = log P(Y = y x) = log h l y metody spadku źle sobie radzą przy wielowarstwowych architekturach 1 często utykają w pozornych minimach lub plateau 2 im głębsza architektura, tym trudniej to wykryć 3 gradient niesie coraz mniej informacji gdy jest propagowany przez wiele warstw 4 wyniki dla gradientowo uczonych głębokich architektur są często słabsze niż dla płytkich h 4 h 3 h 2 h 1 x 8 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 8/47 47

9 Głębokie architektury problemy uczenia prawdopodobnie problem wynika ze złej inicjalizacji wag przy bardzo dużej liczbie połączeń mamy dużą liczbę płaskich minimów lepsze wyniki można osiągnąć przez wstępny preprocessing w trybie nienadzorowanym wyjście jednego modelu staje się wejściem dla kolejnego ograniczona maszyna Boltzmanna enkoder dekoder końcowy model może być dostrajamy w trybie nadzorowanym h 4 h 3 h 2 h 1 x 9 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 9/47 47

10 Głębokie architektury optymalizacja czy generalizacja? dla tego samego błędu nauczania nienadzorowane przed-nauczanie poprawia błąd generalizacji [Erhan et al 2009] nienadzorowany preprocessing jest formą regularyzacji czy założonego prior na parametrach ewidentnie lepsza generalizacja niż prosta optymalizacja szczególnie wydatne dla małych zbiorów uczących h 4 h 3 h 2 h 1 x 10 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 10/47 47

11 Głębokie architektury optymalizacja czy generalizacja? słabe niskie warstwy powodują słabe wyniki także bez preprocessingu głębokie sieci z losową inicjalizacją radzą sobie gorzej na zbiorze trenującym i testującym gdy wysokie warstwy są ograniczone h 4 h 3 nienadzorowane przed-uczenie polepsza generalizację przez dostrojenie niskich warstw nienadzorowane wstępne uczenie jest ograniczone do wyszukiwania regularności w rozkładach wejściowych jeśli P(Y X) i P(X) są nieskorelowane, to dobre modelowanie P(X) nie wspomoże dobrej generalizacji jeśli są skorelowane, to pary (X, Y) dają informację zarówno o P(X) i o P(Y X) 11 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 11/47 47 h 2 h 1 x

12 Doświadczenie inicjalizacja losowa czy nienadzorowana? layer net, budget of iterations 0 unsupervised supervised unsupervised supervised 10 0 Online classification error Number of examples seen x / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 12/47 47

13 Zwykła inicjalizacja czy nienadzorowana? doświadczenia [Erhan et al 2009] zysk z nienadzorowanej inicjalizacji wzrasta wraz z liczbą wykorzystanych warstw doświadczenia na denoising auto-encoder 13 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 13/47 47

14 Zwykła inicjalizacja czy nienadzorowana? relacja generalizacji do błędu nauczania przy tym samym błędzie nauczania modele z wstępną inicjalizacją algorytmem nienadzorowanym dają niższy błąd niż inicjalizowane losowo wyniki są szczególnie dobre dla mniejszych zbiorów uczących jest to zdecydowanie efekt raczej generalizacji niż optymalizacji nauczania efekty jak przy dobrej regularyzacji mimo, że nie było takiej explicite model denoising auto-encoder radzi sobie dobrze, gdy wielkość warstwy ukrytej w auto-enkoderze jest większa niż warstwy wejściowej Igor T Podolak, nienadzorowana WMiI UJ igorpodolak@ujedupl inicjalizacjagłębokie pomaga uczenie, nowe przy perspektywy większych uczenia maszynowego warstwach i 14 / 14/47 47

15 Inicjalizacja których warstw ma największy wpływ? różne sposoby inicjalizowania poszczególnych warstw model z nienadzorowaną inicjalizacją tylko pierwszej warstwy działa prawie tak dobrze jak model w całości inicjalizowany model z nienadzorowaną inicjalizacją drugiej warstwy działa znacznie gorzej podobnie do modelu bez wstępnego nauczania warstwy są uczone do odtwarzania informacji jeśli inicjalizacja pierwszej warstwy jest losowa, to druga nie ma czego odtwarzać 15 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 15/47 47

16 Inne głębokie architektury sieć konwolucyjna propozycja Fukushimy (Neocognitron), potem rozwinięta przez LeCuna duża głębokość: na zmianę konwolucje i wybór wagi z małego obszaru, a także dzielone przez bardzo długi czas najlepszy wynik na danych MNIST dopiero obecne architektury głębokie osiągnęły lepsze wyniki 16 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 16/47 47

17 Auto-enkodery kolejno budowane sieci neuronowe z jedną warstwą ukrytą uczące się auto-asocjacji warstwa ukryta jest traktowana jako stratna reprezentacja wejścia nie może być dobrą kompresją wszystkich przykładów pozwala na znalezienie dobrej reprezentacji w sensie dobrej generalizacji jednak nie dla dowolnych wejść! warstwa ukryta ma dodany silny czynnik regularyzacyjny pozwala na radzenie sobie z problemami znacznej przewagi liczby neuronów ukrytych nad przykładami zamiast uczyć się funkcji identycznościowej, wyszukuje regularności dobrą strategią uczenia jest dodawanie szumu do przykładów to przypomina w zachowaniu RBMy 17 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 17/47 47

18 Sigmoidal Belief Network modele generatywne modele można opisać jako modele grafowe (graphical models) problem explaining away: wiele warstw struktury może pomóc w sigmoidal belief neurony w warstwie są od siebie niezależne przy danych wartościach z warstwy powyżej P(h k i = 1 h k+1 ) = sigm(b k i + j P(x,h 1,, h l ) W k+1 ij h k+1 j ) = P(h l ) ( l 1 P(h k h k+1 ) ) P(x h 1 ) k=1 W h 2 W T W W W T W W T W T v 2 W T h 1 W v 1 W T h 0 W 18 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 18/47 47 v 0

19 Sigmoidal Belief Network sieć o nieskończonej głębokości dane są generowane od warstwy na nieskończonej głębokości log p(v 0 ) w 00 ij log p(v 0 ) w 00 ij = = h 0 j (v 0 i ^v 0 i ) h 0 j (v 0 i v 1 i ) ponieważ wagi się powtarzają log p(v 0 ) w 00 = ij + v 1 i (h 0 j h 1 j ) h 0 j (v 0 i v 1 i ) + + h 1 j (v 1 i v 2 i ) + wszystkie elementy redukują się do postaci maszyny Boltzmanna W W T h 2 W T W W W T W W T v 2 W T h 1 W v 1 W T h 0 W 19 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 19/47 47 v 0

20 Maszyna Boltzmanna Energy(x, h) = b T x c T h h T Wx x T Ux h T Vh P(x) = 1 Z exp( Energy(x)) Z = x exp( Energy(x)) V h W U x log P(x) θ = h P(h x) Energy(x, h) + x,h Energy( x, h) P( x, h) θ θ 20 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 20/47 47

21 Maszyna Boltzmanna nauczanie log P(x) θ = h P(h x) Energy(x, h) + x,h Energy( x, h) P( x, h) θ θ V h W U x w fazie dodatniej (positive) wektor x jest przypisany (clamped) do wektora obserwowalnego i próbkujemy h mając dane x, w fazie ujemnej (negative) oba x oraz h są próbkowane, najlepiej z całego modelu 21 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 21/47 47

22 Deep Belief Network P(x, h 1,, h l ) = P(h l 1, h l ) ( l 2 P(h k h k+1 ) ) P(x h 1 ) k=1 RBM w górnej warstwie odpowiada sieci o nieskończonej liczbie warstw 1 uczenie W 0 przy założeniu, że wszystkie wagi są związane 2 zamrożenie W 0 i używanie odtąd W T 0 dla uzyskania rozkładów posterior w pierwszej warstwie nawet jeśli zmiany będą oznaczać, że ten rozkład nie będzie prawdziwy 3 utworzenie RBM modelującego dane wyższego poziomu W 2 W T 1 W T 0 h 3 RBM P(h 2, h 3 ) h 2 W 1 h 1 W 0 22 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 22/47 47 x

23 Ograniczona maszyna Boltzmanna RBM niezależność x ij gdy dane h, oraz h i gdy dane x Energy(x, h) = b T x c T h h T Wx U = 0, V = 0, stąd P(h x) = i P(h i x) oraz P(x h) = i P(x j h) P(h i = 1 x) = exp(c i+w i x) 1+exp(c i +W i x) = sigm(c i + W i x) h W 1 dla każdej wagi w ij mierzymy korelację v 0 i h0 j gdy przykłady są zadane (clamped) na warstwie widzialnej 2 używając próbkowania Gibbsa uruchamiamy łańcuch Markowa aż układ osiągnie stan stabilny i mierzymy wtedy korelację v i h j 3 to daje gradient log p(v0 ) w ij = v 0 i h0 j v i h j jak w logistic belief network! 23 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 23/47 47 x

24 Ograniczona maszyna Boltzmanna RBM nauczanie Energy(x, h) = b T x c T h h T Wx h W x próbkowanie Gibbsa pełnego modelu Boltzmanna jest bardzo powolne w RBM nie ma potrzeby próbkowania fazy dodatniej, bo gradient może być podany analitycznie próbkowanie: x 1 P(x), h 1 P(h x 1 ), x 2 P(x h 1 ), h 2 P(h x 2 ),, x k+1 P(x h k ) 24 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 24/47 47

25 Ograniczona maszyna Boltzmanna RBM contrastive divergence h W x 1 próbkujemy po pojedynczym przykładzie uczącym zamiast po wszystkich możliwych częste poprawianie parametrów i tak wprowadza szum uśrednienia i dodatkowa wariancja wprowadzana przez wzięcie jednego albo kilku próbek zamiast pełnej sumy jest uśrednione w procesie w kolejnych poprawek, dodatkowa wariancję jest mniejsza lub porównywalna do wariancji podczas poprawek 25 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 25/47 47

26 Ograniczona maszyna Boltzmanna RBM contrastive divergence h W x 2 wykonujemy tylko k kroków próbkowania wiadomo, że wraz z k, błąd maleje jeśli rozkład modelu jest bliski do empirycznego, tzn P P, startując z x P, MCMC już zbiegł i wystarczy nam jeden krok by osiągnąć nie obarczoną błędem próbkę z P (ale wciąż skorelowaną z x), okazuje się, że nawet k = 1 wystarcza dla osiągnięcia dobrych rezultatów, 26 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 26/47 47

27 Ograniczona maszyna Boltzmanna RBM contrastive divergence h W x CD przybliża gradient log-likelihood lokalnie wokół przykładu x 1 x = x k+1 ma rozkład wycentrowany w x 1 i rozszerza się wraz ze wzrostem k aż do osiągnięcia rozkładu modelu, poprawka CD k obniży energię w sąsiedztwie x 1, x ma większą szansę, że jest w obszarach o wyższym prawdopodobieństwie według modelu, można myśleć o nienadzorowanym uczeniu jako wykrywaniu krawędzi decyzyjnej oddzielającej obszary o wysokim prawdopodobieństwie gdzie jest wiele przykładów od reszty 27 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 27/47 47

28 Ograniczona maszyna Boltzmanna RBM contrastive divergence h W x Twierdzenie Niech x 1 h 1 x 2 h 2 będzie zbieżnym łańcuchem Gibbsa startując od x 1 Wtedy gradient log-likelihood log P(x 1 ) θ = FE(x 1) θ [ ] [ ] FE(xt ) P(xt ) + E + E θ θ i ostatni term dąży do zera wraz z t dążącym do dwa pierwsze termy są właśnie poprawką w CD k ograniczonym to t kroków; w praktyce k = 1 wystarcza 28 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 28/47 47

29 Dane MNIST na RBM 300 iteracji, 500 ukrytych 29 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 29/47 47

30 Dane MNIST na RBM po kilku krokach nauczania, 625 ukrytych 30 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 30/47 47

31 Dane MNIST na RBM 300 iteracji, 625 ukrytych 31 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 31/47 47

32 Dane MNIST na RBM jeden cykl próbkowania, 625 ukrytych 32 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 32/47 47

33 Dane MNIST na RBM dziesięć cykli próbkowania, 625 ukrytych 33 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 33/47 47

34 Dane MNIST na RBM 100 cykli próbkowania, 625 ukrytych 34 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 34/47 47

35 Dane MNIST na RBM cykli próbkowania, 625 ukrytych 35 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 35/47 47

36 Dane MNIST na RBM cykli próbkowania, 625 ukrytych 36 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 36/47 47

37 Deep Belief Network down and up 1 DBN jest uczony zachłannie warstwa po warstwie 2 Q(h k h k 1 ) będzie aproksymacją P(h k h k 1 ) implementowaną przez wagi klasyfikujące z dołu do góry 3 wagi z góry na dół są generatywne 4 aby otrzymać albo reprezentację wszystkich warstw 41 próbkujemy h 1 Q(h 1 x) albo ^h 1 = E[Q(h 1 x)] albo próbkowanie albo mean field wektorem prawdopodobieństw ukrytych neuronów, ^h 1 i = sigm(b 1 + Wi 1 x) 42 biorąc h 1 albo ^h 1 jako wejście do kolejnego RBM, obliczamy ^h 2 albo próbkę h 2 aż do najwyższej warstwy, Q(h 2 h 1 ) Q(h 1 x) h 3 P(h 2, h 3 ) RBM P(h 2 h 1 ) P(x h 1 ) 37 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 37/47 47 h 2 h 1 x

38 Deep Belief Network down and up używając DBN jako modelu generatywnego 1 próbkuj widzialny wektor h l 1 z najwyższego poziomu przez łańcuch próbkowania Gibbsa zamiennie przez h l P(h l h l 1 ) i h l 1 P(h l 1 h l ) jeśli próbkowanie rozpoczniemy od h l 1 uzyskanego z przykładu uczącego x, to prawdopodobnie będzie potrzeba mniej kroków próbkowania 2 dla k = l 1,, 1 próbkowanie h k 1 P(h k 1 h k ), 3 x = h 0 Q(h 2 h 1 ) Q(h 1 x) h 3 P(h 2, h 3 ) RBM P(h 2 h 1 ) h 2 h 1 P(x h 1 ) x 38 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 38/47 47

39 Deep Belief Network dalsze etapy nauczania po nauczeniu wyższych warstw, wagi na niższych niekoniecznie są optymalne po nauczeniu wszystkich warstw wagi rozpoznające (do góry) są uniezależniane od generatywnych (w dół) DBN wykorzystuje algorytm wake sleep 1 w up pass wybierane są stochastycznie aktywacje każdej zmiennej ukrytej 2 wagi generatywne są modyfikowane dla maksymalizacji likelihood wejścia 3 w przejściu down pass (w dół) wybierane są stochastyczne aktywacje warstw poniżej 4 wagi nieskierowane i wagi generatywne nie są zmieniane 5 wagi rozpoznające są modyfikowane to odpowiednik fazy snu Q(h 2 h 1 ) Q(h 1 x) h 3 P(h 2, h 3 ) RBM P(h 2 h 1 ) h 2 h 1 P(x h 1 ) x 39 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 39/47 47

40 Deep Belief Network pamięć asocjacyjna pamięć asocjacyjna może być uruchamiana do osiągnięcia stabilności uruchomienie jej na kilka cykli próbkowania Gibbsa będzie odpowiadać podejściu contrastive divergence 1 w ten sposób wagi rozpoznające są uczone dla reprezentacji, które są średnimi aktywacjami podobnych do tych dla prawdziwych przykładów (down pass) 2 jeśli dla danego x aktywacje warstw są zawsze identyczne, to down pass będzie modyfikował tylko wagi związane z tymi stanami nie będą zmieniane wagi związane z innymi stanami równie dobrymi dla generuji (w dół) x Q(h 2 h 1 ) Q(h 1 x) h 3 P(h 2, h 3 ) RBM P(h 2 h 1 ) h 2 h 1 P(x h 1 ) x 40 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 40/47 47

41 Deep Belief Network poprawa wraz z dodawaniem warstw? wagi W 2 są inicjalizowane na (W 1 ) T N P(v n ; θ) E Q(h 1 v n )[log(p(v n h 1 ; W 1 ))] n n KL(Q(h 1 v n ) P(h 1 ; W 2 )) n h 3 P(h 2, h 3 ) RBM h 2 nauczanie w kierunku gradientu loglikelihood po W 2 W 2 staje się lepszym modelem rozkładu h 1 rozumowanie da się rozwinąć na kolejne warstwy praktycznie używamy dużych przybliżeń rozumowanie tylko pod warunkiem inicjalizacji W 2 na (W 1 ) T Q(h 2 h 1 ) Q(h 1 x) P(h 2 h 1 ) P(x h 1 ) 41 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 41/47 47 h 1 x

42 Deep Belief Network 42 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 42/47 47

43 Deep Boltzmann Machine DBN nie są głębokimi sieciami Boltzmanna DBM to układ o energii E(x, h 1, h 2 ; θ) = x T W 1 h 1 h 1 W 2 h 2 w DBN zastąpienie pierwszego RBM 1 P(h 1 v) modelem kolejnej warstwy RBM 2 P(h 1 h 2 ) powinno dać lepsze przybliżenie P(h 1 W 1, W 2 ) 1 h 2 jednak zależy także od v 2 użycie W 1 do góry i W 2 w dół oznaczałoby podwójne zliczanie dowodów konieczna jest sprytna modyfikacja RBM RBM h 2 W 2 W 1 v h 2 W 2 h 1 h 1 W 1 v 43 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 43/47 47

44 Deep Boltzmann Machine sprytna modyfikacja podwajamy wagi z warstwy widzialnej do ukrytej p(h 1 j = 1 v) =σ( i p(v i = 1 h 1 ) =σ( j W 1 ijv i + i W 1 ijh 1 j ) analogicznie w ostatniej parze warstw p(h 1 j = 1 h 2 ) =σ( m p(h 2 m = 1 h 1 ) =σ( j W 2 jmh 2 m + m W 2 jmh 1 j ) W 1 ijv i ) W 2 jmh 2 m) RBM RBM h 2 W 2 W 1 h 2 W 2 h 1 h 1 W 1 we wszystkich warstwach pośrednich v v wystarczy podzielić wszystkie wagi przez 2 44 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 44/47 47

45 Deep Boltzmann Machine dla nowego przykładu 1 inferencja w górę aktywacji wszystkich warstw 2 alternatywne próbkowanie nieparzystych i parzystych warstw (z wagami połówkowymi) 3 to odpowiada próbkowaniu Gibbsa modelu DBM warstwy widzialna i ostatnia muszą być zduplikowane 1 widzialna ma aktywacje ustalone na dane 2 ostatnia może mieć różne wartości inicjalizacja warstw dla nowego przykładu możliwa z wagami o podwójnych wartościach nie ma potrzeby pamiętania stanu z poprzedniej aktywacji dla danego przykładu RBM RBM h 2 W 2 W 1 v h 2 W 2 h 1 h 1 W 1 v 45 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 45/47 47

46 There is always something more to come someday 46 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 46/47 47

47 Bibliografia Bengio Y, LeCun Y, Scaling learning algorithms towards AI, W: Large-scale kernel machines, Bottou, Chapelle, DeCoste, Weston (ed), MIT, (2007) Bengio Y, Learning deep architectures for AI, Foundations and trends in Machine Learning (2009) Bengio Y, Courville A, Vincent P, Representation learning: a review and new perspectives, arxiv: v2:18 Oct 2012 (2012) Erhan D, Manzagol P-A, Bengio Y, Bengio S, Vincent P, The difficulty of training deep architectures and the effect of unsupervised pre-training, JMLR 5:W&CP 5, AISTATS 2009 (2009) Salakhutdinov, R, Hinton, G, Deep Boltzmann Machines, W: JMLR: W 5&CP 5, AISTATS 2009 (2009) Salakhutdinov, R, Hinton, G, An efficient learning procedure for Deep Boltzmann Machines, MIT-CSAIL-TR (2010) Weston J, Ratle F, Mobahi H, Collobert R, Deep learning via semi-supervised embedding, W; Neural Networks: Tricks of the trade, Montavon et al (eds), LNCS 7700, pp (2012) 47 / Igor T Podolak, WMiI UJ igorpodolak@ujedupl Głębokie uczenie, nowe perspektywy uczenia maszynowego 47/47 47

Deep Learning na przykładzie Deep Belief Networks

Deep Learning na przykładzie Deep Belief Networks Deep Learning na przykładzie Deep Belief Networks Jan Karwowski Zakład Sztucznej Inteligencji i Metod Obliczeniowych Wydział Matematyki i Nauk Informacyjnych PW 20 V 2014 Jan Karwowski (MiNI) Deep Learning

Bardziej szczegółowo

AUTO-ENKODER JAKO SKŠADNIK ARCHITEKTURY DEEP LEARNING

AUTO-ENKODER JAKO SKŠADNIK ARCHITEKTURY DEEP LEARNING AUTO-ENKODER JAKO SKŠADNIK ARCHITEKTURY DEEP LEARNING Magdalena Wiercioch Uniwersytet Jagiello«ski 3 kwietnia 2014 Plan Uczenie gª bokie (deep learning) Auto-enkodery Rodzaje Zasada dziaªania Przykªady

Bardziej szczegółowo

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,

Bardziej szczegółowo

Podstawy Sztucznej Inteligencji (PSZT)

Podstawy Sztucznej Inteligencji (PSZT) Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12

Bardziej szczegółowo

Wrocław University of Technology. Uczenie głębokie. Maciej Zięba

Wrocław University of Technology. Uczenie głębokie. Maciej Zięba Wrocław University of Technology Uczenie głębokie Maciej Zięba UCZENIE GŁĘBOKIE (ang. deep learning) = klasa metod uczenia maszynowego, gdzie model ma strukturę hierarchiczną złożoną z wielu nieliniowych

Bardziej szczegółowo

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Wykład 10 Mapa cech Kohonena i jej modyfikacje - uczenie sieci samoorganizujących się - kwantowanie wektorowe

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej

Bardziej szczegółowo

Uczenie sieci neuronowych i bayesowskich

Uczenie sieci neuronowych i bayesowskich Wstęp do metod sztucznej inteligencji www.mat.uni.torun.pl/~piersaj 2009-01-22 Co to jest neuron? Komputer, a mózg komputer mózg Jednostki obliczeniowe 1-4 CPU 10 11 neuronów Pojemność 10 9 b RAM, 10 10

Bardziej szczegółowo

Uczenie sieci radialnych (RBF)

Uczenie sieci radialnych (RBF) Uczenie sieci radialnych (RBF) Budowa sieci radialnej Lokalne odwzorowanie przestrzeni wokół neuronu MLP RBF Budowa sieci radialnych Zawsze jedna warstwa ukryta Budowa neuronu Neuron radialny powinien

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt

Bardziej szczegółowo

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa

Bardziej szczegółowo

8. Neuron z ciągłą funkcją aktywacji.

8. Neuron z ciągłą funkcją aktywacji. 8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i

Bardziej szczegółowo

Elementy inteligencji obliczeniowej

Elementy inteligencji obliczeniowej Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką

Bardziej szczegółowo

Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych

Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych mgr inż. C. Dendek prof. nzw. dr hab. J. Mańdziuk Politechnika Warszawska, Wydział Matematyki i Nauk Informacyjnych Outline 1 Uczenie

Bardziej szczegółowo

Metody Sztucznej Inteligencji II

Metody Sztucznej Inteligencji II 17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału

Bardziej szczegółowo

Uczenie sieci typu MLP

Uczenie sieci typu MLP Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik

Bardziej szczegółowo

Sieć przesyłająca żetony CP (counter propagation)

Sieć przesyłająca żetony CP (counter propagation) Sieci neuropodobne IX, specyficzne architektury 1 Sieć przesyłająca żetony CP (counter propagation) warstwa Kohonena: wektory wejściowe są unormowane jednostki mają unormowane wektory wag jednostki są

Bardziej szczegółowo

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Sieci Hopfielda Najprostsze modele sieci z rekurencją sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Modele bardziej złoŝone: RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie

Bardziej szczegółowo

Dariusz Brzeziński Instytut Informatyki, Politechnika Poznańska

Dariusz Brzeziński Instytut Informatyki, Politechnika Poznańska Dariusz Brzeziński Instytut Informatyki, Politechnika Poznańska Podstawowe architektury sieci neuronowych Generowanie sztucznych danych Jak się nie przemęczyć Korzystanie z istniejących wag Zamrażanie

Bardziej szczegółowo

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny

Bardziej szczegółowo

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING UCZENIE GŁĘBOKIE I GŁĘBOKIE SIECI NEURONOWE DEEP LEARNING AND DEEP NEURAL NETWORKS Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki,

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska. SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska INFORMACJE WSTĘPNE Hipotezy do uczenia się lub tworzenia

Bardziej szczegółowo

Wprowadzenie do sieci neuronowych i zagadnień deep learning

Wprowadzenie do sieci neuronowych i zagadnień deep learning Wprowadzenie do sieci neuronowych i zagadnień deep learning Inteligentne Obliczenia Wydział Mechatroniki Politechniki Warszawskiej Anna Sztyber INO (IAiR PW) Deep learning Anna Sztyber 1 / 28 Deep learning

Bardziej szczegółowo

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy

Bardziej szczegółowo

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010 Materiały/konsultacje Automatyczna predykcja http://www.ibp.pwr.wroc.pl/kotulskalab Konsultacje wtorek, piątek 9-11 (uprzedzić) D1-115 malgorzata.kotulska@pwr.wroc.pl Co to jest uczenie maszynowe? Uczenie

Bardziej szczegółowo

ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ

ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ Maciej Patan Uniwersytet Zielonogórski WSTEP Zadanie minimalizacji bez ograniczeń f(ˆx) = min x R nf(x) f : R n R funkcja ograniczona z dołu Algorytm rozwiazywania Rekurencyjny

Bardziej szczegółowo

TEORETYCZNE PODSTAWY INFORMATYKI

TEORETYCZNE PODSTAWY INFORMATYKI 1 TEORETYCZNE PODSTAWY INFORMATYKI WFAiS UJ, Informatyka Stosowana I rok studiów, I stopień Wykład 16 2 Data Science: Uczenie maszynowe Uczenie maszynowe: co to znaczy? Metody Regresja Klasyfikacja Klastering

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline. Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2

Bardziej szczegółowo

Optymalizacja systemów

Optymalizacja systemów Optymalizacja systemów Laboratorium - problem detekcji twarzy autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, P. Klukowski Cel zadania Celem zadania jest zapoznanie się z gradientowymi algorytmami optymalizacji

Bardziej szczegółowo

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW

Bardziej szczegółowo

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna. Sieci neuronowe model konekcjonistyczny Plan wykładu Mózg ludzki a komputer Modele konekcjonistycze Perceptron Sieć neuronowa Uczenie sieci Sieci Hopfielda Mózg ludzki a komputer Twój mózg to 00 000 000

Bardziej szczegółowo

Aby mówić o procesie decyzyjnym Markowa musimy zdefiniować następujący zestaw (krotkę): gdzie:

Aby mówić o procesie decyzyjnym Markowa musimy zdefiniować następujący zestaw (krotkę): gdzie: Spis treści 1 Uczenie ze wzmocnieniem 2 Proces decyzyjny Markowa 3 Jak wyznaczyć optymalną strategię? 3.1 Algorytm iteracji funkcji wartościującej 3.2 Algorytm iteracji strategii 4 Estymowanie modelu dla

Bardziej szczegółowo

Podstawy sztucznej inteligencji

Podstawy sztucznej inteligencji wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 4. UCZENIE SIĘ INDUKCYJNE Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska WSTĘP Wiedza pozyskana przez ucznia ma charakter odwzorowania

Bardziej szczegółowo

Co to jest grupowanie

Co to jest grupowanie Grupowanie danych Co to jest grupowanie 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Szukanie grup, obszarów stanowiących lokalne gromady punktów Co to jest grupowanie

Bardziej szczegółowo

Widzenie komputerowe

Widzenie komputerowe Widzenie komputerowe Uczenie maszynowe na przykładzie sieci neuronowych (3) źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Zdolność uogólniania sieci neuronowej R oznaczenie

Bardziej szczegółowo

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0 Uczenie się pojedynczego neuronu W0 X0=1 W1 x1 W2 s f y x2 Wp xp p x i w i=x w+wo i=0 Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z=0 Wówczas: W 1 x 1 + w 2 x 2 + = 0 Algorytm

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa

Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa M. Czoków, J. Piersa 2012-01-10 1 Łańcucha Markowa 2 Istnienie Szukanie stanu stacjonarnego 3 1 Łańcucha Markowa 2 Istnienie Szukanie stanu stacjonarnego

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-10 Projekt pn. Wzmocnienie

Bardziej szczegółowo

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor S O M SELF-ORGANIZING MAPS Przemysław Szczepańczyk Łukasz Myszor Podstawy teoretyczne Map Samoorganizujących się stworzył prof. Teuvo Kohonen (1982 r.). SOM wywodzi się ze sztucznych sieci neuronowych.

Bardziej szczegółowo

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Temat: Sztuczne Sieci Neuronowe Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sztuczne sieci neuronowe

Bardziej szczegółowo

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:

Bardziej szczegółowo

TEORETYCZNE PODSTAWY INFORMATYKI

TEORETYCZNE PODSTAWY INFORMATYKI 1 TEORETYCZNE PODSTAWY INFORMATYKI WFAiS UJ, Informatyka Stosowana I rok studiów, I stopień Wykład 14c 2 Definicje indukcyjne Twierdzenia dowodzone przez indukcje Definicje indukcyjne Definicja drzewa

Bardziej szczegółowo

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18 Eksploracja Danych wykład 4 Sebastian Zając WMP.SNŚ UKSW 10 maja 2017 Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja 2017 1 / 18 Klasyfikacja danych Klasyfikacja Najczęściej stosowana (najstarsza)

Bardziej szczegółowo

Projekt Sieci neuronowe

Projekt Sieci neuronowe Projekt Sieci neuronowe Chmielecka Katarzyna Gr. 9 IiE 1. Problem i dane Sieć neuronowa miała za zadanie nauczyć się klasyfikować wnioski kredytowe. W projekcie wykorzystano dane pochodzące z 110 wniosków

Bardziej szczegółowo

Inteligentne systemy przeciw atakom sieciowym

Inteligentne systemy przeciw atakom sieciowym Inteligentne systemy przeciw atakom sieciowym wykład Sztuczne sieci neuronowe (SSN) Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 1 / 36 Biologiczne

Bardziej szczegółowo

Systemy uczące się wykład 2

Systemy uczące się wykład 2 Systemy uczące się wykład 2 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 19 X 2018 Podstawowe definicje Fakt; Przesłanka; Konkluzja; Reguła; Wnioskowanie. Typy wnioskowania

Bardziej szczegółowo

Spacery losowe generowanie realizacji procesu losowego

Spacery losowe generowanie realizacji procesu losowego Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z

Bardziej szczegółowo

1.7. Eksploracja danych: pogłębianie, przeszukiwanie i wyławianie

1.7. Eksploracja danych: pogłębianie, przeszukiwanie i wyławianie Wykaz tabel Wykaz rysunków Przedmowa 1. Wprowadzenie 1.1. Wprowadzenie do eksploracji danych 1.2. Natura zbiorów danych 1.3. Rodzaje struktur: modele i wzorce 1.4. Zadania eksploracji danych 1.5. Komponenty

Bardziej szczegółowo

Pattern Classification

Pattern Classification Pattern Classification All materials in these slides were taken from Pattern Classification (2nd ed) by R. O. Duda, P. E. Hart and D. G. Stork, John Wiley & Sons, 2000 with the permission of the authors

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd. Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 2013-11-26 Projekt pn. Wzmocnienie potencjału

Bardziej szczegółowo

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017 Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład III bogumil.konopka@pwr.edu.pl 2016/2017 Wykład III - plan Regresja logistyczna Ocena skuteczności klasyfikacji Macierze pomyłek Krzywe

Bardziej szczegółowo

Elementy kognitywistyki III: Modele i architektury poznawcze

Elementy kognitywistyki III: Modele i architektury poznawcze Elementy kognitywistyki III: Modele i architektury poznawcze Wykład VII: Modelowanie uczenia się w sieciach neuronowych Uczenie się sieci i trening nienaruszona struktura sieci (z pewnym ale ) nienaruszone

Bardziej szczegółowo

Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę

Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę Norbert Jankowski Ontogeniczne sieci neuronowe O sieciach zmieniających swoją strukturę Warszawa 2003 Opracowanie książki było wspierane stypendium Uniwersytetu Mikołaja Kopernika Spis treści Wprowadzenie

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova M. Czoków, J. Piersa 2010-12-21 1 Definicja Własności Losowanie z rozkładu dyskretnego 2 3 Łańcuch Markova Definicja Własności Losowanie z rozkładu

Bardziej szczegółowo

Rozpoznawanie obrazów

Rozpoznawanie obrazów Rozpoznawanie obrazów Ćwiczenia lista zadań nr 7 autorzy: A. Gonczarek, J.M. Tomczak Przykładowe problemy Klasyfikacja binarna Dla obrazu x zaproponowano dwie cechy φ(x) = (φ 1 (x) φ 2 (x)) T. Na obrazie

Bardziej szczegółowo

Reprezentacje grafów nieskierowanych Reprezentacje grafów skierowanych. Wykład 2. Reprezentacja komputerowa grafów

Reprezentacje grafów nieskierowanych Reprezentacje grafów skierowanych. Wykład 2. Reprezentacja komputerowa grafów Wykład 2. Reprezentacja komputerowa grafów 1 / 69 Macierz incydencji Niech graf G będzie grafem nieskierowanym bez pętli o n wierzchołkach (x 1, x 2,..., x n) i m krawędziach (e 1, e 2,..., e m). 2 / 69

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING NEURONOWE MAPY SAMOORGANIZUJĄCE SIĘ Self-Organizing Maps SOM Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki,

Bardziej szczegółowo

I EKSPLORACJA DANYCH

I EKSPLORACJA DANYCH I EKSPLORACJA DANYCH Zadania eksploracji danych: przewidywanie Przewidywanie jest podobne do klasyfikacji i szacowania, z wyjątkiem faktu, że w przewidywaniu wynik dotyczy przyszłości. Typowe zadania przewidywania

Bardziej szczegółowo

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia

Bardziej szczegółowo

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE SIECI NEURONOWE Przedmiotem laboratorium jest stworzenie algorytmu rozpoznawania zwierząt z zastosowaniem sieci neuronowych w oparciu o 5 kryteriów: ile zwierzę ma nóg, czy żyje w wodzie, czy umie latać,

Bardziej szczegółowo

Systemy agentowe. Sieci neuronowe. Jędrzej Potoniec

Systemy agentowe. Sieci neuronowe. Jędrzej Potoniec Systemy agentowe Sieci neuronowe Jędrzej Potoniec Złe wieści o teście To jest slajd, przy którym wygłaszam złe wieści. Perceptron (Rossenblat, 1957) A. Géron, Hands-On Machine Learning with Scikit-Learn

Bardziej szczegółowo

Klasyfikacja z milionami etykiet

Klasyfikacja z milionami etykiet Klasyfikacja z milionami etykiet Krzysztof Dembczyński Zakład Inteligentnych Systemów Wspomagania Decyzji Politechnika Poznańska Big Data: Przetwarzanie i eksploracja Poznań, 22 kwietnia 2016 r. Geoff

Bardziej szczegółowo

Metody numeryczne I Równania nieliniowe

Metody numeryczne I Równania nieliniowe Metody numeryczne I Równania nieliniowe Janusz Szwabiński szwabin@ift.uni.wroc.pl Metody numeryczne I (C) 2004 Janusz Szwabiński p.1/66 Równania nieliniowe 1. Równania nieliniowe z pojedynczym pierwiastkiem

Bardziej szczegółowo

Wprowadzenie do uczenia maszynowego

Wprowadzenie do uczenia maszynowego Wprowadzenie do uczenia maszynowego Agnieszka Ławrynowicz 12 stycznia 2017 Co to jest uczenie maszynowe? dziedzina nauki, która zajmuje się sprawianiem aby komputery mogły uczyć się bez ich zaprogramowania

Bardziej szczegółowo

Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych

Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych inż. Marek Duczkowski Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych słowa kluczowe: algorytm gradientowy, optymalizacja, określanie wodnicy W artykule

Bardziej szczegółowo

SIECI RBF (RADIAL BASIS FUNCTIONS)

SIECI RBF (RADIAL BASIS FUNCTIONS) SIECI RBF (RADIAL BASIS FUNCTIONS) Wybrane slajdy z prezentacji prof. Tadeusiewicza Wykład Andrzeja Burdy S. Osowski, Sieci Neuronowe w ujęciu algorytmicznym, Rozdz. 5, PWNT, Warszawa 1996. opr. P.Lula,

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE. Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka ADALINE. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 218-1-15/22 Projekt pn.

Bardziej szczegółowo

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice) WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO Stanisław Kowalik (Poland, Gliwice) 1. Wprowadzenie Wstrząsy podziemne i tąpania występujące w kopalniach

Bardziej szczegółowo

Algorytmy równoległe: ocena efektywności prostych algorytmów dla systemów wielokomputerowych

Algorytmy równoległe: ocena efektywności prostych algorytmów dla systemów wielokomputerowych Algorytmy równoległe: ocena efektywności prostych algorytmów dla systemów wielokomputerowych Rafał Walkowiak Politechnika Poznańska Studia inżynierskie Informatyka 2014/15 Znajdowanie maksimum w zbiorze

Bardziej szczegółowo

MATLAB Neural Network Toolbox przegląd

MATLAB Neural Network Toolbox przegląd MATLAB Neural Network Toolbox przegląd WYKŁAD Piotr Ciskowski Neural Network Toolbox: Neural Network Toolbox - zastosowania: przykłady zastosowań sieci neuronowych: The 1988 DARPA Neural Network Study

Bardziej szczegółowo

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów. Wstęp do teorii sztucznej inteligencji Wykład II Uczenie sztucznych neuronów. 1 - powtórzyć o klasyfikacji: Sieci liniowe I nieliniowe Sieci rekurencyjne Uczenie z nauczycielem lub bez Jednowarstwowe I

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda Wstęp do sieci neuronowych, wykład 9. M. Czoków, J. Piersa 2010-12-07 1 Sieci skierowane 2 Modele sieci rekurencyjnej Energia sieci 3 Sieci skierowane Sieci skierowane Sieci skierowane graf połączeń synaptycznych

Bardziej szczegółowo

STRATEGIA DOBORU PARAMETRÓW SIECI NEURONOWEJ W ROZPOZNAWANIU PISMA

STRATEGIA DOBORU PARAMETRÓW SIECI NEURONOWEJ W ROZPOZNAWANIU PISMA ZESZYTY NAUKOWE POLITECHNIKI ŚLĄSKIEJ 2016 Seria: ORGANIZACJA I ZARZĄDZANIE z. 96 Nr kol. 1963 Wiktor WALENTYNOWICZ wiktorwalentynowicz@hotmail.com Ireneusz J. JÓŹWIAK Politechnika Wrocławska Wydział Informatyki

Bardziej szczegółowo

Uczenie ze wzmocnieniem

Uczenie ze wzmocnieniem Uczenie ze wzmocnieniem Maria Ganzha Wydział Matematyki i Nauk Informatycznych 2018-2019 O projekcie nr 2 roboty (samochody, odkurzacze, drony,...) gry planszowe, sterowanie (optymalizacja; windy,..) optymalizacja

Bardziej szczegółowo

Systemy agentowe. Sieci neuronowe. Jędrzej Potoniec

Systemy agentowe. Sieci neuronowe. Jędrzej Potoniec Systemy agentowe Sieci neuronowe Jędrzej Potoniec Perceptron (Rossenblat, 1957) A. Géron, Hands-On Machine Learning with Scikit-Learn and TensorFlow 2017 Perceptron { 1 z 0 step(z) = 0 w przeciwnym przypadku

Bardziej szczegółowo

Pojęcie szeregu nieskończonego:zastosowania do rachunku prawdopodobieństwa wykład 1

Pojęcie szeregu nieskończonego:zastosowania do rachunku prawdopodobieństwa wykład 1 Pojęcie szeregu nieskończonego:zastosowania do rachunku prawdopodobieństwa wykład dr Mariusz Grządziel 5 lutego 04 Paradoks Zenona z Elei wersja uwspółcześniona Zenek goni Andrzeja; prędkość Andrzeja:

Bardziej szczegółowo

SPOTKANIE 9: Metody redukcji wymiarów

SPOTKANIE 9: Metody redukcji wymiarów Wrocław University of Technology SPOTKANIE 9: Metody redukcji wymiarów Piotr Klukowski* Studenckie Koło Naukowe Estymator piotr.klukowski@pwr.wroc.pl 08.12.2015 *Część slajdów pochodzi z prezentacji dr

Bardziej szczegółowo

Sztuczne Sieci Neuronowe

Sztuczne Sieci Neuronowe Sztuczne Sieci Neuronowe Wykład 7 Sieci neuronowe o radialnych funkcjach bazowych wykład przygotowany na podstawie. S. Osowski, Sieci Neuronowe w ujęciu algorytmicznym, Rozdz. 5, PWNT, Warszawa 1996. 26/11/08

Bardziej szczegółowo

Algorytmy równoległe. Rafał Walkowiak Politechnika Poznańska Studia inżynierskie Informatyka 2010

Algorytmy równoległe. Rafał Walkowiak Politechnika Poznańska Studia inżynierskie Informatyka 2010 Algorytmy równoległe Rafał Walkowiak Politechnika Poznańska Studia inżynierskie Informatyka Znajdowanie maksimum w zbiorze n liczb węzły - maksimum liczb głębokość = 3 praca = 4++ = 7 (operacji) n - liczność

Bardziej szczegółowo

Algorytmy MCMC (Markowowskie Monte Carlo) dla skokowych procesów Markowa

Algorytmy MCMC (Markowowskie Monte Carlo) dla skokowych procesów Markowa Algorytmy MCMC (Markowowskie Monte Carlo) dla skokowych procesów Markowa Wojciech Niemiro 1 Uniwersytet Warszawski i UMK Toruń XXX lat IMSM, Warszawa, kwiecień 2017 1 Wspólne prace z Błażejem Miasojedowem,

Bardziej szczegółowo

Testowanie hipotez statystycznych

Testowanie hipotez statystycznych 9 października 2008 ...czyli definicje na rozgrzewkę n-elementowa próba losowa - wektor n zmiennych losowych (X 1,..., X n ); intuicyjnie: wynik n eksperymentów realizacja próby (X 1,..., X n ) w ω Ω :

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej

Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2013-01-09

Bardziej szczegółowo

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu Literatura Wykład : Wprowadzenie do sztucznych sieci neuronowych Małgorzata Krętowska Wydział Informatyki Politechnika Białostocka Tadeusiewicz R: Sieci neuronowe, Akademicka Oficyna Wydawnicza RM, Warszawa

Bardziej szczegółowo

Wprowadzenie do teorii ekonometrii. Wykład 1 Warunkowa wartość oczekiwana i odwzorowanie liniowe

Wprowadzenie do teorii ekonometrii. Wykład 1 Warunkowa wartość oczekiwana i odwzorowanie liniowe Wprowadzenie do teorii ekonometrii Wykład 1 Warunkowa wartość oczekiwana i odwzorowanie liniowe Zajęcia Wykład Laboratorium komputerowe 2 Zaliczenie EGZAMIN (50%) Na egzaminie obowiązują wszystkie informacje

Bardziej szczegółowo

wiedzy Sieci neuronowe (c.d.)

wiedzy Sieci neuronowe (c.d.) Metody detekci uszkodzeń oparte na wiedzy Sieci neuronowe (c.d.) Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 8 Metody detekci uszkodzeń oparte na wiedzy Wprowadzenie

Bardziej szczegółowo

LEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów

LEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów LEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów Łukasz Piątek, Jerzy W. Grzymała-Busse Katedra Systemów Ekspertowych i Sztucznej Inteligencji, Wydział Informatyki

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład XIV: Metody Monte Carlo 19 stycznia 2016 Przybliżone obliczanie całki oznaczonej Rozważmy całkowalną funkcję f : [0, 1] R. Chcemy znaleźć przybliżoną wartość liczbową całki 1 f (x) dx. 0 Jeden ze

Bardziej szczegółowo

Prof. Stanisław Jankowski

Prof. Stanisław Jankowski Prof. Stanisław Jankowski Zakład Sztucznej Inteligencji Zespół Statystycznych Systemów Uczących się p. 228 sjank@ise.pw.edu.pl Zakres badań: Sztuczne sieci neuronowe Maszyny wektorów nośnych SVM Maszyny

Bardziej szczegółowo

CLUSTERING. Metody grupowania danych

CLUSTERING. Metody grupowania danych CLUSTERING Metody grupowania danych Plan wykładu Wprowadzenie Dziedziny zastosowania Co to jest problem klastrowania? Problem wyszukiwania optymalnych klastrów Metody generowania: k centroidów (k - means

Bardziej szczegółowo

Sztuczne sieci neuronowe (SNN)

Sztuczne sieci neuronowe (SNN) Sztuczne sieci neuronowe (SNN) Pozyskanie informacji (danych) Wstępne przetwarzanie danych przygotowanie ich do dalszej analizy Selekcja informacji Ostateczny model decyzyjny SSN - podstawy Sieci neuronowe

Bardziej szczegółowo

KADD Minimalizacja funkcji

KADD Minimalizacja funkcji Minimalizacja funkcji n-wymiarowych Forma kwadratowa w n wymiarach Procedury minimalizacji Minimalizacja wzdłuż prostej w n-wymiarowej przestrzeni Metody minimalizacji wzdłuż osi współrzędnych wzdłuż kierunków

Bardziej szczegółowo

Kwantyzacja wektorowa. Kodowanie różnicowe.

Kwantyzacja wektorowa. Kodowanie różnicowe. Kwantyzacja wektorowa. Kodowanie różnicowe. Kodowanie i kompresja informacji - Wykład 7 12 kwietnia 2010 Kwantyzacja wektorowa wprowadzenie Zamiast kwantyzować pojedyncze elementy kwantyzujemy całe bloki

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. dla sieci skierowanych Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-25 1 Motywacja

Bardziej szczegółowo

Adrian Horzyk

Adrian Horzyk Metody Inteligencji Obliczeniowej Metoda K Najbliższych Sąsiadów (KNN) Adrian Horzyk horzyk@agh.edu.pl AGH Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Bardziej szczegółowo