Deep Learning na przykładzie Deep Belief Networks

Podobne dokumenty
AUTO-ENKODER JAKO SKŠADNIK ARCHITEKTURY DEEP LEARNING

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

Wprowadzenie do sieci neuronowych i zagadnień deep learning

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Wrocław University of Technology. Uczenie głębokie. Maciej Zięba

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

dr Igor T. Podolak 19 grudnia 2013, 9 i 16 stycznia 2014

Uczenie sieci neuronowych i bayesowskich

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Sztuczne sieci neuronowe

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań

Algorytmy sztucznej inteligencji

Metody Sztucznej Inteligencji II

Inteligentne systemy przeciw atakom sieciowym

Dariusz Brzeziński Instytut Informatyki, Politechnika Poznańska

Podstawy sztucznej inteligencji

Wykład 1: Wprowadzenie do sieci neuronowych

Wstęp do głębokich sieci neuronowych. Paweł Morawiecki IPI PAN

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron

Elementy inteligencji obliczeniowej

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Sztuczne siei neuronowe - wprowadzenie

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017

Tomasz Pawlak. Zastosowania Metod Inteligencji Obliczeniowej

Podstawy Sztucznej Inteligencji (PSZT)

METODY INŻYNIERII WIEDZY

Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej. Adam Żychowski

Sztuczne sieci neuronowe (SNN)

ĆWICZENIE 5: Sztuczne sieci neuronowe

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Prof. Stanisław Jankowski

6. Perceptron Rosenblatta

MATLAB Neural Network Toolbox uczenie sieci (dogłębnie)

Uczenie sieci radialnych (RBF)

Metody klasyfikacji i rozpoznawania wzorców. Najważniejsze rodzaje klasyfikatorów

SID Wykład 8 Sieci neuronowe

Sztuczna inteligencja

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.

Mixed-UCT: Zastosowanie metod symulacyjnych do poszukiwania równowagi Stackelberga w grach wielokrokowych

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

STRATEGIA DOBORU PARAMETRÓW SIECI NEURONOWEJ W ROZPOZNAWANIU PISMA

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I.

Optymalizacja optymalizacji

Zastosowania sieci neuronowych

Lekcja 5: Sieć Kohonena i sieć ART

Zastosowania sieci neuronowych

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW

Temat: Sieci neuronowe oraz technologia CUDA

MODELOWANIE RZECZYWISTOŚCI

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

Widzenie komputerowe

Machine learning Lecture 6

UCZENIE WIELOWARSTWOWYCH SZEROKICH SIECI NEURONOWYCH Z FUNKCJAMI AKTYWACJI TYPU RELU W ZADANIACH KLASYFIKACJI

Uczenie sieci typu MLP

Podstawy Sztucznej Inteligencji

Wprowadzenie do Sieci Neuronowych Laboratorium 04 Algorytmy konstrukcyjne dla sieci skierowanych

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010

MATLAB Neural Network Toolbox przegląd

sieci jednowarstwowe w MATLABie LABORKA Piotr Ciskowski

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

Wariacyjna teoria grupy renormalizacji w opisie uczenia głębokiego czyli Deep

Syste t m e y m ek e s k per pe to t w o e w Wykład 8 1

NEURAL NETWORK ) FANN jest biblioteką implementującą SSN, którą moŝna wykorzystać. w C, C++, PHP, Pythonie, Delphi a nawet w środowisku. Mathematica.

Rozpoznawanie obrazów

Wprowadzenie do teorii systemów ekspertowych

x 1 x 2 x 3 x n w 1 w 2 Σ w 3 w n x 1 x 2 x 1 XOR x (x A, y A ) y A x A

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Wstęp do teorii sztucznej inteligencji

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

ZASTOSOWANIE AUTORSKIEJ METODY WYZNACZANIA WARTOŚCI PARAMETRÓW NOWOCZESNYCH SYSTEMÓW TECHNICZNYCH DO PŁUGÓW I OPRYSKIWACZY POLOWYCH

Technologie cyfrowe semestr letni 2018/2019

Kombinacja jądrowych estymatorów gęstości w klasyfikacji - zastosowanie na sztucznym zbiorze danych

SIECI RBF (RADIAL BASIS FUNCTIONS)

Streszczenie. Słowa kluczowe: modele neuronowe, parametry ciągników rolniczych

Przykład optymalizacji struktury sztucznej sieci neuronowej metodą algorytmów genetycznych

SZTUCZNA INTELIGENCJA

Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe. Krzysztof Regulski, WIMiIP, KISiM, B5, pok. 408

OCENA DZIAŁANIA AE. METODY HEURYSTYCZNE wykład 4 LOSOWOŚĆ W AE KRZYWE ZBIEŻNOŚCI ANALIZA STATYSTYCZNA:

wiedzy Sieci neuronowe

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD XI: Sztuczne sieci neuronowe

Politechnika Warszawska

8. Neuron z ciągłą funkcją aktywacji.

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.

Elementy kognitywistyki III: Modele i architektury poznawcze

Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner

Wstęp do sieci neuronowych, wykład 14 Maszyna Boltzmanna

Transkrypt:

Deep Learning na przykładzie Deep Belief Networks Jan Karwowski Zakład Sztucznej Inteligencji i Metod Obliczeniowych Wydział Matematyki i Nauk Informacyjnych PW 20 V 2014 Jan Karwowski (MiNI) Deep Learning 20 V 2014 1 / 14

Deep Learning Głębokość maksymalna długość ścieżki od wejścia do wyjścia sieci (liczba neuronów) Początkowo ( 50, 60) zaniechana ze względu na brak możliwości obliczeniowych Wzrost popularności w ostatnich 10 latach Trudność w uczeniu głębokich układów klasycznymi algorytmami http://deeplearning.net Jan Karwowski (MiNI) Deep Learning 20 V 2014 2 / 14

Motywacja Rzeczywiste układy biologiczne Ośrodek widzenia w mózgu kota ma około 10 warstw Istnieją funkcje trudne do reprezentacji w płaskim modelu (parzystość) Sieci wielowarstwowe mogą łączyć preprocessing i klasyfikację/regresję Jan Karwowski (MiNI) Deep Learning 20 V 2014 3 / 14

Restricted Boltzman Machine Neurony binarne Prawdopodobieństwo pobudzenia neuronu P(h k = 1 v) = σ(b k + i w i,kv i ) Każde połączenie działa w obie strony Energia układu E(v, h) = i a i v i j b j h j i,j v i h j w ij v1 v2 v3 v4 v5 w1,1 h1 h2 h3 Jan Karwowski (MiNI) Deep Learning 20 V 2014 4 / 14

Contrastive Divergence Geoffrey E Hinton. Training products of experts by minimizing contrastive divergence. In: Neural computation 14.8 (2002), pp. 1771 1800 Geoffrey Hinton. A practical guide to training restricted Boltzmann machines. 2010 Tijmen Tieleman. Training restricted Boltzmann machines using approximations to the likelihood gradient. In: Proceedings of the 25th international conference on Machine learning. ACM. 2008, pp. 1064 1071 Jan Karwowski (MiNI) Deep Learning 20 V 2014 5 / 14

Contrastive Divergence v 1,..., v n warstwa widoczna, h 1,..., h m warstwa ukryta, W M m n macierz wag połączeń, η wsp. uczenia Algorithm 1 Pojedyncza epoka dla pojedynczego wzorca 1: function ContrastiveDivergence(V, W) 2: v V 3: H h SampleHidden(v,W) 4: for i 1..n do 5: v SampleVisible(h,W) 6: h SampleHidden(v,W) 7: end for W η( OuterProduct(V,H) OuterProduct(v,h) ) 8: return W + W 9: end function Pomijamy wpływ zmiany wag na poprzednie próbkowania Jan Karwowski (MiNI) Deep Learning 20 V 2014 6 / 14

Deep Belief Network Geoffrey E Hinton, Simon Osindero, and Yee-Whye Teh. A fast learning algorithm for deep belief nets. In: Neural computation 18.7 (2006), pp. 1527 1554 model generatywny Jan Karwowski (MiNI) Deep Learning 20 V 2014 7 / 14

Algorytm Uczący 1: Uczenie każdej warstwy połączeń osobno za pomocą CD, w niższej warstwie wartości rzeczywiste prawdopodobieństwa wystąpienia 1, w wyższej próbkowane 0,1 2: Uczenie części klasyfikacyjnej jako elementu rozszerzającego przedostatnią warstwę neuronów 3: for i 1.. liczba epok do 4: Próbkowanie w góre 5: Naprzemienne próbkowanie w najwyższej warstwie 6: Propagacja w dół 7: Gradientowa poprawa wszystkich wag 8: end for Jan Karwowski (MiNI) Deep Learning 20 V 2014 8 / 14

Warstwę 2 i wyjście traktujemy jakby była to jedna warstwa. Jan Karwowski (MiNI) Deep Learning 20 V 2014 9 / 14

Użycie DBN Wariant 1: 1 Z wejścia próbkuj wartości wyższych warstw, aż do warstwy z dwukierunkowymi połączeniami 2 W obrębie górnej RBM wykonuj naprzemienne próbkowanie, aż do osiągnięcia stanu równowagi 3 Zainicjuj wartości wszystkich etykiet klas wyjścia na 0.1 i wykonuj naprzemienne próbkowanie w warstwie rozpoznającej aż do osiągnięcia równowagi Wariant 2: 1 Z wejścia próbkuj wartości wyższych warstw, aż do warstwy z dwukierunkowymi połączeniami 2 Dla każdej klasy wykonaj: ustaw etykietę danej klasy na 1, pozostałe na 0, wykonuj naprzemienne próbkowanie warstwy etykiet z dolną warstwą górnej RBM i górnej warstwy RBM, aż do osiągnięcia równowagi 3 Wybierz klasę, dla której końcowa energia układu była najmniejsza Jan Karwowski (MiNI) Deep Learning 20 V 2014 10 / 14

Zbiór MNIST Geoffrey E Hinton, Simon Osindero, and Yee-Whye Teh. A fast learning algorithm for deep belief nets. In: Neural computation 18.7 (2006), pp. 1527 1554 Jan Karwowski (MiNI) Deep Learning 20 V 2014 11 / 14

Generatywna część modelu Geoffrey E Hinton, Simon Osindero, and Yee-Whye Teh. A fast learning algorithm for deep belief nets. In: Neural computation 18.7 (2006), pp. 1527 1554 Próbkowanie w najwyższej warstwie, propagacja jak w perceptronie w niższych. Jan Karwowski (MiNI) Deep Learning 20 V 2014 12 / 14

Inne architektury Deep Learning Deep Boltzman Machine Autoencoder Convolutional Neural Network Deep SVM Jan Karwowski (MiNI) Deep Learning 20 V 2014 13 / 14

Deep Learning + - Dobre działanie dla problemów z rozpoznawaniem obrazów, dla dużej liczby danych wejściowych Wykorzystanie znanych wcześniej płytkich modeli Duża złożoność, w szczególności pamięciowa Trudna analiza teoretyczna Jan Karwowski (MiNI) Deep Learning 20 V 2014 14 / 14