AUTO-ENKODER JAKO SKŠADNIK ARCHITEKTURY DEEP LEARNING



Podobne dokumenty
Deep Learning na przykładzie Deep Belief Networks

Uczenie Wielowarstwowych Sieci Neuronów o

Wrocław University of Technology. Uczenie głębokie. Maciej Zięba

Wprowadzenie do sieci neuronowych i zagadnień deep learning

dr Igor T. Podolak 19 grudnia 2013, 9 i 16 stycznia 2014

Metody numeryczne i statystyka dla in»ynierów

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania

Daniel Kierepka. Kompresja obrazów za pomoc sztucznych sieci neuronowych

przewidywania zapotrzebowania na moc elektryczn

Jednowarstwowe Sieci Neuronowe jako. klasykatory do wielu klas. (c) Marcin Sydow

Elementy inteligencji obliczeniowej

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

MATLAB Neural Network Toolbox uczenie sieci (dogłębnie)

Elementy kognitywistyki III: Modele i architektury poznawcze

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań

Uczenie sieci neuronowych i bayesowskich

A = n. 2. Ka»dy podzbiór zbioru sko«czonego jest zbiorem sko«czonym. Dowody tych twierdze«(elementarne, lecz nieco nu» ce) pominiemy.

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

Klasyfikacja z milionami etykiet

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Lab. 02: Algorytm Schrage

Wst p do sieci neuronowych, wykªad 14 Zespolone sieci neuronowe

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

1 Bª dy i arytmetyka zmiennopozycyjna

Metody selekcji cech

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD XI: Sztuczne sieci neuronowe

Listy Inne przykªady Rozwi zywanie problemów. Listy w Mathematice. Marcin Karcz. Wydziaª Matematyki, Fizyki i Informatyki.

Systemy agentowe. Uwagi organizacyjne i wprowadzenie. Jędrzej Potoniec

Poprawa efektywnoci metody wstecznej propagacji bdu. Jacek Bartman

Machine learning Lecture 6

Algorytmy MCMC (Markowowskie Monte Carlo) dla skokowych procesów Markowa

STRATEGIA DOBORU PARAMETRÓW SIECI NEURONOWEJ W ROZPOZNAWANIU PISMA

Statystyka matematyczna

KLASYCZNE ZDANIA KATEGORYCZNE. ogólne - orzekaj co± o wszystkich desygnatach podmiotu szczegóªowe - orzekaj co± o niektórych desygnatach podmiotu

Listy i operacje pytania

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

Wykorzystanie lokalnej geometrii danych w Maszynie Wektorów No±nych

Zastosowania sieci neuronowych

Metodydowodzenia twierdzeń

Dariusz Brzeziński Instytut Informatyki, Politechnika Poznańska

1. Wprowadzenie do C/C++

Ekonometria. wiczenia 7 Modele nieliniowe. Andrzej Torój. Instytut Ekonometrii Zakªad Ekonometrii Stosowanej

JAO - J zyki, Automaty i Obliczenia - Wykªad 1. JAO - J zyki, Automaty i Obliczenia - Wykªad 1

Indeksowane rodziny zbiorów

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Podstawy Sztucznej Inteligencji (PSZT)

Bash i algorytmy. Elwira Wachowicz. 20 lutego

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

SZTUCZNA INTELIGENCJA

Metody bioinformatyki (MBI)

Wst p do sieci neuronowych, wykªad 05a Algorytm wstecznej propagacji bª du

wiczenie nr 3 z przedmiotu Metody prognozowania kwiecie«2015 r. Metodyka bada«do±wiadczalnych dr hab. in». Sebastian Skoczypiec Cel wiczenia Zaªo»enia

Wstęp do głębokich sieci neuronowych. Paweł Morawiecki IPI PAN

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Wykªad 7. Ekstrema lokalne funkcji dwóch zmiennych.

Uczenie sieci radialnych (RBF)

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wst p do sieci neuronowych 2010/2011 wykªad 7 Algorytm propagacji wstecznej cd.

Algorytm propagacji wstecznej

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Metody klasyfikacji danych zaszumionych. Stanisław Kaźmierczak

TEORETYCZNE PODSTAWY INFORMATYKI

Wst p do sieci neuronowych, wykªad 4 Algorytm wstecznej propagacji bª du, cz. 1

Elementy kognitywistyki III: Modele i architektury poznawcze

Wykªad 6: Model logitowy

MODELOWANIE FAZ ZNI ANIA I L DOWANIA SAMOLOTU BOEING ER PRZY U YCIU SZTUCZNYCH SIECI NEURONOWYCH

MATLAB Neural Network Toolbox przegląd

Systemy agentowe. Sieci neuronowe. Jędrzej Potoniec

Metody numeryczne i statystyka dla in»ynierów

Teoria grafów i jej zastosowania. 1 / 126

Widzenie komputerowe

Edycja geometrii w Solid Edge ST

Eksploracja Danych. Wprowadzenie. (c) Marcin Sydow

WST P DO TEORII INFORMACJI I KODOWANIA. Grzegorz Szkibiel. Wiosna 2013/14

Nieujemna faktoryzacja macierzy i tensorów

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

I EKSPLORACJA DANYCH

SPOTKANIE 9: Metody redukcji wymiarów

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty

Systemy agentowe. Sieci neuronowe. Jędrzej Potoniec

Ekonometria - wykªad 8

Zastosowania sieci neuronowych

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Wprowadzenie do uczenia maszynowego. Wstęp. (c) Marcin Sydow

Sztuczne siei neuronowe - wprowadzenie

Ekonometria. wiczenia 8 Modele zmiennej jako±ciowej. Andrzej Torój. Instytut Ekonometrii Zakªad Ekonometrii Stosowanej

Biostatystyka, # 5 /Weterynaria I/

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Temat: Problem najkrótszych cieek w grafach waonych, cz. I: Algorytmy typu label - setting.

1. Wprowadzenie do C/C++

x y x y x y x + y x y

1 Stos: Stack i Stack<T>

Granular Computing 9999 pages 15 METODY SZTUCZNEJ INTELIGENCJI - PROJEKTY

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Metody statystyczne w biologii - Wykªad 8. Uniwersytet Przyrodniczy we Wrocªawiu Katedra Genetyki i Ogólnej Hodowli Zwierz t

Diagnoza psychologiczna: podstawowe kompetencje (II część - decyzje diagnostyczne) Rola intuicji w diagnozie

Transkrypt:

AUTO-ENKODER JAKO SKŠADNIK ARCHITEKTURY DEEP LEARNING Magdalena Wiercioch Uniwersytet Jagiello«ski 3 kwietnia 2014

Plan Uczenie gª bokie (deep learning) Auto-enkodery Rodzaje Zasada dziaªania Przykªady Bibliograa 2 z 48

Uczenie gª bokie (deep learning) cel - wydobycie cech najbardziej istotnych 3 z 48

Uczenie gª bokie (deep learning) Potrzeba funkcji, która zapewni efektywno± oblicze«i wydajno± uczenia. Nasuwa si pytanie w jaki sposób j reprezentowa. 4 z 48

Uczenie gª bokie (deep learning) Technika uczenia gª bokiego ma swoje ideologiczne podstawy w procesie skªadania funkcji. Ka»da z funkcji skªadanych otrzymuje dane do przetworzenia. 5 z 48

Uczenie gª bokie (deep learning) 6 z 48

Uczenie gª bokie (deep learning) A mo»e sie wielowarstwowa (uczona gradientowo)? 7 z 48

Uczenie gª bokie (deep learning) (Bengio, 2007) Idea greedy layer-wise training: trenowanie krok po kroku, a wi c najpierw trenuje si sie z jedn warstw ukryt, potem z dwoma itd. w ka»dym kroku do rozwa»anej sieci zawieraj cej k 1 warstw ukrytych dodaje si kolejn warstw, która na wej±ciu przyjmuje rezultat poprzedniej architektury 8 z 48

Uczenie gª bokie (deep learning) mo»liwe jest zarówno podej±cie nadzorowane jak i nienadzorowane (cz ±ciej stosowane, realizowane za pomoc auto-enkoderów) wyuczone wagi sªu» do inicjalizacji wag w caªej sieci pozwala to na dostrojenie caªej architektury (ne-tune) 9 z 48

Uczenie gª bokie (deep learning) Zalety: zdecydowanie lepsza dost pno± danych metoda spadku gradientu znajduje wªa±ciwe (lub prawie poprawne) lokalne minimum 10 z 48

Auto-enkoder obecno± trzech warstw reprodukcja informacji wej±ciowej na wyj±ciu 11 z 48

Auto-enkoder rzadki (sparse autoencoder) W zwyczajnym trybie sie uczyªaby si funkcji identyczno±ciowej, co nie miaªoby sensu. Dlatego wprowadza si pewne kryteria, jak np. ilo± neuronów w warstwie ukrytej. Okazuje si,»e ciekawe wªasno±ci ujawniaj si gdy ilo± neuronów w warstwie ukrytej jest wi ksza od wymiaru danych wej±ciowych. Wówczas wprowadza si dodatkowe ograniczenie na rzadko± (sparsity). 12 z 48

Auto-enkoder 13 z 48

Auto-enkoder x [0, 1] d, y [0, 1] d, z [0, 1] d y f θ (x) = s(wx + b); θ = W, b z g θ (y) = s(w y + b ); θ = W, b θ, θ = argmin θ,θ 1 n n R(x (i), g i=1 θ (f θ (x (i) ))) 14 z 48

Auto-enkoder R(x, z) = x z 2 R H (x, z) = d j=1 [x j log z j + (1 x j ) log(1 z j )] Istnieje dowód na to,»e gdy neurony w warstwie ukrytej oraz w warstwie wyj±ciowej maj charakterystyki liniowe (lub qasiliniowe), to taka sie w rzeczywisto±ci uczy si aproksymowa standardowy algorytm analizy gªównych skªadowych. 15 z 48

Dywergencja Kullbacka-Leiblera Dywergencja Kullbacka-Leiblera (entropia wzgl dna, rozbie»no± Kullbacka-Leiblera) to miara stosowana w teorii informacji. Sªu»y do okre±lenia rozbie»no±ci pomi dzy dwoma rozkªadami p oraz q. Przyjmuje zawsze warto±ci nieujemne. Je±li dwa rozkªady s identyczne, wówczas jej warto± wynosi 0. Dla rozkªadów dyskretnych dywergencja Kullbacka-Leiblera wyra»a si wzorem: gdzie q - dane rzeczywiste; p - model teoretyczny. D KL (q, p) = i=1 q i log 2 q(i) p(i) 16 z 48

Ograniczenie na rzadko± (sparsity) a (2) k (x) - poziom aktywacji neuronu k w warstwie ukrytej pod wpªywem wej±cia x ˆρ k = 1 n n i=1 [a(2) k (x (i) )] - ±rednia aktywacja neuronu ρ jako parametr odnosz cy si do wymuszanej cechy rzadko±ci (sparsity parameter) celem jest doprowadzenie do równo±ci ˆρ k = ρ funkcja straty: L s (W, b) = L(W, b) + β n KL(ρ ˆρ i=1 i) 17 z 48

Dywergencja Kullbacka-Leiblera a auto-enkoder 18 z 48

Auto-enkoder odszumiaj cy (denoising autoencoder) wej±cie x [0, 1] d modykacja wej±cia daje x q( x x) przeksztaªcenie x do reprezentacji zredukowanej y = f θ ( x) odtworzenie z na podstawie y, z = g θ (y) 19 z 48

Auto-enkoder odszumiaj cy (denoising autoencoder) (Vincent, 2008) ró»ne interpretacje, jedno z nich oparte na idei rozmaito±ci przyjmuje si,»e oryginalne dane s umiejscowione bli»ej rozmaito±ci o mniejszej liczbie wymiarów p(x X ) = B gθ (f θ ( X ))(X ) zapewnia stosowne rzutowanie 20 z 48

Auto-enkoder stosowy (stacked autoencoder) warstwa 1 21 z 48

Auto-enkoder stosowy (stacked autoencoder) warstwa 1 warstwa 2 22 z 48

Auto-enkoder stosowy (stacked autoencoder) warstwa 1 warstwa 2 warstwa 3 23 z 48

Auto-enkoder stosowy (stacked autoencoder) warstwa 1 warstwa 2 warstwa 3 warstwa uczona z nadzorem 24 z 48

Auto-enkoder stosowy (stacked autoencoder) 25 z 48

Auto-enkoder stosowy (stacked autoencoder) 26 z 48

Auto-enkoder stosowy (stacked autoencoder) 27 z 48

Auto-enkoder stosowy (stacked autoencoder) 28 z 48

Zestaw odszumiaj cych auto-enkoderów (stacked denoising autoencoders) wstawianie kolejnych warstw z auto-enkoderem (odszumiaj cym) rezultat ka»dego procesu oczyszczenia przesyªany jest do warstwy poªo»nej wy»ej 29 z 48

Strojenie (ne tuning) inicjalizacja parametrów sieci w sposób nienadzorowany dostrajanie w wersji nadzorowanej 30 z 48

Auto-enkoder 31 z 48

Auto-enkoder 32 z 48

Auto-enkoder 33 z 48

Auto-enkoder 34 z 48

Auto-enkoder 35 z 48

Auto-enkoder 36 z 48

Auto-enkoder Zbiór STL-10 37 z 48

Auto-enkoder 38 z 48

Auto-enkoder odszumiaj cy (denoising autoencoder) MNIST 39 z 48

Auto-enkoder odszumiaj cy (denoising autoencoder) poziom zaszumienia = 0% 40 z 48

Auto-enkoder odszumiaj cy (denoising autoencoder) poziom zaszumienia = 15% 41 z 48

Auto-enkoder odszumiaj cy (denoising autoencoder) poziom zaszumienia = 30% 42 z 48

Auto-enkoder odszumiaj cy (denoising autoencoder) poziom zaszumienia = 45% 43 z 48

Wynik zestawienia auto-enkoderów 44 z 48

Wynik zestawienia auto-enkoderów odszumiaj cych 45 z 48

Rezultat zastosowania sieci Deep Belief 46 z 48

Bibliograa Bengio Y., Learning deep architectures for AI, Foundations and trends in Machine Learning (2009) Vincent P., Larochelle H., Lajoie I., Bengio Y., Manzagol P.A., Stacked Denoising Autoencoders: Learning Useful Representations in a Deep Network with a Local Denoising Criterion (2010) Bengio Y., Lamblin P., Popovici D., Larochelle H., Greedy layer-wise training of deep networks. NIPS (2006) Ranzato M., Poultney C., Chopra S., and LeCun Y., Ecient learning of sparse representations with an energy-based model. NIPS 2006, MIT Press, 2006 Ranzato M., Boureau Y., LeCun Y., Sparse feature learning for deep belief networks. Advances in Neural Information Processing Systems (NIPS 2007) 47 z 48

Bibliograa http://deeplearning.net/ http://ufldl.stanford.edu/wiki/index.php/ http://yann.lecun.com/exdb/mnist/ http://www.stanford.edu/~acoates//stl10/ Hinton G.E., Osindero S., Teh Y., A fast learning algorithm for deep belief nets. Neural Computation 18 (2006) Hinton G. E., Salakhutdinov R., Reducing the dimensionality of data with neural networks. Science (2006) 48 z 48