Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Podobne dokumenty
Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Sztuczne sieci neuronowe

Plan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty)

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Problem plecakowy (KNAPSACK PROBLEM).

Podstawy teorii falek (Wavelets)

SZTUCZNA INTELIGENCJA

wiedzy Sieci neuronowe (c.d.)

Neural networks. Krótka historia rozpoznawanie znaków alfanumerycznych.

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych

Zarządzanie ryzykiem w przedsiębiorstwie i jego wpływ na analizę opłacalności przedsięwzięć inwestycyjnych

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych

SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW

Wykład 1 Zagadnienie brzegowe liniowej teorii sprężystości. Metody rozwiązywania, metody wytrzymałości materiałów. Zestawienie wzorów i określeń.

Sieci Neuronowe 1 Michał Bereta

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Systemy Inteligentnego Przetwarzania wykład 3: sieci rekurencyjne, sieci samoorganizujące się

Metody Sztucznej Inteligencji II

) będą niezależnymi zmiennymi losowymi o tym samym rozkładzie normalnym z następującymi parametrami: nieznaną wartością 1 4

Plan wykładu: Typowe dane. Jednoczynnikowa Analiza wariancji. Zasada: porównać zmienność pomiędzy i wewnątrz grup

Diagonalizacja macierzy kwadratowej

u u u( x) u, x METODA RÓŻNIC SKOŃCZONYCH, METODA ELEMENTÓW BRZEGOWYCH i METODA ELEMENTÓW SKOŃCZONYCH

Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Pattern Classification

Stanisław Cichocki. Natalia Nehrebecka. Wykład 7

Elementy inteligencji obliczeniowej

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba

ZASTOSOWANIE KLASYCZNEGO ALGORYTMU GENETYCZNEGO DO ROZWIĄZANIA ZBILANSOWANEGO ZAGADNIENIA TRANSPORTOWEGO

SZTUCZNA INTELIGENCJA

n liczba zmiennych decyzyjnych c współczynniki funkcji celu a współczynniki przy zmienych decyzyjnych w warunkach

Przykład 5.1. Kratownica dwukrotnie statycznie niewyznaczalna

ANALIZA PREFERENCJI SŁUCHACZY UNIWERSYTETU TRZECIEGO WIEKU Z WYKORZYSTANIEM WYBRANYCH METOD NIESYMETRYCZNEGO SKALOWANIA WIELOWYMIAROWEGO

EKONOMETRIA I Spotkanie 1, dn

Modele wieloczynnikowe. Modele wieloczynnikowe. Modele wieloczynnikowe ogólne. α β β β ε. Analiza i Zarządzanie Portfelem cz. 4.

TRANZYSTOR BIPOLARNY CHARAKTERYSTYKI STATYCZNE

Sztuczne sieci neuronowe

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5

7. Wykład VII: Warunki Kuhna-Tuckera

Badania operacyjne w logistyce i zarządzaniu produkcją

Podstawy Sztucznej Inteligencji (PSZT)

AUTOMATYKA I STEROWANIE W CHŁODNICTWIE, KLIMATYZACJI I OGRZEWNICTWIE L3 STEROWANIE INWERTEROWYM URZĄDZENIEM CHŁODNICZYM W TRYBIE PD ORAZ PID

KURS STATYSTYKA. Lekcja 6 Regresja i linie regresji ZADANIE DOMOWE. Strona 1

± Δ. Podstawowe pojęcia procesu pomiarowego. x rzeczywiste. Określenie jakości poznania rzeczywistości

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

wiedzy Sieci neuronowe

Instrukcja do ćwiczeń laboratoryjnych z przedmiotu: Badania operacyjne. Temat ćwiczenia: Problemy rozkroju materiałowego, zagadnienia dualne

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE

Planowanie eksperymentu pomiarowego I

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Podstawy sztucznej inteligencji

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Grupowanie. Wprowadzenie. Metody hierarchiczne. Modele mieszane (mixture models) Metody najmniejszych kwadratów. Zastosowania

Nieeuklidesowe sieci neuronowe

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Inteligentne systemy przeciw atakom sieciowym

Neuronowy układ szyfrujący - analiza bezpieczeństwa

RÓWNOWAGA STACKELBERGA W GRACH SEKWENCYJNYCH

1.1 Analiza decyzji- tablica decyzyjna, klasyfikacja

Zestaw zadań 4: Przestrzenie wektorowe i podprzestrzenie. Liniowa niezależność. Sumy i sumy proste podprzestrzeni.

I. Elementy analizy matematycznej

V. WPROWADZENIE DO PRZESTRZENI FUNKCYJNYCH

Sztuczne sieci neuronowe

Wykład 5. Skręcanie nieskrępowane prętów o przekroju prostokątnym.

Stanisław Cichocki Natalia Nehrebecka. Zajęcia 4

Wielokategorialne systemy uczące się i ich zastosowanie w bioinformatyce. Rafał Grodzicki

Plan wykładu. Sztuczne sieci neuronowe. Uczenie nienadzorowane (bez nauczyciela) Uczenie nienadzorowane - przykłady

1. Logika, funkcje logiczne, preceptron.

Analiza danych. Analiza danych wielowymiarowych. Regresja liniowa. Dyskryminacja liniowa. PARA ZMIENNYCH LOSOWYCH

Natalia Nehrebecka. Zajęcia 3

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Laboratorium ochrony danych

Poszukiwanie optymalnego wyrównania harmonogramu zatrudnienia metodą analityczną

Zastosowania sieci neuronowych

Natalia Nehrebecka. Zajęcia 4

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Diagnostyka układów kombinacyjnych

Wprowadzenie do Sieci Neuronowych Sieci rekurencyjne

Model ASAD. ceny i płace mogą ulegać zmianom (w odróżnieniu od poprzednio omawianych modeli)

9. Rozmyte systemy z bazami wiedzy

Statystyka Opisowa 2014 część 2. Katarzyna Lubnauer

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Pokazać, że wyżej zdefiniowana struktura algebraiczna jest przestrzenią wektorową nad ciałem

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2013/2014

Sztuczne sieci neuronowe

Projekt Sieci neuronowe

Metody analizy obwodów

CAŁKOWANIE NUMERYCZNE całki pojedyncze

WYZNACZENIE DYSYPACJI KINETYCZNEJ ENERGII TURBULENCJI PRZY UŻYCIU PRAWA -5/3. E c = E k + E p + E w

Mikroekonometria 5. Mikołaj Czajkowski Wiktor Budziński

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Sieci Neuronowe - Rok III - kierunek IS w IFAiIS UJ 2008/2009. Sieci Neuronowe. Wykład 3

p Z(G). (G : Z({x i })),

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.


Transkrypt:

Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za e nezmenny składnk aby wpływać na e dzałane modelue sę edyne dzałane poszczególnych neuronów, w szczególnośc zmenaąc wartośc wag e łączących. Dwe metodologe uczena: nadzorowane (supervsed): algorytm uczący adaptue seć stosowne do wymuszeń zewnętrznych, staraąc sę możlwe werne (t. z ak namneszym błędem) zrealzować zadaną funkcę; nenadzorowane (unsupervsed): neurony ne są "skrępowane" żadnym zewnętrznym kryterum (funkcą błedu), zadanem sec est wykryce pewnego "porządku" w danych podawanych na e weśce (np. - w ednym z prostszych przypadków - analza skupeń przykładów w przestrzen cech) Z punktu wdzena Uczena Maszynowego: w uczenu nadzorowanym seć "zna" przynależność do klas obektów podawanych na e weśce, w uczenu nenadzorowanym nformaca ta est dla ne nedostępna. Copyrght Jerzy Stefanowsk & Krzysztof Krawec Wyk³ad "Sec Neuronowe Uczene Maszynowe" Instytut Informatyk Poltechnk Poznañske 995 Wyk³. 0 Strona

Nadzorowane uczene poedynczego lnowego neuronu na przykładze reguły delta. Cel: nauczene neuronu możlwe werne realzac pewnego odwzorowana ( x) z F (2.) o naczęśce neznane postac analtyczne, danego w postac zboru uczącego, zaweraącego przykłady w postac par ( ) KN x, z F x, (2.2) Różnca pomędzy oczekwaną wartoścą wyśca neuronu z a wartoścą otrzymaną y stanow błąd popełnony przez neuron przy prezentac -tego przykładu z y (2.3) δ Zadanem algorytmu uczącego est mnmalzaca tego błędu dla wszystkch przykładów zboru uczącego. Błędy popełnone przez neuron dla poszczególnych przykładów da sę zagregować w edną welkość przy pomocy błędu średnokwadratowego: N 2 ( ), ( δ ) N Q z y Q Q 2 2 2 (2.4) Copyrght Jerzy Stefanowsk & Krzysztof Krawec Wyk³ad "Sec Neuronowe Uczene Maszynowe" Instytut Informatyk Poltechnk Poznañske 995 Wyk³. 0 Strona 2

Metoda (nawększego) spadku gradentu Posługuąc sę metodą nawększego spadku gradentu (ang. gradent descent) dostaemy zależność pomędzy modyfkacą -te wag neuronu a zmaną wartośc błędu przezeń popełnanego przy prezentac -tego przykładu: w Q η w (2.5) Q η Q w Copyrght Jerzy Stefanowsk & Krzysztof Krawec Wyk³ad "Sec Neuronowe Uczene Maszynowe" Instytut Informatyk Poltechnk Poznañske 995 Wyk³. 0 Strona 3

Funkca Q est funkcą złożoną, zatem e pochodną cząstkową po w można przedstawć ako loczyn dwóch pochodnych: (2.6) co da sę dale rozwnąć (patrz wzory 2.3 2.4): ( z y ) δ (2.7) oraz, pamętaąc o lnowym charakterze funkc yf(x): x (2.8) Ostateczne zatem, edną z możlwośc mnmalzac błędu popełnanego przez neuron est modyfkaca ego wag przy prezentac kolenych przykładów zgodna z formułą: w ηδ x (2.9) Jest to tzw. reguła delta (delta rule), zaproponowana w [Wdr60], stanowąca eden z perwszych algorytmów uczących poedynczy neuron. Copyrght Jerzy Stefanowsk & Krzysztof Krawec Wyk³ad "Sec Neuronowe Uczene Maszynowe" Instytut Informatyk Poltechnk Poznañske 995 Wyk³. 0 Strona 4

Wady neuronu lnowego: est w stane skuteczne oddzelć od sebe tylko te klasy, które są lnowo separowalne; nestety, nawet proste problemy rzeczywste do te klasy ne należą, np.: problem różncy symetryczne (XOR); w szczególnośc dla przypadku dwuwymarowego: x x2 yxor(x,x2) 0 0 0 0 0 0 y x 2 x Seć złożona z neuronów lnowych Tworzene sec welowarstwowych z neuronów lnowych ne ma sensu: ne dae żadne nowe akośc; kombnacę dowolne lośc warstwowo połączonych ze sobą neuronów lnowych da sę zastąpć ednym neuronem lnowym: ( e) ( w x ) ( w w x ) y f K w x W zwązku z lcznym ogranczenam neuron lnowy ne znadue welu zastosowań. Bardze obecuące okazały sę neurony z nelnową funkcą aktywac. Copyrght Jerzy Stefanowsk & Krzysztof Krawec Wyk³ad "Sec Neuronowe Uczene Maszynowe" Instytut Informatyk Poltechnk Poznañske 995 Wyk³. 0 Strona 5

Neuron nelnowy Funkca przenosząca neuronu zwana est często w tym przypadku funkcą "ścskaącą" (squeezng functon), ako że e zadanem est odwzorować (w ogólnośc neogranczony) zakres możlwych wartośc pobudzena neuronu e w ogranczony przedzał, z reguły [0,] lub [-,]. Naczęśce stosowane funkce aktywac neuronów nelnowych: funkca sgmodalna ( ) f e β - współczynnk stromośc + exp 2β ( e) f(e) 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0. 0-5 -4-3 -2-0 2 3 4 5 e tangens hperbolczny ( ) tanh( β e) f e funkca progowa (skoku ednostkowego) f ( e), 0, dla e Θ dla e < Θ Copyrght Jerzy Stefanowsk & Krzysztof Krawec Wyk³ad "Sec Neuronowe Uczene Maszynowe" Instytut Informatyk Poltechnk Poznañske 995 Wyk³. 0 Strona 6

Uczene poedynczego nelnowego neuronu Podobne ak w przypadku neuronu lnowego możemy wykorzystać metodę nawększego spadku gradentu (wzór (2.5)): w Q η w (2.0) Pochodną błędu popełnanego przez neuron da sę przedstawć ako loczyn dwóch pochodnych: (2.) Wartość perwszego czynnka pozostae bez zman w porównanu ze wzorem (2.7): δ (2.2) Natomast prawy wyraz zmen postać, z rac nelnowośc funkc aktywac; w ogólnośc: e e (2.3) Oczywśce: e x (2.4) Copyrght Jerzy Stefanowsk & Krzysztof Krawec Wyk³ad "Sec Neuronowe Uczene Maszynowe" Instytut Informatyk Poltechnk Poznañske 995 Wyk³. 0 Strona 7

y e natomast postać pochodne zależy od zastosowane funkc aktywac. Copyrght Jerzy Stefanowsk & Krzysztof Krawec Wyk³ad "Sec Neuronowe Uczene Maszynowe" Instytut Informatyk Poltechnk Poznañske 995 Wyk³. 0 Strona 8

Zaletą stosowana funkc sgmodalne est dogodna postać e pochodne ( e) f ( e) ( f ( e) ) f (2.5) Jak wdać, da sę ą wyrazć przy pomocy wartośc funkc aktywac - upraszcza to znaczne oblczena (podobne est w przypadku tangensa hperbolcznego). W takm przypadku e ( y ) y (2.6) Co ostateczne prowadz do następuące formuły określaące wartość modyfkac -te wag w x y ( y ) ηδ (2.7) Copyrght Jerzy Stefanowsk & Krzysztof Krawec Wyk³ad "Sec Neuronowe Uczene Maszynowe" Instytut Informatyk Poltechnk Poznañske 995 Wyk³. 0 Strona 9

Analza formuły defnuące modyfkacę wag Formuła (2.7) ηδ w x y ( y ) mów, że poprawka -te wag est proporconalna przez współczynnk prędkośc uczena η do: δ - błędu popełnanego przez neuron; neuron ne popełnaący żadnego błędu ne będze ulegał modyfkacom x - sygnału podawanego na -te weśce neuronu; synapsę "obarcza sę wną" za błędne dzałane neuronu w takm stopnu, w akm przyczynła sę do ego pobudzena y ( y ) - pochodne funkc aktywac; w przypadku funkc sgmodalne ma ona następuący kształt: f'(e) f(e) 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0. 0-5 -4-3 -2-0 2 3 4 5 e W konsekwenc poprawk dokonywane przez formułę są slnesze, gdy tzw. punkt pracy neuronu znadue sę blsko punktu przegęca funkc f(e), t. gdy e Θ. Copyrght Jerzy Stefanowsk & Krzysztof Krawec Wyk³ad "Sec Neuronowe Uczene Maszynowe" Instytut Informatyk Poltechnk Poznañske 995 Wyk³. 0 Strona 0