Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Podobne dokumenty
Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Sztuczne sieci neuronowe

Plan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty)

Problem plecakowy (KNAPSACK PROBLEM).

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Podstawy teorii falek (Wavelets)

Neural networks. Krótka historia rozpoznawanie znaków alfanumerycznych.

Zarządzanie ryzykiem w przedsiębiorstwie i jego wpływ na analizę opłacalności przedsięwzięć inwestycyjnych

SZTUCZNA INTELIGENCJA

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych

SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW

Sieci Neuronowe 1 Michał Bereta

Systemy Inteligentnego Przetwarzania wykład 3: sieci rekurencyjne, sieci samoorganizujące się

Wykład 1 Zagadnienie brzegowe liniowej teorii sprężystości. Metody rozwiązywania, metody wytrzymałości materiałów. Zestawienie wzorów i określeń.

Plan wykładu: Typowe dane. Jednoczynnikowa Analiza wariancji. Zasada: porównać zmienność pomiędzy i wewnątrz grup

u u u( x) u, x METODA RÓŻNIC SKOŃCZONYCH, METODA ELEMENTÓW BRZEGOWYCH i METODA ELEMENTÓW SKOŃCZONYCH

wiedzy Sieci neuronowe (c.d.)

Stanisław Cichocki. Natalia Nehrebecka. Wykład 7

Elementy inteligencji obliczeniowej

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych

ZASTOSOWANIE KLASYCZNEGO ALGORYTMU GENETYCZNEGO DO ROZWIĄZANIA ZBILANSOWANEGO ZAGADNIENIA TRANSPORTOWEGO

Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu

Metody Sztucznej Inteligencji II

n liczba zmiennych decyzyjnych c współczynniki funkcji celu a współczynniki przy zmienych decyzyjnych w warunkach

ANALIZA PREFERENCJI SŁUCHACZY UNIWERSYTETU TRZECIEGO WIEKU Z WYKORZYSTANIEM WYBRANYCH METOD NIESYMETRYCZNEGO SKALOWANIA WIELOWYMIAROWEGO

Modele wieloczynnikowe. Modele wieloczynnikowe. Modele wieloczynnikowe ogólne. α β β β ε. Analiza i Zarządzanie Portfelem cz. 4.

EKONOMETRIA I Spotkanie 1, dn

7. Wykład VII: Warunki Kuhna-Tuckera

TRANZYSTOR BIPOLARNY CHARAKTERYSTYKI STATYCZNE

Badania operacyjne w logistyce i zarządzaniu produkcją

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

AUTOMATYKA I STEROWANIE W CHŁODNICTWIE, KLIMATYZACJI I OGRZEWNICTWIE L3 STEROWANIE INWERTEROWYM URZĄDZENIEM CHŁODNICZYM W TRYBIE PD ORAZ PID

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB

± Δ. Podstawowe pojęcia procesu pomiarowego. x rzeczywiste. Określenie jakości poznania rzeczywistości

KURS STATYSTYKA. Lekcja 6 Regresja i linie regresji ZADANIE DOMOWE. Strona 1

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Podstawy Sztucznej Inteligencji (PSZT)

Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

) będą niezależnymi zmiennymi losowymi o tym samym rozkładzie normalnym z następującymi parametrami: nieznaną wartością 1 4

Diagonalizacja macierzy kwadratowej

Instrukcja do ćwiczeń laboratoryjnych z przedmiotu: Badania operacyjne. Temat ćwiczenia: Problemy rozkroju materiałowego, zagadnienia dualne

SZTUCZNA INTELIGENCJA

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Przykład 5.1. Kratownica dwukrotnie statycznie niewyznaczalna

Grupowanie. Wprowadzenie. Metody hierarchiczne. Modele mieszane (mixture models) Metody najmniejszych kwadratów. Zastosowania

Sztuczne sieci neuronowe

RÓWNOWAGA STACKELBERGA W GRACH SEKWENCYJNYCH

Neuronowy układ szyfrujący - analiza bezpieczeństwa

I. Elementy analizy matematycznej

Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE

Plan wykładu. Sztuczne sieci neuronowe. Uczenie nienadzorowane (bez nauczyciela) Uczenie nienadzorowane - przykłady

Wielokategorialne systemy uczące się i ich zastosowanie w bioinformatyce. Rafał Grodzicki

Analiza danych. Analiza danych wielowymiarowych. Regresja liniowa. Dyskryminacja liniowa. PARA ZMIENNYCH LOSOWYCH

1. Logika, funkcje logiczne, preceptron.

Nieeuklidesowe sieci neuronowe

Laboratorium ochrony danych

Podstawy sztucznej inteligencji

1.1 Analiza decyzji- tablica decyzyjna, klasyfikacja

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Diagnostyka układów kombinacyjnych

Model ASAD. ceny i płace mogą ulegać zmianom (w odróżnieniu od poprzednio omawianych modeli)


Wprowadzenie do Sieci Neuronowych Sieci rekurencyjne

9. Rozmyte systemy z bazami wiedzy

Inteligentne systemy przeciw atakom sieciowym

Statystyka Opisowa 2014 część 2. Katarzyna Lubnauer

Stanisław Cichocki Natalia Nehrebecka. Zajęcia 4

Metody analizy obwodów

CAŁKOWANIE NUMERYCZNE całki pojedyncze

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Natalia Nehrebecka. Zajęcia 3

Sztuczne sieci neuronowe

Wykład 5. Skręcanie nieskrępowane prętów o przekroju prostokątnym.

Projekt Sieci neuronowe

Wykład IX Optymalizacja i minimalizacja funkcji

Natalia Nehrebecka. Zajęcia 4

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Pattern Classification

wiedzy Sieci neuronowe

Planowanie eksperymentu pomiarowego I

Plan wykładu. Sztuczne sieci neuronowe. Sieci rekurencyjne. Sieci rekurencyjne. Wykład 8: Sieci rekurencyjne: sie Hopfielda. Sieci rekurencyjne

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Poszukiwanie optymalnego wyrównania harmonogramu zatrudnienia metodą analityczną

Sztuczne sieci neuronowe

Analiza danych OGÓLNY SCHEMAT. Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja)

Sieci Neuronowe 2 Michał Bereta

Optymalizacja ciągła

Definicje ogólne

PROSTO O DOPASOWANIU PROSTYCH, CZYLI ANALIZA REGRESJI LINIOWEJ W PRAKTYCE

Matematyka finansowa r. Komisja Egzaminacyjna dla Aktuariuszy. LXVIII Egzamin dla Aktuariuszy z 29 września 2014 r.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Modelowanie i obliczenia techniczne. Metody numeryczne w modelowaniu: Optymalizacja

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Płyny nienewtonowskie i zjawisko tiksotropii

WYZNACZENIE DYSYPACJI KINETYCZNEJ ENERGII TURBULENCJI PRZY UŻYCIU PRAWA -5/3. E c = E k + E p + E w

RUCH OBROTOWY Można opisać ruch obrotowy ze stałym przyspieszeniem ε poprzez analogię do ruchu postępowego jednostajnie zmiennego.

EFEKTYWNE ZARZĄDZANIE MOCĄ FARM WIATROWYCH

Transkrypt:

Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za e nezmenny składnk aby wpływać na e dzałane modelue sę edyne dzałane poszczególnych neuronów, w szczególnośc zmenaąc wartośc wag e łączących. Dwe metodologe uczena: - nadzorowane (supervsed): algorytm uczący adaptue seć stosowne do wymuszeń zewnętrznych, staraąc sę możlwe werne (t. z ak namneszym błędem) zrealzować zadaną funkcę; - nenadzorowane (unsupervsed): neurony ne są "skrępowane" żadnym zewnętrznym kryterum (funkcą błedu), zadanem sec est wykryce pewnego "porządku" w danych podawanych na e weśce (np. - w ednym z prostszych przypadków - analza skupeń przykładów w przestrzen cech) Z punktu wdzena Uczena Maszynowego: w uczenu nadzorowanym seć "zna" przynależność do klas obektów podawanych na e weśce, w uczenu nenadzorowanym nformaca ta est dla ne nedostępna.

Nadzorowane uczene poedynczego lnowego neuronu na przykładze reguły delta. Cel: nauczene neuronu możlwe werne realzac pewnego odwzorowana z F x o naczęśce neznane postac analtyczne, danego w postac zboru uczącego, zaweraącego przykłady w postac par x, z F x, N Różnca pomędzy oczekwaną wartoścą wyśca neuronu z a wartoścą otrzymaną y stanow błąd popełnony przez neuron przy prezentac -tego przykładu z y - Zadanem algorytmu uczącego est mnmalzaca tego błędu dla wszystkch przykładów zboru uczącego. Błędy popełnone przez neuron dla poszczególnych przykładów da sę zagregować w edną welkość przy pomocy błędu średnokwadratowego: N N 2 Q z - y Q Q 2 2 2,

Metoda spadku gradentu Posługuąc sę metodą nawększego spadku gradentu (ang. gradent descent) dostaemy zależność pomędzy modyfkacą -te wag neuronu a zmaną wartośc błędu przezeń popełnanego przy prezentac -tego przykładu: w Q - w Q Q w - Q w w

Funkca Q est funkcą złożoną, zatem e pochodną cząstkową po przedstawć ako loczyn dwóch pochodnych: w można Q w Q y y w co da sę dale rozwnąć (patrz wzory 2.3 2.4): Q y - z - y - oraz, pamętaąc o lnowym charakterze funkc y=f(x): y w x Ostateczne zatem, edną z możlwośc mnmalzac błędu popełnanego przez neuron est modyfkaca ego wag przy prezentac kolenych przykładów zgodna z formułą: w x Jest to tzw. reguła delta (delta rule), zaproponowana w [Wdr60], stanowąca eden z perwszych algorytmów uczących poedynczy neuron.

Wady neuronu lnowego: est w stane skuteczne oddzelć od sebe tylko te klasy, które są lnowo separowalne; nestety, nawet proste problemy rzeczywste do te klasy ne należą, np.: problem różncy symetryczne (XOR); w szczególnośc dla przypadku dwuwymarowego: x x2 y=xor(x,x2) 0 0 0 0 0 0 y x 2 x Seć złożona z neuronów lnowych Tworzene sec welowarstwowych z neuronów lnowych ne ma sensu: ne dae żadne nowe akośc; kombnacę dowolne lośc warstwowo połączonych ze sobą neuronów lnowych da sę zastąpć ednym neuronem lnowym: y f e w x w w x wx W zwązku z lcznym ogranczenam neuron lnowy ne znadue welu zastosowań. Bardze obecuące okazały sę neurony z nelnową funkcą aktywac.

Neuron nelnowy Funkca przenosząca neuronu zwana est często w tym przypadku funkcą "ścskaącą" ( squeezng functon ), ako że e zadanem est odwzorować (w ogólnośc neogranczony) zakres możlwych wartośc pobudzena neuronu e w ogranczony przedzał, z reguły [0,] lub [-,]. Naczęśce stosowane funkce aktywac neuronów nelnowych: funkca sgmodalna f e exp - 2e - współczynnk stromośc f(e) 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0. 0-5 -4-3 -2-0 2 3 4 5 e tangens hperbolczny tanh e f e funkca progowa (skoku ednostkowego) f e, 0, dla e dla e

Uczene poedynczego nelnowego neuronu Podobne ak w przypadku neuronu lnowego możemy wykorzystać metodę nawększego spadku gradentu (wzór (2.5)): w Q - w Pochodną błędu popełnanego przez neuron da sę przedstawć ako loczyn dwóch pochodnych: Q w Q y y w Wartość perwszego czynnka pozostae bez zman w porównanu ze wzorem (2.7): Q y - Natomast prawy wyraz zmen postać, z rac nelnowośc funkc aktywac; w ogólnośc: y w y e e w Oczywśce: e w x y natomast postać pochodne zależy od zastosowane funkc aktywac. e

Zaletą stosowana funkc sgmodalne est dogodna postać e pochodne e f e f e f - Jak wdać, da sę ą wyrazć przy pomocy wartośc funkc aktywac - upraszcza to znaczne oblczena (podobne est w przypadku tangensa hperbolcznego). W takm przypadku y e y - y Co ostateczne prowadz do następuące formuły określaące wartość modyfkac -te wag w - x y y

Analza formuły defnuące modyfkacę wag Formuła (2.7) w x y - y mów, że poprawka -te wag est proporconalna przez współczynnk prędkośc uczena do: - błędu popełnanego przez neuron; neuron ne popełnaący żadnego błędu ne będze ulegał modyfkacom x - sygnału podawanego na -te weśce neuronu; synapsę "obarcza sę wną" za błędne dzałane neuronu w takm stopnu, w akm przyczynła sę do ego pobudzena y y - - pochodne funkc aktywac; w przypadku funkc sgmodalne ma ona następuący kształt: f'(e) f(e) 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0. 0-5 -4-3 -2-0 2 3 4 5 W konsekwenc poprawk dokonywane przez formułę są slnesze, gdy tzw. punkt pracy neuronu znadue sę blsko punktu przegęca funkc f(e). e