SZTUCZNA INTELIGENCJA

Podobne dokumenty
Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Plan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty)

Sztuczne sieci neuronowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

wiedzy Sieci neuronowe (c.d.)

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

SYSTEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE METODY KLASYFIKACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB

SZTUCZNA INTELIGENCJA

x 1 x 2 x 3 x n w 1 w 2 Σ w 3 w n x 1 x 2 x 1 XOR x (x A, y A ) y A x A

Uczenie sieci typu MLP

Elementy inteligencji obliczeniowej

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych

Rachunek prawdopodobieństwa i statystyka W 11: Analizy zależnościpomiędzy zmiennymi losowymi Model regresji wielokrotnej

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Natalia Nehrebecka. Wykład 2

SZTUCZNA INTELIGENCJA

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

STATYSTYKA MATEMATYCZNA

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Podstawy teorii falek (Wavelets)

WYZNACZENIE ODKSZTAŁCEŃ, PRZEMIESZCZEŃ I NAPRĘŻEŃ W ŁAWACH FUNDAMENTOWYCH NA PODŁOŻU GRUNTOWYM O KSZTAŁCIE WYPUKŁYM

Plan wyk y ł k adu Mózg ludzki a komputer Komputer Mózg Jednostki obliczeniowe Jednostki pami Czas operacji Czas transmisji Liczba aktywacji/s

Analiza danych OGÓLNY SCHEMAT. Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja)

Stanisław Cichocki. Natalia Nehrebecka. Wykład 7

Współczynnik korelacji liniowej oraz funkcja regresji liniowej dwóch zmiennych

Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu

Widzenie komputerowe

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Zastosowania sieci neuronowych

Sztuczne sieci neuronowe

RACHUNEK NIEPEWNOŚCI POMIARU

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Sztuczne sieci neuronowe

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Uczenie sieci neuronowych i bayesowskich

ZESTAW ZADAŃ Z INFORMATYKI

Neural networks. Krótka historia rozpoznawanie znaków alfanumerycznych.

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania

p Z(G). (G : Z({x i })),

Prognozowanie i symulacje

Systemy Inteligentnego Przetwarzania wykład 3: sieci rekurencyjne, sieci samoorganizujące się

Projekt Sieci neuronowe

termodynamika fenomenologiczna p, VT V, teoria kinetyczno-molekularna <v 2 > termodynamika statystyczna n(v) to jest długi czas, zachodzi

Optymalizacja ciągła

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Podstawy Sztucznej Inteligencji (PSZT)

sieci jednowarstwowe w MATLABie LABORKA Piotr Ciskowski

METODY INŻYNIERII WIEDZY

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

WikiWS For Business Sharks

; -1 x 1 spełnia powyższe warunki. Ale

Uczenie Wielowarstwowych Sieci Neuronów o

f x f y f, jest 4, mianowicie f = f xx f xy f yx

Metody Sztucznej Inteligencji II

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5

Programowanie nieliniowe optymalizacja funkcji wielu zmiennych

Prawdopodobieństwo i statystyka r.

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

; -1 x 1 spełnia powyższe warunki. Ale

1. Logika, funkcje logiczne, preceptron.

Podstawy Sztucznej Inteligencji

Stanisław Cichocki. Natalia Nehrebecka. Wykład 7

Sortowanie szybkie Quick Sort

W praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np.

Kompresja fraktalna obrazów. obraz. 1. Kopiarka wielokrotnie redukująca 1.1. Zasada działania ania najprostszej kopiarki

Wielokategorialne systemy uczące się i ich zastosowanie w bioinformatyce. Rafał Grodzicki

Przykład 5.1. Kratownica dwukrotnie statycznie niewyznaczalna

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.

) będą niezależnymi zmiennymi losowymi o tym samym rozkładzie normalnym z następującymi parametrami: nieznaną wartością 1 4

Analiza danych. Analiza danych wielowymiarowych. Regresja liniowa. Dyskryminacja liniowa. PARA ZMIENNYCH LOSOWYCH

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.

u u u( x) u, x METODA RÓŻNIC SKOŃCZONYCH, METODA ELEMENTÓW BRZEGOWYCH i METODA ELEMENTÓW SKOŃCZONYCH

Problemy jednoczesnego testowania wielu hipotez statystycznych i ich zastosowania w analizie mikromacierzy DNA

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW

Przedziały ufności i testy parametrów. Przedziały ufności dla średniej odpowiedzi. Interwały prognoz (dla przyszłych obserwacji)

wiedzy Sieci neuronowe

Temat: Sieci neuronowe oraz technologia CUDA


Podstawy sztucznej inteligencji

METODY KOMPUTEROWE 10

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

MODELOWANIE NEURONALNE ROZWOJU SYSTEMU ELEKTROENERGETYCZNEGO. CZĘŚĆ 2. MODELE SYSTEMU IEEE RTS

MODELOWANIE UKŁADÓW MECHANICZNYCH Z NIEPEWNYMI PARAMETRAMI

METODY KOMPUTEROWE 1

12. FUNKCJE WIELU ZMIENNYCH. z = x + y jest R 2, natomiast jej

Sieci Neuronowe 1 Michał Bereta

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

max Wydział Elektroniki studia I st. Elektronika III r. EZI Technika optymalizacji Dr inż. Ewa Szlachcic

Badania sondażowe. Braki danych Konstrukcja wag. Agnieszka Zięba. Zakład Badań Marketingowych Instytut Statystyki i Demografii Szkoła Główna Handlowa

SZTUCZNA INTELIGENCJA

Interpolacja. Układ. x exp. = y 1. = y 2. = y n

Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba

Teoria i praktyka. Wyższa Szkoła Turystyki i Ekologii. Fizyka. WSTiE Sucha Beskidzka Fizyka

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

Natalia Nehrebecka. Zajęcia 3

Transkrypt:

SZTUCZNA INTELIGENCJA WYKŁAD 5. SZTUCZNE SIECI NEURONOWE REGRESJA Częstochowa 4 Dr hab. nż. Grzegorz Dudek Wdzał Elektrczn Poltechnka Częstochowska

PROBLEM APROKSYMACJI FUNKCJI Aproksmaca funkc przblżane funkc, polegaące na wznaczanu dla dane funkc f() take funkc h(), która w określonm sense nalepe ą przblża. Przblżene w tm wpadku rozumane est ako mnmalzaca pewne funkc błędu. Często marą błędu est średn błąd kwadratow. Tpowe zadane aproksmac dan est zbór punktów (np. pomarowch) 7 Zakładam postać funkc aproksmuące, np. funkcę lnową: h ( ) a + b gdze a b to współcznnk, które należ tak dobrać, ab błąd aproksmac bł ak namnesz. 6 5 4 3 3 4 5 6 7

3 Błąd aproksmac (M oznacza lczbę punktów): ( ) mn ) ( M M e h E W wnku otrzmuem aproksmantę: Reprezentaca grafczna funkc aproksmuące: 3 4 5 6 7 3 4 5 6 7 e PROBLEM APROKSYMACJI FUNKCJI

MODEL NEURONU W przpadku aproksmac funkc welowmarowe, model ma postać: Jest to model neuronu, któr realzue funkcę: n h( ) g w 4

FUNKCJE AKTYWACJI Funkce naczęśce użwane ako funkce aktwac:. sgmodalna unpolarna: g( u) + ep( βu). sgmodalna bpolarna: g( u) lub g( u) tgh( βu) + ep( βu) 3. lnowa: g( u) βu.5 g(u) f(u).5 -.5 - -.5 - -.5 - -.5.5.5 u 5

SIEĆ NEURONOWA Poedncz neuron ma ogranczone zdolnośc aproksmacne. Ab aproksmować bardze złożone funkce łącz sę wele neuronów w seć. Funkce realzowane przez neuron daą po złożenu dobrą aproksmantę. Udowodnono, że seć taka, zwana welowarstwowm perceptronem, może aproksmować dowolną funkcę z dowolne małm błędem. Seć może posadać węce nż edną warstwę ukrtą oraz węce nż eden neuron na wścu. 6

7 Seć uczm na zborze trenngowm (uczącm) złożonm z wektorów weścowch (zmennch nezależnch) skoarzonch z nm wartośc pożądanch odpowedz (zmenna zależna). Seć może meć klka wść, wted mam do cznena z wektorem pożądane odpowedz. Każdą parę nazwam wzorcem uczącm. Uczene przebega teracne:. Na wstępe losuem wag sec doberam parametr uczena sec.. Na weśce sec podaem (prezentuem) -t wektor weścow. Składowe tego wektora są przemnażane przez wag perwsze warstw, następne sumowane przetwarzane przez funkce aktwac neuronów. Na wścu tch neuronów otrzmuem wektor v [v v v m ], którego składowe przemnażane są przez wag druge warstw, sumowane przetwarzane przez funkcę aktwac neuronu w warstwe wścowe. Otrzmuem wśce ŷ. Poneważ wag bł losowe, to co otrzmuem na wścu w perwszm kroku est przpadkowe. Możem wznaczć błąd sec: (),, (), (), (), ) ˆ ( + m k n k k m v w w g w g v w g e UCZENIE SIECI NEURONOWEJ

UCZENIE SIECI NEURONOWEJ Błąd ten służ do korekt wag. 3. W faze wsteczne propagac błędu błąd wędrue od wśca w kerunku weść. Naperw błąd przechodz na drugą stronę neuronu wścowego, wmaga to wznaczene pochodne funkc aktwac tego neuronu. Następne oblcza sę składowe tego błędu wnoszone przez poszczególne weśca neuronu wścowego modfkue sę wag zwązane z tm weścam. Dale sgnał błędu wędruą na drugą stronę neuronów ukrtch wkorzstwane są do adaptac wag zwązanch z weścam tch neuronów. Po adaptac wag błąd dla -tego wzorca uczącego będze mnesz. Szczegółow ops metod wsteczne propagac błędu można znaleźć w [Oso]. 4. Krok 3 powtarzam dla wszstkch wzorców uczącch. Prezentaca wszstkch wzorców ze zboru uczącego nazwa sę epoką. Trenng sec wmaga welu epok uczena. W efekce uczena mnmalzowan est błąd średnokwadratow po wszstkch wzorcach uczącch: E M e mn 8

ALGORYTM WSTECZNEJ PROPAGACJI BŁĘDU Celem est mnmalzaca funkc błędu sec: E m () () m n () e ( ˆ ) g w v + w v g w g k w () k, k + w () v Do znalezena mnmum stosue sę metodę gradentową zwaną metodą nawększego spadku, zgodne z którą przrost wag określa sę wg kerunku uemnego gradentu: w η E(w) gdze w est wektorem wag, η > współcznnkem uczena, a E E E E( w ),,..., () () () w, w, w m est gradentem błędu. E.8.6.4. w - gradent funkc błędu.5.5 w -.5 - -.5 - w - - - w - - 9

ALGORYTM WSTECZNEJ PROPAGACJI BŁĘDU Pochodne cząstkowe funkc błędu względem wag warstw wścwe: m () () () gdze u w v + w v. E w () g( u ( ˆ ) u () () ) v,,,..., m () ( ) g( u ) Wprowadźm oznaczene: δ ( ˆ ), stąd regułę aktualzac wag neuronu wścowego () u można zapsać: () () w ηδ v. Pochodne cząstkowe błędu względem wag warstw ukrte: E w () k, () () ˆ v g( u ) () g( u ) ( ˆ ) ( ˆ ) wk, () k,,..., m; k,,..., n () () v wk, u u () gdze u w n k () k, k.

ALGORYTM WSTECZNEJ PROPAGACJI BŁĘDU () () () ( ) g( u ) () g( u ) () () g( u ) E () Przmuąc oznaczene: δ ( ˆ ) w () k, δ w () k, otrzmue sę δ () () k u u u w wzór na aktualzacę wag neuronów warstw ukrte: () () w k, ηδ Po wznaczenu poprawek dla wag dokonue sę aktualzac wag: w( l + ) w( l) + w Metoda wsteczne propagac błędu wmaga, a b funkce aktwac bł różnczkowalne. Skuteczność metod zależ od kształtu funkc błędu (welomodalność, płaske obszar), punktu startowego wag, długośc kroku (η). Algortm utka w mnmach lokalnch. Istneą nne metod uczena, które w uproszczon sposób wznaczaą kerunek przesunęca wektora wag (algortm: zmenne metrk, Levenberga Marquardta, gradentów sprzężonch). k k,

ALGORYTM WSTECZNEJ PROPAGACJI BŁĘDU Przkładow przebeg błędu ego gradent w kolench epokach Mean Squared Error (mse) Best Tranng Performance s.9853 at epoch 3 - Tran Best 5 5 5 3 3 Epochs gradent.4..8.6.4. Gradent.497, at epoch 3 5 5 5 3 3 Epochs Po nauczenu sec sprawdzam e dzałane na nowm zborze danch zwanm testowm. Błęd wznaczone na tm zborze śwadczą o akośc dzałana sec.

PROBLEMY UCZENIA SIECI W procese uczena musm rozstrzgnąć klka problemów: ak długo seć ma sę uczć le pownno bć neuronów w warstwe ukrte ake pownn bć funkce aktwac neuronów aką metodę uczena wbrać cz w ak sposób wstępne przetworzć dane..8.6 Jeśl trenng est zbt krótk lub/ lczba neuronów zbt mała -. seć będze nedouczona (duże błęd), zbt dług trenng lub/ -.4 zbt duża lczba neuronów skutkue przeuczenem błęd -.6 uzskane na zborze uczącm będą blske, lecz błęd na -.8 - zborze testowm okażą sę duże. - -.5.5.4. 3

PROBLEMY UCZENIA SIECI Seć pownna posadać zdolność uogólnana (generalzac) zdobte wedz na nowe przkład, które ne uczestnczł w procese uczena. Ab wzmocnć tę zdolność w trakce uczena w każde epoce testue sę seć na tzw. zborze waldacnm. Jeśl błąd na tm zborze przestae maleć lub zaczna wzrastać, co oznacza, że seć trac zdolność uogólnana, przerwa sę trenng. Best Valdaton Performance s.3974 at epoch Mean Squared Error (mse) - - Tran Valdaton Test Best 5 5 5 6 Epochs 4

DOPASOWANIE MODELU Output ~.8*Target + 4. Output ~.8*Target + 4.5 5 4 3 5 4 3 Tranng: R.97 Data Ft Y T 3 4 5 Target Test: R.934 Data Ft Y T 3 4 5 Target Output ~.8*Target + 4 Output ~.86*Target + 3 5 4 3 5 4 3 Valdaton: R.9993 Data Ft Y T 3 4 5 Target All: R.956 Data Ft Y T 3 4 5 Target Współcznnk determnac: R M M ( ) ( ) ) gdze wartość średna pożądanch odpowedz (target). R, -,5 - dopasowane nezadowalaące,5 -,6 - dopasowane słabe,6 -,8 - dopasowane zadowalaące,8 -,9 - dopasowane dobre,9 -, - dopasowane bardzo dobre Lczba przpadków 5 Hstogram - Błąd Zero Error 5