Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Podobne dokumenty
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

wiedzy Sieci neuronowe

Uczenie sieci typu MLP

Elementy inteligencji obliczeniowej

Sztuczne sieci neuronowe

8. Neuron z ciągłą funkcją aktywacji.

Optymalizacja ciągła

Metody Sztucznej Inteligencji II

Uczenie sieci radialnych (RBF)

Widzenie komputerowe

Podstawy Sztucznej Inteligencji (PSZT)

Zastosowania sieci neuronowych

wiedzy Sieci neuronowe (c.d.)

Lekcja 5: Sieć Kohonena i sieć ART

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Inteligentne systemy przeciw atakom sieciowym

1. Logika, funkcje logiczne, preceptron.

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Sztuczna inteligencja

Podstawy sztucznej inteligencji

Uczenie Wielowarstwowych Sieci Neuronów o

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Sztuczne sieci neuronowe (SNN)

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Sieć przesyłająca żetony CP (counter propagation)

Uczenie sieci neuronowych i bayesowskich

Zrealizować sieć neuronową (learnbpm) uczącą się odwzorowania z = x 2 + y 2 dla x i y zmieniających się od -1 do 1.

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

Definicja perceptronu wielowarstwowego

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

I EKSPLORACJA DANYCH

Sztuczne sieci neuronowe

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5

Projekt Sieci neuronowe

Optymalizacja optymalizacji

Sieci neuronowe w Statistica

Temat: Sieci neuronowe oraz technologia CUDA

Co to jest grupowanie

Algorytmy wstecznej propagacji sieci neuronowych

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2013/2014

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

KADD Minimalizacja funkcji

Zastosowania sieci neuronowych

2.4. Algorytmy uczenia sieci neuronowych

Wstęp do sztucznych sieci neuronowych

Metody klasyfikacji i rozpoznawania wzorców. Najważniejsze rodzaje klasyfikatorów

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Elementy kognitywistyki III: Modele i architektury poznawcze

Podstawy Sztucznej Inteligencji

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD XI: Sztuczne sieci neuronowe

Seminarium magisterskie. Dyskusja nad tematem pracy magisterskiej pisanej pod kierunkiem pani Dr hab. Małgorzaty Doman

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

METODY INŻYNIERII WIEDZY

Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe. Krzysztof Regulski, WIMiIP, KISiM, B5, pok. 408

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

SID Wykład 8 Sieci neuronowe

METODY SZTUCZNEJ INTELIGENCJI 2 Opis projektu

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Sztuczne sieci neuronowe. Uczenie, zastosowania

6. Inteligentne systemy decyzyjne w technice fonicznej

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Sztuczne siei neuronowe - wprowadzenie

Podstawy sztucznej inteligencji

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.

Wprowadzenie do Sieci Neuronowych Laboratorium 05 Algorytm wstecznej propagacji błędu

ALGORYTMY SZTUCZNEJ INTELIGENCJI

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.

MATLAB Neural Network Toolbox uczenie sieci (dogłębnie)

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.

Wstęp do głębokich sieci neuronowych. Paweł Morawiecki IPI PAN

PRÓBA ZASTOSOWANIA SIECI NEURONOWYCH DO PROGNOZOWANIA OSIADAŃ POWIERZCHNI TERENU POWSTAŁYCH NA SKUTEK EKSPLOATACJI GÓRNICZEJ**

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

Sztuczne Sieci Neuronowe

SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU)

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE

WYKŁAD 9 METODY ZMIENNEJ METRYKI

Systemy Inteligentnego Przetwarzania wykład 7: Sieci RBF

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010

Emergentne właściwości. sztucznych sieci neuronowych

Przetwarzanie i transmisja danych multimedialnych. Wykład 7 Transformaty i kodowanie. Przemysław Sękalski.

KADD Minimalizacja funkcji

Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych

sieci jednowarstwowe w MATLABie LABORKA Piotr Ciskowski

Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji

Transkrypt:

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska

Model matematyczny sztucznego neuronu Wartość wyjściowa neuronu o jest określana w oparciu o wzór: o=f(net), gdzie: w wektor wag połączeń wejściowych x wektor wartości sygnałów wejściowych f funkcja aktywacji net=w T x Dodatkową wagą jest waga progowa, dlatego wektory w i x określone są jako: w=[w 1,w 2,...,w n,w n+1 ], x=[x 1,x 2,...,x n,-1]

Topologia sieci jednokierunkowej - sieci jednokierunkowe x=[x 1,x 2,...,x N,-1] wektor wejściowy y=[y 1,y 2,...,y I,-1] wektor wyjściowy pierwszej warstwy ukrytej z=[z 1,z 2,...,z J,-1] wektor wyjściowy drugiej warstwy ukrytej o=[o 1,o 2,...,o K,-1] wektor wyjściowy Macierze U,V,W zawierają Współczynniki wagowe dla wszystkich Połączeń synaptycznych

Metoda treningu sieci trening z nadzorem jednokierunkowej

Reguła a delta Rozważmy jednokierunkową sieć neuronową składaj adającą się z dwóch warstw: ukrytej, zawierającej J neuronów oraz wyjściowej, zawierającej K neuronów x = [x 1,..., x I-1, -1] T y = [y 1,..., y J-1, -1] T o = [o 1,..., o K ] T macierze wag warstw: wektory pochodnych funkcji aktywacji: f y = [f 1 (net 1 ), f 2 (net 2 ),..., f J (net J )] T f o = [f 1 (net 1 ), f 2 (net 2 ),..., f K (net J )] T

Reguła a delta cd. Metoda uczenia jest metodą nadzorowaną,, dlatego można określi lić miarę między wskazaniem sieci o,, a oczekiwaną odpowiedzią sieci d,, czyli tzw. funkcję błędu. Najczęściej stosuje się odl.średniokwadratową: gdzie p jest liczbą wektorów w zb. uczącym Błąd ten liczony jest dla wszystkich wektorów ze zbioru uczącego błąd skumulowany. Podczas treningu prezentowane są kolejno wektory uczące, wówczas funkcja błędu dla p tego wektora przyjmuje postać:

Reguła a delta cd. W dalszej częś ęści przyjęto, że e rozważania ania dotyczą pojedynczego p-tego wektora ze zbioru uczącego. cego. Niech zdefiniowany zostanie operator: wtedy: Funkcja błędu: przyjmuje postać: - warstwa wyjściowa - warstwa ukryta

Reguła a delta cd. wtedy: gdzie wprowadzono pomocniczy operator: Takie określenie błędu nakłada ograniczenia na postać funkcji aktywacji, która musi być ciągła i różniczkowalna. Reguła DELTA mówi, że aktualizacja macierzy wag V i W następuje wg zależności: gdzie ɳ jest współczynnikiem szybkości treningu.

Reguła a delta cd. W wyniku podstawienia wcześniejszych wyników otrzymujemy: Wagi w kolejnym kroku nauki są równe wagom w poprzednim kroku powiększonym proporcjonalnie do iloczynów wektorów wejściowych warstw i wektorów błędu działania sieci. Minimalizacja funkcji błędu jest oparta o metody gradientowe i nie gwarantuje zbieżności nauki.

Zbieżno ność procesu nauki Możliwo liwość zatrzymania w minimum lokalnym funkcji błędu Możliwo liwość zatrzymania nauki w płaskim p obszarze funkcji błędu przy zbyt małej wartości współczynnika nauki Aby poprawić właściwości nauki stosuje się dodatkowy składnik MOMENTU,, uzależniaj niający przyrost wag od przyrostu wag w poprzednim kroku nauki Po uwzględnieniu składnika momentu, wzory wartości macierzy wag w kroku n+1 wyglądaj dają następuj pująco: składnik momentu

Dodatkowe właściwow ciwości momentu składnik momentu Moment wprowadza do algorytmu element bezwładno adności, który zmniejsza chwilowe i gwałtowne zmiany kierunku wskazywanego przez gradient funkcji błęb łędy Uczenie nie wchodzi w płytkie p minima lokalne Zdolność do znacznego przyspieszania nauki dla płaskich p obszarów w funkcji błęb łędu

Właściwy dobór r współczynnik czynników nauki Właściwy dobór r współczynnik czynników w nauki umożliwia wyjście z minimów w lokalnych funkcji błęb łędu i szybkie osiągni gnięcie wartości bliskich jej minimum globalnego.

Algorytm wstecznej propagacji błęb łędu KROK 1: Inicjalizacja macierzy wag V i W małymi losowyim wartościami z zakresu (-1,1) Ustawianie parametrów nauki sieci: - funkcji aktywacji neuronów (razem z λ) - parametrów nauki -ɳi α KROK 2: Ustawienie wartości błędu skumulowanego na E=0 dla każdego nowego cyklu treningowego KROK 3: Wybór dowolnego wektora ze zbioru uczącego, najlepiej wybór losowy. Ustawienie oczekiwanej odpowiedzi sieci d.

Algorytm wstecznej propagacji błęb łędu KROK 4: Wyznaczanie odpowiedzi warstw sieci y, o (przetwarzanie wektora wejściowego przez sieć) KROK 5: Obliczanie sygnałów błędów dla kolejnych warstw KROK 6: Obliczanie nowych wartości wag, z uwzględnieniem momentu lub bez (w zależności od wyboru) KROK 7: Obliczana jest wartość funkcji błędu dla wektora x. Wartość ta dodawana jest do wartości błędu skumulowanego E.

Algorytm wstecznej propagacji błęb łędu KROK 8: Jeśli wektor x nie jest ostatnim wykorzystywanym wzorcem, to sterowanie wraca do kroku 3. Jeśli wektor x jest ostatnim wektorem uczącym to sterowanie przechodzi kroku 9. KROK 9: Sprawdzany jest warunek czy wartość błędu skumulowanego jest większa od zadanej progowej wartości E MAX. Jeśli tak to trening się zatrzymuje. Jeśli warunek ten nie jest spełniony to następuje kolejny cykl treningowy i powrót do kroku 2.

Właściwości generalizacyjne Sieć można przeuczyć,, gdy algorytm powtarza się w zbyt wielu krokach Sieć przeuczona posiada bardzo dobre właściwow ciwości reagowania na obiekty ze zbioru treningowego ale nie umie sobie dobrze radzić z przykładami spoza zbioru uczącego cego Metoda przeciwdziałania ania sprawdzanie działania ania sieci dla danych walidacyjnych dane treningowe (X,Y) dane walidacyjne (X,Y) Sieć neuronowa obserwacja wartości błędu walidacyjnego

Właściwości generalizacyjne błąd walidacyjny błąd na zbiorze treningowym Kontrola błęb łędu walidacyjnego w każdym kroku nauki uniemożliwia przetrenowanie sieci utrzymuje zdolności generalizacyjne Gdy błąb łąd d walidacyjny rośnie przez pewna założon oną liczbę cyklów w (Epochs( Epochs) ) nauka sieci powinna być przerywana

Właściwości generalizacyjne dane treningowe należące do dwóch kategorii zagadnienie klasyfikacyjne? 0? sieć przetrenowana sieć z zachowanymi właściwościami general.