Sztuczna inteligencja

Podobne dokumenty
Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

2.4. Algorytmy uczenia sieci neuronowych

wiedzy Sieci neuronowe

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Podstawy Sztucznej Inteligencji (PSZT)

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

Sztuczne sieci neuronowe

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

Lekcja 5: Sieć Kohonena i sieć ART

8. Neuron z ciągłą funkcją aktywacji.

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010

Uczenie sieci typu MLP

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Sztuczne sieci neuronowe (SNN)

Widzenie komputerowe

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

Metody Sztucznej Inteligencji II

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5

Wstęp do sztucznych sieci neuronowych

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Zastosowania sieci neuronowych

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

SIECI KOHONENA UCZENIE BEZ NAUCZYCIELA JOANNA GRABSKA-CHRZĄSTOWSKA

Inteligentne systemy przeciw atakom sieciowym

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

Podstawy sztucznej inteligencji

MODELOWANIE RZECZYWISTOŚCI

Obliczenia Naturalne - Sztuczne sieci neuronowe

Obliczenia inteligentne Zadanie 4

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Uczenie sieci neuronowych i bayesowskich

Elementy inteligencji obliczeniowej

Sieć przesyłająca żetony CP (counter propagation)

Monitorowanie i Diagnostyka w Systemach Sterowania

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

6. Perceptron Rosenblatta

METODY INŻYNIERII WIEDZY

OCENA DZIAŁANIA AE. METODY HEURYSTYCZNE wykład 4 LOSOWOŚĆ W AE KRZYWE ZBIEŻNOŚCI ANALIZA STATYSTYCZNA:

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

Sztuczne sieci neuronowe. Uczenie, zastosowania

Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe. Krzysztof Regulski, WIMiIP, KISiM, B5, pok. 408

Temat: Sieci neuronowe oraz technologia CUDA

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści

Optymalizacja ciągła

I EKSPLORACJA DANYCH

1. Logika, funkcje logiczne, preceptron.

SIECI REKURENCYJNE SIECI HOPFIELDA

Zastosowania sieci neuronowych

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron

Wstęp do sieci neuronowych, wykład 8 Samoorganizacja topologiczna, analiza składowych głównych.

SZTUCZNA INTELIGENCJA

Definicja perceptronu wielowarstwowego

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2013/2014

Co to jest grupowanie

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

Sztuczne sieci neuronowe

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.

Wstęp do teorii sztucznej inteligencji

Wprowadzenie. SOM jest skrótem od Self Organizing Maps, czyli Samoorganizujące się mapy.

SZTUCZNE SIECI NEURONOWE

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Sieci neuronowe w Statistica

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I.

Politechnika Lubelska

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Wstęp do teorii sztucznej inteligencji

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Metody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF.

wiedzy Sieci neuronowe (c.d.)

METODY INTELIGENCJI OBLICZENIOWEJ wykład 4

SZTUCZNE SIECI NEURONOWE

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2014/2015

DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

ELEMENTY SZTUCZNEJ INTELIGENCJI. Sztuczne sieci neuronowe

SIECI RBF (RADIAL BASIS FUNCTIONS)

Wykład 2. Model Neuronu McCulocha-Pittsa Perceptron Liniowe Sieci Neuronowe

Sztuczne siei neuronowe - wprowadzenie

Emergentne właściwości. sztucznych sieci neuronowych

Sieci Neuronowe - Rok III - kierunek IS w IFAiIS UJ 2008/2009. Sieci Neuronowe. Wykład 8 Sieci rezonansowe

1. W jaki sposób radzimy sobie z problemem zatrzymywania się w lokalnym minimum błędu podczas procesu uczenia?

Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie

Transkrypt:

Sztuczna inteligencja Wykład 7. Architektury sztucznych sieci neuronowych. Metody uczenia sieci. źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996

Podstawowe architektury sieci neuronowych istnieją róŝne sposoby łączenia neuronów ze sobą i ich współdziałania istnieją róŝne sposoby doboru wag połączeń Sieć jednokierunkowa jednowarstwowa - neurony ułoŝone w jednej warstwie - w węzłach wejściowych nie zachodzi Ŝaden proces obliczeniowy, nie tworzą więc warstwy neuronów - przepływ sygnałów jednokierunkowy: od warstwy wejściowej do wyjściowej - najczęściej pełne połączenia (kaŝdy węzeł z kaŝdym neuronem) - nazwa sieci określona przez sposób doboru wag oraz wybór metody uczenia (np. perceptron jednowarstwowy, sieć Kohonena itp.)

Sieć jednokierunkowa wielowarstwowa (na rysunku: sieć dwuwarstwowa) - co najmniej jedna warstwa ukryta neuronów - pełne połączenia między warstwami (choć nie zawsze tzw. połączenia lokalne lub częściowe) - sygnały wejściowe podawane są na pierwszą warstwę ukrytą neuronów, a te z kolei stanowią sygnały źródłowe dla warstwy kolejnej - często uŝywa się nazwy: perceptron wielowarstwowy - często uŝywa się sigmoidalnych funkcji aktywacji:

Sieci rekurencyjne - występuje sprzęŝenie zwrotne między warstwami wyjściowymi a wejściowymi - na rysunku: sieć jednowarstwowa, w której sygnały wyjściowe neuronów tworzą jednocześnie wektor wejściowy sieci dla kolejnego cyklu - jest to tzw. sieć Hopfielda, w której nie występuje sprzęŝenie neuronu od własnego sygnału wyjściowego - z -1 : tzw. jednostkowy operator opóźnienia

- na rysunku: sieć rekurencyjna z ukrytą warstwą neuronów - sygnały wejściowe: neurony x 1... x N - neurony numerowane od 1 do M stanowią warstwę wyjściową - warstwa ukryta: neurony od 1 do K - sygnały warstwy wyjściowej i ukrytej neuronów (łącznie z ew. neuronami wejściowymi) stanowią wektor wejściowy sieci dla kolejnego cyklu obliczeniowego Proces ustalania się sygnałów wyjściowych jest w przypadku sieci rekurencyjnych procesem dynamicznym.

Podstawowe metody uczenia sieci neuronowych zdolność adaptacyjna waŝna właściwość sieci neuronowych celem procesu uczenia jest dobór wag połączeń, aby jak najlepiej odwzorować dane wejściowe w wyjściowe dla danego problemu proces iteracyjny: k numer cyklu W ij (k) stara waga synaptyczna W ij (k+1) nowa waga synaptyczna, łącząca neuron j-ty z i-tym. Uczenie pod nadzorem (z nauczycielem) uczenie kontrolowane jest przez zewnętrznego nauczyciela sygnałom uczącym towarzyszą wartości Ŝądane na wyjściu sieci

KaŜdemu wektorowi wejściowemu towarzyszy zadany wektor wyjściowy Dane uczące podawane są w postaci par, dla k = 1, 2,..., p, gdzie p jest liczbą wzorców uczących. JeŜeli wektorowi wejściowemu x(k) odpowiada Ŝądana postać wektora wyjściowego d(k) sieci oraz uzyskane wyjście y(k), to moŝemy zdefiniować funkcję błędu dla kaŝdej pary uczącej:

Cel uczenia: zminimalizowanie funkcji błędu Najczęstsza postać funkcji błędu (błąd średni kwadratowy): określana dla wszystkich M neuronów wyjściowych i par uczących p. Minimalizacja funkcji: najczęściej gradientowe metody optymalizacji, w których zmiana wag odbywa się pod wpływem gradientu funkcji celu: Najczęściej stosuje się tzw. metodę największego spadku, w której współczynnik uczenia. ZałoŜenie: funkcja aktywacji jest ciągła. reguła delta: uaktualnianie wag kaŝdorazowo po prezentacji jednej pary uczącej skumulowana reguła delta: uaktualnianie wag po prezentacji wszystkich par uczących

Dla nieciągłych funkcji aktywacji (np. funkcja skokowa): reguła perceptronu oraz reguła Widrowa-Hoffa. Wykorzystują one jedynie informacje o aktualnej wartości wyjścia i wartości Ŝądanej. Reguła perceptronu Przy zadanych wstępnie wartościach wag W ij oraz W i0, prezentuje się na wejściu wektor uczący x i oblicza wartość sygnału wyjściowego y i. Aktualizacja wag w wyniku porównania wartości y i z wartością Ŝądaną d i : jeŝeli y i = d i, to wagi pozostają nie zmienione jeŝeli y i = 0 a d i = 1, to W ij (k+1) = W ij (k) + x j oraz W i0 (k+1) = W i0 (k) +1 jeŝeli y i = 1 a d i = 0, to W ij (k+1) = W ij (k) - x j oraz W i0 (k+1) = W i0 (k) -1 Reguła Widrowa-Hoffa Dobór wag dla neuronu dowolnego typu: (przy wartościach binarnych, reguła ta przechodzi w regułę perceptronu)

Uczenie z krytykiem (inaczej: ze wzmocnieniem) - nie mamy informacji o wartościach Ŝądanych na wyjściu, a jedynie informację, czy dana akcja (np. zmiana wag) dała wynik poŝądany (wynik pozytywny) czy teŝ nie (negatywny) - jeŝeli działanie podjęte przez układ uczący dało wynik pozytywny, następuje wzmocnienie tendencji do właściwego zachowania się systemu w podobnych sytuacjach w przyszłości - w przypadku wyniku negatywnego, następuje osłabienie tendencji Krytyk, na podstawie aktualnego stanu środowiska i predykcji co do jego przyszłych zmian (wypracowanej na podstawie aktualnej wiedzy), przekazuje sygnał sterujący umoŝliwiający podjęcie odpowiedniej akcji, wpływającej na stan środowiska. Układ z opóźnieniem: sygnał sterujący określany jest na podstawie stanu środowiska w chwilach poprzednich

Wskaźnik jakości uczenia: E operator wartości oczekiwanej γ wpływa na zakres zmian poprzednich akcji uwzględnianych w sterowaniu; przybiera wartości z przedziału [0,1]; jeŝeli γ=0, to w sterowaniu uwzględniany jest jedynie sygnał początkowy (wynik pierwszej akcji) Układ z opóźnieniem: sygnał sterujący określany jest na podstawie stanu środowiska w chwilach poprzednich Sygnał sterujący: Dobór wag: η współczynnik uczenia, λ współczynnik zapominania (z przedziału [0,1]). uśredniony parametr dopasowania (wzór rekurencyjny),

Uczenie samoorganizujące się typu Hebba waga powiązań między dwoma neuronami wzrasta przy jednoczesnym stanie pobudzenia obu tych neuronów, w przeciwnym przypadku maleje (wniosek z obserwacji neurobiologicznych) Model neuronu: Zmiana wag: F funkcja stanu sygnału wejściowego x j (presynaptycznego) oraz wyjściowego y i (postsynaptycznego) Uczenie korelacyjne: siła połączenia międzyneuronowego wzrasta przy istnieniu korelacji między sygnałami presynaptycznym i postsynaptycznym

Klasyczne ujęcie Hebba (bez nauczyciela): Z nauczycielem: Wada: przy powtarzającym się identycznym wymuszeniu x j, nastąpi wykładniczy wzrost wag. Wprowadzamy więc współczynnik zapominania γ: Modyfikacja: tzw. uogólniona reguła Oji (dość skomplikowana pomijamy) Uczenie dekorelacyjne (antyhebbowskie) siła połączenia wzrasta, gdy sygnały presynaptyczny i postsynaptyczny są zdekorelowane (jeden pobudzony, drugi zgaszony) jest zawsze stabilne (nie wprowadza nieograniczonej moŝliwości wzrostu wag):

Uczenie samoorganizujące się typu konkurencyjnego neurony współzawodniczą między sobą, aby stać się pobudzonymi tylko jeden neuron moŝe być aktywny, pozostałe są w stanie spoczynkowym (WTA Winner Takes All) grupa neuronów otrzymuje te same sygnały wejściowe x j wstępne wartości wag są losowane sygnały wyjściowe: róŝnią się między sobą (bo wagi są róŝne) zwycięŝa neuron o największej wartości u i (przyjmuje na wyjściu stan 1, pozostałe 0) nie wymaga nauczyciela Procedura: podajemy pierwszy wektor x wyłaniamy zwycięzcę, który przyjmuje stan 1 i dokonujemy aktualizacji jego wag pozostałym, przegranym neuronom (stan 0) wag nie aktualizujemy

Aktualizacja wag (tzw. reguła Kohonena): Wagi oraz wektory wejściowe powinny być znormalizowane: PoniewaŜ wektory są unormowane, decyduje róŝnica kątowa (zwycięŝa neuron o wektorze wag najbliŝszym aktualnemu wektorowi wejściowemu) W wyniku zwycięstwa neuronu, następuje adaptacja zbliŝenie jego wag do danego wektora x. Zatem przy podaniu na wejście wielu podobnych wektorów, zawsze będzie zwycięŝał ten sam neuron, czyli jego wagi będą odpowiadać uśrednionym wagom wektorów wejściowych. Efekt: samoorganizacja procesu uczenia neurony dopasowują swoje wagi do grup wektorów wejściowych, tak, Ŝe dla kaŝdej grupy zawsze zwycięŝa ten sam neuron (czyli rozpoznają swoją kategorię). Najczęstsze zastosowania klasyfikacja wektorów.

Przykład Wektory wejściowe:

Przebieg procesu uczenia: Kółka kolejne połoŝenia wektorów wag dla neuronów zwycięŝających Linie wektory wejściowe Jak widać, zwycięŝały jedynie trzy neurony, jeden pozostał martwy (nie dopasował się do Ŝadnej kategorii wektora wejściowego) Wagi po kilkuset cyklach uczenia: Odzwierciedlają one trzy kategorie wektorów wejściowych: (x 1, x 2 ), (x 3, x 4, x 5 ), (x 6, x 7, x 8 ), na które został podzielony (samoczynnie przez sieć) zbiór wejściowy.

Odmiana: WTM (Winner Takes Most) neuron wygrywający przyjmuje stan 1 neurony z nim sąsiadujące otrzymują częściowe pobudzenie Wieloboki Voronoia ilustracja podziału obszaru danych na strefy wpływów poszczególnych neuronów punkt centralny W c (wektor Voronoia) określony jest przez wagi neuronu zwycięŝającego KaŜdy wielobok zawiera obszar najbliŝszy w sensie określonej metryki zbiór punktów centralnych to tzw. ksiąŝka kodowa obszary przyciągania to tzw. słowa kodowe

Adaptacyjne kwantowanie wektorowe samoorganizacja proces przypisania kaŝdej wartości wektora wejściowego x do odpowiedniej klasy C kolejny wektor x porównujemy z wektorami W c jeŝeli klasa, do której przynaleŝy wektor x jest zgodna z klasą zwycięskiego wektora W c, to W c jest przesuwany w stronę x w przeciwnym wypadku jest odsuwany Niech W cj (j = 1,..., n) zbiór wektorów Voronoia; x i (i=1,..., p) zbiór wektorów wejściowych. Algorytm: 1. prezentujemy kolejny (k+1)-wszy, losowy wektor x i 2. określamy najbliŝszy mu wektor W c (pod względem metryki) 3. Porównujemy klasę C xi przypisaną wektorowi x i z klasą C Wc zwycięskiego wektora Voronoia jeŝeli równe, to jeŝeli róŝne, to α k współczynniki uczenia z przedziału (0,1); maleją do zera z kolejną iteracją 4. Pozostałych wektorów nie modyfikujemy