SZTUCZNA INTELIGENCJA

Podobne dokumenty
wiedzy Sieci neuronowe (c.d.)

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Lekcja 5: Sieć Kohonena i sieć ART

Zastosowania sieci neuronowych

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

SIECI RBF (RADIAL BASIS FUNCTIONS)

Uczenie sieci radialnych (RBF)

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Sztuczne sieci neuronowe

Podstawy Sztucznej Inteligencji (PSZT)

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

SIECI REKURENCYJNE SIECI HOPFIELDA

Metody Sztucznej Inteligencji II

Sieć przesyłająca żetony CP (counter propagation)

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Sztuczne sieci neuronowe (SNN)

Inteligentne systemy przeciw atakom sieciowym

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

Podstawy sztucznej inteligencji

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

MATLAB Neural Network Toolbox przegląd

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010

Algorytmy sztucznej inteligencji

Sztuczna inteligencja

MODELOWANIE RZECZYWISTOŚCI

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

Sztuczne sieci neuronowe

Wstęp do teorii sztucznej inteligencji

wiedzy Sieci neuronowe

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.

8. Neuron z ciągłą funkcją aktywacji.

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania

Temat: Sieci neuronowe oraz technologia CUDA

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Obliczenia Naturalne - Sztuczne sieci neuronowe

ALGORYTMY SZTUCZNEJ INTELIGENCJI

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

SIECI KOHONENA UCZENIE BEZ NAUCZYCIELA JOANNA GRABSKA-CHRZĄSTOWSKA

x 1 x 2 x 3 x n w 1 w 2 Σ w 3 w n x 1 x 2 x 1 XOR x (x A, y A ) y A x A

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

Obliczenia inteligentne Zadanie 4

Metody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF.

Streszczenie. Słowa kluczowe: modele neuronowe, parametry ciągników rolniczych

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Sieci neuronowe i algorytmy uczenia Czyli co i jak andrzej.rusiecki.staff.iiar.pwr.wroc.pl s.

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

Sieci neuronowe w Statistica

Sieci Neuronowe - Rok III - kierunek IS w IFAiIS UJ 2008/2009. Sieci Neuronowe. Wykład 4 Wariacje na temat propagacji wstecznej Sieci CP

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści

Wykład 1: Wprowadzenie do sieci neuronowych

(Dantzig G. B. (1963))

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Sztuczne siei neuronowe - wprowadzenie

sieci jednowarstwowe w MATLABie LABORKA Piotr Ciskowski

Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I.

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD XI: Sztuczne sieci neuronowe

Wykład 2. Model Neuronu McCulocha-Pittsa Perceptron Liniowe Sieci Neuronowe

Systemy Inteligentnego Przetwarzania wykład 7: Sieci RBF

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Podstawy Sztucznej Inteligencji

ZASTOSOWANIE AUTORSKIEJ METODY WYZNACZANIA WARTOŚCI PARAMETRÓW NOWOCZESNYCH SYSTEMÓW TECHNICZNYCH DO PŁUGÓW I OPRYSKIWACZY POLOWYCH

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

SZTUCZNA INTELIGENCJA

Pattern Classification

PRÓBA ZASTOSOWANIA SIECI NEURONOWYCH DO PROGNOZOWANIA OSIADAŃ POWIERZCHNI TERENU POWSTAŁYCH NA SKUTEK EKSPLOATACJI GÓRNICZEJ**

Elementy kognitywistyki III: Modele i architektury poznawcze

Zastosowania sieci neuronowych

ĆWICZENIE 5: Sztuczne sieci neuronowe

I EKSPLORACJA DANYCH

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sztucznych sieci neuronowych

RAPORT Z PRAKTYKI. Zastosowanie Sztucznych Sieci Neuronowych do wspomagania podejmowania decyzji kupna/sprzedaży na rynku Forex.

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Elementy inteligencji obliczeniowej

Rozpoznawanie twarzy za pomocą sieci neuronowych

FOLIA POMERANAE UNIVERSITATIS TECHNOLOGIAE STETINENSIS Folia Pomer. Univ. Technol. Stetin., Oeconomica 2018, 347(93)4, 57 68

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

METODY INŻYNIERII WIEDZY

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Transkrypt:

SZTUCZNA INTELIGENCJA WYKŁAD 8. SZTUCZNE SIECI NEURONOWE INNE ARCHITEKTURY Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

SIEĆ O RADIALNYCH FUNKCJACH BAZOWYCH (RBF) Funkca aktywaci: G i ( ) ep C i = 2 σ i 2 gdzie:. - norma euklidesowa, C centrum, σ parametr decyduący o szerokości funkci radialne. σ <σ 2 <σ 3 G().5 σ σ 2 σ 3 2 4 C 6 8 Wyście: K + w ig i ( ) i= F( ) = w 2

SIEĆ RBF Sieć RBF uczy się tróetapowo:. ustala się liczbę neuronów w warstwie ukryte oraz dobiera się centra funkci radialnych (np. metodami grupowania danych), 2. wyznacza się szerokości pól recepcynych (σ) każdego neuronu ukrytego (np. ako funkcę odległości między centrami), 3. oblicza się wagi powiązań między warstwą ukrytą i wyściową w = ( G' T G') gdzie G' to macierz odpowiedzi warstwy ukryte na wszystkie wektory uczące, rozszerzona o wiersz edynek, Y macierz pożądanych odpowiedzi dla wszystkich wektorów uczących. G' T Y 3

SIEĆ RBF Aproksymaca funkci wielowarstwowym perceptronem (po lewe) i siecią RBF (po prawe) (a) Wyścia neuronów warstwy ukryte (a) z i.5 -.5 z i.8.6.4.2 (b) - - -.5.5 2 - -.5.5 Weścia do neuronu warstwy wyściowe i odpowiedź sieci (b) 2 z i v i, y - z i v i, y -2 - -.5.5 - - -.5.5 4

SIEĆ GRNN GRNN (Generalized Regression Neural Network) sieć neuronowa realizuąca regresę uogólnioną Liczba neuronów radialnych = liczbie punktów uczących. Odpowiedzi warstwy z neuronami radialnymi przemnażane są przez wartości pożądanych odpowiedzi (G T Y), a wynik L dzielony est przez sumę odpowiedzi neuronów radialnych M. W trakcie treningu ustala się edynie szerokości funkci radialnych σ. Wyście: F( ) N = = N G = G y 5

SIEĆ GMDH GMDH (Group Method of Data Handling) sieć wielomianowa; adaptacyna rozbudowa sieci. Sieć GMDH realizue tzw. wielomian Iwachnienki. Wielomian ten, zaimplementowany w strukturze sieci, ewoluue od postaci elementarne do optymalne poprzez selekcę różnych kombinaci prostych modeli cząstkowych. Modele cząstkowe (realizowane przez neurony) to funkce dwóch zmiennych i i : 2 2 f ( i, ) = a + ai + a2 + ai + a22 + a2 gdzie: i i sygnały weściowe neuronów, a współczynniki. i 6

SIEĆ GMDH Sposób syntezy sieci GMDH: Tworzy się warstwę weściową neuronów; każdy z nich realizue funkcę f( i, ) dla inne kombinaci sygnałów weściowych i,. Dla każdego neuronu określa się współczynniki wielomianu f( i, ) minimalizuące błąd aproksymaci (np. metodą namnieszych kwadratów). Selekca neuronów usuwane są te neurony, dla których obserwue się duży błąd. Analogicznie budue się kolene warstwy, przy czym sygnałami weściowymi do neuronów są sygnały wyściowe z neuronów zoptymalizowane warstwy poprzednie. Proces syntezy sieci GMDH należy przerwać w momencie wzrostu wartości błędu w kolenych warstwach lub gdy błąd ten osiąga zadany próg. Warstwa, w które została osiągnięta satysfakconuąca wartość błędu pełni rolę warstwy wyściowe z ednym neuronem zwycięskim. Neurony z warstwy wyściowe oraz warstw wewnętrznych, które nie prowadzą do neuronu zwycięskiego są usuwane. 7

SIEĆ Z ROZSZERZENIEM FUNKCYJNYM Wektor weściowy est poszerzony o funkce składowych wektora oryginalnego. Naczęście są to funkce ortogonalne: sinπ, cosπ, sin2π, cos2π itd. lub iloczyny poszczególnych składowych wektora oryginalnego: i, i k, k, i k itd. Rzutowanie danych weściowych na przestrzeń o większe liczbie wymiarów pozwala uprościć problem. Zysk: zamiast skomplikowane wielowarstwowe sieci można zastosować edną warstwę neuronów krótszy czas uczenia 8

SIEĆ TYPU COUNTERPROPAGATION Sieć CP zawiera warstwę z konkurencyną regułą uczenia bez nadzoru (warstwa Kohonena) oraz warstwę Grossberga uczoną z nauczycielem. W warstwie Grossberga uczeniu podlegaą tylko wagi powiązań zwycięzcy z neuronami wyściowymi według reguły outstar Grossberga: w k = η (y k w k ) Warstwa konkurencyna dzieli dane weściowe na skupiska reprezentowane przez wagi weściowe neuronu konkurencynego. Wagi wyściowe neuronu konkurencynego stanowią wyścia sieci. Sieć CP może działać w dwóch kierunkach: X Y lub Y X. 9

SIEĆ REKURENCYJNA HOPFIELDA Sieć Hopfielda pamięć asocacyna: zadaniem sieci est zapamiętanie zbioru wzorców uczących w taki sposób, aby w trakcie odtwarzania przy prezentaci nowego wzorca układ mógł wygenerować odpowiedź, która będzie odpowiadać ednemu z wzorców uczących, położonemu nabliże próbki testowe. Występuą tu zależności dynamiczne, a zmiana stanu ednego neuronu przenosi sie na całą sieć. Zakłada się symetryczność połączeń w i = w i i brak połączenia wyścia i-tego neuronu z ego weściem. Dobór wag: W T = X( X X) X T

SIEĆ REKURENCYJNA HOPFIELDA Tryb odtworzeniowy Wyznacza się odpowiedzi sieci w kolenych iteracach k przy czym y i () = i, gdzie to wzorzec testowy podany na weście. Proces kończy się gdy sieć osiądzie w atraktorze (stan stabilny): Sieć potrafi odtworzyć nauczony wzorzec na podstawie uszkodzonego lub zaszumionego wzorca weściowego: