Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Podobne dokumenty
IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Zastosowania sieci neuronowych

Metody Sztucznej Inteligencji II

Temat: Sieci neuronowe oraz technologia CUDA

Sztuczne sieci neuronowe

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

METODY INŻYNIERII WIEDZY

8. Neuron z ciągłą funkcją aktywacji.

Uczenie sieci typu MLP

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Podstawy Sztucznej Inteligencji

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

Uczenie sieci neuronowych i bayesowskich

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Lekcja 5: Sieć Kohonena i sieć ART

Podstawy sztucznej inteligencji

Sztuczne siei neuronowe - wprowadzenie

Elementy inteligencji obliczeniowej

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.

Inteligentne systemy przeciw atakom sieciowym

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie

Podstawy Sztucznej Inteligencji (PSZT)

Wprowadzenie do Sieci Neuronowych Laboratorium 05 Algorytm wstecznej propagacji błędu

Sztuczne sieci neuronowe (SNN)

wiedzy Sieci neuronowe

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

Sztuczna inteligencja

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Wstęp do sztucznych sieci neuronowych

1. Logika, funkcje logiczne, preceptron.

ALGORYTMY SZTUCZNEJ INTELIGENCJI

SIEĆ NEURONOWA JAKO NARZĘDZIE APROKSYMACJI I KLASYFIKACJI DANYCH. Jakub Karbowski Gimnazjum nr 17 w Krakowie

Sieci neuronowe w Statistica

ELEMENTY SZTUCZNEJ INTELIGENCJI. Sztuczne sieci neuronowe

Sieć przesyłająca żetony CP (counter propagation)

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Widzenie komputerowe

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5

Algorytmy wstecznej propagacji sieci neuronowych

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

wiedzy Sieci neuronowe (c.d.)

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.

PODSTAWY BAZ DANYCH I SZTUCZNEJ INTELIGENCJI. Adrian Horzyk. Akademia Górniczo-Hutnicza

Zastosowania sieci neuronowych

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści

Uczenie sieci radialnych (RBF)

ĆWICZENIE 5: Sztuczne sieci neuronowe

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak

Sztuczne sieci neuronowe. Uczenie, zastosowania

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE

Obliczenia Naturalne - Sztuczne sieci neuronowe

Uczenie Wielowarstwowych Sieci Neuronów o

MODELOWANIE RZECZYWISTOŚCI

I EKSPLORACJA DANYCH

Przykładowa analiza danych

PRÓBA ZASTOSOWANIA SIECI NEURONOWYCH DO PROGNOZOWANIA OSIADAŃ POWIERZCHNI TERENU POWSTAŁYCH NA SKUTEK EKSPLOATACJI GÓRNICZEJ**

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

2.4. Algorytmy uczenia sieci neuronowych

SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU)

Inteligentne systemy informacyjne

Sztuczne sieci neuronowe

ESI: Perceptrony proste i liniowe

Wstęp do teorii sztucznej inteligencji

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

Systemy uczące się Lab 4

Podstawy sztucznej inteligencji

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2013/2014

OCENA DZIAŁANIA AE. METODY HEURYSTYCZNE wykład 4 LOSOWOŚĆ W AE KRZYWE ZBIEŻNOŚCI ANALIZA STATYSTYCZNA:

Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe. Krzysztof Regulski, WIMiIP, KISiM, B5, pok. 408

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Definicja perceptronu wielowarstwowego

DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI

Celem tych ćwiczeń jest zapoznanie się z klasyfikacją za pomocą sieci neuronowych.

Badacze zbudowali wiele systemów technicznych, naśladujących w komputerze ludzki mózg. Najbardziej pożyteczne okazały się sieci neuronowe.

Projekt Sieci neuronowe

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania

Emergentne właściwości. sztucznych sieci neuronowych

Deep Learning na przykładzie Deep Belief Networks

6. Perceptron Rosenblatta

Temat: ANFIS + TS w zadaniach. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Politechnika Warszawska

Optymalizacja ciągła

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Transkrypt:

PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia opartym na wstecznej propagacji błędów z wykorzystaniem metody największego spadku (metoda gradientowa). Sieć powinna umożliwiać: definiowanie współczynnika uczenia (X pkt.), konfigurację ilości warstw ukrytych (X pkt.), ustalenie ilości neuronów w poszczególnych warstwach (X pkt.), odczyt danych treningowych i testujących ze zbiorów *.tab oraz *.arff (X pkt.), wizualizację błędów w trakcie procesu uczenia (X pkt.), ustalenie warunku zatrzymania procesu uczenia (maksymalny błąd lub ilość iteracji) (X pkt.), wybór metody największego spadku z członem momentum (X pkt.). wykorzystanie innych funkcji aktywacji neuronów (unipolarna, bipolarna), Projekt 2 Stwórz aplikację wizualizującą działanie oraz uczenie pojedynczego neuronu typu: perceptron (X pkt.), Adaline (X pkt.). Aplikacja powinna umożliwiać wyznaczenie równania prostej rozdzielającej dwa zbiory punktów podanych na płaszczyźnie (pod warunkiem, że taka prosta istnieje) i dodatkowo: wizualizację tej prostej oraz punktów (X pkt.), wykres błędów procesu uczenia (X pkt.), ustalenie warunku zatrzymania procesu uczenia (maksymalny błąd lub ilość iteracji) (X pkt.). 1

Pomoc do projektów Projekt 1 Działanie algorytmu dla pojedynczej epoki rozpoczyna się od podania pierwszego wzorca uczącego na wejście sieci. Najpierw jest on przetwarzany przez pierwszą, następnie przez kolejną k-tą warstwę neuronów, gdzie przetworzenie przez pojedynczy i-ty neuron w tej warstwie dane jest zależnością: N k 1 y k i = f s k i t = f w k ij t x k j t j=0 Otrzymane w ten sposób sygnały z warstwy poprzedniej (k-tej) stają się sygnałami wejściowymi dla warstwy kolejnej (k+1). Znając sygnały wyjściowe warstwy ostatniej (L) oraz sygnał wzorcowy d i (pożądany sygnał warstwy wyjściowej dla danej próbki), można obliczyć błąd na wyjściu sieci zgodnie z zależnością: Q L i t =d L i t y L i t Teraz można zmodyfikować wagi neuronów warstwy ostatniej korzystając z reguły delta. Modyfikacja wagi j-tej neuronu i-tego przebiega zgodnie z wzorem: w L ij t 1 =w L ij t 2 L i t x L j t, gdzie η współczynnik uczenia (0,1) L i =Q L i t f ' s L i t, gdzie f ' pochodna przyjętej funkcji aktywacji Po tym kroku następuje modyfikacja wag neuronów warstw poprzednich (wsteczna propagacja błędów) zgodnie z zależnościami: w ij k t 1 =w ij k t 2 i k t x j k t i k =Q i k t f ' s i k t N k 1 Q k i t = k 1 m t w k 1 mi t m=1 Po modyfikacji wag neuronów w warstwie pierwszej, na wejście sieci podawana jest kolejna próbka. 2

Dodanie członu momentum polega na przebudowaniu wzoru do modyfikacji wag: w k ij t 1 =w k ij t 2 k i t x k j t [w k ij t w k ij t 1 ], gdzie α momentum (0,1) Jak łatwo zauważyć, człon momentum modyfikuje daną wagę w zależności od wielkości jej zmiany w poprzednim kroku. Funkcje unipolarna i bipolarna neuronu sigmoidalnego dane są wzorami: unipolarna: f x = 1 1 e x bipolarna: f x = 1 e x 1 e x Pierwsze pochodne tych funkcji dane są wzorami: unipolarna: f ' x = f x 1 f x bipolarna: f ' x = 1 f 2 x Podsumowanie wykorzystywanych oznaczeń: i, m numer neuronu, j numer wagi neuronu, k numer warstwy, L warstwa wyjściowa (numer ostatniej warstwy), t iteracja w epoce, numer próbki uczącej, x wartość wejściowa neuronu. 3

Projekt 2 Perceptron Na rysunku nr 1 przedstawiony jest schemat neuronu typu perceptron. Rys. 1: Schemat neuronu typu perceptron Funkcja aktywacji tego neuronu dana jest zależnością: f x = { 1, gdy x 0 1, gdy x 0 Wartość wyjścia y perceptronu opisana jest równaniem: n y= f w i x i w 0 i=1 Algorytm uczenia neuronu typu perceptron przedstawiony jest w postaci schematu blokowego na rysunku nr 2. 4

Rys. 2: Algorytm uczenia neuronu typu perceptron 5

Adaline Na rysunku nr 3 przedstawiony jest schemat neuronu typu Adaline (ang. Adaptive Linear Neuron). Widać wyraźnie, że różnica pomiędzy neuronem typu perceptron oraz neuronem typu Adaline polega na tym, że w procesie uczenia sygnał wzorcowy d jest porównywany z sygnałem s sumatora. Rys. 3: Schemat neuronu typu Adaline Funkcja aktywacji tego neuronu dana jest zależnością: f x = { 1, gdy x 0 0, gdy x 0 Wartość wyjścia y neuronu typu Adaline opisana jest równaniem: n y= f w i x i w 0 i=1 Algorytm uczenia neuronu typu Adaline przedstawiony jest w postaci schematu blokowego na rysunku nr 4. 6

Rys. 4: Algorytm uczenia neuronu typu Adaline 7

Podsumowanie wykorzystywanych oznaczeń: i numer wagi neuronu, t numer iteracji w epoce, numer próbki uczącej, d sygnał wzorcowy, y sygnał wyjściowy neuronu, s sygnał wyjściowy sumatora neuronu, x wartość wejściowa neuronu, η współczynnik uczenia (0,1). Przykład Neurony o dwóch wejściach można wykorzystać do podziału płaszczyzny dwuwymiarowej na dwie części za pomocą prostej. Podział ten wyznacza prosta o równaniu: w 1 x 1 w 2 x 2 w 0 =0 Po przekształceniu: x 2 = w 1 w 2 x 1 w 0 w 2 Czyli współczynniki takiej prostej zależą od wartości wag neuronu. Teraz stosując algorytm uczenia neuronu można te współczynniki wyznaczyć. Przykładowy ciąg uczący: x 1 x 2 d(x) 2 1 1 2 2 1 0 6 1-2 8-1 -2 0-1 0 0-1 4-20 -1 8