Zastosowania sieci neuronowych

Podobne dokumenty
Zastosowania sieci neuronowych

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie

sieci jednowarstwowe w MATLABie LABORKA Piotr Ciskowski

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Podstawy Sztucznej Inteligencji (PSZT)

Sieci neuronowe w Statistica

Zastosowania sieci neuronowych predykcja - giełda

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Uczenie sieci neuronowych i bayesowskich

Uczenie sieci typu MLP

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

Projekt Sieci neuronowe

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

I EKSPLORACJA DANYCH

Uczenie sieci radialnych (RBF)

8. Neuron z ciągłą funkcją aktywacji.

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Sieć przesyłająca żetony CP (counter propagation)

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Sztuczne sieci neuronowe

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE

MATLAB Compiler. jak tworzyć aplikacje ze skryptów. LABORKA Piotr Ciskowski

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

SZTUCZNA INTELIGENCJA

Wprowadzenie do Sieci Neuronowych Laboratorium 05 Algorytm wstecznej propagacji błędu

ĆWICZENIE 5: Sztuczne sieci neuronowe

Lekcja 5: Sieć Kohonena i sieć ART

Elementy inteligencji obliczeniowej

ALGORYTMY SZTUCZNEJ INTELIGENCJI

Metody Sztucznej Inteligencji II

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

PRÓBA ZASTOSOWANIA SIECI NEURONOWYCH DO PROGNOZOWANIA OSIADAŃ POWIERZCHNI TERENU POWSTAŁYCH NA SKUTEK EKSPLOATACJI GÓRNICZEJ**

Widzenie komputerowe

Sztuczne siei neuronowe - wprowadzenie

Sztuczne sieci neuronowe (SNN)

Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I.

Inteligentne systemy przeciw atakom sieciowym

Sztuczne Sieci Neuronowe

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW

Podstawy sztucznej inteligencji

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Podstawy Sztucznej Inteligencji

MATLAB Neural Network Toolbox uczenie sieci (dogłębnie)

SIECI RBF (RADIAL BASIS FUNCTIONS)

Wycena papierów wartościowych - instrumenty pochodne

SIEĆ NEURONOWA JAKO NARZĘDZIE APROKSYMACJI I KLASYFIKACJI DANYCH. Jakub Karbowski Gimnazjum nr 17 w Krakowie

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

1. Logika, funkcje logiczne, preceptron.

SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU)

Zrealizować sieć neuronową (learnbpm) uczącą się odwzorowania z = x 2 + y 2 dla x i y zmieniających się od -1 do 1.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU)

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań

Wprowadzenie do Sieci Neuronowych Laboratorium 06 Algorytm wstecznej propagacji błędu

RAPORT Z PRAKTYKI. Zastosowanie Sztucznych Sieci Neuronowych do wspomagania podejmowania decyzji kupna/sprzedaży na rynku Forex.

Przykładowe funkcje przejścia używane przy budowie sztucznych neuronów

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

Definicja perceptronu wielowarstwowego

Uczenie Wielowarstwowych Sieci Neuronów o

Systemy agentowe. Sieci neuronowe. Jędrzej Potoniec

Sztuczne sieci neuronowe

Sztuczna inteligencja

Celem tych ćwiczeń jest zapoznanie się z klasyfikacją za pomocą sieci neuronowych.

Politechnika Warszawska

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Systemy agentowe. Sieci neuronowe. Jędrzej Potoniec

Matematyka finansowa i ubezpieczeniowa - 8 Wycena papierów wartościowych

MODELOWANIE RZECZYWISTOŚCI

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2014/2015

Testowanie modeli predykcyjnych

OPCJE - PODSTAWY TEORETYCZNE cz.1

Przykładowa analiza danych

Algorytmy wstecznej propagacji sieci neuronowych

DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI

Identyfikacja obiektów dynamicznych za pomocą sieci neuronowych

6. Perceptron Rosenblatta

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Systemy Inteligentnego Przetwarzania wykład 7: Sieci RBF

METODY INŻYNIERII WIEDZY

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.

WYKORZYSTANIE SIECI NEURONOWYCH DO ODWZOROWANIA DEFORMACJI POWIERZCHNI NA TERENACH GÓRNICZYCH

ELEMENTY SZTUCZNEJ INTELIGENCJI. Sztuczne sieci neuronowe

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.

OCENA DZIAŁANIA AE. METODY HEURYSTYCZNE wykład 4 LOSOWOŚĆ W AE KRZYWE ZBIEŻNOŚCI ANALIZA STATYSTYCZNA:

Jakość uczenia i generalizacja

TEORETYCZNE PODSTAWY INFORMATYKI

Transkrypt:

Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski

zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką samą jak do problemu XOR, czyli: 2-2-1 o bipolarnych sigmoidalnych funkcjach aktywacji, obliczania długości wektora wejściowego o współrzędnych x 1 i x 2 (wejścia sieci), 2 2 czyli o żądanym wyjściu danym wzorem: d = x1 + x2 dla x 1 i x 2 z przedziału od 0 do 0.7 ucz sieć metodą propagacji wstecznej błędu przez 30.000 epok przy współczynniku uczenia równym η = 0.4 jako zbioru uczącego użyj 10 losowych punktów położonych w pierwszej ćwiartce układu współrzędnych poniżej prostej x 2 = x 1 Narysuj wykres 3D oraz warstwicowy powierzchni błędu d dla otrzymanych wag dla wejść x 1 i x 2 z przedziału od 0 do 0.7 (takich, jak podczas uczenia), zaznacz na nim te 10 punktów uczących Czy (podobnie jak u Żurady) błąd aproksymacji szybko rośnie na zewnątrz obszaru zawierającego punkty uczące?

zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Powtórz naukę dla ciągu uczącego składającego się z 64 punktów położonych w węzłach siatki będącej podstawą wykresu 3D funkcji błędu Znów przeanalizuj wykres funkcji błędu

zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Powtórz naukę dla ciągu uczącego składającego się z 64 punktów położonych w węzłach siatki będącej podstawą wykresu 3D funkcji błędu - i dla sieci o 10 neuronach w warstwie ukrytej Znów przeanalizuj wykres funkcji błędu

zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Powtórz naukę dla sieci o: bipolarnych funkcjach aktywacji w pierwszej warstwie liniowych funkcjach aktywacji w drugiej warstwie Zbadaj zależność jakości / szybkości uczenia sieci od: liczby neuronów w warstwie ukrytej metody uczenia x 0 = 1 x = x 1 x 2 0 1 y

Napisz program ilustrujący uczenie sieci dwuwarstwowej zadania aproksymacji funkcji jednej zmiennej x 0 = 1 x = x 1 0 1 y Niech pierwsza warstwa sieci ma sigmoidalną bipolarną funkcję aktywacji, a warstwa wyjściowa liniową funkcję aktywacji

Niech program pozwoli wybrać: funkcję, jakiej ma się nauczyć sieć liczbę neuronów w warstwie ukrytej pozostałe parametry uczenia: liczba przykładów uczących / sprawdzających / testujących max. liczba epok docelowy błąd średniokwadratowy itp. Niech program rysuje na żywo podczas uczenia: wykres błędu pierwszej i drugiej warstwy przebieg wag neuronów pierwszej i drugiej warstwy co już umie sieć przekształcenie x w y żądane i już nauczone przekształcenia sygnału wejściowego nauczone przez poszczególne neurony warstwy ukrytej Przykładowy dialog programu z użytkownikiem oraz przykładowe przebiegi uczenia pokazane są na następnych slajdach We wszystkich przypadkach wykorzystane zostały funkcje z zajęć: int2, dzialaj2, ucz2, a więc najprostsza metoda uczenia najszybszego spadku gradientu Zaimplementuj (lub wykorzystaj toolbox owe) inne metody uczenia, sprawdź różnicę w uczeniu

co sieć umie przed uczeniem jako całość:

co sieć umie przed uczeniem poszczególne neurony warstwy ukrytej: - przemnożone przez odpowiednie wagi neuronu wyjściowego:

co sieć umie podczas uczenia jako całość:

co sieć umie po zakończeniu uczenia jako całość:

co sieć umie po zakończeniu uczenia poszczególne neurony warstwy ukrytej: - przemnożone przez odpowiednie wagi neuronu wyjściowego:

przebieg uczenia błąd średniokwadratowy:

przebieg uczenia wagi sieci:

przebieg uczenia 2 neurony w warstwie ukrytej, 40 pokazów w kroku (uczenie wsadowe): co umie sieć:

przebieg uczenia 5 neuronów w warstwie ukrytej, 40 pokazów w kroku, 50000 epok: co umie sieć:

przebieg uczenia 5 neuronów w warstwie ukrytej, 1 pokaz w kroku (uczenie przyrostowe): co umie sieć:

zadanie 3. aproksymacja funkcji 2D Napisz program ilustrujący uczenie sieci dwuwarstwowej zadania aproksymacji funkcji dwóch zmiennych x 0 = 1 x = x 1 x 2 0 1 y

zadanie 3. aproksymacja funkcji 2D Niech program pozwoli wybrać: funkcję, jakiej ma się nauczyć sieć liczbę neuronów w warstwie ukrytej pozostałe parametry uczenia: liczba przykładów uczących / sprawdzających / testujących max. liczba epok docelowy błąd średniokwadratowy itp. Niech program rysuje na żywo podczas uczenia: wykres błędu pierwszej i drugiej warstwy przebieg wag neuronów pierwszej i drugiej warstwy co już umie sieć - przekształcenie x w y żądane i już nauczone przekształcenia sygnału wejściowego nauczone przez poszczególne neurony warstwy ukrytej

zadanie 4. aproksymacja funkcji wielu zmiennych modelowanie wyceny opcji Naucz sieć neuronową MLP, RBF, a może jakąś inną, modelowania wzoru Blacka-Scholesa na wycenę opcji: o cena opcji kupna: o cena opcji sprzedaży: rt ( ) ( ) c = SN d Xe N d 1 2 ( ) ( ) rt p = Xe N d2 SN d1 gdzie: d 1 2 S σ ln + r + T X 2 = σ T 2 S σ ln + r T X 2 d2 = = d1 σ T σ T przy czym: S - obecna cena instrumentu bazowego X - cena wykonania r - stopa procentowa wolna od ryzyka T - czas do wygaśnięcia opcji σ - procentowy współczynnik zmienności przyszłych cen N - dystrybuanta rozkładu normalnego

zadanie 4. aproksymacja funkcji wielu zmiennych modelowanie wyceny opcji problem 1 - wycena opcji kupna / sprzedaży: rt ( 1) ( 2 ) rt ( ) ( ) c = SN d Xe N d p = Xe N d SN d 2 1 x 0 = 1 x1 S x2 X x r 3 x3 x 3 T σ x 0 = 1 S - obecna cena instrumentu bazowego X - cena wykonania r - stopa procentowa wolna od ryzyka T - czas do wygaśnięcia opcji σ - proc. współczynnik zmienności przyszłych cen zmienność implikowana N - dystrybuanta rozkładu normalnego c p

zadanie 4. aproksymacja funkcji wielu zmiennych modelowanie wyceny opcji problem 2 oszacowanie zmienności implikowanej z bieżącej wyceny opcji i pozostałych parametrów: x 0 = 1 x 0 = 1 x1 S x2 X x r 3 x3 x T 3, c p S - obecna cena instrumentu bazowego X - cena wykonania r - stopa procentowa wolna od ryzyka T - czas do wygaśnięcia opcji c,p cena opcji kupna / sprzedaży σ

zadanie 4. aproksymacja funkcji wielu zmiennych modelowanie wyceny opcji zakresy zmienności wejść przykładowe dla EURUSD: (poprawność merytoryczna (ekonomiczna) do sprawdzenia) X: 0.8000 1.8000 S: 0.8000 1.8000 r: 0.5 5.0 T: 7/365 90/365 σ: 10% 200%

zadanie 5. aproksymacja funkcji dane z życia wzięte Naucz sieć aproksymacji funkcji dla danych zebranych/zmierzonych samodzielnie lub znalezionych w sieci, np. z bazy zbiorów uczących UCI Machine Learning Repository W programie STATISTICA przeprowadź wstępną analizę danych wejściowych (histogramy, wykresy rozrzutu, statystyki opisowe, miary korelacji zmiennych), przeprowadź wstępne rozpoznawcze uczenie różnych sieci neuronowych Wybierz najlepszą architekturę sieci oraz metodę uczenia, przeanalizuj ją dokładnie, ewentualnie dopieść, wygeneruj kod w STATSITICe a potem naucz sieć dokładnie i wygeneruj kod w MATLABie

zadanie 5. aproksymacja funkcji dane z życia wzięte Przykładowe dane z helpów/dem MATLABa: house_dataset abalone_dataset bodyfat_dataset building_dataset chemical_dataset engine_dataset