Sieci neuronowe w Statistica

Podobne dokumenty
Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Projekt Sieci neuronowe

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

ALGORYTMY SZTUCZNEJ INTELIGENCJI

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Zastosowania sieci neuronowych

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Metody Sztucznej Inteligencji II

8. Neuron z ciągłą funkcją aktywacji.

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Temat: Sieci neuronowe oraz technologia CUDA

Sztuczne sieci neuronowe (SNN)

Podstawy sztucznej inteligencji

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Testowanie modeli predykcyjnych

Podstawy Sztucznej Inteligencji

Zastosowania sieci neuronowych

Inteligentne systemy przeciw atakom sieciowym

Uczenie sieci radialnych (RBF)

SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU)

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2013/2014

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

Wprowadzenie do uczenia maszynowego

Uczenie sieci typu MLP

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Podstawy Sztucznej Inteligencji (PSZT)

Ćwiczenie 12. Metody eksploracji danych

SIECI RBF (RADIAL BASIS FUNCTIONS)

Uczenie sieci neuronowych i bayesowskich

Przykładowe funkcje przejścia używane przy budowie sztucznych neuronów

ĆWICZENIE 5: Sztuczne sieci neuronowe

Politechnika Warszawska

SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU)

Sztuczne sieci neuronowe

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Sztuczne siei neuronowe - wprowadzenie

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

ALGORYTM RANDOM FOREST

sieci jednowarstwowe w MATLABie LABORKA Piotr Ciskowski

I EKSPLORACJA DANYCH

Algorytmy wstecznej propagacji sieci neuronowych

Algorytmy sztucznej inteligencji

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

MOŻLIWOŚCI ZASTOSOWANIA METOD DATA MINING DO ANALIZY ILOŚCI ŚCIEKÓW DOPŁYWAJĄCYCH DO OCZYSZCZALNI

Wstęp do sztucznych sieci neuronowych

Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie

Sieci neuronowe - dokumentacja projektu

ZASTOSOWANIE SIECI NEURONOWYCH DO OPTYMALIZACJI WARUNKÓW OBRÓBKI CIEPLNEJ STOPÓW Mg-Al

Metody klasyfikacji i rozpoznawania wzorców. Najważniejsze rodzaje klasyfikatorów

ALGORYTMY SZTUCZNEJ INTELIGENCJI W LOGISTYCE

PRÓBA ZASTOSOWANIA SIECI NEURONOWYCH DO PROGNOZOWANIA OSIADAŃ POWIERZCHNI TERENU POWSTAŁYCH NA SKUTEK EKSPLOATACJI GÓRNICZEJ**

Instrukcja realizacji ćwiczenia

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Agnieszka Nowak Brzezińska

MATLAB Neural Network Toolbox uczenie sieci (dogłębnie)

Widzenie komputerowe

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

PROGNOZOWANIE Z WYKORZYSTANIEM UCZENIA MASZYN

Laboratorium nr 2. Identyfikacja systemu i detekcja uszkodzeń na podstawie modelu

Streszczenie. Słowa kluczowe: modele neuronowe, parametry ciągników rolniczych

PROGNOZOWANIE PORÓWNAWCZE ENERGII PROCESOWEJ ZESTAWÓW MASZYN DO ROBÓT ZIEMNYCH JAKO CZYNNIKA RYZYKA EMISYJNOŚCI CO2

Agnieszka Nowak Brzezińska Wykład III

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

wiedzy Sieci neuronowe

Sztuczne sieci neuronowe. Uczenie, zastosowania


Optymalizacja ciągła

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.

WYZNACZANIE WARTOŚCI PODSTAWOWYCH PARAMETRÓW TECHNICZNYCH NOWOCZESNYCH KOMBAJNÓW ZBOŻOWYCH PRZY UŻYCIU SSN

DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI

Temat: ANFIS + TS w zadaniach. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

SIEĆ NEURONOWA JAKO NARZĘDZIE APROKSYMACJI I KLASYFIKACJI DANYCH. Jakub Karbowski Gimnazjum nr 17 w Krakowie

Dokumentacja Końcowa

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

Wprowadzenie do Sieci Neuronowych Laboratorium 05 Algorytm wstecznej propagacji błędu

Ć w i c z e n i e 3 : W i z u a l i z a c j a d a n y c h - w y k r e s y S t r o n a 1

Systemy uczące się wykład 2

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

METODY INŻYNIERII WIEDZY

PROGNOZOWANIE I SYMULACJE EXCEL 1 AUTOR: MARTYNA MALAK PROGNOZOWANIE I SYMULACJE EXCEL 1 AUTOR: MARTYNA MALAK

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2014/2015

Przykładowa analiza danych

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE

Statystyka i Analiza Danych

Symulator sztucznych sieci neuronowych samouczek Sztuczna Inteligencja

Regresja logistyczna (LOGISTIC)

Metody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF.

FOLIA POMERANAE UNIVERSITATIS TECHNOLOGIAE STETINENSIS Folia Pomer. Univ. Technol. Stetin., Oeconomica 2018, 347(93)4, 57 68

Transkrypt:

http://usnet.us.edu.pl/uslugi-sieciowe/oprogramowanie-w-usk-usnet/oprogramowaniestatystyczne/ Sieci neuronowe w Statistica Agnieszka Nowak - Brzezińska

Podstawowym elementem składowym sztucznej sieci neuronowej jest element przetwarzający neuron. Schemat działania neuronu: x1 x2 w1 w2 Dendrites Terminal Branches of Axon x3 w3 S Axon xn wn

Typy neuronów y S- zagregowana wartość wejściowa Funkcja aktywacji

Funkcja aktywacji Dla neuronów liniowych: Liniowa, logistyczna (sigmoidalna), hiperboliczna (tangensoidalna), wykładnicza, sinus, Dla neuronów radialnych: gausowska (dla neuronu radialnego). Uwaga: liniowa ma być agregacja. Zaś wartość wyjściowa może być wyznaczona z nieliniowej f.aktywacji.

Uczenie neuronu y

Predykcja Wejścia: X 1 X 2 X 3 Wyjścia: Y Model: Y = f(x 1 X 2 X 3 ) X 1 =1 X 2 =-1 X 3 =2 0.2 = 0.5 * 1 0.1*(-1) 0.2 * 2 0.5 0.6-0.1 0.1-0.2 0.7 f(x) = e x / (1 + e x ) f(0.2) = e 0.2 / (1 + e 0.2 ) = 0.55 0.2 f (0.2) = 0.55 0.55 0.9 f (0.9) = 0.71 0.71 Predykcja Y = 0.478 0.1-0.2-0.087 f (-0.087) = 0.478 0.478 Jeśli aktualnie Y = 2 To błąd predykcji = (2-0.478) =1.522

Schemat uczenia się 1. Wybierz losowo jedną z obserwacji 2. Przejdź przez odpowiednie procedury by wyznaczyć wartość wejścia 3. Porównaj wartość pożądaną z tą rzeczywiście uzyskaną w sieci 4. Dostosuj wagi obliczając błąd

Backpropagation To jedna z najczęściej stosowanych technik uczenia się w sieciach neuronowych.

Jak wyznaczyć błąd predykcji sieci? Gdzie: Error i jest błędem osiągniętym w węźle i-tym, Output i jest wartością przewidzianą przez sieć, Actual i jest wartością rzeczywistą (której sieć powinna się nauczyć).

Zmiana wag L- jest to tzw. Współczynnik uczenia sieci, najczęściej z przedziału [0,1] Im mniejsza wartość tego współczynnika tym wolniejszy jest proces uczenia sieci neuronowej. Często współczynnik ten jest ustawiany na najwyższą wartość początkowo, a następnie jest redukowany przy zmianie wag sieci.

Przykład

Zmiana wag L- jest to tzw. Współczynnik uczenia sieci, najczęściej z przedziału [0,1] Im mniejsza wartość tego współczynnika tym wolniejszy jest proces uczenia sieci neuronowej. Często współczynnik ten jest ustawiany na najwyższą wartość początkowo, a następnie jest redukowany przy zmianie wag sieci.

Ile neuronów? Liczba neuronów w warstwie wejściowej zależy od liczby zmiennych Liczba neuronów w warstwie wyjściowej zależy od typu problemu Liczba neuronów w warstwie ukrytej zależy od badacza (jego doświadczenia)

Zastosowanie sieci neuronowych Zadania klasyfikacyjne sieć ma za zadanie ustalać do jakiej klasy dany obiekt ma należeć (klasy są wtedy w skali nominalnej) Zadania regresyjne - sieć ma za zadanie przewidzieć wartość zmiennej objaśnianej tak dobrze jak to możliwe (zmienna objaśniana jest wtedy w skali ilościowej)

Zadanie klasyfikacyjne 1. Otwórz zbiór leukemia.sta 2. Wybór typu zadania dla sieci neuronowej:

3. Wybór odpowiednich zmiennych: 4. Automatyczne sieci neuronowe ze standardowymi ustawieniami

Można zmienić proporcje podziału zbioru danych na próbki: uczącą, testową i walidacyjną

Automatyczne tworzenie sieci neuronowej Neurony liniowe (MLP) Minimalnie (3) maksymalnie (10) neuronów w ukrytych warstwach 20 sieci na nauczenia, 5 najlepszych zostanie wybranych Funkcja błędu: suma kwadratów różnic między wartością oczekiwaną a wartością rzeczywistą Okno pokazuje: tworzenie sieci 19 z 20, 3-6-2 oznacza sieć z 3 neuronami w warstwie wejściowej, 6 neuronami w warstwie ukrytej oraz 2 w warstwie wyjściowej.

Mamy 5 najlepszych znalezionych typów sieci neuronowych. Jak widać nie wszystkie mają tę samą liczbę neuronów w warstwie ukrytej (sieć 4 ma 5, sieci 1 i 3 mają 3,a sieć 2 ma aż 6 neuronów w warstwie ukrytej). Klikając wybrane zaakceptujemy je do dalszego wykorzystania Wynik Dla każdej sieci mamy jej nazwę (mówiącą ile neuronów w każdej z warstw, błędy uzyskane dla grup: uczącej, testowej i walidacyjnej, zastosowany algorytm uczenia się (zazwyczaj jest to BFGS czyli Back Propagation) i mamy też informację jaka była funkcja błędu. Nie zmieniając innych ustawień (tylko dodatkowo zaznaczając opcję Inputs w sekcji include, wybierzmy najlepsze wg nas trzy sieci.

Oczywiście za każdym uruchomieniem możemy uzyskać zupełnie inne sieci dla tych samych danych i tych samych ustawień początkowych

Zostały nam 3 sieci najlepsze

Mamy do dyspozycji Zakładki: Predictions Graphs Details Liftcharts Custom predictions Oraz opcję SUMMARY

Predictions Widzimy które sieci dla jakich danych wejściowych błędni klasyfikowały

Details Ciekawe są opcje: Summary Weights Confusion matrix (macierz pomyłek, które pokazuje że niektóre sieci mają duży procent pomyłek)

Details Ciekawe są opcje: Summary Weights Confusion matrix (macierz pomyłek, które pokazuje że niektóre sieci mają duży procent pomyłek)

Details Ciekawe są opcje: Summary Weights Confusion matrix (macierz pomyłek, które pokazuje że niektóre sieci mają duży procent pomyłek)

Results

Zakładka liftcharts Obowiązkowa lektura: http://www.statsoft.pl/czytelnia/artykuly/krzywe_roc_czyli_ocena_jakosci.pdf

1. Otwórz zbiór tomatoes.sta Zadanie regresyjne 2. Wybór typu zadania dla sieci neuronowej:

3. Wybór odpowiednich zmiennych: 4. Automatyczne sieci neuronowe ze standardowymi ustawieniami

W zakładce MLP activation functions możemy wybrać typy funkcji do procesu uczenia się sieci Nie mamy już do wyboru typu funkcji błędu gdyż przy zadaniach regresyjnych zawsze jest stosowana funkcja sumy kwadratów różnic.

Mamy 5 najlepszych znalezionych typów sieci neuronowych. Jak widać nie wszystkie mają tę samą liczbę neuronów w warstwie ukrytej Klikając wybrane zaakceptujemy je do dalszego wykorzystania Wynik Nie zmieniając innych ustawień (tylko dodatkowo zaznaczając opcję Inputs w sekcji include, wybierzmy najlepsze wg nas trzy sieci.

Oczywiście za każdym uruchomieniem możemy uzyskać zupełnie inne sieci dla tych samych danych i tych samych ustawień początkowych

Zostały nam 2 sieci najlepsze

Mamy do dyspozycji Zakładki: Predictions Graphs Details Liftcharts Custom predictions Oraz opcję SUMMARY

Predictions Widzimy które sieci dla jakich danych wejściowych jaką wartość zmiennej objaśnianej określały

Przy zadaniach regresyjnych warto zrobić w zakładce Graphs wykresy rozproszenia dla zmiennej objaśnianej (output) i oczekiwanej objaśnianej (Target) Graphs

Details Ciekawe są opcje: Summary Weights Correlation coefficients Confusion matrix - Warto zauważyć, że nie mamy już do dyspozycji macierzy pomyłek.

Results

Zaleca się lekturę wykładu: http://zsi.tech.us.edu.pl/~nowak/si/si_w4.pdf