Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Podobne dokumenty
Sieci neuronowe w Statistica

Projekt Sieci neuronowe

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

ALGORYTMY SZTUCZNEJ INTELIGENCJI

Zastosowania sieci neuronowych

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Uczenie sieci radialnych (RBF)

Metody Sztucznej Inteligencji II

Temat: Sieci neuronowe oraz technologia CUDA

Testowanie modeli predykcyjnych

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Podstawy sztucznej inteligencji

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW

8. Neuron z ciągłą funkcją aktywacji.

Wprowadzenie do uczenia maszynowego

Podstawy Sztucznej Inteligencji

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Sztuczne sieci neuronowe (SNN)

Agnieszka Nowak Brzezińska

Uczenie sieci typu MLP

SIECI RBF (RADIAL BASIS FUNCTIONS)

Przykładowe funkcje przejścia używane przy budowie sztucznych neuronów

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Inteligentne systemy przeciw atakom sieciowym

Zastosowania sieci neuronowych

Optymalizacja ciągła

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Agnieszka Nowak Brzezińska Wykład III

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

Ćwiczenie 12. Metody eksploracji danych

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2013/2014

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

Podstawy Sztucznej Inteligencji (PSZT)

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Sztuczne siei neuronowe - wprowadzenie

Sztuczne sieci neuronowe

Agnieszka Nowak Brzezińska Wykład III


Uczenie sieci neuronowych i bayesowskich

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.

PROGNOZOWANIE PORÓWNAWCZE ENERGII PROCESOWEJ ZESTAWÓW MASZYN DO ROBÓT ZIEMNYCH JAKO CZYNNIKA RYZYKA EMISYJNOŚCI CO2

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

Rozpoznawanie wzorców. Dr inż. Michał Bereta p. 144 / 10, Instytut Informatyki

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

METODY INŻYNIERII WIEDZY

Wstęp do sztucznych sieci neuronowych

SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU)

ALGORYTM RANDOM FOREST

Politechnika Warszawska

Temat: ANFIS + TS w zadaniach. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

ĆWICZENIE 5: Sztuczne sieci neuronowe

ZASTOSOWANIE SIECI NEURONOWYCH DO OPTYMALIZACJI WARUNKÓW OBRÓBKI CIEPLNEJ STOPÓW Mg-Al

I EKSPLORACJA DANYCH

Sztuczne sieci neuronowe

Algorytmy wstecznej propagacji sieci neuronowych

Metody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF.

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

Analiza składowych głównych. Wprowadzenie

Widzenie komputerowe

MOŻLIWOŚCI ZASTOSOWANIA METOD DATA MINING DO ANALIZY ILOŚCI ŚCIEKÓW DOPŁYWAJĄCYCH DO OCZYSZCZALNI

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2014/2015

Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

SZTUCZNA INTELIGENCJA

Algorytmy sztucznej inteligencji

sieci jednowarstwowe w MATLABie LABORKA Piotr Ciskowski

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI

Sztuczne sieci neuronowe. Uczenie, zastosowania

SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU)

ALGORYTMY SZTUCZNEJ INTELIGENCJI W LOGISTYCE

PROGNOZOWANIE I SYMULACJE EXCEL 1 AUTOR: MARTYNA MALAK PROGNOZOWANIE I SYMULACJE EXCEL 1 AUTOR: MARTYNA MALAK

PRÓBA ZASTOSOWANIA SIECI NEURONOWYCH DO PROGNOZOWANIA OSIADAŃ POWIERZCHNI TERENU POWSTAŁYCH NA SKUTEK EKSPLOATACJI GÓRNICZEJ**

wiedzy Sieci neuronowe (c.d.)

Metody klasyfikacji i rozpoznawania wzorców. Najważniejsze rodzaje klasyfikatorów

Instrukcja realizacji ćwiczenia

Laboratorium nr 2. Identyfikacja systemu i detekcja uszkodzeń na podstawie modelu

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010

wiedzy Sieci neuronowe

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Przykładowa analiza danych

Co to jest grupowanie

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Budowa i własności. sztucznych neuronów i sieci

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

MATLAB Neural Network Toolbox uczenie sieci (dogłębnie)

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2014/2015

ROZWIĄZYWANIE UKŁADÓW RÓWNAŃ NIELINIOWYCH PRZY POMOCY DODATKU SOLVER PROGRAMU MICROSOFT EXCEL. sin x2 (1)

Zmienne zależne i niezależne

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań

Transkrypt:

Sieci neuronowe w Statistica Agnieszka Nowak - Brzezioska

Podstawowym elementem składowym sztucznej sieci neuronowej jest element przetwarzający neuron. Schemat działania neuronu: x1 x2 w1 w2 Dendrites Terminal Branches of Axon x3 w3 S y = f(s) Axon xn wn s= w i x i n i=1

Typy neuronów Są różne typy neuronów. Zależą one od metody agregacji. Najpopularniejsze: Liniowy (zagregowana wartośd wejściowa jest sumą ważonych wejśd (liniową kombinacją wartości wejściowych) s= i=1 w i x i Radialny (zagregowana wartośd wejściowa jest odległością między wektorem wejściowym a wektorem wag) n n i=1 s= (w i x i ) 2 x 1 x 2 x n w 1 w 2 w n n s= i=1 w i x i y y = f(s) S- zagregowana wartośd wejściowa Funkcja aktywacji

Funkcja aktywacji Dla neuronów liniowych: Liniowa, logistyczna (sigmoidalna), hiperboliczna (tangensoidalna), wykładnicza, sinus, Dla neuronów radialnych: gausowska (dla neuronu radialnego). Uwaga: liniowa ma byd agregacja. Zaś wartośd wyjściowa może byd wyznaczona z nieliniowej f.aktywacji.

Uczenie neuronu Uczenie neuronu odbywa się poprzez modyfikację WAG. Neurony w danej warstwie się nie komunikują. Chodzi o taki dobór wag by minimalizowad funkcję błędu: E=(D Y) 2 = (D f(w 1, w 2 )) 2 Tu wartośd Y zależy od wag w 1, w 2 x 1 w 1 x 2 w 2 Y = f(w 1, w 2 ) y

Predykcja Wejścia: X 1 X 2 X 3 Wyjścia: Y Model: Y = f(x 1 X 2 X 3 ) X 1 =1 X 2 =-1 X 3 =2 0.2 = 0.5 * 1 0.1*(-1) 0.2 * 2 0.5 0.6-0.1 0.1-0.2 0.7 f(x) = e x / (1 + e x ) f(0.2) = e 0.2 / (1 + e 0.2 ) = 0.55 0.2 f (0.2) = 0.55 0.55 0.9 f (0.9) = 0.71 0.71 Predykcja Y = 0.478 0.1-0.2-0.087 f (-0.087) = 0.478 0.478 Jeśli aktualnie Y = 2 To błąd predykcji = (2-0.478) =1.522

Schemat uczenia się 1. Wybierz losowo jedną z obserwacji 2. Przejdź przez odpowiednie procedury by wyznaczyd wartośd wejścia 3. Porównaj wartośd pożądaną z tą rzeczywiście uzyskaną w sieci 4. Dostosuj wagi obliczając błąd

Backpropagation To jedna z najczęściej stosowanych technik uczenia się w sieciach neuronowych.

Jak wyznaczyd błąd predykcji sieci? Gdzie: Error i jest błędem osiągniętym w węźle i-tym, Output i jest wartością przewidzianą przez sied, Actual i jest wartością rzeczywistą (której sied powinna się nauczyd).

Zmiana wag L- jest to tzw. Współczynnik uczenia sieci, najczęściej z przedziału [0,1] Im mniejsza wartośd tego współczynnika tym wolniejszy jest proces uczenia sieci neuronowej. Często współczynnik ten jest ustawiany na najwyższą wartośd początkowo, a następnie jest redukowany przy zmianie wag sieci.

Przykład

Zmiana wag L- jest to tzw. Współczynnik uczenia sieci, najczęściej z przedziału [0,1] Im mniejsza wartośd tego współczynnika tym wolniejszy jest proces uczenia sieci neuronowej. Często współczynnik ten jest ustawiany na najwyższą wartośd początkowo, a następnie jest redukowany przy zmianie wag sieci.

Ile neuronów? Liczba neuronów w warstwie wejściowej zależy od liczby zmiennych Liczba neuronów w warstwie wyjściowej zależy od typu problemu Liczba neuronów w warstwie ukrytej zależy od badacza (jego doświadczenia)

Zastosowanie sieci neuronowych Zadania klasyfikacyjne sied ma za zadanie ustalad do jakiej klasy dany obiekt ma należed (klasy są wtedy w skali nominalnej) Zadania regresyjne - sied ma za zadanie przewidzied wartośd zmiennej objaśnianej tak dobrze jak to możliwe (zmienna objaśniana jest wtedy w skali ilościowej)

Zadanie klasyfikacyjne 1. Otwórz zbiór leukemia.sta 2. Wybór typu zadania dla sieci neuronowej:

3. Wybór odpowiednich zmiennych: 4. Automatyczne sieci neuronowe ze standardowymi ustawieniami

Można zmienid proporcje podziału zbioru danych na próbki: uczącą, testową i walidacyjną

Automatyczne tworzenie sieci neuronowej Neurony liniowe (MLP) Minimalnie (3) maksymalnie (10) neuronów w ukrytych warstwach 20 sieci na nauczenia, 5 najlepszych zostanie wybranych Funkcja błędu: suma kwadratów różnic między wartością oczekiwaną a wartością rzeczywistą Okno pokazuje: tworzenie sieci 19 z 20, 3-6-2 oznacza sied z 3 neuronami w warstwie wejściowej, 6 neuronami w warstwie ukrytej oraz 2 w warstwie wyjściowej.

Mamy 5 najlepszych znalezionych typów sieci neuronowych. Jak widad nie wszystkie mają tę samą liczbę neuronów w warstwie ukrytej (sied 4 ma 5, sieci 1 i 3 mają 3,a sied 2 ma aż 6 neuronów w warstwie ukrytej). Klikając wybrane zaakceptujemy je do dalszego wykorzystania Wynik Dla każdej sieci mamy jej nazwę (mówiącą ile neuronów w każdej z warstw, błędy uzyskane dla grup: uczącej, testowej i walidacyjnej, zastosowany algorytm uczenia się (zazwyczaj jest to BFGS czyli Back Propagation) i mamy też informację jaka była funkcja błędu. Nie zmieniając innych ustawieo (tylko dodatkowo zaznaczając opcję Inputs w sekcji include, wybierzmy najlepsze wg nas trzy sieci.

Oczywiście za każdym uruchomieniem możemy uzyskad zupełnie inne sieci dla tych samych danych i tych samych ustawieo początkowych

Zostały nam 3 sieci najlepsze

Mamy do dyspozycji Zakładki: Predictions Graphs Details Liftcharts Custom predictions Oraz opcję SUMMARY

Predictions Widzimy które sieci dla jakich danych wejściowych błędni klasyfikowały

Details Ciekawe są opcje: Summary Weights Confusion matrix (macierz pomyłek, które pokazuje że niektóre sieci mają duży procent pomyłek)

Details Ciekawe są opcje: Summary Weights Confusion matrix (macierz pomyłek, które pokazuje że niektóre sieci mają duży procent pomyłek)

Details Ciekawe są opcje: Summary Weights Confusion matrix (macierz pomyłek, które pokazuje że niektóre sieci mają duży procent pomyłek)

Results

Zakładka liftcharts Obowiązkowa lektura: http://www.statsoft.pl/czytelnia/artykuly/krzywe_roc_czyli_ocena_jakosci.pdf

1. Otwórz zbiór tomatoes.sta Zadanie regresyjne 2. Wybór typu zadania dla sieci neuronowej:

3. Wybór odpowiednich zmiennych: 4. Automatyczne sieci neuronowe ze standardowymi ustawieniami

W zakładce MLP activation functions możemy wybrad typy funkcji do procesu uczenia się sieci Nie mamy już do wyboru typu funkcji błędu gdyż przy zadaniach regresyjnych zawsze jest stosowana funkcja sumy kwadratów różnic.

Mamy 5 najlepszych znalezionych typów sieci neuronowych. Jak widad nie wszystkie mają tę samą liczbę neuronów w warstwie ukrytej Klikając wybrane zaakceptujemy je do dalszego wykorzystania Wynik Nie zmieniając innych ustawieo (tylko dodatkowo zaznaczając opcję Inputs w sekcji include, wybierzmy najlepsze wg nas trzy sieci.

Oczywiście za każdym uruchomieniem możemy uzyskad zupełnie inne sieci dla tych samych danych i tych samych ustawieo początkowych

Zostały nam 2 sieci najlepsze

Mamy do dyspozycji Zakładki: Predictions Graphs Details Liftcharts Custom predictions Oraz opcję SUMMARY

Predictions Widzimy które sieci dla jakich danych wejściowych jaką wartośd zmiennej objaśnianej określały

Przy zadaniach regresyjnych warto zrobid w zakładce Graphs wykresy rozproszenia dla zmiennej objaśnianej (output) i oczekiwanej objaśnianej (Target) Graphs

Details Ciekawe są opcje: Summary Weights Correlation coefficients Confusion matrix - Warto zauważyd, że nie mamy już do dyspozycji macierzy pomyłek.

Results

Zaleca się lekturę wykładu: http://zsi.tech.us.edu.pl/~nowak/si/si_w4.pdf