Inteligentne systemy przeciw atakom sieciowym

Podobne dokumenty
Metody Sztucznej Inteligencji II

Podstawy sztucznej inteligencji

Podstawy sztucznej inteligencji

Sztuczne sieci neuronowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Wstęp do sztucznych sieci neuronowych

ELEMENTY SZTUCZNEJ INTELIGENCJI. Sztuczne sieci neuronowe

Podstawy Sztucznej Inteligencji (PSZT)

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

8. Neuron z ciągłą funkcją aktywacji.

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

wiedzy Sieci neuronowe

Elementy inteligencji obliczeniowej

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe

Sztuczne sieci neuronowe (SNN)

Sieci neuronowe w Statistica

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Sztuczne sieci neuronowe

Temat: Sieci neuronowe oraz technologia CUDA

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Zastosowania sieci neuronowych

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

MODELOWANIE RZECZYWISTOŚCI

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

6. Perceptron Rosenblatta

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

1. Logika, funkcje logiczne, preceptron.

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Projekt Sieci neuronowe

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Zastosowania sieci neuronowych

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron

Systemy uczące się wykład 2

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010

Widzenie komputerowe

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

I EKSPLORACJA DANYCH

wiedzy Sieci neuronowe (c.d.)

Lekcja 5: Sieć Kohonena i sieć ART

Uczenie sieci typu MLP

Algorytmy sztucznej inteligencji

ALGORYTMY SZTUCZNEJ INTELIGENCJI

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Uczenie sieci neuronowych i bayesowskich

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

Rozpoznawanie wzorców. Dr inż. Michał Bereta p. 144 / 10, Instytut Informatyki

Sztuczna inteligencja

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

SZTUCZNA INTELIGENCJA

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

OCENA DZIAŁANIA AE. METODY HEURYSTYCZNE wykład 4 LOSOWOŚĆ W AE KRZYWE ZBIEŻNOŚCI ANALIZA STATYSTYCZNA:

Podstawy sztucznej inteligencji

Sztuczne sieci neuronowe. Uczenie, zastosowania

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2013/2014

Wykład 1: Wprowadzenie do sieci neuronowych

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

SIEĆ NEURONOWA JAKO NARZĘDZIE APROKSYMACJI I KLASYFIKACJI DANYCH. Jakub Karbowski Gimnazjum nr 17 w Krakowie

Sieć przesyłająca żetony CP (counter propagation)

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Metody klasyfikacji i rozpoznawania wzorców. Najważniejsze rodzaje klasyfikatorów

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

Elementy kognitywistyki III: Modele i architektury poznawcze

Agnieszka Nowak Brzezińska Wykład III

METODY INŻYNIERII WIEDZY

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD XI: Sztuczne sieci neuronowe


Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW

Systemy uczące się wykład 1

Przykładowa analiza danych

Obliczenia Naturalne - Sztuczne sieci neuronowe

Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe. Krzysztof Regulski, WIMiIP, KISiM, B5, pok. 408

Systemy uczące się Lab 4

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

Wprowadzenie do Sieci Neuronowych Laboratorium 05 Algorytm wstecznej propagacji błędu

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.

Agnieszka Nowak Brzezińska

Wprowadzenie do klasyfikacji

Badacze zbudowali wiele systemów technicznych, naśladujących w komputerze ludzki mózg. Najbardziej pożyteczne okazały się sieci neuronowe.

Deep Learning na przykładzie Deep Belief Networks

Agnieszka Nowak Brzezińska Wykład III

Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I.

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

Sztuczne siei neuronowe - wprowadzenie

PRÓBA ZASTOSOWANIA SIECI NEURONOWYCH DO PROGNOZOWANIA OSIADAŃ POWIERZCHNI TERENU POWSTAŁYCH NA SKUTEK EKSPLOATACJI GÓRNICZEJ**

SZTUCZNA INTELIGENCJA

Inteligentne systemy informacyjne

Transkrypt:

Inteligentne systemy przeciw atakom sieciowym wykład Sztuczne sieci neuronowe (SSN) Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 1 / 36

Biologiczne wzorce sztucznej sieci neuronowej Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 Sztuczny neuron 3 Perceptron 4 Architektury jednokierunkowych sztucznych sieci neuronowych Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 2 / 36

Biologiczne wzorce sztucznej sieci neuronowej Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału elektrycznego przekazywana do neuronu przekracza pewną wartość, neuron ulega depolaryzacji, powodując pobudzenie komórki nerwowej. Pobudzenie polega na wyładowaniu neuronu, a powstały sygnał przesyłany jest do innych neuronów. Siła wyładowania neuronu jest niezależna od bieżącej depolaryzacji, siły, która go spowodowała. Dopóki prąd przekracza określony próg, wielkość wyładowanie pozostanie taka sama (w danym neuronie). Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 3 / 36

Biologiczne wzorce sztucznej sieci neuronowej Budowa neuronu biologicznego Neuron składa się z: 1 Wielu dendrytów, których celem jest pobieranie impulsów od innych neuronów. 2 Ciała komórki z jądrem. 3 Jednego aksonu, który przekazuje wyładowanie do kolejnych komórek. 4 Synaps neuroprzekaźników osłabiających lub wzmacniających sygnał wyjściowy. 1 2 1 http://www.smart-publications.com/articles/view/choline-uridine-builds-newneurons-and-protect-against-alzheimers/ 2 http://medgadget.com/archives/2006/04/httpwwwmakezine.html Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 4 / 36

Sztuczny neuron Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 Sztuczny neuron 3 Perceptron 4 Architektury jednokierunkowych sztucznych sieci neuronowych Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 5 / 36

Sztuczny neuron Sztuczna sieć neuronowa Sztuczna sieć neuronowa Sztuczne sieci neuronowe (SSN) łączą w sobie małe procesory (jednostki przetwarzania), a każdy naśladuje funkcje pojedynczego neuronu biologicznego. W ten sposób tworzą sztuczny mózg do przetwarzania informacji. Dzięki połączeniu wielu takich sztucznych neuronów, z których każdy posiada jedno wyjście, SSN może wykonywać złożone funkcje. Sztuczna neuron Każdy procesor, podobnie jak neuron, ma poziom progowy, który musi być przekroczony nim nastąpi transmisja sygnału. Binarny charakter procesora można porównać do włącznika światła. Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 6 / 36

Sztuczny neuron Sztuczny Neuron Działanie neuronu o = ϕ(net) = ϕ( n x i w i ) gdzie x i wejścia i x 0 = 1, w i wagi, ϕ funkcja aktywacji, net pobudzenie neuronu, o wyjście z neuronu i=0 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 7 / 36

Sztuczny neuron Cechy neuronu Wejścia i wagi są liczbami rzeczywistymi dodatnimi i ujemnymi. Jeżeli jakaś cecha (wejście) powoduje odpalenie neuronu, waga będzie dodatnia, a jeżeli cecha ma działanie hamujące to waga jest ujemna. Funkcję aktywacji dobiera się do rozwiązywanego zadania. Wagi są dopasowywane przez pewną regułę uczenia tak, by zależność wejście/wyjście w neuronie spełniało pewien określony cel. Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 8 / 36

Sztuczny neuron Stosowane w SSN funkcje aktywacji 3 3 Neural Network Design, M. T. Hagan, H. B. Demuth, M. H. Beale Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 9 / 36

Sztuczny neuron Stosowane w SSN funkcje aktywacji 4 4 Neural Network Design, M. T. Hagan, H. B. Demuth, M. H. Beale Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 10 / 36

Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 Sztuczny neuron 3 Perceptron 4 Architektury jednokierunkowych sztucznych sieci neuronowych Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 11 / 36

Perceptron prosty (Rosenblatt 1962) Perceptron prosty jest najprostszą SSN, używaną do klasyfikacji binarnej. Perceptron składa się z pojedynczego neuronu z regulacją wag. Rosenblatt zaproponowała twierdzenie zbieżności perceptronu, stwierdzając, że konwergencja jest gwarantowana wtedy i tylko wtedy, gdy wzorce wykorzystywane do uczenia perceptronu tworzą dwie separowalne klasy. Powierzchnia decyzyjna zostanie umieszczona w formie hiperpłaszczyzny gdzieś pomiędzy tymi dwiema grupami. Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 12 / 36

Perceptron model Funkcja aktywacji f ( w, x ) = { 1 if w, x > 0; 0 if w, x 0. Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 13 / 36

Zadanie klasyfikacji binarnej Klasyfikacja binarna Klasyfikacja polega na przydzieleniu obiektu do pewnej klasy na podstawie jego atrybutów (danych wejściowych). W klasyfikacji binarnej wyjściem jest dwupunktowe wyjście (możliwe dwie klasy na wyjściu). Niech dany będzie zbiór uczący (zbiór par) (x i, y i ) i = 1,..., I, gdzie x i = (x i1, x i2,..., x in ) R n są danymi wejściowymi a y i {0, 1} są skojarzonymi z nimi klasami (wyjściami). Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 14 / 36

Płaszczyzna separacji klas Równanie płaszczyzny w przestrzeni R n w 0 + w 1 x 1 + w 2 x 2 + + w n x n = 0 czyli należy znaleźć taki zestaw w 0, w 1, w 2,..., w n, że i,yi =1w 0 + w 1 x 1 + w 2 x 2 + + w n x n > 0 oraz i,yi =0w 0 + w 1 x 1 + w 2 x 2 + + w n x n 0, gdy dodamy jeszcze jeden punkt do wejść x i = (1, x i1, x i2,..., x in ), to równanie płaszczyzny: n w, x i = w j x ij j=0 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 15 / 36

Przykład dwuwymiarowy Dane uczące: x 1 x 2 y 1 1 1 1 0 0 0 1 0 0 0 0 Nauczony neuron (ustalone wagi): Przestrzeń wejść: Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 16 / 36

Uczenie SSN Uczenie Uczenie polega na automatycznym doborze wag w SSN, na podstawie zbioru przykładów nazwanych zbiorem uczącym. Zaczyna się z losowymi małymi wagami i iteracyjnie zmienia się wagi, dopóki wszystkie przykłady uczące nie zostaną poprawnie zaklasyfikowane (lub z niewielkim błędem). Wyróżnia się dwa typy uczenia, zależy od wykorzystanej sieci i przykładów (zbioru uczącego): 1 nadzorowane (z nauczycielem), gdy w zbiorze danych do każdej próbki podana jest poprawna klasa 2 nienadzorowane (bez nauczyciela), zbiór danych nie ma wektora odpowiedzi. Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 17 / 36

Algorytm uczenia perceptronu 1 Niech w(0) = (0,..., 0) lub wartości losowe z przedziału [ 1, 1], k = 0 2 Dopóki zbiór punktów uczących pozostaje błędnie klasyfikowany tj. zbiór A = {x i : y i f ( w, x i )} pozostaje niepusty, powtarzaj: 1 Wylosuj ze zbioru A dowolny punkt 2 Aktualizuj wagi według następuącej reguły: 3 k = k + 1 w(k + 1) = w(k) + ηex i Gdzie η współczynnik uczenia η (0, 1]. A e jest wartością błędu popełnianego na prezentowanej próbce. Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 18 / 36

Analiza algorytmu na przykładzie testowym Przykład pochodzi z książki Neural Network Design, M. T. Hagan, H. B. Demuth, M. H. Beale. Zbiór uczący {x 1 = (1, 2), y 1 = 1} {x 2 = ( 1, 2), y 2 = 0} {x 3 = (0, 1), y 3 = 0} Architektura sieci: Przestrzeń wejść: Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 19 / 36

Konsekwencje braku wejścia x 0 Usunięcie dodatkowego wejścia powoduje, że płaszczyzna decyzyjna musi przejść przez początek układu współrzędnych, bo: w 1 x 1 + w 2 x 2 = 0 to równanie prostej przechodzącej przez punkt (0, 0). Trzeba być pewnym, że taka sieć rozwiąże problem separacji punktu x 1 od punktów x 2 i x 3. Jak widać rozwiązań jest nieskończenie wiele. Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 20 / 36

Cel uczenia Rysunek pokazuje wektory wag, które odpowiadają granicom decyzyjnym. Wektor jest prostopadły do granicy decyzyjnej. Reguła ucząca ma znaleźć wektor wag, który wskazuje w jednym ze wskazanych kierunków. Długość wektora wag nie ma znaczenia, ważny jest tylko kierunek. Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 21 / 36

Ustalenie wartości początkowych wag Zakłada się losowo ustalenie wartości wag początkowych i tak: w(0) = (1, 0.8) Na wykresie zaprezentowano początkowy wektor wag i granicę decyzyjną dla takich wag. Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 22 / 36

Prezentacja pierwszego punktu ze zbioru uczącego Pierwszym prezentowanym punktem jest x 1. f ( w, x i ) = f (1 1 + ( 0.8) 2) = f ( 0.6) = 0 Wiemy, że y 1 = 1, zatem sieć popełniła błąd i wskazała złą klasę dla punktu x 1. Jak widać na rysunku z poprzedniego slajdu granica decyzyjna jest nieprawidłowo położona w stosunku do punktu uczącego. Powinno się zatem przesunąć wektor wag nieznacznie w kierunku punktu x 1. Można tego dokonać dodając do wektora wag wektor x i. Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 23 / 36

Wnioski co do poprawki wag Reguła korekty wag (1) Jeżeli y i = 1 i f ( w, x i ) = 0 to w(k + 1) = w(k) + x i Wagi po korekcie: w(1) = (1 + 1, 0.8 + 2) = (2, 1.2) Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 24 / 36

Prezentacja drugiego punktu ze zbioru uczącego Drugim prezentowanym punktem jest x 2. f ( w, x i ) = f (2 ( 1) + 1.2 2) = f (0.4) = 1 Wiemy, że y 2 = 0, zatem sieć popełniła błąd i wskazała złą klasę dla punktu x 2. Jak widać na rysunku z poprzedniego slajdu granica decyzyjna jest nieprawidłowo położona w stosunku do punktu uczącego. Powinno się zatem odsunąć wektor wag nieznacznie od punktu x 2. Można tego dokonać odejmując do wektora wag wektor x i. Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 25 / 36

Wnioski co do poprawki wag Reguła korekty wag (2) Jeżeli y i = 0 i f ( w, x i ) = 1 to w(k + 1) = w(k) x i Wagi po korekcie: w(2) = (2 ( 1), 1.2 2) = (3, 0.8) Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 26 / 36

Prezentacja trzeciego punktu ze zbioru uczącego Trzecim prezentowanym punktem jest x 3. f ( w, x i ) = f (3 0 + ( 0.8) ( 1)) = f (0.8) = 1 Wiemy, że y 2 = 0, zatem sieć popełniła błąd i wskazała złą klasę dla punktu x 2. Stosując regułę 2 poprawia się wagi: w(3) = (3 0, ( 0.8) ( 1)) = (3, 0.2) Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 27 / 36

Kolejna seria prezentacji wzorców uczących Prezentując ponownie wszystkie punkty uczące uzyskujemy bezbłędne sklasyfikowanie wszystkich 3 punktów. Oznacza to, że wagi w = (3, 0.2) są rozwiązaniem dla uczonego klasyfikatora. Korekty wag 1 Jeżeli y i = 1 i f ( w, x i ) = 0 to w(k + 1) = w(k) + x i 2 Jeżeli y i = 0 i f ( w, x i ) = 1 to w(k + 1) = w(k) x i 3 Jeżeli y i = f ( w, x i ) to w(k + 1) = w(k) Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 28 / 36

Reguła uczenia perceptronu Potrójna reguła na korektę wag może być zapisana w postaci pojedynczego równania. Niech błąd popełniany przez sieć neuronową: e = y i f ( w, x i ) 1 Jeżeli e = 1 to w(k + 1) = w(k) + x i 2 Jeżeli e = 1 to w(k + 1) = w(k) x i 3 Jeżeli e = 0 to w(k + 1) = w(k) Korekta regułą perceptronu (delta) w(k + 1) = w(k) + ex i Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 29 / 36

Architektury jednokierunkowych sztucznych sieci neuronowych Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 Sztuczny neuron 3 Perceptron 4 Architektury jednokierunkowych sztucznych sieci neuronowych Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 30 / 36

Architektury jednokierunkowych sztucznych sieci neuronowych Perceptron prosty jednowarstowy Pojedyncza warstwa neuronów (Single layer perceptron) - cechy 1 Pewna liczba neuronów S jest ułożona w warstwie i wszystkie wejścia R sieci zasilają wszystkie neurony. S R. 2 Wyjście z sieci jest wektorem. Wagi są macierzą S R. 3 Umożliwia klasyfikację do większej liczby klas. 4 Zazwyczaj wszystkie neurony mają tą samą funkcję aktywacji. Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 31 / 36

Architektury jednokierunkowych sztucznych sieci neuronowych Sieć wielowarstwowa MLP Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 32 / 36

Architektury jednokierunkowych sztucznych sieci neuronowych Cechy sieci MLP Wielowarstwowy perceptron 1 Ostatnia warstwa nazywana jest wyjściową, a wewnętrzne warstwami ukrytymi. 2 MLP ma dużo większe zastosowania niż pojedyncza warstwa. 3 Liczba wejść i neuronów wyjściowych jest określona przez rozwiązywane zadanie (zbiór danych wejściowych). 4 Liczba warstw ukrytych powinna być ograniczona do jednej lub dwóch. Wyjaśnienie na kolejnym slajdzie. 5 Nie ma wskazania ile powinno być neuronów w każdej warstwie. Źle dobrana ta liczba będzie skutkować złym dopasowaniem (nadmiernym lub za słabym) sieci do danych uczących. Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 33 / 36

Architektury jednokierunkowych sztucznych sieci neuronowych Graficzna prezentacja możliwości separowania klas przez MLP Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 34 / 36

Architektury jednokierunkowych sztucznych sieci neuronowych Dane uczące dla SSN 1 Należy zebrać dane niezbędne w procesie uczenia. Mogą pochodzić z baz danych. 2 Wybrać zmienne mające znaczenia dla rozwiązywanego zadania. Zazwyczaj na początku przyjmuje się wszystkie a potem dokonuje się redukcji. 3 Zebrana liczba rekordów powinna być reprezentatywna. Powinno się zadbać, by pokazać dane obejmujące pełne dziedziny zmiennych. 4 W rzeczywistości liczba potrzebnych rekordów jest również uzależniona od złożoności zależności funkcyjnej poddawanej modelowaniu. Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 35 / 36

Architektury jednokierunkowych sztucznych sieci neuronowych Dane uczące dla SSN - obróbka wstępna 1 Dane numeryczne są przeskalowywane do właściwego dla sieci przedziału (normalizacja). 2 Wartości brakujące są zastępowane wartościami średnimi (lub innymi statystykami) obliczanymi na podstawie wartości zmiennych dostępnych w ciągu uczącym. 3 Typ danych nominalnych takich jak Płeć = Mężczyzna, Kobieta zamienia się na wartości numeryczne. Przy dużej liczbie klas łączy się je w grupy. 4 Wartości ciągłe poddaje się procesowi dyskretyzacji. Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 36 / 36