wiedzy Sieci neuronowe

Podobne dokumenty
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Metody Sztucznej Inteligencji II

wiedzy Sieci neuronowe (c.d.)

Sztuczne sieci neuronowe

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Wstęp do sztucznych sieci neuronowych

8. Neuron z ciągłą funkcją aktywacji.

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Podstawy Sztucznej Inteligencji (PSZT)

Optymalizacja ciągła

Sztuczna inteligencja

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Podstawy sztucznej inteligencji

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Inteligentne systemy przeciw atakom sieciowym

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Elementy inteligencji obliczeniowej

ESI: Perceptrony proste i liniowe

Uczenie sieci neuronowych i bayesowskich

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

1. Logika, funkcje logiczne, preceptron.

SIECI NEURONOWE W ZAGADNIENIACH BEZPIECZEŃSTWA ZAOPATRZENIA W WODĘ

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe

Uczenie sieci typu MLP

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

Sieć przesyłająca żetony CP (counter propagation)

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Co to jest grupowanie

OCENA DZIAŁANIA AE. METODY HEURYSTYCZNE wykład 4 LOSOWOŚĆ W AE KRZYWE ZBIEŻNOŚCI ANALIZA STATYSTYCZNA:

ELEMENTY SZTUCZNEJ INTELIGENCJI. Sztuczne sieci neuronowe

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

Sztuczne sieci neuronowe (SNN)

METODY INŻYNIERII WIEDZY

6. Perceptron Rosenblatta

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Zastosowania sieci neuronowych

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Sztuczne sieci neuronowe

Temat: Sieci neuronowe oraz technologia CUDA

SIECI REKURENCYJNE SIECI HOPFIELDA

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania

Lekcja 5: Sieć Kohonena i sieć ART

Obliczenia Naturalne - Sztuczne sieci neuronowe

2.4. Algorytmy uczenia sieci neuronowych

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Rozpoznawanie wzorców. Dr inż. Michał Bereta p. 144 / 10, Instytut Informatyki

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.

Optymalizacja systemów

Wprowadzenie do Sieci Neuronowych Laboratorium 05 Algorytm wstecznej propagacji błędu

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5

Inteligentne systemy informacyjne

Optymalizacja ciągła

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty

MODELOWANIE RZECZYWISTOŚCI

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron

Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I.

Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe. Krzysztof Regulski, WIMiIP, KISiM, B5, pok. 408

SZTUCZNE SIECI NEURONOWE

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

SZTUCZNA INTELIGENCJA

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Widzenie komputerowe

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD XI: Sztuczne sieci neuronowe

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Uczenie sieci radialnych (RBF)

ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ

SZTUCZNA INTELIGENCJA

Elementy kognitywistyki III: Modele i architektury poznawcze

Wykład 2. Model Neuronu McCulocha-Pittsa Perceptron Liniowe Sieci Neuronowe

5. Rozwiązywanie układów równań liniowych

WYKŁAD 9 METODY ZMIENNEJ METRYKI

I EKSPLORACJA DANYCH

Metody eksploracji danych 2. Metody regresji. Piotr Szwed Katedra Informatyki Stosowanej AGH 2017

Uczenie Wielowarstwowych Sieci Neuronów o

KADD Minimalizacja funkcji

Optymalizacja optymalizacji

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

Sieci neuronowe w Statistica

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Analityczne metody detekcji uszkodzeń

Transkrypt:

Metody detekcji uszkodzeń oparte na wiedzy Sieci neuronowe Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 7

Wprowadzenie Okres kształtowania się teorii sztucznych sieci neuronowych: 1943 195 Prace pionierskie McCulloch i Pitts (1943): idea sieci neuronowych jako maszyn przetwarzajacych; matematyczny model komórki nerwowej Hebb (1949): reguła uczenia samoorganizujacego Rosenblatt (1958): propozycja sieci neuronowej (perceptron) uczonej metoda nadzorowana (z nauczycielem)

Założenia projektowe 1 Podstawowym elementem składowym sieci jest model neuronu McCullocha-Pittsa: ϕ = y = 1(ϕ) = P w p u p Θ p=1 { 1 dla ϕ > 0 0 dla ϕ 0 2 sieć można podzielić na ściśle uporzadkowane i rozłaczne klasy elementów zwanych warstwami (wejściowa, wyjściowa i ukryte) 3 perceptron nie zawiera połaczeń między elementami należacymi do tej samej warstwy 4 połaczenia pomiędzy warstwami sa asymetryczne i skierowane zgodnie z ich uporzadkowaniem, od warstwy wejściowej, poprzez ukryte do wyjściowej

Struktura sieci 1 Warstwa wejściowa elementy o uproszczonej funkcji przejścia i jednym wejściu układ receptorów odbierajacych sygnały wejściowe po wstępnym przetworzeniu (skalowanie, normalizacja, filtracja) przekazuje dane do warstwy następnej 2 Perceptron złożony tylko z warstw wejściowej i wyjściowej perceptron prosty (perceptron jednowarstwowy) 3 W praktyce ustala się dla każdego elementu przetwarzajacego wartość progu Θ = 0. Jego rolę przejmuje waga w 0 = Θ dodatkowego wejścia o wartości u 0 = 1 4 Każdy element może być traktowany jako niezależna sieć o P + 1 wejściach i jednym wyjściu

Struktura sieci u 0 =1 y 1 u 1 u P.... y 2 y N

Proces uczenia perceptronu Uczenie sieci kontynuowane jest tak długo, aż w kolejnych iteracjach nie nastapi zmiana wektora wag połaczeń wstępujacych do elementu przetwarzajacego Ustala się również zadana z góry liczbę iteracji na wypadek rozbieżności algorytmu Ważnym zagadnieniem jest kolejność prezentacji wzorców uczacych 1 prezentacja danego wzorca dopóki nie uzyska się stabilnego wektora wag i następnie przejście do kolejnego 2 prezentacja wzorców cyklicznie zgodnie z ustalona kolejnościa 3 do każdej prezentacji losowanie wzorca ze zbioru Γ = {(u µ, y z µ )} L µ=1 z prawdopodobieństwem 1 L

Reguła uczenia perceptronu Procedura podaje na wejście sieci wzorce wejściowe u µ i (µ = 1,..., L) i sprawdza jednostki wyjściowe czy ich odpowiedzi y s µ sa poprawne Jeżeli odpowiedzi sieci sa poprawne y s µ = y z µ to pozostawia się bez zmian tylko te połaczenia, które prowadza do tej jednostki Jeżeli odpowiedzi sieci sa niepoprawne y s µ y z µ to do każdego połaczenia prowadzacego do tej jednostki dodaje się pewna liczbę proporcjonalna do iloczynu sygnału wejściowego i pożadanego sygnału wyjściowego Matematyczny zapis reguły perceptronu w ik = w nowe ik = w stare ik + w ik { ηy µ zi uµ k jeżeli y µ zi y µ si 0 w pozostałych przypadkach

Reguła uczenia perceptronu Alternatywny zapis w µ ik = η(y µ zi y µ si )uµ k gdzie: η współczynnik uczenia 1 dla y µ zi = 0 i y µ si = 1 y µ zi y µ si = 0 1 dla y µ zi = y µ si dla y µ zi = 1 i y µ si = 0

Przykład 1 Korzystajac z reguły uczenia perceptronu wyznaczyć jego wagi tak, aby rozpoznawał elementy dwóch zbiorów u 0 u 1 u 2 y z 1 0 0 0 1 0 1 1 1 1 0 1 1 1 1 1 Przyjać poczatkowe wartości wag jako wektor w 0 = [1 1 1] Krok uczenia przyjać η = 0.5

Przykład 1 Struktura sieci u 1 w 1 w 2 u 0 =1 w 0 y u 2 + Poczatkowa granica decyzyjna Granica decyzyjna to hiperpłaszczyzna rozdzielajaca elementy należace do dwóch różnych klas granicę decyzyjna wyznacza się dla ϕ = 0 ϕ = w 0 + w 1 u 1 + w 2 u 2 0 = w 0 + w 1 u 1 + w 2 u 2 w 1 u 2 = u 1 w 0 w 2 w 2 poczatkowa granica decyzyjna d 0 : u 2 = u 1 1

Przykład 1 Odpowiedź sieci na poszczególne wzorce ys 1 = 1, yz 1 ys 1 = 1, w 1 = [ 1 0 0] ys 2 = 1, yz 2 ys 2 = 0, w 2 = [0 0 0] ys 3 = 0, yz 3 ys 3 = 1, w 3 = [1 1 0] ys 4 = 1, yz 4 ys 4 = 0, w 4 = [0 0 0] Wynikowy wektor korekcyjny w = w 1 + w 2 + w 3 + w 4 = [0 1 0] nowy wektor wag w nowe = w stare + η w = [1 1 1] + 0.5[0 1 0] = [1 0.5 1] Nowa granica decyzyjna d 1 : u 2 = u 1 0.5 1 1 1 = 0.5u 1 1

Przykład 1 u 2 1 0 d 0 0 1 d 1 u 1

Separowalność liniowa 1 Zbiory wektorów wejściowych dla których funkcja aktywacji przyjmuje wartości 0 i 1 musza być liniowo rozdzielne, tzn. musza leżeć w dwóch różnych półpłaszczyznach rozdzielonych hiperpłaszczyzna 2 Warunek separowalności liniowej nie zawsze jest spełniony Rozważmy np. problem XOR: u 1 u 2 y z 0 0 0 0 1 1 1 0 1 1 1 0

Separowalność liniowa Dwa zbiory punktów nie sa rozdzielne liniowo u 2 1 0 0 1 u 1 Potrzebne sa co najmniej 2 linie do rozróżnienia tych zbiorów

Separowalność liniowa Punkty nie będace w położeniu ogólnym u 2 1 0 0 1 u 1 Nie można rozgraniczyć tych punktów bo leża na jednej linii

Jednostki liniowe Zamiast funkcji aktywacji w postaci skoku jednostkowego można zastosować funkcję liniowa Funkcja kosztu przyjmuje postać funkcji ciagłej i różniczkowalnej do jej minimalizacji można zastosować cała gamę technik optymalizacji, np. metody gradientowe Dla jednostek z liniowa funkcja aktywacji postaci f (ϕ) = ϕ wyjście neuronu dane jest zależnościa y µ = K w k u µ k k=1 gdzie u µ k µ-ty wzorzec wejściowy na k-tym wejściu, w k waga k-tego połaczenia synaptycznego, y µ odpowiedź neuronu na µ-ty wzorzec wejściowy

Jednostki liniowe Należy znaleźć regułę uczenia zdolna do znalezienia takiego zbioru wag aby odpowiedź neuronu była jak najbardziej zbliżona do wartości zadanej Definiuje się funkcję kosztu J = 1 (y z µ y µ ) 2 2 µ Do minimalizacji J można użyć metody gradientowej najszybszego spadku w k = η J 1 2 µ = η (y z µ y µ ) 2 = η (y z µ y µ ) y µ w k w k µ w k = η µ (y µ z y µ ) j w ju µ j w k = η µ (y µ z y µ )u µ k = η µ Powyższe wyrażenie nazywa się reguła delty (adaline, Widrowa-Hoffa, najmniejszych kwadratów) e µ u µ k

Jednostki liniowe Funkcja kosztu jest forma kwadratowa wejść (suma kwadratów błędów) W podprzestrzeni wzorców jej powierzchnia jest paraboliczna czasza z pojedynczym minimum W przypadku gdy wejścia sa liniowo niezależne, minimum występuje dla J = 0 B³¹d Podprzestrzeñ wzorców

Jednostki liniowe Reguła delty bezwzględnie zmniejsza bład, jeżeli η jest dostatecznie małe Przykład 2 Funkcja J = x 2 + 20y 2 η = 0, 02 η = 0, 0476 + + η = 0, 049 η = 0, 0505 + +

Jednostki nieliniowe Właściwości neuronu można polepszyć poprzez wprowadzenie nieliniowej funkcji aktywacji Funkcja kosztu przyjmuje postać jak dla jednostek liniowych Reguła aktualizacji w k = η J 1 2 µ = η (y z µ y µ ) 2 = η w k w k µ (y µ z y µ ) y µ w k = η µ (y µ z y µ ) f ( j w ju µ j ) w k = η µ (y µ z y µ )f (y µ )u µ k = w k = η µ e µ f (y µ )u µ k Powyższa regułę nazywa się uogólniona reguła delty.

Jednostki nieliniowe Dla funkcji sigmoidalnej 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0-4 -3-2 -1 0 1 2 3 4 0.25 0.2 0.15 0.1 0.05 0-4 -3-2 -1 0 1 2 3 4 Pochodna f ma wartość największa, gdy potencjał membranowy ma wartość mała Największe zmiany wag następuja gdy na wejściu jednostek pojawiaja się małe sygnały, tzn. gdy istnieja watpliwości dotyczace sygnału na wejściu

Jednostki nieliniowe Dla funkcji sigmoidalnej f (x) = 1 1 + exp(x) jej pochodna może zostać wyznaczona f (x) = f (x)(1 f (x)) upraszcza to złożoność obliczeniowa reguły uczenia W przypadku zastosowania jednostek nieliniowych funkcja kosztu staje się funkcja multimodalna i reguła może utknać w jednym z minimów lokalnych

Pojemność perceptronu prostego Problem: Ile losowych par wejście-wyjście można w niezawodny sposób zmagazynować w sieci o danym rozmiarze? Dla jednostek ciagłych liniowych i nieliniowych odpowiedź jest prosta. Jeżeli wybierze się p wzorców losowych, to będa one liniowo niezależne gdy p N. Stad pojemność maksymalna p max = N (N liczba jednostek wejściowych) Dla jednostek progowych odpowiedź jest trudniejsza ze względu na separowalność liniowa. Odpowiedź dla ciagłych losowych wejść była wyprowadzona przez Covera i wynosi p max = 2N ( ) Liczba jednostek wyjściowych może być mała i ustalona (niezależnie od N). Precyzyjniej, równanie ( ) jest prawdziwe w granicy dla N