Sztuczne sieci neuronowe

Podobne dokumenty
Sztuczne sieci neuronowe

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Sztuczne sieci neuronowe (SNN)

Sztuczne sieci neuronowe

MODELOWANIE RZECZYWISTOŚCI

Metody Sztucznej Inteligencji II

Inteligentne systemy informacyjne

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Wstęp do sztucznych sieci neuronowych

Wykład 1: Wprowadzenie do sieci neuronowych

Temat: Sieci neuronowe oraz technologia CUDA

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

8. Neuron z ciągłą funkcją aktywacji.

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

Podstawy Sztucznej Inteligencji (PSZT)

Podstawy sztucznej inteligencji

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Inteligentne systemy przeciw atakom sieciowym

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

1. Logika, funkcje logiczne, preceptron.

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe

ELEMENTY SZTUCZNEJ INTELIGENCJI. Sztuczne sieci neuronowe

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

Zastosowania sieci neuronowych

Uczenie sieci neuronowych i bayesowskich

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

SIECI RBF (RADIAL BASIS FUNCTIONS)

Sztuczne siei neuronowe - wprowadzenie

wiedzy Sieci neuronowe

Algorytmy sztucznej inteligencji

OCENA DZIAŁANIA AE. METODY HEURYSTYCZNE wykład 4 LOSOWOŚĆ W AE KRZYWE ZBIEŻNOŚCI ANALIZA STATYSTYCZNA:

SZTUCZNE SIECI NEURONOWE

METODY INTELIGENCJI OBLICZENIOWEJ wykład 4

SZTUCZNE SIECI NEURONOWE

I EKSPLORACJA DANYCH

Przykładowe funkcje przejścia używane przy budowie sztucznych neuronów

Sieci neuronowe w Statistica

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Sztuczne sieci neuronowe. Uczenie, zastosowania

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Uczenie sieci radialnych (RBF)

Podstawy Sztucznej Inteligencji

Seminarium magisterskie. Dyskusja nad tematem pracy magisterskiej pisanej pod kierunkiem pani Dr hab. Małgorzaty Doman

Badacze zbudowali wiele systemów technicznych, naśladujących w komputerze ludzki mózg. Najbardziej pożyteczne okazały się sieci neuronowe.

PRÓBA ZASTOSOWANIA SIECI NEURONOWYCH DO PROGNOZOWANIA OSIADAŃ POWIERZCHNI TERENU POWSTAŁYCH NA SKUTEK EKSPLOATACJI GÓRNICZEJ**

SZTUCZNA INTELIGENCJA

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

Obliczenia Naturalne - Sztuczne sieci neuronowe

Lekcja 5: Sieć Kohonena i sieć ART

Sieć przesyłająca żetony CP (counter propagation)

Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I.

6. Perceptron Rosenblatta

Definicja perceptronu wielowarstwowego

Budowa i własności. sztucznych neuronów i sieci

Zastosowania sieci neuronowych

Uczenie sieci typu MLP

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Systemy Inteligentnego Przetwarzania wykład 7: Sieci RBF

Elementy inteligencji obliczeniowej

Sztuczna inteligencja

Sztuczne Sieci Neuronowe

Sztuczne Sieci Neuronowe

Sieci neuronowe i ich ciekawe zastosowania. Autor: Wojciech Jamrozy III rok SMP / Informatyka

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

mgr inż. Maciej Rudek opracował: dr inż. Daniel Kopiec

Metody sztucznej inteligencji

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

Praktyczne informacje o sieciach neuronowych. Elżbieta Dłubis. Państwowa Wyższa Szkoła Zawodowa w Chełmie

Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe. Krzysztof Regulski, WIMiIP, KISiM, B5, pok. 408

wiedzy Sieci neuronowe (c.d.)

SIECI REKURENCYJNE SIECI HOPFIELDA

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2013/2014

Aproksymacja funkcji a regresja symboliczna

METODY INŻYNIERII WIEDZY

SIEĆ NEURONOWA JAKO NARZĘDZIE APROKSYMACJI I KLASYFIKACJI DANYCH. Jakub Karbowski Gimnazjum nr 17 w Krakowie

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD XI: Sztuczne sieci neuronowe

Prawdopodobieństwo geometryczne

Podstawy sztucznej inteligencji

Transkrypt:

Wydział Zarządzania AGH Katedra Informatyki Stosowanej Sztuczne sieci neuronowe

Sztuczne sieci neuronowe Wprowadzenie Trochę historii Podstawy działania Funkcja aktywacji Typy sieci 2

Wprowadzenie Zainteresowanie SSN wynika z potrzeby budowania efektywnych systemów przetwarzania informacji opartych na regułach neurofizjologii. Przetwarzanie w takich systemach odbywa się w sposób równoległy w odróżnieniu od klasycznych, sekwencyjnych systemów wywodzących się z modelu von Neumanna. Spostrzeżenia: tradycyjne systemy są mało wydajne, mózg ludzki ma przewagę nad maszyną. Często podkreślane podobieństwo do systemów biologicznych jest raczej nieuzasadnione, gdyż wciąż zbyt mało wiemy o rzeczywistym funkcjonowaniu mózgu, a sztuczne sieci są z pewnością znacznie uproszczonym modelem systemu neuronów. 3

Wprowadzenie Neuron Synapse Soma Dendrite Axon 4

Wprowadzenie Liczba neuronów: ~ 10 10 Liczba połączeń poj. neuronu: ~ 10 4-10 5 Czas reakcji: ~ 0,001 sekundy Liczba operacji neuronu: 10-100/s Szybkość pracy mózgu ~ 10 15-10 17 op/s W rezultacie: czas rozpoznania obrazu: ~ 0,1 sekundy 5

Wprowadzenie - trochę historii w 1943 McCulloch i Pitts opracowali matematyczny model sztucznego neuronu. w 1957 Rosenblatt zbudował pierwszy (hardwarowy) model neuronu przeznaczony do rozpoznawania znaków alfanumerycznych. w 1969 Minsky i Papert udowodnili, że perceptron ma bardzo ograniczone zastosowanie. Lata 80. to model sieci wielowarstwowej i efektywny algorytm uczenia sieci. Lata 90. - eksplozja. Ponad 80% firm z listy Fortune 500 ma programy R&D z dziedziny SSN: tysiące publikacji, komercyjne pakiety aplikacyjne. 6

Wprowadzenie Sztuczna sieć neuronowa jest przykładem idei równoległego przetwarzania rozproszonego i jako taka składa się z prostych elementów przetwarzających (sztucznych neuronów), które przesyłają między sobą sygnały na zasadzie ważonych połączeń. Podstawową cechą różniącą SSN od programów realizujących algorytmiczne przetwarzanie informacji jest zdolność generalizacji czyli uogólniania wiedzy dla nowych danych nieznanych wcześniej, czyli nie prezentowanych w trakcie nauki. Określa się to także jako zdolność SSN do aproksymacji wartości funkcji wielu zmiennych w przeciwieństwie do interpolacji możliwej do otrzymania przy przetwarzaniu algorytmicznym. Można to ująć jeszcze inaczej. Np. systemy ekspertowe z reguły wymagają zgromadzenia i bieżącego dostępu do całej wiedzy na temat zagadnień, o których będą rozstrzygały. SSN wymagają natomiast jednorazowego nauczenia, przy czym wykazują one tolerancję na nieciągłości, przypadkowe zaburzenia lub wręcz braki w zbiorze uczącym. Pozwala to na zastosowanie ich tam, gdzie nie da się rozwiązać danego problemu w żaden inny, efektywny sposób. 7

Podstawy działania Cechy charakterystyczne: zbiór elementów przetwarzających, stan aktywacji a i (wejście) dla każdego elementu, połączenia między elementami; ogólnie rzecz biorąc każde połączenie jest zdefiniowane przez wagi w ij, które określają efekt sygnału elementu j na element i, reguła propagacji, która określa wejście i i elementu na podstawie sygnałów wejściowych, funkcja aktywacji F i określająca nowy poziom wyjścia elementu na podstawie wejścia i i (t), zewnętrzne wejście z i dla każdego elementu i. Poniższe rysunki ilustrują te zasady. 8

Podstawy działania NEURON Dendryt Ciało Akson Synapsa Wygląd Schemat Dendryty otrzymują informacje Ciało przetwarza je Akson dostarcza przetworzone informacje do innych neuronów Synapsa połączenie między synapsami i dendrytami różnych neuronów Źródło: Angshuman Saha http://www.geocities.com/adotsaha/nninexcel.html 9

Podstawy działania Dendryty Ciało Akson Synapsy X 1 w 1 Kierunek przepływu informacji X 2 X p... w 2 w p w 0 X 0 (Z) I f I = w 0 X 0 + w 1 X 1 + w 2 X 2 + w 3 X 3 + + w p X p O = f(i) 10

Podstawy działania Element przetwarzający - perceptron wyjście y Funkcja aktywacji w 0 y = f(net) net n wixi i 0 Zadaniem elementu jest przetworzyć otrzymany sygnał (od sąsiadów lub z zewnątrz) na sygnał wyjściowy i rozesłać go do innych elementów. x 0 =1 (bias) w 1 w 2 w n x 1... x 2 x n wejścia x i 11

Kierunek przepływu informacji Podstawy działania Zbiór neuronów tworzy tzw. warstwę X 1 X 2 X 3 X 4 Warstwa wejściowa każdy neuron otrzymuje tylko jedno wejście, bezpośrednio z zewnątrz Warstwa ukryta łączy warstwę wejściową z wyjściową y 1 y 2 Warstwa wyjściowa wyjście każdego neuronu skierowane bezpośrednio na zewnątrz 12

Podstawy działania Liczba ukrytych warstw może być różna bez jedna wiele 13

Podstawy działania X 1 X 2 X 3 X 4 Uwaga wewnątrz warstwy neurony nie są ze sobą połączone neurony z danej warstwy są połączone tylko z neuronami warstwy następnej (feedforward) omijanie warstwy nie jest dozwolone 14

Podstawy działania Połączenia elementów Przyjmuje się, że każdy element daje addytywny wkład do elementu, z którym jest połączony: i i ( t) w ( t) x ( t) z ( t) j ij j i Jeśli waga w ij jest dodatnia mówimy o pobudzeniu elementu i ze strony elementu j, jeśli ujemna - mówimy o powstrzymywaniu. 15

Podstawy działania Aktywacja i obliczanie wyjścia Funkcja F daje nową wartość aktywacji elementu i, na podstawie wejścia i i (t) o i ( t 1) F ( i ( t)) i i W zależności od charakterystyki funkcji aktywacji na wyjściu elementu i otrzymujemy różne wartości. 16

Podstawy działania Aktywacja i obliczanie wyjścia Wybór funkcji aktywacji zależy od rodzaju problemu, jaki stawiamy do rozwiązania przed siecią. Dla sieci wielowarstwowych najczęściej stosowane są funkcje nieliniowe, gdyż neurony o takich charakterystykach wykazują największe zdolności do nauki oraz dają możliwość odwzorowania dowolnej zależności pomiędzy wejściem a wyjściem sieci. Umożliwia to otrzymanie na wyjściu sieci informacji ciągłej, a nie tylko postaci: TAK - NIE. Wymagane cechy funkcji aktywacji to: funkcja ciągła w zadanym przedziale, łatwa do obliczenia i ciągła pochodna, możliwość wprowadzenia do argumentu parametru do ustalania kształtu krzywej. 17

Podstawy działania Aktywacja i obliczanie wyjścia 1 1 1 0.5-1 0 0 Tanh f(x) = (e x e -x ) / (e x + e -x ) Logistyczna f(x) = 1 / (1 + e x ) Skok jedn. 0 if x<= 0 f(x) = 1 if x > 0 18

Podstawy działania Funkcja logistyczna 19

Sieć perceptronowa Perceptron zaproponowany przez Rosenblatta w 1959 roku jest siecią jednokierunkową złożoną z elementów binarnych realizowaną wg następujących zasad: elementem składowym jest sztuczny neuron opisany funkcją aktywacji SGN. sieć można podzielić na uporządkowane i rozłączne podzbiory elementów, zwane warstwami: wejściową i wyjściową. perceptron nie zawiera połączeń między elementami tej samej warstwy. połączenia między warstwami skierowane są zgodnie z ich uporządkowaniem. 20

Sieć perceptronowa o u t p u t o Perceptron odwracanie 1 if net > 0 o { 0 otherwise input x1 output 0 1 w 0 = net i n 0 wixi 1 0 1 w 1 = 1 x 1 i n p u t x 21

Perceptron OR Sieć perceptronowa o u t p u t o input x1 input x2 output 0 0 0 0 1 1 1 0 1 1 1 1 1 w 0 = 0.5 1 if net > 0 o { 0 otherwise net w 1 =1 i n 0 wixi w 2 =1 x 1 x 2 22

Perceptron AND Sieć perceptronowa o u t p u t o input x1 input x2 output 0 0 0 0 1 0 1 0 0 1 1 1 w 0 = 1.5 1 w 1 =1 1 if net > 0 o { 0 otherwise net i n 0 wixi w 2 =1 x 1 x 2 23

Perceptron XOR Sieć perceptronowa o u t p u t o input x1 input x2 output 1 if net > 0 o { 0 otherwise 0 0 0 0 1 1 1 0 1 w 0 = net i n 0 wixi 1 1 0 1 w 1 =? w 2 =? x 1 x 2 24

Topologia SSN Ze względu na rodzaj powiązań między elementami sieci wyróżniamy: sieci jednokierunkowe (feed-forward), w których dane przepływają w jednym kierunku od elementów wejściowych do wyjściowych. sieci rekurencyjne zawierające połączenia ze sprzężeniami zwrotnymi. 25

Topologia SSN Sieci jednokierunkowe Wartości wyjść zależą od aktualnych wartości wejść do neuronu, jest to więc statyczna zależność funkcyjna. 26

Topologia SSN Sieci rekurencyjne W swoje strukturze posiadają sprzężenia zwrotne, czyli wyjście warstwy późniejszej jest bezpośrednio lub pośrednio połączone z wejściem warstwy wcześniejszej lub połączone są wyjścia neuronów z ich wejściami. Powoduje to, że sieć staje się dynamiczna. Wartości na jej wyjściach zależą nie tylko od wartości wejściowych, ale również od wcześniejszych wyjść. Przykładem sieci rekurencyjnych są sieci Jordana-Elmana oraz Hopfielda. W strukturach takich sieci sygnały wyjściowe z warstwy wyjściowej lub ukrytej opóźniane są o jeden cykl i ponownie podawane na jej wejście. W praktyce najczęściej stosowane są sieci częściowo rekurencyjne, w których tylko niektóre neurony mają sprzężenia zwrotne. 27

Topologia SSN Sieć rekurencyjna Hopfielda 28

Topologia SSN Sieć rekurencyjna Hopfielda Stabilność procesów osiągnięto dzięki zastosowaniu trzech zabiegów: wprowadzono bardzo regularną (i prostą do realizacji, zarówno w formie programu komputerowego, jak i w postaci specjalizowanych układów elektronicznych lub optoelektronicznych) strukturę wewnętrzną sieci, polegającą na tym, że w całej sieci neurony są łączone na zasadzie każdy z każdym, zabroniono sprzężeń zwrotnych obejmujących pojedynczy neuron. Oznacza to, że sygnał wyjściowy z danego neuronu nie może być bezpośrednio podawany na jego wejście. Nie wyklucza to sytuacji, w której sygnał wyjściowy z danego neuronu wpływa na swoją własną wartość w przyszłości, ponieważ możliwe jest sprzężenie zwrotne poprzez dodatkowe neurony pośredniczące, jednak wpływ tych dodatkowych neuronów jest zdecydowanie stabilizujący, wprowadzane współczynniki wagowe muszą być symetryczne, tzn. jeśli połączenie od neuronu o numerze i do neuronu o numerze j charakteryzuje się pewnym współczynnikiem wagi w ij, to dokładnie taką samą wartość ma współczynnik wagowy połączenia biegnącego od neuronu o numerze j do neuronu o numerze i. 29

Topologia SSN Sieć komórkowa odzwierciedla dowolną regularną strukturę geometryczną, najczęściej będącą płaską siatką prostokąta. Dowolny neuron połączony jest bezpośrednio tylko z neuronami leżącymi w odpowiednio zdefiniowanym promieniu sąsiedztwa. 30

Topologia SSN Sieć RBF- o radialnych funkcjach bazowych Są to sieci trzywarstwowe, złożone z warstwy wejściowej, ukrytej składającej się z neuronów radialnych o funkcji aktywacji najczęściej w postać funkcji Gaussa i wyjściowej o neuronach posiadających liniową bądź logistyczną funkcję aktywacji. Każdy neuron w sieci RBF wyznacza na swoim wejściu kwadrat odległości aktualnego wektora wejściowego od swojego wektora wag. Ponieważ zbiory sygnałów wejściowych o jednakowych wartościach funkcji wejściowej mają w tym przypadku formę hiperkul (na płaszczyźnie dwuwymiarowej będą to koła) - w związku z tym mówi się w tym przypadku o funkcjach radialnych (czasem używane jest też określenie "funkcje o symetrii radialnej" lub "funkcje o symetrii kołowej"). Funkcje te tworzą podstawę (bazę) do wyznaczania sygnału wyjściowego z sieci - stąd ich nazwa: radialne funkcje bazowe. Zaletą sieci jest krótki czas uczenia sieci oraz krótki czas potrzebny na wybór właściwej struktury sieci. 31

Topologia SSN Sieć RBF- o radialnych funkcjach bazowych 32