synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Podobne dokumenty
x 1 x 2 x 3 x n w 1 w 2 Σ w 3 w n x 1 x 2 x 1 XOR x (x A, y A ) y A x A

Plan wyk y ł k adu Mózg ludzki a komputer Komputer Mózg Jednostki obliczeniowe Jednostki pami Czas operacji Czas transmisji Liczba aktywacji/s

Sieci neuronowe model konekcjonistyczny

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Uczenie sieci neuronowych i bayesowskich

Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I.

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Sztuczne sieci neuronowe. Uczenie, zastosowania

Metody Sztucznej Inteligencji II

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

MODELOWANIE RZECZYWISTOŚCI

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Inteligentne systemy informacyjne

Sztuczne sieci neuronowe

8. Neuron z ciągłą funkcją aktywacji.

wiedzy Sieci neuronowe (c.d.)

Zastosowania sieci neuronowych

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Podstawy sztucznej inteligencji

Sztuczne sieci neuronowe (SNN)

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5

Inteligentne systemy przeciw atakom sieciowym

Elementy inteligencji obliczeniowej

Zastosowania sieci neuronowych

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

wiedzy Sieci neuronowe

Podstawy Sztucznej Inteligencji (PSZT)

Temat: Sieci neuronowe oraz technologia CUDA

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wprowadzenie do Sieci Neuronowych Laboratorium 05 Algorytm wstecznej propagacji błędu

Elementy kognitywistyki III: Modele i architektury poznawcze

Sieć przesyłająca żetony CP (counter propagation)

SZTUCZNA INTELIGENCJA

Uczenie sieci radialnych (RBF)

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty

Sztuczne sieci neuronowe

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

Obliczenia Naturalne - Sztuczne sieci neuronowe

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

1. Logika, funkcje logiczne, preceptron.

Wstęp do teorii sztucznej inteligencji

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak

I EKSPLORACJA DANYCH

Wykład 1: Wprowadzenie do sieci neuronowych

Lekcja 5: Sieć Kohonena i sieć ART

Wstęp do sieci neuronowych, wykład 01 Neuron biologiczny. Model perceptronu prostego.

ELEMENTY SZTUCZNEJ INTELIGENCJI. Sztuczne sieci neuronowe

SIECI RBF (RADIAL BASIS FUNCTIONS)

SZTUCZNE SIECI NEURONOWE

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe

Sztuczne sieci neuronowe

METODY INŻYNIERII WIEDZY

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.

Widzenie komputerowe

Sztuczne Sieci Neuronowe

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

SIECI REKURENCYJNE SIECI HOPFIELDA

SID Wykład 8 Sieci neuronowe

Temat: ANFIS + TS w zadaniach. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Sztuczna inteligencja

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE

Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe. Krzysztof Regulski, WIMiIP, KISiM, B5, pok. 408

METODY INTELIGENCJI OBLICZENIOWEJ wykład 4

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

SZTUCZNE SIECI NEURONOWE

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści

Sieci neuronowe w Statistica

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD XI: Sztuczne sieci neuronowe

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Deep Learning na przykładzie Deep Belief Networks

6. Perceptron Rosenblatta

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Wstęp do sieci neuronowych, wykład 01 Neuron biologiczny. Model perceptronu prostego.

Projekt Sieci neuronowe

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

Transkrypt:

Sieci neuronowe model konekcjonistyczny

Plan wykładu Mózg ludzki a komputer Modele konekcjonistycze Perceptron Sieć neuronowa Uczenie sieci Sieci Hopfielda

Mózg ludzki a komputer Twój mózg to 00 000 000 000 komórek, 3 200 000 kilometrów przewodów i 000 000 000 000 000 (biliard) połączeń synaptycznych wszystko to waży.5 kg i zajmuje objętość około.5 litra. A zużywa mniej energii niż lampka nocna. Komputer Mózg Jednostki obliczeniowe CPU 0 5-0 neuronów Jednostki pamięci 0 9 bitów RAM 0 neuronów 0 0 bitów na dysku 0 4 połączeń Czas operacji 0-8 s 0-3 s Czas transmisji 0 9 bitów/s 0 4 bitów/s Liczba aktywacji/s 0 5 0 4

Mózg ludzki a komputer Szybkość wykonania pojedynczej operacji vs. rozwiązanie skomplikowanego zadania Odporność na pomyłki pojedynczych elementów Zachowanie poprawności działania w p p przypadku informacji niepewnej i niepełnej

Cechy modeli konekcjonistycznych k składają się z dużej liczby prostych elementów, zwanych neuronami wagi na połączeniach między tymi elementami "kodują wiedzę sieci sterowanie siecią jest równoległe i rozproszone głównym problemem jest automatyczne uczenie głównym problemem jest automatyczne uczenie sieci

Model neuronu

Neuron

Perceptron x w x 2 x 3 w 2 w 3 w 2 Σ w n x n

Perceptron wejścia x w x 2 x 3 w 2 w 3 w 2 Σ w n x n

Perceptron x w połączeni a wagi x 2 x 3 w 2 w 3 w 2 Σ w n x n

Perceptron łączne pobudzenie neuronu u x w x 2 x 3 w 2 w 3 w 2 Σ g w n x n

Perceptron charakterystyk a neuronu x w x 2 w 2 w 3 w 2 x 3 Σ ϕ 3 g w n x n

Perceptron sygnał wyjściowy x w x 2 w 2 w 3 w 2 x 3 Σ ϕ 3 g o w n x n

Perceptron liniowy i x x 2 x 3 w w 2 g( X ) = n i= w i x i g(x) w 2 w 3 Σ ϕ o(x) w n gdy ϕ ( X ) ( ) x o X = n 0 gdy ϕ( X) w 0 < w 0

Pó Próg aktywacji jij jako dodatkowa d waga x 0 = w 0 x n g( X ) = x 2 x 3 w w 2 i= 0 g(x) w i x i w 2 w 3 Σ ϕ o(x) w n o( X) x n = ( X ) gdy ϕ X 0 0 gdy ϕ( X) < 0

Funkcja aktywacji perceptronu o 0.0 o ( X ) = ( ) gdy gy ϕ X 0 0 gdy ϕ( X) < 0 funkcja progowa o g o ( ) X = + + exp g ( ( ) X.0 05 0.5 sigmoida g

Perceptron z wieloma wejściami i x 0 = w ij wyjściami Σ x Σ x 2 x 3 Σ x n Σ

y Liniowo separowalny problem klasyfikacji y A (x A, y A ) x A x

y Perceptron uczący się klasyfikacji k = 0 k = 00 k = 300 k = 635 x

Twierdzenie i Rosenblatta Proces uczenia perceptronu jest zbieżny. Perceptron może się nauczyć dowolnego liniowo separowalnego problemu klasyfikacji.

Problem XOR x x x XOR x x 2 x x 2 x XOR x 2 0 0 0 0 0 0 x

Wielowarstwowy yp perceptron p rozwiązujący problem XOR -.5-0.5.0 x Σ -9.0.0 x.0 x 2.0 x 2 Σ

Wielowarstwowy yp perceptron p rozwiązujący problem XOR -.5 0.0 Σ -9.0 0.0 0.0.0 0-0.5 Σ

Wielowarstwowy yp perceptron p rozwiązujący problem XOR -.5 0.0 -.5 o(x)=0-9.0 0.0 0.0.0 0-0.5 Σ

Wielowarstwowy yp perceptron p rozwiązujący problem XOR -.5 0.0 -.5 o (x)=0-9.0 0.0 0.0.0 0-0.5-0.5 o(x)=0 x 2 x

Wielowarstwowy yp perceptron p rozwiązujący problem XOR -.5.0 Σ -9.0.0 0.0.0 0-0.5 Σ

Wielowarstwowy yp perceptron p rozwiązujący problem XOR -.5.0-0.5 o (x)=0-9.0.0 0.0.0 0-0.5 Σ

Wielowarstwowy yp perceptron p rozwiązujący problem XOR -.5.0-0.5 o (x)=0-9.0.0 0.0.0 0-0.5 0,5 o(x)= x 2 x

Wielowarstwowy yp perceptron p rozwiązujący problem XOR -.5.0 Σ -9.0.0.0.0-0.5 Σ

Wielowarstwowy yp perceptron p rozwiązujący problem XOR -.5.0 0.5 o (x)= -9.0.0.0.0-0.5 Σ

Wielowarstwowy yp perceptron p rozwiązujący problem XOR -.5.0 0.5 o (x)= -9.0.0.0.0-0.5-6,5 o(x)=0 x 2 x

Wielowarstwowe sieci i neuronowe x x... 2 x A warstwa wejściowa w ij h h 2... h B warstwa ukryta w2 ij o o 2 o C warstwa wyjściowa...

Uczenie sieci neuronowych Dany jest zbiór par (x, y) Losujemy wagi Wybieramy kolejną parę ze zbioru uczącego x... x 2 x A w ij h h 2... h B w2 ij o o 2... o C

Uczenie sieci neuronowych Dany jest zbiór par (x, y) Losujemy wagi Wybieramy kolejną parę ze zbioru uczącego Obliczamy wartości w warstwie ukrytej w ij x x... 2 x A h h 2... h B h j = A + e i= 0 w x ij x i j =,..., B w2 ij o o 2... o C

Uczenie sieci neuronowych Dany jest zbiór par (x, y) Losujemy wagi Wybieramy kolejną parę ze zbioru uczącego Obliczamy wartości w warstwie ukrytej Obliczamy wartości w warstwie wyjściowej w ij x x... 2 x A h h 2... h B o w2 ij o2 oc o o2... oc h j o j = A + e i= 0 = B + e i= 0 w w 2 x ij x i h ij h i j =,..., B j =,..., C

Uczenie sieci neuronowych x x... 2 x A Dany jest zbiór par (x, y) Losujemy wagi Wybieramy kolejną parę ze zbioru uczącego Obliczamy wartości w warstwie ukrytej Obliczamy wartości w warstwie wyjściowej Obliczamy błąd dla elementów w warstwie wyjściowej j w ij h h 2... h B δ2 j = o j ( o j )(o j y j ), j =,..., C w2 ij o o 2... o C

Uczenie sieci neuronowych w ij x x... 2 x A Dany jest zbiór par (x, y) Losujemy wagi Wybieramy kolejną parę ze zbioru uczącego Obliczamy wartości w warstwie ukrytej Obliczamy wartości w warstwie wyjściowej Obliczamy błąd dla elementów w warstwie wyjściowej Korygujemy wagi w2 ij h h 2... h B w2 ij := w2 ij + ηδ2 j i = 0,..., B; j =,..., C o o 2... o C

Uczenie sieci neuronowych x x... 2 x A Dany jest zbiór par (x, y) Losujemy wagi Wybieramy kolejną parę ze zbioru uczącego Obliczamy wartości w warstwie ukrytej Obliczamy wartości w warstwie wyjściowej Obliczamy błąd dla elementów w warstwie wyjściowej w ij w2 ij h h 2... h B Korygujemy wagi w2 ij Obliczamy błąd dla elementów w warstwie ukrytej δ j = h j ( h j )Σδ2 i w2 ji, j =,..., B o o 2... o C

Uczenie sieci neuronowych x x... 2 x A Dany jest zbiór par (x, y) Losujemy wagi Wybieramy kolejną parę ze zbioru uczącego Obliczamy wartości w warstwie ukrytej Obliczamy wartości w warstwie wyjściowej Obliczamy błąd dla elementów w warstwie wyjściowej w ij h h 2... h B Korygujemy wagi w2 ij Obliczamy błąd dla elementów w warstwie ukrytej w2 ij o o 2... o C Korygujemy wagi w ij := w ij + ηδ j x i, i = 0,..., A, j =,..., B

Uczenie sieci neuronowych x x... 2 x A Dany jest zbiór par (x, y) Losujemy wagi Wybieramy kolejną parę ze zbioru uczącego Obliczamy wartości w warstwie ukrytej Obliczamy wartości w warstwie wyjściowej Obliczamy błąd dla elementów w warstwie wyjściowej w ij w2 ij h h 2... h B o o 2... o C Korygujemy wagi w2 ij Obliczamy błąd dla elementów w warstwie ukrytej Korygujemy wagi w ij Koniec epoki Backpropagation algorithm

Efekt generalizacji w uczeniu sieci neuronowych zbiór uczący zbiór testujący czas treningu

Sieci i radialne Neuron sigmoidalny dokonywał podziału przestrzeni na dwie części ę wzdłuż prostej y A y (x A, y A ) x A x Neuron radialny reprezentuje hipersfere, dokonując podziału kołowego wokół punktu centralnego C C

Sieci i radialne Φ( ( r ) = r Φ( r ) = sqrt(δ 2 + r 2 ) x r = x c, δ>0 φ w 0 x 2 w φ w 2 y x 3 w3 x 4 φ 3 4 Wektor wejściowy

Sieci i radialne x φ w 0 x 2 w φ w 2 y x 3 w3 x 4 φ 3 4 Warstwa k wektorów radialnych

Sieci i radialne x φ w 0 x 2 w φ w 2 y x 3 w3 x 4 φ 3 4 Warstwa składająca się z jednego neuronu działającego tak, jak w sieci z liniową funkcją aktywacji

Sieci i radialne x φ w 0 x 2 w φ w 2 y x 3 w3 x 4 φ 3 4 Brak wag!

Sieci i radialne Przykłady funkcji radialnych x φ w w 0 φ( r ) = r φ( r ) = sqrt(δ 2 + r 2 ) x 2 φ(r) = sqrt(δ 2 + r 2 ) x 3 φ x 4 φ 3 w 3 w 2 φ(r) = exp( r 2 /2δ 2 ) gdzie: c R n punkt centralny neuronu radialnego 4 r = x c odległość wektora wejściowego x R n od Najczęściej centrum c stosowana jest δ>0 parametr norma euklidesowa y

Sieci i radialne metody doboru parametrów x x 2 x 3 φ φ w 3 w w 2 w 0 x i d i x i R n d i R i =,, p y x 4 φ 3 F(x i ) = d i, i =,, p 4 F(x) = Σw i φ( x x i )

Sieci i radialne metody doboru parametrów x x 2 x 3 φ φ w 3 w w 2 w 0 x i d i x i R n d i R i =,, p y x 4 φ 3 F(x i ) = d i, i =,, p 4 F(x) = Σw i φ( x x i ) Jeżeli ustalimy k = p wówczas zadanie będzie rozwiązywalne Jeżeli ustalimy k = p, wówczas zadanie będzie rozwiązywalne. Jest to jednak za duża liczna neuronów i należy ją ograniczyć.

2Sieci i radialne metody doboru parametrów x φ w 0 x 2 φ w w 2 y Funkcja błędu x 3 w 3 wi= 2KE4 x4 φ 3 φ( ) = xd Wartości wag warstwy wyjściowej ustala sie w wyniku procesu uczenia Na Wartości wag warstwy wyjściowej ustala sie w wyniku procesu uczenia. Na początku przypisuje się im wartość losową, a następnie modyfikuje metodą propagacji wstecznej.

Sieci i radialne przykład x C x φ w w 0 y x 2 x c < ρ y = n = 2 k = φ( r ) = r w 0 = ρ promień koła w =

Sieci i radialne przykład x C x φ w w 0 y x 2 x c > ρ y = 0 n = 2 k = φ( r ) = r w 0 = ρ promień koła w =

Uczenie nienadzorowane Odkrywanie regularności w danych Algorytm Hebba Jeżeli aktywne są oba neurony, to waga połączenia ą między ę nimi się ę zwiększa ę x... x i... x A h... h j... h B o o 2... o C w ij w2 ij w ij := w ij + η x i h j h j = n i = Wielkość odpowiedniej zmiany wyznaczana jest na podstawie iloczynu sygnału wejściowego, wchodzącego na dane wejście (to którego wagę zmieniamy) i sygnału wyjściowego produkowanego przez neuron, w którym modyfikujemy wagi. w i x i

Uczenie nienadzorowane - wady W porównaniu z procesem uczenia z nauczycielem samouczenie jest zwykle znacznie powolniejsze. Bez nauczyciela nie można z góry określić, który neuron wyspecjalizuje się w rozpoznawania której klasy sygnałów. Powstają trudności przy wykorzystywaniu i interpretacji wyników pracy sieci. Nie można określić, czy sieć uczona w ten sposób nauczy się wszystkich prezentowanych jej wzorców. Sieć przeznaczona do samouczenia musi być większa niż sieć wykonująca to samo zadanie, ale trenowana z udziałem nauczyciela. (Szacunkowo sieć powinna mieć co najmniej j trzykrotnie więcej ę elementów warstwy wyjściowej niż wynosi oczekiwana liczba różnych wzorów, które sieć ma rozpoznawać.)

Sieci i Hopfielda - + - - +3 + +2-2 +3 + -

Sieci i Hopfielda - + - - +3 + +2-2 +3 + -

Sieci i Hopfielda - + - - +3 + +2-2 +3 + -

Sieci i Hopfielda - + - - +3 + +2-2 +3 + -

Sieci i Hopfielda - + - - +3 + +2-2 +3 + -

Stany równowagi - - + - - +3 + - - +3 +2 + -2 +3 +2 + -2 + - + - +3 - - + - +3 + - - - +3 +2 + -2 + - +3 +2 + -2 + - +3

Własności ś sieci i Hopfielda rozproszona reprezentacja - informacja jest zapamiętywana jako wzorzec aktywacji rozproszone, asynchroniczne sterowanie - każdy element podejmuje decyzję w oparciu o lokalną wiedzę pamięć ę adresowalna przez zawartość -aby odtworzyć wzorzec zapisany w sieci wystarczy podać fragment informacji tolerancja błędów - jeżeli jakiś element popełni błąd, to cała sieć i tak poda poprawne rozwiązanie

Zastosowanie sieci Hopfielda w optymalizacji MASZYNA BOLTZMANA

Zastosowanie sieci Hopfielda w optymalizacji MASZYNA BOLTZMANA

Problemy rozwiązywane ą za pomocą ą sieci neuronowych Klasyfikacja obiektów na podstawie cech Identyfikacja obiektów Rozpoznawanie obrazów Rozpoznawanie sygnałów (radar, mowa) Diagnostyka urządzeń Sterowanie złożonymi układami Optymalizacja dyskretna

Zastosowania sieci i neuronowych Sterowanie w regulatorach lotu (US Air Force) Diagnostyka silników samochodowych (Ford Motor Company) Identyfikacja typów skał napotkanych podczas odwiertów przy poszukiwaniu ropy i gazu (Halliburton) Poszukiwanie bomb na lotnisku JFK w Nowym Jorku (TWA) Prognozy giełdowe

Czego nie można wykonać za pomocą sieci neuronowej Operacje na symbolach Edytor tekstu Procesor wyrażeń algebraicznych Obliczenia, w których wymagana jest wysoka dokładność wyniku numerycznego Obsługa kont bankowych Obliczenia inżynierskie (konstrukcyjne) Zadania wymagające rozumowania wieloetapowego Rozstrzyganie o prawdziwości lub fałszywości sekwencji stwierdzeń logicznych (dowodzenie twierdzeń, systemy eksperckie)