x 1 x 2 x 3 x n w 1 w 2 Σ w 3 w n x 1 x 2 x 1 XOR x (x A, y A ) y A x A

Podobne dokumenty
Plan wyk y ł k adu Mózg ludzki a komputer Komputer Mózg Jednostki obliczeniowe Jednostki pami Czas operacji Czas transmisji Liczba aktywacji/s

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Sieci neuronowe model konekcjonistyczny

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I.

Sztuczne sieci neuronowe

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Sztuczne sieci neuronowe. Uczenie, zastosowania

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Zastosowania sieci neuronowych

wiedzy Sieci neuronowe (c.d.)

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5

SZTUCZNA INTELIGENCJA

Elementy inteligencji obliczeniowej

Uczenie sieci neuronowych i bayesowskich

Inteligentne systemy informacyjne

Sztuczne sieci neuronowe (SNN)

Elementy kognitywistyki III: Modele i architektury poznawcze

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Sztuczne sieci neuronowe

MODELOWANIE RZECZYWISTOŚCI

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Wstęp do teorii sztucznej inteligencji

Metody Sztucznej Inteligencji II

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

8. Neuron z ciągłą funkcją aktywacji.

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

Sieć przesyłająca żetony CP (counter propagation)

1. Logika, funkcje logiczne, preceptron.

Uczenie sieci radialnych (RBF)

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD XI: Sztuczne sieci neuronowe

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

Temat: Sieci neuronowe oraz technologia CUDA

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

Lekcja 5: Sieć Kohonena i sieć ART

Wykorzystanie sieci neuronowych w kryptologii.

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści

Sztuczne sieci neuronowe

Rozwiązywanie układu równań metodą przeciwnych współczynników

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Deep Learning na przykładzie Deep Belief Networks

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania

Całkowanie przez podstawianie i dwa zadania

MATLAB Neural Network Toolbox przegląd

Przedziały ufności i testy parametrów. Przedziały ufności dla średniej odpowiedzi. Interwały prognoz (dla przyszłych obserwacji)

wiedzy Sieci neuronowe

Obliczenia Naturalne - Sztuczne sieci neuronowe

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Programowanie nieliniowe optymalizacja funkcji wielu zmiennych

Podstawy Sztucznej Inteligencji (PSZT)

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

Podstawy sztucznej inteligencji

Sztuczne sieci neuronowe

SIECI REKURENCYJNE SIECI HOPFIELDA

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

6. Perceptron Rosenblatta

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW

Inteligentne systemy przeciw atakom sieciowym

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Sztuczne Sieci Neuronowe

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

SID Wykład 8 Sieci neuronowe

Stan naprężenia. Przykład 1: Tarcza (płaski stan naprężenia) Określić siły masowe oraz obciążenie brzegu tarczy jeśli stan naprężenia wynosi:

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

SIECI KOHONENA UCZENIE BEZ NAUCZYCIELA JOANNA GRABSKA-CHRZĄSTOWSKA

SZTUCZNE SIECI NEURONOWE

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Widzenie komputerowe

Systemy agentowe. Sieci neuronowe. Jędrzej Potoniec

Np.:

ELEMENTY SZTUCZNEJ INTELIGENCJI. Sztuczne sieci neuronowe

Wprowadzenie do Sieci Neuronowych Laboratorium 05 Algorytm wstecznej propagacji błędu

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

2.4. Algorytmy uczenia sieci neuronowych

SIECI RBF (RADIAL BASIS FUNCTIONS)

Elektroniczne materiały dydaktyczne do przedmiotu Wstęp do Sieci Neuronowych

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

I EKSPLORACJA DANYCH

Asocjacyjna reprezentacja danych i wnioskowanie

Optymalizacja optymalizacji

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Streszczenie. Słowa kluczowe: modele neuronowe, parametry ciągników rolniczych

METODY HEURYSTYCZNE wykład 5

ZAGADNIENIA ZALICZENIOWE i PRZYKŁADY PYTAŃ z METOD KOMPUTEROWYCH w TSiP

Temat: ANFIS + TS w zadaniach. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Projekt Sieci neuronowe

Transkrypt:

Sieci neuronowe model konekcjonistczn Plan wkładu Perceptron - przpomnienie Uczenie nienadzorowane Sieci Hopfielda Perceptron w 3 Σ w n A Liniowo separowaln problem klasfikacji ( A, A ) Problem XOR 0 0 0 XOR 0 0 0 Wielowarstwow perceptron rozwiązując problem XOR -.5.0.0 Σ -9.0.0.0-0.5 Σ A

Wielowarstwowe sieci neuronowe... 2 A warstwa wejściowa w ij h h 2... h B warstwa ukrta w2 ij o o 2 o C warstwa wjściowa... Uczenie sieci neuronowch w ij w2 ij... A h h 2... h B o o 2... o C Dan jest zbiór par (, ) Losujem wagi Wbieram kolejną parę ze zbioru uczącego Obliczam wartości w warstwie ukrtej Obliczam wartości w warstwie wjściowej Obliczam błąd dla elementów w warstwie wjściowej Korgujem wagi w2 ij Obliczam błąd dla elementów w warstwie ukrtej Korgujem wagi w ij Koniec epoki Backpropagation algorithm Efekt generalizacji w uczeniu sieci neuronowch zbiór ucząc zbiór testując czas treningu Neuron sigmoidaln dokonwał podziału przestrzeni na dwie części wzdłuż prostej A ( A, A) A φ φ φ φ Neuron radialn reprezentuje hipersfere, dokonując podziału kołowego wokół punktu centralnego C C Wektor wejściow Warstwa k wektorów radialnch 2

Przkład funkcji radialnch φ φ φ φ( r ) = r φ( r ) = sqrt(δ 2 + r 2 ) φ(r) = sqrt(δ 2 + r 2 ) φ φ φ φ(r) = ep( r 2 /2δ 2 ) Warstwa składająca się z jednego neuronu działającego tak, jak w sieci z liniową funkcją aktwacji Brak wag! Najczęściej stosowana jest norma euklidesowa gdzie: c R n punkt centraln neuronu radialnego r = c odległość wektora wejściowego R n od centrum c δ>0 parametr metod doboru parametrów metod doboru parametrów metod doboru parametrów φ φ i d i i R n d i R i =,, p φ φ i d i i R n d i R i =,, p φ φ Funkcja błędu F( i ) = d i, i =,, p F() = Σw i φ( c i ) F( i ) = d i, i =,, p F() = Σw i φ( i ) E = 2 k i= 0 w φ i ( ) d 2 Jeżeli ustalim k = p, wówczas zadanie będzie rozwiązwalne. Jest to jednak za duża liczna neuronów i należ ją ograniczć. Wartości wag warstw wjściowej ustala sie w wniku procesu uczenia. Na początku przpisuje się im wartość losową, a następnie modfikuje metodą propagacji wstecznej. 3

przkład φ n = 2 k = φ( r ) = r = ρ promień koła = c < ρ = C przkład φ n = 2 k = φ( r ) = r = ρ promień koła = c > ρ = 0 C Uczenie nienadzorowane Odkrwanie regularności w danch Algortm Hebba Jeżeli aktwne są oba neuron, to waga połączenia międz nimi się zwiększa... i... A h... h j... h B o o 2... o C w ij w2 ij w ij := w ij + η i h m n h m = w i i i= Wielkość odpowiedniej zmian wznaczana jest na podstawie ilocznu sgnału wejściowego, wchodzącego na dane wejście (to którego wagę zmieniam) i sgnału wjściowego produkowanego przez neuron, w którm modfikujem wagi. Uczenie nienadzorowane wad W porównaniu z procesem uczenia z nauczcielem samouczenie jest zwkle znacznie powolniejsze. Bez nauczciela nie można z gór określić, któr neuron wspecjalizuje się w rozpoznawania której klas sgnałów. Powstają trudności prz wkorzstwaniu i interpretacji wników prac sieci. Nie można określić, cz sieć uczona w ten sposób naucz się wszstkich prezentowanch jej wzorców. Sieć przeznaczona do samouczenia musi bć większa niż sieć wkonująca to samo zadanie, ale trenowana z udziałem nauczciela. (Szacunkowo sieć powinna mieć co najmniej trzkrotnie więcej elementów warstw wjściowej niż wnosi oczekiwana liczba różnch wzorów, które sieć ma rozpoznawać.) - + - - + -2 + - - + - - + -2 + - 4

- - - + - + - + - - - - + -2 + -2 + -2 + - + - + - - Stan równowagi - Własności sieci Hopfielda Zastosowanie sieci Hopfielda w optmalizacji + - + - - - + -2 + -2 + - + - - - + - + - - - + -2 + -2 + - + - rozproszona reprezentacja - informacja jest zapamiętwana jako wzorzec aktwacji rozproszone, asnchroniczne sterowanie - każd element podejmuje deczję w oparciu o lokalną wiedzę pamięć adresowalna przez zawartość - ab odtworzć wzorzec zapisan w sieci wstarcz podać fragment informacji tolerancja błędów - jeżeli jakiś element popełni błąd, to cała sieć i tak poda poprawne rozwiązanie MASZYNA BOLTZMANA 5

Zastosowanie sieci Hopfielda w optmalizacji MASZYNA BOLTZMANA Problem rozwiązwane za pomocą sieci neuronowch Klasfikacja obiektów na podstawie cech Identfikacja obiektów Rozpoznawanie obrazów Rozpoznawanie sgnałów (radar, mowa) Diagnostka urządzeń Sterowanie złożonmi układami Optmalizacja dskretna Zastosowania sieci neuronowch Sterowanie w regulatorach lotu (US Air Force) Diagnostka silników samochodowch (Ford Motor Compan) Identfikacja tpów skał napotkanch podczas odwiertów prz poszukiwaniu rop i gazu (Halliburton) Poszukiwanie bomb na lotnisku JFK w Nowm Jorku (TWA) Prognoz giełdowe Czego nie można wkonać za pomocą sieci neuronowej Operacje na smbolach Edtor tekstu Procesor wrażeń algebraicznch Obliczenia, tórch wmagana jest wsoka dokładność wniku numercznego Obsługa kont bankowch Obliczenia inżnierskie (konstrukcjne) Zadania wmagające rozumowania wieloetapowego Rozstrzganie o prawdziwości lub fałszwości sekwencji stwierdzeń logicznch (dowodzenie twierdzeń, sstem eksperckie) 6