Podstawy Sztucznej Inteligencji (PSZT)

Podobne dokumenty
Elementy inteligencji obliczeniowej

Metody Sztucznej Inteligencji II

Sztuczne sieci neuronowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Wstęp do sztucznych sieci neuronowych

Uczenie sieci typu MLP

Zastosowania sieci neuronowych

Podstawy sztucznej inteligencji

Inteligentne systemy przeciw atakom sieciowym

1. Logika, funkcje logiczne, preceptron.

8. Neuron z ciągłą funkcją aktywacji.

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Uczenie sieci neuronowych i bayesowskich

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

Optymalizacja ciągła

Wykład 1: Wprowadzenie do sieci neuronowych

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

wiedzy Sieci neuronowe

MODELOWANIE RZECZYWISTOŚCI

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

Sztuczna inteligencja

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

6. Perceptron Rosenblatta

Widzenie komputerowe

Temat: Sieci neuronowe oraz technologia CUDA

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Definicja perceptronu wielowarstwowego

Algorytmy sztucznej inteligencji

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

METODY INŻYNIERII WIEDZY

Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

Algorytmy wstecznej propagacji sieci neuronowych

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

I EKSPLORACJA DANYCH

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Uczenie Wielowarstwowych Sieci Neuronów o

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

SZTUCZNA INTELIGENCJA

ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ

Wprowadzenie do uczenia maszynowego

Podstawy Sztucznej Inteligencji (PSZT)

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Sztuczne sieci neuronowe (SNN)

Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2)

Sieci neuronowe w Statistica

Sztuczne sieci neuronowe

OCENA DZIAŁANIA AE. METODY HEURYSTYCZNE wykład 4 LOSOWOŚĆ W AE KRZYWE ZBIEŻNOŚCI ANALIZA STATYSTYCZNA:

wiedzy Sieci neuronowe (c.d.)

Optymalizacja systemów

Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I.

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Sztuczne siei neuronowe - wprowadzenie

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

1.7. Eksploracja danych: pogłębianie, przeszukiwanie i wyławianie

Sztuczne sieci neuronowe

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron

Uczenie sieci radialnych (RBF)

Sieci neuronowe i ich ciekawe zastosowania. Autor: Wojciech Jamrozy III rok SMP / Informatyka

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW

Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie

Sieci neuronowe i algorytmy uczenia Czyli co i jak andrzej.rusiecki.staff.iiar.pwr.wroc.pl s.

Sieć przesyłająca żetony CP (counter propagation)

ESI: Perceptrony proste i liniowe

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Wprowadzenie do Sieci Neuronowych Laboratorium 05 Algorytm wstecznej propagacji błędu

Metody systemowe i decyzyjne w informatyce

Obliczenia Naturalne - Sztuczne sieci neuronowe

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

4.1. Wprowadzenie Podstawowe definicje Algorytm określania wartości parametrów w regresji logistycznej...74

SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006

DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI

Systemy Inteligentnego Przetwarzania wykład 7: Sieci RBF

ELEMENTY SZTUCZNEJ INTELIGENCJI. Sztuczne sieci neuronowe

MODELOWANIE RZECZYWISTOŚCI

Zastosowania sieci neuronowych

4 Zastosowanie metody aproksymacji relacji odwrotnej do rozwiązywania wybranych zagadnień

Elementy metod numerycznych

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD XI: Sztuczne sieci neuronowe

Podstawy sztucznej inteligencji

Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych

Całkowanie numeryczne

Politechnika Warszawska

WYKORZYSTANIE SZTUCZNYCH SIECI NEURONOWYCH W PROGNOZOWANIU

SZTUCZNA INTELIGENCJA

komputery? Andrzej Skowron, Hung Son Nguyen Instytut Matematyki, Wydział MIM, UW

ID1SII4. Informatyka I stopień (I stopień / II stopień) ogólnoakademicki (ogólno akademicki / praktyczny) stacjonarne (stacjonarne / niestacjonarne)

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE

Transkrypt:

Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe

Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12 2

Uczenie maszynowe Problemy sterowniki dla systemów o nieznanej dynamice budowa modeli na podstawie napływających danych Techniki: aproksymacja funkcji klasyfikacja grupowanie uczenie się ze wzmocnieniem Narzędzia sieci neuronowe drzewa decyzyjne PSZT, zima 2013, wykład 12 3

Naturalne sieci neuronowe Neuron jądro komórkowe dendryty akson zakończenia aksonu połączenia synaptyczne Działanie ładowanie się przez dendryty strzelanie impulsami przez akson PSZT, zima 2013, wykład 12 4

Sztuczne sieci neuronowe Źródło inspiracji: naturalny mózg Rozmaite zastosowania: aproksymacja funkcji prognozowanie klasyfikacja pamięć asocjacyjna My zajmiemy się: perceptronem dwuwarstwowym ponieważ jest to dobry aproksymator nieliniowy PSZT, zima 2013, wykład 12 5

aproksymacja i aproksymatory Problem aproksymacji funkcji Dysponujemy próbkami Chcemy mieć przybliżenie dla zadanego Podstawowe zastosowanie: modelowanie i uczenie się PSZT, zima 2013, wykład 12 6

aproksymacja i aproksymatory Aproksymatory wejścia z przestrzeni wyjścia z przestrzeni parametry z przestrzeni aproksymator cel 1: aproksymacja funkcji cel 2: znalezienie najlepszej funkcji wg pewnego kryterium PSZT, zima 2013, wykład 12 7

aproksymacja i aproksymatory Przykłady prostych aproksymatorów wielomian szereg trygonometryczny tablica PSZT, zima 2013, wykład 12 8

aproksymacja i aproksymatory Zagadnienie aproksymacji funkcji na zbiorze skończonym - uczenie off-line Dany jest skończony zbiór elementów Należy znaleźć wektor parametrów aproksymatora, który minimalizuje wskaźnik jakości PSZT, zima 2013, wykład 12 9

aproksymacja i aproksymatory Zagadnienie aproksymacji funkcji na zbiorze nieskończonym - uczenie on-line Dany jest generator losowych par który generuje kolejne próbki Po t-tej próbce parametr aproksymatora jest aktualizowany (na jej podstawie) do wartości Ciąg parametrów powinien zbiegać do minimum wskaźnika jakości PSZT, zima 2013, wykład 12 10

aproksymacja i aproksymatory Aproksymacja neuronowa, model neuronu (1/2) PSZT, zima 2013, wykład 12 11

aproksymacja i aproksymatory Aproksymacja neuronowa, model neuronu (2/2) PSZT, zima 2013, wykład 12 12

aproksymacja i aproksymatory Aproksymacja neuronowa, perceptron 2-warstwowy PSZT, zima 2013, wykład 12 13

aproksymacja i aproksymatory Perceptron dwuwarstwowy, Przykład, funkcja R R PSZT, zima 2013, wykład 12 14

aproksymacja i aproksymatory Perceptron dwuwarstwowy, własność uniwersalnej aproksymacji Niech będzie zbiorem ograniczonym i domkniętym f jest ciągła na dla każdego istnieją,, t.że: PSZT, zima 2013, wykład 12 15

aproksymacja i aproksymatory Gradient Funkcja straty Typowo zawsze funkcja straty jest zdefiniowana przez przykład trenujący Interesuje nas czyli wektor kolumnowy złożony z pochodnych oraz PSZT, zima 2013, wykład 12 16

aproksymacja i aproksymatory Wsteczna propagacja gradientu Acykliczny graf działań obliczający Zmienna w tym grafie oddziałuje na poprzez zmienne, na które oddziałuje bezpośrednio PSZT, zima 2013, wykład 12 17

Perceptron dwuwarstwowy, gradient Pochodne po wagach warstwy wyjściowej dla mamy PSZT, zima 2013, wykład 12 18

Pochodne po wagach warstwy ukrytej - suma obliczana w j-tym neuronie warstwy ukrytej Perceptron dwuwarstwowy, gradient PSZT, zima 2013, wykład 12 19

aproksymacja i aproksymatory Zagadnienie aproksymacji funkcji na zbiorze skończonym Dany jest skończony zbiór elementów Należy znaleźć wektor parametrów aproksymatora, który minimalizuje wskaźnik jakości PSZT, zima 2013, wykład 12 20

Zagadnienie jako problem optymalizacji Funkcja Aproksymacja na zbiorze skończonym Gradient Działają wszystkie gradientowe metody optymalizacji: najszybszy spadek, gradienty sprzężone, metody drugiego rzędu PSZT, zima 2013, wykład 12 21

metoda gradientu prostego Metoda gradientu prostego dziedzina funkcja ciąg parametrów ciąg wartości obliczany wg. formuły PSZT, zima 2013, wykład 12 22

metoda gradientu prostego Warunki zbieżności PSZT, zima 2013, wykład 12 23

metoda gradientu prostego Przykład PSZT, zima 2013, wykład 12 24

aproksymacja i aproksymatory Zagadnienie aproksymacji funkcji na zbiorze nieskończonym Dany jest generator losowych par który generuje kolejne próbki Po t-tej próbce parametr aproksymatora jest aktualizowany (na jej podstawie) do wartości Ciąg parametrów powinien zbiegać do minimum wskaźnika jakości PSZT, zima 2013, wykład 12 25

Metoda stochastycznego najszybszego spadku dziedzina funkcja ciąg parametrów ciąg wartości obliczany wg. formuły gdzie metoda stochastycznego najszybszego spadku PSZT, zima 2013, wykład 12 26

metoda stochastycznego najszybszego spadku Dodatkowe warunki zbieżności PSZT, zima 2013, wykład 12 27

metoda stochastycznego najszybszego spadku Uczenie aproksymatora przykład-po-przykładzie, reguła Delta Chcemy zminimalizować Wykorzystujemy Procedurę Robbinsa- Monroe uwzględniając fakt, że przy spełnieniu pewnych warunków regularności PSZT, zima 2013, wykład 12 28

metoda stochastycznego najszybszego spadku Wykorzystanie reguły delta Formuła uczenia się ma postać PSZT, zima 2013, wykład 12 29

Aproksymacja na zbiorze nieskończonym Algorytm uczenia aproksymatora PSZT, zima 2013, wykład 12 30

aproksymacja i aproksymatory Zagadnienia praktyczne Skalowanie wejść tak aby typowo należały do przedziału Skalowanie wyjść aby typowo należały do przedziału początkowe wagi warstwy wyjściowej: zerowe początkowe wagi warstwy ukrytej: losowane z przedziału liczba neuronów ukrytych: wystarczająca PSZT, zima 2013, wykład 12 31

rozszerzenia Perceptron wielowarstwowy Proste rozszerzenie perceptronu dwuwarstwowego: wiele warstw wszystkie, poza ostatnią zawierają neurony sigmoidalne ostatnia warstwa zawiera neurony liniowe Możliwości aproksymacyjne takie jak perceptronu dwuwarstwowego, o ile warstwy są dość szerokie Łatwiej reprezentuje zależności obejmujące regularności wysokopoziomowe PSZT, zima 2013, wykład 12 32

rozszerzenia Sieci rekurencyjne Połączenia cykliczne, z opóźnieniami Implementacja systemu dynamicznego Zastosowania: prognozowanie odtwarzanie stanu systemu częściowo obserwowanego PSZT, zima 2013, wykład 12 33

rozszerzenia Sieci impulsowe Ang: Spiking neural networks Temat intensywnych badań Neurony stanowiące mniej-więcej wierne modele biologicznych odpowiedników Sieć działa w czasie rzeczywistym PSZT, zima 2013, wykład 12 34