MODELOWANIE RZECZYWISTOŚCI

Podobne dokumenty
MODELOWANIE RZECZYWISTOŚCI

Metody Sztucznej Inteligencji II

Sztuczne sieci neuronowe

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Podstawy Sztucznej Inteligencji (PSZT)

Wstęp do sztucznych sieci neuronowych

Inteligentne systemy informacyjne

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Temat: Sieci neuronowe oraz technologia CUDA

Sztuczne sieci neuronowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron

Wykład 1: Wprowadzenie do sieci neuronowych

Uczenie sieci neuronowych i bayesowskich

Podstawy sztucznej inteligencji

Sztuczne sieci neuronowe (SNN)

Obliczenia Naturalne - Sztuczne sieci neuronowe

Inteligentne systemy przeciw atakom sieciowym

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

wiedzy Sieci neuronowe

8. Neuron z ciągłą funkcją aktywacji.

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Sztuczna inteligencja

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

Sztuczne sieci neuronowe

ELEMENTY SZTUCZNEJ INTELIGENCJI. Sztuczne sieci neuronowe

Podręcznik. Mosty Królewca

1. Logika, funkcje logiczne, preceptron.

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.

Lekcja 5: Sieć Kohonena i sieć ART

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

OCENA DZIAŁANIA AE. METODY HEURYSTYCZNE wykład 4 LOSOWOŚĆ W AE KRZYWE ZBIEŻNOŚCI ANALIZA STATYSTYCZNA:

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2013/2014

Elementy inteligencji obliczeniowej

Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe. Krzysztof Regulski, WIMiIP, KISiM, B5, pok. 408

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe

METODY INŻYNIERII WIEDZY

Zastosowania sieci neuronowych

Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I.

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

I EKSPLORACJA DANYCH

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

Zastosowania sieci neuronowych

MODELOWANIE RZECZYWISTOŚCI

Sieci neuronowe i ich ciekawe zastosowania. Autor: Wojciech Jamrozy III rok SMP / Informatyka

Wstęp do sieci neuronowych, wykład 01 Neuron biologiczny. Model perceptronu prostego.

6. Perceptron Rosenblatta

SIECI REKURENCYJNE SIECI HOPFIELDA

Metody sztucznej inteligencji

O badaniach nad SZTUCZNĄ INTELIGENCJĄ

Wstęp do teorii sztucznej inteligencji

Wstęp do kognitywistyki. Wykład 3: Logiczny neuron. Rachunek sieci neuronowych

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Badacze zbudowali wiele systemów technicznych, naśladujących w komputerze ludzki mózg. Najbardziej pożyteczne okazały się sieci neuronowe.

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD XI: Sztuczne sieci neuronowe

Wprowadzenie do teorii systemów ekspertowych

Dariusz Brzeziński Instytut Informatyki, Politechnika Poznańska

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW

MODELOWANIE RZECZYWISTOŚCI

Sztuczne sieci neuronowe. Uczenie, zastosowania

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

O badaniach nad SZTUCZNĄ INTELIGENCJĄ

Systemy Inteligentnego Przetwarzania wykład 1: sieci elementarne

Sztuczne siei neuronowe - wprowadzenie

Optymalizacja optymalizacji

Sieci neuronowe i algorytmy uczenia Czyli co i jak andrzej.rusiecki.staff.iiar.pwr.wroc.pl s.

SZTUCZNA INTELIGENCJA

Sieci neuronowe w Statistica

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5

Sztuczne sieci neuronowe

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

Algorytmy sztucznej inteligencji

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Sieć przesyłająca żetony CP (counter propagation)

METODY INTELIGENCJI OBLICZENIOWEJ wykład 4

MODELOWANIE RZECZYWISTOŚCI

SZTUCZNE SIECI NEURONOWE

Podstawy sztucznej inteligencji

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Elementy kognitywistyki III: Modele i architektury poznawcze

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty

x 1 x 2 x 3 x n w 1 w 2 Σ w 3 w n x 1 x 2 x 1 XOR x (x A, y A ) y A x A

Redakcja: Urszula Markowska-Kaczmar Halina Kwaśnicka SIECI NEURONOWE W ZASTOSOWANIACH. Praca zbiorowa

Sieci neuronowe. - wprowadzenie - Istota inteligencji. WYKŁAD Piotr Ciskowski

Transkrypt:

MODELOWANIE RZECZYWISTOŚCI Daniel Wójcik Instytut Biologii Doświadczalnej PAN Szkoła Wyższa Psychologii Społecznej d.wojcik@nencki.gov.pl dwojcik@swps.edu.pl tel. 022 5892 424 http://www.neuroinf.pl/members/danek/swps/

Podręcznik Iwo Białynicki-Birula Iwona Białynicka-Birula

Komputer jako model mózgu Komputer jest modelem mózgu w tym sensie, że również wykonuje obliczenia Model von Neumanna: Procesor centralny (CPU) Pamięć Działanie komputera: myślenie zapamiętywanie Pobierz z pamięci instrukcję Pobierz z pamięci dane do wykonania instrukcji Wykonaj instrukcję Zapisz uzyskane dane w pamięci

Wady komputera von Neumanna Brak odporności na uszkodzenie elementów Sekwencyjne działanie Brak adaptacji Alternatywa?

Sztuczne sieci neuronowe Sieci neuronowe to modele obliczeniowe, których funkcjonalność i struktura wzorowana jest na mózgu. Charakteryzuje je: Rozproszone i równoległe przetwarzanie informacji Odporność na uszkodzenia części elementów Możliwość uczenia

Mózg Mózg składa się z komórek nerwowych neuronów Z ciała komórki neuronu odchodzą dendryty, które razem z ciałem komórki zbierają informację przychodzącą Jeżeli sumaryczne pobudzenie komórki przekroczy próg aktywacji, komórka generuje impuls wysyłany aksonem do sąsiadów

Komórka nerwowa Typowe neurony A.Komórka piramidalna korowa B.Komórka móżdżka C.Gwiaździsta komórka kory mózgowej

Komórka nerwowa

Połączenia w układzie nerwowym

Połączenia w układzie nerwowym

Synapsa Połączenie między neuronami nazywamy synapsą Kiedy sygnał dochodzi do synapsy, wysyłana jest substancja chemiczna (neurotransmiter), która aktywuje komórkę postsynaptyczną Komórka presynaptyczna może zwiększać lub zmniejszać aktywność komórki postsynaptycznej Waga synapsy może się zmieniać podczas przetwarzania informacji

Teoria Hebba (1949) Zmiany wag synaps leżą u podłoża procesów zapamiętywania i uczenia się

Szybkość przetwarzania informacji Neurony działają w skali milisekund, czyli w przybliżeniu wykonują ok. 1000 operacji na sekundę Procesory w komputerach są około milion razy szybsze Ale w mózgu naraz działa 1011 neuronów przetwarzanie równoległe

Sztuczna sieć neuronowa Powyższe inspiracje biologiczne były inspiracją do stworzenia sztucznych sieci neuronowych uproszczonych modeli mózgu przetwarzających informację w sposób rozproszony i równoległy. Realizuje się je albo programowo albo sprzętowo (układy scalone o dużej skali integracji)

Sztuczny neuron Podstawowym elementem sztucznych sieci neuronowych jest schematyczny model neuronu Jego stan odpowiada częstotliwości impulsów generowanych przez komórkę Sieci neuronowe składają się z połączonych sztucznych neuronów

Sztuczny neuron Połączenia odpowiadają synapsom, z każdym jest skojarzona pewna waga. Kiedy sygnał przechodzi przez połączenie, mnożony jest przez wagę Sztuczny neuron na wyjściu podaje ważoną sumę przychodzących sygnałów, którą czasem dodatkowo się moduluje (funkcją aktywacji)

Sieci neuronowe Kiedy chcemy rozwiązać dany problem przy pomocy sieci neuronowej napotykamy dwa główne problemy: Jak zaprojektować sieć (znaleźć graf skierowany reprezentujący sieć) Jak nauczyć sieć (dobrać wagi by sieć wykonywała żądane zadanie) Nie wiemy jak natura rozwiązuje te problemy (ewolucja), nie mamy też ogólnej metody konstrukcji sztucznych sieci neuronowych.

Sieci neuronowe Sieci neuronowe jednokierunkowe (feedforward neural networks) są budowane warstwowo. Składają się z warstwy wejściowej, która odpowiada neuronom sensorycznym, i wyjściowej, która odpowiada neuronom motorycznym. Często także z kilku tzw. warstw ukrytych, które odpowiadają interneuronom układu nerwowego. Warstwa wyjściowa Warstwa ukryta Warstwa wejściowa

Perceptrony Najprostszą i najpopularniejszą siecią neuronową jest perceptron wielowarstwowy. Jest siecią jednokierunkową (feedforward), to znaczy nie zawierającą cykli. Informacja podana jej na wejściu przechodzi taką sieć raz i stabilizuje się na wyjściu. Warstwa wyjściowa Warstwa ukryta Warstwa wejściowa Perceptron dwuwarstwowy

Jak działa perceptron? Oznaczmy węzły 1, 2,...,i,... warstwy k-tej przez Nik Ustawiamy stan Si1 każdego węzła Ni1 warstwy wejściowej na i-tą składową sygnału wejściowego Ii W kolejnych warstwach od drugiej do wyjściowej (k=m) postępujemy następująco:

Jak działa perceptron? W każdym węźle Nik w warstwie k policz ważoną sumę wchodzących sygnałów, zastosuj funkcję aktywacji f; wynik przypisz stanowi Sik tego węzła. Inaczej mówiąc k i S =f Lk 1 w j=1 k 1 j,i S k 1 j gdzie Lk-1 to liczba węzłów w warstwie k-1, wj,ik-1 jest wagą połączenia od węzła Njk-1 do węzła Nik Skopiuj stan SiM każdego węzła NiM na Oi i-tą składową sygnału wyjściowego.

Przykład: reguła XOR W roku 1969 M. Minsky i S. Papert udowodnili, że żaden perceptron jednowarstwowy nie może wyliczyć funkcji XOR. Okazało się, że może to zrobić perceptron dwuwarstwowy.

Perceptron XOR w akcji

Uczenie sieci Uczenie sieci polega na zmianie wag połączeń tak, by funkcjonowała w pożądany sposób. Zwykle automatyczne dopasowywanie wag zgodnie z pewnym algorytmem uczenia. Kiedy mówimy o uczeniu sieci mamy zwykle na myśli konkretny algorytm uczenia

Pamięć asocjacyjna Najprostszy algorytm uczenia pochodzi od Johna Hopfielda Sieć Hopfielda działa jak pamięć asocjacyjna kojarzy obiekt z nim samym: dobieramy wagi tak, żeby na wyjściu otrzymać wejście Jest użyteczna wtedy, gdy na wejściu podamy niepełny albo zaszumiony bodziec sieć Hopfielda odtwarza poprawny bodziec Przykład: OCR i skanowanie

Sieć Hopfielda Sieć Hopfielda do rozpoznawania wzorców binarnych (+1/-1) o długości n to perceptron jednowarstwowy o n neuronach wejściowych i n neuronach wyjściowych. Funkcja aktywacji: f(x) = sgn(x) Żeby zapamiętać zbiór wzorców P1, P2,..., Pm, gdzie k-ty wzorzec jest ciągiem liczb +/-1 Pk = {p1k, p2k,..., pnk} przyjmujemy wagi połączeń: m 1 k k w i, j = pi p j n k =1

Sieć Hopfielda Dlaczego tak? m 1 k k w i, j= pi p j n k =1 Dla każdego wzorca (Pk) i dla każdego połączenia między neuronem wchodzącym i oraz wychodzącym j dodajemy do wagi człon 1/n, jeżeli symbole na miejscu i oraz j są takie same, a odejmujemy 1/n, jeżeli te symbole się różnią W ten sposób zapisujemy w macierzy wag informację o korelacjach w bodźcach.

Sieć Hopfielda Metoda Hopfielda jest bardzo prosta, żeby jednak była skuteczna Bodźce nie mogą być zbyt podobne do siebie Bodźce wejściowe nie mogą być zbyt zniekształcone

Jak nauczyć sieć czegoś nowego?

Reguła uczenia perceptronu (PLR) PLR korzysta z par wejście pożądane wyjście. Początkowo wszystkie wagi sieci wybieramy losowo, następnie iterujemy: W każdej iteracji podajemy wzór wejściowy {I1,..., In} ze zbioru uczącego. Sieć generuje wyjście {O1,..., On}, od którego odejmujemy pożądane wyjście {D1,..., Dn} otrzymując wektor błędu {E1,..., En}. Długość tego wektora jest miarą sukcesu sieci. Jeżeli wynosi 0, to znaczy, że sieć dała żądany wynik dokładnie. Im większy błąd, tym gorzej poradziła sobie sieć.

Reguła uczenia perceptronu (PLR) Każdą wagę sieci zmieniamy w zależności od wartości składowej błędu, z którą jest związana. Zmodyfikowana waga przyjmuje wartość w i, j I i E j gdzie η jest parametrem szybkości uczenia. Powinien on wynosić ok. 0,1. Jeżeli jest za duży, wówczas sieć szybko zapomina to, czego się nauczyła. Jeżeli za mały, to sieć uczy się bardzo wolno.

Reguła uczenia perceptronu (PLR) Wielokrotne powtarzanie tej reguły poprawia wyniki do pewnego punktu błąd zwykle nie zbiega do zera Jest to związane z generalizacją sieci musi działać dobrze także dla wzorców, których nie widziała.

Przykład: rozpoznawanie liter Program Hopfield

Metoda propagacji wstecznej Najpopularniejsza metoda uczenia perceptronów wielowarstwowych Uogólnienie reguły uczenia perceptronu Zmieniamy wagi począwszy od warstwy wyjściowej cofając się do wejścia Zmiany wag zachodzą zgodnie z PLR

Sieci rekurencyjne Uogólnienie sieci jednokierunkowych. Sieć Elmana: pamięta poprzednie wejście dwuwymiarowy perceptron z dodatkowymi jednostkami neuronami kontekstowymi

Sieci rekurencyjne W odróżnieniu od sieci jednokierunkowych sygnał wychodzący z sieci rekurencyjnej zależy od historii Przykład: modelowanie indeksów giełdowych Uczenie: propagacja wsteczna (wagi sprzężeń zwrotnych są ustalone)

Rodzaje uczenia sieci Uczenie pod nadzorem (wszystkie omawiane do tej pory) Uczenie ze wzmacnianiem: oceniamy sieć na podstawie tego, jak sobie radzi z zadaniem Uczenie bez nadzoru: sieć nie dostaje żadnych wskazówek jak ma działać; na ogół takie sieci uczą się dzielić grupę sygnałów wejściowych na klasy sygnałów o podobnym charakterze (klasyfikacja).

Podsumowanie Pomysł sieci neuronowych jest starszy od pomysłu komputera von Neumanna Rozwój teorii i praktyki sieci neuronowych odbywał się falami. Kluczowe momenty: 1943: McCulloch i Pitts sztuczny neuron 1950': Rosenblatt perceptrony 1960': Minsky i Papert krytyka perceptronu 1980': sieci Hopfielda Obecnie: szerokie zastosowanie w wielu dziedzinach, m.in. do klasyfikacji i predykcji