Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Podobne dokumenty
Uczenie sieci neuronowych i bayesowskich

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Metody Sztucznej Inteligencji II

Zastosowania sieci neuronowych

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

PRZEWODNIK PO PRZEDMIOCIE

wiedzy Sieci neuronowe

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Podstawy Sztucznej Inteligencji (PSZT)

8. Neuron z ciągłą funkcją aktywacji.

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

1. Logika, funkcje logiczne, preceptron.

Sieci neuronowe w Statistica

Podstawy sztucznej inteligencji

Sieci neuronowe i ich ciekawe zastosowania. Autor: Wojciech Jamrozy III rok SMP / Informatyka

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Zastosowania sieci neuronowych

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW

Sztuczne sieci neuronowe (SNN)

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.

6. Perceptron Rosenblatta

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

TEORETYCZNE PODSTAWY INFORMATYKI

Inteligentne systemy przeciw atakom sieciowym

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

Uczenie sieci typu MLP

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

I EKSPLORACJA DANYCH

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Elementy inteligencji obliczeniowej

SZTUCZNA INTELIGENCJA

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Inteligentne systemy informacyjne

Sztuczne sieci neuronowe


Sztuczne sieci neuronowe. Uczenie, zastosowania

Wprowadzenie do uczenia maszynowego

Excel - użycie dodatku Solver

Sztuczne sieci neuronowe

WAI Wykłady 3 i 4. Sieci neuronowe. Uczenie i zastosowania. Wstęp do logiki rozmytej.

Uczenie Wielowarstwowych Sieci Neuronów o

PRZEWODNIK PO PRZEDMIOCIE

KARTA MODUŁU KSZTAŁCENIA

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

Projekt Sieci neuronowe

komputery? Andrzej Skowron, Hung Son Nguyen Instytut Matematyki, Wydział MIM, UW

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

Sieci neuronowe i algorytmy uczenia Czyli co i jak andrzej.rusiecki.staff.iiar.pwr.wroc.pl s.

O LICZBACH NIEOBLICZALNYCH I ICH ZWIĄZKACH Z INFORMATYKĄ

Systemy uczące się wykład 2

Budowa sztucznych sieci neuronowych do prognozowania. Przykład jednostek uczestnictwa otwartego funduszu inwestycyjnego

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak

wiedzy Sieci neuronowe (c.d.)

Emergentne właściwości. sztucznych sieci neuronowych

SID Wykład 8 Sieci neuronowe

Sztuczna inteligencja

Widzenie komputerowe

SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006

MODELOWANIE RZECZYWISTOŚCI

Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2)

Złożoność obliczeniowa algorytmu ilość zasobów komputera jakiej potrzebuje dany algorytm. Pojęcie to

Sygnał a informacja. Nośnikiem informacji mogą być: liczby, słowa, dźwięki, obrazy, zapachy, prąd itp. czyli różnorakie sygnały.

Prof. Stanisław Jankowski

Jacek Skorupski pok. 251 tel konsultacje: poniedziałek , sobota zjazdowa

Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę

Informacja w perspektywie obliczeniowej. Informacje, liczby i obliczenia

Metody numeryczne w przykładach

ZASTOSOWANIE PROGRAMOWANIA LINIOWEGO W ZAGADNIENIACH WSPOMAGANIA PROCESU PODEJMOWANIA DECYZJI

Sieć przesyłająca żetony CP (counter propagation)

WYMAGANIA EDUKACYJNE Z MATEMATYKI KLASA I GIMNAZJUM Małgorzata Janik

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Sztuczna inteligencja stan wiedzy, perspektywy rozwoju i problemy etyczne. Piotr Bilski Instytut Radioelektroniki i Technik Multimedialnych

Szukanie rozwiązań funkcji uwikłanych (równań nieliniowych)

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

Kształcenie w zakresie podstawowym. Klasa 2

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania

Systemy uczące się Lab 4

Metody klasyfikacji danych - część 1 p.1/24

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

Podstawy sztucznej inteligencji

REPREZENTACJA LICZBY, BŁĘDY, ALGORYTMY W OBLICZENIACH

METODY OPTYMALIZACJI. Tomasz M. Gwizdałła 2018/19

Aproksymacja funkcji a regresja symboliczna

NEURAL NETWORK ) FANN jest biblioteką implementującą SSN, którą moŝna wykorzystać. w C, C++, PHP, Pythonie, Delphi a nawet w środowisku. Mathematica.

Seminarium magisterskie. Dyskusja nad tematem pracy magisterskiej pisanej pod kierunkiem pani Dr hab. Małgorzaty Doman

ID1SII4. Informatyka I stopień (I stopień / II stopień) ogólnoakademicki (ogólno akademicki / praktyczny) stacjonarne (stacjonarne / niestacjonarne)

Zagadnienie transportowe

Transkrypt:

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. zajecia.jakubw.pl/nai Literatura: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym. WNT, Warszawa 997. PODSTAWOWE ZAGADNIENIA TECHNICZNE AI Zadania optymalizacyjne szukanie najlepszego rozwiązania (ocenianego liczbowo) przykłady: minimalizacja kosztu, minimalizacja funkcji błędu, maksymalizacja wygranej (gry logiczne) Zadania aproksymacji (ekstrapolacji) znajdowanie zależności między danymi klasyfikacja nieznanych obiektów na podstawie znanych przykładów (rozpoznawanie mowy, OCR, KDD, sterowanie, prognozowanie trendów...)

ZADANIA OPTYMALIZACYJNE Wiele problemów rozwiązywanych przez komputery ma postać zadań optymalizacyjnych: znaleźć wśród różnych możliwych rozwiązań takie, które najbardziej nam odpowiada Niech X - dowolny zbiór skończony (przestrzeń stanów) Niech f : X R - pewna rzeczywista funkcja na X (funkcja celu) Zadanie optymalizacyjne polega na znalezieniu punktu x ze zbioru X takiego, że: f(x ) = max( f(x) ), lub f(x ) = min( f(x) ), x X x X PRZYKŁAD Posortować n nazwisk alfabetycznie (rosnąco). Przestrzeń stanów: wszystkie możliwe ustawienia n nazwisk. Wielkość przestrzeni stanów: n! (nie n). Przestrzeń stanów to zbiór wszystkich możliwych (również nieoptymalnych) rozwiązań problemu. Funkcja celu: np. wartość (sukces), jeśli porządek jest właściwy, lub (porażka). W bardziej złożonych problemach funkcja celu ma zwykle więcej wartości, niż i. Każde dyskretne zadanie optymalizacyjne można rozwiązać przez przejrzenie wszystkich możliwości (wszystkich elementów przestrzeni stanów). Często jednak istnieją skuteczniejsze algorytmy (np. w przypadku sortowania). 2

ZADANIA APROKSYMACJI Problemy kojarzone z terminem sztuczna inteligencja to często zadania aproksymacji: mamy daną pewną dziedzinę i niektóre wartości nieznanej funkcji f, chcemy zgadnąć wartości f w innych punktach Niech X - dowolny zbiór (przestrzeń stanów, uniwersum) Niech f : X Y - pewna (nieznana) funkcja na X Załóżmy, że mamy dany ciąg (x, f(x )),... (x n, f(x n )). Zadanie aproksymacji polega tym, by dla dowolnego punktu x ze zbioru X znaleźć wartość y taką, że: f(x ) = y lub f(x ) - y było minimalne lub P( f(x ) = y ) było maksymalne PRZYKŁAD Mamy zbiór obrazków binarnych 32x32 przedstawiających litery (pisane ręcznie). Chcemy rozpoznawać nowe, nieznane wcześniej przypadki (odczytywać nowe napisy). Przestrzeń stanów: wszystkie możliwe obrazki 32x32. Wielkość przestrzeni stanów: 2 32*32. Przestrzeń stanów to zbiór wszystkich potencjalnych obiektów, jakie mogą pojawić się w zbiorze treningowym i później jako nowe obiekty. Aproksymowana funkcja: pewna (teoretycznie istniejąca) funkcja przyporządkowująca każdemu możliwemu obrazkowi kod ASCII znaku, który jest na nim przedstawiony. Nie ma prostych, siłowych rozwiązań problemu aproksymacji: jeżeli obiekt testowy x nie występował wśród znanych przykładów, musimy zastosować jakąś metodę uogólnienia tych przykładów. 3

Sztuczne sieci neuronowe Geneza: Naśladowanie działania naturalnych neuronów Cel historyczny: osiągnięcie zdolności uogólniania (aproksymacji) i uczenia się, właściwej mózgowi ludzkiemu. Perceptron (Rosenblatt 958) Wejście n stanów wejściowych x,...,x n stany mogą być cyfrowe lub analogowe Wyjście lub Parametry perceptronu n wag połączeń w,...,w n R wartość progowa θ R Uwaga: pod pojęciem perceptronu rozumie się też czasem sieć połączonych jednostek (neuronów). 4

Perceptron Zasada działania Do każdego i-tego wejścia przypisana jest waga w i Dla danych stanów wejściowych x,...,x n liczymy sumę ważoną: s = n i= w i x i Jeżeli s θ, to ustawiamy wyjście y =, zaś w przeciwnym przypadku ustawiamy y = Analogia z neuronem naturalnym x x n w w 2 w n = wi xi θ y w p. p. y 5

Jak opisać perceptron Perceptron opisuje jednoznacznie zbiór wag w,...,w n R oraz wartość progowa θ R Wartości x,...,x n R to zmienne pojawiające się na wejściu do modelu perceptronu Co potrafi perceptron x x x θ = 2 x AND x x x θ = x OR 6

Co potrafi perceptron Równanie perceptronu można potraktować jako równanie prostej (ogólnie: hiperpłaszczyzny w przestrzeni n-wymiarowej). Punkty leżące nad ową prostą klasyfikujemy jako, zaś pozostałe jako. w x + w2x2 θ w x + w 2 -θ= y= x Czego perceptron nie potrafi Pojedynczy perceptron nie potrafi odróżniać zbiorów nieseparowalnych liniowo, np. funkcji XOR. Odkrycie tych ograniczeń (969) na wiele lat zahamowało rozwój sieci neuronowych. AND XOR OR 7

Czego perceptron nie potrafi Zadaniem pojedynczego perceptronu jest jedynie: przetwarzanie jednostkowych informacji podejmowanie prostych decyzji przekazywanie wyników sąsiadom Dopiero w połączeniu z innymi węzłami uzyskuje się zdolność podejmowania złożonych decyzji Funkcje aktywacji Progowe f ( z) z = z<,2,8,6,4,2-5 - -5 5 5 -,2,2,8,6,4,2-5 - -5 5 5 Sigmoidalne f ( z) z = + e 8

Uczenie perceptronu Sposób działania perceptronu (wartości wag) w praktycznych problemach nie jest ustawiany ręcznie, tylko wyuczany na podstawie przykładów. Potrzebujemy zarówno metody uczenia jednego neuronu, jak i procedury obejmującej całą sieć. 9