Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Podobne dokumenty
Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 8 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej

Elektroniczne materiały dydaktyczne do przedmiotu Wstęp do Sieci Neuronowych

Uniwersalne Środowisko Nauczania (USN) formy wsparcia dla studentów niepełnosprawnych

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Tryb i zasady przyznawania Stypendium Wypłata Stypendium Postanowienia ko cowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Wprowadzenie do Sieci Neuronowych Laboratorium 05 Algorytm wstecznej propagacji błędu

UMOWA PARTNERSKA. - zwanymi dalej wydziałami współprowadzącymi.

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Uczenie sieci neuronowych i bayesowskich

Wstęp do sieci neuronowych, wykład 01 Neuron biologiczny. Model perceptronu prostego.

Wstęp do sieci neuronowych, wykład 01 Neuron biologiczny. Model perceptronu prostego.

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

Wstęp do sieci neuronowych, wykład 15, Neuron Hodgkina-Huxleya

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Nowości w zakresie realizacji POKL. Joanna Kica. Nauka dla innowacji w biznesie. prof. dr hab. Robert Karaszewski

Tryb przyznawania stypendiów specjalnych

Nauczanie zdalne przedmiotów matematycznych

SCENARIUSZ LEKCJI. Autorzy scenariusza: Krzysztof Sauter (informatyka), Marzena Wierzchowska (matematyka)

Nowoczesne metody nauczania przedmiotów ścisłych

Algorytmy stochastyczne, wykład 07 Parametryczne systemy

Człowiek najlepsza inwestycja

Wstęp do sieci neuronowych, wykład 09, Walidacja jakości uczenia. Metody statystyczne.

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

REGULAMIN INTERDYSCYPLINARNYCH STUDIÓW DOKTORANCKICH MATEMATYCZNO-PRZYRODNICZYCH PRZEPISY OGÓLNE

Algorytmy stochastyczne, wykład 05 Systemy Liendenmayera, modelowanie roślin

TEMAT: PRZEKSZTAŁCENIA WYKRESÓW FUNKCJI PRZESUNIĘCIE O WEKTOR

6) VI edycja termin składania wniosków upływa 15 lutego 2015.

Postanowienia ogólne. 4 Wysokość Stypendium wynosi zł miesięcznie.

Algorytmy stochastyczne, wykład 02 Algorytmy genetyczne

Studia pierwszego stopnia (nabycie kwalifikacji do II etapu edukacyjnego) Formy zajęć, liczba godzin zajęć

OBWIESZCZENIE Nr 1. Rektora Uniwersytetu Mikołaja Kopernika w Toruniu. z dnia 6 maja 2015 r.

Sztuczne sieci neuronowe

Regulamin konkursu na interdyscyplinarne wykłady dodatkowe proponowane jako oferta dydaktyczna dla uczestników ISDM-P

ZARZĄDZENIE Nr 38. Rektora Uniwersytetu Mikołaja Kopernika w Toruniu. z dnia 15 kwietnia 2009 r.

Funkcje elementarne. Ksenia Hladysz Własności 2. 3 Zadania 5

wiedzy Sieci neuronowe

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

UNIWERSYTET MIKOŁAJA KOPERNIKA W TORUNIU. Rektora Uniwersytetu Mikołaja Kopernika w Toruniu. z dnia 17 grudnia 2013 r.

Harmonogram postępowania rekrutacyjnego na I rok studiów doktoranckich w Uniwersytecie Mikołaja Kopernika w Toruniu w roku akademickim 2016/2017

Uczenie sieci radialnych (RBF)

SCENARIUSZ LEKCJI: TEMAT LEKCJI: Postać kanoniczna funkcji kwadratowej. Interpretacja danych w arkuszu kalkulacyjnym

Sieci neuronowe w Statistica

Wstęp do sieci neuronowych, wykład 14 Maszyna Boltzmanna

Programowanie I C / C++ laboratorium 03 arytmetyka, operatory

Relacja: III Seminarium Naukowe "Inżynierskie zastosowania technologii informatycznych"

Harmonogram postępowania rekrutacyjnego na I rok studiów doktoranckich w Uniwersytecie Mikołaja Kopernika w Toruniu w roku akademickim 2015/2016

Uniwersytet Łódzki Wydział Matematyki i Informatyki PROGRAM KSZTAŁCENIA kierunek Informatyka Środowiskowe Studia Doktoranckie (studia III stopnia)

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Regulamin konkursu na interdyscyplinarne projekty badawcze proponowane jako oferta tematyki badawczej dla uczestników ISDM-P

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

Uprawnieni do przyjęcia na studia z pominięciem postępowania rekrutacyjnego laureaci lub finaliści. kierunek/ specjalność studiów

REGULAMIN UCZESTNICTWA W PROJEKCIE Uniwersytet Mikołaja Kopernika w Europie Uniwersytet Mikołaja Kopernika w Toruniu.

Wprowadzenie do Sieci Neuronowych Laboratorium 06 Algorytm wstecznej propagacji błędu

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Metody numeryczne. materiały do wykładu dla studentów

Przedmiotowe Ocenianie Z Matematyki - Technikum. obowiązuje w roku szkolnym 2016 / 2017

Matematyka stosowana i metody numeryczne

Harmonogram postępowania rekrutacyjnego na I rok studiów doktoranckich w Uniwersytecie Mikołaja Kopernika w Toruniu w roku akademickim 2018/2019

Rozpoznawanie Twarzy i Systemy Biometryczne

OBWIESZCZENIE Nr 4. Rektora Uniwersytetu Mikołaja Kopernika w Toruniu. z dnia 19 czerwca 2013 r.

ZARZADZENIE Nr 76. Rektora Uniwersytetu Mikołaja Kopernika w Toruniu. z dnia 28 kwietnia 2014 r.

Podstawy nauk przyrodniczych Matematyka Wstęp

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.

Postanowienia ogólne. Wysokość Stypendium wynosi zł miesięcznie.

ZARZĄDZENIE Nr 82. Rektora Uniwersytetu Mikołaja Kopernika w Toruniu. z dnia 30 maja 2017 r.

Cyfrowe przetwarzanie obrazów i sygnałów Wykład 8 AiR III

Diagnostyka obrazowa

Diagnostyka obrazowa

Projekt Era inżyniera pewna lokata na przyszłość jest współfinansowany przez Unię Europejską w ramach Europejskiego Funduszu Społecznego

Pojęcie funkcji. Funkcja liniowa

Fuzja sygnałów i filtry bayesowskie

UMOWY ZAWARTE W RAMACH KONKURSU DLA PODDZIAŁANIA PROGRAMU OPERACYJNEGO KAPITAŁ LUDZKI. konkurs nr 1/POKL/4.1.2/2009

Kalendarz roku szkolnego 2016/2017 Zespół Szkół nr 1 w Toruniu

Wstęp do Sieci Neuronowych

Uczenie sieci typu MLP

Projekt Era inżyniera pewna lokata na przyszłość jest współfinansowany przez Unię Europejską w ramach Europejskiego Funduszu Społecznego

Zastosowania sieci neuronowych

Podstawy Sztucznej Inteligencji (PSZT)

KALENDARZ ROKU SZKOLNEGO 2016 / 2017

SCENARIUSZ TEMATYCZNY. Wykresy funkcji homograficznej - rozwiązywanie przy pomocy komputera (poziom podstawowy i rozszerzony)

PRÓBNY EGZAMIN MATURALNY Z INFORMATYKI STYCZEŃ Arkusz I. Czas pracy: 60 minut Liczba punktów do uzyskania: 15

Regulamin zwalniania uczniów z zajęć edukacyjnych

PRZEWODNIK PO PRZEDMIOCIE

Wprowadzenie do Sieci Neuronowych lista zadań 1

Techniki uczenia maszynowego nazwa przedmiotu SYLABUS

Zintegrowana teoria autyzmu Obliczenia płynowe w modelo

Transkrypt:

Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 13-1- Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu w dziedzinach matematyczno-przyrodniczych realizowany w ramach Poddziałania.1.1 Programu Operacyjnego Kapitał Ludzki M. Czoków, J. Piersa WSN 13/1 Wykład 3

1 Algorytm spadku gradientowego Uczenie Adaline 3 Filtrowanie obrazów Rozpoznawanie obrazów DFT Zadania M. Czoków, J. Piersa WSN 13/1 Wykład 3

1 Algorytm spadku gradientowego Uczenie Adaline 3 Filtrowanie obrazów Rozpoznawanie obrazów DFT Zadania M. Czoków, J. Piersa WSN 13/1 Wykład 3

Idea f(x) = exp(- (x - x ) / ( sigma )) - - y 3 1-1 - -3 - - - - -3 - -1 1 3 x M. Czoków, J. Piersa WSN 13/1 Wykład 3

Norma euklidesowa f ( x) = x x = (x x ) + (y y ) 15 1 5 1 5 y -5-1 -1-5 x 5 1 M. Czoków, J. Piersa WSN 13/1 Wykład 3

Hiperbola f (x) = a(x x ) + b(y y ) + c 5 15 1 5-1 -5 x 5 1-1 -5 y 5 1 M. Czoków, J. Piersa WSN 13/1 Wykład 3

Hiperbola f (x) = ( a(x x ) + b(y y ) + c ) d, d < 1.8.6.. 1 5 1 5 y -5-5 x -1-1 M. Czoków, J. Piersa WSN 13/1 Wykład 3

Funkcja Gaussa f (x) = exp x x σ f(x) = exp(- (x - x ) / ( sigma )) 1.8.6.. - -3 - -1 x 1 3 - -3 - -1 1 y 3 M. Czoków, J. Piersa WSN 13/1 Wykład 3

Funkcja liniowo-logarytmiczna f (x) = c x x ln(c x x ), c > 1 8 6 1 5 1 5 y -5-5 x -1-1 M. Czoków, J. Piersa WSN 13/1 Wykład 3

Jak wykorzystać w zagadnieniach klasyfikacyjnych 1.5 1.5-6 - - 6 6 8 1 1 M. Czoków, J. Piersa WSN 13/1 Wykład 3

Jak wykorzystać w zagadnieniach klasyfikacyjnych out 1.5 1.5-6 - - 6 6 8 1 1 M. Czoków, J. Piersa WSN 13/1 Wykład 3

y Efekt 8 6 1 -.8.6.. - -8-6 8-6 - - 6-8 -8-6 - - 6 8 x x 6 8-8 -6 - - y M. Czoków, J. Piersa WSN 13/1 Wykład 3

y Efekt 8 6 1.8.6.. - - 8 6-6 -8-8 -6 - - 6 8 x x - - -6-8 8 6 y - - -6-8 M. Czoków, J. Piersa WSN 13/1 Wykład 3

Algorytm spadku gradientowego Uczenie Adaline 1 Algorytm spadku gradientowego Uczenie Adaline 3 Filtrowanie obrazów Rozpoznawanie obrazów DFT Zadania M. Czoków, J. Piersa WSN 13/1 Wykład 3

Funkcja błędu Algorytm spadku gradientowego Uczenie Adaline 5 5-5 -5-1 -1-15 6 8 1-15 6 8 1 M. Czoków, J. Piersa WSN 13/1 Wykład 3

Algorytm spadku gradientowego Algorytm spadku gradientowego Uczenie Adaline 5 3 1 6 - - -6-6 - - 6 M. Czoków, J. Piersa WSN 13/1 Wykład 3

Postęp algorytmu Algorytm spadku gradientowego Uczenie Adaline click M. Czoków, J. Piersa WSN 13/1 Wykład 3

Algorytm Algorytm spadku gradientowego Uczenie Adaline click M. Czoków, J. Piersa WSN 13/1 Wykład 3

Wykres błędu Algorytm spadku gradientowego Uczenie Adaline 3 Error 5 Error 15 1 5 5 1 15 5 3 Iterations M. Czoków, J. Piersa WSN 13/1 Wykład 3

Wielkość η Algorytm spadku gradientowego Uczenie Adaline 1 1 1 8 3 6 p(x,y) 1 3 1 y -1 - -3 - -1 - -3 - -5-5 x M. Czoków, J. Piersa WSN 13/1 Wykład 3

Filtry liniowe Filtrowanie obrazów Rozpoznawanie obrazów DFT Zadania Oryginalny rysunek za http://en.wikipedia.org/, 11-9. M. Czoków, J. Piersa WSN 13/1 Wykład 3

Rozpoznawanie obrazów Filtrowanie obrazów Rozpoznawanie obrazów DFT Zadania Chcemy rozpoznawać obraz po przesunięciu, M. Czoków, J. Piersa WSN 13/1 Wykład 3

DFT Filtrowanie obrazów Rozpoznawanie obrazów DFT Zadania obraz DFT obraz DFT M. Czoków, J. Piersa WSN 13/1 Wykład 3

DFT Filtrowanie obrazów Rozpoznawanie obrazów DFT Zadania DFT 1 log(dft) M. Czoków, J. Piersa WSN 13/1 Wykład 3

DFT Filtrowanie obrazów Rozpoznawanie obrazów DFT Zadania DFT 1 log(dft) M. Czoków, J. Piersa WSN 13/1 Wykład 3

DFT Filtrowanie obrazów Rozpoznawanie obrazów DFT Zadania out M. Czoków, J. Piersa WSN 13/1 Wykład 3