Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Podobne dokumenty
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty

Wstęp do sieci neuronowych, wykład 8 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Wstęp do sieci neuronowych, wykład 01 Neuron biologiczny. Model perceptronu prostego.

Wstęp do sieci neuronowych, wykład 01 Neuron biologiczny. Model perceptronu prostego.

Elektroniczne materiały dydaktyczne do przedmiotu Wstęp do Sieci Neuronowych

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.

Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wykład 1. Informatyka Stosowana. 3 października Informatyka Stosowana Wykład 1 3 października / 26

Arytmetyka liczb binarnych

1. Logika, funkcje logiczne, preceptron.

WSTĘP. Budowa bramki NAND TTL, ch-ka przełączania, schemat wewnętrzny, działanie 2

Wykład 1. Informatyka Stosowana. 2 października Informatyka Stosowana Wykład 1 2 października / 33

Uniwersalne Środowisko Nauczania (USN) formy wsparcia dla studentów niepełnosprawnych

dr inż. Rafał Klaus Zajęcia finansowane z projektu "Rozwój i doskonalenie kształcenia i ich zastosowań w przemyśle" POKL

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Podstawowe operacje arytmetyczne i logiczne dla liczb binarnych

Wprowadzenie do Sieci Neuronowych Laboratorium 02 Perceptron prosty cd

Programowanie I C / C++ laboratorium 03 arytmetyka, operatory

Wstęp do sieci neuronowych, wykład 01 Neuron biologiczny. Model perceptronu prostego.

Architektura komputerów ćwiczenia Bramki logiczne. Układy kombinacyjne. Kanoniczna postać dysjunkcyjna i koniunkcyjna.

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Uczenie sieci neuronowych i bayesowskich

Podstawy Automatyki. Wykład 13 - Układy bramkowe. dr inż. Jakub Możaryn. Warszawa, Instytut Automatyki i Robotyki

Wykład 2. Informatyka Stosowana. 8 października 2018, M. A-B. Informatyka Stosowana Wykład 2 8 października 2018, M. A-B 1 / 41

Wstęp do Informatyki i Programowania (kierunek matematyka stosowana)

Cyfrowe układy scalone c.d. funkcje

Bramki logiczne V MAX V MIN

Wprowadzenie do Sieci Neuronowych lista zadań 1

Wykład 1. Informatyka Stosowana. 1 października Informatyka Stosowana Wykład 1 1 października / 26

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Wprowadzenie do Sieci Neuronowych Laboratorium 01 Organizacja zajęć. Perceptron.

Przykłady zdań w matematyce. Jeśli a 2 + b 2 = c 2, to trójkąt o bokach długości a, b, c jest prostokątny (a, b, c oznaczają dane liczby dodatnie),

Automatyka Lab 1 Teoria mnogości i algebra logiki. Akademia Morska w Szczecinie - Wydział Inżynieryjno-Ekonomiczny Transportu

Programowanie I C / C++ laboratorium 02 Składnia pętli, typy zmiennych, operatory

Tryb i zasady przyznawania Stypendium Wypłata Stypendium Postanowienia ko cowe

UMOWA PARTNERSKA. - zwanymi dalej wydziałami współprowadzącymi.

Wprowadzenie do Sieci Neuronowych Laboratorium 01 Organizacja zajęć. Perceptron.

Wprowadzenie do architektury komputerów systemy liczbowe, operacje arytmetyczne i logiczne

Elementy inteligencji obliczeniowej

Architektura systemów komputerowych Laboratorium 13 Symulator SMS32 Operacje na bitach

Nowoczesne metody nauczania przedmiotów ścisłych

Układy logiczne. Wstęp doinformatyki. Funkcje boolowskie (1854) Funkcje boolowskie. Operacje logiczne. Funkcja boolowska (przykład)

Algebra Boole a i jej zastosowania

Sieci neuronowe i ich ciekawe zastosowania. Autor: Wojciech Jamrozy III rok SMP / Informatyka

Podstawy Informatyki Elementarne podzespoły komputera

Wstęp do programowania

Bramki logiczne Podstawowe składniki wszystkich układów logicznych

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Wprowadzenie do Sieci Neuronowych Laboratorium 05 Algorytm wstecznej propagacji błędu

Podstawy Sztucznej Inteligencji (PSZT)

Metody Sztucznej Inteligencji II

Wstęp do sieci neuronowych, wykład 09, Walidacja jakości uczenia. Metody statystyczne.

Laboratorium podstaw elektroniki

Podstawy elektroniki cyfrowej dla Inżynierii Nanostruktur. Piotr Fita

Podstawy Automatyki. Wykład 9 - Podstawy matematyczne automatyki procesów dyskretnych. dr inż. Jakub Możaryn. Instytut Automatyki i Robotyki

Automatyka Treść wykładów: Literatura. Wstęp. Sygnał analogowy a cyfrowy. Bieżące wiadomości:

Układy kombinacyjne 1

Sztuczne sieci neuronowe (SNN)

Regulamin konkursu na interdyscyplinarne wykłady dodatkowe proponowane jako oferta dydaktyczna dla uczestników ISDM-P

Automatyzacja Ćwicz. 2 Teoria mnogości i algebra logiki Akademia Morska w Szczecinie - Wydział Inżynieryjno-Ekonomiczny Transportu

Człowiek najlepsza inwestycja

Synteza układów kombinacyjnych

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Ćwiczenie 23. Temat: Własności podstawowych bramek logicznych. Cel ćwiczenia

Elementy logiki matematycznej

Architektura komputerów Wykład 2

Podstawy Automatyki. Wykład 13 - Układy bramkowe. dr inż. Jakub Możaryn. Warszawa, Instytut Automatyki i Robotyki

9. Podstawowe narzędzia matematyczne analiz przestrzennych

Operatory w C++ Operatory arytmetyczne. Operatory relacyjne (porównania) Operatory logiczne. + dodawanie - odejmowanie * mnożenie / dzielenie % modulo

Zwykle układ scalony jest zamknięty w hermetycznej obudowie metalowej, ceramicznej lub wykonanej z tworzywa sztucznego.

Obliczenia na stosie. Wykład 9. Obliczenia na stosie. J. Cichoń, P. Kobylański Wstęp do Informatyki i Programowania 266 / 303

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

4 Klasyczny rachunek zdań

dr inż. Jarosław Forenc

Tryb przyznawania stypendiów specjalnych

Karta (sylabus) modułu/przedmiotu Transport Studia I stopnia

Nauczanie zdalne przedmiotów matematycznych

PoniŜej zamieszczone są rysunki przedstawiane na wykładach z przedmiotu Peryferia Komputerowe. ELEKTRONICZNE UKŁADY CYFROWE

Algorytmy stochastyczne, wykład 02 Algorytmy genetyczne

Elementy cyfrowe i układy logiczne

Mikrooperacje. Mikrooperacje arytmetyczne

Jednostki miar stosowane w sieciach komputerowych. mgr inż. Krzysztof Szałajko

ESI: Perceptrony proste i liniowe

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści

Podstawy programowania w języku C i C++

Podstawy sztucznej inteligencji

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

Wstęp do sieci neuronowych, wykład 15, Neuron Hodgkina-Huxleya

Transkrypt:

Wstęp do sieci neuronowych, wykład 2 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 213-1-15 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu w dziedzinach matematyczno-przyrodniczych realizowany w ramach Poddziałania 4.1.1 Programu Operacyjnego Kapitał Ludzki

Uwaga poniższe slajdy są eksperymentem zawierają wyłącznie ilustracje i tabele, których sens przepisywania na tablicę jest wątpliwy są niemal całkowicie pozbawione treści pisanej (w tym wzorów!)

1 Perceptron dokończenie 2 Przykład 3 Model maszyny liniowej Konstrukcja Kesslera

1 Perceptron dokończenie 2 Przykład 3 Model maszyny liniowej Konstrukcja Kesslera

W przypadku 1d brzeg rozdzielający jest punktem dzielącym prostą. 3 2 1-1 -2-3 -3-2 -1 1 2 3

W przypadku 2d brzeg rozdzielający jest prostą dzielącą płaszczyznę. 6 4 2-2 -4-6 -6-4 -2 2 4 6

W przypadku 3d jest to płaszczyzna rozdzielająca przestrzeń. 15 1 5-5 -6-1 1 5-2 -4 2-5 4-16

uczenia click

uczenia Dlaczego nie należy korzystać z podstawowej wersji algorytmu? click

NOT Perceptron dokończenie NOT Jedno wejście p, p NOT (p) 1 1 Problem jest rozwiązywalny przez pojedynczy perceptron.

y AND Perceptron dokończenie AND 1.5 p q AND(p, q) 1 1 1 1 1 Dwa wejścia p, q, Problem liniowo separowalny. 1.5 -.5 -.5.5 1 1.5 x np. w 1 = w 2 = +1, w = 1.5

y OR Perceptron dokończenie OR 1.5 p q OR(p, q) 1 1 1 1 1 1 1 Dwa wejścia p, q, Problem liniowo separowalny. 1.5 -.5 -.5.5 1 1.5 x np. w 1 = w 2 = +1, w =.5

Projekcja Perceptron dokończenie P i (x 1,..., x n ) = +1 x i = +1 Dwa wejścia p, q, p 1...p i 1 p i p i+1 p n P i (p 1, p 2,..., p n ) 1 1 Problem liniowo separowalny.

Uogólniony AND Perceptron dokończenie AND n wejść p 1, p 2,..., p n, p 1 p 2... p n AND(p 1, p 2,..., p n )... 1...... 1 1... 1 1... 1 1 Problem liniowo separowalny.

Uogólniony OR Perceptron dokończenie OR n wejść p 1, p 2,..., p n, Problem liniowo separowalny. p 1 p 2... p n OR(p 1, p 2,..., p n )... 1... 1... 1 1... 1 1 1... 1 1

y XOR Perceptron dokończenie XOR p q XOR(p, q) 1 1 1 1 1 1 1.5 1.5 Dwa wejścia p, q, Problem nie jest liniowo separowalny. -.5 -.5.5 1 1.5 x

NXOR / IFF Perceptron dokończenie NOT XOR / IF and only IF Dwa wejścia p, q, p q IFF (p, q) 1 1 1 1 1 1 Problem nie jest liniowo separowalny.

NAND i NOR Perceptron dokończenie NAND (NOT AND) oraz NOR (NOT AND) Negacja koniunkcji i alternatywy, Po dwa wejścia p, q, Oba problemy okazują się separowalne liniowo, Zadanie: wskazać wagi perceptronów rozwiązujących problemy.

Separowalne liniowo funkcje logiczne Wszystkich funkcji logicznych o n zmiennych jest 2 2n, Ilość funkcji separowalnych liniowo rośnie wielomianowo, Dla małych wymiarów n 2 2n il. funkcji sep. 1 4 4 2 16 14 3 256 14 4 65536 1882 Tabela za R. Rojas A systematic introduction to neural networks

Przykład 1 Perceptron dokończenie 2 Przykład 3 Model maszyny liniowej Konstrukcja Kesslera

Przykład Przykład 1 przykład x = (+1, +1 + 1, +1), wagi dodatnie w 1 > w 2 > w 3 > w 4 >, odpowiedź O( x) = +1.

Przykład 1/3 Perceptron dokończenie Przykład Ponieważ...

Przykład 2/3 Perceptron dokończenie Przykład Ponieważ spełnia w 1...

Przykład 3/3 Perceptron dokończenie Przykład Ponieważ spełnia w 1 i spełnia w 2.

Przykład Przykład 2 przykład x = (+1, +1, 1, +1), niektóre wagi są ujemne w 2 < w 3 < < w 4 < w 1, odpowiedź O( x) = +1, x 2 w 2 nie wspiera odpowiedzi, x 3 w 3 wspiera odpowiedź (wada ujemna, ale cecha nie występuje).

Przykład 1/4 Perceptron dokończenie Przykład Ponieważ...

Przykład 2/4 Perceptron dokończenie Przykład Ponieważ spełnia w 1...

Przykład 3/4 Perceptron dokończenie Przykład Ponieważ spełnia w 1, nie spełnia w 3...

Przykład 4/4 Perceptron dokończenie Przykład Ponieważ spełnia w 1, nie spełnia w 3 i spełnia w 4.

Model maszyny liniowej Konstrukcja Kesslera 1 Perceptron dokończenie 2 Przykład 3 Model maszyny liniowej Konstrukcja Kesslera

Maszyna Liniowa Perceptron dokończenie Model maszyny liniowej Konstrukcja Kesslera out

Rozpoznawanie znaków Model maszyny liniowej Konstrukcja Kesslera 1 2 3 4 MAX A

y Perceptron dokończenie Model maszyny liniowej Konstrukcja Kesslera 1 1 5 5 z -5-5 -1 1 5 1 y -5-5 x 5-1 -1-5 5 1 x -1-1

Model maszyny liniowej Konstrukcja Kesslera Bez biasu / progu. Z biasem w / progiem θ. 1 1 5 5-5 -5-1 -1-5 5 1 y -1-1 -5 5 1 y

Model maszyny liniowej Konstrukcja Kesslera Etap startowy Etap końcowy w1 = [-.63,.47,.74] w2 = [-2.49, 2.26, -2.35] w3 = [2.64, -.89, 1.46] w4 = [.13, -2.71, 1.8] w1 = [.12, 1.5, -.48] w2 = [-2.29, -.56, -2.57] w3 = [1.14, -1.1, 1.79] w4 = [.68, -.71, 2.18] z 2 15 ERR = 33 z 2 15 ERR = 1 1 5 5-5 4-5 4-1 -4-3 2 3-1 -4-3 2 3-2 1-2 1-1 -1 x 1 2 3-3 -2-1 y x 1 2 3-3 -2-1 y 4-4 4-4

Model maszyny liniowej Konstrukcja Kesslera click

Konstrukcja Kesslera Model maszyny liniowej Konstrukcja Kesslera Maszyna liniowa: out

Konstrukcja Kesslera Model maszyny liniowej Konstrukcja Kesslera Odpowiadający perceptron: out