1. Logika, funkcje logiczne, preceptron.

Podobne dokumenty
Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Podstawy Sztucznej Inteligencji (PSZT)

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Elementy inteligencji obliczeniowej

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

Uczenie sieci typu MLP

wiedzy Sieci neuronowe

Temat: Sieci neuronowe oraz technologia CUDA

wiedzy Sieci neuronowe (c.d.)

Metody Sztucznej Inteligencji II

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

METODY INŻYNIERII WIEDZY

Zastosowania sieci neuronowych

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.

Podstawy sztucznej inteligencji

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

Zastosowania sieci neuronowych

Inteligentne systemy przeciw atakom sieciowym

Sztuczne sieci neuronowe (SNN)

Uczenie sieci neuronowych i bayesowskich

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Zadanie 0 gdy nie mamy logiki rozmytej. Zadanie 1- gdy już mamy logikę rozmytą

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Sztuczne sieci neuronowe

Uniwersytet w Białymstoku Wydział Ekonomiczno-Informatyczny w Wilnie SYLLABUS na rok akademicki 2012/2013

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Uczenie Wielowarstwowych Sieci Neuronów o

ESI: Perceptrony proste i liniowe

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści

Wstęp do sztucznych sieci neuronowych

Sztuczne sieci neuronowe

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Arytmetyka liczb binarnych

Architektura komputerów Wykład 2

Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I.

8. Neuron z ciągłą funkcją aktywacji.

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania

4 Klasyczny rachunek zdań

MODELOWANIE RZECZYWISTOŚCI

Sztuczna inteligencja

Technika cyfrowa Synteza układów kombinacyjnych

Wprowadzenie do Sieci Neuronowych Laboratorium 06 Algorytm wstecznej propagacji błędu

Widzenie komputerowe

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5

Pytania i polecenia podstawowe

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Systemy uczące się wykład 2

Wprowadzenie do Sieci Neuronowych Laboratorium 05 Algorytm wstecznej propagacji błędu

Systemy Inteligentnego Przetwarzania wykład 7: Sieci RBF

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

Sztuczne Systemy Skojarzeniowe. Adrian Horzyk

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

3 1 + i 1 i i 1 2i 2. Wyznaczyć macierze spełniające własność komutacji: [A, X] = B

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010

SIECI REKURENCYJNE SIECI HOPFIELDA

Inżynieria Wiedzy i Systemy Ekspertowe. Logika rozmyta. dr inż. Michał Bereta Politechnika Krakowska

Tranzystor JFET i MOSFET zas. działania

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Sieć przesyłająca żetony CP (counter propagation)

Emergentne właściwości. sztucznych sieci neuronowych

xx + x = 1, to y = Jeśli x = 0, to y = 0 Przykładowy układ Funkcja przykładowego układu Metody poszukiwania testów Porównanie tabel prawdy

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

W narzędziu typu Excel, Calc czy Gnumeric napisz formułę logiczną która wyznaczy wartośd przynależności dla podanej temperatury do zbioru gorąco.

6. Perceptron Rosenblatta

Zajęcia nr 1 (1h) Dwumian Newtona. Indukcja. Zajęcia nr 2 i 3 (4h) Trygonometria

Część 2. Funkcje logiczne układy kombinacyjne

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.

WAI Wykłady 3 i 4. Sieci neuronowe. Uczenie i zastosowania. Wstęp do logiki rozmytej.

Sieci Neuronowe - Rok III - kierunek IS w IFAiIS UJ 2008/2009. Sieci Neuronowe. Wykład 11 Algorytmy genetyczne; Systemy rozmyte

Logika binarna. Prawo łączności mówimy, że operator binarny * na zbiorze S jest łączny gdy (x * y) * z = x * (y * z) dla każdego x, y, z S.

Technika cyfrowa Synteza układów kombinacyjnych (I)

1 Przestrzeń liniowa. α 1 x α k x k = 0

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

ELEMENTY SZTUCZNEJ INTELIGENCJI. Sztuczne sieci neuronowe

OCENA DZIAŁANIA AE. METODY HEURYSTYCZNE wykład 4 LOSOWOŚĆ W AE KRZYWE ZBIEŻNOŚCI ANALIZA STATYSTYCZNA:

Algorytmy sztucznej inteligencji

Lekcja 5: Sieć Kohonena i sieć ART

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

1. Wstęp do logiki. Matematyka jest nauką dedukcyjną. Nowe pojęcia definiujemy za pomocą pojęć pierwotnych lub pojęć uprzednio wprowadzonych.

Elementy logiki. Zdania proste i złożone

KARTA MODUŁU KSZTAŁCENIA

Sztuczne siei neuronowe - wprowadzenie

Sztuczna inteligencja: zbiory rozmyte

Podstawowe operacje arytmetyczne i logiczne dla liczb binarnych

Zadanie 0 gdy nie mamy logiki rozmytej

1 Relacje i odwzorowania

Bramki logiczne Podstawowe składniki wszystkich układów logicznych

Pokazać, że wyżej zdefiniowana struktura algebraiczna jest przestrzenią wektorową nad ciałem

Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe. Krzysztof Regulski, WIMiIP, KISiM, B5, pok. 408

Funkcje. Oznaczenia i pojęcia wstępne. Elementy Logiki i Teorii Mnogości 2015/2016

Transkrypt:

Sieci neuronowe 1. Logika, funkcje logiczne, preceptron. 1. (Logika) Udowodnij prawa de Morgana, prawo pochłaniania p (p q), prawo wyłączonego środka p p oraz prawo sprzeczności (p p). 2. Wyraź funkcję sieci Φ w terminach funkcji podstawowych f 1,..., f 4 i wag α 1,..., α 5. 3. Zaprojektuj sieci obliczające funkcje: (a) f a (x) = f 4 (f 3 [w 3 f 2 (w 2 f 1 (x)) + w 4 f 1 (x)]) (b) f b (x) = 2 sin(e x + y + 1) + 3 cos(e x ) 4. Sprawdź poprawność działania jednostek McCullocha-Pittsa obliczających funkcje logiczne AND, OR, x 1 AND x 2, NOR i NOT. 5. (Reprezentacja graficzna funkcji logicznych) Oblicz ilość wierzchołków n-wymiarowego hipersześcianu oraz ilość możliwych funcji Boole a n- zmiennych. 6. (Dekodery wektorów binarnych) Zaprojektuj sieć jednostek McCullocha- Pittsa obliczającą funkcję logiczną taką, że: (1, 0, 0, 1) 1, (0, 1, 1, 1) 1, oraz wynoszącą zero dla pozostałych wektorów. Sprawdź poprawność działania tej sieci. 7. Pokaż, że funkcję OR można przedstawić jako złożenie funkcji AND i NOT. Pokaż, że funkcję AND można przedstawić jako złożenie funkcji OR i NOT. 8. Znajdź optymalną ilość stanów, którą należy użyć do przekazywania sygnału, zakładając stałość kosztu. Zależność liczby wartości, które można reprezentować od ilości stanów dana jest funkcją f(b) = b κ/b (κ jest kosztem). 9. Pokazać, że poniższa sieć rekurencyjna (rysunek) zamienia sekwencję 11 na 10. 10. Narysuj graf automatu skończonego danego tabelami przejść i sygnałów wyjściowych. 1

2. Algorytm uczenia perceptronu i sieci wielowarstwowe. 1. Podaj równania ogólne prostej rozdzielającej zbiory punktów P = {(3, 4), (1, 1)}, N = {( 1, 0), ( 1, 3)}. Czy jest to absolutna liniowa separowalność. Sprawdź, że nie każda prosta rozdzielająca punkty daje absolutną liniową separowalność. Narysuj perceptrony realizująe te podziały. 2. (Algorytm uczenia perceptronu) Zbiór N składa się z punktów x 1 = (0, 1) i x 2 = ( 2, 1), zbiór P to punkt x 3 = (1, 1). (a) Używając algorytmu uczenia perceptronu dobrać wagi rozdzielające liniowo te zbiory zaczynając od wektora w 1 = [1, 2]. Proces uczenia zilustruj odpowiednimi rysunkami. (b) Przeprowadź takie samo uczenie aktualizując wagi zgodnie ze wzorem w t+1 = w t + w tx+εx x 2 3. Inne algorytmy: (a) (reguła Hebba, bez nauczyciela, sygnałem uczącym jest wyjście neuronu) Aktualizuje wagi zgodnie ze wzorem w i = cf(w i x)x (dodatnia wartość korekcji powoduje wzrost wagi a więc silniejszą reakcję neuronu). Przeprowadź uczenie neuronu (zaczynając od wag początkowych w = [1, 1, 0, 0.5]) wektorami x 1 = [1, 2, 1.5, 0], x 2 = [1, 0.5, 2, 1.5], x 3 = [0, 1, 1, 1.5]. Stała uczenia c = 1, funkcja aktywacji f(x) = sgn(x), funkcja scalająca to sumowanie. (b) (reguła delta, uczenie nadzorowane) w i = c(d i f(w i x))f (w i x)x. Sygnał nauczyciela d i = 0.974, stała uczenia c = 0.1. Funkcja aktywacji: f(x) = 2 1+exp( x) 1. 4. Przeanalizuj działanie dwóch sieci 3-warstwowych obliczających XOR. 3. Algorytm propagacji wstecznej. 1. (Sigmoid jako funkcja aktywacji) (a) Pokazać, że s c = 1/(1+e cx ) nie może przyjmować wartości należących do zbioru (, 0] [1, + ). (b) Pokazać, że dla c sigmoid staje się funkcją schodkową. (c) Wykazać, że pochodna sigmoidu jest równa s(x)(1 s(x)). (d) Udowodnić symetrię S( x) = S(x) sigmoidu symetrycznego S(x) = 2s(x) 1 oraz sprawdzić, że jest to tanh(x/2). 2

2. (B-diagram) Narysuj sieci z wagami dla złożenia i dodawania funkcji. Sprawdź poprawność uzyskanych pochodnych. 3. (B-diagram) Narysuj B-diagram dla funkcji sin(xy) + cos(x). 4. (B-diagram) Narysuj B-diagram dla funkcji x exp (2x 2 + 3y). 5. (Algorytm uczenia) Znajdź wyrażenia na korekcje wag sieci warstwowej jeżeli użyty zostanie sigmoid symetryczny. 5. Logika rozmyta. 1. Dane są funkcje członkostwa zbiorów rozmytych niski, średni i wysoki. Wyznacz graficznie funkcje członkostwa dla zbiorów: (a) niski wysoki, (b) (niski średni)\wysoki (rysunek). 2. Niech dane będą zbiory rozmyte A = 0.5/1 + 0.9/2 + 1/5 i B = 0.7/2 + 0.9/3 + 0.1/4. X = {1, 2, 3, 4, 5}. Oblicz: A B, A B, Ā, Ā A, Ā A. 3. Pokaż, że funkcja maksimum spełnia aksjomaty rozmytego operatora OR. 4. Pokaż, że funkcja minimum spełnia aksjomaty rozmytego operatora AND. 3

Figure 1: Zadanie 1.2 Figure 2: Zadanie 1.4 Figure 3: Zadanie 1.4 4

Figure 4: Zadanie 1.9 Figure 5: Zadanie 1.10 5

Figure 6: Zadanie 2.4 Figure 7: Zadanie 2.4 6

Figure 8: Zadanie 5.1 7