WAI Wykłady 3 i 4. Sieci neuronowe. Uczenie i zastosowania. Wstęp do logiki rozmytej.
|
|
- Juliusz Dudek
- 8 lat temu
- Przeglądów:
Transkrypt
1 WAI Wykłady 3 i 4. Sieci neuronowe. Uczenie i zastosowania. Wstęp do logiki rozmytej. Literatura: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym. WNT, Warszawa 997. D. Rutkowska, M. Piliński i L. Rutkowski, Sieci neuronowe, algorytmy genetyczne i systemy rozmyte, PWN, Warszawa 997 R. Tadeusiewicz, Sieci neuronowe. Akademicka Oficyna Wydawnicza RM, Warszawa, 993, 999 Żurada Jacek, Barski Mariusz, Jędruch Wojciech, Sztuczne sieci neuronowe, Wydawnictwo Naukowe PWN, Warszawa, 996.
2 Perceptron - przypomnienie x x 2 x n w w 2 w n y = wi xi θ 0 w p. p. y
3 Przypomnienie.Jak opisać perceptron? Co charakteryzuje perceptron? Perceptron jest opisywany jednoznacznie przez zbiór wag w,...,w n R oraz wartość progowa θ R Wartości x,...,x n R to zmienne pojawiające się na wejściu do perceptronu Funkcja aktywacji: wi xi θ y = 0 otherwise
4 Uczenie perceptronu Przykład: rozpoznawanie znaków 36 wejść Wyjście:, jeśli na wejściu pojawia się litera A, zaś 0 w p.p. Siatka 6 6 Zadanie: dobrać wagi wejść i wartość progową tak, by uzyskać zaplanowany efekt Dane testowe Dane treningowe (znane odpowiedzi) Dobór wag (uczenie) Odpowiedź
5 Wejście: Proces uczenia: Inicjujemy wagi losowo Dla każdego przykładu, jeśli Uczenie perceptronu, n=2 Ciąg przykładów uczących ze znanymi odpowiedziami odpowiedź jest nieprawidłowa, to w + = α x w 2 + = α x 2 θ = α w (k+)= w (k) + w +, podobnie dla w 2, θ(k+)= θ(k) θ, k-krok iteracji, epoka [w,w 2 ] gdzie α jest równe różnicy odpowiedzi sieci i prawidłowej odpowiedzi.
6 Uczenie perceptronu Często α mnoży się dodatkowo przez niewielki współczynnik uczenia Po wyczerpaniu przykładów, zaczynamy proces uczenia od początku, dopóki następują jakiekolwiek zmiany wag połączeń Próg θ można traktować jako wagę dodatkowego wejścia o wartości -: (zawsze -) x 2 3 θ = 3 2 (θ = 0) x 2-4 x x 2-4
7 Przykład: Uczenie neuronu Zbiór punktów na wykresie jest liniowo separowalne. Funkcja aktywacji: y = wi xi θ otherwise
8 Niech w =, w 2 =, θ =, wsp. uczenia η= Pierwszy przykład jest dobrze, ale drugi nie, modyfikujemy zatem wagi: w + = (- - ) 9.4 w 2 + = (- - ) 6.4 θ = (- - ) Otrzymamy w = w 2 = θ = 3 Drugi przykład jest dobry, ale trzeci nie
9 Uczenie perceptronu Opisany schemat jest w miarę przejrzysty tylko dla pojedynczych perceptronów, lub niewielkich sieci Ciężko jest stosować reguły tego typu dla skomplikowanych modeli Tymczasem np. do rozpoznawania wszystkich liter potrzeba by sieci złożonej z 26 takich perceptronów
10 Sieci perceptronów Dendrites Nodes Synapses Axon Synapses (weights) Ograniczenia pojedynczych perceptronów spowodowały w latach 80-tych wzrost zainteresowania sieciami wielowarstwowymi i opracowanie algorytmu ich uczenia (propagacja wsteczna)
11 SIECI PERCEPTRONÓW Potrafią reprezentować dowolną funkcję boolowską (opartą na rachunku zdań) p θ = 2-2 θ = p XOR q q
12 SIECI WIELOWARSTWOWE Wyjścia neuronów należących do warstwy niższej połączone są z wejściami neuronów należących do warstwy wyższej np. metodą każdy z każdym Działanie sieci polega na liczeniu odpowiedzi neuronów w kolejnych warstwach Nie jest znana ogólna metoda projektowania optymalnej architektury sieci neuronowej
13 Funkcje aktywacji Progowe,2 f ( s) = s 0 0 s < 0 0,8 0,6 0,4 0, ,2,2 Sigmoidalne 0,8 0,6 0,4 0, f ( s) s = + e
14 FUNKCJE AKTYWACJI (2) Unipolarne,2 f ( s) s = + e 0,8 0,6 0,4 0, ,5 0,5 Bipolarne ,5 - f 2 + e ( s) = s -,5
15 FUNKCJE AKTYWACJI (3),2 0,8 0,6 0,4 0, f α ( s) α s = + e α = 2.0 α =.0 α = 0.5 lim α 0 f α ( s) = 0.5 lim f ( s) α + α = s s s > = < 0 0 0
16 FUNKCJE AKTYWACJI (4) f θ, α + e ( s) = α ( s θ ),2 0,8 0,6 θ = 2 α =.5 0,4 0,
17 FUNKCJE AKTYWACJI (5) Zasady ogólne: Ciągłość (zachowanie stabilności sieci jako modelu rzeczywistego) Różniczkowalność (zastosowanie propagacji wstecznej błędu) Monotoniczność (intuicje związane z aktywacją komórek neuronowych) Nieliniowość (możliwości ekspresji)
18 SIECI NEURONOWE Potrafią modelować (dowolnie dokładnie przybliżać) funkcje rzeczywiste (z tw. Kołmogorowa) n y = f w 0 + w x i i= i Σ f ( s) s = + e funkcja aktywacji
19 Sieć tworzy teksturę SIECI NEURONOWE Σ
20 SIECI NEURONOWE
21 SIECI JAKO FUNKCJE ZŁOŻONE () x v f w x2 v2 v2 v22 f2 w2 g y ( ( ) ( )) y = g w f v x v x w f v x v x y = Network ( ) x, x 2
22 SIECI JAKO FUNKCJE ZŁOŻONE (2) g f2 f x x y ( ) ( ) ( ) ( ) < = x x x x x x x x e e e e y
23 SIECI JAKO FUNKCJE ZŁOŻONE (3) x v f w x2 v2 v2 v22 f2 w2 g y = =Network(x,x2) Jeśli wszystkie poszczególne funkcje aktywacji są liniowe, to funkcja Network jest również liniowa (małe znaczenie w praktyce) Architektura wielowarstwowa daje zatem nowe możliwości tylko w przypadku stosowania funkcji nieliniowych
24 SIECI JAKO FUNKCJE ZŁOŻONE przypadek liniowy x x2 v2 v2 v v22 Niech f i (x,x2) = a i *(x*v i + x2*v i 2) + b i g(z,z2) = a*(z*w + z2*w2) + b Wtedy Network(x,x2) = A*x + A2*x2 + B Np.: A = a*(a*v*w + a2*v2*w2) f f2 w w2 g y
25 PROPAGACJA WSTECZNA BŁĘDU () Chcemy wytrenować wagi połączeń między kolejnymi warstwami neuronów. Jest to tzw. proces adaptacji wag. Jego algorytm odpowiada zadaniu minimalizacji funkcji błędu. Jest to uczenie pod nadzorem, zwane z nauczycielem, gdyż mamy zbiór danych trenujących. Inicjujemy wagi losowo (na małe wartości) Dla danego wektora uczącego obliczamy odpowiedź sieci (warstwa po warstwie) Każdy neuron wyjściowy oblicza swój błąd, odnoszący się do różnicy pomiędzy obliczoną odpowiedzią y oraz poprawną odpowiedzią t. Następnie ten błąd jest rozkładany na poszczególne połaczenia, zaczynając od połączenia wyjściowego.
26 PROPAGACJA WSTECZNA BŁĘDU (2) dane uczące odpowiedź sieci y błąd d właściwa odpowiedź t Błąd sieci definiowany jest zazwyczaj jako d = 2 ( y t) 2
27 PROPAGACJA WSTECZNA BŁĘDU (3) Oznaczmy przez: f: R R funkcję aktywacji w neuronie w,..., w K wagi połączeń wchodzących z,..., z K sygnały napływające do neuronu z poprzedniej warstwy Błąd neuronu traktujemy jako funkcję wag połączeń do niego prowadzących: d( w ) ( ( ) ) 2,..., wk = f w z wk zk t 2
28 PRZYKŁAD () Rozpatrzmy model, w którym: Funkcja aktywacji przyjmuje postać f + e ( s ) = 3 s + Wektor wag połączeń = [;-3;2] ( 2 ) Załóżmy, że dla danego przykładu: Odpowiedź powinna wynosić t = 0.5 Z poprzedniej warstwy dochodzą sygnały [0;;0.3]
29 PRZYKŁAD (2) Liczymy wejściową sumę ważoną: s = w x + w2 x2 + w3x3 = 0 + ( 3) = 2.4 Liczymy odpowiedź neuronu: y Błąd wynosi: ( s) = 2 + e + e = f 3 + d = ( ) = ( )
30 IDEA ROZKŁADU BŁĘDU Musimy rozłożyć otrzymany błąd na połączenia wprowadzające sygnały do danego neuronu Składową błędu dla każdego j-tego połączenia określamy jako pochodną cząstkową funkcji błędu d(x,y,t) względem j-tej wagi Składowych tych będziemy mogli użyć do zmodyfikowania ustawień poszczególnych wag połączeń
31 IDEA ROZKŁADU BŁĘDU (2) Załóżmy, że mamy neuron z wagami w 0 =0, w =2, w 2 =3. Mamy dane wektor wejściowy: [0.3, 0.7], przy czym oczekiwana odpowiedź to t=. Jak należy zmienić wagi, aby błąd był jak najmniejszy? Możemy błąd przedstawić jako funkcję w, w 2 : x w x 2 n y = f w0 + w i x f w 2 ( s) s = + e i= y i błąd -2 0 Wagi powinniśmy zmienić się w kierunku spadku wartości błędu wartość błędu dla wag [2, 3]
32 KIERUNEK ZMIANY WAG Jeśli rozważymy większą liczbę przykładów, funkcja średniego błędu będzie miała bardziej skomplikowany kształt. [0.3, 0.7], t= [0.2, 0.9], t=0. [-0.6, ], t= [0, -0.8], t=0.5 [0.6, ], t= Nachylenie wykresu w danym punkcie (odpowiadającym aktualnym wartościom wag) dane jest przez gradient, czyli wektor pochodnych cząstkowych. Zmiana wag powinna nastąpić w kierunku przeciwnym.
33 ( ) ( ) j z s f t y ' OBLICZANIE POCHODNEJ ( ) = j K w w w d,..., ( ) ( ) K K t z w w z f ( ) ( ) ( ) j K K w z w w z s s f y t y + + = ( ) ( ) j K K w t z w w z f + + =... 2
34 Idea: PROPAGACJA WSTECZNA BŁĘDU Wektor wag połączeń powinniśmy przesunąć w kierunku przeciwnym do wektora gradientu błędu (z pewnym współczynnikiem uczenia η) Możemy to zrobić po każdym przykładzie uczącym, albo sumując zmiany po kilku przykładach. Realizacja: w ( ) ( ) j = η t y f ' s z j Prosty przykład: wagi w =, w 2 =, dane wejściowe: [0.5, 0.5], t =. Funkcja sigmoidalna: f ( s) s = f ( s ) + e więc: s ( + e ) 2 Stąd: s = =, y = 0.73, zmiana w= (- 0.73) * 0.9 * 0.5 = A więc nowe wagi to.026. Ten sam przykład da tym razem odpowiedź y= = e s
35 w PROPAGACJA WSTECZNA BŁĘDU (2) Błędy są następnie propagowane w kierunku poprzednich warstw. Wprowadźmy pomocniczo współczynnik błędu δ zdefiniowany dla ostatniej warstwy jako: błąd δ w 2 błąd δ błąd δ 2 δ = f ( s) δ = ( t y) a dla pozostałych warstw: n f ( s ) δ i= w i czyli neuron w warstwie ukrytej zbiera błąd z neuronów, z którymi jest połączony. Zmiana wag połączeń następuje po fazie propagacji błędu i odbywa się według wzoru: w = η δ Oznaczenia: w - waga wejścia neuronu, z - sygnał wchodzący do neuronu danym wejściem, δ - współczynnik błędu obliczony dla danego neuronu, s - wartość wzbudzenia (suma wartości wejściowych pomnożonych przez wagi) dla danego neuronu. z i
36 Zadania sprawdzające:. Co charakteryzuje prosty perceptron? 2. Podać inną funkcję logiczną niż XOR, której nie potrafi obliczyć sieć neuronowa. 3. Jaką własność posiada każda funkcja aktywacji? 4. Co to jest równanie perceptronowe? Jakie jest jego znaczenie? 5. Co potrafi zrobić pojedyńczy neuron?
37 Co potrafi układ perceptronów? Klasyfikować punkty na płaszczyźnie należące do kilku różnych obszarów Jeśli funkcje decyzyjne neuronów w warstwie wewnętrznej są afiniczne, to rożne obszary są rozdzielane prostymi (ogólnie: hiperpłaszczyznami w przestrzeni n- wymiarowej). Układ perceptronów, który jest już siecią neuronową perceptronową realizuje klasyfikator.
38 ROZPOZNAWANIE WZORCÓW Wzorce: obrazy, nagrania, dane personalne, sposoby prowadzenia pojazdu, etc. Reprezentacja wzorca: Wektor cech (wejść do sieci neuronowej) Klasyfikacja wzorców: Klasyfikacja do jednej z istniejących klas Formowanie klas wzorców, tutaj sieć samoorganizująca się, np.art, Kohonena, uczenie bez nauczyciela Asocjacyjne odtwarzanie wzorców, tutaj sieć Hopfielda: każdy neuron połączony z każdym Odtwarzanie wzorców podobnych Uzupełnianie wzorców Odzyskiwanie (czyszczenie) wzorców
39 Przykład zagadnienia praktycznego Znaleźć, odczytać i zapamiętać numer rejestracyjny samochodu na podstawie zdjęcia:
40 Odczytywanie tablic rejestracyjnych (2) Wyselekcjonowany obszar Lokalizacja znaków Rozpoznawanie znaków: - znajdowanie istotnych cech liczbowych - klasyfikacja na podstawie cech (systemy uczące się)
41 Wykorzystywane technik sztucznej inteligencji i ich narzędzi Sieci neuronowe Wnioskowanie, indukcja reguł Algorytmy ewolucyjne Systemy wieloagentowe (współpraca) Automaty komórkowe Metody przeszukiwania możliwych rozwiązań i ich optymalizacji...
42 PRZYKŁADOWE POLE DO POPISU Analiza dźwięku, obrazu, bądź danych multimedialnych, nie może opierać się ani wyłącznie na sieciach neuronowych, ani na, np., drzewach decyzyjnych czy AG. Konieczne jest połączenie metod numerycznych, naśladujących działanie ludzkich zmysłów, z metodami symbolicznymi, naśladującymi ludzkie rozumowanie.
43 Zbiory rozmyte Sposób formalnego opisu nieprecyzyjności Literatura. Piegat A. Modelowanie i sterowanie rozmyte. Akademicka Oficyna Wydawnicza EXIT Warszawa Rutkowska D., Piliński M, Rutkowski L. Sieci neuronowe, algorytmy genetyczne i systemy rozmyte. Wyd. Naukowe PWN Warszawa 997
44 Zbiory rozmyte naśladowanie ludzkiej nieprecyzyjnej oceny otoczenia Ludzie patrzą na świat nieprecyzyjnie: bardzo zimno, szybko, niedaleko Ludzie potrafią radzić sobie mimo nieprecyzyjnej oceny nawet w ekstremalnych sytuacjach : przechodzenie przez jezdnię, sterowanie samolotem
45 Przynależność do zbioru Zbiory klasyczne przynależność całkowita Czy duży stos kamieni przestanie być dużym stosem kamieni, gdy zabierzemy jeden? A jak dwa, a jak 22? Czy po zabraniu części kamienia myślimy o dużym stosie jako o nieco mniejszym? Czy cena za produkt 3,99 jest w codziennym życiu równoważna cenie 4,00? Zbiory rozmyte przynależność częściowa Przestrzeń zbiorów klasycznych jest podzbiorem przestrzeni zbiorów rozmytych, poprzez funkcję charakterystyczną tego zbioru, jako szczególnym przypadkiem funkcji przynależności zbioru rozmytego
46 Zbiór klasyczny jak jednoznacznie opisać? Funkcja charakterystyczna - odpowiednik zbioru klasycznego Funkcja charakterystyczna zbioru A: χ A Presztrzeń X Przedział (zbiór) A X
47 Definicje DEFINICJA Zbiorem rozmytym A na pewnej przestrzeni X, nazywamy zbiór par: A={(x, µ A (x))} x X gdzie: µ A jest funkcją, która przypisuje każdemu elementowi x X (przyjętej przestrzeni rozważań X) jego stopień przynależności do zbioru A, przy czym: µ A : X [0,], zatem µ A (x) [0,]. Można to odebrać jako zdanie w logice wielowartościowej, gdzie 0 fałsz, - prawda.
48 Funkcja µ A nazywana jest funkcją przynależności, zaś jej wartość dla danego argumentu nazywana jest stopniem przynależności x do zbioru rozmytego A. Stopień przynależności określa, w jakim stopniu rozpatrywany argument należy do zbioru rozmytego A. Można zauważyć,że funkcja µ A wraz z dziedziną jednoznacznie wyznaczają zbiór A. Zbiór rozmyty, którego funkcja przynależności osiąga wartość dla co najmniej jednego elementu nazywany jest zbiorem rozmytym normalnym.
49 Dla każdego zbioru rozmytego wyznacza się często jego integralny parametr pomocny przy określaniu i analizie różnych własności - nośnik (ang. support). DEFINICJA Nośnikiem zbioru rozmytego A w X jest zbiór nierozmyty oznaczany jako supp(a) i określony następująco: supp(a)={x: µ A (x) > 0}. Inaczej mówiąc, nośnikiem nazywamy taki podzbiór dziedziny funkcji przynależności, dla którego elementów, wartości funkcji są większe od zera.
50 µ A Przykład zbioru rozmytego () Zbiór rozmyty reprezentujący określenie ciepła pogoda. T[ C]
51 µ A Przykład zbioru rozmytego (2) Zbiór rozmyty reprezentujący określenie ciepła pogoda. T[ C]
52 Przykład zbioru rozmytego (3) 0,8 0,6 0,4 0,2 µ A Zbiór rozmyty (dyskretny) reprezentujący określenie sympatyczne zwierzę. Gatunek zwierząt rekin koń pies kot owca kura mucha
53 Działania na zbiorach rozmytych Istnieją różne sposoby definiowania działań na zbiorach rozmytych. Tutaj zostaną omówione te zaproponowane przez Zadeha w 965r. zwane działaniami mnogościowymi. Sumą zbiorów rozmytych A i B z funkcjami przynależności (odpowiednio µ A i µ B ) określonymi na tym samym zbiorze X nazywamy zbiór C wyznaczony przez funkcję przynależności µ C gdzie x X. µ C (x)= µ A B (x) = max(µ A (x), µ B (x))
54 A B A+B
55 Iloczynem (przecięciem) zbiorów rozmytych A i B z funkcjami przynależności (odpowiednio µ A i µ B ) określonymi na tym samym zbiorze X nazywamy zbiór C wyznaczony przez funkcję przynależności µ C µ C (x)= µ A B (x) = min(µ A (x), µ B (x)) gdzie x X.
56 A B A B
57 Dopełnieniem zbioru A określonego na przestrzeni X jest zbiór rozmyty A wyznaczony przez funkcję przynależności µ A gdzie x X. µ A (x) = - µ A (x)
58 A A
59 Własności działań w klasycznej teorii zbiorów Inwolucja (podwójna negacja) A= ( A) Przemienność A B = B A A B = B A Łączność (A B) C = A (B C) (A B) C = A (B C) Rozdzielność A (B C) = (A B) (A C) Idempotencja A (B C) = (A B) (A C) A = A A, A = A A Pochłanianie (absorpcja) A (A B) = A A (A B) = A
60 Pochłanianie dopełnienia Pochłanianie przez i U Identyczność Prawo zaprzeczenia Prawo wyłączonego środka A ( A B) = A B A ( A B) = A B A U = U A = A = A A U = A A A = A A = U Prawa de Morgana (A B) = A B (A B) = A B U uniwersum do którego należą rozważane zbiory A, B i C - zbiór pusty, jego funkcja charakterystyczna jest stała i równa zero
61 Własności spełniane przez działania mnogościowe na zbiorach rozmytych Inwolucja Przemienność Łączność Rozdzielność Idempotencja Pochłanianie Pochłanianie dopełnienia Pochłanianie przez i U Identyczność Prawo zaprzeczenia Prawo wyłączonego środka Prawa de Morgana tak tak tak tak tak tak nie tak tak nie nie tak
62 Operatory t-normy i s-normy normy trójkątne Istnieją różne rodzaje działań, które można nazywać sumą lub iloczynem zbiorów. Warunki, które muszą być spełnione, by dane działanie było sumą nazywane są s-normą, iloczynem t-normą. Ogólnie nazywa się je normami trójkątnymi. s-normą nazywa się funkcję S: [0, ] [0, ] [0, ] taką, że dla każdego a, b, c [0, ] spełnione są warunki o łączność S(S(a, b),c) = S(a, S(b, c)) o przemienność S(a, b) = S(b, a) o monotoniczność dla b c zachodzi S(a, b) S(a, c) o warunek brzegowy (element neutralny) S(a, 0) = a
63 t normą nazywa się funkcję T: [0, ] x [0, ] [0, ] niemalejącą (monotoniczną) oraz spełniającą warunki łączności, przemienności (jak w przypadku s-normy), a także warunek brzegowy: T(a,) = a Dla każdej konkretnej normy trójkątnej istnieje norma do niej dualna inaczej nazywana jej ko-normą. Warunkiem tego, by s-norma była dualna do danej t-normy (i na odwrót) jest spełnianie poniższych zależności: S(a,b) = -T(-a,-b) T(a,b) = -S(-a,-b), które można rozpatrywać jak uogólnienie praw de Morgana.
64 Przykładowe często wykorzystywane normy trójkątne: Norma maksyminowa t norma minimum: T(a, b) = a b = min (a, b) s norma maksimum: S(a, b) = a b = max(a, b) Norma Larsena t norma - iloczyn algebraiczny: T(a, b) = a b s norma - iloczyn probablistyczny: S(s, b) = a + b (a b) Mimo, iż normy trójkątne podają ogólne warunki, jakie musi spełniać dane działanie, by można je było nazwać dodawaniem lub mnożeniem, to są wygodnym narzędziem służącym do definiowania działań także na zbiorach rozmytych (zatem także liczbach rozmytych).
65 Przykładowe częściej wykorzystywane normy trójkątne: Norma maksyminowa t norma minimum: T(a, b) = a b = min (a, b) s norma maksimum: S(a, b) = a b = max(a, b) Norma Larsena t norma - iloczyn algebraiczny: T(a, b) = a b s norma - iloczyn probabilistyczny: S(s, b) = a + b (a b) Mimo, iż normy trójkątne podają ogólne warunki, jakie musi spełniać dane działanie, by można je było nazwać dodawaniem lub mnożeniem, to są wygodnym narzędziem służącym do definiowania działań na zbiorach rozmytych (zatem także liczbach rozmytych, które są szczególnym przypadkiem gdy X=R).
WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania
WYKŁAD 4 Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania PLAN WYKŁADU Metody uczenia sieci: Uczenie perceptronu Propagacja wsteczna Zastosowania Sterowanie (powtórzenie) Kompresja obrazu Rozpoznawanie
Bardziej szczegółowoZagadnienia optymalizacji i aproksymacji. Sieci neuronowe.
Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. zajecia.jakubw.pl/nai Literatura: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym. WNT, Warszawa 997. PODSTAWOWE ZAGADNIENIA TECHNICZNE AI
Bardziej szczegółowo1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda
Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy
Bardziej szczegółowoSztuczna Inteligencja Tematy projektów Sieci Neuronowe
PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia
Bardziej szczegółowoPRZEWODNIK PO PRZEDMIOCIE
Nazwa przedmiotu: Kierunek: Mechatronika Rodzaj przedmiotu: obowiązkowy Rodzaj zajęć: wykład, laboratorium I KARTA PRZEDMIOTU CEL PRZEDMIOTU PRZEWODNIK PO PRZEDMIOCIE C1. Zapoznanie studentów z inteligentnymi
Bardziej szczegółowoSZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA SYSTEMY ROZMYTE Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i Inżynierii Biomedycznej Laboratorium
Bardziej szczegółowoTechnologie i systemy oparte na logice rozmytej
Zagadnienia I Technologie i systemy oparte na logice rozmytej Mają zastosowania w sytuacjach kiedy nie posiadamy wystarczającej wiedzy o modelu matematycznym rządzącym danym zjawiskiem oraz tam gdzie zbudowanie
Bardziej szczegółowoID1SII4. Informatyka I stopień (I stopień / II stopień) ogólnoakademicki (ogólno akademicki / praktyczny) stacjonarne (stacjonarne / niestacjonarne)
Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 lutego 2012r. KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu ID1SII4 Nazwa modułu Systemy inteligentne 1 Nazwa modułu w języku angielskim Intelligent
Bardziej szczegółowoElementy inteligencji obliczeniowej
Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego
Bardziej szczegółowoPodstawy Sztucznej Inteligencji (PSZT)
Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12
Bardziej szczegółowoZastosowania sieci neuronowych
Zastosowania sieci neuronowych klasyfikacja LABORKA Piotr Ciskowski zadanie 1. klasyfikacja zwierząt sieć jednowarstwowa żródło: Tadeusiewicz. Odkrywanie własności sieci neuronowych, str. 159 Przykład
Bardziej szczegółowo1. Logika, funkcje logiczne, preceptron.
Sieci neuronowe 1. Logika, funkcje logiczne, preceptron. 1. (Logika) Udowodnij prawa de Morgana, prawo pochłaniania p (p q), prawo wyłączonego środka p p oraz prawo sprzeczności (p p). 2. Wyraź funkcję
Bardziej szczegółowoMetody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści
Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, 2012 Spis treści Przedmowa do wydania drugiego Przedmowa IX X 1. Wstęp 1 2. Wybrane zagadnienia sztucznej inteligencji
Bardziej szczegółowoIMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ
IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,
Bardziej szczegółowo8. Neuron z ciągłą funkcją aktywacji.
8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i
Bardziej szczegółowowiedzy Sieci neuronowe
Metody detekcji uszkodzeń oparte na wiedzy Sieci neuronowe Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 7 Wprowadzenie Okres kształtowania się teorii sztucznych sieci
Bardziej szczegółowoSieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ
optymalizacje podejmowanych decyzji Tomasz Karczyoski Wydział W-08 IZ Czym są sieci neuronowe Struktura matematycznych oraz programowy lub sprzętowy model, realizujących obliczenia lub przetwarzanie sygnałów
Bardziej szczegółowoMetody Sztucznej Inteligencji II
17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt
Bardziej szczegółowoLiteratura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu
Literatura Wykład : Wprowadzenie do sztucznych sieci neuronowych Małgorzata Krętowska Wydział Informatyki Politechnika Białostocka Tadeusiewicz R: Sieci neuronowe, Akademicka Oficyna Wydawnicza RM, Warszawa
Bardziej szczegółowoInteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska
Bardziej szczegółowoUczenie sieci typu MLP
Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik
Bardziej szczegółowoWstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.
Wstęp do teorii sztucznej inteligencji Wykład III Modele sieci neuronowych. 1 Perceptron model najprostzszy przypomnienie Schemat neuronu opracowany przez McCullocha i Pittsa w 1943 roku. Przykład funkcji
Bardziej szczegółowoZastosowania sieci neuronowych
Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką
Bardziej szczegółowoSZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 10. WNIOSKOWANIE W LOGICE ROZMYTEJ Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska WNIOSKOWANIE W LOGICE DWUWARTOŚCIOWEJ W logice
Bardziej szczegółowoAlgorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa
Bardziej szczegółowoTemat: Sieci neuronowe oraz technologia CUDA
Elbląg, 27.03.2010 Temat: Sieci neuronowe oraz technologia CUDA Przygotował: Mateusz Górny VIII semestr ASiSK Wstęp Sieci neuronowe są to specyficzne struktury danych odzwierciedlające sieć neuronów w
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych
Bardziej szczegółowoPROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**
Górnictwo i Geoinżynieria Rok 31 Zeszyt 3 2007 Dorota Pawluś* PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH** 1. Wstęp Eksploatacja górnicza złóż ma niekorzystny wpływ na powierzchnię
Bardziej szczegółowoSztuczne sieci neuronowe
www.math.uni.lodz.pl/ radmat Cel wykładu Celem wykładu jest prezentacja różnych rodzajów sztucznych sieci neuronowych. Biologiczny model neuronu Mózg człowieka składa się z około 10 11 komórek nerwowych,
Bardziej szczegółowoTemat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE
Temat: Sztuczne Sieci Neuronowe Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sztuczne sieci neuronowe
Bardziej szczegółowoLogika binarna. Prawo łączności mówimy, że operator binarny * na zbiorze S jest łączny gdy (x * y) * z = x * (y * z) dla każdego x, y, z S.
Logika binarna Logika binarna zajmuje się zmiennymi mogącymi przyjmować dwie wartości dyskretne oraz operacjami mającymi znaczenie logiczne. Dwie wartości jakie mogą te zmienne przyjmować noszą przy tym
Bardziej szczegółowoJeśli X jest przestrzenią o nieskończonej liczbie elementów:
Logika rozmyta 2 Zbiór rozmyty może być formalnie zapisany na dwa sposoby w zależności od tego z jakim typem przestrzeni elementów mamy do czynienia: Jeśli X jest przestrzenią o skończonej liczbie elementów
Bardziej szczegółowoKARTA MODUŁU KSZTAŁCENIA
KARTA MODUŁU KSZTAŁCENIA I. Informacje ogólne 1 Nazwa modułu kształcenia Sztuczna inteligencja 2 Nazwa jednostki prowadzącej moduł Instytut Informatyki, Zakład Informatyki Stosowanej 3 Kod modułu (wypełnia
Bardziej szczegółowoUczenie sieci neuronowych i bayesowskich
Wstęp do metod sztucznej inteligencji www.mat.uni.torun.pl/~piersaj 2009-01-22 Co to jest neuron? Komputer, a mózg komputer mózg Jednostki obliczeniowe 1-4 CPU 10 11 neuronów Pojemność 10 9 b RAM, 10 10
Bardziej szczegółowoSieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści
Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, 2013 Spis treści Przedmowa 7 1. Wstęp 9 1.1. Podstawy biologiczne działania neuronu 9 1.2. Pierwsze modele sieci neuronowej
Bardziej szczegółowoUniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych
Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych ELEMENTY SZTUCZNEJ INTELIGENCJI Laboratorium nr 6 SYSTEMY ROZMYTE TYPU MAMDANIEGO
Bardziej szczegółowoInformatyka I stopień (I stopień / II stopień) ogólno akademicki (ogólno akademicki / praktyczny) kierunkowy (podstawowy / kierunkowy / inny HES)
Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 lutego 2012r. KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu Zastosowanie sztucznych sieci neuronowych Nazwa modułu w informatyce Application of artificial
Bardziej szczegółowoRozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak
2 Rozdział 1 Sztuczne sieci neuronowe. 3 Sztuczna sieć neuronowa jest zbiorem prostych elementów pracujących równolegle, których zasada działania inspirowana jest biologicznym systemem nerwowym. Sztuczną
Bardziej szczegółowoInteligentne systemy przeciw atakom sieciowym
Inteligentne systemy przeciw atakom sieciowym wykład Sztuczne sieci neuronowe (SSN) Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 1 / 36 Biologiczne
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych
Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. dla sieci skierowanych Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-25 1 Motywacja
Bardziej szczegółowoPodstawy sztucznej inteligencji
wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,
Bardziej szczegółowoUczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0
Uczenie się pojedynczego neuronu W0 X0=1 W1 x1 W2 s f y x2 Wp xp p x i w i=x w+wo i=0 Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z=0 Wówczas: W 1 x 1 + w 2 x 2 + = 0 Algorytm
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-10 Projekt pn. Wzmocnienie
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
Bardziej szczegółowoDefinicja perceptronu wielowarstwowego
1 Sieci neuronowe - wprowadzenie 2 Definicja perceptronu wielowarstwowego 3 Interpretacja znaczenia parametrów sieci 4 Wpływ wag perceptronu na jakość aproksymacji 4.1 Twierdzenie o uniwersalnych właściwościach
Bardziej szczegółowoLOGIKA I TEORIA ZBIORÓW
LOGIKA I TEORIA ZBIORÓW Logika Logika jest nauką zajmującą się zdaniami Z punktu widzenia logiki istotne jest, czy dane zdanie jest prawdziwe, czy nie Nie jest natomiast istotne o czym to zdanie mówi Definicja
Bardziej szczegółowoINŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE
Temat: Podstawowe pojęcia z logiki rozmytej Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sterowanie
Bardziej szczegółowoSztuczna inteligencja: zbiory rozmyte
Instytut Informatyki Uniwersytetu Śląskiego lab 1 1 Klasyczna teoria zbiorów 2 Teoria zbiorów rozmytych 3 Zmienne lingwistyczne i funkcje przynależności 4 System rozmyty 5 Preprocesing danych Każdy element
Bardziej szczegółowoInteligencja obliczeniowa
Ćwiczenie nr 1 Zbiory rozmyte logika rozmyta Tworzenie: termów zmiennej lingwistycznej o różnych kształtach, modyfikatorów, zmiennych o wielu termach; operacje przecięcia, połączenia i dopełnienia 1. Wprowadzenie
Bardziej szczegółowoSztuczna inteligencja : Zbiory rozmyte cz. 2
Sztuczna inteligencja : Zbiory rozmyte cz. 2 Przemysław Juszczuk Instytut Informatyki Uniwersytetu Śląskiego 1 marca 2012 Funkcja trójkątna: Funkcja trójkątna: Funkcja przynależności γ (gamma): Rysunek:
Bardziej szczegółowoW naukach technicznych większość rozpatrywanych wielkości możemy zapisać w jednej z trzech postaci: skalara, wektora oraz tensora.
1. Podstawy matematyki 1.1. Geometria analityczna W naukach technicznych większość rozpatrywanych wielkości możemy zapisać w jednej z trzech postaci: skalara, wektora oraz tensora. Skalarem w fizyce nazywamy
Bardziej szczegółowoZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE
ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE INSTYTUT TECHNOLOGII MECHANICZNEJ Metody Sztucznej Inteligencji Sztuczne Sieci Neuronowe Wstęp Sieci neuronowe są sztucznymi strukturami, których
Bardziej szczegółowosynaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.
Sieci neuronowe model konekcjonistyczny Plan wykładu Mózg ludzki a komputer Modele konekcjonistycze Perceptron Sieć neuronowa Uczenie sieci Sieci Hopfielda Mózg ludzki a komputer Twój mózg to 00 000 000
Bardziej szczegółowoSztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW
Sztuczne Sieci Neuronowe Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW SN są częścią dziedziny Sztucznej Inteligencji Sztuczna Inteligencja (SI) zajmuje się
Bardziej szczegółowoInterwałowe zbiory rozmyte
Interwałowe zbiory rozmyte 1. Wprowadzenie. Od momentu przedstawienia koncepcji klasycznych zbiorów rozmytych (typu 1), były one krytykowane za postać jaką przybiera funkcja przynależności. W przypadku
Bardziej szczegółowoZastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2)
Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2) Ewa Wołoszko Praca pisana pod kierunkiem Pani dr hab. Małgorzaty Doman Plan tego wystąpienia Teoria Narzędzia
Bardziej szczegółowoAlgorytmy decyzyjne będące alternatywą dla sieci neuronowych
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny
Bardziej szczegółowo3. FUNKCJA LINIOWA. gdzie ; ół,.
1 WYKŁAD 3 3. FUNKCJA LINIOWA FUNKCJĄ LINIOWĄ nazywamy funkcję typu : dla, gdzie ; ół,. Załóżmy na początek, że wyraz wolny. Wtedy mamy do czynienia z funkcją typu :.. Wykresem tej funkcji jest prosta
Bardziej szczegółowoWstęp do Techniki Cyfrowej... Algebra Boole a
Wstęp do Techniki Cyfrowej... Algebra Boole a Po co AB? Świetne narzędzie do analitycznego opisu układów logicznych. 1854r. George Boole opisuje swój system dedukcyjny. Ukoronowanie zapoczątkowanych w
Bardziej szczegółowoKurs logiki rozmytej - zadania. Wojciech Szybisty
Kurs logiki rozmytej - zadania Wojciech Szybisty 2009 Spis treści 1 Zadania - zbiory rozmyte 3 2 Zadania - relacje rozmyte 6 3 Zadania - logika rozmyta 11 1 Zadania - zbiory rozmyte 3 Przykłady rozwiązywania
Bardziej szczegółowoWidzenie komputerowe
Widzenie komputerowe Uczenie maszynowe na przykładzie sieci neuronowych (3) źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Zdolność uogólniania sieci neuronowej R oznaczenie
Bardziej szczegółowoWstęp do sztucznych sieci neuronowych
Wstęp do sztucznych sieci neuronowych Michał Garbowski Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Wydział Informatyki 15 grudnia 2011 Plan wykładu I 1 Wprowadzenie Inspiracja biologiczna
Bardziej szczegółowowiedzy Sieci neuronowe (c.d.)
Metody detekci uszkodzeń oparte na wiedzy Sieci neuronowe (c.d.) Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 8 Metody detekci uszkodzeń oparte na wiedzy Wprowadzenie
Bardziej szczegółowoLogika Stosowana. Wykład 5 - Zbiory i logiki rozmyte Część 1. Marcin Szczuka. Instytut Informatyki UW. Wykład monograficzny, semestr letni 2016/2017
Logika Stosowana Wykład 5 - Zbiory i logiki rozmyte Część 1 Marcin Szczuka Instytut Informatyki UW Wykład monograficzny, semestr letni 2016/2017 Marcin Szczuka (MIMUW) Logika Stosowana 2017 1 / 36 Plan
Bardziej szczegółowoSieci neuronowe - uczenie
Sici nuronow - uczni http://zajcia.jakubw.pl/nai/ Prcptron - przypomnini x x x n w w w n wi xi θ y w p. p. y Uczni prcptronu Przykład: rozpoznawani znaków 36 wjść Wyjści:, jśli na wjściu pojawia się litra
Bardziej szczegółowoSztuczne sieci neuronowe (SNN)
Sztuczne sieci neuronowe (SNN) Pozyskanie informacji (danych) Wstępne przetwarzanie danych przygotowanie ich do dalszej analizy Selekcja informacji Ostateczny model decyzyjny SSN - podstawy Sieci neuronowe
Bardziej szczegółowo6. Perceptron Rosenblatta
6. Perceptron Rosenblatta 6-1 Krótka historia perceptronu Rosenblatta 6-2 Binarne klasyfikatory liniowe 6-3 Struktura perceptronu Rosenblatta 6-4 Perceptron Rosenblatta a klasyfikacja 6-5 Perceptron jednowarstwowy:
Bardziej szczegółowoNajprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;
Sieci Hopfielda Najprostsze modele sieci z rekurencją sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Modele bardziej złoŝone: RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.
Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2
Bardziej szczegółowo0.1. Logika podstawowe pojęcia: zdania i funktory, reguły wnioskowania, zmienne zdaniowe, rachunek zdań.
Wykłady z Analizy rzeczywistej i zespolonej w Matematyce stosowanej Wykład ELEMENTY LOGIKI ALGEBRA BOOLE A Logika podstawowe pojęcia: zdania i funktory, reguły wnioskowania, zmienne zdaniowe, rachunek
Bardziej szczegółowoZbiory, relacje i funkcje
Zbiory, relacje i funkcje Zbiory będziemy zazwyczaj oznaczać dużymi literami A, B, C, X, Y, Z, natomiast elementy zbiorów zazwyczaj małymi. Podstawą zależność między elementem zbioru a zbiorem, czyli relację
Bardziej szczegółowoElementy logiki matematycznej
Elementy logiki matematycznej Przedmiotem logiki matematycznej jest badanie tzw. wyrażeń logicznych oraz metod rozumowania i sposobów dowodzenia używanych w matematyce, a także w innych dziedzinach, w
Bardziej szczegółowoSieci neuronowe i algorytmy uczenia Czyli co i jak andrzej.rusiecki.staff.iiar.pwr.wroc.pl s.
Sieci neuronowe i algorytmy uczenia Czyli co i jak 2016 andrzej.rusiecki@pwr.edu.pl andrzej.rusiecki.staff.iiar.pwr.wroc.pl s. 230/C-3 O co chodzi? Celem przedmiotu jest ogólne zapoznanie się z podstawowymi
Bardziej szczegółowoInżynieria Wiedzy i Systemy Ekspertowe. Logika rozmyta. dr inż. Michał Bereta Politechnika Krakowska
Inżynieria Wiedzy i Systemy Ekspertowe Logika rozmyta dr inż. Michał Bereta Politechnika Krakowska http://torus.uck.pk.edu.pl/~beretam/ beretam@torus.uck.pk.edu.pl 1 Wyostrzanie Ostateczna, ostra wartość
Bardziej szczegółowoReprezentacja rozmyta - zastosowania logiki rozmytej
17.06.2009 Wrocław Bartosz Chabasinski 148384 Reprezentacja rozmyta - zastosowania logiki rozmytej 1. Wstęp Celem wprowadzenia pojęcia teorii zbiorów rozmytych była potrzeba matematycznego opisania tych
Bardziej szczegółowoSieci Neuronowe - Rok III - kierunek IS w IFAiIS UJ 2008/2009. Sieci Neuronowe. Wykład 11 Algorytmy genetyczne; Systemy rozmyte
Sieci Neuronowe Wykład 11 Algorytmy genetyczne; Systemy rozmyte wykład przygotowany na podstawie. S. Osowski, Sieci Neuronowe w ujęciu algorytmicznym, Rozdz. 4, PWNT, Warszawa 1996. W. Duch, J. Korbicz,
Bardziej szczegółowoSylabus modułu kształcenia na studiach wyższych. Nazwa Wydziału. Nazwa jednostki prowadzącej moduł Nazwa modułu kształcenia
Załącznik nr 4 do zarządzenia nr 12 Rektora UJ z 15 lutego 2012 r. Sylabus modułu kształcenia na studiach wyższych Nazwa Wydziału Nazwa jednostki prowadzącej moduł Nazwa modułu kształcenia Wydział Matematyki
Bardziej szczegółowoSztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek
Sztuczne sieci neuronowe Ćwiczenia Piotr Fulmański, Marta Grzanek Piotr Fulmański 1 Wydział Matematyki i Informatyki, Marta Grzanek 2 Uniwersytet Łódzki Banacha 22, 90-232, Łódź Polska e-mail 1: fulmanp@math.uni.lodz.pl,
Bardziej szczegółowoSIECI REKURENCYJNE SIECI HOPFIELDA
SIECI REKURENCYJNE SIECI HOPFIELDA Joanna Grabska- Chrząstowska Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA SPRZĘŻENIE ZWROTNE W NEURONIE LINIOWYM sygnał
Bardziej szczegółowo1 Działania na zbiorach
M. Beśka, Wstęp do teorii miary, rozdz. 1 1 1 Działania na zbiorach W rozdziale tym przypomnimy podstawowe działania na zbiorach koncentrując się na własnościach tych działań, które będą przydatne w dalszej
Bardziej szczegółowoAutomatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010
Materiały/konsultacje Automatyczna predykcja http://www.ibp.pwr.wroc.pl/kotulskalab Konsultacje wtorek, piątek 9-11 (uprzedzić) D1-115 malgorzata.kotulska@pwr.wroc.pl Co to jest uczenie maszynowe? Uczenie
Bardziej szczegółowoPRZEWODNIK PO PRZEDMIOCIE
Nazwa przedmiotu: INTELIGENTNE SYSTEMY OBLICZENIOWE Systems Based on Computational Intelligence Kierunek: Inżynieria Biomedyczna Rodzaj przedmiotu: obowiązkowy moduł specjalności informatyka medyczna Rodzaj
Bardziej szczegółowoZBIORY ROZMYTE I WNIOSKOWANIE PRZYBLIŻONE
SYSTEMY ROZMYTE ZBIORY ROZMYTE I WNIOSKOWANIE PRZYBLIŻONE 2 965 Lotfi A. Zadeh: Fuzzy sets Metoda reprezentacji wiedzy wyrażonej w języku naturalnym: Temperatura wynosi 29 o C informacja liczbowa - naturalna
Bardziej szczegółowoWYKŁAD 10 Rozmyta reprezentacja danych (modelowanie i wnioskowanie rozmyte)
WYKŁAD 10 Rozmyta reprezentacja danych (modelowanie i wnioskowanie rozmyte) Motywacje:! przezwyciężenie wad tradycyjnych algorytmów komputerowych, które zawodzą zwłaszcza w sytuacjach, w których człowiek
Bardziej szczegółowoSieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.
Sieci rekurencyjne Ewa Adamus ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych 7 maja 2012 Jednowarstwowa sieć Hopfielda, z n neuronami Bipolarna funkcja przejścia W wariancie
Bardziej szczegółowoKształcenie w zakresie podstawowym. Klasa 2
Kształcenie w zakresie podstawowym. Klasa 2 Poniżej podajemy umiejętności, jakie powinien zdobyć uczeń z każdego działu, aby uzyskać poszczególne stopnie. Na ocenę dopuszczającą uczeń powinien opanować
Bardziej szczegółowoArytmetyka liczb binarnych
Wartość dwójkowej liczby stałoprzecinkowej Wartość dziesiętna stałoprzecinkowej liczby binarnej Arytmetyka liczb binarnych b n-1...b 1 b 0,b -1 b -2...b -m = b n-1 2 n-1 +... + b 1 2 1 + b 0 2 0 + b -1
Bardziej szczegółowoSieci neuronowe w Statistica
http://usnet.us.edu.pl/uslugi-sieciowe/oprogramowanie-w-usk-usnet/oprogramowaniestatystyczne/ Sieci neuronowe w Statistica Agnieszka Nowak - Brzezińska Podstawowym elementem składowym sztucznej sieci neuronowej
Bardziej szczegółowoSID Wykład 7 Zbiory rozmyte
SID Wykład 7 Zbiory rozmyte Wydział Matematyki, Informatyki i Mechaniki UW slezak@mimuw.edu.pl Wstęp Language Ontological Commitment Epistemological Commitment (What exists in the world) (What an agent
Bardziej szczegółowoTreści programowe. Matematyka. Efekty kształcenia. Literatura. Terminy wykładów i ćwiczeń. Warunki zaliczenia. tnij.org/ktrabka
Treści programowe Matematyka Katarzyna Trąbka-Więcław Elementy algebry liniowej. Macierze i wyznaczniki. Ciągi liczbowe, granica ciągu i granica funkcji, rachunek granic, wyrażenia nieoznaczone, ciągłość
Bardziej szczegółowoTemat: ANFIS + TS w zadaniach. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE
Temat: ANFIS + TS w zadaniach Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1. Systemy neuronowo - rozmyte Systemy
Bardziej szczegółowoLekcja 5: Sieć Kohonena i sieć ART
Lekcja 5: Sieć Kohonena i sieć ART S. Hoa Nguyen 1 Materiał Sieci Kohonena (Sieć samo-organizująca) Rysunek 1: Sieć Kohonena Charakterystyka sieci: Jednowarstwowa jednokierunkowa sieć. Na ogół neurony
Bardziej szczegółowoWYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)
WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO Stanisław Kowalik (Poland, Gliwice) 1. Wprowadzenie Wstrząsy podziemne i tąpania występujące w kopalniach
Bardziej szczegółowoSztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335
Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Wykład 10 Mapa cech Kohonena i jej modyfikacje - uczenie sieci samoorganizujących się - kwantowanie wektorowe
Bardziej szczegółowoFunkcje wymierne. Jerzy Rutkowski. Działania dodawania i mnożenia funkcji wymiernych określa się wzorami: g h + k l g h k.
Funkcje wymierne Jerzy Rutkowski Teoria Przypomnijmy, że przez R[x] oznaczamy zbiór wszystkich wielomianów zmiennej x i o współczynnikach rzeczywistych Definicja Funkcją wymierną jednej zmiennej nazywamy
Bardziej szczegółowoWstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.
Wstęp do teorii sztucznej inteligencji Wykład II Uczenie sztucznych neuronów. 1 - powtórzyć o klasyfikacji: Sieci liniowe I nieliniowe Sieci rekurencyjne Uczenie z nauczycielem lub bez Jednowarstwowe I
Bardziej szczegółowoSztuczne siei neuronowe - wprowadzenie
Metody Sztucznej Inteligencji w Sterowaniu Ćwiczenie 2 Sztuczne siei neuronowe - wprowadzenie Przygotował: mgr inż. Marcin Pelic Instytut Technologii Mechanicznej Politechnika Poznańska Poznań, 2 Wstęp
Bardziej szczegółowoProgramowanie celowe #1
Programowanie celowe #1 Problem programowania celowego (PC) jest przykładem problemu programowania matematycznego nieliniowego, który można skutecznie zlinearyzować, tzn. zapisać (i rozwiązać) jako problem
Bardziej szczegółowoĆWICZENIE 5: Sztuczne sieci neuronowe
Instytut Mechaniki i Inżynierii Obliczeniowej Wydział Mechaniczny Technologiczny, Politechnika Śląska www.imio.polsl.pl METODY HEURYSTYCZNE ĆWICZENIE 5: Sztuczne sieci neuronowe opracował: dr inż. Witold
Bardziej szczegółowo