WAI Wykłady 3 i 4. Sieci neuronowe. Uczenie i zastosowania. Wstęp do logiki rozmytej.

Wielkość: px
Rozpocząć pokaz od strony:

Download "WAI Wykłady 3 i 4. Sieci neuronowe. Uczenie i zastosowania. Wstęp do logiki rozmytej."

Transkrypt

1 WAI Wykłady 3 i 4. Sieci neuronowe. Uczenie i zastosowania. Wstęp do logiki rozmytej. Literatura: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym. WNT, Warszawa 997. D. Rutkowska, M. Piliński i L. Rutkowski, Sieci neuronowe, algorytmy genetyczne i systemy rozmyte, PWN, Warszawa 997 R. Tadeusiewicz, Sieci neuronowe. Akademicka Oficyna Wydawnicza RM, Warszawa, 993, 999 Żurada Jacek, Barski Mariusz, Jędruch Wojciech, Sztuczne sieci neuronowe, Wydawnictwo Naukowe PWN, Warszawa, 996.

2 Perceptron - przypomnienie x x 2 x n w w 2 w n y = wi xi θ 0 w p. p. y

3 Przypomnienie.Jak opisać perceptron? Co charakteryzuje perceptron? Perceptron jest opisywany jednoznacznie przez zbiór wag w,...,w n R oraz wartość progowa θ R Wartości x,...,x n R to zmienne pojawiające się na wejściu do perceptronu Funkcja aktywacji: wi xi θ y = 0 otherwise

4 Uczenie perceptronu Przykład: rozpoznawanie znaków 36 wejść Wyjście:, jeśli na wejściu pojawia się litera A, zaś 0 w p.p. Siatka 6 6 Zadanie: dobrać wagi wejść i wartość progową tak, by uzyskać zaplanowany efekt Dane testowe Dane treningowe (znane odpowiedzi) Dobór wag (uczenie) Odpowiedź

5 Wejście: Proces uczenia: Inicjujemy wagi losowo Dla każdego przykładu, jeśli Uczenie perceptronu, n=2 Ciąg przykładów uczących ze znanymi odpowiedziami odpowiedź jest nieprawidłowa, to w + = α x w 2 + = α x 2 θ = α w (k+)= w (k) + w +, podobnie dla w 2, θ(k+)= θ(k) θ, k-krok iteracji, epoka [w,w 2 ] gdzie α jest równe różnicy odpowiedzi sieci i prawidłowej odpowiedzi.

6 Uczenie perceptronu Często α mnoży się dodatkowo przez niewielki współczynnik uczenia Po wyczerpaniu przykładów, zaczynamy proces uczenia od początku, dopóki następują jakiekolwiek zmiany wag połączeń Próg θ można traktować jako wagę dodatkowego wejścia o wartości -: (zawsze -) x 2 3 θ = 3 2 (θ = 0) x 2-4 x x 2-4

7 Przykład: Uczenie neuronu Zbiór punktów na wykresie jest liniowo separowalne. Funkcja aktywacji: y = wi xi θ otherwise

8 Niech w =, w 2 =, θ =, wsp. uczenia η= Pierwszy przykład jest dobrze, ale drugi nie, modyfikujemy zatem wagi: w + = (- - ) 9.4 w 2 + = (- - ) 6.4 θ = (- - ) Otrzymamy w = w 2 = θ = 3 Drugi przykład jest dobry, ale trzeci nie

9 Uczenie perceptronu Opisany schemat jest w miarę przejrzysty tylko dla pojedynczych perceptronów, lub niewielkich sieci Ciężko jest stosować reguły tego typu dla skomplikowanych modeli Tymczasem np. do rozpoznawania wszystkich liter potrzeba by sieci złożonej z 26 takich perceptronów

10 Sieci perceptronów Dendrites Nodes Synapses Axon Synapses (weights) Ograniczenia pojedynczych perceptronów spowodowały w latach 80-tych wzrost zainteresowania sieciami wielowarstwowymi i opracowanie algorytmu ich uczenia (propagacja wsteczna)

11 SIECI PERCEPTRONÓW Potrafią reprezentować dowolną funkcję boolowską (opartą na rachunku zdań) p θ = 2-2 θ = p XOR q q

12 SIECI WIELOWARSTWOWE Wyjścia neuronów należących do warstwy niższej połączone są z wejściami neuronów należących do warstwy wyższej np. metodą każdy z każdym Działanie sieci polega na liczeniu odpowiedzi neuronów w kolejnych warstwach Nie jest znana ogólna metoda projektowania optymalnej architektury sieci neuronowej

13 Funkcje aktywacji Progowe,2 f ( s) = s 0 0 s < 0 0,8 0,6 0,4 0, ,2,2 Sigmoidalne 0,8 0,6 0,4 0, f ( s) s = + e

14 FUNKCJE AKTYWACJI (2) Unipolarne,2 f ( s) s = + e 0,8 0,6 0,4 0, ,5 0,5 Bipolarne ,5 - f 2 + e ( s) = s -,5

15 FUNKCJE AKTYWACJI (3),2 0,8 0,6 0,4 0, f α ( s) α s = + e α = 2.0 α =.0 α = 0.5 lim α 0 f α ( s) = 0.5 lim f ( s) α + α = s s s > = < 0 0 0

16 FUNKCJE AKTYWACJI (4) f θ, α + e ( s) = α ( s θ ),2 0,8 0,6 θ = 2 α =.5 0,4 0,

17 FUNKCJE AKTYWACJI (5) Zasady ogólne: Ciągłość (zachowanie stabilności sieci jako modelu rzeczywistego) Różniczkowalność (zastosowanie propagacji wstecznej błędu) Monotoniczność (intuicje związane z aktywacją komórek neuronowych) Nieliniowość (możliwości ekspresji)

18 SIECI NEURONOWE Potrafią modelować (dowolnie dokładnie przybliżać) funkcje rzeczywiste (z tw. Kołmogorowa) n y = f w 0 + w x i i= i Σ f ( s) s = + e funkcja aktywacji

19 Sieć tworzy teksturę SIECI NEURONOWE Σ

20 SIECI NEURONOWE

21 SIECI JAKO FUNKCJE ZŁOŻONE () x v f w x2 v2 v2 v22 f2 w2 g y ( ( ) ( )) y = g w f v x v x w f v x v x y = Network ( ) x, x 2

22 SIECI JAKO FUNKCJE ZŁOŻONE (2) g f2 f x x y ( ) ( ) ( ) ( ) < = x x x x x x x x e e e e y

23 SIECI JAKO FUNKCJE ZŁOŻONE (3) x v f w x2 v2 v2 v22 f2 w2 g y = =Network(x,x2) Jeśli wszystkie poszczególne funkcje aktywacji są liniowe, to funkcja Network jest również liniowa (małe znaczenie w praktyce) Architektura wielowarstwowa daje zatem nowe możliwości tylko w przypadku stosowania funkcji nieliniowych

24 SIECI JAKO FUNKCJE ZŁOŻONE przypadek liniowy x x2 v2 v2 v v22 Niech f i (x,x2) = a i *(x*v i + x2*v i 2) + b i g(z,z2) = a*(z*w + z2*w2) + b Wtedy Network(x,x2) = A*x + A2*x2 + B Np.: A = a*(a*v*w + a2*v2*w2) f f2 w w2 g y

25 PROPAGACJA WSTECZNA BŁĘDU () Chcemy wytrenować wagi połączeń między kolejnymi warstwami neuronów. Jest to tzw. proces adaptacji wag. Jego algorytm odpowiada zadaniu minimalizacji funkcji błędu. Jest to uczenie pod nadzorem, zwane z nauczycielem, gdyż mamy zbiór danych trenujących. Inicjujemy wagi losowo (na małe wartości) Dla danego wektora uczącego obliczamy odpowiedź sieci (warstwa po warstwie) Każdy neuron wyjściowy oblicza swój błąd, odnoszący się do różnicy pomiędzy obliczoną odpowiedzią y oraz poprawną odpowiedzią t. Następnie ten błąd jest rozkładany na poszczególne połaczenia, zaczynając od połączenia wyjściowego.

26 PROPAGACJA WSTECZNA BŁĘDU (2) dane uczące odpowiedź sieci y błąd d właściwa odpowiedź t Błąd sieci definiowany jest zazwyczaj jako d = 2 ( y t) 2

27 PROPAGACJA WSTECZNA BŁĘDU (3) Oznaczmy przez: f: R R funkcję aktywacji w neuronie w,..., w K wagi połączeń wchodzących z,..., z K sygnały napływające do neuronu z poprzedniej warstwy Błąd neuronu traktujemy jako funkcję wag połączeń do niego prowadzących: d( w ) ( ( ) ) 2,..., wk = f w z wk zk t 2

28 PRZYKŁAD () Rozpatrzmy model, w którym: Funkcja aktywacji przyjmuje postać f + e ( s ) = 3 s + Wektor wag połączeń = [;-3;2] ( 2 ) Załóżmy, że dla danego przykładu: Odpowiedź powinna wynosić t = 0.5 Z poprzedniej warstwy dochodzą sygnały [0;;0.3]

29 PRZYKŁAD (2) Liczymy wejściową sumę ważoną: s = w x + w2 x2 + w3x3 = 0 + ( 3) = 2.4 Liczymy odpowiedź neuronu: y Błąd wynosi: ( s) = 2 + e + e = f 3 + d = ( ) = ( )

30 IDEA ROZKŁADU BŁĘDU Musimy rozłożyć otrzymany błąd na połączenia wprowadzające sygnały do danego neuronu Składową błędu dla każdego j-tego połączenia określamy jako pochodną cząstkową funkcji błędu d(x,y,t) względem j-tej wagi Składowych tych będziemy mogli użyć do zmodyfikowania ustawień poszczególnych wag połączeń

31 IDEA ROZKŁADU BŁĘDU (2) Załóżmy, że mamy neuron z wagami w 0 =0, w =2, w 2 =3. Mamy dane wektor wejściowy: [0.3, 0.7], przy czym oczekiwana odpowiedź to t=. Jak należy zmienić wagi, aby błąd był jak najmniejszy? Możemy błąd przedstawić jako funkcję w, w 2 : x w x 2 n y = f w0 + w i x f w 2 ( s) s = + e i= y i błąd -2 0 Wagi powinniśmy zmienić się w kierunku spadku wartości błędu wartość błędu dla wag [2, 3]

32 KIERUNEK ZMIANY WAG Jeśli rozważymy większą liczbę przykładów, funkcja średniego błędu będzie miała bardziej skomplikowany kształt. [0.3, 0.7], t= [0.2, 0.9], t=0. [-0.6, ], t= [0, -0.8], t=0.5 [0.6, ], t= Nachylenie wykresu w danym punkcie (odpowiadającym aktualnym wartościom wag) dane jest przez gradient, czyli wektor pochodnych cząstkowych. Zmiana wag powinna nastąpić w kierunku przeciwnym.

33 ( ) ( ) j z s f t y ' OBLICZANIE POCHODNEJ ( ) = j K w w w d,..., ( ) ( ) K K t z w w z f ( ) ( ) ( ) j K K w z w w z s s f y t y + + = ( ) ( ) j K K w t z w w z f + + =... 2

34 Idea: PROPAGACJA WSTECZNA BŁĘDU Wektor wag połączeń powinniśmy przesunąć w kierunku przeciwnym do wektora gradientu błędu (z pewnym współczynnikiem uczenia η) Możemy to zrobić po każdym przykładzie uczącym, albo sumując zmiany po kilku przykładach. Realizacja: w ( ) ( ) j = η t y f ' s z j Prosty przykład: wagi w =, w 2 =, dane wejściowe: [0.5, 0.5], t =. Funkcja sigmoidalna: f ( s) s = f ( s ) + e więc: s ( + e ) 2 Stąd: s = =, y = 0.73, zmiana w= (- 0.73) * 0.9 * 0.5 = A więc nowe wagi to.026. Ten sam przykład da tym razem odpowiedź y= = e s

35 w PROPAGACJA WSTECZNA BŁĘDU (2) Błędy są następnie propagowane w kierunku poprzednich warstw. Wprowadźmy pomocniczo współczynnik błędu δ zdefiniowany dla ostatniej warstwy jako: błąd δ w 2 błąd δ błąd δ 2 δ = f ( s) δ = ( t y) a dla pozostałych warstw: n f ( s ) δ i= w i czyli neuron w warstwie ukrytej zbiera błąd z neuronów, z którymi jest połączony. Zmiana wag połączeń następuje po fazie propagacji błędu i odbywa się według wzoru: w = η δ Oznaczenia: w - waga wejścia neuronu, z - sygnał wchodzący do neuronu danym wejściem, δ - współczynnik błędu obliczony dla danego neuronu, s - wartość wzbudzenia (suma wartości wejściowych pomnożonych przez wagi) dla danego neuronu. z i

36 Zadania sprawdzające:. Co charakteryzuje prosty perceptron? 2. Podać inną funkcję logiczną niż XOR, której nie potrafi obliczyć sieć neuronowa. 3. Jaką własność posiada każda funkcja aktywacji? 4. Co to jest równanie perceptronowe? Jakie jest jego znaczenie? 5. Co potrafi zrobić pojedyńczy neuron?

37 Co potrafi układ perceptronów? Klasyfikować punkty na płaszczyźnie należące do kilku różnych obszarów Jeśli funkcje decyzyjne neuronów w warstwie wewnętrznej są afiniczne, to rożne obszary są rozdzielane prostymi (ogólnie: hiperpłaszczyznami w przestrzeni n- wymiarowej). Układ perceptronów, który jest już siecią neuronową perceptronową realizuje klasyfikator.

38 ROZPOZNAWANIE WZORCÓW Wzorce: obrazy, nagrania, dane personalne, sposoby prowadzenia pojazdu, etc. Reprezentacja wzorca: Wektor cech (wejść do sieci neuronowej) Klasyfikacja wzorców: Klasyfikacja do jednej z istniejących klas Formowanie klas wzorców, tutaj sieć samoorganizująca się, np.art, Kohonena, uczenie bez nauczyciela Asocjacyjne odtwarzanie wzorców, tutaj sieć Hopfielda: każdy neuron połączony z każdym Odtwarzanie wzorców podobnych Uzupełnianie wzorców Odzyskiwanie (czyszczenie) wzorców

39 Przykład zagadnienia praktycznego Znaleźć, odczytać i zapamiętać numer rejestracyjny samochodu na podstawie zdjęcia:

40 Odczytywanie tablic rejestracyjnych (2) Wyselekcjonowany obszar Lokalizacja znaków Rozpoznawanie znaków: - znajdowanie istotnych cech liczbowych - klasyfikacja na podstawie cech (systemy uczące się)

41 Wykorzystywane technik sztucznej inteligencji i ich narzędzi Sieci neuronowe Wnioskowanie, indukcja reguł Algorytmy ewolucyjne Systemy wieloagentowe (współpraca) Automaty komórkowe Metody przeszukiwania możliwych rozwiązań i ich optymalizacji...

42 PRZYKŁADOWE POLE DO POPISU Analiza dźwięku, obrazu, bądź danych multimedialnych, nie może opierać się ani wyłącznie na sieciach neuronowych, ani na, np., drzewach decyzyjnych czy AG. Konieczne jest połączenie metod numerycznych, naśladujących działanie ludzkich zmysłów, z metodami symbolicznymi, naśladującymi ludzkie rozumowanie.

43 Zbiory rozmyte Sposób formalnego opisu nieprecyzyjności Literatura. Piegat A. Modelowanie i sterowanie rozmyte. Akademicka Oficyna Wydawnicza EXIT Warszawa Rutkowska D., Piliński M, Rutkowski L. Sieci neuronowe, algorytmy genetyczne i systemy rozmyte. Wyd. Naukowe PWN Warszawa 997

44 Zbiory rozmyte naśladowanie ludzkiej nieprecyzyjnej oceny otoczenia Ludzie patrzą na świat nieprecyzyjnie: bardzo zimno, szybko, niedaleko Ludzie potrafią radzić sobie mimo nieprecyzyjnej oceny nawet w ekstremalnych sytuacjach : przechodzenie przez jezdnię, sterowanie samolotem

45 Przynależność do zbioru Zbiory klasyczne przynależność całkowita Czy duży stos kamieni przestanie być dużym stosem kamieni, gdy zabierzemy jeden? A jak dwa, a jak 22? Czy po zabraniu części kamienia myślimy o dużym stosie jako o nieco mniejszym? Czy cena za produkt 3,99 jest w codziennym życiu równoważna cenie 4,00? Zbiory rozmyte przynależność częściowa Przestrzeń zbiorów klasycznych jest podzbiorem przestrzeni zbiorów rozmytych, poprzez funkcję charakterystyczną tego zbioru, jako szczególnym przypadkiem funkcji przynależności zbioru rozmytego

46 Zbiór klasyczny jak jednoznacznie opisać? Funkcja charakterystyczna - odpowiednik zbioru klasycznego Funkcja charakterystyczna zbioru A: χ A Presztrzeń X Przedział (zbiór) A X

47 Definicje DEFINICJA Zbiorem rozmytym A na pewnej przestrzeni X, nazywamy zbiór par: A={(x, µ A (x))} x X gdzie: µ A jest funkcją, która przypisuje każdemu elementowi x X (przyjętej przestrzeni rozważań X) jego stopień przynależności do zbioru A, przy czym: µ A : X [0,], zatem µ A (x) [0,]. Można to odebrać jako zdanie w logice wielowartościowej, gdzie 0 fałsz, - prawda.

48 Funkcja µ A nazywana jest funkcją przynależności, zaś jej wartość dla danego argumentu nazywana jest stopniem przynależności x do zbioru rozmytego A. Stopień przynależności określa, w jakim stopniu rozpatrywany argument należy do zbioru rozmytego A. Można zauważyć,że funkcja µ A wraz z dziedziną jednoznacznie wyznaczają zbiór A. Zbiór rozmyty, którego funkcja przynależności osiąga wartość dla co najmniej jednego elementu nazywany jest zbiorem rozmytym normalnym.

49 Dla każdego zbioru rozmytego wyznacza się często jego integralny parametr pomocny przy określaniu i analizie różnych własności - nośnik (ang. support). DEFINICJA Nośnikiem zbioru rozmytego A w X jest zbiór nierozmyty oznaczany jako supp(a) i określony następująco: supp(a)={x: µ A (x) > 0}. Inaczej mówiąc, nośnikiem nazywamy taki podzbiór dziedziny funkcji przynależności, dla którego elementów, wartości funkcji są większe od zera.

50 µ A Przykład zbioru rozmytego () Zbiór rozmyty reprezentujący określenie ciepła pogoda. T[ C]

51 µ A Przykład zbioru rozmytego (2) Zbiór rozmyty reprezentujący określenie ciepła pogoda. T[ C]

52 Przykład zbioru rozmytego (3) 0,8 0,6 0,4 0,2 µ A Zbiór rozmyty (dyskretny) reprezentujący określenie sympatyczne zwierzę. Gatunek zwierząt rekin koń pies kot owca kura mucha

53 Działania na zbiorach rozmytych Istnieją różne sposoby definiowania działań na zbiorach rozmytych. Tutaj zostaną omówione te zaproponowane przez Zadeha w 965r. zwane działaniami mnogościowymi. Sumą zbiorów rozmytych A i B z funkcjami przynależności (odpowiednio µ A i µ B ) określonymi na tym samym zbiorze X nazywamy zbiór C wyznaczony przez funkcję przynależności µ C gdzie x X. µ C (x)= µ A B (x) = max(µ A (x), µ B (x))

54 A B A+B

55 Iloczynem (przecięciem) zbiorów rozmytych A i B z funkcjami przynależności (odpowiednio µ A i µ B ) określonymi na tym samym zbiorze X nazywamy zbiór C wyznaczony przez funkcję przynależności µ C µ C (x)= µ A B (x) = min(µ A (x), µ B (x)) gdzie x X.

56 A B A B

57 Dopełnieniem zbioru A określonego na przestrzeni X jest zbiór rozmyty A wyznaczony przez funkcję przynależności µ A gdzie x X. µ A (x) = - µ A (x)

58 A A

59 Własności działań w klasycznej teorii zbiorów Inwolucja (podwójna negacja) A= ( A) Przemienność A B = B A A B = B A Łączność (A B) C = A (B C) (A B) C = A (B C) Rozdzielność A (B C) = (A B) (A C) Idempotencja A (B C) = (A B) (A C) A = A A, A = A A Pochłanianie (absorpcja) A (A B) = A A (A B) = A

60 Pochłanianie dopełnienia Pochłanianie przez i U Identyczność Prawo zaprzeczenia Prawo wyłączonego środka A ( A B) = A B A ( A B) = A B A U = U A = A = A A U = A A A = A A = U Prawa de Morgana (A B) = A B (A B) = A B U uniwersum do którego należą rozważane zbiory A, B i C - zbiór pusty, jego funkcja charakterystyczna jest stała i równa zero

61 Własności spełniane przez działania mnogościowe na zbiorach rozmytych Inwolucja Przemienność Łączność Rozdzielność Idempotencja Pochłanianie Pochłanianie dopełnienia Pochłanianie przez i U Identyczność Prawo zaprzeczenia Prawo wyłączonego środka Prawa de Morgana tak tak tak tak tak tak nie tak tak nie nie tak

62 Operatory t-normy i s-normy normy trójkątne Istnieją różne rodzaje działań, które można nazywać sumą lub iloczynem zbiorów. Warunki, które muszą być spełnione, by dane działanie było sumą nazywane są s-normą, iloczynem t-normą. Ogólnie nazywa się je normami trójkątnymi. s-normą nazywa się funkcję S: [0, ] [0, ] [0, ] taką, że dla każdego a, b, c [0, ] spełnione są warunki o łączność S(S(a, b),c) = S(a, S(b, c)) o przemienność S(a, b) = S(b, a) o monotoniczność dla b c zachodzi S(a, b) S(a, c) o warunek brzegowy (element neutralny) S(a, 0) = a

63 t normą nazywa się funkcję T: [0, ] x [0, ] [0, ] niemalejącą (monotoniczną) oraz spełniającą warunki łączności, przemienności (jak w przypadku s-normy), a także warunek brzegowy: T(a,) = a Dla każdej konkretnej normy trójkątnej istnieje norma do niej dualna inaczej nazywana jej ko-normą. Warunkiem tego, by s-norma była dualna do danej t-normy (i na odwrót) jest spełnianie poniższych zależności: S(a,b) = -T(-a,-b) T(a,b) = -S(-a,-b), które można rozpatrywać jak uogólnienie praw de Morgana.

64 Przykładowe często wykorzystywane normy trójkątne: Norma maksyminowa t norma minimum: T(a, b) = a b = min (a, b) s norma maksimum: S(a, b) = a b = max(a, b) Norma Larsena t norma - iloczyn algebraiczny: T(a, b) = a b s norma - iloczyn probablistyczny: S(s, b) = a + b (a b) Mimo, iż normy trójkątne podają ogólne warunki, jakie musi spełniać dane działanie, by można je było nazwać dodawaniem lub mnożeniem, to są wygodnym narzędziem służącym do definiowania działań także na zbiorach rozmytych (zatem także liczbach rozmytych).

65 Przykładowe częściej wykorzystywane normy trójkątne: Norma maksyminowa t norma minimum: T(a, b) = a b = min (a, b) s norma maksimum: S(a, b) = a b = max(a, b) Norma Larsena t norma - iloczyn algebraiczny: T(a, b) = a b s norma - iloczyn probabilistyczny: S(s, b) = a + b (a b) Mimo, iż normy trójkątne podają ogólne warunki, jakie musi spełniać dane działanie, by można je było nazwać dodawaniem lub mnożeniem, to są wygodnym narzędziem służącym do definiowania działań na zbiorach rozmytych (zatem także liczbach rozmytych, które są szczególnym przypadkiem gdy X=R).

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania WYKŁAD 4 Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania PLAN WYKŁADU Metody uczenia sieci: Uczenie perceptronu Propagacja wsteczna Zastosowania Sterowanie (powtórzenie) Kompresja obrazu Rozpoznawanie

Bardziej szczegółowo

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. zajecia.jakubw.pl/nai Literatura: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym. WNT, Warszawa 997. PODSTAWOWE ZAGADNIENIA TECHNICZNE AI

Bardziej szczegółowo

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy

Bardziej szczegółowo

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia

Bardziej szczegółowo

PRZEWODNIK PO PRZEDMIOCIE

PRZEWODNIK PO PRZEDMIOCIE Nazwa przedmiotu: Kierunek: Mechatronika Rodzaj przedmiotu: obowiązkowy Rodzaj zajęć: wykład, laboratorium I KARTA PRZEDMIOTU CEL PRZEDMIOTU PRZEWODNIK PO PRZEDMIOCIE C1. Zapoznanie studentów z inteligentnymi

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA SYSTEMY ROZMYTE Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i Inżynierii Biomedycznej Laboratorium

Bardziej szczegółowo

Technologie i systemy oparte na logice rozmytej

Technologie i systemy oparte na logice rozmytej Zagadnienia I Technologie i systemy oparte na logice rozmytej Mają zastosowania w sytuacjach kiedy nie posiadamy wystarczającej wiedzy o modelu matematycznym rządzącym danym zjawiskiem oraz tam gdzie zbudowanie

Bardziej szczegółowo

ID1SII4. Informatyka I stopień (I stopień / II stopień) ogólnoakademicki (ogólno akademicki / praktyczny) stacjonarne (stacjonarne / niestacjonarne)

ID1SII4. Informatyka I stopień (I stopień / II stopień) ogólnoakademicki (ogólno akademicki / praktyczny) stacjonarne (stacjonarne / niestacjonarne) Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 lutego 2012r. KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu ID1SII4 Nazwa modułu Systemy inteligentne 1 Nazwa modułu w języku angielskim Intelligent

Bardziej szczegółowo

Elementy inteligencji obliczeniowej

Elementy inteligencji obliczeniowej Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego

Bardziej szczegółowo

Podstawy Sztucznej Inteligencji (PSZT)

Podstawy Sztucznej Inteligencji (PSZT) Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych klasyfikacja LABORKA Piotr Ciskowski zadanie 1. klasyfikacja zwierząt sieć jednowarstwowa żródło: Tadeusiewicz. Odkrywanie własności sieci neuronowych, str. 159 Przykład

Bardziej szczegółowo

1. Logika, funkcje logiczne, preceptron.

1. Logika, funkcje logiczne, preceptron. Sieci neuronowe 1. Logika, funkcje logiczne, preceptron. 1. (Logika) Udowodnij prawa de Morgana, prawo pochłaniania p (p q), prawo wyłączonego środka p p oraz prawo sprzeczności (p p). 2. Wyraź funkcję

Bardziej szczegółowo

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, 2012 Spis treści Przedmowa do wydania drugiego Przedmowa IX X 1. Wstęp 1 2. Wybrane zagadnienia sztucznej inteligencji

Bardziej szczegółowo

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,

Bardziej szczegółowo

8. Neuron z ciągłą funkcją aktywacji.

8. Neuron z ciągłą funkcją aktywacji. 8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i

Bardziej szczegółowo

wiedzy Sieci neuronowe

wiedzy Sieci neuronowe Metody detekcji uszkodzeń oparte na wiedzy Sieci neuronowe Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 7 Wprowadzenie Okres kształtowania się teorii sztucznych sieci

Bardziej szczegółowo

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ optymalizacje podejmowanych decyzji Tomasz Karczyoski Wydział W-08 IZ Czym są sieci neuronowe Struktura matematycznych oraz programowy lub sprzętowy model, realizujących obliczenia lub przetwarzanie sygnałów

Bardziej szczegółowo

Metody Sztucznej Inteligencji II

Metody Sztucznej Inteligencji II 17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt

Bardziej szczegółowo

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu Literatura Wykład : Wprowadzenie do sztucznych sieci neuronowych Małgorzata Krętowska Wydział Informatyki Politechnika Białostocka Tadeusiewicz R: Sieci neuronowe, Akademicka Oficyna Wydawnicza RM, Warszawa

Bardziej szczegółowo

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska

Bardziej szczegółowo

Uczenie sieci typu MLP

Uczenie sieci typu MLP Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik

Bardziej szczegółowo

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych. Wstęp do teorii sztucznej inteligencji Wykład III Modele sieci neuronowych. 1 Perceptron model najprostzszy przypomnienie Schemat neuronu opracowany przez McCullocha i Pittsa w 1943 roku. Przykład funkcji

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 10. WNIOSKOWANIE W LOGICE ROZMYTEJ Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska WNIOSKOWANIE W LOGICE DWUWARTOŚCIOWEJ W logice

Bardziej szczegółowo

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa

Bardziej szczegółowo

Temat: Sieci neuronowe oraz technologia CUDA

Temat: Sieci neuronowe oraz technologia CUDA Elbląg, 27.03.2010 Temat: Sieci neuronowe oraz technologia CUDA Przygotował: Mateusz Górny VIII semestr ASiSK Wstęp Sieci neuronowe są to specyficzne struktury danych odzwierciedlające sieć neuronów w

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych

Bardziej szczegółowo

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH** Górnictwo i Geoinżynieria Rok 31 Zeszyt 3 2007 Dorota Pawluś* PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH** 1. Wstęp Eksploatacja górnicza złóż ma niekorzystny wpływ na powierzchnię

Bardziej szczegółowo

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe www.math.uni.lodz.pl/ radmat Cel wykładu Celem wykładu jest prezentacja różnych rodzajów sztucznych sieci neuronowych. Biologiczny model neuronu Mózg człowieka składa się z około 10 11 komórek nerwowych,

Bardziej szczegółowo

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Temat: Sztuczne Sieci Neuronowe Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sztuczne sieci neuronowe

Bardziej szczegółowo

Logika binarna. Prawo łączności mówimy, że operator binarny * na zbiorze S jest łączny gdy (x * y) * z = x * (y * z) dla każdego x, y, z S.

Logika binarna. Prawo łączności mówimy, że operator binarny * na zbiorze S jest łączny gdy (x * y) * z = x * (y * z) dla każdego x, y, z S. Logika binarna Logika binarna zajmuje się zmiennymi mogącymi przyjmować dwie wartości dyskretne oraz operacjami mającymi znaczenie logiczne. Dwie wartości jakie mogą te zmienne przyjmować noszą przy tym

Bardziej szczegółowo

Jeśli X jest przestrzenią o nieskończonej liczbie elementów:

Jeśli X jest przestrzenią o nieskończonej liczbie elementów: Logika rozmyta 2 Zbiór rozmyty może być formalnie zapisany na dwa sposoby w zależności od tego z jakim typem przestrzeni elementów mamy do czynienia: Jeśli X jest przestrzenią o skończonej liczbie elementów

Bardziej szczegółowo

KARTA MODUŁU KSZTAŁCENIA

KARTA MODUŁU KSZTAŁCENIA KARTA MODUŁU KSZTAŁCENIA I. Informacje ogólne 1 Nazwa modułu kształcenia Sztuczna inteligencja 2 Nazwa jednostki prowadzącej moduł Instytut Informatyki, Zakład Informatyki Stosowanej 3 Kod modułu (wypełnia

Bardziej szczegółowo

Uczenie sieci neuronowych i bayesowskich

Uczenie sieci neuronowych i bayesowskich Wstęp do metod sztucznej inteligencji www.mat.uni.torun.pl/~piersaj 2009-01-22 Co to jest neuron? Komputer, a mózg komputer mózg Jednostki obliczeniowe 1-4 CPU 10 11 neuronów Pojemność 10 9 b RAM, 10 10

Bardziej szczegółowo

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, 2013 Spis treści Przedmowa 7 1. Wstęp 9 1.1. Podstawy biologiczne działania neuronu 9 1.2. Pierwsze modele sieci neuronowej

Bardziej szczegółowo

Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych

Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych ELEMENTY SZTUCZNEJ INTELIGENCJI Laboratorium nr 6 SYSTEMY ROZMYTE TYPU MAMDANIEGO

Bardziej szczegółowo

Informatyka I stopień (I stopień / II stopień) ogólno akademicki (ogólno akademicki / praktyczny) kierunkowy (podstawowy / kierunkowy / inny HES)

Informatyka I stopień (I stopień / II stopień) ogólno akademicki (ogólno akademicki / praktyczny) kierunkowy (podstawowy / kierunkowy / inny HES) Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 lutego 2012r. KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu Zastosowanie sztucznych sieci neuronowych Nazwa modułu w informatyce Application of artificial

Bardziej szczegółowo

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak 2 Rozdział 1 Sztuczne sieci neuronowe. 3 Sztuczna sieć neuronowa jest zbiorem prostych elementów pracujących równolegle, których zasada działania inspirowana jest biologicznym systemem nerwowym. Sztuczną

Bardziej szczegółowo

Inteligentne systemy przeciw atakom sieciowym

Inteligentne systemy przeciw atakom sieciowym Inteligentne systemy przeciw atakom sieciowym wykład Sztuczne sieci neuronowe (SSN) Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 1 / 36 Biologiczne

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. dla sieci skierowanych Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-25 1 Motywacja

Bardziej szczegółowo

Podstawy sztucznej inteligencji

Podstawy sztucznej inteligencji wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,

Bardziej szczegółowo

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0 Uczenie się pojedynczego neuronu W0 X0=1 W1 x1 W2 s f y x2 Wp xp p x i w i=x w+wo i=0 Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z=0 Wówczas: W 1 x 1 + w 2 x 2 + = 0 Algorytm

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-10 Projekt pn. Wzmocnienie

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej

Bardziej szczegółowo

Definicja perceptronu wielowarstwowego

Definicja perceptronu wielowarstwowego 1 Sieci neuronowe - wprowadzenie 2 Definicja perceptronu wielowarstwowego 3 Interpretacja znaczenia parametrów sieci 4 Wpływ wag perceptronu na jakość aproksymacji 4.1 Twierdzenie o uniwersalnych właściwościach

Bardziej szczegółowo

LOGIKA I TEORIA ZBIORÓW

LOGIKA I TEORIA ZBIORÓW LOGIKA I TEORIA ZBIORÓW Logika Logika jest nauką zajmującą się zdaniami Z punktu widzenia logiki istotne jest, czy dane zdanie jest prawdziwe, czy nie Nie jest natomiast istotne o czym to zdanie mówi Definicja

Bardziej szczegółowo

INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Temat: Podstawowe pojęcia z logiki rozmytej Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sterowanie

Bardziej szczegółowo

Sztuczna inteligencja: zbiory rozmyte

Sztuczna inteligencja: zbiory rozmyte Instytut Informatyki Uniwersytetu Śląskiego lab 1 1 Klasyczna teoria zbiorów 2 Teoria zbiorów rozmytych 3 Zmienne lingwistyczne i funkcje przynależności 4 System rozmyty 5 Preprocesing danych Każdy element

Bardziej szczegółowo

Inteligencja obliczeniowa

Inteligencja obliczeniowa Ćwiczenie nr 1 Zbiory rozmyte logika rozmyta Tworzenie: termów zmiennej lingwistycznej o różnych kształtach, modyfikatorów, zmiennych o wielu termach; operacje przecięcia, połączenia i dopełnienia 1. Wprowadzenie

Bardziej szczegółowo

Sztuczna inteligencja : Zbiory rozmyte cz. 2

Sztuczna inteligencja : Zbiory rozmyte cz. 2 Sztuczna inteligencja : Zbiory rozmyte cz. 2 Przemysław Juszczuk Instytut Informatyki Uniwersytetu Śląskiego 1 marca 2012 Funkcja trójkątna: Funkcja trójkątna: Funkcja przynależności γ (gamma): Rysunek:

Bardziej szczegółowo

W naukach technicznych większość rozpatrywanych wielkości możemy zapisać w jednej z trzech postaci: skalara, wektora oraz tensora.

W naukach technicznych większość rozpatrywanych wielkości możemy zapisać w jednej z trzech postaci: skalara, wektora oraz tensora. 1. Podstawy matematyki 1.1. Geometria analityczna W naukach technicznych większość rozpatrywanych wielkości możemy zapisać w jednej z trzech postaci: skalara, wektora oraz tensora. Skalarem w fizyce nazywamy

Bardziej szczegółowo

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE INSTYTUT TECHNOLOGII MECHANICZNEJ Metody Sztucznej Inteligencji Sztuczne Sieci Neuronowe Wstęp Sieci neuronowe są sztucznymi strukturami, których

Bardziej szczegółowo

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna. Sieci neuronowe model konekcjonistyczny Plan wykładu Mózg ludzki a komputer Modele konekcjonistycze Perceptron Sieć neuronowa Uczenie sieci Sieci Hopfielda Mózg ludzki a komputer Twój mózg to 00 000 000

Bardziej szczegółowo

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW Sztuczne Sieci Neuronowe Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW SN są częścią dziedziny Sztucznej Inteligencji Sztuczna Inteligencja (SI) zajmuje się

Bardziej szczegółowo

Interwałowe zbiory rozmyte

Interwałowe zbiory rozmyte Interwałowe zbiory rozmyte 1. Wprowadzenie. Od momentu przedstawienia koncepcji klasycznych zbiorów rozmytych (typu 1), były one krytykowane za postać jaką przybiera funkcja przynależności. W przypadku

Bardziej szczegółowo

Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2)

Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2) Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2) Ewa Wołoszko Praca pisana pod kierunkiem Pani dr hab. Małgorzaty Doman Plan tego wystąpienia Teoria Narzędzia

Bardziej szczegółowo

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny

Bardziej szczegółowo

3. FUNKCJA LINIOWA. gdzie ; ół,.

3. FUNKCJA LINIOWA. gdzie ; ół,. 1 WYKŁAD 3 3. FUNKCJA LINIOWA FUNKCJĄ LINIOWĄ nazywamy funkcję typu : dla, gdzie ; ół,. Załóżmy na początek, że wyraz wolny. Wtedy mamy do czynienia z funkcją typu :.. Wykresem tej funkcji jest prosta

Bardziej szczegółowo

Wstęp do Techniki Cyfrowej... Algebra Boole a

Wstęp do Techniki Cyfrowej... Algebra Boole a Wstęp do Techniki Cyfrowej... Algebra Boole a Po co AB? Świetne narzędzie do analitycznego opisu układów logicznych. 1854r. George Boole opisuje swój system dedukcyjny. Ukoronowanie zapoczątkowanych w

Bardziej szczegółowo

Kurs logiki rozmytej - zadania. Wojciech Szybisty

Kurs logiki rozmytej - zadania. Wojciech Szybisty Kurs logiki rozmytej - zadania Wojciech Szybisty 2009 Spis treści 1 Zadania - zbiory rozmyte 3 2 Zadania - relacje rozmyte 6 3 Zadania - logika rozmyta 11 1 Zadania - zbiory rozmyte 3 Przykłady rozwiązywania

Bardziej szczegółowo

Widzenie komputerowe

Widzenie komputerowe Widzenie komputerowe Uczenie maszynowe na przykładzie sieci neuronowych (3) źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Zdolność uogólniania sieci neuronowej R oznaczenie

Bardziej szczegółowo

Wstęp do sztucznych sieci neuronowych

Wstęp do sztucznych sieci neuronowych Wstęp do sztucznych sieci neuronowych Michał Garbowski Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Wydział Informatyki 15 grudnia 2011 Plan wykładu I 1 Wprowadzenie Inspiracja biologiczna

Bardziej szczegółowo

wiedzy Sieci neuronowe (c.d.)

wiedzy Sieci neuronowe (c.d.) Metody detekci uszkodzeń oparte na wiedzy Sieci neuronowe (c.d.) Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 8 Metody detekci uszkodzeń oparte na wiedzy Wprowadzenie

Bardziej szczegółowo

Logika Stosowana. Wykład 5 - Zbiory i logiki rozmyte Część 1. Marcin Szczuka. Instytut Informatyki UW. Wykład monograficzny, semestr letni 2016/2017

Logika Stosowana. Wykład 5 - Zbiory i logiki rozmyte Część 1. Marcin Szczuka. Instytut Informatyki UW. Wykład monograficzny, semestr letni 2016/2017 Logika Stosowana Wykład 5 - Zbiory i logiki rozmyte Część 1 Marcin Szczuka Instytut Informatyki UW Wykład monograficzny, semestr letni 2016/2017 Marcin Szczuka (MIMUW) Logika Stosowana 2017 1 / 36 Plan

Bardziej szczegółowo

Sieci neuronowe - uczenie

Sieci neuronowe - uczenie Sici nuronow - uczni http://zajcia.jakubw.pl/nai/ Prcptron - przypomnini x x x n w w w n wi xi θ y w p. p. y Uczni prcptronu Przykład: rozpoznawani znaków 36 wjść Wyjści:, jśli na wjściu pojawia się litra

Bardziej szczegółowo

Sztuczne sieci neuronowe (SNN)

Sztuczne sieci neuronowe (SNN) Sztuczne sieci neuronowe (SNN) Pozyskanie informacji (danych) Wstępne przetwarzanie danych przygotowanie ich do dalszej analizy Selekcja informacji Ostateczny model decyzyjny SSN - podstawy Sieci neuronowe

Bardziej szczegółowo

6. Perceptron Rosenblatta

6. Perceptron Rosenblatta 6. Perceptron Rosenblatta 6-1 Krótka historia perceptronu Rosenblatta 6-2 Binarne klasyfikatory liniowe 6-3 Struktura perceptronu Rosenblatta 6-4 Perceptron Rosenblatta a klasyfikacja 6-5 Perceptron jednowarstwowy:

Bardziej szczegółowo

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Sieci Hopfielda Najprostsze modele sieci z rekurencją sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Modele bardziej złoŝone: RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline. Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2

Bardziej szczegółowo

0.1. Logika podstawowe pojęcia: zdania i funktory, reguły wnioskowania, zmienne zdaniowe, rachunek zdań.

0.1. Logika podstawowe pojęcia: zdania i funktory, reguły wnioskowania, zmienne zdaniowe, rachunek zdań. Wykłady z Analizy rzeczywistej i zespolonej w Matematyce stosowanej Wykład ELEMENTY LOGIKI ALGEBRA BOOLE A Logika podstawowe pojęcia: zdania i funktory, reguły wnioskowania, zmienne zdaniowe, rachunek

Bardziej szczegółowo

Zbiory, relacje i funkcje

Zbiory, relacje i funkcje Zbiory, relacje i funkcje Zbiory będziemy zazwyczaj oznaczać dużymi literami A, B, C, X, Y, Z, natomiast elementy zbiorów zazwyczaj małymi. Podstawą zależność między elementem zbioru a zbiorem, czyli relację

Bardziej szczegółowo

Elementy logiki matematycznej

Elementy logiki matematycznej Elementy logiki matematycznej Przedmiotem logiki matematycznej jest badanie tzw. wyrażeń logicznych oraz metod rozumowania i sposobów dowodzenia używanych w matematyce, a także w innych dziedzinach, w

Bardziej szczegółowo

Sieci neuronowe i algorytmy uczenia Czyli co i jak andrzej.rusiecki.staff.iiar.pwr.wroc.pl s.

Sieci neuronowe i algorytmy uczenia Czyli co i jak andrzej.rusiecki.staff.iiar.pwr.wroc.pl s. Sieci neuronowe i algorytmy uczenia Czyli co i jak 2016 andrzej.rusiecki@pwr.edu.pl andrzej.rusiecki.staff.iiar.pwr.wroc.pl s. 230/C-3 O co chodzi? Celem przedmiotu jest ogólne zapoznanie się z podstawowymi

Bardziej szczegółowo

Inżynieria Wiedzy i Systemy Ekspertowe. Logika rozmyta. dr inż. Michał Bereta Politechnika Krakowska

Inżynieria Wiedzy i Systemy Ekspertowe. Logika rozmyta. dr inż. Michał Bereta Politechnika Krakowska Inżynieria Wiedzy i Systemy Ekspertowe Logika rozmyta dr inż. Michał Bereta Politechnika Krakowska http://torus.uck.pk.edu.pl/~beretam/ beretam@torus.uck.pk.edu.pl 1 Wyostrzanie Ostateczna, ostra wartość

Bardziej szczegółowo

Reprezentacja rozmyta - zastosowania logiki rozmytej

Reprezentacja rozmyta - zastosowania logiki rozmytej 17.06.2009 Wrocław Bartosz Chabasinski 148384 Reprezentacja rozmyta - zastosowania logiki rozmytej 1. Wstęp Celem wprowadzenia pojęcia teorii zbiorów rozmytych była potrzeba matematycznego opisania tych

Bardziej szczegółowo

Sieci Neuronowe - Rok III - kierunek IS w IFAiIS UJ 2008/2009. Sieci Neuronowe. Wykład 11 Algorytmy genetyczne; Systemy rozmyte

Sieci Neuronowe - Rok III - kierunek IS w IFAiIS UJ 2008/2009. Sieci Neuronowe. Wykład 11 Algorytmy genetyczne; Systemy rozmyte Sieci Neuronowe Wykład 11 Algorytmy genetyczne; Systemy rozmyte wykład przygotowany na podstawie. S. Osowski, Sieci Neuronowe w ujęciu algorytmicznym, Rozdz. 4, PWNT, Warszawa 1996. W. Duch, J. Korbicz,

Bardziej szczegółowo

Sylabus modułu kształcenia na studiach wyższych. Nazwa Wydziału. Nazwa jednostki prowadzącej moduł Nazwa modułu kształcenia

Sylabus modułu kształcenia na studiach wyższych. Nazwa Wydziału. Nazwa jednostki prowadzącej moduł Nazwa modułu kształcenia Załącznik nr 4 do zarządzenia nr 12 Rektora UJ z 15 lutego 2012 r. Sylabus modułu kształcenia na studiach wyższych Nazwa Wydziału Nazwa jednostki prowadzącej moduł Nazwa modułu kształcenia Wydział Matematyki

Bardziej szczegółowo

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek Sztuczne sieci neuronowe Ćwiczenia Piotr Fulmański, Marta Grzanek Piotr Fulmański 1 Wydział Matematyki i Informatyki, Marta Grzanek 2 Uniwersytet Łódzki Banacha 22, 90-232, Łódź Polska e-mail 1: fulmanp@math.uni.lodz.pl,

Bardziej szczegółowo

SIECI REKURENCYJNE SIECI HOPFIELDA

SIECI REKURENCYJNE SIECI HOPFIELDA SIECI REKURENCYJNE SIECI HOPFIELDA Joanna Grabska- Chrząstowska Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA SPRZĘŻENIE ZWROTNE W NEURONIE LINIOWYM sygnał

Bardziej szczegółowo

1 Działania na zbiorach

1 Działania na zbiorach M. Beśka, Wstęp do teorii miary, rozdz. 1 1 1 Działania na zbiorach W rozdziale tym przypomnimy podstawowe działania na zbiorach koncentrując się na własnościach tych działań, które będą przydatne w dalszej

Bardziej szczegółowo

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010 Materiały/konsultacje Automatyczna predykcja http://www.ibp.pwr.wroc.pl/kotulskalab Konsultacje wtorek, piątek 9-11 (uprzedzić) D1-115 malgorzata.kotulska@pwr.wroc.pl Co to jest uczenie maszynowe? Uczenie

Bardziej szczegółowo

PRZEWODNIK PO PRZEDMIOCIE

PRZEWODNIK PO PRZEDMIOCIE Nazwa przedmiotu: INTELIGENTNE SYSTEMY OBLICZENIOWE Systems Based on Computational Intelligence Kierunek: Inżynieria Biomedyczna Rodzaj przedmiotu: obowiązkowy moduł specjalności informatyka medyczna Rodzaj

Bardziej szczegółowo

ZBIORY ROZMYTE I WNIOSKOWANIE PRZYBLIŻONE

ZBIORY ROZMYTE I WNIOSKOWANIE PRZYBLIŻONE SYSTEMY ROZMYTE ZBIORY ROZMYTE I WNIOSKOWANIE PRZYBLIŻONE 2 965 Lotfi A. Zadeh: Fuzzy sets Metoda reprezentacji wiedzy wyrażonej w języku naturalnym: Temperatura wynosi 29 o C informacja liczbowa - naturalna

Bardziej szczegółowo

WYKŁAD 10 Rozmyta reprezentacja danych (modelowanie i wnioskowanie rozmyte)

WYKŁAD 10 Rozmyta reprezentacja danych (modelowanie i wnioskowanie rozmyte) WYKŁAD 10 Rozmyta reprezentacja danych (modelowanie i wnioskowanie rozmyte) Motywacje:! przezwyciężenie wad tradycyjnych algorytmów komputerowych, które zawodzą zwłaszcza w sytuacjach, w których człowiek

Bardziej szczegółowo

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych. Sieci rekurencyjne Ewa Adamus ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych 7 maja 2012 Jednowarstwowa sieć Hopfielda, z n neuronami Bipolarna funkcja przejścia W wariancie

Bardziej szczegółowo

Kształcenie w zakresie podstawowym. Klasa 2

Kształcenie w zakresie podstawowym. Klasa 2 Kształcenie w zakresie podstawowym. Klasa 2 Poniżej podajemy umiejętności, jakie powinien zdobyć uczeń z każdego działu, aby uzyskać poszczególne stopnie. Na ocenę dopuszczającą uczeń powinien opanować

Bardziej szczegółowo

Arytmetyka liczb binarnych

Arytmetyka liczb binarnych Wartość dwójkowej liczby stałoprzecinkowej Wartość dziesiętna stałoprzecinkowej liczby binarnej Arytmetyka liczb binarnych b n-1...b 1 b 0,b -1 b -2...b -m = b n-1 2 n-1 +... + b 1 2 1 + b 0 2 0 + b -1

Bardziej szczegółowo

Sieci neuronowe w Statistica

Sieci neuronowe w Statistica http://usnet.us.edu.pl/uslugi-sieciowe/oprogramowanie-w-usk-usnet/oprogramowaniestatystyczne/ Sieci neuronowe w Statistica Agnieszka Nowak - Brzezińska Podstawowym elementem składowym sztucznej sieci neuronowej

Bardziej szczegółowo

SID Wykład 7 Zbiory rozmyte

SID Wykład 7 Zbiory rozmyte SID Wykład 7 Zbiory rozmyte Wydział Matematyki, Informatyki i Mechaniki UW slezak@mimuw.edu.pl Wstęp Language Ontological Commitment Epistemological Commitment (What exists in the world) (What an agent

Bardziej szczegółowo

Treści programowe. Matematyka. Efekty kształcenia. Literatura. Terminy wykładów i ćwiczeń. Warunki zaliczenia. tnij.org/ktrabka

Treści programowe. Matematyka. Efekty kształcenia. Literatura. Terminy wykładów i ćwiczeń. Warunki zaliczenia. tnij.org/ktrabka Treści programowe Matematyka Katarzyna Trąbka-Więcław Elementy algebry liniowej. Macierze i wyznaczniki. Ciągi liczbowe, granica ciągu i granica funkcji, rachunek granic, wyrażenia nieoznaczone, ciągłość

Bardziej szczegółowo

Temat: ANFIS + TS w zadaniach. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Temat: ANFIS + TS w zadaniach. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Temat: ANFIS + TS w zadaniach Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1. Systemy neuronowo - rozmyte Systemy

Bardziej szczegółowo

Lekcja 5: Sieć Kohonena i sieć ART

Lekcja 5: Sieć Kohonena i sieć ART Lekcja 5: Sieć Kohonena i sieć ART S. Hoa Nguyen 1 Materiał Sieci Kohonena (Sieć samo-organizująca) Rysunek 1: Sieć Kohonena Charakterystyka sieci: Jednowarstwowa jednokierunkowa sieć. Na ogół neurony

Bardziej szczegółowo

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice) WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO Stanisław Kowalik (Poland, Gliwice) 1. Wprowadzenie Wstrząsy podziemne i tąpania występujące w kopalniach

Bardziej szczegółowo

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Wykład 10 Mapa cech Kohonena i jej modyfikacje - uczenie sieci samoorganizujących się - kwantowanie wektorowe

Bardziej szczegółowo

Funkcje wymierne. Jerzy Rutkowski. Działania dodawania i mnożenia funkcji wymiernych określa się wzorami: g h + k l g h k.

Funkcje wymierne. Jerzy Rutkowski. Działania dodawania i mnożenia funkcji wymiernych określa się wzorami: g h + k l g h k. Funkcje wymierne Jerzy Rutkowski Teoria Przypomnijmy, że przez R[x] oznaczamy zbiór wszystkich wielomianów zmiennej x i o współczynnikach rzeczywistych Definicja Funkcją wymierną jednej zmiennej nazywamy

Bardziej szczegółowo

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów. Wstęp do teorii sztucznej inteligencji Wykład II Uczenie sztucznych neuronów. 1 - powtórzyć o klasyfikacji: Sieci liniowe I nieliniowe Sieci rekurencyjne Uczenie z nauczycielem lub bez Jednowarstwowe I

Bardziej szczegółowo

Sztuczne siei neuronowe - wprowadzenie

Sztuczne siei neuronowe - wprowadzenie Metody Sztucznej Inteligencji w Sterowaniu Ćwiczenie 2 Sztuczne siei neuronowe - wprowadzenie Przygotował: mgr inż. Marcin Pelic Instytut Technologii Mechanicznej Politechnika Poznańska Poznań, 2 Wstęp

Bardziej szczegółowo

Programowanie celowe #1

Programowanie celowe #1 Programowanie celowe #1 Problem programowania celowego (PC) jest przykładem problemu programowania matematycznego nieliniowego, który można skutecznie zlinearyzować, tzn. zapisać (i rozwiązać) jako problem

Bardziej szczegółowo

ĆWICZENIE 5: Sztuczne sieci neuronowe

ĆWICZENIE 5: Sztuczne sieci neuronowe Instytut Mechaniki i Inżynierii Obliczeniowej Wydział Mechaniczny Technologiczny, Politechnika Śląska www.imio.polsl.pl METODY HEURYSTYCZNE ĆWICZENIE 5: Sztuczne sieci neuronowe opracował: dr inż. Witold

Bardziej szczegółowo