Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania. Metody sztucznej inteligencji

Wielkość: px
Rozpocząć pokaz od strony:

Download "Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania. Metody sztucznej inteligencji"

Transkrypt

1 Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemó Steroania Metody sztucznej inteligencji Neuron, arsta neuronoa, sieci neuronoe - poierzchnie odpoiedzi sieci neuronoych, Zajęcia laboratoryjne termin T1 Materiały pomocnicze do ćiczeń Opracoanie: Kazimierz Duzinkieicz, dr hab. inż. Michał Grochoski, dr inż.

2 Podany niżej materiał zaiera przypomnienie ybranych fragmentó ykładu oraz dodatkoe informacje umożliiające torzenie struktur sztucznych sieci neuronoych środoisku MATLAB a z ykorzystaniem przybornika Neural Netork ver W szczególności zaiera on opis podstaoych elementó neuronu, funkcje aktyacji (przejścia), opis głónych instrukcji dostępnych przyborniku Matlaba oraz przykład utorzenia i nauczenia sieci neuronoej perceptronoej. W obecnej ersji Matlaba podstaoe funkcje i komendy torzące sieć neuronoą są inne - znacznie iększym stopniu samodzielnie (domyślnie) proponują sieć neuronoą adekatną do ykonyanego zadania. Jednak dla zrozumienia podstaoych mechanizmó rządzących sieciami neuronoymi, korzystniej jest na etapie początkoym korzystać z komend podstaoych, zamieszczonych niniejszym materiale. Komendy z aktualnej ersji Matlaba ( ) są ymienione Zadaniu6 instrukcji laboratoryjnej. Proszę się zapoznać z ich działaniem. Sztuczne sieci neuronoe pojedynczy neuron Sieć neuronoa jest charakteryzoana przez: 1. funkcje edług których neuron reaguje na docierające do niego pobudzenia, nazyane funkcjami pobudzania (propagacji) i funkcjami aktyacji; 2. strukturę połączeń pomiędzy neuronami, nazyaną architekturą sieci; 3. metodę określania ag tych połączeń, nazyaną algorytmem uczenia. p 1 Wagi 1,1 Funkcja pobudzania (propagacji) Funkcja aktyacji Sygnał odpoiedzi Sygnały ejścioe p 2. p j. 1,2. 1,j. g() b s Próg n s a s f() Wyjście Sygnał pobudzenia p R 1,R Rys 1. Schemat sztucznego modelu neuronu. gdzie: R- ilość ejść, S- ilość neuronó arstie, 2

3 Rys. 2 pokazuje jak taki neuron jest przedstaiany dokumentacji Matlab a raz z przyjętymi oznaczeniami ejść, ag, progu oraz yjścia. Wejście Neuron Rys 2. Schemat neuronu z pojedynczym ejściem. Symbole i notacja przyjęta Matlabie. Dla tego przypadku ymiary macierzy opisujących neuron są następujące: p p; W ; b b ; a a W przypadku gdy na ejście neuronu podaane jest iele sygnałó, neuron oraz jego schemat ygląda następująco: Wejście Neuron z ieloma ejściami gdzie: R- ilość ejść, Rys 3. Schemat neuronu z ieloma (R) ejściami. Wejście Neuron z ieloma ejściami 3 gdzie: R- ilość ejść, Rys 4. Schemat neuronu z ieloma (R) ejściami. Symbole i notacja przyjęta Matlabie.

4 Wymiary macierzy opisujących neuron są dla tego przypadku następujące: p p p 1 R 2 p ; R W ; b b ; a a 1, 2, Funkcje aktyacji (przejścia) neuronu Na rysunkach Rys. 5-7 przedstaiono przykłady funkcji aktyacji, odpoiednio przekaźnikoej niesymetrycznej, linioej oraz logarytmiczno- sigmoidalnej. Wszystkie dostępne przyborniku instrukcje zamieszczone są Tablicy 1. Rys 5. Przekaźnikoa, niesymetryczna funkcja aktyacji. Gdzie: p oznacza sygnał ejścioy do neuronu, n oznacza sygnał pobudzenia neuronu, a oznacza sygnał yjścia z neuronu, oznacza artość agi ejścia neuronu, natomiast b oznacza artość progu. Rys 6. Linioa funkcja aktyacji. Rys 7. Logarytmiczno- sigmoidalna, niesymetryczna funkcja aktyacji. 4

5 Tablica 1. Funkcje aktyacji (przejścia) dostępne przyborniku Neural Netork ver , Matlaba. Naza funkcji Relacja ejście/yjście Symbol Funkcja Matlabie przekaźnikoa unipolarna (niesymetryczna) przekaźnikoa bipolarna (symetryczna) linioa linioa z nasyceniem niesymetryczna linioa z nasyceniem symetryczna sigmoidalna logarytmiczna unipolarna (niesymetryczna) sigmoidalna tangensa hiperbolicznego bipolarna (symetryczna) linioa dodatnia spółzaodnicta (ryalizacji) a=1 neuron z max n a=0 szystkie inne neurony Poniżej na Rys. 8 przedstaiono przykład neuronu z symetryczną funkcją aktyacji (perceptron progoy) i doma ejściami. Wejścia Neuron du-ejścioy Rys 8. Neuron z przekaźnikoą, symetryczna funkcją aktyacji z doma ejściami perceptron progoy. 5

6 Wymiary macierzy dla tego neuronu są następujące: p p 1 p ; 1,1 1,2 2 W ; b b ; a a Sztuczne sieci neuronoe arsta neuronó Na rysunkach Rys 9 i 10 zilustroano pojedynczą arstę sieci neuronoej, raz z opisem jej parametró. Wejścia Sieć złożona z S neuronó gdzie: R- ilość ejść, S- ilość neuronó arstie, Rys 9. Schemat arsty sieci neuronoej. Wejście Warsta z funkcją przekaźnikoą Rys 10. Neuron z przekaźnikoą, niesymetryczna funkcją aktyacji perceptron progoy. Symbole i notacja przyjęta Matlabie. 6

7 7 Wymiary macierzy dla arsty neuronó są następujące: R 2 1 p p p p S,R S,2 S,1 2,R 2,2 2,1 1,R 1,2 1,1 W S 2 1 b b b b S 2 1 a a a a Sztuczne sieci neuronoe siec ieloarstoa Na Rys 11 i 12 zilustroano ieloarstoą (trójarstoą) jednokierunkoą sieć neuronoą. Jak można zauażyć yjścia każdej z arst sieci neuronoej stają się ejściami kolejnej z arst. gdzie: R- ilość ejść, s 1 - ilość neuronó arstie pierszej, s 2 - ilość neuronó arstie drugiej, s 3 - ilość neuronó arstie trzeciej, Rys 11. Schemat ieloarstoej, jednokierunkoej sieci neuronoej. Wejścia Piersza arsta Druga arsta Trzecia arsta

8 Wejście Piersza arsta Druga arsta Trzecia arsta gdzie: R- ilość ejść, S 1 - ilość neuronó arstie pierszej, S 2 - ilość neuronó arstie drugiej, S 3 - ilość neuronó arstie trzeciej, Rys 12. Schemat ieloarstoej, jednokierunkoej sieci neuronoej. Symbole i notacja przyjęta Matlabie. 8

9 Podstaoe instrukcje przybornika Matlaba Netork Toolbox ver Poniżej Tablicy 2 przedstaiono ażniejsze instrukcje zaarte przyborniku Matlaba, Neural Netork Toolbox ver Więcej instrukcji można uzyskać po pisaniu polecenia help nnet, natomiast szczegóły konkretnej instrukcji, takie jak: zastosoanie, składnia, algorytm działania, przykład zastosoania, można uzyskać poleceniem help doolna instrukcja np. help nep. Tablica 2 Instrukcje przybornika Matlaba, Neural Netork Toolbox ver Instrukcja Krótki opis instrukcji Torzenie sieci netork torzy doolną sieć neuronoą (użytkonika) nec torzy arstę z funkcją spółzaodnicta necf torzy kaskadoą jednokierunkoą sieć ieloarstoą uczoną metodą propagacji stecznej błędu neff torzy kaskadoą jednokierunkoą sieć ieloarstoą uczoną metodą propagacji stecznej błędu nefftd torzy kaskadoą jednokierunkoą sieć ieloarstoą z ejściami opóźniającymi, uczoną metodą propagacji stecznej błędu nelin torzy arstę z linioą funkcją aktyacji nelind torzy arstę z linioą funkcją aktyacji nep torzy perceptron progoy Funkcje pobudzania sieci netprod Funkcja iloczynu ejść netsum Funkcja sumy ejść Funkcje inicjalizujące parametry sieci initlay Funkcja inicjalizująca agi i progi sieci za pomocą metody inicjalizacji przypisanej dla każdej z arst tej sieci sieci Funkcje określające jakość działania sieci mae Funkcja określająca średni błąd bezzględny mse Funkcja określająca błąd średniokadratoy msereg Funkcja określająca błąd średniokadratoy i średnią kadrató artości ag i progó sse Funkcja określająca sumę błędó średniokadratoych Metody uczenia learncon metoda uczenia learngd metoda uczenia Gradient descent learngdm metoda uczenia Gradient descent ith momentum learnis metoda uczenia LVQ2 Instar learnlv1 metoda uczenia LVQ1 learnlv2 metoda uczenia LVQ2 learnos metoda uczenia Outstar learnp zmiany ag i progó przy pomocy metody Rosenblatt a learnpn zmiany ag i progó przy pomocy znormalizoanej metody uczenia perceptronu learnh zmiany ag i progó przy pomocy metody Widroa-Hoffa Obróbka danych ejścioych i yjścioych prestd normalizuje dane tak aby miały odchylenie standardoe róne 1 oraz średnią róną 0 poststd odraca działanie instrukcji prestd trastd przekształca dane do postaci adekatnej do tych ygeneroanych przez funkcję prestd premnmx normalizuje dane tak aby ich maksymalna i minimalna artość ynosiła odpoiednio 1 oraz -1 postmnmx odraca działanie instrukcji premnmx tramnmx przekształca dane do postaci adekatnej do tych ygeneroanych przez funkcję premnmx 9

10 prepca analiza danych ejścioych metodą PCA (Principal Component Analysis) trapca przekształca dane do postaci adekatnej do tych ygeneroanych przez funkcję prepc postreg analiza mtodą regresji linioej jakości nauczania sieci Metody uczenia trainb Proces zmian ag i progó (uczenie) trybie sadoym trainbfg Proces zmian ag i progó (uczenie) metodą propagacji stecznej quasi-netona trainbr Proces zmian ag i progó (uczenie) metodą regularyzacji Bayesiana trainc Cyclical order incremental training /learning functions traincgb Proces zmian ag i progó (uczenie) metodą propagacji stecznej Poell-Beale traincgf Proces zmian ag i progó (uczenie) metodą propagacji stecznej Fletcher-Poella traincgp Proces zmian ag i progó (uczenie) metodą propagacji stecznej Polak-Ribiere a traingd Proces zmian ag i progó (uczenie) metodą propagacji stecznej Gradient descent traingdm Proces zmian ag i progó (uczenie) metodą propagacji stecznej Gradient descent ith momentum traingda Proces zmian ag i progó (uczenie) metodą propagacji stecznej Gradient descent z adaptacją spółczynnika szybkości uczenia traingdx Proces zmian ag i progó (uczenie) metodą propagacji stecznej Gradient descent ith momentum z adaptacją spółczynnika szybkości uczenia trainlm Proces zmian ag i progó (uczenie) metodą propagacji stecznej Levenberg- Marquardta trainoss Proces zmian ag i progó (uczenie) metodą propagacji stecznej One step secant trainrp Proces zmian ag i progó (uczenie) metodą propagacji stecznej Resilient (Rprop) trainscg Proces zmian ag i progó (uczenie) metodą propagacji stecznej Scaled conjugate gradient Funkcje aktyacji compet Funkcja spółzaodnicta hardlim Funkcja przekaźnikoa unipolarna (niesymetryczna) hardlims Funkcja przekaźnikoa bipolarna (symetryczna) logsig Funkcja sigmoidalna logarytmiczna unipolarna (niesymetryczna) poslin Funkcja linioa dodatnia purelin Funkcja linioa radbas Funkcja Gaussa (Radial Basis) satlin Funkcja linioa z nasyceniem niesymetryczna satlins Funkcja linioa z nasyceniem symetryczna tansig Funkcja sigmoidalna tangensa hiperbolicznego bipolarna (symetryczna) Funkcje ułatiające analizę errsurf Poierzchnia błędu neuronu z pojedynczym ejściem maxlinlr Maksymalny spółczynnik szybkości uczenia dla sieci linioej Funkcje inicjalizujące parametry arsty initn Funkcja inicjalizująca agi i progi arsty za pomocą metody Nguyen-Widro a initb Funkcja inicjalizująca agi i progi arsty za pomocą metody przypisanej dla tej sieci sieci Operacje na ektorach cell2mat zamienia elementy tablicy blokoej (cell array) jedną macierz concur torzy rónoażne ektory progó con2seq zamienia elementy ektora na tożsamą sekencję ektoró combvec torzy szystkie możlie kombinacje ektoró mat2cell zamienia macierz tablicę blokoą minmax yznacza zakresy (min i max) ierszy macierzy nncopy torzy kopie macierzy ( pionie i poziomie) normc normalizuje kolumny macierzy do zakresu [-1; 1] normr normalizuje iersze macierzy do zakresu [-1; 1] seq2con zamienia sekencję ektoró na tożsame ektory sumsqr yznacza sumę kadrató elementó macierzy Operacje na sieciach sim symuluje sieć neuronoą init inicjalizuje sieć neuronoą 10

11 adapt train hinton hintonb plotes plotpc plotpv plotep plotperf plotv plotvec nntool gensim uczenie adaptacyjne sieci neuronoej uczenie sieci neuronoej Wykresy ykreśla agi neuronó na grafie Hintona ykreśla agi i progi neuronó na grafie Hintona ykreśla poierzchnię błędu dla neuronu z jednym ejściem ykreśla proste decyzyjne na ykresie plotpv problemu klasyfikacji przy użyciu perceptrona ykreśla ejścia oraz artości doceloe zagadnienia klasyfikacji przy użyciu perceptrona pokazuje aktualną artość ag i progó na poierzchni błędu ykreślonej poleceniem plotes ykreśla jakość odpoiedzi sieci trakcie uczenia ykreśla ektory postaci linii ykreśla ektory rozróżniając je kolorami Inne Graficzny Interfejs Użytkonika dla przybornika Neural Netork Toolbox Generuje sieć neuronoą do środoiska Simulink 11

12 Przykład utorzenia i nauczenia sieci neuronoej, perceptronoej. Poniżej przedstaiono podstaoe komendy służące do utorzenia sieci neuronoej na przykładzie sieci perceptronoej. Proces torzenia innych sieci jest podobny, zmieniają się jedynie parametry i niektóre instrukcje. Do utorzenia sieci perceptronoej służy instrukcja nep. Składnia siec = nep(pr,s,tf,lf) Parametrami tej instrukcji są: PR macierz o ymiarach Rx2 minimalnych i maksymalnych artości R elementó macierzy ejść. S - Liczba neuronó. TF funkcja aktyacji (przejścia), domyślnie = 'hardlim'. LF metoda uczenia, domyślnie = 'learnp'. Nie jest konieczne podaanie parametró TF oraz LF. Efektem ykonania tej instrukcji jest utorzenie sieci perceptronoej. Pod nazą siec zostaje utorzona struktura której zapisane są szelkie informacje na temat utorzonej sieci. Inicjalizacja sieci Instrukcja nep inicjalizuje rónież (nadaje) początkoe (zeroe) artości ag i progó (metodą ). Wagi łączące ejścia z siecią są zapisane strukturze siec.iw. Progi sieci są zapisane strukturze siec.b. Możemy, rónież samodzielnie dobierać artości tych elementó, np.: siec.iw{1,1}=[2 4] siec.b{1}=[5] Aby przyrócić domyślne ustaienia ag i progó (inicjalizacja parametró sieci) należy użyć np. instrukcji init. siec = init(siec); Symulacja sieci Aby zbadać odpoiedź sieci na ektor ejść musimy posłużyć się instrukcją sim. Składnie tej instrukcji uzyskamy po pisaniu oknie głónym Matlaba help sim, przeażnie ystarczające jest podanie składni instrukcji sieci jaką chcemy symuloać oraz skazaniu ektora ejść, tym przypadku P: Y = sim(siec,p); Symuluje odpoiedź sieci siec na ejście P 12

13 Zdefiniujmy teraz ektor ejścioy P jako: P = [ ; ]; Oraz ektor zorcó T: T = [ ]; Rezultatem jest odpoiedź sieci: Y = który nie jest zgodny z oczekianiami (zorcami T). Aby osiągnąć porządane artości yjścioe (zgodne ze zorcem) należy odpoiednio dobrać artości ag i progó, czyli nauczyć sieć popranie odpoiadać. Przykład Zaprojektuj sieć perceptronoą złożoną z jednego neuronu o dóch ejściach. Piersze ejście poinno być zakresie [0 ; 1] natomiast drugie ejście zakresie [-2 ; 2]. Zapisz projektoaną strukturę pod nazą siec. W odpoiedzi na cześniej zdefinioany ektor P, sieć poinna odpoiadać zgodnie z ektorem T. siec = nep([0 1; -2 2],1); Spradźmy odpoiedzi sieci na ektor P: Y = sim(siec,p) Y = Uczenie sieci Jak idzimy sieć nie odpoiada zgodnie z ektorem T. Aby doproadzić do popranych odpoiedzi, musimy zmienić artości ag i progó, samodzielnie lub procesie uczenia. Proces uczenia yołujemy przy pomocy instrukcji train. Instrukcja ta yołuje domyślną dla danej sieci metodę uczenia (modyfikacji ag i progó) tak aby dopasoać je do ektora T. Więcej opcji instrukcji train, po pisaniu help train. siec = train(siec,p,t); Po procesie uczenia, spradźmy pononie odpoiedzi sieci. Y = sim(siec,p) 13

14 Y = Jak idzimy sieć odpoiedziała popranie. To kończy zadanie. Możemy rónież spradzić przy jakich artościach ag i progó zostało to osiągnięte: siec.iw{1,1} siec.iw{1,1} =[1 1] siec.b{1} =[-1] Zmiana domyślnych parametró sieci Po utorzeniu doolnej sieci, przypisane są im domyślnie różne parametry takie jak np. metoda uczenia, metoda inicjalizacji, metody badania jakości działania sieci, przebieg procesu uczenia sieci i iele innych. Dla ich przeglądnięcia należy oknie głónym Matlaba podać nazę utorzonej sieci. Parametry te możemy rónież zmieniać. Dokonujemy tego zmieniając przy pomocy odpoiednich komend doolne parametry. Poniżej zamieszczono podstaoe z nich (dla sieci perceptronoej utorzonej komendą nep). Funkcje: adaptfcn: 'trains' initfcn: 'initlay' performfcn: 'mae' trainfcn: 'trainc' Parametry: adaptparam:.passes initparam: (none) performparam: (none) trainparam:.epochs,.goal,.sho,.time Zmiana domyślnych parametró sieci (artości przykładoe): net.trainparam.sho = 50; net.trainparam.lr = 0.05; net.trainparam.epochs = 300; net.trainparam.goal = 1e-5; 14

Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych

Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych Uniersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Steroania i Systemó Informatycznych ELEMENTY SZTUCZNEJ INTELIGENCJI Semestr letni 2010 Laboratorium nr 4 LINIOWE

Bardziej szczegółowo

Podstawowe funkcje biblioteki narzędziowej Neural Network Toolbox. Version 5 pakietu MATLAB v. 6

Podstawowe funkcje biblioteki narzędziowej Neural Network Toolbox. Version 5 pakietu MATLAB v. 6 Podstawowe funkcje biblioteki narzędziowej Neural Network Toolbox. Version 5 pakietu MATLAB v. 6 I. Funkcje przeznaczone do tworzenia jednokierunkowej sieci neuronowej newff newp newlin - tworzenie wielowarstwowej

Bardziej szczegółowo

MATLAB Neural Network Toolbox uczenie sieci (dogłębnie)

MATLAB Neural Network Toolbox uczenie sieci (dogłębnie) MATLAB Neural Network Toolbox uczenie sieci (dogłębnie) WYKŁAD Piotr Ciskowski Neural Network Toolbox: NEURAL NETWORK TOOLBOX NOTACJA Neural Network Toolbox - notacja: pojedynczy neuron: z jednym wejściem

Bardziej szczegółowo

Podstawy Sztucznej Inteligencji

Podstawy Sztucznej Inteligencji Politechnika Łódzka Katedra Informatyki Stosowanej Podstawy Sztucznej Inteligencji Laboratorium Ćwiczenie 2 Wykorzystanie środowiska Matlab do modelowania sztucznych sieci neuronowych Opracowali: Dr hab

Bardziej szczegółowo

Sztuczne siei neuronowe - wprowadzenie

Sztuczne siei neuronowe - wprowadzenie Metody Sztucznej Inteligencji w Sterowaniu Ćwiczenie 2 Sztuczne siei neuronowe - wprowadzenie Przygotował: mgr inż. Marcin Pelic Instytut Technologii Mechanicznej Politechnika Poznańska Poznań, 2 Wstęp

Bardziej szczegółowo

Podstawowe funkcje biblioteki narzędziowej Neural Network Toolbox. Version 5 pakietu MATLAB v. 7.1

Podstawowe funkcje biblioteki narzędziowej Neural Network Toolbox. Version 5 pakietu MATLAB v. 7.1 POLITECHNIKA BIAŁOSTOCKA WYDZIAŁ ELEKTRYCZNY KATEDRA AUTOMATYKI I ELEKTRONIKI Podstawowe funkcje biblioteki narzędziowej Neural Network Toolbox. Version 5 pakietu MATLAB v. 7.1 Materiały pomocnicze do

Bardziej szczegółowo

POPRAWA EFEKTYWNOŚCI METODY WSTECZNEJ

POPRAWA EFEKTYWNOŚCI METODY WSTECZNEJ Nowoczesne techniki informatyczne - Ćwiczenie 6: POPRAWA EFEKTYWNOŚCI METODY BP str. 1 Ćwiczenie 6: UCZENIE SIECI WIELOWARSTWOWYCH. POPRAWA EFEKTYWNOŚCI METODY WSTECZNEJ PROPAGACJI BŁĘDU WYMAGANIA 1. Sztuczne

Bardziej szczegółowo

Politechnika Warszawska

Politechnika Warszawska Politechnika Warszawska Programowa realizacja sieci neuronowych Zbigniew Szymański, Stanisław Jankowski grudzień 03 Instytut Informatyki Nowowiejska 5 / 9, 00-665 Warszawa Programowa realizacja sieci neuronowych

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 5. UCZENIE SIĘ APROKSYMACJI FUNKCJI MODELE LINIOWE

SYSTEMY UCZĄCE SIĘ WYKŁAD 5. UCZENIE SIĘ APROKSYMACJI FUNKCJI MODELE LINIOWE SYSEMY UCZĄCE SIĘ WYKŁAD 5. UCZENIE SIĘ APROKSYMACJI FUNKCJI MODELE LINIOWE Częstochoa 4 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochoska MEODY APROKSYMACJI Metody aproksymacji

Bardziej szczegółowo

MATLAB Neural Network Toolbox przegląd

MATLAB Neural Network Toolbox przegląd MATLAB Neural Network Toolbox przegląd WYKŁAD Piotr Ciskowski Neural Network Toolbox: Neural Network Toolbox - zastosowania: przykłady zastosowań sieci neuronowych: The 1988 DARPA Neural Network Study

Bardziej szczegółowo

Sieci neuronowe. Sebastian Bożek.

Sieci neuronowe. Sebastian Bożek. Sieci neuronoe Sebastian Bożek http://.biofizyk.pl Plan prezentacji. Metoda obliczeń i metoda skojarzeń 2. Neuron biologiczny 3. Model sztucznego neuronu 4. Funkcja aktyacji rodzaje sztucznych neuronó

Bardziej szczegółowo

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia

Bardziej szczegółowo

Algorytmy sztucznej inteligencji

Algorytmy sztucznej inteligencji Algorytmy sztucznej inteligencji Dynamiczne sieci neuronowe 1 Zapis macierzowy sieci neuronowych Poniżej omówione zostaną części składowe sieci neuronowych i metoda ich zapisu za pomocą macierzy. Obliczenia

Bardziej szczegółowo

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy

Bardziej szczegółowo

POLITECHNIKA OPOLSKA

POLITECHNIKA OPOLSKA POLITECHNIKA OPOLSKA WYDZIAŁ MECHANICZNY Katedra Technologii Maszyn i Automatyzacji Produkcji Laboratorium Inżynierii Jakości Ćiczenie nr 11 Temat: Karta kontrolna ruchomej średniej MA Zakres ćiczenia:

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych klasyfikacja LABORKA Piotr Ciskowski zadanie 1. klasyfikacja zwierząt sieć jednowarstwowa żródło: Tadeusiewicz. Odkrywanie własności sieci neuronowych, str. 159 Przykład

Bardziej szczegółowo

Uczenie sieci typu MLP

Uczenie sieci typu MLP Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik

Bardziej szczegółowo

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,

Bardziej szczegółowo

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE INSTYTUT TECHNOLOGII MECHANICZNEJ Metody Sztucznej Inteligencji Sztuczne Sieci Neuronowe Wstęp Sieci neuronowe są sztucznymi strukturami, których

Bardziej szczegółowo

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych. Wstęp do teorii sztucznej inteligencji Wykład III Modele sieci neuronowych. 1 Perceptron model najprostzszy przypomnienie Schemat neuronu opracowany przez McCullocha i Pittsa w 1943 roku. Przykład funkcji

Bardziej szczegółowo

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, 2013 Spis treści Przedmowa 7 1. Wstęp 9 1.1. Podstawy biologiczne działania neuronu 9 1.2. Pierwsze modele sieci neuronowej

Bardziej szczegółowo

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Temat: Sztuczne Sieci Neuronowe Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sztuczne sieci neuronowe

Bardziej szczegółowo

Laboratorium nr 2. Identyfikacja systemu i detekcja uszkodzeń na podstawie modelu

Laboratorium nr 2. Identyfikacja systemu i detekcja uszkodzeń na podstawie modelu Instytut Sterowania i Systemów Informatycznych Uniwersytet Zielonogórski Diagnostyka procesów i systemów Prowadzący: Marcel Luzar 1 Laboratorium nr 2 Identyfikacja systemu i detekcja uszkodzeń na podstawie

Bardziej szczegółowo

Metody Sztucznej Inteligencji II

Metody Sztucznej Inteligencji II 17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału

Bardziej szczegółowo

Algorytmy wstecznej propagacji sieci neuronowych

Algorytmy wstecznej propagacji sieci neuronowych Algorytmy wstecznej propagacji sieci neuronowych Mateusz Nowicki, Krzysztof Jabłoński 1 Wydział Inżynierii Mechanicznej i Informatyki Politechnika Częstochowska Kierunek Informatyka, Rok III 1 krzysztof.jablonski@hotmail.com

Bardziej szczegółowo

WPROWADZENIE DO ŚRODOWISKA SCICOS

WPROWADZENIE DO ŚRODOWISKA SCICOS Politechnika Gdańska Wydział Elektrotechniki i Automatyki WPROWADZENIE DO ŚRODOWISKA SCICOS Materiały pomocnicze do ćwiczeń laboratoryjnych Oryginał: Modeling and Simulation in Scilab/Scicos Stephen L.

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY

METODY INŻYNIERII WIEDZY METODY INŻYNIERII WIEDZY SZTUCZNE SIECI NEURONOWE MLP Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i Inżynierii

Bardziej szczegółowo

Identyfikacja obiektów dynamicznych za pomocą sieci neuronowych

Identyfikacja obiektów dynamicznych za pomocą sieci neuronowych Metody Sztucznej Inteligencji w Sterowaniu Ćwiczenie 3 Identyfikacja obiektów dynamicznych za pomocą sieci neuronowych Przygotował: mgr inż. Marcin Pelic Instytut Technologii Mechanicznej Politechnika

Bardziej szczegółowo

Metody jakościowe i ilościowe na usługach wyceny nieruchomości

Metody jakościowe i ilościowe na usługach wyceny nieruchomości POLANICA ZDRÓJ, 16-18 rześnia 007 etody jakościoe i ilościoe na usługach yceny nieruchomości Anna Barańska Katedra Informacji o erenie Wydział Geodezji Górniczej i Inżynierii Środoiska Akademia Górniczo

Bardziej szczegółowo

Ocena struktury geometrycznej powierzchni

Ocena struktury geometrycznej powierzchni Wrocła, dnia Metrologia Wielkości Geometrycznych Ćiczenie 4 Rok i kierunek 1. 2.. Grupa (dzień i godzina rozpoczęcia zajęć) Imię i nazisko Imię i nazisko Imię i nazisko Ocena struktury geometrycznej poierzchni

Bardziej szczegółowo

Sieci neuronowe w Statistica

Sieci neuronowe w Statistica http://usnet.us.edu.pl/uslugi-sieciowe/oprogramowanie-w-usk-usnet/oprogramowaniestatystyczne/ Sieci neuronowe w Statistica Agnieszka Nowak - Brzezińska Podstawowym elementem składowym sztucznej sieci neuronowej

Bardziej szczegółowo

ALGORYTMY SZTUCZNEJ INTELIGENCJI

ALGORYTMY SZTUCZNEJ INTELIGENCJI ALGORYTMY SZTUCZNEJ INTELIGENCJI Sieci neuronowe 06.12.2014 Krzysztof Salamon 1 Wstęp Sprawozdanie to dotyczy ćwiczeń z zakresu sieci neuronowych realizowanym na przedmiocie: Algorytmy Sztucznej Inteligencji.

Bardziej szczegółowo

Krzysztof JURCZYK * 1. WPROWADZENIE

Krzysztof JURCZYK * 1. WPROWADZENIE Logistyka nauka Krzysztof JURCZYK * ZASTOSOWANIE SZTUCZNYCH SIECI NEURONOWYCH JAKO NARZĘDZIA WSPOMAGAJĄCEGO ZARZĄDZANIE ZAPASAMI I PLANOWANIE POPYTU NA PRZYKŁADZIE PRZEDSIĘBIORSTWA DYSTRYBUCYJNEGO Streszczenie

Bardziej szczegółowo

ZASTOSOWANIE SZTUCZNYCH SIECI NEURONOWYCH W ANALIZIE SYGNAŁÓW ELEKTROKARDIOGRAFICZNYCH

ZASTOSOWANIE SZTUCZNYCH SIECI NEURONOWYCH W ANALIZIE SYGNAŁÓW ELEKTROKARDIOGRAFICZNYCH ZASTOSOWANIE SZTUCZNYCH SIECI NEURONOWYCH W ANALIZIE SYGNAŁÓW ELEKTROKARDIOGRAFICZNYCH USING ARTIFICIAL NEURAL NETWORKS FOR ANALYSIS OF ELECTROCARDIOGRAPHIC SIGNALS Monika Litwińska * Politechnika Gdańska,

Bardziej szczegółowo

Uczenie sieci radialnych (RBF)

Uczenie sieci radialnych (RBF) Uczenie sieci radialnych (RBF) Budowa sieci radialnej Lokalne odwzorowanie przestrzeni wokół neuronu MLP RBF Budowa sieci radialnych Zawsze jedna warstwa ukryta Budowa neuronu Neuron radialny powinien

Bardziej szczegółowo

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska Sieci neuronowe w Statistica Agnieszka Nowak - Brzezioska Podstawowym elementem składowym sztucznej sieci neuronowej jest element przetwarzający neuron. Schemat działania neuronu: x1 x2 w1 w2 Dendrites

Bardziej szczegółowo

Instrukcja realizacji ćwiczenia

Instrukcja realizacji ćwiczenia SIEĆ KOHONENA ROZPOZNAWANIE OBRAZÓW Cel ćwiczenia: zapoznanie się ze sposobem reprezentacji wiedzy w sieciach Kohonena i mechanizmami sąsiedztwa i sumienia neuronów. Zadanie do analizy: analizujemy sieć

Bardziej szczegółowo

LABORATORIUM TEORII STEROWANIA. Ćwiczenie 6 RD Badanie układu dwupołożeniowej regulacji temperatury

LABORATORIUM TEORII STEROWANIA. Ćwiczenie 6 RD Badanie układu dwupołożeniowej regulacji temperatury Wydział Elektryczny Zespół Automatyki (ZTMAiPC). Cel ćiczenia LABORATORIUM TEORII STEROWANIA Ćiczenie 6 RD Badanie układu dupołożenioej regulacji temperatury Celem ćiczenia jest poznanie łaściości regulacji

Bardziej szczegółowo

Podstawy Sztucznej Inteligencji (PSZT)

Podstawy Sztucznej Inteligencji (PSZT) Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12

Bardziej szczegółowo

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa

Bardziej szczegółowo

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak 2 Rozdział 1 Sztuczne sieci neuronowe. 3 Sztuczna sieć neuronowa jest zbiorem prostych elementów pracujących równolegle, których zasada działania inspirowana jest biologicznym systemem nerwowym. Sztuczną

Bardziej szczegółowo

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Struktury i Algorytmy Wspomagania Decyzji Zadanie projektowe 2 Czas realizacji: 6 godzin Maksymalna liczba

Bardziej szczegółowo

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Teoria sterowania MATLAB funkcje zewnętrzne (m-pliki, funkcje) Materiały pomocnicze do ćwiczeń laboratoryjnych

Bardziej szczegółowo

Podstawy sztucznej inteligencji

Podstawy sztucznej inteligencji wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline. Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2

Bardziej szczegółowo

8. Neuron z ciągłą funkcją aktywacji.

8. Neuron z ciągłą funkcją aktywacji. 8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i

Bardziej szczegółowo

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM ZASTOSOWANIE SIECI NEURONOWYCH W SYSTEMACH AKTYWNEJ REDUKCJI HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM WPROWADZENIE Zwalczanie hałasu przy pomocy metod aktywnych redukcji hałasu polega

Bardziej szczegółowo

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Teoria sterowania Odpowiedzi czasowe ciągłych i dyskretnych systemów dynamicznych Zadania do ćwiczeń laboratoryjnych

Bardziej szczegółowo

Inteligentne systemy przeciw atakom sieciowym

Inteligentne systemy przeciw atakom sieciowym Inteligentne systemy przeciw atakom sieciowym wykład Sztuczne sieci neuronowe (SSN) Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 1 / 36 Biologiczne

Bardziej szczegółowo

(1.1) (1.2) (1.3) (1.4) (1.5) (1.6) Przy opisie zjawisk złożonych wartości wszystkich stałych podobieństwa nie mogą być przyjmowane dowolnie.

(1.1) (1.2) (1.3) (1.4) (1.5) (1.6) Przy opisie zjawisk złożonych wartości wszystkich stałych podobieństwa nie mogą być przyjmowane dowolnie. 1. Teoria podobieństa Figury podobne geometrycznie mają odpoiadające sobie kąty róne, a odpoiadające sobie boki są proporcjonane 1 n (1.1) 1 n Zjaiska fizyczne mogą być podobne pod arunkiem, że zachodzą

Bardziej szczegółowo

Metody sztucznej inteligencji Artificial Intelligence Methods

Metody sztucznej inteligencji Artificial Intelligence Methods Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 utego 2012r. KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu ETI 7/1 Naza modułu Metody sztucznej inteigencji Artificia Inteigence Methods Naza modułu

Bardziej szczegółowo

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice) WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO Stanisław Kowalik (Poland, Gliwice) 1. Wprowadzenie Wstrząsy podziemne i tąpania występujące w kopalniach

Bardziej szczegółowo

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Technologie informatyczne Wprowadzenie do Simulinka w środowisku MATLAB Pytania i zadania do ćwiczeń laboratoryjnych

Bardziej szczegółowo

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska

Bardziej szczegółowo

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek Sztuczne sieci neuronowe Ćwiczenia Piotr Fulmański, Marta Grzanek Piotr Fulmański 1 Wydział Matematyki i Informatyki, Marta Grzanek 2 Uniwersytet Łódzki Banacha 22, 90-232, Łódź Polska e-mail 1: fulmanp@math.uni.lodz.pl,

Bardziej szczegółowo

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE SIECI NEURONOWE Przedmiotem laboratorium jest stworzenie algorytmu rozpoznawania zwierząt z zastosowaniem sieci neuronowych w oparciu o 5 kryteriów: ile zwierzę ma nóg, czy żyje w wodzie, czy umie latać,

Bardziej szczegółowo

2 Rachunek macierzowy, metoda eliminacji Gaussa-Jordana Wprowadzenie teoretyczne Zadania... 13

2 Rachunek macierzowy, metoda eliminacji Gaussa-Jordana Wprowadzenie teoretyczne Zadania... 13 Spis treści Podstaoe struktury algebraiczne Grupa, pierścień, ciało Grupy permutacji 4 3 Pierścień ielomianó, algorytm Euklidesa, najiększy spólny dzielnik 6 4 Zadania 7 Rachunek macierzoy, metoda eliminacji

Bardziej szczegółowo

Zrealizować sieć neuronową (learnbpm) uczącą się odwzorowania z = x 2 + y 2 dla x i y zmieniających się od -1 do 1.

Zrealizować sieć neuronową (learnbpm) uczącą się odwzorowania z = x 2 + y 2 dla x i y zmieniających się od -1 do 1. Politechnika Rzeszowska Wydział Elektrotechniki i Informatyki Mateusz Błażej Nr albumu: 130366 Zrealizować sieć neuronową (learnbpm) uczącą się odwzorowania z = x 2 + y 2 dla x i y zmieniających się od

Bardziej szczegółowo

Temat: Sieci neuronowe oraz technologia CUDA

Temat: Sieci neuronowe oraz technologia CUDA Elbląg, 27.03.2010 Temat: Sieci neuronowe oraz technologia CUDA Przygotował: Mateusz Górny VIII semestr ASiSK Wstęp Sieci neuronowe są to specyficzne struktury danych odzwierciedlające sieć neuronów w

Bardziej szczegółowo

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0 Uczenie się pojedynczego neuronu W0 X0=1 W1 x1 W2 s f y x2 Wp xp p x i w i=x w+wo i=0 Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z=0 Wówczas: W 1 x 1 + w 2 x 2 + = 0 Algorytm

Bardziej szczegółowo

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej. Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej BIOCYBERNETYKA Adrian Horzyk SIECI NEURONOWE www.agh.edu.pl Mózg inspiruje nas od wieków Co takiego

Bardziej szczegółowo

Sztuczne sieci neuronowe (SNN)

Sztuczne sieci neuronowe (SNN) Sztuczne sieci neuronowe (SNN) Pozyskanie informacji (danych) Wstępne przetwarzanie danych przygotowanie ich do dalszej analizy Selekcja informacji Ostateczny model decyzyjny SSN - podstawy Sieci neuronowe

Bardziej szczegółowo

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017 Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład III bogumil.konopka@pwr.edu.pl 2016/2017 Wykład III - plan Regresja logistyczna Ocena skuteczności klasyfikacji Macierze pomyłek Krzywe

Bardziej szczegółowo

Metody Optymalizacji Optimization Methods. Elektrotechnika I stopień (I stopień / II stopień) Ogólno akademicki (ogólno akademicki / praktyczny)

Metody Optymalizacji Optimization Methods. Elektrotechnika I stopień (I stopień / II stopień) Ogólno akademicki (ogólno akademicki / praktyczny) Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 lutego 2012r. KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu Naza modułu Naza modułu języku angielskim Oboiązuje od roku akademickiego 2012/2013 Metody

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 8. SZTUCZNE SIECI NEURONOWE INNE ARCHITEKTURY Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska SIEĆ O RADIALNYCH FUNKCJACH BAZOWYCH

Bardziej szczegółowo

ĆWICZENIE 4 ZASTOSOWANIE METOD I NARZĘDZI LOGIKI ROZMYTEJ DO KLASYFIKACJI DANYCH I APROKSYMACJI ODWZOROWAŃ STATYCZNYCH

ĆWICZENIE 4 ZASTOSOWANIE METOD I NARZĘDZI LOGIKI ROZMYTEJ DO KLASYFIKACJI DANYCH I APROKSYMACJI ODWZOROWAŃ STATYCZNYCH Politechnika Białostocka Wydział Elektryczny Katedra Automatyki i Elektroniki ĆWICZENIE 4 ZASTOSOWANIE METOD I NARZĘDZI LOGIKI ROZMYTEJ DO KLASYFIKACJI DANYCH I APROKSYMACJI ODWZOROWAŃ STATYCZNYCH Pracownia

Bardziej szczegółowo

GENERATOR PROGRAM. Instrukcja użytkownika

GENERATOR PROGRAM. Instrukcja użytkownika ALBECO Soft mgr inż. Piotr Berłoski ul. Warzyniaka 11 60-506 Poznań piotrber@albeco.poznan.pl.albeco.poznan.pl tel. 8420-027, fax 8420-228 PROGRAM GENERATOR Instrukcja użytkonika ersja 0.9 23.04.2004-1/8

Bardziej szczegółowo

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, 2012 Spis treści Przedmowa do wydania drugiego Przedmowa IX X 1. Wstęp 1 2. Wybrane zagadnienia sztucznej inteligencji

Bardziej szczegółowo

Lekcja 5: Sieć Kohonena i sieć ART

Lekcja 5: Sieć Kohonena i sieć ART Lekcja 5: Sieć Kohonena i sieć ART S. Hoa Nguyen 1 Materiał Sieci Kohonena (Sieć samo-organizująca) Rysunek 1: Sieć Kohonena Charakterystyka sieci: Jednowarstwowa jednokierunkowa sieć. Na ogół neurony

Bardziej szczegółowo

Adrian Horzyk

Adrian Horzyk Metody Inteligencji Obliczeniowej Metoda K Najbliższych Sąsiadów (KNN) Adrian Horzyk horzyk@agh.edu.pl AGH Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Bardziej szczegółowo

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. zajecia.jakubw.pl/nai Literatura: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym. WNT, Warszawa 997. PODSTAWOWE ZAGADNIENIA TECHNICZNE AI

Bardziej szczegółowo

DB Algebra liniowa 1 semestr letni 2018

DB Algebra liniowa 1 semestr letni 2018 DB Algebra linioa semestr letni 208 Teoria oraz iększość zadań niniejszym skrypcie zostały opracoane na podstaie książek:. G. Banaszak, W. Gajda, Elementy algebry linioej cz. I, Wydanicto Naukoo-Techniczne,

Bardziej szczegółowo

Elementy inteligencji obliczeniowej

Elementy inteligencji obliczeniowej Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego

Bardziej szczegółowo

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe www.math.uni.lodz.pl/ radmat Cel wykładu Celem wykładu jest prezentacja różnych rodzajów sztucznych sieci neuronowych. Biologiczny model neuronu Mózg człowieka składa się z około 10 11 komórek nerwowych,

Bardziej szczegółowo

MODELOWANIE OSCYLACYJNYCH SIECI NEURONOWYCH W ŚRODOWISKU PROGRAMISTYCZNYM MATLAB

MODELOWANIE OSCYLACYJNYCH SIECI NEURONOWYCH W ŚRODOWISKU PROGRAMISTYCZNYM MATLAB Wiesła Citko Akademia Morska Gdyni MODELOWANIE OSCYLACYJNYCH SIECI NEURONOWYCH W ŚRODOWISKU PROGRAMISTYCZNYM MATLAB W pracy poruszono zagadnienia ziązane z inteligencją obliczenioą, szczególności zaś przedstaiono

Bardziej szczegółowo

Deep Learning na przykładzie Deep Belief Networks

Deep Learning na przykładzie Deep Belief Networks Deep Learning na przykładzie Deep Belief Networks Jan Karwowski Zakład Sztucznej Inteligencji i Metod Obliczeniowych Wydział Matematyki i Nauk Informacyjnych PW 20 V 2014 Jan Karwowski (MiNI) Deep Learning

Bardziej szczegółowo

Wersja jednorazowa. 200 MB 2 zł 24 godziny DOSTĘPNA wersja niedostępna

Wersja jednorazowa. 200 MB 2 zł 24 godziny DOSTĘPNA wersja niedostępna Regulamin usługi Pakiety internetoe taryfach Orange One, Orange Yes, Orange POP i Noe Orange Go ofercie Orange na kartę oboiązuje od dnia 20 lipca 2015 r. do odołania 1. Pakiety internetoe ( Usługa ) to

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA SYSTEMY ROZMYTE Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i Inżynierii Biomedycznej Laboratorium

Bardziej szczegółowo

ESI: Perceptrony proste i liniowe

ESI: Perceptrony proste i liniowe ESI: Perceptrony proste i liniowe [Matlab 1.1] Matlab2015b i nowsze 1 kwietnia 2019 1. Cel ćwiczeń: Celem ćwiczeń jest zapoznanie się studentów z podstawami zagadnieniami z zakresu sztucznych sieci neuronowych.

Bardziej szczegółowo

Technologie cyfrowe semestr letni 2018/2019

Technologie cyfrowe semestr letni 2018/2019 Technologie cyfrowe semestr letni 2018/2019 Tomasz Kazimierczuk Wykład 10 (06.05.2019) Szachy Liczba możliwości: Pierwsze posunięcie białych: 20 Pierwsze posunięcie czarnych: 20 Ruch biały-czarny: 20 x

Bardziej szczegółowo

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania MODELOWANIE I IDENTYFIKACJA Studia niestacjonarne Estymacja parametrów modeli, metoda najmniejszych kwadratów.

Bardziej szczegółowo

Egzamin z algebry liniowej 2003 r.

Egzamin z algebry liniowej 2003 r. Egzamin z algebry linioej 003 r. Cześć I na ocene dostateczna Zadanie. Wyznacz szystkie liczby zespolone z takie, że a) z = 8 + 6i, b) ( + 3i) z = i. Zadanie. Wykonaj podane dzia lania macierzoe: [ 3 0

Bardziej szczegółowo

sieci jednowarstwowe w MATLABie LABORKA Piotr Ciskowski

sieci jednowarstwowe w MATLABie LABORKA Piotr Ciskowski sieci jednowarstwowe w ATLABie LABORKA Piotr Ciskowski trzy funkcje do obsługi sieci jednowarstwowej : init1.m - tworzy sieć, inicjuje wagi (losowo) dzialaj1.m symuluje działanie sieci (na pojedynczym

Bardziej szczegółowo

Cyfrowe Przetwarzanie Obrazów i Sygnałów

Cyfrowe Przetwarzanie Obrazów i Sygnałów Cyfrowe Przetwarzanie Obrazów i Sygnałów Laboratorium EX0 Wprowadzenie Joanna Ratajczak, Wrocław, 2018 1 Cel i zakres ćwiczenia Celem ćwiczenia jest zapoznanie się ze środowiskiem Matlab/Simulink wraz

Bardziej szczegółowo

Optymalizacja systemów

Optymalizacja systemów Optymalizacja systemów Laboratorium - problem detekcji twarzy autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, P. Klukowski Cel zadania Celem zadania jest zapoznanie się z gradientowymi algorytmami optymalizacji

Bardziej szczegółowo

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron Elementy kognitywistyki II: Sztuczna inteligencja WYKŁAD X: Sztuczny neuron Koneksjonizm: wprowadzenie 1943: Warren McCulloch, Walter Pitts: ogólna teoria przetwarzania informacji oparta na sieciach binarnych

Bardziej szczegółowo

Aproksymacja danych doświadczalnych z badań trójosiowego ściskania gruntu przy użyciu perceptronu wielowarstwowego

Aproksymacja danych doświadczalnych z badań trójosiowego ściskania gruntu przy użyciu perceptronu wielowarstwowego Aproksymacja danych doświadczalnych z badań trójosiowego ściskania gruntu przy użyciu perceptronu wielowarstwowego Mgr inż. Dariusz Słowiński Uniwersytet Warmińsko-Mazurski w Olsztynie, Wydział Nauk Technicznych

Bardziej szczegółowo

instrukcja do ćwiczenia 3.4 Wyznaczanie metodą tensometrii oporowej modułu Younga i liczby Poissona

instrukcja do ćwiczenia 3.4 Wyznaczanie metodą tensometrii oporowej modułu Younga i liczby Poissona UT-H Radom Instytut Mechaniki Stosoanej i Energetyki Laboratorium Wytrzymałości Materiałó instrukcja do ćiczenia 3.4 Wyznaczanie metodą tensometrii oporoej modułu Younga i liczby Poissona I ) C E L Ć W

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt

Bardziej szczegółowo

POWIATOWY URZĄD PRACY. W J A Ś L E 38-200 Jasło, Rynek 18 tel./fax: 0~13 446-50-83, e-mail: sekretariat@pup-jaslo.pl, www: pup-jaslo.

POWIATOWY URZĄD PRACY. W J A Ś L E 38-200 Jasło, Rynek 18 tel./fax: 0~13 446-50-83, e-mail: sekretariat@pup-jaslo.pl, www: pup-jaslo. POWIATOWY URZĄD PRACY W J A Ś L E 38-200 Jasło, Rynek 18 tel./fax: 0~13 446-50-83, e-mail: sekretariat@pup-jaslo.pl, : pup-jaslo.pl PLAN SZKOLEŃ realizoanych przez Poiatoy Urząd Pracy Jaśle 2015 r. Lp.

Bardziej szczegółowo

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW 17 XII 2013 Jan Karwowski

Bardziej szczegółowo

1.5. Iloczyn wektorowy. Definicja oraz k. Niech i

1.5. Iloczyn wektorowy. Definicja oraz k. Niech i .. Iloczyn ektoroy. Definicj. Niech i, j orz k. Iloczynem ektoroym ektoró = i j k orz = i j k nzymy ektor i j k.= ( )i ( )j ( )k Skrótoo możn iloczyn ektoroy zpisć postci yzncznik: i j k. Poniżej podno

Bardziej szczegółowo

Symulacja działania sterownika dla robota dwuosiowego typu SCARA w środowisku Matlab/Simulink.

Symulacja działania sterownika dla robota dwuosiowego typu SCARA w środowisku Matlab/Simulink. Symulacja działania sterownika dla robota dwuosiowego typu SCARA w środowisku Matlab/Simulink. Celem ćwiczenia jest symulacja działania (w środowisku Matlab/Simulink) sterownika dla dwuosiowego robota

Bardziej szczegółowo

Zad. 3: Układ równań liniowych

Zad. 3: Układ równań liniowych 1 Cel ćwiczenia Zad. 3: Układ równań liniowych Wykształcenie umiejętności modelowania kluczowych dla danego problemu pojęć. Definiowanie właściwego interfejsu klasy. Zwrócenie uwagi na dobór odpowiednich

Bardziej szczegółowo

Optymalizacja systemów

Optymalizacja systemów Optymalizacja systemów Laboratorium Sudoku autor: A. Gonczarek Cel zadania Celem zadania jest napisanie programu rozwiązującego Sudoku, formułując problem optymalizacji jako zadanie programowania binarnego.

Bardziej szczegółowo

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów. Wstęp do teorii sztucznej inteligencji Wykład II Uczenie sztucznych neuronów. 1 - powtórzyć o klasyfikacji: Sieci liniowe I nieliniowe Sieci rekurencyjne Uczenie z nauczycielem lub bez Jednowarstwowe I

Bardziej szczegółowo

ĆWICZENIE 5: Sztuczne sieci neuronowe

ĆWICZENIE 5: Sztuczne sieci neuronowe Instytut Mechaniki i Inżynierii Obliczeniowej Wydział Mechaniczny Technologiczny, Politechnika Śląska www.imio.polsl.pl METODY HEURYSTYCZNE ĆWICZENIE 5: Sztuczne sieci neuronowe opracował: dr inż. Witold

Bardziej szczegółowo

Ćwiczenie 0 : Wprowadzenie do cyfrowego przetwarzania sygnałów. wyświetla listę tematów pomocy. wyświetla okno pomocy (Help / Product Help)

Ćwiczenie 0 : Wprowadzenie do cyfrowego przetwarzania sygnałów. wyświetla listę tematów pomocy. wyświetla okno pomocy (Help / Product Help) Wybr ane za gadnienia elektr oniki współczesnej Ćwiczenie 0 : Wprowadzenie do cyfrowego przetwarzania sygnałów. 1 Cel ćwiczenia Pierwsze zajęcia laboratoryjne z zakresu przetwarzania sygnałów mają na celu

Bardziej szczegółowo

AUTOMATYKA I SYSTEMY SCADA Automatization and SCADA systems

AUTOMATYKA I SYSTEMY SCADA Automatization and SCADA systems Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 lutego 2012r. KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu Naza modułu Naza modułu języku angielskim Oboiązuje od roku akademickiego 2012/2013 AUTOMATYKA

Bardziej szczegółowo