Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania. Metody sztucznej inteligencji
|
|
- Sylwester Domański
- 7 lat temu
- Przeglądów:
Transkrypt
1 Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemó Steroania Metody sztucznej inteligencji Neuron, arsta neuronoa, sieci neuronoe - poierzchnie odpoiedzi sieci neuronoych, Zajęcia laboratoryjne termin T1 Materiały pomocnicze do ćiczeń Opracoanie: Kazimierz Duzinkieicz, dr hab. inż. Michał Grochoski, dr inż.
2 Podany niżej materiał zaiera przypomnienie ybranych fragmentó ykładu oraz dodatkoe informacje umożliiające torzenie struktur sztucznych sieci neuronoych środoisku MATLAB a z ykorzystaniem przybornika Neural Netork ver W szczególności zaiera on opis podstaoych elementó neuronu, funkcje aktyacji (przejścia), opis głónych instrukcji dostępnych przyborniku Matlaba oraz przykład utorzenia i nauczenia sieci neuronoej perceptronoej. W obecnej ersji Matlaba podstaoe funkcje i komendy torzące sieć neuronoą są inne - znacznie iększym stopniu samodzielnie (domyślnie) proponują sieć neuronoą adekatną do ykonyanego zadania. Jednak dla zrozumienia podstaoych mechanizmó rządzących sieciami neuronoymi, korzystniej jest na etapie początkoym korzystać z komend podstaoych, zamieszczonych niniejszym materiale. Komendy z aktualnej ersji Matlaba ( ) są ymienione Zadaniu6 instrukcji laboratoryjnej. Proszę się zapoznać z ich działaniem. Sztuczne sieci neuronoe pojedynczy neuron Sieć neuronoa jest charakteryzoana przez: 1. funkcje edług których neuron reaguje na docierające do niego pobudzenia, nazyane funkcjami pobudzania (propagacji) i funkcjami aktyacji; 2. strukturę połączeń pomiędzy neuronami, nazyaną architekturą sieci; 3. metodę określania ag tych połączeń, nazyaną algorytmem uczenia. p 1 Wagi 1,1 Funkcja pobudzania (propagacji) Funkcja aktyacji Sygnał odpoiedzi Sygnały ejścioe p 2. p j. 1,2. 1,j. g() b s Próg n s a s f() Wyjście Sygnał pobudzenia p R 1,R Rys 1. Schemat sztucznego modelu neuronu. gdzie: R- ilość ejść, S- ilość neuronó arstie, 2
3 Rys. 2 pokazuje jak taki neuron jest przedstaiany dokumentacji Matlab a raz z przyjętymi oznaczeniami ejść, ag, progu oraz yjścia. Wejście Neuron Rys 2. Schemat neuronu z pojedynczym ejściem. Symbole i notacja przyjęta Matlabie. Dla tego przypadku ymiary macierzy opisujących neuron są następujące: p p; W ; b b ; a a W przypadku gdy na ejście neuronu podaane jest iele sygnałó, neuron oraz jego schemat ygląda następująco: Wejście Neuron z ieloma ejściami gdzie: R- ilość ejść, Rys 3. Schemat neuronu z ieloma (R) ejściami. Wejście Neuron z ieloma ejściami 3 gdzie: R- ilość ejść, Rys 4. Schemat neuronu z ieloma (R) ejściami. Symbole i notacja przyjęta Matlabie.
4 Wymiary macierzy opisujących neuron są dla tego przypadku następujące: p p p 1 R 2 p ; R W ; b b ; a a 1, 2, Funkcje aktyacji (przejścia) neuronu Na rysunkach Rys. 5-7 przedstaiono przykłady funkcji aktyacji, odpoiednio przekaźnikoej niesymetrycznej, linioej oraz logarytmiczno- sigmoidalnej. Wszystkie dostępne przyborniku instrukcje zamieszczone są Tablicy 1. Rys 5. Przekaźnikoa, niesymetryczna funkcja aktyacji. Gdzie: p oznacza sygnał ejścioy do neuronu, n oznacza sygnał pobudzenia neuronu, a oznacza sygnał yjścia z neuronu, oznacza artość agi ejścia neuronu, natomiast b oznacza artość progu. Rys 6. Linioa funkcja aktyacji. Rys 7. Logarytmiczno- sigmoidalna, niesymetryczna funkcja aktyacji. 4
5 Tablica 1. Funkcje aktyacji (przejścia) dostępne przyborniku Neural Netork ver , Matlaba. Naza funkcji Relacja ejście/yjście Symbol Funkcja Matlabie przekaźnikoa unipolarna (niesymetryczna) przekaźnikoa bipolarna (symetryczna) linioa linioa z nasyceniem niesymetryczna linioa z nasyceniem symetryczna sigmoidalna logarytmiczna unipolarna (niesymetryczna) sigmoidalna tangensa hiperbolicznego bipolarna (symetryczna) linioa dodatnia spółzaodnicta (ryalizacji) a=1 neuron z max n a=0 szystkie inne neurony Poniżej na Rys. 8 przedstaiono przykład neuronu z symetryczną funkcją aktyacji (perceptron progoy) i doma ejściami. Wejścia Neuron du-ejścioy Rys 8. Neuron z przekaźnikoą, symetryczna funkcją aktyacji z doma ejściami perceptron progoy. 5
6 Wymiary macierzy dla tego neuronu są następujące: p p 1 p ; 1,1 1,2 2 W ; b b ; a a Sztuczne sieci neuronoe arsta neuronó Na rysunkach Rys 9 i 10 zilustroano pojedynczą arstę sieci neuronoej, raz z opisem jej parametró. Wejścia Sieć złożona z S neuronó gdzie: R- ilość ejść, S- ilość neuronó arstie, Rys 9. Schemat arsty sieci neuronoej. Wejście Warsta z funkcją przekaźnikoą Rys 10. Neuron z przekaźnikoą, niesymetryczna funkcją aktyacji perceptron progoy. Symbole i notacja przyjęta Matlabie. 6
7 7 Wymiary macierzy dla arsty neuronó są następujące: R 2 1 p p p p S,R S,2 S,1 2,R 2,2 2,1 1,R 1,2 1,1 W S 2 1 b b b b S 2 1 a a a a Sztuczne sieci neuronoe siec ieloarstoa Na Rys 11 i 12 zilustroano ieloarstoą (trójarstoą) jednokierunkoą sieć neuronoą. Jak można zauażyć yjścia każdej z arst sieci neuronoej stają się ejściami kolejnej z arst. gdzie: R- ilość ejść, s 1 - ilość neuronó arstie pierszej, s 2 - ilość neuronó arstie drugiej, s 3 - ilość neuronó arstie trzeciej, Rys 11. Schemat ieloarstoej, jednokierunkoej sieci neuronoej. Wejścia Piersza arsta Druga arsta Trzecia arsta
8 Wejście Piersza arsta Druga arsta Trzecia arsta gdzie: R- ilość ejść, S 1 - ilość neuronó arstie pierszej, S 2 - ilość neuronó arstie drugiej, S 3 - ilość neuronó arstie trzeciej, Rys 12. Schemat ieloarstoej, jednokierunkoej sieci neuronoej. Symbole i notacja przyjęta Matlabie. 8
9 Podstaoe instrukcje przybornika Matlaba Netork Toolbox ver Poniżej Tablicy 2 przedstaiono ażniejsze instrukcje zaarte przyborniku Matlaba, Neural Netork Toolbox ver Więcej instrukcji można uzyskać po pisaniu polecenia help nnet, natomiast szczegóły konkretnej instrukcji, takie jak: zastosoanie, składnia, algorytm działania, przykład zastosoania, można uzyskać poleceniem help doolna instrukcja np. help nep. Tablica 2 Instrukcje przybornika Matlaba, Neural Netork Toolbox ver Instrukcja Krótki opis instrukcji Torzenie sieci netork torzy doolną sieć neuronoą (użytkonika) nec torzy arstę z funkcją spółzaodnicta necf torzy kaskadoą jednokierunkoą sieć ieloarstoą uczoną metodą propagacji stecznej błędu neff torzy kaskadoą jednokierunkoą sieć ieloarstoą uczoną metodą propagacji stecznej błędu nefftd torzy kaskadoą jednokierunkoą sieć ieloarstoą z ejściami opóźniającymi, uczoną metodą propagacji stecznej błędu nelin torzy arstę z linioą funkcją aktyacji nelind torzy arstę z linioą funkcją aktyacji nep torzy perceptron progoy Funkcje pobudzania sieci netprod Funkcja iloczynu ejść netsum Funkcja sumy ejść Funkcje inicjalizujące parametry sieci initlay Funkcja inicjalizująca agi i progi sieci za pomocą metody inicjalizacji przypisanej dla każdej z arst tej sieci sieci Funkcje określające jakość działania sieci mae Funkcja określająca średni błąd bezzględny mse Funkcja określająca błąd średniokadratoy msereg Funkcja określająca błąd średniokadratoy i średnią kadrató artości ag i progó sse Funkcja określająca sumę błędó średniokadratoych Metody uczenia learncon metoda uczenia learngd metoda uczenia Gradient descent learngdm metoda uczenia Gradient descent ith momentum learnis metoda uczenia LVQ2 Instar learnlv1 metoda uczenia LVQ1 learnlv2 metoda uczenia LVQ2 learnos metoda uczenia Outstar learnp zmiany ag i progó przy pomocy metody Rosenblatt a learnpn zmiany ag i progó przy pomocy znormalizoanej metody uczenia perceptronu learnh zmiany ag i progó przy pomocy metody Widroa-Hoffa Obróbka danych ejścioych i yjścioych prestd normalizuje dane tak aby miały odchylenie standardoe róne 1 oraz średnią róną 0 poststd odraca działanie instrukcji prestd trastd przekształca dane do postaci adekatnej do tych ygeneroanych przez funkcję prestd premnmx normalizuje dane tak aby ich maksymalna i minimalna artość ynosiła odpoiednio 1 oraz -1 postmnmx odraca działanie instrukcji premnmx tramnmx przekształca dane do postaci adekatnej do tych ygeneroanych przez funkcję premnmx 9
10 prepca analiza danych ejścioych metodą PCA (Principal Component Analysis) trapca przekształca dane do postaci adekatnej do tych ygeneroanych przez funkcję prepc postreg analiza mtodą regresji linioej jakości nauczania sieci Metody uczenia trainb Proces zmian ag i progó (uczenie) trybie sadoym trainbfg Proces zmian ag i progó (uczenie) metodą propagacji stecznej quasi-netona trainbr Proces zmian ag i progó (uczenie) metodą regularyzacji Bayesiana trainc Cyclical order incremental training /learning functions traincgb Proces zmian ag i progó (uczenie) metodą propagacji stecznej Poell-Beale traincgf Proces zmian ag i progó (uczenie) metodą propagacji stecznej Fletcher-Poella traincgp Proces zmian ag i progó (uczenie) metodą propagacji stecznej Polak-Ribiere a traingd Proces zmian ag i progó (uczenie) metodą propagacji stecznej Gradient descent traingdm Proces zmian ag i progó (uczenie) metodą propagacji stecznej Gradient descent ith momentum traingda Proces zmian ag i progó (uczenie) metodą propagacji stecznej Gradient descent z adaptacją spółczynnika szybkości uczenia traingdx Proces zmian ag i progó (uczenie) metodą propagacji stecznej Gradient descent ith momentum z adaptacją spółczynnika szybkości uczenia trainlm Proces zmian ag i progó (uczenie) metodą propagacji stecznej Levenberg- Marquardta trainoss Proces zmian ag i progó (uczenie) metodą propagacji stecznej One step secant trainrp Proces zmian ag i progó (uczenie) metodą propagacji stecznej Resilient (Rprop) trainscg Proces zmian ag i progó (uczenie) metodą propagacji stecznej Scaled conjugate gradient Funkcje aktyacji compet Funkcja spółzaodnicta hardlim Funkcja przekaźnikoa unipolarna (niesymetryczna) hardlims Funkcja przekaźnikoa bipolarna (symetryczna) logsig Funkcja sigmoidalna logarytmiczna unipolarna (niesymetryczna) poslin Funkcja linioa dodatnia purelin Funkcja linioa radbas Funkcja Gaussa (Radial Basis) satlin Funkcja linioa z nasyceniem niesymetryczna satlins Funkcja linioa z nasyceniem symetryczna tansig Funkcja sigmoidalna tangensa hiperbolicznego bipolarna (symetryczna) Funkcje ułatiające analizę errsurf Poierzchnia błędu neuronu z pojedynczym ejściem maxlinlr Maksymalny spółczynnik szybkości uczenia dla sieci linioej Funkcje inicjalizujące parametry arsty initn Funkcja inicjalizująca agi i progi arsty za pomocą metody Nguyen-Widro a initb Funkcja inicjalizująca agi i progi arsty za pomocą metody przypisanej dla tej sieci sieci Operacje na ektorach cell2mat zamienia elementy tablicy blokoej (cell array) jedną macierz concur torzy rónoażne ektory progó con2seq zamienia elementy ektora na tożsamą sekencję ektoró combvec torzy szystkie możlie kombinacje ektoró mat2cell zamienia macierz tablicę blokoą minmax yznacza zakresy (min i max) ierszy macierzy nncopy torzy kopie macierzy ( pionie i poziomie) normc normalizuje kolumny macierzy do zakresu [-1; 1] normr normalizuje iersze macierzy do zakresu [-1; 1] seq2con zamienia sekencję ektoró na tożsame ektory sumsqr yznacza sumę kadrató elementó macierzy Operacje na sieciach sim symuluje sieć neuronoą init inicjalizuje sieć neuronoą 10
11 adapt train hinton hintonb plotes plotpc plotpv plotep plotperf plotv plotvec nntool gensim uczenie adaptacyjne sieci neuronoej uczenie sieci neuronoej Wykresy ykreśla agi neuronó na grafie Hintona ykreśla agi i progi neuronó na grafie Hintona ykreśla poierzchnię błędu dla neuronu z jednym ejściem ykreśla proste decyzyjne na ykresie plotpv problemu klasyfikacji przy użyciu perceptrona ykreśla ejścia oraz artości doceloe zagadnienia klasyfikacji przy użyciu perceptrona pokazuje aktualną artość ag i progó na poierzchni błędu ykreślonej poleceniem plotes ykreśla jakość odpoiedzi sieci trakcie uczenia ykreśla ektory postaci linii ykreśla ektory rozróżniając je kolorami Inne Graficzny Interfejs Użytkonika dla przybornika Neural Netork Toolbox Generuje sieć neuronoą do środoiska Simulink 11
12 Przykład utorzenia i nauczenia sieci neuronoej, perceptronoej. Poniżej przedstaiono podstaoe komendy służące do utorzenia sieci neuronoej na przykładzie sieci perceptronoej. Proces torzenia innych sieci jest podobny, zmieniają się jedynie parametry i niektóre instrukcje. Do utorzenia sieci perceptronoej służy instrukcja nep. Składnia siec = nep(pr,s,tf,lf) Parametrami tej instrukcji są: PR macierz o ymiarach Rx2 minimalnych i maksymalnych artości R elementó macierzy ejść. S - Liczba neuronó. TF funkcja aktyacji (przejścia), domyślnie = 'hardlim'. LF metoda uczenia, domyślnie = 'learnp'. Nie jest konieczne podaanie parametró TF oraz LF. Efektem ykonania tej instrukcji jest utorzenie sieci perceptronoej. Pod nazą siec zostaje utorzona struktura której zapisane są szelkie informacje na temat utorzonej sieci. Inicjalizacja sieci Instrukcja nep inicjalizuje rónież (nadaje) początkoe (zeroe) artości ag i progó (metodą ). Wagi łączące ejścia z siecią są zapisane strukturze siec.iw. Progi sieci są zapisane strukturze siec.b. Możemy, rónież samodzielnie dobierać artości tych elementó, np.: siec.iw{1,1}=[2 4] siec.b{1}=[5] Aby przyrócić domyślne ustaienia ag i progó (inicjalizacja parametró sieci) należy użyć np. instrukcji init. siec = init(siec); Symulacja sieci Aby zbadać odpoiedź sieci na ektor ejść musimy posłużyć się instrukcją sim. Składnie tej instrukcji uzyskamy po pisaniu oknie głónym Matlaba help sim, przeażnie ystarczające jest podanie składni instrukcji sieci jaką chcemy symuloać oraz skazaniu ektora ejść, tym przypadku P: Y = sim(siec,p); Symuluje odpoiedź sieci siec na ejście P 12
13 Zdefiniujmy teraz ektor ejścioy P jako: P = [ ; ]; Oraz ektor zorcó T: T = [ ]; Rezultatem jest odpoiedź sieci: Y = który nie jest zgodny z oczekianiami (zorcami T). Aby osiągnąć porządane artości yjścioe (zgodne ze zorcem) należy odpoiednio dobrać artości ag i progó, czyli nauczyć sieć popranie odpoiadać. Przykład Zaprojektuj sieć perceptronoą złożoną z jednego neuronu o dóch ejściach. Piersze ejście poinno być zakresie [0 ; 1] natomiast drugie ejście zakresie [-2 ; 2]. Zapisz projektoaną strukturę pod nazą siec. W odpoiedzi na cześniej zdefinioany ektor P, sieć poinna odpoiadać zgodnie z ektorem T. siec = nep([0 1; -2 2],1); Spradźmy odpoiedzi sieci na ektor P: Y = sim(siec,p) Y = Uczenie sieci Jak idzimy sieć nie odpoiada zgodnie z ektorem T. Aby doproadzić do popranych odpoiedzi, musimy zmienić artości ag i progó, samodzielnie lub procesie uczenia. Proces uczenia yołujemy przy pomocy instrukcji train. Instrukcja ta yołuje domyślną dla danej sieci metodę uczenia (modyfikacji ag i progó) tak aby dopasoać je do ektora T. Więcej opcji instrukcji train, po pisaniu help train. siec = train(siec,p,t); Po procesie uczenia, spradźmy pononie odpoiedzi sieci. Y = sim(siec,p) 13
14 Y = Jak idzimy sieć odpoiedziała popranie. To kończy zadanie. Możemy rónież spradzić przy jakich artościach ag i progó zostało to osiągnięte: siec.iw{1,1} siec.iw{1,1} =[1 1] siec.b{1} =[-1] Zmiana domyślnych parametró sieci Po utorzeniu doolnej sieci, przypisane są im domyślnie różne parametry takie jak np. metoda uczenia, metoda inicjalizacji, metody badania jakości działania sieci, przebieg procesu uczenia sieci i iele innych. Dla ich przeglądnięcia należy oknie głónym Matlaba podać nazę utorzonej sieci. Parametry te możemy rónież zmieniać. Dokonujemy tego zmieniając przy pomocy odpoiednich komend doolne parametry. Poniżej zamieszczono podstaoe z nich (dla sieci perceptronoej utorzonej komendą nep). Funkcje: adaptfcn: 'trains' initfcn: 'initlay' performfcn: 'mae' trainfcn: 'trainc' Parametry: adaptparam:.passes initparam: (none) performparam: (none) trainparam:.epochs,.goal,.sho,.time Zmiana domyślnych parametró sieci (artości przykładoe): net.trainparam.sho = 50; net.trainparam.lr = 0.05; net.trainparam.epochs = 300; net.trainparam.goal = 1e-5; 14
Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych
Uniersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Steroania i Systemó Informatycznych ELEMENTY SZTUCZNEJ INTELIGENCJI Semestr letni 2010 Laboratorium nr 4 LINIOWE
Podstawowe funkcje biblioteki narzędziowej Neural Network Toolbox. Version 5 pakietu MATLAB v. 6
Podstawowe funkcje biblioteki narzędziowej Neural Network Toolbox. Version 5 pakietu MATLAB v. 6 I. Funkcje przeznaczone do tworzenia jednokierunkowej sieci neuronowej newff newp newlin - tworzenie wielowarstwowej
MATLAB Neural Network Toolbox uczenie sieci (dogłębnie)
MATLAB Neural Network Toolbox uczenie sieci (dogłębnie) WYKŁAD Piotr Ciskowski Neural Network Toolbox: NEURAL NETWORK TOOLBOX NOTACJA Neural Network Toolbox - notacja: pojedynczy neuron: z jednym wejściem
Podstawy Sztucznej Inteligencji
Politechnika Łódzka Katedra Informatyki Stosowanej Podstawy Sztucznej Inteligencji Laboratorium Ćwiczenie 2 Wykorzystanie środowiska Matlab do modelowania sztucznych sieci neuronowych Opracowali: Dr hab
Sztuczne siei neuronowe - wprowadzenie
Metody Sztucznej Inteligencji w Sterowaniu Ćwiczenie 2 Sztuczne siei neuronowe - wprowadzenie Przygotował: mgr inż. Marcin Pelic Instytut Technologii Mechanicznej Politechnika Poznańska Poznań, 2 Wstęp
Podstawowe funkcje biblioteki narzędziowej Neural Network Toolbox. Version 5 pakietu MATLAB v. 7.1
POLITECHNIKA BIAŁOSTOCKA WYDZIAŁ ELEKTRYCZNY KATEDRA AUTOMATYKI I ELEKTRONIKI Podstawowe funkcje biblioteki narzędziowej Neural Network Toolbox. Version 5 pakietu MATLAB v. 7.1 Materiały pomocnicze do
POPRAWA EFEKTYWNOŚCI METODY WSTECZNEJ
Nowoczesne techniki informatyczne - Ćwiczenie 6: POPRAWA EFEKTYWNOŚCI METODY BP str. 1 Ćwiczenie 6: UCZENIE SIECI WIELOWARSTWOWYCH. POPRAWA EFEKTYWNOŚCI METODY WSTECZNEJ PROPAGACJI BŁĘDU WYMAGANIA 1. Sztuczne
Politechnika Warszawska
Politechnika Warszawska Programowa realizacja sieci neuronowych Zbigniew Szymański, Stanisław Jankowski grudzień 03 Instytut Informatyki Nowowiejska 5 / 9, 00-665 Warszawa Programowa realizacja sieci neuronowych
SYSTEMY UCZĄCE SIĘ WYKŁAD 5. UCZENIE SIĘ APROKSYMACJI FUNKCJI MODELE LINIOWE
SYSEMY UCZĄCE SIĘ WYKŁAD 5. UCZENIE SIĘ APROKSYMACJI FUNKCJI MODELE LINIOWE Częstochoa 4 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochoska MEODY APROKSYMACJI Metody aproksymacji
MATLAB Neural Network Toolbox przegląd
MATLAB Neural Network Toolbox przegląd WYKŁAD Piotr Ciskowski Neural Network Toolbox: Neural Network Toolbox - zastosowania: przykłady zastosowań sieci neuronowych: The 1988 DARPA Neural Network Study
Sieci neuronowe. Sebastian Bożek.
Sieci neuronoe Sebastian Bożek http://.biofizyk.pl Plan prezentacji. Metoda obliczeń i metoda skojarzeń 2. Neuron biologiczny 3. Model sztucznego neuronu 4. Funkcja aktyacji rodzaje sztucznych neuronó
Sztuczna Inteligencja Tematy projektów Sieci Neuronowe
PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia
Algorytmy sztucznej inteligencji
Algorytmy sztucznej inteligencji Dynamiczne sieci neuronowe 1 Zapis macierzowy sieci neuronowych Poniżej omówione zostaną części składowe sieci neuronowych i metoda ich zapisu za pomocą macierzy. Obliczenia
1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda
Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy
POLITECHNIKA OPOLSKA
POLITECHNIKA OPOLSKA WYDZIAŁ MECHANICZNY Katedra Technologii Maszyn i Automatyzacji Produkcji Laboratorium Inżynierii Jakości Ćiczenie nr 11 Temat: Karta kontrolna ruchomej średniej MA Zakres ćiczenia:
Zastosowania sieci neuronowych
Zastosowania sieci neuronowych klasyfikacja LABORKA Piotr Ciskowski zadanie 1. klasyfikacja zwierząt sieć jednowarstwowa żródło: Tadeusiewicz. Odkrywanie własności sieci neuronowych, str. 159 Przykład
Uczenie sieci typu MLP
Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik
IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ
IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,
ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE
ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE INSTYTUT TECHNOLOGII MECHANICZNEJ Metody Sztucznej Inteligencji Sztuczne Sieci Neuronowe Wstęp Sieci neuronowe są sztucznymi strukturami, których
Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.
Wstęp do teorii sztucznej inteligencji Wykład III Modele sieci neuronowych. 1 Perceptron model najprostzszy przypomnienie Schemat neuronu opracowany przez McCullocha i Pittsa w 1943 roku. Przykład funkcji
Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści
Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, 2013 Spis treści Przedmowa 7 1. Wstęp 9 1.1. Podstawy biologiczne działania neuronu 9 1.2. Pierwsze modele sieci neuronowej
Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE
Temat: Sztuczne Sieci Neuronowe Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sztuczne sieci neuronowe
Laboratorium nr 2. Identyfikacja systemu i detekcja uszkodzeń na podstawie modelu
Instytut Sterowania i Systemów Informatycznych Uniwersytet Zielonogórski Diagnostyka procesów i systemów Prowadzący: Marcel Luzar 1 Laboratorium nr 2 Identyfikacja systemu i detekcja uszkodzeń na podstawie
Metody Sztucznej Inteligencji II
17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału
Algorytmy wstecznej propagacji sieci neuronowych
Algorytmy wstecznej propagacji sieci neuronowych Mateusz Nowicki, Krzysztof Jabłoński 1 Wydział Inżynierii Mechanicznej i Informatyki Politechnika Częstochowska Kierunek Informatyka, Rok III 1 krzysztof.jablonski@hotmail.com
WPROWADZENIE DO ŚRODOWISKA SCICOS
Politechnika Gdańska Wydział Elektrotechniki i Automatyki WPROWADZENIE DO ŚRODOWISKA SCICOS Materiały pomocnicze do ćwiczeń laboratoryjnych Oryginał: Modeling and Simulation in Scilab/Scicos Stephen L.
Zastosowania sieci neuronowych
Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką
METODY INŻYNIERII WIEDZY
METODY INŻYNIERII WIEDZY SZTUCZNE SIECI NEURONOWE MLP Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i Inżynierii
Identyfikacja obiektów dynamicznych za pomocą sieci neuronowych
Metody Sztucznej Inteligencji w Sterowaniu Ćwiczenie 3 Identyfikacja obiektów dynamicznych za pomocą sieci neuronowych Przygotował: mgr inż. Marcin Pelic Instytut Technologii Mechanicznej Politechnika
Metody jakościowe i ilościowe na usługach wyceny nieruchomości
POLANICA ZDRÓJ, 16-18 rześnia 007 etody jakościoe i ilościoe na usługach yceny nieruchomości Anna Barańska Katedra Informacji o erenie Wydział Geodezji Górniczej i Inżynierii Środoiska Akademia Górniczo
Ocena struktury geometrycznej powierzchni
Wrocła, dnia Metrologia Wielkości Geometrycznych Ćiczenie 4 Rok i kierunek 1. 2.. Grupa (dzień i godzina rozpoczęcia zajęć) Imię i nazisko Imię i nazisko Imię i nazisko Ocena struktury geometrycznej poierzchni
Sieci neuronowe w Statistica
http://usnet.us.edu.pl/uslugi-sieciowe/oprogramowanie-w-usk-usnet/oprogramowaniestatystyczne/ Sieci neuronowe w Statistica Agnieszka Nowak - Brzezińska Podstawowym elementem składowym sztucznej sieci neuronowej
ALGORYTMY SZTUCZNEJ INTELIGENCJI
ALGORYTMY SZTUCZNEJ INTELIGENCJI Sieci neuronowe 06.12.2014 Krzysztof Salamon 1 Wstęp Sprawozdanie to dotyczy ćwiczeń z zakresu sieci neuronowych realizowanym na przedmiocie: Algorytmy Sztucznej Inteligencji.
Krzysztof JURCZYK * 1. WPROWADZENIE
Logistyka nauka Krzysztof JURCZYK * ZASTOSOWANIE SZTUCZNYCH SIECI NEURONOWYCH JAKO NARZĘDZIA WSPOMAGAJĄCEGO ZARZĄDZANIE ZAPASAMI I PLANOWANIE POPYTU NA PRZYKŁADZIE PRZEDSIĘBIORSTWA DYSTRYBUCYJNEGO Streszczenie
ZASTOSOWANIE SZTUCZNYCH SIECI NEURONOWYCH W ANALIZIE SYGNAŁÓW ELEKTROKARDIOGRAFICZNYCH
ZASTOSOWANIE SZTUCZNYCH SIECI NEURONOWYCH W ANALIZIE SYGNAŁÓW ELEKTROKARDIOGRAFICZNYCH USING ARTIFICIAL NEURAL NETWORKS FOR ANALYSIS OF ELECTROCARDIOGRAPHIC SIGNALS Monika Litwińska * Politechnika Gdańska,
Uczenie sieci radialnych (RBF)
Uczenie sieci radialnych (RBF) Budowa sieci radialnej Lokalne odwzorowanie przestrzeni wokół neuronu MLP RBF Budowa sieci radialnych Zawsze jedna warstwa ukryta Budowa neuronu Neuron radialny powinien
Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska
Sieci neuronowe w Statistica Agnieszka Nowak - Brzezioska Podstawowym elementem składowym sztucznej sieci neuronowej jest element przetwarzający neuron. Schemat działania neuronu: x1 x2 w1 w2 Dendrites
Instrukcja realizacji ćwiczenia
SIEĆ KOHONENA ROZPOZNAWANIE OBRAZÓW Cel ćwiczenia: zapoznanie się ze sposobem reprezentacji wiedzy w sieciach Kohonena i mechanizmami sąsiedztwa i sumienia neuronów. Zadanie do analizy: analizujemy sieć
LABORATORIUM TEORII STEROWANIA. Ćwiczenie 6 RD Badanie układu dwupołożeniowej regulacji temperatury
Wydział Elektryczny Zespół Automatyki (ZTMAiPC). Cel ćiczenia LABORATORIUM TEORII STEROWANIA Ćiczenie 6 RD Badanie układu dupołożenioej regulacji temperatury Celem ćiczenia jest poznanie łaściości regulacji
Podstawy Sztucznej Inteligencji (PSZT)
Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa
Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak
2 Rozdział 1 Sztuczne sieci neuronowe. 3 Sztuczna sieć neuronowa jest zbiorem prostych elementów pracujących równolegle, których zasada działania inspirowana jest biologicznym systemem nerwowym. Sztuczną
Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania
Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Struktury i Algorytmy Wspomagania Decyzji Zadanie projektowe 2 Czas realizacji: 6 godzin Maksymalna liczba
Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania
Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Teoria sterowania MATLAB funkcje zewnętrzne (m-pliki, funkcje) Materiały pomocnicze do ćwiczeń laboratoryjnych
Podstawy sztucznej inteligencji
wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,
Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.
Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2
8. Neuron z ciągłą funkcją aktywacji.
8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i
HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM
ZASTOSOWANIE SIECI NEURONOWYCH W SYSTEMACH AKTYWNEJ REDUKCJI HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM WPROWADZENIE Zwalczanie hałasu przy pomocy metod aktywnych redukcji hałasu polega
Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania
Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Teoria sterowania Odpowiedzi czasowe ciągłych i dyskretnych systemów dynamicznych Zadania do ćwiczeń laboratoryjnych
Inteligentne systemy przeciw atakom sieciowym
Inteligentne systemy przeciw atakom sieciowym wykład Sztuczne sieci neuronowe (SSN) Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 1 / 36 Biologiczne
(1.1) (1.2) (1.3) (1.4) (1.5) (1.6) Przy opisie zjawisk złożonych wartości wszystkich stałych podobieństwa nie mogą być przyjmowane dowolnie.
1. Teoria podobieństa Figury podobne geometrycznie mają odpoiadające sobie kąty róne, a odpoiadające sobie boki są proporcjonane 1 n (1.1) 1 n Zjaiska fizyczne mogą być podobne pod arunkiem, że zachodzą
Metody sztucznej inteligencji Artificial Intelligence Methods
Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 utego 2012r. KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu ETI 7/1 Naza modułu Metody sztucznej inteigencji Artificia Inteigence Methods Naza modułu
WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)
WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO Stanisław Kowalik (Poland, Gliwice) 1. Wprowadzenie Wstrząsy podziemne i tąpania występujące w kopalniach
Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania
Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Technologie informatyczne Wprowadzenie do Simulinka w środowisku MATLAB Pytania i zadania do ćwiczeń laboratoryjnych
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska
Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek
Sztuczne sieci neuronowe Ćwiczenia Piotr Fulmański, Marta Grzanek Piotr Fulmański 1 Wydział Matematyki i Informatyki, Marta Grzanek 2 Uniwersytet Łódzki Banacha 22, 90-232, Łódź Polska e-mail 1: fulmanp@math.uni.lodz.pl,
Oprogramowanie Systemów Obrazowania SIECI NEURONOWE
SIECI NEURONOWE Przedmiotem laboratorium jest stworzenie algorytmu rozpoznawania zwierząt z zastosowaniem sieci neuronowych w oparciu o 5 kryteriów: ile zwierzę ma nóg, czy żyje w wodzie, czy umie latać,
2 Rachunek macierzowy, metoda eliminacji Gaussa-Jordana Wprowadzenie teoretyczne Zadania... 13
Spis treści Podstaoe struktury algebraiczne Grupa, pierścień, ciało Grupy permutacji 4 3 Pierścień ielomianó, algorytm Euklidesa, najiększy spólny dzielnik 6 4 Zadania 7 Rachunek macierzoy, metoda eliminacji
Zrealizować sieć neuronową (learnbpm) uczącą się odwzorowania z = x 2 + y 2 dla x i y zmieniających się od -1 do 1.
Politechnika Rzeszowska Wydział Elektrotechniki i Informatyki Mateusz Błażej Nr albumu: 130366 Zrealizować sieć neuronową (learnbpm) uczącą się odwzorowania z = x 2 + y 2 dla x i y zmieniających się od
Temat: Sieci neuronowe oraz technologia CUDA
Elbląg, 27.03.2010 Temat: Sieci neuronowe oraz technologia CUDA Przygotował: Mateusz Górny VIII semestr ASiSK Wstęp Sieci neuronowe są to specyficzne struktury danych odzwierciedlające sieć neuronów w
Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0
Uczenie się pojedynczego neuronu W0 X0=1 W1 x1 W2 s f y x2 Wp xp p x i w i=x w+wo i=0 Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z=0 Wówczas: W 1 x 1 + w 2 x 2 + = 0 Algorytm
BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.
Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej BIOCYBERNETYKA Adrian Horzyk SIECI NEURONOWE www.agh.edu.pl Mózg inspiruje nas od wieków Co takiego
Sztuczne sieci neuronowe (SNN)
Sztuczne sieci neuronowe (SNN) Pozyskanie informacji (danych) Wstępne przetwarzanie danych przygotowanie ich do dalszej analizy Selekcja informacji Ostateczny model decyzyjny SSN - podstawy Sieci neuronowe
Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017
Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład III bogumil.konopka@pwr.edu.pl 2016/2017 Wykład III - plan Regresja logistyczna Ocena skuteczności klasyfikacji Macierze pomyłek Krzywe
Metody Optymalizacji Optimization Methods. Elektrotechnika I stopień (I stopień / II stopień) Ogólno akademicki (ogólno akademicki / praktyczny)
Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 lutego 2012r. KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu Naza modułu Naza modułu języku angielskim Oboiązuje od roku akademickiego 2012/2013 Metody
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 8. SZTUCZNE SIECI NEURONOWE INNE ARCHITEKTURY Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska SIEĆ O RADIALNYCH FUNKCJACH BAZOWYCH
ĆWICZENIE 4 ZASTOSOWANIE METOD I NARZĘDZI LOGIKI ROZMYTEJ DO KLASYFIKACJI DANYCH I APROKSYMACJI ODWZOROWAŃ STATYCZNYCH
Politechnika Białostocka Wydział Elektryczny Katedra Automatyki i Elektroniki ĆWICZENIE 4 ZASTOSOWANIE METOD I NARZĘDZI LOGIKI ROZMYTEJ DO KLASYFIKACJI DANYCH I APROKSYMACJI ODWZOROWAŃ STATYCZNYCH Pracownia
GENERATOR PROGRAM. Instrukcja użytkownika
ALBECO Soft mgr inż. Piotr Berłoski ul. Warzyniaka 11 60-506 Poznań piotrber@albeco.poznan.pl.albeco.poznan.pl tel. 8420-027, fax 8420-228 PROGRAM GENERATOR Instrukcja użytkonika ersja 0.9 23.04.2004-1/8
Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści
Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, 2012 Spis treści Przedmowa do wydania drugiego Przedmowa IX X 1. Wstęp 1 2. Wybrane zagadnienia sztucznej inteligencji
Lekcja 5: Sieć Kohonena i sieć ART
Lekcja 5: Sieć Kohonena i sieć ART S. Hoa Nguyen 1 Materiał Sieci Kohonena (Sieć samo-organizująca) Rysunek 1: Sieć Kohonena Charakterystyka sieci: Jednowarstwowa jednokierunkowa sieć. Na ogół neurony
Adrian Horzyk
Metody Inteligencji Obliczeniowej Metoda K Najbliższych Sąsiadów (KNN) Adrian Horzyk horzyk@agh.edu.pl AGH Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej
Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.
Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. zajecia.jakubw.pl/nai Literatura: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym. WNT, Warszawa 997. PODSTAWOWE ZAGADNIENIA TECHNICZNE AI
DB Algebra liniowa 1 semestr letni 2018
DB Algebra linioa semestr letni 208 Teoria oraz iększość zadań niniejszym skrypcie zostały opracoane na podstaie książek:. G. Banaszak, W. Gajda, Elementy algebry linioej cz. I, Wydanicto Naukoo-Techniczne,
Elementy inteligencji obliczeniowej
Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego
Sztuczne sieci neuronowe
www.math.uni.lodz.pl/ radmat Cel wykładu Celem wykładu jest prezentacja różnych rodzajów sztucznych sieci neuronowych. Biologiczny model neuronu Mózg człowieka składa się z około 10 11 komórek nerwowych,
MODELOWANIE OSCYLACYJNYCH SIECI NEURONOWYCH W ŚRODOWISKU PROGRAMISTYCZNYM MATLAB
Wiesła Citko Akademia Morska Gdyni MODELOWANIE OSCYLACYJNYCH SIECI NEURONOWYCH W ŚRODOWISKU PROGRAMISTYCZNYM MATLAB W pracy poruszono zagadnienia ziązane z inteligencją obliczenioą, szczególności zaś przedstaiono
Deep Learning na przykładzie Deep Belief Networks
Deep Learning na przykładzie Deep Belief Networks Jan Karwowski Zakład Sztucznej Inteligencji i Metod Obliczeniowych Wydział Matematyki i Nauk Informacyjnych PW 20 V 2014 Jan Karwowski (MiNI) Deep Learning
Wersja jednorazowa. 200 MB 2 zł 24 godziny DOSTĘPNA wersja niedostępna
Regulamin usługi Pakiety internetoe taryfach Orange One, Orange Yes, Orange POP i Noe Orange Go ofercie Orange na kartę oboiązuje od dnia 20 lipca 2015 r. do odołania 1. Pakiety internetoe ( Usługa ) to
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA SYSTEMY ROZMYTE Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i Inżynierii Biomedycznej Laboratorium
ESI: Perceptrony proste i liniowe
ESI: Perceptrony proste i liniowe [Matlab 1.1] Matlab2015b i nowsze 1 kwietnia 2019 1. Cel ćwiczeń: Celem ćwiczeń jest zapoznanie się studentów z podstawami zagadnieniami z zakresu sztucznych sieci neuronowych.
Technologie cyfrowe semestr letni 2018/2019
Technologie cyfrowe semestr letni 2018/2019 Tomasz Kazimierczuk Wykład 10 (06.05.2019) Szachy Liczba możliwości: Pierwsze posunięcie białych: 20 Pierwsze posunięcie czarnych: 20 Ruch biały-czarny: 20 x
Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania
Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania MODELOWANIE I IDENTYFIKACJA Studia niestacjonarne Estymacja parametrów modeli, metoda najmniejszych kwadratów.
Egzamin z algebry liniowej 2003 r.
Egzamin z algebry linioej 003 r. Cześć I na ocene dostateczna Zadanie. Wyznacz szystkie liczby zespolone z takie, że a) z = 8 + 6i, b) ( + 3i) z = i. Zadanie. Wykonaj podane dzia lania macierzoe: [ 3 0
sieci jednowarstwowe w MATLABie LABORKA Piotr Ciskowski
sieci jednowarstwowe w ATLABie LABORKA Piotr Ciskowski trzy funkcje do obsługi sieci jednowarstwowej : init1.m - tworzy sieć, inicjuje wagi (losowo) dzialaj1.m symuluje działanie sieci (na pojedynczym
Cyfrowe Przetwarzanie Obrazów i Sygnałów
Cyfrowe Przetwarzanie Obrazów i Sygnałów Laboratorium EX0 Wprowadzenie Joanna Ratajczak, Wrocław, 2018 1 Cel i zakres ćwiczenia Celem ćwiczenia jest zapoznanie się ze środowiskiem Matlab/Simulink wraz
Optymalizacja systemów
Optymalizacja systemów Laboratorium - problem detekcji twarzy autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, P. Klukowski Cel zadania Celem zadania jest zapoznanie się z gradientowymi algorytmami optymalizacji
Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron
Elementy kognitywistyki II: Sztuczna inteligencja WYKŁAD X: Sztuczny neuron Koneksjonizm: wprowadzenie 1943: Warren McCulloch, Walter Pitts: ogólna teoria przetwarzania informacji oparta na sieciach binarnych
Aproksymacja danych doświadczalnych z badań trójosiowego ściskania gruntu przy użyciu perceptronu wielowarstwowego
Aproksymacja danych doświadczalnych z badań trójosiowego ściskania gruntu przy użyciu perceptronu wielowarstwowego Mgr inż. Dariusz Słowiński Uniwersytet Warmińsko-Mazurski w Olsztynie, Wydział Nauk Technicznych
instrukcja do ćwiczenia 3.4 Wyznaczanie metodą tensometrii oporowej modułu Younga i liczby Poissona
UT-H Radom Instytut Mechaniki Stosoanej i Energetyki Laboratorium Wytrzymałości Materiałó instrukcja do ćiczenia 3.4 Wyznaczanie metodą tensometrii oporoej modułu Younga i liczby Poissona I ) C E L Ć W
Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3
Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt
POWIATOWY URZĄD PRACY. W J A Ś L E 38-200 Jasło, Rynek 18 tel./fax: 0~13 446-50-83, e-mail: sekretariat@pup-jaslo.pl, www: pup-jaslo.
POWIATOWY URZĄD PRACY W J A Ś L E 38-200 Jasło, Rynek 18 tel./fax: 0~13 446-50-83, e-mail: sekretariat@pup-jaslo.pl, : pup-jaslo.pl PLAN SZKOLEŃ realizoanych przez Poiatoy Urząd Pracy Jaśle 2015 r. Lp.
Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym
Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW 17 XII 2013 Jan Karwowski
1.5. Iloczyn wektorowy. Definicja oraz k. Niech i
.. Iloczyn ektoroy. Definicj. Niech i, j orz k. Iloczynem ektoroym ektoró = i j k orz = i j k nzymy ektor i j k.= ( )i ( )j ( )k Skrótoo możn iloczyn ektoroy zpisć postci yzncznik: i j k. Poniżej podno
Symulacja działania sterownika dla robota dwuosiowego typu SCARA w środowisku Matlab/Simulink.
Symulacja działania sterownika dla robota dwuosiowego typu SCARA w środowisku Matlab/Simulink. Celem ćwiczenia jest symulacja działania (w środowisku Matlab/Simulink) sterownika dla dwuosiowego robota
Zad. 3: Układ równań liniowych
1 Cel ćwiczenia Zad. 3: Układ równań liniowych Wykształcenie umiejętności modelowania kluczowych dla danego problemu pojęć. Definiowanie właściwego interfejsu klasy. Zwrócenie uwagi na dobór odpowiednich
Optymalizacja systemów
Optymalizacja systemów Laboratorium Sudoku autor: A. Gonczarek Cel zadania Celem zadania jest napisanie programu rozwiązującego Sudoku, formułując problem optymalizacji jako zadanie programowania binarnego.
Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.
Wstęp do teorii sztucznej inteligencji Wykład II Uczenie sztucznych neuronów. 1 - powtórzyć o klasyfikacji: Sieci liniowe I nieliniowe Sieci rekurencyjne Uczenie z nauczycielem lub bez Jednowarstwowe I
ĆWICZENIE 5: Sztuczne sieci neuronowe
Instytut Mechaniki i Inżynierii Obliczeniowej Wydział Mechaniczny Technologiczny, Politechnika Śląska www.imio.polsl.pl METODY HEURYSTYCZNE ĆWICZENIE 5: Sztuczne sieci neuronowe opracował: dr inż. Witold
Ćwiczenie 0 : Wprowadzenie do cyfrowego przetwarzania sygnałów. wyświetla listę tematów pomocy. wyświetla okno pomocy (Help / Product Help)
Wybr ane za gadnienia elektr oniki współczesnej Ćwiczenie 0 : Wprowadzenie do cyfrowego przetwarzania sygnałów. 1 Cel ćwiczenia Pierwsze zajęcia laboratoryjne z zakresu przetwarzania sygnałów mają na celu
AUTOMATYKA I SYSTEMY SCADA Automatization and SCADA systems
Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 lutego 2012r. KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu Naza modułu Naza modułu języku angielskim Oboiązuje od roku akademickiego 2012/2013 AUTOMATYKA