MATLAB Neural Network Toolbox uczenie sieci (dogłębnie)

Save this PDF as:
 WORD  PNG  TXT  JPG

Wielkość: px
Rozpocząć pokaz od strony:

Download "MATLAB Neural Network Toolbox uczenie sieci (dogłębnie)"

Transkrypt

1 MATLAB Neural Network Toolbox uczenie sieci (dogłębnie) WYKŁAD Piotr Ciskowski

2 Neural Network Toolbox:

3 NEURAL NETWORK TOOLBOX NOTACJA

4 Neural Network Toolbox - notacja: pojedynczy neuron: z jednym wejściem

5 Neural Network Toolbox - notacja: funkcje aktywacji: hard-limit: pure lin: log sig:

6 Neural Network Toolbox - notacja: pojedynczy neuron: z wieloma wejściami

7 Neural Network Toolbox - notacja: warstwa neuronów:

8 Neural Network Toolbox - notacja: sieci wielowarstwowe: macierze wag: IW oraz LW indeksy przy macierzach wag: skąd-dokąd

9 Neural Network Toolbox - notacja: sieci wielowarstwowe:

10 NEURAL NETWORK TOOLBOX POJEDYNCZY NEURON LINIOWY - DZIAŁANIE

11 przykład 1. działanie neuronu liniowego - dane równoległe dane wejściowe: równoległe wszystkie wejścia pojawiają się w tym samym czasie, mają różne (niezależne) znaczenie net = newlin ( [ 1 3 ; 1 3 ], 1 ) net.b{1} = 0 ; net.iw{1,1} = [ 1 2 ] ; P = [ ; ] P = Y = sim ( net, P ) Y =

12 przykład 1. działanie neuronu liniowego - dane sekwencyjne dane wejściowe: sekwencyjne na jednym wejściu pojawia się sygnał będący sekwencją w czasie net = newlin ( [ -1 1 ], 1, [ 0 1 ] ) net.biasconnect = 0 ; net.iw{1,1} = [ 1 2 ] ; P = { } P = [1] [2] [3] [4] Y = sim ( net, P ) Y = [1] [4] [7] [10]

13 NEURAL NETWORK TOOLBOX POJEDYNCZY NEURON LINIOWY - UCZENIE PRZYROSTOWE

14 przykład 2. uczenie neuronu liniowego - przyrostowe uczenie: przyrostowe wagi i biasy są uaktualniane po prezentacji incremental każdego kolejnego przykładu [ net, Y, E, Pf, Af, tr ] = adapt ( net, P, T, Pi,Ai ) % wejścia: net - Network. P - Network inputs. T - Network targets, default = zeros. Pi - Initial input delay conditions, default = zeros. Ai - Initial layer delay conditions, default = zeros. % wyjścia: net - Updated network. Y - Network outputs. E - Network errors. Pf - Final input delay conditions. Af - Final layer delay conditions. TR - Training record (epoch and perf).

15 przykład 2. uczenie neuronu liniowego - przyrostowe uczenie: przyrostowe wagi i biasy są uaktualniane po prezentacji incremental każdego kolejnego przykładu Pmacierz = [ ; % t = 2 p 1 + p ] ; % P i T jako zwykłe macierze Tmacierz = [ ] ; % dla uczenia wsadowego Pcell = { [1;2] [2;1] [2;3] [3;1] } ; Tcell = { } ; % P i T jako cell array % dla uczenia przyrostowego net = newlin ( [ -1 1 ; -1 1 ], 1, 0, 0 ) ; net.iw{1,1} = [ 0 0 ] ; net.b{1} = 0 ; net.inputweights{1,1}.learnparam.lr = 0.1 ; net.biases{1,1}.learnparam.lr = 0.1 ; [ net, y, e, pf ] = adapt ( net, Pcell, Tcell ) ;

16 NEURAL NETWORK TOOLBOX POJEDYNCZY NEURON LINIOWY - UCZENIE WSADOWE

17 przykład 2. uczenie neuronu liniowego - wsadowe uczenie: wsadowe wagi i biasy są uaktualniane po prezentacji batch całego zbioru uczącego [ net, tr,y, E, Pf, Af ] = train ( net, P, T, Pi,Ai, VV,TV) % wejścia: net - Network. P - Network inputs. T - Network targets, default = zeros. Pi - Initial input delay conditions, default = zeros. Ai - Initial layer delay conditions, default = zeros. VV - Structure of validation vectors, default = []. TV - Structure of test vectors, default = []. % wyjścia: net - New network. TR - Training record (epoch and perf). Y - Network outputs. E - Network errors. Pf - Final input delay conditions. Af - Final layer delay conditions.

18 przykład 2. uczenie neuronu liniowego - wsadowe uczenie: wsadowe wagi i biasy są uaktualniane po prezentacji batch całego zbioru uczącego Pmacierz = [ ; % t = 2 p 1 + p ] ; % P i T jako zwykłe macierze Tmacierz = [ ] ; % dla uczenia wsadowego net = newlin ( [ -1 1 ; -1 1 ], 1, 0, 0 ) ; net.iw{1,1} = [ 0 0 ] ; net.b{1} = 0 ; net.inputweights{1,1}.learnparam.lr = 0.1 ; net.biases{1}.learnparam.lr = 0.1 ; net.trainparam.epochs = 1 ; [ net, tr, y, e ] = train ( net, Pmacierz, Tmacierz ) ;

19 NEURAL NETWORK TOOLBOX PERCEPTRON

20 Neural Networks Toolbox perceptron

21 Neural Networks Toolbox perceptron

22 Neural Networks Toolbox perceptron net = newp ( PR, S ) ; % utworzenie perceptronu: % PR macierz wartości min i max poszczególnych wejść % macierz R x 2 % S - liczba neuronów net = newp ( [ 0 2 ], 1 ) ; inputweights = net.inputweights{1,1} biases = net.biases{1}

23 NEURAL NETWORK TOOLBOX POJEDYNCZY PERCEPTRON - GRANICE DECYZYJNE

24 przykład 3. perceptron granice decyzyjne net = newp ( [ ; ], 1 ) ; % utworzenie sieci net.iw{1,1} = [ -1 1 ] ; % ustawienie wag net.b{1} = [ 1 ] ; % i biasu (bez uczenia) p1 = [ 1 ; 1 ] ; y1 = sim ( net, p1 ) ; % test pojedynczych punktów p2 = [ 1 ; -1 ] ; y2 = sim ( net, p2 ) ; % punktów y = [ y1 y2 ] y = [ 1 0 ] p = { [ 1 ; 1 ], [ 1 ; -1 ] } ; % test obu punktów od razu y = sim ( net, p ) % (sekwencyjnie) y = [ 1 ] [ 0 ]

25 NEURAL NETWORK TOOLBOX POJEDYNCZY PERCEPTRON - UCZENIE KROK PO KROKU

26 przykład 4. perceptron - inicjalizacja net = newp ( [ ; ], 1 ) ; % utworzenie sieci net.iw{1,1} = [ -1 1 ] ; % ustawienie wag net.b{1} = [ 1 ] ; % i biasu (bez uczenia) net.inputweights{1,1}.initfcn = 'rands' ; % losowa inicjalizacja net.biases{1}.initfcn = 'rands' ; % wag i biasów net = init ( net ) ; weights = net.iw{1,1} weights = biases = net.b{1} biases =

27 przykład 4. perceptron uczenie krok po kroku... p = [ 1 ; 2 ] ; % uczenie na pojedynczych przykładach t = [ 1 ] ; y = sim ( net, p ) ; d = t y ; dw = learnp( weights, p, [],[],[],[], d, [],[],[] ) % poprawki wag dw = 1 2 weights = weights + dw weights = net.iw{1,1} = weights ; db = learnp( biases, p, [],[],[],[], d, [],[],[] ) % poprawki biasów db = 1 2 biases = biases + db biases = net.b{1} = biases ;

28 NEURAL NETWORK TOOLBOX POJEDYNCZY PERCEPTRON - UCZENIE OD RAZU

29 przykład 5. perceptron uczenie od razu net = newp ( [ ; ], 1 ) ; % utworzenie sieci net.iw{1,1} = [ -1 1 ] ; % ustawienie wag net.b{1} = [ 1 ] ; % i biasu (bez uczenia) p = { [2;2] [1;-2] [-2;2] [-1;1] } ; % ciąg uczący t = { } ; % dla uczenia wsadowego net.trainparam.epochs = 4; net = train ( net, p, t ) ; TRAINC, Epoch 0/4 TRAINC, Epoch 2/4 TRAINC, Performance goal met. % uczenie % przez kilka epok y = sim ( net, p ) y =

30 NEURAL NETWORK TOOLBOX PERCEPTRONY WIELOWARSTWOWE

31 Neural Network Toolbox perceptrony wielowarstwowe neurony wykorzystują ciągłe funkcje aktywacji:

32 Neural Network Toolbox perceptrony wielowarstwowe warstwa sieci:

33 Neural Network Toolbox perceptrony wielowarstwowe sieć dwuwarstwowa:

34 przykład 6. perceptron dwuwarstwowy - tworzenie (kiedyś) p = [ ;... % ciąg uczący ] ; t = [ ] ; % utworzenie sieci: net = newff ( minmax(p),... % 2 wejścia o zakresach: od 1 do 2 % od 0 do 5 [3,1],... % neuronów: 3 1 {'tansig','purelin'},... % funkcje aktywacji w warstwach: % 1. tangensoidalna % 2. liniowa 'traingd' ) ; % funkcja uczenia: traingd % (gradient descent)

35 przykład 6. perceptron dwuwarstwowy - tworzenie (teraz) p = [ ; ] ; t = [ ] ; net = newff ( p, t, 3 ) ; % ciąg uczący % utworzenie sieci

36 przykład 6. perceptron dwuwarstwowy uczenie gd (kiedyś) net.trainparam.show = 50; net.trainparam.lr = 0.05; net.trainparam.epochs = 300; net.trainparam.goal = 1e-5; % parametry uczenia [ net, tr ] = train ( net, p, t ) ; % uczenie sieci TRAINGD, Epoch 0/300, MSE /1e-05, Gradient /1e-10 TRAINGD, Epoch 50/300, MSE /1e-05, Gradient /1e-10 TRAINGD, Epoch 100/300, MSE /1e-05, Gradient /1e-10 TRAINGD, Epoch 150/300, MSE e-05/1e-05, Gradient /1e-10 TRAINGD, Epoch 200/300, MSE e-05/1e-05, Gradient /1e-10 TRAINGD, Epoch 211/300, MSE e-06/1e-05, Gradient /1e-10 TRAINGD, Performance goal met.

37 przykład 6. perceptron dwuwarstwowy uczenie gd (kiedyś) net.trainparam.show = 50; net.trainparam.lr = 0.05; net.trainparam.epochs = 300; net.trainparam.goal = 1e-5; % parametry uczenia [ net, tr ] = train ( net, p, t ) ; % uczenie sieci TRAINGD, Epoch 0/300, MSE /1e-05, Gradient /1e-10 TRAINGD, Epoch 50/300, MSE /1e-05, Gradient /1e-10 TRAINGD, Epoch 100/300, MSE /1e-05, Gradient /1e-10 TRAINGD, Epoch 150/300, MSE e-05/1e-05, Gradient /1e-10 TRAINGD, Epoch 200/300, MSE e-05/1e-05, Gradient /1e-10 TRAINGD, Epoch 211/300, MSE e-06/1e-05, Gradient /1e-10 TRAINGD, Performance goal met. y = sim ( net, p ) % sprawdzenie sieci y = % t = [ ] ;

38 przykład 6. perceptron dwuwarstwowy uczenie L-M (teraz) [ net, tr ] = train ( net, p, t ) ; % uczenie sieci TRAINLM-calcjx, Epoch 0/300, MSE /1e-005, Gradient /1e-010 TRAINLM-calcjx, Epoch 3/300, MSE e-006/1e-005, Gradient /1e-010 TRAINLM, Performance goal met. y = sim ( net, p ) % sprawdzenie sieci y = % t = [ ] ;

Podstawowe funkcje biblioteki narzędziowej Neural Network Toolbox. Version 5 pakietu MATLAB v. 6

Podstawowe funkcje biblioteki narzędziowej Neural Network Toolbox. Version 5 pakietu MATLAB v. 6 Podstawowe funkcje biblioteki narzędziowej Neural Network Toolbox. Version 5 pakietu MATLAB v. 6 I. Funkcje przeznaczone do tworzenia jednokierunkowej sieci neuronowej newff newp newlin - tworzenie wielowarstwowej

Bardziej szczegółowo

MATLAB Neural Network Toolbox przegląd

MATLAB Neural Network Toolbox przegląd MATLAB Neural Network Toolbox przegląd WYKŁAD Piotr Ciskowski Neural Network Toolbox: Neural Network Toolbox - zastosowania: przykłady zastosowań sieci neuronowych: The 1988 DARPA Neural Network Study

Bardziej szczegółowo

Sztuczne siei neuronowe - wprowadzenie

Sztuczne siei neuronowe - wprowadzenie Metody Sztucznej Inteligencji w Sterowaniu Ćwiczenie 2 Sztuczne siei neuronowe - wprowadzenie Przygotował: mgr inż. Marcin Pelic Instytut Technologii Mechanicznej Politechnika Poznańska Poznań, 2 Wstęp

Bardziej szczegółowo

Podstawowe funkcje biblioteki narzędziowej Neural Network Toolbox. Version 5 pakietu MATLAB v. 7.1

Podstawowe funkcje biblioteki narzędziowej Neural Network Toolbox. Version 5 pakietu MATLAB v. 7.1 POLITECHNIKA BIAŁOSTOCKA WYDZIAŁ ELEKTRYCZNY KATEDRA AUTOMATYKI I ELEKTRONIKI Podstawowe funkcje biblioteki narzędziowej Neural Network Toolbox. Version 5 pakietu MATLAB v. 7.1 Materiały pomocnicze do

Bardziej szczegółowo

Algorytmy sztucznej inteligencji

Algorytmy sztucznej inteligencji Algorytmy sztucznej inteligencji Dynamiczne sieci neuronowe 1 Zapis macierzowy sieci neuronowych Poniżej omówione zostaną części składowe sieci neuronowych i metoda ich zapisu za pomocą macierzy. Obliczenia

Bardziej szczegółowo

ZASTOSOWANIE SZTUCZNYCH SIECI NEURONOWYCH W ANALIZIE SYGNAŁÓW ELEKTROKARDIOGRAFICZNYCH

ZASTOSOWANIE SZTUCZNYCH SIECI NEURONOWYCH W ANALIZIE SYGNAŁÓW ELEKTROKARDIOGRAFICZNYCH ZASTOSOWANIE SZTUCZNYCH SIECI NEURONOWYCH W ANALIZIE SYGNAŁÓW ELEKTROKARDIOGRAFICZNYCH USING ARTIFICIAL NEURAL NETWORKS FOR ANALYSIS OF ELECTROCARDIOGRAPHIC SIGNALS Monika Litwińska * Politechnika Gdańska,

Bardziej szczegółowo

SPIS TREŚCI WPROWADZENIE ĆWICZENIE 1 Prognozowanie ciągu czasowego z wykorzystaniem neuronu liniowego... 13

SPIS TREŚCI WPROWADZENIE ĆWICZENIE 1 Prognozowanie ciągu czasowego z wykorzystaniem neuronu liniowego... 13 SPIS TREŚCI WPROWADZENIE... 5 ĆWICZENIE 1 Prognozowanie ciągu czasowego z wykorzystaniem neuronu liniowego... 13 ĆWICZENIE 2 Zastosowanie warstwy perceptronowej w zadaniu klasyfikacji rozpoznawanie znaków...

Bardziej szczegółowo

Zrealizować sieć neuronową (learnbpm) uczącą się odwzorowania z = x 2 + y 2 dla x i y zmieniających się od -1 do 1.

Zrealizować sieć neuronową (learnbpm) uczącą się odwzorowania z = x 2 + y 2 dla x i y zmieniających się od -1 do 1. Politechnika Rzeszowska Wydział Elektrotechniki i Informatyki Mateusz Błażej Nr albumu: 130366 Zrealizować sieć neuronową (learnbpm) uczącą się odwzorowania z = x 2 + y 2 dla x i y zmieniających się od

Bardziej szczegółowo

Metody klasyfikacji i rozpoznawania wzorców. Najważniejsze rodzaje klasyfikatorów

Metody klasyfikacji i rozpoznawania wzorców.  Najważniejsze rodzaje klasyfikatorów Metody klasyfikacji i rozpoznawania wzorców www.michalbereta.pl Najważniejsze rodzaje klasyfikatorów Dla określonego problemu klasyfikacyjnego (tzn. dla danego zestawu danych) należy przetestować jak najwięcej

Bardziej szczegółowo

Zastosowania sieci neuronowych predykcja - giełda

Zastosowania sieci neuronowych predykcja - giełda Zastosowania sieci neuronowych predykcja - giełda LABORKA Piotr Ciskowski AKCJE INDEKS WIG20 plik giełda-wig.xlsx : dane: indeks WIG od 1991 do 2005 ok. 3000 sesji bez ostatniej szalonej hossy dla każdej

Bardziej szczegółowo

NEURAL NETWORK ) FANN jest biblioteką implementującą SSN, którą moŝna wykorzystać. w C, C++, PHP, Pythonie, Delphi a nawet w środowisku. Mathematica.

NEURAL NETWORK ) FANN jest biblioteką implementującą SSN, którą moŝna wykorzystać. w C, C++, PHP, Pythonie, Delphi a nawet w środowisku. Mathematica. Wykorzystanie sztucznych sieci neuronowych do rozpoznawania języków: polskiego, angielskiego i francuskiego Tworzenie i nauczanie sieci przy pomocy języka C++ i biblioteki FANN (Fast Artificial Neural

Bardziej szczegółowo

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-03 Projekt pn. Wzmocnienie potencjału

Bardziej szczegółowo

SIECI RBF (RADIAL BASIS FUNCTIONS)

SIECI RBF (RADIAL BASIS FUNCTIONS) SIECI RBF (RADIAL BASIS FUNCTIONS) Wybrane slajdy z prezentacji prof. Tadeusiewicza Wykład Andrzeja Burdy S. Osowski, Sieci Neuronowe w ujęciu algorytmicznym, Rozdz. 5, PWNT, Warszawa 1996. opr. P.Lula,

Bardziej szczegółowo

1 Podstawy programowania sieci neuronowych w programie Matlab 7.0

1 Podstawy programowania sieci neuronowych w programie Matlab 7.0 1 Podstawy programowania sieci neuronowych w programie Matlab 7.0 1.1 Wczytanie danych wejściowych Pomocny przy tym będzie program Microsoft Excel. W programie tym obrabiamy wstępnie nasze dane poprzez

Bardziej szczegółowo

AUTO-ENKODER JAKO SKŠADNIK ARCHITEKTURY DEEP LEARNING

AUTO-ENKODER JAKO SKŠADNIK ARCHITEKTURY DEEP LEARNING AUTO-ENKODER JAKO SKŠADNIK ARCHITEKTURY DEEP LEARNING Magdalena Wiercioch Uniwersytet Jagiello«ski 3 kwietnia 2014 Plan Uczenie gª bokie (deep learning) Auto-enkodery Rodzaje Zasada dziaªania Przykªady

Bardziej szczegółowo

MATLAB Compiler. jak tworzyć aplikacje ze skryptów. LABORKA Piotr Ciskowski

MATLAB Compiler. jak tworzyć aplikacje ze skryptów. LABORKA Piotr Ciskowski MATLAB Compiler jak tworzyć aplikacje ze skryptów LABORKA Piotr Ciskowski Utwórz samodzielne aplikacje ze skryptów, np. testxor2a o MATLAB Help MATLAB Compiler Getting Started Magic Square Example o MATLAB

Bardziej szczegółowo

Instrukcja realizacji ćwiczenia

Instrukcja realizacji ćwiczenia SIEĆ KOHONENA ROZPOZNAWANIE OBRAZÓW Cel ćwiczenia: zapoznanie się ze sposobem reprezentacji wiedzy w sieciach Kohonena i mechanizmami sąsiedztwa i sumienia neuronów. Zadanie do analizy: analizujemy sieć

Bardziej szczegółowo

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych. Metody Sztucznej Inteligencji 2 Projekt Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych. Autorzy: Robert Wojciechowski Michał Denkiewicz Mateusz Gągol Wstęp Celem projektu

Bardziej szczegółowo

Wielowarstwowy perceptron jako klasyfikator

Wielowarstwowy perceptron jako klasyfikator Część teoretyczna Ćwiczenie WPK Wielowarstwowy perceptron jako klasyfikator Wykład 6: Sztuczne sieci neuronowe klasyfikacja. Zadania pomocnicze Zapoznaj się z funkcjami newff, train i sim (dokumentacja

Bardziej szczegółowo

PROGNOZOWANIE FINANSOWYCH SZEREGÓW CZASOWYCH Z WYKORZYSTANIEM MODELI JEDNOKIERUNKOWYCH SIECI NEURONOWYCH

PROGNOZOWANIE FINANSOWYCH SZEREGÓW CZASOWYCH Z WYKORZYSTANIEM MODELI JEDNOKIERUNKOWYCH SIECI NEURONOWYCH Michał Sarapata Uniwersytet Ekonomiczny w Katowicach PROGNOZOWANIE FINANSOWYCH SZEREGÓW CZASOWYCH Z WYKORZYSTANIEM MODELI JEDNOKIERUNKOWYCH SIECI NEURONOWYCH Wprowadzenie Kluczową kwestią w procesie podejmowania

Bardziej szczegółowo

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM ZASTOSOWANIE SIECI NEURONOWYCH W SYSTEMACH AKTYWNEJ REDUKCJI HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM WPROWADZENIE Zwalczanie hałasu przy pomocy metod aktywnych redukcji hałasu polega

Bardziej szczegółowo

Algorytmy przeszukiwania w zastosowaniu do perceptrona wielowarstwowego

Algorytmy przeszukiwania w zastosowaniu do perceptrona wielowarstwowego Algorytmy przeszukiwania w zastosowaniu do perceptrona wielowarstwowego Mirosław Kordos Autoreferat rozprawy doktorskiej promotor: prof. dr hab. Włodzisław Duch Politechnika Śląska Wydział Automatyki,

Bardziej szczegółowo

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW Sztuczne Sieci Neuronowe Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW SN są częścią dziedziny Sztucznej Inteligencji Sztuczna Inteligencja (SI) zajmuje się

Bardziej szczegółowo

Sieci neuronowe i ich ciekawe zastosowania. Autor: Wojciech Jamrozy III rok SMP / Informatyka

Sieci neuronowe i ich ciekawe zastosowania. Autor: Wojciech Jamrozy III rok SMP / Informatyka Sieci neuronowe i ich ciekawe zastosowania Autor: Wojciech Jamrozy III rok SMP / Informatyka Klasyczna algorytmika Sortowanie ciągu liczb Czy i ile razy dane słowo wystąpiło w tekście Najkrótsza droga

Bardziej szczegółowo

Dokumentacja Końcowa

Dokumentacja Końcowa Metody Sztucznej Inteligencji 2 Projekt Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych. Dokumentacja Końcowa Autorzy: Robert Wojciechowski Michał Denkiewicz Wstęp Celem

Bardziej szczegółowo

Elektroniczne materiały dydaktyczne do przedmiotu Wstęp do Sieci Neuronowych

Elektroniczne materiały dydaktyczne do przedmiotu Wstęp do Sieci Neuronowych Elektroniczne materiały dydaktyczne do przedmiotu Wstęp do Sieci Neuronowych Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-12-21 Koncepcja kursu Koncepcja

Bardziej szczegółowo

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010 Materiały/konsultacje Automatyczna predykcja http://www.ibp.pwr.wroc.pl/kotulskalab Konsultacje wtorek, piątek 9-11 (uprzedzić) D1-115 malgorzata.kotulska@pwr.wroc.pl Co to jest uczenie maszynowe? Uczenie

Bardziej szczegółowo

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. zajecia.jakubw.pl/nai Literatura: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym. WNT, Warszawa 997. PODSTAWOWE ZAGADNIENIA TECHNICZNE AI

Bardziej szczegółowo

WAI Wykłady 3 i 4. Sieci neuronowe. Uczenie i zastosowania. Wstęp do logiki rozmytej.

WAI Wykłady 3 i 4. Sieci neuronowe. Uczenie i zastosowania. Wstęp do logiki rozmytej. WAI Wykłady 3 i 4. Sieci neuronowe. Uczenie i zastosowania. Wstęp do logiki rozmytej. Literatura: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym. WNT, Warszawa 997. D. Rutkowska, M. Piliński i L.

Bardziej szczegółowo

RAPORT Z PRAKTYKI. Zastosowanie Sztucznych Sieci Neuronowych do wspomagania podejmowania decyzji kupna/sprzedaży na rynku Forex.

RAPORT Z PRAKTYKI. Zastosowanie Sztucznych Sieci Neuronowych do wspomagania podejmowania decyzji kupna/sprzedaży na rynku Forex. Projekt współfinansowane przez Unię Europejską ze środków Europejskiego Funduszu Społecznego w ramach projektu Wiedza Techniczna Wzmocnienie znaczenia Politechniki Krakowskiej w kształceniu przedmiotów

Bardziej szczegółowo

Ćwiczenie 12. Metody eksploracji danych

Ćwiczenie 12. Metody eksploracji danych Ćwiczenie 12. Metody eksploracji danych Modelowanie regresji (Regression modeling) 1. Zadanie regresji Modelowanie regresji jest metodą szacowania wartości ciągłej zmiennej celu. Do najczęściej stosowanych

Bardziej szczegółowo

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe wykład 1. Właściwości sieci neuronowych Model matematyczny sztucznego neuronu Rodzaje sieci neuronowych Przegląd d głównych g

Bardziej szczegółowo

MODELOWANIE FAZ ZNI ANIA I L DOWANIA SAMOLOTU BOEING 767-300ER PRZY U YCIU SZTUCZNYCH SIECI NEURONOWYCH

MODELOWANIE FAZ ZNI ANIA I L DOWANIA SAMOLOTU BOEING 767-300ER PRZY U YCIU SZTUCZNYCH SIECI NEURONOWYCH P R A C E N A U K O W E P O L I T E C H N I K I W A R S Z A W S K I E J z. 102 Transport 2014 Aleksandra Stycunów, Jerzy Manerowski Politechnika Warszawska, Wydzia Transportu MODELOWANIE FAZ ZNI ANIA I

Bardziej szczegółowo

ZASTOSOWANIE SZTUCZNYCH SIECI NEURONOWYCH DO OCENY ZDOLNOŚCI KREDYTOWYCH ROLNIKÓW KLIENTÓW FIRMY LEASINGOWEJ

ZASTOSOWANIE SZTUCZNYCH SIECI NEURONOWYCH DO OCENY ZDOLNOŚCI KREDYTOWYCH ROLNIKÓW KLIENTÓW FIRMY LEASINGOWEJ Inżynieria Rolnicza 1(99)/2008 ZASTOSOWANIE SZTUCZNYCH SIECI NEURONOWYCH DO OCENY ZDOLNOŚCI KREDYTOWYCH ROLNIKÓW KLIENTÓW FIRMY LEASINGOWEJ Marta Kiljańska, Marek Klimkiewicz Katedra Organizacji i Inżynierii

Bardziej szczegółowo

Streszczenie. Słowa kluczowe: predykcja temperatury, sieci neuronowe, algorytmy uczenia sieci, MATLAB

Streszczenie. Słowa kluczowe: predykcja temperatury, sieci neuronowe, algorytmy uczenia sieci, MATLAB Ireneusz Białobrzewski Katedra InŜynierii Procesów Rolniczych Uniwersytet Warmińsko-Mazurski w Olsztynie PORÓWNANIE ALGORYTMÓW UCZENIA SIECI NEURONOWEJ JEDNOKIERUNKOWEJ, Z CZASOWYM OPÓŹNIENIEM, WYKORZYSTANEJ

Bardziej szczegółowo

Implementacja sieci neuronowych na karcie graficznej. Waldemar Pawlaszek

Implementacja sieci neuronowych na karcie graficznej. Waldemar Pawlaszek Implementacja sieci neuronowych na karcie graficznej Waldemar Pawlaszek Motywacja Czyli po co to wszystko? Motywacja Procesor graficzny GPU (Graphics Processing Unit) Wydajność Elastyczność i precyzja

Bardziej szczegółowo

Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych

Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych mgr inż. C. Dendek prof. nzw. dr hab. J. Mańdziuk Politechnika Warszawska, Wydział Matematyki i Nauk Informacyjnych Outline 1 Uczenie

Bardziej szczegółowo

CALCULATION OF SELECTED ENGINE PARAMETERS OF S.I. ENGINE WITH THE USE OF NEURAL NETWORK WITH RADIAL BASIS FUNCTION

CALCULATION OF SELECTED ENGINE PARAMETERS OF S.I. ENGINE WITH THE USE OF NEURAL NETWORK WITH RADIAL BASIS FUNCTION Journal of KONES Internal Combustion Engines 003, vol. 10, 3-4 CALCULATION OF SELECTED ENGINE PARAMETERS OF S.I. ENGINE WITH THE USE OF NEURAL NETWORK WITH RADIAL BASIS FUNCTION Różycki Andrzej e-mail:

Bardziej szczegółowo

WYKORZYSTANIE SZTUCZNYCH SIECI NEURONOWYCH W PROGNOZOWANIU

WYKORZYSTANIE SZTUCZNYCH SIECI NEURONOWYCH W PROGNOZOWANIU WYKORZYSTANIE SZTUCZNYCH SIECI NEURONOWYCH W PROGNOZOWANIU THE USE OF ARTIFICIAL NEURAL NETWORKS IN FORECASTING Konrad BAJDA, Sebastian PIRÓG Resume Artykuł opisuje wykorzystanie sztucznych sieci neuronowych

Bardziej szczegółowo

DOBÓR POMP CIEPŁA Z WYKORZYSTANIEM SZTUCZNYCH SIECI NEURONOWYCH DLA DOMÓW JEDNORODZINNYCH DLA PEŁNYCH I NIEPEŁNYCH ZBIORÓW DANYCH

DOBÓR POMP CIEPŁA Z WYKORZYSTANIEM SZTUCZNYCH SIECI NEURONOWYCH DLA DOMÓW JEDNORODZINNYCH DLA PEŁNYCH I NIEPEŁNYCH ZBIORÓW DANYCH Inżynieria Rolnicza 11(109)/2008 DOBÓR POMP CIEPŁA Z WYKORZYSTANIEM SZTUCZNYCH SIECI NEURONOWYCH DLA DOMÓW JEDNORODZINNYCH DLA PEŁNYCH I NIEPEŁNYCH ZBIORÓW DANYCH Maciej Neugebauer, Piotr Sołowiej, Tomasz

Bardziej szczegółowo

Elementy kognitywistyki III: Modele i architektury poznawcze

Elementy kognitywistyki III: Modele i architektury poznawcze Elementy kognitywistyki III: Modele i architektury poznawcze Wykład III: Psychologiczne modele umysłu Gwoli przypomnienia: Kroki w modelowaniu kognitywnym: teoretyczne ramy pojęciowe (modele pojęciowe)

Bardziej szczegółowo

Seminarium magisterskie. Dyskusja nad tematem pracy magisterskiej pisanej pod kierunkiem pani Dr hab. Małgorzaty Doman

Seminarium magisterskie. Dyskusja nad tematem pracy magisterskiej pisanej pod kierunkiem pani Dr hab. Małgorzaty Doman Seminarium magisterskie Dyskusja nad tematem pracy magisterskiej pisanej pod kierunkiem pani Dr hab. Małgorzaty Doman Plan wystąpienia Ogólnie o sztucznych sieciach neuronowych Temat pracy magisterskiej

Bardziej szczegółowo

ZASTOSOWANIE SIECI NEURONOWYCH DO PLANOWANIA I ANALIZY KAMPANII REKLAMOWEJ

ZASTOSOWANIE SIECI NEURONOWYCH DO PLANOWANIA I ANALIZY KAMPANII REKLAMOWEJ Studia i Materiały. Miscellanea Oeconomicae Rok 17, Nr 1/2013 Wydział Zarządzania i Administracji Uniwersytetu Jana Kochanowskiego w Kielcach L u d z i e, z a r z ą d z a n i e, g o s p o d a r k a Rafał

Bardziej szczegółowo

SIECI NEURONOWE Wprowadzenie

SIECI NEURONOWE Wprowadzenie SIECI NEURONOWE Wprowadzenie JOANNA GRABSKA-CHRZĄSTOWSKA Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA WYKŁADOWCA JOANNA GRABSKA CHRZĄSTOWSKA KATEDRA

Bardziej szczegółowo

4.1. Wprowadzenie...70 4.2. Podstawowe definicje...71 4.3. Algorytm określania wartości parametrów w regresji logistycznej...74

4.1. Wprowadzenie...70 4.2. Podstawowe definicje...71 4.3. Algorytm określania wartości parametrów w regresji logistycznej...74 3 Wykaz najważniejszych skrótów...8 Przedmowa... 10 1. Podstawowe pojęcia data mining...11 1.1. Wprowadzenie...12 1.2. Podstawowe zadania eksploracji danych...13 1.3. Główne etapy eksploracji danych...15

Bardziej szczegółowo

Co to jest grupowanie

Co to jest grupowanie Grupowanie danych Co to jest grupowanie 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Szukanie grup, obszarów stanowiących lokalne gromady punktów Co to jest grupowanie

Bardziej szczegółowo

MODELOWANIE RZECZYWISTOŚCI

MODELOWANIE RZECZYWISTOŚCI MODELOWANIE RZECZYWISTOŚCI Daniel Wójcik Instytut Biologii Doświadczalnej PAN d.wojcik@nencki.gov.pl tel. 022 5892 424 http://www.neuroinf.pl/members/danek/swps/ Podręcznik Iwo Białynicki-Birula Iwona

Bardziej szczegółowo

WYKORZYSTANIE SZTUCZNYCH SIECI NEURONOWYCH DO PROGNOZOWANIA CEN NA GIEŁDZIE ENERGII

WYKORZYSTANIE SZTUCZNYCH SIECI NEURONOWYCH DO PROGNOZOWANIA CEN NA GIEŁDZIE ENERGII WYKORZYSTANIE SZTUCZNYCH SIECI NEURONOWYCH DO PROGNOZOWANIA CEN NA GIEŁDZIE ENERGII Autor: Katarzyna Halicka ( Rynek Energii nr 1/2010) Słowa kluczowe: giełda energii, prognozowanie cen energii elektrycznej,

Bardziej szczegółowo

Analiza możliwości zastosowania sieci neuronowych do modelowania wartości kapitału społecznego w firmach IT

Analiza możliwości zastosowania sieci neuronowych do modelowania wartości kapitału społecznego w firmach IT Analiza możliwości zastosowania sieci neuronowych do modelowania wartości kapitału społecznego w firmach IT Julia Siderska Politechnika Białostocka, Wydział Zarządzania, e-mail: j.siderska@pb.edu.pl Streszczenie

Bardziej szczegółowo

Zeszyty Naukowe nr 740 Akademii Ekonomicznej w Krakowie. Joanna Palczewska. 1. Wprowadzenie

Zeszyty Naukowe nr 740 Akademii Ekonomicznej w Krakowie. Joanna Palczewska. 1. Wprowadzenie Zeszyty Naukowe nr 740 Akademii Ekonomicznej w Krakowie 2007 Studium Doktoranckie Wydzia u Zarzàdzania Mo liwoêci zastosowania modelu jednokierunkowej sieci neuronowej do prognozowania sygna ów kupna i

Bardziej szczegółowo

MODELOWANIE PROCESU OMŁOTU PRZY WYKORZYSTANIU SZTUCZNYCH SIECI NEURONOWYCH

MODELOWANIE PROCESU OMŁOTU PRZY WYKORZYSTANIU SZTUCZNYCH SIECI NEURONOWYCH Inżynieria Rolnicza 13/2006 Andrzej Złobecki *, Ryszard Macura **, Magdalena Michalczyk ** * Katedra Inżynierii Mechanicznej i Agrofizyki ** Katedra Chłodnictwa i Koncentratów Spożywczych Akademia Rolnicza

Bardziej szczegółowo

Praktyczne informacje o sieciach neuronowych. Elżbieta Dłubis. Państwowa Wyższa Szkoła Zawodowa w Chełmie

Praktyczne informacje o sieciach neuronowych. Elżbieta Dłubis. Państwowa Wyższa Szkoła Zawodowa w Chełmie Praktyczne informacje o sieciach neuronowych Elżbieta Dłubis Państwowa Wyższa Szkoła Zawodowa w Chełmie Wiedza o sieciach neuronowych zaczęła się od fascynacji mózgiem narządem (..), którego możliwości

Bardziej szczegółowo

Nieeuklidesowe sieci neuronowe

Nieeuklidesowe sieci neuronowe Uniwersytet Mikołaja Kopernika Wydział Fizyki, Astronomii i Informatyki Stosowanej Katedra Informatyki Stosowanej Helena Jurkiewicz numer albumu: 177622 Praca magisterska na kierunku fizyka komputerowa

Bardziej szczegółowo

Dobór funkcji aktywacji sieci neuronowej realizującej odtwarzanie wielkości wejściowej przetwornika pomiarowego

Dobór funkcji aktywacji sieci neuronowej realizującej odtwarzanie wielkości wejściowej przetwornika pomiarowego Dobór funkcji sieci neuronowej realizującej odtwarzanie wielkości wejściowej przetwornika pomiarowego Piotr Makowski Jerzy Roj* W artykule przedstawiono wyniki badań wybranych struktur sieci neuronowych

Bardziej szczegółowo

ZAGADNIENIE SZTUCZNYCH SIECI NEURONOWYCH W DYNAMICZNYCH PROCESACH NIESTANDARDOWEJ EKONOMII

ZAGADNIENIE SZTUCZNYCH SIECI NEURONOWYCH W DYNAMICZNYCH PROCESACH NIESTANDARDOWEJ EKONOMII Scientific Bulletin of Che lm Section of Mathematics and Computer Science No. 1/2008 ZAGADNIENIE SZTUCZNYCH SIECI NEURONOWYCH W DYNAMICZNYCH PROCESACH NIESTANDARDOWEJ EKONOMII WACŁAW FRYDRYCHOWICZ, KATARZYNA

Bardziej szczegółowo

STEROWANIE PROCESEM PRODUKCJI PRZY UŻYCIU SIECI NEURONOWYCH

STEROWANIE PROCESEM PRODUKCJI PRZY UŻYCIU SIECI NEURONOWYCH STEROWANIE PROCESEM PRODUKCJI PRZY UŻYCIU SIECI NEURONOWYCH Izabela ROJEK, Przemysław STASZYŃSKI Streszczenie: W pracy przedstawiono aplikację wspomagającą sterowanie procesem produkcji sody kalcynowanej

Bardziej szczegółowo

NEURONOWA ANALIZA ZDJĘĆ ULTRASONOGRA- FICZNYCH W PROCESIE IDENTYFIKACJI POZIOMU ZAWARTOŚCI TŁUSZCZU BADANIA WSTĘPNE

NEURONOWA ANALIZA ZDJĘĆ ULTRASONOGRA- FICZNYCH W PROCESIE IDENTYFIKACJI POZIOMU ZAWARTOŚCI TŁUSZCZU BADANIA WSTĘPNE Inżynieria Rolnicza 6(104)/2008 NEURONOWA ANALIZA ZDJĘĆ ULTRASONOGRA- FICZNYCH W PROCESIE IDENTYFIKACJI POZIOMU ZAWARTOŚCI TŁUSZCZU BADANIA WSTĘPNE Andrzej Przybylak, Piotr Boniecki, Radosław J. Kozłowski

Bardziej szczegółowo

Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2)

Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2) Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2) Ewa Wołoszko Praca pisana pod kierunkiem Pani dr hab. Małgorzaty Doman Plan tego wystąpienia Teoria Narzędzia

Bardziej szczegółowo

Marcin Pełka Uniwersytet Ekonomiczny we Wrocławiu SIECI NEURONOWE DLA DANYCH SYMBOLICZNYCH: PERCEPTRON WIELOWARSTWOWY

Marcin Pełka Uniwersytet Ekonomiczny we Wrocławiu SIECI NEURONOWE DLA DANYCH SYMBOLICZNYCH: PERCEPTRON WIELOWARSTWOWY Marcin Pełka Uniwersytet Ekonomiczny we Wrocławiu SIECI NEURONOWE DLA DANYCH SYMBOLICZNYCH: PERCEPTRON WIELOWARSTWOWY 1. Wstęp Jedną z najczęściej stosowanych struktur sieci neuropodobnych jest wielowarstwowa

Bardziej szczegółowo

ZASTOSOWANIE SZTUCZNYCH SIECI NEURONOWYCH DO OCENY SUSZU MELONA ŻÓŁTEGO

ZASTOSOWANIE SZTUCZNYCH SIECI NEURONOWYCH DO OCENY SUSZU MELONA ŻÓŁTEGO ZESZYTY PROBLEMOWE POSTĘPÓW NAUK ROLNICZYCH 2012 z. 571: 93 98 ZASTOSOWANIE SZTUCZNYCH SIECI NEURONOWYCH DO OCENY SUSZU MELONA ŻÓŁTEGO Krzysztof Pruski, Bartosz Jaźwiec, Deta Łuczycka, Bogdan Stępień Instytut

Bardziej szczegółowo

ZASTOSOWANIE SZTUCZNYCH SIECI NEURONOWYCH DO ROZPOZNAWANIA OBRAZÓW

ZASTOSOWANIE SZTUCZNYCH SIECI NEURONOWYCH DO ROZPOZNAWANIA OBRAZÓW Studia i Materiały Informatyki Stosowanej, Tom 2, Nr 3, 2010 ZASTOSOWANIE SZTUCZNYCH SIECI NEURONOWYCH DO ROZPOZNAWANIA OBRAZÓW Wojciech Dobrosielski Uniwersytet Kazimierza Wielkiego Instytut Techniki

Bardziej szczegółowo

Algorytmiczne sieci neuronowe idea działania, słabe i mocne strony

Algorytmiczne sieci neuronowe idea działania, słabe i mocne strony Patryk DUŃSKI Wydział Informatyki, Zachodniopomorski Uniwersytet Technologiczny w Szczecinie E mail: pdunski@wi.zut.edu.pl Algorytmiczne sieci neuronowe idea działania, słabe i mocne strony Streszczenie:

Bardziej szczegółowo

Sieci neuronowe i algorytmy ewolucyjne

Sieci neuronowe i algorytmy ewolucyjne Sieci neuronowe: Rys historyczny Sieci neuronowe i algorytmy ewolucyjne 2. Sieci wielowarstwowe PERCEPTRON Jerzy KORCZAK email :jerzy.korczak@ue.wroc.pl http://www.korczakleliwa.pl http://citilab.pl http://kti.ue.wroc.pl

Bardziej szczegółowo

Przykładowa analiza danych

Przykładowa analiza danych Przykładowa analiza danych W analizie wykorzystano dane pochodzące z publicznego repozytorium ArrayExpress udostępnionego na stronach Europejskiego Instytutu Bioinformatyki (http://www.ebi.ac.uk/). Zbiór

Bardziej szczegółowo

HYBRID MES/SSN ANALYSIS OF THE ELASTIC-PLASTIC TRUSS UNDER CYCLIC LOADING

HYBRID MES/SSN ANALYSIS OF THE ELASTIC-PLASTIC TRUSS UNDER CYCLIC LOADING BEATA OTRZESZCZ-SUT Kielce University of Technology e-mail: beatap@tu.kielce.pl.pl HYBRID MES/SSN ANALYSIS OF THE ELASTIC-LASTIC TRUSS UNDER CYCLIC LOADING A b s t r a c t The paper presents the application

Bardziej szczegółowo

Sieci Kohonena Grupowanie

Sieci Kohonena Grupowanie Sieci Kohonena Grupowanie http://zajecia.jakubw.pl/nai UCZENIE SIĘ BEZ NADZORU Załóżmy, że mamy za zadanie pogrupować następujące słowa: cup, roulette, unbelievable, cut, put, launderette, loveable Nie

Bardziej szczegółowo

Zastosowanie sieci Kohonena do klasyfikacji próbek węgla kamiennego wg PN-54/G

Zastosowanie sieci Kohonena do klasyfikacji próbek węgla kamiennego wg PN-54/G Jarosław Bielak Zastosowanie sieci Kohonena do klasyfikacji próbek węgla kamiennego wg PN-54/G-97 002 Streszczenie Sieci neuronowe Kohonena są układami mającymi zdolność przeprowadzania, bez korekty zewnętrznej,

Bardziej szczegółowo

Sieci neuronowe. - wprowadzenie - Istota inteligencji. WYKŁAD Piotr Ciskowski

Sieci neuronowe. - wprowadzenie - Istota inteligencji. WYKŁAD Piotr Ciskowski Sieci neuronowe - wprowadzenie - Istota inteligencji WYKŁAD Piotr Ciskowski na dobry początek: www.mql4.com - championship 2007 - winners of the ATC 2007 - the ATC 2007 is over forex-pamm.com na dobry

Bardziej szczegółowo

Zastosowanie sieci neuronowych do klasyfikacji obiektów. Autorzy: dr hab. inŝ. Galina Setlak mgr Wioletta Szajnar

Zastosowanie sieci neuronowych do klasyfikacji obiektów. Autorzy: dr hab. inŝ. Galina Setlak mgr Wioletta Szajnar Zastosowanie sieci neuronowych do klasyfikacji obiektów 1 Wstęp Autorzy: dr hab. inŝ. Galina Setlak mgr Wioletta Szajnar Dynamicznie rozwijające się technologie pozyskiwania informacji, zdobywania danych

Bardziej szczegółowo

ANALIZA MOśLIWOŚCI PROGNOZOWANIA WYNIKÓW FINANSOWYCH PRZEDSIĘBIORSTW W SEKTORZE BUDOWNICTWA ZA POMOCĄ SZTUCZNYCH SIECI NEURONOWYCH MLP

ANALIZA MOśLIWOŚCI PROGNOZOWANIA WYNIKÓW FINANSOWYCH PRZEDSIĘBIORSTW W SEKTORZE BUDOWNICTWA ZA POMOCĄ SZTUCZNYCH SIECI NEURONOWYCH MLP ANYSZ Hubert, IBADOV Nabi, WIELĄDEK Paweł ANALIZA MOśLIWOŚCI PROGNOZOWANIA WYNIKÓW FINANSOWYCH PRZEDSIĘBIORSTW W SEKTORZE BUDOWNICTWA ZA POMOCĄ SZTUCZNYCH SIECI NEURONOWYCH MLP Streszczenie W artykule

Bardziej szczegółowo

METODY INTELIGENCJI OBLICZENIOWEJ wykład 4

METODY INTELIGENCJI OBLICZENIOWEJ wykład 4 METODY INTELIGENCJI OBLICZENIOWEJ wykład 4 1 2 SZTUCZNE SIECI NEURONOWE HISTORIA SSN 3 Walter Pitts, Warren McCulloch (1943) opracowanie matematyczne pojęcia sztucznego neuronu.. Udowodnili też, iż ich

Bardziej szczegółowo

Wykorzystanie sieci neuronowych w diagnostyce poprawności wykonania płytek drukowanych

Wykorzystanie sieci neuronowych w diagnostyce poprawności wykonania płytek drukowanych Wykorzystanie sieci neuronowych w diagnostyce poprawności wykonania płytek drukowanych Mariusz Sikora, Michał Grochowski Wydział Elektrotechniki i Automatyki Politechniki Gdańskiej Streszczenie: Artykuł

Bardziej szczegółowo

STEROWANIE NEURONOWE BEZZAŁOGOWYM POJAZDEM PODWODNYM

STEROWANIE NEURONOWE BEZZAŁOGOWYM POJAZDEM PODWODNYM MODELOWANIE INŻYNIERSKIE ISSN 896-77X 4, s. 469-478, Gliwice 20 STEROWANIE NEURONOWE BEZZAŁOGOWYM POJAZDEM PODWODNYM ANDRZEJ ŻAK Instytut Hydroakustyki, Akademia Marynarki Wojennej e-mail: a.zak@amw.gdynia.pl

Bardziej szczegółowo

ZASTOSOWANIE SZTUCZNYCH SIECI NEURONOWYCH W PROCESIE ROZLICZEŃ MIESZKAŃCÓW BUDYNKÓW WIELOLOKATOROWYCH

ZASTOSOWANIE SZTUCZNYCH SIECI NEURONOWYCH W PROCESIE ROZLICZEŃ MIESZKAŃCÓW BUDYNKÓW WIELOLOKATOROWYCH sieci neuronowe, rozliczenie mediów, zdalny odczyt Grzegorz BARTNICKI, Agnieszka CHMIELEWSKA* ZASTOSOWANIE SZTUCZNYCH SIECI NEURONOWYCH W PROCESIE ROZLICZEŃ MIESZKAŃCÓW BUDYNKÓW WIELOLOKATOROWYCH W pracy

Bardziej szczegółowo

SZTUCZNE SIECI NEURONOWE

SZTUCZNE SIECI NEURONOWE METODY INTELIGENCJI OBLICZENIOWEJ wykład 4 SZTUCZNE SIECI NEURONOWE HISTORIA SSN Walter Pitts, Warren McCulloch (94) opracowanie matematyczne pojęcia sztucznego neuronu.. Udowodnili też, iż ich wynalazek

Bardziej szczegółowo

WSTĘP DO INFORMATYKI SIECI NEURONOWE I SZTUCZNA INTELIGENCJA wykład

WSTĘP DO INFORMATYKI SIECI NEURONOWE I SZTUCZNA INTELIGENCJA wykład WSTĘP DO INFORMATYKI SIECI NEURONOWE I SZTUCZNA INTELIGENCJA wykład Adrian Horzyk Web: http://home.agh.edu.pl/~horzyk/ E-mail: horzyk@agh.edu.pl Google: Adrian Horzyk, Gabinet: paw. C3p. 205 Akademia Górniczo-Hutniacza

Bardziej szczegółowo

Rozpoznawanie twarzy za pomocą sieci neuronowych

Rozpoznawanie twarzy za pomocą sieci neuronowych Rozpoznawanie twarzy za pomocą sieci neuronowych Michał Bereta http://torus.uck.pk.edu.pl/~beretam Praktyczna przydatność Bardzo szerokie praktyczne zastosowanie Ochrona Systemy bezpieczeństwa (np. lotniska)

Bardziej szczegółowo

BIG SISTER SYSTEM MONITORINGU SIECI DLA LINUX/UNIX I WINDOWS. Michał (traq) Żuchowski. traq@shl.pl

BIG SISTER SYSTEM MONITORINGU SIECI DLA LINUX/UNIX I WINDOWS. Michał (traq) Żuchowski. traq@shl.pl BIG SISTER SYSTEM MONITORINGU SIECI DLA LINUX/UNIX I WINDOWS Michał (traq) Żuchowski traq@shl.pl INSTALACJA BIG SISTER 1. Wymagania: Prel: SNMP, GD, Net::SMTP, LWP::UserAgent and URI, Crypt::SSLeay - http://www.cpan.org

Bardziej szczegółowo

PORÓWNANIE PODEJŚCIA APROKSYMUJĄCEGO I KLASYFIKUJĄCEGO W PROGNOZOWANIU KURSÓW WYBRANYCH AKCJI NA GPW W WARSZAWIE S.A

PORÓWNANIE PODEJŚCIA APROKSYMUJĄCEGO I KLASYFIKUJĄCEGO W PROGNOZOWANIU KURSÓW WYBRANYCH AKCJI NA GPW W WARSZAWIE S.A Anna Kasznia Uniwersytet Ekonomiczny w Katowicach PORÓWNANIE PODEJŚCIA APROKSYMUJĄCEGO I KLASYFIKUJĄCEGO W PROGNOZOWANIU KURSÓW WYBRANYCH AKCJI NA GPW W WARSZAWIE S.A. Z UŻYCIEM JEDNOKIERUNKOWYCH SIECI

Bardziej szczegółowo

Analiza i prognozowanie poziomu zachorowań na grypę

Analiza i prognozowanie poziomu zachorowań na grypę Analiza i prognozowanie poziomu zachorowań na grypę Roksana Kowalska, Anna Noga, Maciej Kawecki, Paweł Szczypiór Instytut Matematyki i Informatyki Politechnika Wrocławska WZUR 2010 25 września 2010 1 /

Bardziej szczegółowo

Obrona rozprawy doktorskiej Neuro-genetyczny system komputerowy do prognozowania zmiany indeksu giełdowego

Obrona rozprawy doktorskiej Neuro-genetyczny system komputerowy do prognozowania zmiany indeksu giełdowego IBS PAN, Warszawa 9 kwietnia 2008 Obrona rozprawy doktorskiej Neuro-genetyczny system komputerowy do prognozowania zmiany indeksu giełdowego mgr inż. Marcin Jaruszewicz promotor: dr hab. inż. Jacek Mańdziuk,

Bardziej szczegółowo

17.12.2005 Neuron biologiczny. Źród lo: Korbicz i in. [4] Synapsa to po l aczenie nerwowymi.

17.12.2005 Neuron biologiczny. Źród lo: Korbicz i in. [4] Synapsa to po l aczenie nerwowymi. Wyk lad 1. 17.12.2005 Neuron biologiczny Źród lo: Korbicz i in. [4] Synapsa to po l aczenie miedzy dwoma komórkami nerwowymi. 1 neuron biologiczny A B C D Zakoñczenia przedsynaptyczne Akson Dendryt Cia³o

Bardziej szczegółowo

Wprowadzenie do Sieci Neuronowych Laboratorium 01 Organizacja zajęć. Perceptron.

Wprowadzenie do Sieci Neuronowych Laboratorium 01 Organizacja zajęć. Perceptron. Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu w dziedzinach matematyczno-przyrodniczych realizowany w ramach Poddziałania 4.. Programu Operacyjnego Kapitał Ludzki Wprowadzenie do Sieci

Bardziej szczegółowo

1. Architektury, algorytmy uczenia i projektowanie sieci neuronowych

1. Architektury, algorytmy uczenia i projektowanie sieci neuronowych Sztuczne sieci neuronowe i algorytmy genetyczne Artykuł pobrano ze strony eioba.pl SPIS TREŚCI 1. ARCHITEKTURY, ALGORYTMY UCZENIA I PROJEKTOWANIE SIECI NEURONOWYCH 1.1. HISTORIA ROZWOJU SZTUCZNYCH SIECI

Bardziej szczegółowo

PRZEWIDYWANIE RODZAJU USZKODZEŃ PRZEWODÓW WODOCIĄGOWYCH ZA POMOCĄ KLASYFIKUJĄCYCH SIECI NEURONOWYCH

PRZEWIDYWANIE RODZAJU USZKODZEŃ PRZEWODÓW WODOCIĄGOWYCH ZA POMOCĄ KLASYFIKUJĄCYCH SIECI NEURONOWYCH Przewody wodociągowe, sieci neuronowe, uszkodzenia Małgorzata KUTYŁOWSKA* PRZEWIDYWANIE RODZAJU USZKODZEŃ PRZEWODÓW WODOCIĄGOWYCH ZA POMOCĄ KLASYFIKUJĄCYCH SIECI NEURONOWYCH Celem pracy jest analiza i

Bardziej szczegółowo

PROGNOZOWANIE PORÓWNAWCZE ENERGII PROCESOWEJ ZESTAWÓW MASZYN DO ROBÓT ZIEMNYCH JAKO CZYNNIKA RYZYKA EMISYJNOŚCI CO2

PROGNOZOWANIE PORÓWNAWCZE ENERGII PROCESOWEJ ZESTAWÓW MASZYN DO ROBÓT ZIEMNYCH JAKO CZYNNIKA RYZYKA EMISYJNOŚCI CO2 PROGNOZOWANIE PORÓWNAWCZE ENERGII PROCESOWEJ ZESTAWÓW MASZYN DO ROBÓT ZIEMNYCH JAKO CZYNNIKA RYZYKA EMISYJNOŚCI CO2 Celem opracowania algorytmu obliczeń jest umożliwienie doboru zestawu maszyn do robót

Bardziej szczegółowo

Nieeuklidesowe sieci neuronowe

Nieeuklidesowe sieci neuronowe Uniwersytet Mikołaja Kopernika Wydział Fizyki, Astronomii i Informatyki Stosowanej Katedra Informatyki Stosowanej Helena Jurkiewicz numer albumu: 177622 Praca magisterska na kierunku fizyka komputerowa

Bardziej szczegółowo

KARTA MODUŁU KSZTAŁCENIA

KARTA MODUŁU KSZTAŁCENIA KARTA MODUŁU KSZTAŁCENIA I. Informacje ogólne 1 Nazwa modułu kształcenia Sztuczna inteligencja 2 Nazwa jednostki prowadzącej moduł Instytut Informatyki, Zakład Informatyki Stosowanej 3 Kod modułu (wypełnia

Bardziej szczegółowo

Klasyfikacja i regresja Wstęp do środowiska Weka

Klasyfikacja i regresja Wstęp do środowiska Weka Klasyfikacja i regresja Wstęp do środowiska Weka 19 listopada 2015 Opis pliku z zadaniami Wszystkie zadania na zajęciach będą przekazywane w postaci plików pdf sformatowanych podobnie do tego dokumentu.

Bardziej szczegółowo

KONCEPCJA WYKORZYSTANIA SIECI NEURONOWYCH MLP W PROCESIE LIKWIDACJI SZKÓD KOMUNIKACYJNYCH

KONCEPCJA WYKORZYSTANIA SIECI NEURONOWYCH MLP W PROCESIE LIKWIDACJI SZKÓD KOMUNIKACYJNYCH ZESZYTY NAUKOWE POLITECHNIKI ŚLĄSKIEJ 2008 Seria: TRANSPORT z. 64 Nr kol. 1803 Piotr CZECH, 1 Krystian WILK, 2 Rafał ŁUKASIK 3 KONCEPCJA WYKORZYSTANIA SIECI NEURONOWYCH MLP W PROCESIE LIKWIDACJI SZKÓD

Bardziej szczegółowo

Oznaczanie sk ladu gamma promieniotwórczych izotopów metoda sztucznych sieci neuronowych

Oznaczanie sk ladu gamma promieniotwórczych izotopów metoda sztucznych sieci neuronowych Akademia Górniczo - Hutnicza im. Stanis lawa Staszica w Krakowie Wydzia l Fizyki i Techniki Jadrowej Praca magisterska Sebastian Bożek kierunek studiów: fizyka techniczna specjalność: fizyka komputerowa

Bardziej szczegółowo

Symulacja obliczeń kwantowych

Symulacja obliczeń kwantowych Model kwantowych bramek logicznych w NumPy Wydział Fizyki Technicznej, Informatyki i Matematyki Stosowanej Politechnika Łódzka Sekcja Informatyki Kwantowej, 10 października 2007 Plan prezentacji 1 Python

Bardziej szczegółowo

Sieci samoorganizujące się na zasadzie współzawodnictwa

Sieci samoorganizujące się na zasadzie współzawodnictwa Sieci samoorganizujące się na zasadzie współzawodnictwa JERZY STEFANOWSKI Instytut Informatyki Politechnika Poznańska Plan 1. Wprowadzenie 2. Wykrywanie grup sieci LVQ 3. Reguły uczenia się konkurencyjnego

Bardziej szczegółowo

PRZEWIDYWANIE WŁAŚCIWOŚCI PRODUKTU Z WYKORZYSTANIEM UCZENIA MASZYN

PRZEWIDYWANIE WŁAŚCIWOŚCI PRODUKTU Z WYKORZYSTANIEM UCZENIA MASZYN PRZEWIDYWANIE WŁAŚCIWOŚCI PRODUKTU Z WYKORZYSTANIEM UCZENIA MASZYN Tomasz Demski, StatSoft Polska Sp. z o.o. Przewidywanie właściwości produktu na podstawie składu surowcowego oraz parametrów przebiegu

Bardziej szczegółowo

Uniwersytet Jagielloński Instytut Fizyki. Praca magisterska Procesy dekoherencji w chaotycznych układach kwantowych.

Uniwersytet Jagielloński Instytut Fizyki. Praca magisterska Procesy dekoherencji w chaotycznych układach kwantowych. Uniwersytet Jagielloński Instytut Fizyki Praca magisterska Procesy dekoherencji w chaotycznych układach kwantowych Marek Smaczyński opiekun pracy prof. dr hab. Karol Życzkowski Kraków, 009 Pragnę wyrazić

Bardziej szczegółowo

Elementy Sztucznej Inteligencji

Elementy Sztucznej Inteligencji Elementy Sztucznej Inteligencji Sztuczne sieci neuronowe wykład Elementy Sztucznej Inteligencji - wykład Plan Wzorce biologiczne. Idea SSN - model sztucznego neuronu. Perceptron prosty i jego uczenie reguł

Bardziej szczegółowo

Metoda wspomagania komputerowego w badaniach diagnostycznych łopatek turbin gazowych

Metoda wspomagania komputerowego w badaniach diagnostycznych łopatek turbin gazowych Bi u l e t y n WAT Vo l. LX, Nr1, 2011 Metoda wspomagania komputerowego w badaniach diagnostycznych łopatek turbin gazowych Mariusz Bogdan 1, Józef Błachnio 2 1 Politechnika Białostocka, Wydział Mechaniczny,

Bardziej szczegółowo

maj 2014 Politechnika Gdańska Wydział Oceanotechniki i Okrętownictwa St. II stop., sem. I

maj 2014 Politechnika Gdańska Wydział Oceanotechniki i Okrętownictwa St. II stop., sem. I Politechnika Gdańska Wydział Oceanotechniki i Okrętownictwa St. II stop., sem. I Podstawy teorii optymalizacji Wykład 12 M. H. Ghaemi maj 2014 Podstawy teorii optymalizacji Oceanotechnika, II stop., sem.

Bardziej szczegółowo

Wstęp do kognitywistyki. Wykład 3: Logiczny neuron. Rachunek sieci neuronowych

Wstęp do kognitywistyki. Wykład 3: Logiczny neuron. Rachunek sieci neuronowych Wstęp do kognitywistyki Wykład 3: Logiczny neuron. Rachunek sieci neuronowych Epistemologia eksperymentalna W. McCulloch: Wszystko, czego dowiadujemy się o organizmach wiedzie nas do wniosku, iż nie są

Bardziej szczegółowo

Uniwersytet Mikołaja Kopernika. Wydział Matematyki i Informatyki. Jarosław Piersa piersaj(at)mat.uni.torun.pl

Uniwersytet Mikołaja Kopernika. Wydział Matematyki i Informatyki. Jarosław Piersa piersaj(at)mat.uni.torun.pl Uniwersytet Mikołaja Kopernika Wydział Matematyki i Informatyki Jarosław Piersa piersaj(at)mat.uni.torun.pl Abstrakt Poniższy referat dotyczy zagadnień uczenia w sieciach neuronowych i bayesowskich(sieciach

Bardziej szczegółowo