Warszawa, 28 stycznia 2017 r., Blok tematyczny II Sztuczne sieci neuronowe (środowisko MATLAB i Simulink z wykorzystaniem Neural Network Toolbox),

Wielkość: px
Rozpocząć pokaz od strony:

Download "Warszawa, 28 stycznia 2017 r., Blok tematyczny II Sztuczne sieci neuronowe (środowisko MATLAB i Simulink z wykorzystaniem Neural Network Toolbox),"

Transkrypt

1 Studa Doktorancke IBS PA nt. Technk nformacyjne teora zastosowana WYKŁAD Semnarum nt. Modelowane rozwoju systemów w środowsku MATLABA Smulnka Prof. nadzw. dr hab. nż. Jerzy Tchórzewsk, jtchorzewsk@ntera.pl; Jerzy.Tchorzewsk@uph.edu.pl Warszawa, 28 styczna 2017 r., Blok tematyczny II Sztuczne sec neuronowe (środowsko MATLAB Smulnk z wykorzystanem eural etwork Toolbox), Uwag realzacyjne wstępne: 1. Przed zajęcam każdy doktorant pownen zanstalować paket MATLAB Smulnk (tral frmy MathWorks 1 ) z toolboxam: Symulnk, Symbolc Math T., System Identfcaton T., Control System Toolbox, eural etwork Toolbox, tp. 2. Przygotować dane do ćwczeń laboratoryjnych w środowsku Excel zawerające cztery-pęć welkośc wejścowych dwe-trzy welkośc wyjścowe w obszarze zanteresowań poszczególnych doktorantów. Wartośc poszczególnych zmennych wygodne jest zapsać kolumnowo (ok. 100 wartośc). 3. ajperw należy utworzyć w środowsku MATLAB dwe macerze, jedną zawerającą dane wejścowe, a druga zawerającą dane wyjścowe, o dentycznej lczbe kolumn (próbk pomarowe) oraz dowolnej lczbe werszy (welkośc wejścowe welkośc wyjścowe), polecenem: >unntwe=uwe oraz ynntwy=ywy (w wynku transformacj macerzy stworzonych dla potrzeb dentyfkacj za pomocą SIT) na wszelk wypadek należy przygotować też znormalzowane dane. 4. Zapoznać sę z toolbox-em MATLAB-a pn. eural etwork Toolbox, a w szczególnośc zwrócć uwagę m.n. na: 4.1 Rozpoczęce pracy w eural etwork Toolboxe (dalej: T) polecenem >nntool (nterfejs grafczny GUI, poznać możlwośc bblotek programów T) rys. 1. Interfejs grafczny GUI upraszcza pracę użytkownka oraz przyspesza oblczena. Potrzebne funkcje są dostępne w menu. Plk wejścowe można mportować do GUI T (Import), a uzyskwane sztuczne sec neuronowe eksportować do przestrzen roboczej MATLABA (export). Vew przycsk do oglądana archtektury wygenerowanej SS. Rys. 1. GUI eural etwork Toolbox-a. ajważnejsze oznaczena: Inputs pole do wprowadzana zmennych wejścowych uczących (u), Targets pole do wprowadzana zmennych wyjścowych uczących (nauczycela), ew etwork przycsk uruchamający tworzene archtektury SS, Import przycsk do mportowana danych z Workspace, Eksport przycsk do eksportowana wygenerowanego modelu do Workspace, 1

2 4.2 Zmenne wejścowe poberamy za pomocą przycsku Import (gdy mportujemy u ustawamy Import as Inputs, a gdy y ustawamy Targets) rys. 2. Rys. 2. Importowane par trenujących (macerzy u oraz y) 4.3 T umożlwa tworzene model systemów w postac sztucznych sec neuronowych np. sztucznych sec neuronowych welowarstwowych jednokerunkowych (perceptronowych), tp. przy znajomośc sygnałów wejścowych (u) wyjścowych (y) systemu, przy czym najperw projektuje sę archtekturę SS (ustala sę warstwę neuronów wejścowych odpowadającą wejścom, warstwy neuronów wyjścowych odpowadającą wyjścom oraz 1-2 warstwy ukryte z neuronam ukrytym rys. 3. Rys. 3. Projektowane SS. Podstawowe oznaczena: Get from Input tutaj wprowadzamy nazwę naszej zmennej wejścowej u, Tranng functon doberamy funkcję uczena, umber of Layers ustalamy lczbę warstw SS (oprócz warstwy wyjścowej) lczbę neuronów w każdej warstwe), Transfer functon funkcja aktywacj neuronu (pureln lnowa), Create przycsk do utworzena archtektury SS dla zaprojektowanych parametrów, Vew przycsk do obejrzena SS (rys. 4) Rys. 4. Utworzona archtektura SS (o lczbe neuronów w warstwe wejścowej 3, warstwe ukrytej 20 (w celu zwększena pojemnośc SS), warstwowe wyjścowej - 2). Oznaczena: IW{1,1} macerz wag pomędzy warstwą wejścową neuronów a warstwą ukrytą, LW{2,1} macerz wag pomędzy warstwą ukrytą a warstwą wyjścową neuronów, b{1}, b{2} basy, Intalze przycsk do ncjalzacj macerzy wag (przed uczenem nadane wartośc macerzom) rys. 5, Tran uczene SS rys. 6. Rys. 5. Incjalzacja SS. Oznaczena: Get from Input wprowadzamy nasza zmenną wejścową macerz u Intalze Wetghts nacskając przycsk nadajemy elementom wartośc początkowe poprzedzające proces uczena.

3 Rys. 6. Uczene SS modelu systemu. Oznaczena: Inputs wstawamy naszą macerz wejścową do uczena sec, Targets wstawamy nasza macerz wyjścową do uczena sec, Tanng Parameters najważnejsze aby ustawć lczbę epok (lczbę par trenujących),tran etworks uczy SS modelu systemu, Trang Info nformacja o przebegu uczena SS rys. 7 Rys. 7. Przebeg krzywej uczena. W tym przypadku ustawono 100 epok po nauczenu SS stneje możlwość obejrzena macerzy wag wektorów basów rys. 8 oraz wyeksportowana do Workspace modelu neuralnego systemu rys. 9. Rys. 8. Wedza SS dotycząca modelu systemu zawarta jest w macerzach wag oraz w wektorach basów. Rys. 9. Za pomocą przycsku Eksport mogę przeneś model do Workspace MATLAB-a (model ma nazwę w tym przypadku: lukas), a gdy jest model w Workspace to polecenem: >gensm(lukas) mogę wygenerować blok ze SS dla potrzeb wykorzystana jej w Smulnku rys. 10. Rys. 10. Model neuronalny systemu w postac bloczka ze SS dla potrzeb wykorzystana jej w Smulnk-u dalej budować modele w Smulnku dla celów symulacyjnych dla celów badana wrażlwośc.

4 5. eural etwork Toolbox zawera m.n.: 5.1 Rózne archtektury sztucznych sec neuronowych - Seć PERCEPTRO o skokowej funkcj aktywacj, - Sec typu ADALIE MADELIE, - Seć jednokerunkowa z metodą wstecznej propagacj błędów, - Seć typu WTA (Kohenena), - Seć rezonansowa ART, - Seć ze sprzężenem zwrotnym Hopfelda. 5.2 Różne rodzaje funkcje aktywacj - hardlm funkcja skoku jednostkowego przyjmująca wartośc 0 lub 1, - hardlms funkcja symetryczna przyjmująca wartośc -1 lub 1, - logsg funkcja sgmodalna unpolarna, - tansg funkcja sgmodalna bpolarna, - pureln funkcja lnowa, - satln funkcja lnowa w zakrese (-1,1), - compet funkcja współzawodnctwa neuronowe w warstwe typu WTA. 5.3 Różne metody uczena learnbp algorytm wstecznej propagacj błędu w odnesenu do jednokerunkowej sec welowarstwowej learnbpm algorytm wstecznej propagacj błędu w odnesenu do jednokerunkowej sec welowarstwowej z wykorzystanem momentum, learnh algorytm Hebba, learnhd algorytm Hebba z zapomnanem, learns algorytm uczena ISTAR, learnos algorytm uczena OUTSTAR, learnk algorytm SOM Kohenena, learnp algorytm uczena PERCEPTRO-u, learnwh algorytm uczena Wdrowa-Hofa. Cel wykładu: Moduł II ( r.) obejmuje bardzo zwęzłe wprowadzene do modelowana neuralnego systemów techncznych technczno-ekonomcznych, w tym krótk przegląd przykładów środowsk programstycznych wykorzystywanych do modelowana neuralnego ze szczególnym zwrócenem uwag na środowsko MATLAB opracowane prowadzone przez frmę MathWorks, w tym na eural etwork Toolbox oraz Smulnk. Treśc dydaktyczne Celem wykładu jest wprowadzene do środowska MATLAB ze szczególnym zwrócenem uwag na praktyczne umejętnośc projektowana systemów sztucznej ntelgencj w środowsku MATLAB z wykorzystanem umejętnośc projektowana uczena sztucznych sec neuronowych model systemów, procesów obektów przy pomocy eural etwork Toolbox-a częścowo Smulnka (dalej: SIM). W szczególnośc zostane zwrócona uwaga na modele neuronalne typu: SS PERCEPTRO, SS HOPFIELDA oraz SS SOM Kohenena. Do zbudowana SS jednokerunkowej welowarstwowej punktem wyjśca był model McCullocha-Ptsa, która nazywa sę Perceptronem prostym (rys. 1). Jako funkcję aktywacj przyjęto funkcję bpolarną f(net). Sygnał net na wyjścu częśc lnowej Perceptronu jest dany wzorem: gdze: w0 = v oraz u0 = -1. net = = 1 w u v = = 0 w u, (4)

5 Zadanem Perceptronu jest klasyfkacja wektora u=[u1,, u] T do jednej z dwóch klas oznaczonych lteram L1 oraz L2. Perceptron klasyfkuje wektor u do klasy L1, jeżel sygnał wyjścowy przyjmuje wartość 1 oraz do klasy L2, jeżel sygnał wyjścowy przyjmuje wartość -1. Zatem Perceptron dzel - wymarową przestrzeń wektorów wejścowych u na dwe półprzestrzene rozdzelone -1 wymarowa hperpłaszczyzną o równanu: = 1 w u v = w u = 0 (5) = 0 Hperpłaszczyzna (5) nos nazwę grancy decyzyjnej (ang. Decson boundary). Jeśl =2 to granca decyzyjną jest lna prosta o równanu: Algorytm uczena perceptronu w1u1+w2u2 v =0 (6) Rys. 1. Algorytm uczena SS. Pokazany zostane sposób tworzena schematów blokowych w Smulnku prowadzena badań symulacyjnych z wykorzystanem SS. W drugej częśc wykładu zostane pokazany przykład procesu budowy uczena sztucznej sec neuronowej, który następne na ćwczenach laboratoryjnych stanowł będze dla doktorantów przykład do samodzelnego przeprowadzena badań neuronalnych. Lteratura podstawowa: [1] MATLAB, Smulnk, (+ poszczególne toolboxy). User s Gude. The MathWorks [2] Osowsk S.: Sec neuronowe do przetwarzana nformacj. WT. Warszawa 2002 [3] Tadeusewcz R.: Elementarne wprowadzene do technk sec neuronowych z przekładowym programam.aow PLJ. Warszawa 1999 [4] Żurada J., nn: Sztuczne sec neuronowe. WT. Warszawa 1996 Lteratura uzupełnająca: [5] Brzózka J., Dorobczyńsk L., Programowane w MATLAB, MIKOM, Warszawa 1998 [6] Cchock A., Osowsk S., Swek K.: MATLAB w zastosowanu do oblczeń obwodowych przetwarzana sygnałów. OW PW. Warszawa 2006 [7] Kamńska A., Pńczyk B.: Ćwczena z MATLAB. Przykłady zadana. MIKOM. Warszawa 2002 [8] Mrozek B., Mrozek Z., MATLAB Smulnk. Poradnk użytkownka. Wyd. III, Helon 2010 [9] Mrozek B., Mrozek Z., MATLAB unwersalne środowsko do oblczeń naukowo-techncznych, Wydawnctwo PLJ, Warszawa 2011 [10] Mulawka J., Systemy ekspertowe. WT. Warszawa 1996 [11] Tadeusewcz R.: Sec neuronowe. AOW RM. Warszawa 1999 [12] Zalewsk A., Cegeła R., MATLAB - oblczena numeryczne ch zastosowane, AKOM, Poznań 1996

Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba

Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 1 Ćwczene 2: Perceptron WYMAGANIA 1. Sztuczne sec neuronowe budowa oraz ops matematyczny perceptronu (funkcje przejśca perceptronu), uczene perceptronu

Bardziej szczegółowo

Zaawansowane metody numeryczne

Zaawansowane metody numeryczne Wykład 9. jej modyfkacje. Oznaczena Będzemy rozpatrywać zagadnene rozwązana następującego układu n równań lnowych z n newadomym x 1... x n : a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x

Bardziej szczegółowo

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311 Sztuczne sec neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyk, p. 311 Wykład 6 PLAN: - Repetto (brevs) - Sec neuronowe z radalnym funkcjam bazowym Repetto W aspekce archtektury: zajmowalśmy

Bardziej szczegółowo

Neural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych.

Neural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych. Neural networks Lecture Notes n Pattern Recognton by W.Dzwnel Krótka hstora McCulloch Ptts (1943) - perwszy matematyczny ops dzalana neuronu przetwarzana przez nego danych. Proste neurony, które mogly

Bardziej szczegółowo

Diagonalizacja macierzy kwadratowej

Diagonalizacja macierzy kwadratowej Dagonalzacja macerzy kwadratowej Dana jest macerz A nân. Jej wartośc własne wektory własne spełnają równane Ax x dla,..., n Każde z równań własnych osobno można zapsać w postac: a a an x x a a an x x an

Bardziej szczegółowo

Sprawozdanie powinno zawierać:

Sprawozdanie powinno zawierać: Sprawozdane pownno zawerać: 1. wypełnoną stronę tytułową (gotowa do ćw. nr 0 na strone drugej, do pozostałych ćwczeń zameszczona na strone 3), 2. krótk ops celu dośwadczena, 3. krótk ops metody pomaru,

Bardziej szczegółowo

Podstawy Sztucznej Inteligencji

Podstawy Sztucznej Inteligencji Politechnika Łódzka Katedra Informatyki Stosowanej Podstawy Sztucznej Inteligencji Laboratorium Ćwiczenie 2 Wykorzystanie środowiska Matlab do modelowania sztucznych sieci neuronowych Opracowali: Dr hab

Bardziej szczegółowo

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia

Bardziej szczegółowo

Sieci Neuronowe 1 Michał Bereta

Sieci Neuronowe 1 Michał Bereta Wprowadzene Zagadnena Sztucznej Intelgencj laboratorum Sec Neuronowe 1 Mchał Bereta Sztuczne sec neuronowe można postrzegać jako modele matematyczne, które swoje wzorce wywodzą z bolog obserwacj ludzkch

Bardziej szczegółowo

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Wykład 2: Uczenie nadzorowane sieci neuronowych - I Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za

Bardziej szczegółowo

MATLAB Neural Network Toolbox przegląd

MATLAB Neural Network Toolbox przegląd MATLAB Neural Network Toolbox przegląd WYKŁAD Piotr Ciskowski Neural Network Toolbox: Neural Network Toolbox - zastosowania: przykłady zastosowań sieci neuronowych: The 1988 DARPA Neural Network Study

Bardziej szczegółowo

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych Najprostsza jest jednostka lnowa: Neuron lnowy potraf ona rozpoznawać wektor wejścowy X = (x 1, x 2,..., x n ) T zapamętany we współczynnkach wagowych W = (w 1, w 2,..., w n ), Zauważmy, że y = W X Załóżmy,

Bardziej szczegółowo

Laboratorium ochrony danych

Laboratorium ochrony danych Laboratorum ochrony danych Ćwczene nr Temat ćwczena: Cała skończone rozszerzone Cel dydaktyczny: Opanowane programowej metody konstruowana cał skończonych rozszerzonych GF(pm), poznane ch własnośc oraz

Bardziej szczegółowo

ID1SII4. Informatyka I stopień (I stopień / II stopień) ogólnoakademicki (ogólno akademicki / praktyczny) stacjonarne (stacjonarne / niestacjonarne)

ID1SII4. Informatyka I stopień (I stopień / II stopień) ogólnoakademicki (ogólno akademicki / praktyczny) stacjonarne (stacjonarne / niestacjonarne) Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 lutego 2012r. KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu ID1SII4 Nazwa modułu Systemy inteligentne 1 Nazwa modułu w języku angielskim Intelligent

Bardziej szczegółowo

Klasyfkator lnowy Wstęp Klasyfkator lnowy jest najprostszym możlwym klasyfkatorem. Zakłada on lnową separację lnowy podzał dwóch klas mędzy sobą. Przedstawa to ponższy rysunek: 5 4 3 1 0-1 - -3-4 -5-5

Bardziej szczegółowo

Nie istnieje ogólna recepta, każdy przypadek musi być rozważany indywidualnie!

Nie istnieje ogólna recepta, każdy przypadek musi być rozważany indywidualnie! Kwesta wyboru struktury modelu neuronowego Schematyczne przedstawene etapów przetwarzana danych w procese neuronowego modelowana Ne stneje ogólna recepta, każdy przypadek mus być rozważany ndywdualne!

Bardziej szczegółowo

Algorytmy sztucznej inteligencji

Algorytmy sztucznej inteligencji Algorytmy sztucznej inteligencji Dynamiczne sieci neuronowe 1 Zapis macierzowy sieci neuronowych Poniżej omówione zostaną części składowe sieci neuronowych i metoda ich zapisu za pomocą macierzy. Obliczenia

Bardziej szczegółowo

SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW

SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW Stefan WÓJTOWICZ, Katarzyna BIERNAT ZAKŁAD METROLOGII I BADAŃ NIENISZCZĄCYCH INSTYTUT ELEKTROTECHNIKI ul. Pożaryskego 8, 04-703 Warszawa tel.

Bardziej szczegółowo

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych Zaawansowane metody numeryczne Komputerowa analza zagadneń różnczkowych 1. Układy równań lnowych P. F. Góra http://th-www.f.uj.edu.pl/zfs/gora/ semestr letn 2006/07 Podstawowe fakty Równane Ax = b, x,

Bardziej szczegółowo

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, 2012 Spis treści Przedmowa do wydania drugiego Przedmowa IX X 1. Wstęp 1 2. Wybrane zagadnienia sztucznej inteligencji

Bardziej szczegółowo

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Wykład 2: Uczenie nadzorowane sieci neuronowych - I Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za

Bardziej szczegółowo

Analiza danych OGÓLNY SCHEMAT. http://zajecia.jakubw.pl/ Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja)

Analiza danych OGÓLNY SCHEMAT. http://zajecia.jakubw.pl/ Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja) Analza danych Dane trenngowe testowe. Algorytm k najblższych sąsadów. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ OGÓLNY SCHEMAT Mamy dany zbór danych podzelony na klasy decyzyjne, oraz

Bardziej szczegółowo

Plan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty)

Plan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty) Plan wykładu Dzałane neuronu dyskretnego warstwy neuronów dyskretnych Wykład : Reguły uczena sec neuronowych. Sec neuronowe ednokerunkowe. Reguła perceptronowa Reguła Wdrowa-Hoffa Reguła delta ałgorzata

Bardziej szczegółowo

Karta (sylabus) modułu/przedmiotu

Karta (sylabus) modułu/przedmiotu Karta (sylabus) modułu/przedmotu Budownctwo (Nazwa kerunku studów) Studa I Stopna Przedmot: Kanalzacja I Sewage systems Rok: III Semestr: 5 MK_59 Rodzaje zajęć lczba godzn: Studa stacjonarne Studa nestacjonarne

Bardziej szczegółowo

Sztuczne siei neuronowe - wprowadzenie

Sztuczne siei neuronowe - wprowadzenie Metody Sztucznej Inteligencji w Sterowaniu Ćwiczenie 2 Sztuczne siei neuronowe - wprowadzenie Przygotował: mgr inż. Marcin Pelic Instytut Technologii Mechanicznej Politechnika Poznańska Poznań, 2 Wstęp

Bardziej szczegółowo

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych. Wstęp do teorii sztucznej inteligencji Wykład III Modele sieci neuronowych. 1 Perceptron model najprostzszy przypomnienie Schemat neuronu opracowany przez McCullocha i Pittsa w 1943 roku. Przykład funkcji

Bardziej szczegółowo

Laboratorium z Podstaw Automatyki. Laboratorium nr 4. Działanie układu automatycznej regulacji. Rodzaje regulatorów.

Laboratorium z Podstaw Automatyki. Laboratorium nr 4. Działanie układu automatycznej regulacji. Rodzaje regulatorów. . Cele ćwczena Laboratorum nr 4 Dzałane ukłau automatycznej regulacj. ozaje regulatorów. zaoznane sę z buową załanem ukłau regulacj, zaoznane sę z różnym strukturam regulatorów, obór arametrów regulatorów

Bardziej szczegółowo

WSHiG Karta przedmiotu/sylabus

WSHiG Karta przedmiotu/sylabus WSHG Karta przedmotu/sylabus KIERUNEK SPECJALNOŚĆ TRYB STUDIÓW SEMESTR Turystyka Rekreacja Zarządzane marketng Stacjonarny / nestacjonarny I / I stopna Nazwa przedmotu ELEMENTY PRAWA GOSPODARCZEGO ZM_MKPR_S_8

Bardziej szczegółowo

Urządzenia wejścia-wyjścia

Urządzenia wejścia-wyjścia Urządzena wejśca-wyjśca Klasyfkacja urządzeń wejśca-wyjśca. Struktura mechanzmu wejśca-wyjśca (sprzętu oprogramowana). Interakcja jednostk centralnej z urządzenam wejśca-wyjśca: odpytywane, sterowane przerwanam,

Bardziej szczegółowo

Karta (sylabus) modułu/przedmiotu

Karta (sylabus) modułu/przedmiotu Karta (sylabus) mułu/przedmotu Budownctwo (Nazwa kerunku studów) Studa I Stopna Przedmot: Materały budowlane II Constructon materals Rok: II Semestr: MK_26 Rzaje zajęć lczba gzn: Studa stacjonarne Studa

Bardziej szczegółowo

MODELOWANIE NEURONALNE ROZWOJU SYSTEMU ELEKTROENERGETYCZNEGO. CZĘŚĆ 2. MODELE SYSTEMU IEEE RTS

MODELOWANIE NEURONALNE ROZWOJU SYSTEMU ELEKTROENERGETYCZNEGO. CZĘŚĆ 2. MODELE SYSTEMU IEEE RTS POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 82 Electrical Engineering 2015 Jerzy TCHÓRZEWSKI* Maciej PYTEL ** MODELOWANIE NEURONALNE ROZWOJU SYSTEMU ELEKTROENERGETYCZNEGO. CZĘŚĆ 2. MODELE SYSTEMU

Bardziej szczegółowo

BADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda

BADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda BADANIA OPERACYJNE Podejmowane decyzj w warunkach nepewnośc dr Adam Sojda Teora podejmowana decyzj gry z naturą Wynk dzałana zależy ne tylko od tego, jaką podejmujemy decyzję, ale równeż od tego, jak wystąp

Bardziej szczegółowo

MATLAB Neural Network Toolbox uczenie sieci (dogłębnie)

MATLAB Neural Network Toolbox uczenie sieci (dogłębnie) MATLAB Neural Network Toolbox uczenie sieci (dogłębnie) WYKŁAD Piotr Ciskowski Neural Network Toolbox: NEURAL NETWORK TOOLBOX NOTACJA Neural Network Toolbox - notacja: pojedynczy neuron: z jednym wejściem

Bardziej szczegółowo

WSHiG Karta przedmiotu/sylabus. Studia stacjonarne 15 w Studia niestacjonarne 8 w Studia stacjonarne 45 ćw Studia niestacjonarne 12 ćw

WSHiG Karta przedmiotu/sylabus. Studia stacjonarne 15 w Studia niestacjonarne 8 w Studia stacjonarne 45 ćw Studia niestacjonarne 12 ćw WSHG Karta przedmotu/sylabus KIERUNEK SPECJALNOŚĆ TRYB STUDIÓW SEMESTR Turystyka Rekreacja Obsługa Ruchu Turystycznego Stacjonarny / nestacjonarny VI / I stopna Nazwa przedmotu Analza turystycznego ORT_MKK_S_21

Bardziej szczegółowo

WSHiG Karta przedmiotu/sylabus. Prawo pracy i ubezpieczeń społecznych. Studia stacjonarne 16 godz. Studia niestacjonarne 30 godz.

WSHiG Karta przedmiotu/sylabus. Prawo pracy i ubezpieczeń społecznych. Studia stacjonarne 16 godz. Studia niestacjonarne 30 godz. WSHG Karta przedmotu/sylabus KIERUNEK SPECJALNOŚĆ TRYB STUDIÓW SEMESTR Turystyka Rekreacja Zarządzane marketng Stacjonarny / nestacjonarny III/I stopna Nazwa przedmotu Wymar godznowy poszczególnych form

Bardziej szczegółowo

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy

Bardziej szczegółowo

Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu

Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu Wprowadzene do Sec Neuronowych Algorytm wstecznej propagacj błędu Maja Czoków, Jarosław Persa --6 Powtórzene. Perceptron sgmodalny Funkcja sgmodalna: σ(x) = + exp( c (x p)) Parametr c odpowada za nachylene

Bardziej szczegółowo

WikiWS For Business Sharks

WikiWS For Business Sharks WkWS For Busness Sharks Ops zadana konkursowego Zadane Opracowane algorytmu automatyczne przetwarzającego zdjęce odręczne narysowanego dagramu na tablcy lub kartce do postac wektorowej zapsanej w formace

Bardziej szczegółowo

WSHiG Karta przedmiotu/sylabus. Studia stacjonarne 15 w Studia niestacjonarne 8 w Studia stacjonarne 45 ćw Studia niestacjonarne 12 ćw

WSHiG Karta przedmiotu/sylabus. Studia stacjonarne 15 w Studia niestacjonarne 8 w Studia stacjonarne 45 ćw Studia niestacjonarne 12 ćw WSHG Karta przedmotu/sylabus KIERUNEK SPECJALNOŚĆ TRYB STUDIÓW SEMESTR Turystyka Rekreacja Obsługa Ruchu Turystycznego Stacjonarny / nestacjonarny VI / I stopna Nazwa przedmotu Analza ORT_MKK_S_21 ORT_MKK_NST_21

Bardziej szczegółowo

Symulator układu regulacji automatycznej z samonastrajającym regulatorem PID

Symulator układu regulacji automatycznej z samonastrajającym regulatorem PID Symulator układu regulacj automatycznej z samonastrajającym regulatorem PID Założena. Należy napsać program komputerowy symulujący układ regulacj automatycznej, który: - ma pracować w trybe sterowana ręcznego

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 18. ALGORYTMY EWOLUCYJNE - ZASTOSOWANIA Częstochowa 2014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska ZADANIE ZAŁADUNKU Zadane załadunku plecakowe

Bardziej szczegółowo

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe Sztuczne sec neuronowe Jerzy Stefanowsk Plan wykładu 1. Wprowadzene 2. Model sztucznego neuronu. 3. Topologe sec neuronowych 4. Reguły uczena sec neuronowych. 5. Klasyfkaca sec neuronowych. 6. Sec warstwowe

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką

Bardziej szczegółowo

Sieci Neuronowe 2 Michał Bereta

Sieci Neuronowe 2 Michał Bereta Zagadnena Sztucznej Intelgencj laboratorum Sec Neuronowe 2 Mchał Bereta Cele laboratorum: zapoznane sę z nowym rodzajam sec neuronowych: secam Kohonena oraz secam radalnym porównane sec Kohonena oraz sec

Bardziej szczegółowo

D Archiwum Prac Dyplomowych - Instrukcja dla studentów

D Archiwum Prac Dyplomowych - Instrukcja dla studentów Kraków 01.10.2015 D Archwum Prac Dyplomowych - Instrukcja dla studentów Procedura Archwzacj Prac Dyplomowych jest realzowana zgodne z zarządzenem nr 71/2015 Rektora Unwersytetu Rolnczego m. H. Kołłątaja

Bardziej szczegółowo

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu Literatura Wykład : Wprowadzenie do sztucznych sieci neuronowych Małgorzata Krętowska Wydział Informatyki Politechnika Białostocka Tadeusiewicz R: Sieci neuronowe, Akademicka Oficyna Wydawnicza RM, Warszawa

Bardziej szczegółowo

Zadanie na wykonanie Projektu Zespołowego

Zadanie na wykonanie Projektu Zespołowego Zadane na wykonane Projektu Zespołowego Celem projektu jest uzyskane następującego szeregu umejętnośc praktycznych: umejętnośc opracowana równoległych wersj algorytmów (na przykładze algorytmów algebry

Bardziej szczegółowo

Politechnika Warszawska

Politechnika Warszawska Politechnika Warszawska Programowa realizacja sieci neuronowych Zbigniew Szymański, Stanisław Jankowski grudzień 03 Instytut Informatyki Nowowiejska 5 / 9, 00-665 Warszawa Programowa realizacja sieci neuronowych

Bardziej szczegółowo

KARTA MODUŁU KSZTAŁCENIA

KARTA MODUŁU KSZTAŁCENIA KARTA MODUŁU KSZTAŁCENIA I. 1 Nazwa modułu kształcena Geologa Informacje ogólne 2 Nazwa jednostk prowadzącej moduł Państwowa Szkoła Wyższa m. Papeża Jana Pawła II,Katedra Nauk Techncznych, Zakład Budownctwa

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE METODY KLASYFIKACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

SYSTEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE METODY KLASYFIKACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska. SYSEMY UCZĄCE SIĘ WYKŁAD 5. LINIOWE MEODY KLASYFIKACJI Częstochowa 4 Dr hab. nż. Grzegorz Dude Wydzał Eletryczny Poltechna Częstochowsa FUNKCJE FISHEROWSKA DYSKRYMINACYJNE DYSKRYMINACJA I MASZYNA LINIOWA

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 5. SZTUCZNE SIECI NEURONOWE REGRESJA Częstochowa 4 Dr hab. nż. Grzegorz Dudek Wdzał Elektrczn Poltechnka Częstochowska PROBLEM APROKSYMACJI FUNKCJI Aproksmaca funkc przblżane

Bardziej szczegółowo

COMPUTER AIDED TEACHING REGARDING APLLICATIONS OF NEURAL NETWORKS AND GENETIC ALGORITHMS FOR SOLVING INVERSE KINEMATICS PROBLEM OF MANIPULATORS

COMPUTER AIDED TEACHING REGARDING APLLICATIONS OF NEURAL NETWORKS AND GENETIC ALGORITHMS FOR SOLVING INVERSE KINEMATICS PROBLEM OF MANIPULATORS STUDIA INFORMATICA 26 Volume 27 Number 2 (67) Rafał SZKOWRON, Andrzej HARLECKI Akadema Technczno-Humanstyczna w Belsku-Bałej, Katedra Mechank Informatyk KOMPUTEROWE WSPOMAGANIE NAUCZANIA Z ZAKRESU ZASTOSOWAŃ

Bardziej szczegółowo

Semestr zimowy Brak Nie

Semestr zimowy Brak Nie KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu Nazwa modułu Nazwa modułu w języku angelskm Obowązuje od roku akademckego 2015/2016 Z-ID-702 Semnarum praca dyplomowa Semnar and Dplom Thess A. USYTUOWANIE MODUŁU

Bardziej szczegółowo

KRZYWA BÉZIERA TWORZENIE I WIZUALIZACJA KRZYWYCH PARAMETRYCZNYCH NA PRZYKŁADZIE KRZYWEJ BÉZIERA

KRZYWA BÉZIERA TWORZENIE I WIZUALIZACJA KRZYWYCH PARAMETRYCZNYCH NA PRZYKŁADZIE KRZYWEJ BÉZIERA KRZYWA BÉZIERA TWORZENIE I WIZUALIZACJA KRZYWYCH PARAMETRYCZNYCH NA PRZYKŁADZIE KRZYWEJ BÉZIERA Krzysztof Serżęga Wyższa Szkoła Informatyk Zarządzana w Rzeszowe Streszczene Artykuł porusza temat zwązany

Bardziej szczegółowo

Podstawy Sztucznej Inteligencji (PSZT)

Podstawy Sztucznej Inteligencji (PSZT) Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12

Bardziej szczegółowo

Wyznaczenie promienia hydrodynamicznego cząsteczki metodą wiskozymetryczną. Część 2. Symulacje komputerowe

Wyznaczenie promienia hydrodynamicznego cząsteczki metodą wiskozymetryczną. Część 2. Symulacje komputerowe Rafał Górnak Wyznaczene promena hydrodynamcznego cząsteczk metodą wskozymetryczną. Część. Symulacje komputerowe Pojęca podstawowe Symulacje komputerowe, zasady dynamk Newtona, dynamka molekularna, potencjał

Bardziej szczegółowo

Ćwiczenie 2. Parametry statyczne tranzystorów bipolarnych

Ćwiczenie 2. Parametry statyczne tranzystorów bipolarnych Ćwczene arametry statyczne tranzystorów bpolarnych el ćwczena odstawowym celem ćwczena jest poznane statycznych charakterystyk tranzystorów bpolarnych oraz metod dentyfkacj parametrów odpowadających m

Bardziej szczegółowo

TRANZYSTOR BIPOLARNY CHARAKTERYSTYKI STATYCZNE

TRANZYSTOR BIPOLARNY CHARAKTERYSTYKI STATYCZNE POLITHNIKA RZSZOWSKA Katedra Podstaw lektronk Instrkcja Nr4 F 00/003 sem. letn TRANZYSTOR IPOLARNY HARAKTRYSTYKI STATYZN elem ćwczena jest pomar charakterystyk statycznych tranzystora bpolarnego npn lb

Bardziej szczegółowo

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, 2013 Spis treści Przedmowa 7 1. Wstęp 9 1.1. Podstawy biologiczne działania neuronu 9 1.2. Pierwsze modele sieci neuronowej

Bardziej szczegółowo

WSHiG Karta przedmiotu/sylabus. Prawo

WSHiG Karta przedmiotu/sylabus. Prawo WSHG Karta przedmotu/sylabus KIERUNEK SPECJALNOŚĆ TRYB STUDIÓW SEMESTR Turystyka Rekreacja Obsługa Ruchu Turystycznego, Hotelarstwo Gastronoma, Zarządzane Marketng, Gastronom, Turystyce Rekreacj Stacjonarny

Bardziej szczegółowo

MODEL PROGNOZUJĄCY EKOEFEKTYWNOŚĆ TECHNOLOGII ZRÓWNOWAŻONEGO ROZWOJU W OPARCIU O SIECI NEURONOWE

MODEL PROGNOZUJĄCY EKOEFEKTYWNOŚĆ TECHNOLOGII ZRÓWNOWAŻONEGO ROZWOJU W OPARCIU O SIECI NEURONOWE ZADANIA 3.4., 3.5. 3.6 OPRACOWANIE, TESTOWANIE I WERYFIKACJA ALGORYTMU MODELU OCENY EKOEFEKTYWNOŚCI TECHNOLOGII MODEL PROGNOZUJĄCY EKOEFEKTYWNOŚĆ TECHNOLOGII ZRÓWNOWAŻONEGO ROZWOJU W OPARCIU O SIECI NEURONOWE

Bardziej szczegółowo

wiedzy Sieci neuronowe

wiedzy Sieci neuronowe Metody detekcji uszkodzeń oparte na wiedzy Sieci neuronowe Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 7 Wprowadzenie Okres kształtowania się teorii sztucznych sieci

Bardziej szczegółowo

KURS STATYSTYKA. Lekcja 6 Regresja i linie regresji ZADANIE DOMOWE. www.etrapez.pl Strona 1

KURS STATYSTYKA. Lekcja 6 Regresja i linie regresji ZADANIE DOMOWE. www.etrapez.pl Strona 1 KURS STATYSTYKA Lekcja 6 Regresja lne regresj ZADANIE DOMOWE www.etrapez.pl Strona 1 Część 1: TEST Zaznacz poprawną odpowedź (tylko jedna jest prawdzwa). Pytane 1 Funkcja regresj I rodzaju cechy Y zależnej

Bardziej szczegółowo

AUTOMATYKA I STEROWANIE W CHŁODNICTWIE, KLIMATYZACJI I OGRZEWNICTWIE L3 STEROWANIE INWERTEROWYM URZĄDZENIEM CHŁODNICZYM W TRYBIE PD ORAZ PID

AUTOMATYKA I STEROWANIE W CHŁODNICTWIE, KLIMATYZACJI I OGRZEWNICTWIE L3 STEROWANIE INWERTEROWYM URZĄDZENIEM CHŁODNICZYM W TRYBIE PD ORAZ PID ĆWICZENIE LABORAORYJNE AUOMAYKA I SEROWANIE W CHŁODNICWIE, KLIMAYZACJI I OGRZEWNICWIE L3 SEROWANIE INWEREROWYM URZĄDZENIEM CHŁODNICZYM W RYBIE PD ORAZ PID Wersja: 03-09-30 -- 3.. Cel ćwczena Celem ćwczena

Bardziej szczegółowo

Nieeuklidesowe sieci neuronowe

Nieeuklidesowe sieci neuronowe Unwersytet Mkoaja Kopernka Wydza Fzyk, Astronom Informatyk Stosowanej IS Helena Jurkewcz numer albumu: 177622 Praca magsterska na kerunku Fzyka Komputerowa Neeukldesowe sec neuronowe Opekun pracy dyplomowej

Bardziej szczegółowo

5. CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWE

5. CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWE 5. CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWE Oprócz transmtancj operatorowej, do opsu członów układów automatyk stosuje sę tzw. transmtancję wdmową. Transmtancję wdmową G(j wyznaczyć moŝna dzęk podstawenu do wzoru

Bardziej szczegółowo

Systemy Ochrony Powietrza Ćwiczenia Laboratoryjne

Systemy Ochrony Powietrza Ćwiczenia Laboratoryjne ś POLITECHNIKA POZNAŃSKA INSTYTUT INŻYNIERII ŚRODOWISKA PROWADZĄCY: mgr nż. Łukasz Amanowcz Systemy Ochrony Powetrza Ćwczena Laboratoryjne 2 TEMAT ĆWICZENIA: Oznaczane lczbowego rozkładu lnowych projekcyjnych

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6 Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Zastosowane modelu potęgowego Model potęgowy Przekształcene Boxa-Coxa 2. Zmenne cągłe za zmenne dyskretne 3. Interpretacja parametrów przy zmennych dyskretnych

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 15. ALGORYTMY GENETYCZNE Częstochowa 014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska TERMINOLOGIA allele wartośc, waranty genów, chromosom - (naczej

Bardziej szczegółowo

STATECZNOŚĆ SKARP. α - kąt nachylenia skarpy [ o ], φ - kąt tarcia wewnętrznego gruntu [ o ],

STATECZNOŚĆ SKARP. α - kąt nachylenia skarpy [ o ], φ - kąt tarcia wewnętrznego gruntu [ o ], STATECZNOŚĆ SKARP W przypadku obektu wykonanego z gruntów nespostych zaprojektowane bezpecznego nachylena skarp sprowadza sę do przekształcena wzoru na współczynnk statecznośc do postac: tgφ tgα = n gdze:

Bardziej szczegółowo

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB Rozwązywane zadań optymalzacj w środowsku programu MATLAB Zagadnene optymalzacj polega na znajdowanu najlepszego, względem ustalonego kryterum, rozwązana należącego do zboru rozwązań dopuszczalnych. Standardowe

Bardziej szczegółowo

Laboratorium Pomiarów i Automatyki w Inżynierii Chemicznej Regulacja Ciągła

Laboratorium Pomiarów i Automatyki w Inżynierii Chemicznej Regulacja Ciągła Zakład Wydzałowy Inżyner Bomedycznej Pomarowej Laboratorum Pomarów Automatyk w Inżyner Chemcznej Regulacja Cągła Wrocław 2005 . Mary jakośc regulacj automatycznej. Regulacja automatyczna polega na oddzaływanu

Bardziej szczegółowo

Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2)

Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2) Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2) Ewa Wołoszko Praca pisana pod kierunkiem Pani dr hab. Małgorzaty Doman Plan tego wystąpienia Teoria Narzędzia

Bardziej szczegółowo

Zastosowanie wielowymiarowej analizy porównawczej w doborze spó³ek do portfela inwestycyjnego Zastosowanie wielowymiarowej analizy porównawczej...

Zastosowanie wielowymiarowej analizy porównawczej w doborze spó³ek do portfela inwestycyjnego Zastosowanie wielowymiarowej analizy porównawczej... Adam Waszkowsk * Adam Waszkowsk Zastosowane welowymarowej analzy porównawczej w doborze spó³ek do portfela nwestycyjnego Zastosowane welowymarowej analzy porównawczej... Wstêp Na warszawskej Ge³dze Paperów

Bardziej szczegółowo

Budowa optymalnego modelu prognostycznego z wykorzystaniem preprocessingu w sztucznych sieciach neuronowych 1

Budowa optymalnego modelu prognostycznego z wykorzystaniem preprocessingu w sztucznych sieciach neuronowych 1 Andrzej Burda Budowa optymalnego modelu prognostycznego z wykorzystanem preprocessngu w sztucznych secach neuronowych 1 Streszczene Od początku lat 60-tych obserwujemy ntensyfkacje badań zarówno teoretycznych

Bardziej szczegółowo

ELEMENTY AUTOMATYKI PRACA W PROGRAMIE SIMULINK 2013

ELEMENTY AUTOMATYKI PRACA W PROGRAMIE SIMULINK 2013 SIMULINK część pakietu numerycznego MATLAB (firmy MathWorks) służąca do przeprowadzania symulacji komputerowych. Atutem programu jest interfejs graficzny (budowanie układów na bazie logicznie połączonych

Bardziej szczegółowo

Natalia Nehrebecka. Dariusz Szymański

Natalia Nehrebecka. Dariusz Szymański Natala Nehrebecka Darusz Szymańsk . Sprawy organzacyjne Zasady zalczena Ćwczena Lteratura. Czym zajmuje sę ekonometra? Model ekonometryczny 3. Model lnowy Postać modelu lnowego Zaps macerzowy modelu dl

Bardziej szczegółowo

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe Wydział Zarządzania AGH Katedra Informatyki Stosowanej Sztuczne sieci neuronowe Sztuczne sieci neuronowe Wprowadzenie Trochę historii Podstawy działania Funkcja aktywacji Typy sieci 2 Wprowadzenie Zainteresowanie

Bardziej szczegółowo

1. Logika, funkcje logiczne, preceptron.

1. Logika, funkcje logiczne, preceptron. Sieci neuronowe 1. Logika, funkcje logiczne, preceptron. 1. (Logika) Udowodnij prawa de Morgana, prawo pochłaniania p (p q), prawo wyłączonego środka p p oraz prawo sprzeczności (p p). 2. Wyraź funkcję

Bardziej szczegółowo

WYZNACZENIE CHARAKTERYSTYK DYNAMICZNYCH PRZETWORNIKÓW POMIAROWYCH

WYZNACZENIE CHARAKTERYSTYK DYNAMICZNYCH PRZETWORNIKÓW POMIAROWYCH Zakład Metrolog Systemów Pomarowych P o l t e c h n k a P o z n ańska ul. Jana Pawła II 6-965 POZNAŃ (budynek Centrum Mechatronk, Bomechank Nanonżyner) www.zmsp.mt.put.poznan.pl tel. +8 6 665 35 7 fa +8

Bardziej szczegółowo

Karta (sylabus) modułu/przedmiotu

Karta (sylabus) modułu/przedmiotu Karta (sylabus) modułu/przedmotu Budownctwo (Nazwa kerunku studów) Studa I Stopna Przedmot: Geologa Geology Rok: I Semestr: 1 MK_8 Rodzaje zajęć lczba godzn: Studa stacjonarne Studa nestacjonarne Wykład

Bardziej szczegółowo

Temat: ANFIS + TS w zadaniach. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Temat: ANFIS + TS w zadaniach. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Temat: ANFIS + TS w zadaniach Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1. Systemy neuronowo - rozmyte Systemy

Bardziej szczegółowo

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW 17 XII 2013 Jan Karwowski

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych klasyfikacja LABORKA Piotr Ciskowski zadanie 1. klasyfikacja zwierząt sieć jednowarstwowa żródło: Tadeusiewicz. Odkrywanie własności sieci neuronowych, str. 159 Przykład

Bardziej szczegółowo

4. Właściwości eksploatacyjne układów regulacji Wprowadzenie. Hs () Ys () Ws () Es () Go () s. Vs ()

4. Właściwości eksploatacyjne układów regulacji Wprowadzenie. Hs () Ys () Ws () Es () Go () s. Vs () 4. Właściwości eksploatacyjne układów regulacji 4.1. Wprowadzenie Zu () s Zy ( s ) Ws () Es () Gr () s Us () Go () s Ys () Vs () Hs () Rys. 4.1. Schemat blokowy układu regulacji z funkcjami przejścia 1

Bardziej szczegółowo

8. Neuron z ciągłą funkcją aktywacji.

8. Neuron z ciągłą funkcją aktywacji. 8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6 Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Zastosowane modelu potęgowego Przekształcene Boxa-Coxa 2. Zmenne cągłe za zmenne dyskretne 3. Interpretacja parametrów przy zmennych dyskretnych 1. Zastosowane

Bardziej szczegółowo

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice) WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO Stanisław Kowalik (Poland, Gliwice) 1. Wprowadzenie Wstrząsy podziemne i tąpania występujące w kopalniach

Bardziej szczegółowo

Temat: Operacje elementarne na wierszach macierzy

Temat: Operacje elementarne na wierszach macierzy Temat: Operacje elementarne na erszach macerzy Anna Rajfura Anna Rajfura Operacje elementarne na erszach macerzy n j m n A Typy operacj elementarnych. Zamana mejscam erszy oraz j, ozn.: j. Mnożene ersza

Bardziej szczegółowo

Karta (sylabus) modułu/przedmiotu

Karta (sylabus) modułu/przedmiotu Karta (sylabus) modułu/przedmotu Budownctwo (Nazwa kerunku studów) Studa I Stopna Przedmot: Kerowane procesem nwestycyjnym Management of constructon process Rok: III Semestr: 5 MK_48 Rodzaje zajęć lczba

Bardziej szczegółowo

Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE

Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE Inormatyka Podstawy Programowana 06/07 Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE 6. Równana algebraczne. Poszukujemy rozwązana, czyl chcemy określć perwastk rzeczywste równana:

Bardziej szczegółowo

WYKŁAD. Jednostka prowadząca: Wydział Techniczny. Kierunek studiów: Edukacja techniczno-informatyczna

WYKŁAD. Jednostka prowadząca: Wydział Techniczny. Kierunek studiów: Edukacja techniczno-informatyczna Jednostka prowadząca: Wydział Techniczny Kierunek studiów: Edukacja techniczno-informatyczna Nazwa przedmiotu: Metody numeryczne i elementy sztucznej inteligencji Charakter przedmiotu: kierunkowy, obowiązkowy

Bardziej szczegółowo

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311 Sztuczne sec neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyk, p. 311 Wykład 1 PLAN: Jak (klasyczne) komputery ocenaą flozofę Alberta Enstena Hstora korzene teor sztucznych sec neuronowych

Bardziej szczegółowo

D Archiwum Prac Dyplomowych - kontrola antyplagiatowa

D Archiwum Prac Dyplomowych - kontrola antyplagiatowa Kraków 12.04.2019 r. D Archwum Prac Dyplomowych - kontrola antyplagatowa Procedura Archwzacj Prac Dyplomowych jest realzowana zgodne z zarządzenem nr 15/2019 Rektora Unwersytetu Rolnczego m. H. Kołłątaja

Bardziej szczegółowo

W praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np.

W praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np. Wykład 7 Uwaga: W praktyce często zdarza sę, że wynk obu prób możemy traktować jako wynk pomarów na tym samym elemence populacj np. wynk x przed wynk y po operacj dla tego samego osobnka. Należy wówczas

Bardziej szczegółowo

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE INSTYTUT TECHNOLOGII MECHANICZNEJ Metody Sztucznej Inteligencji Sztuczne Sieci Neuronowe Wstęp Sieci neuronowe są sztucznymi strukturami, których

Bardziej szczegółowo

Zapis informacji, systemy pozycyjne 1. Literatura Jerzy Grębosz, Symfonia C++ standard. Harvey M. Deitl, Paul J. Deitl, Arkana C++. Programowanie.

Zapis informacji, systemy pozycyjne 1. Literatura Jerzy Grębosz, Symfonia C++ standard. Harvey M. Deitl, Paul J. Deitl, Arkana C++. Programowanie. Zaps nformacj, systemy pozycyjne 1 Lteratura Jerzy Grębosz, Symfona C++ standard. Harvey M. Detl, Paul J. Detl, Arkana C++. Programowane. Zaps nformacj w komputerach Wszystke elementy danych przetwarzane

Bardziej szczegółowo

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Sieci Hopfielda Najprostsze modele sieci z rekurencją sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Modele bardziej złoŝone: RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie

Bardziej szczegółowo

AKADEMIA MORSKA W SZCZECINIE WI-ET / IIT / ZTT. Instrukcja do zajęc laboratoryjnych nr 1 AUTOMATYZACJA I ROBOTYZACJA PROCESÓW PRODUKCYJNYCH

AKADEMIA MORSKA W SZCZECINIE WI-ET / IIT / ZTT. Instrukcja do zajęc laboratoryjnych nr 1 AUTOMATYZACJA I ROBOTYZACJA PROCESÓW PRODUKCYJNYCH AKADEMIA MORSKA W SZCZECINIE WI-ET / IIT / ZTT Instrukcja do zajęc laboratoryjnych nr 1 AUTOMATYZACJA I ROBOTYZACJA PROCESÓW PRODUKCYJNYCH II rok Kierunek Logistyka Temat: Zajęcia wprowadzające. BHP stanowisk

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 7

Stanisław Cichocki. Natalia Nehrebecka. Wykład 7 Stansław Cchock Natala Nehrebecka Wykład 7 1 1. Zmenne cągłe a zmenne dyskretne 2. Interpretacja parametrów przy zmennych dyskretnych 1. Zmenne cągłe a zmenne dyskretne 2. Interpretacja parametrów przy

Bardziej szczegółowo