Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie

Wielkość: px
Rozpocząć pokaz od strony:

Download "Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie"

Transkrypt

1 Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie LABORKA Piotr Ciskowski

2 ZASTOSOWANIA SIECI NEURONOWYCH IDENTYFIKACJA

3 zastosowania przegląd zastosowania sieci neuronowych: o identyfikacja określenie zbioru nieliniowych funkcji aproksymujących danych układ zbudowanie adaptacyjnego systemu uczącego się parametrów pracy obiektu w czasie pracy źródło rysunku: Żurada, Sztuczne sieci neuronowe

4 Zadanie 1 IDENTYFIKACJA OBIEKTU NIELINIOWEGO

5 zadanie 1. identyfikacja obiektu nieliniowego źródło: Korbicz, Obuchowicz, Uciński, przykład 7.2, str. 165 Obiekt podlegający identyfikacji jest opisany nieliniowym równaniem różnicowym postaci: (,,,, ) y = f y y y u u k + 1 k k 1 k 2 k k 1 gdzie nieznana funkcja nieliniowa f dana jest wzorem: (,,,, ) f x x x x x ( 1) x x x x x + x = x3 + x2 Zadanie identyfikacji obiektu polega na aproksymacji funkcji nieliniowej f przy pomocy sieci neuronowej o sieć: trójwarstwowa o dane uczące: na wejściu układu sygnał losowy o rozkładzie równomiernym w przedziale [-1,1] próbkowany co 0,25s o uczenie: metodą propagacji wstecznej błędu, kroków 2π k sin k o testowanie: na wejściu układu taki sygnał uk = 2π k 2π k 0.8sin + 0.2sin k >

6 zadanie 1. identyfikacja obiektu nieliniowego źródło: Korbicz, Obuchowicz, Uciński, przykład 7.2, str. 165 yk + 1 = f ( yk, yk 1, yk 2, uk, uk 1 ) ( 1) (,,,, ) = f x x x x x x x x x x + x x3 + x2

7 zadanie 1. identyfikacja obiektu nieliniowego źródło: Korbicz, Obuchowicz, Uciński, przykład 7.2, str. 165

8 zadanie 1. identyfikacja obiektu nieliniowego źródło: Korbicz, Obuchowicz, Uciński, przykład 7.2, str. 165 sieć neuronowa do identyfikacji obiektu: x[n] obiekt y[n] x[n] x[n-1] z -1 x[n-1] z -1 y[n-1] x[n-2] sieć y[n] z -1 z -1 y[n-1] x[n-2] y[n-2] y[n-2]

9 Zadanie 2 IDENTYFIKACJA OBIEKTU NIELINIOWEGO WIENERA

10 zadanie 2. identyfikacja obiektu nieliniowego Wienera źródło: Osowski, str. 135 nauczyć sieć identyfikacji obiektu: obiekt: sieć: kaskadowe połączenie obiektu liniowego: filtru Butterwortha 6 rzędu oraz nieliniowego: x 3 MLP: funkcja aktywacji: bipolarna wejścia: 12 opóźnionych próbek sygnału wejściowego 12 opóźnionych ostatnich odpowiedzi układu wyjście: predykcja odpowiedzi układu dane uczące: sygnał wejściowy do układu: losowy dane uczące można wygenerować skryptem MATLABa lub budując model w SIMULINKu dane testujące: wybrane przebiegi sygnału wejściowego: sygnał trójkątny gasnąca sinusoida itp.

11 zadanie 2. identyfikacja obiektu nieliniowego Wienera źródło: Osowski, str. 135 nauczyć sieć identyfikacji obiektu: obiekt: sieć: kaskadowe połączenie obiektu liniowego: filtru Butterwortha 6 rzędu oraz nieliniowego: x 3 MLP: funkcja aktywacji: bipolarna wejścia: 12 opóźnionych próbek sygnału wejściowego 12 opóźnionych ostatnich odpowiedzi układu wyjście: predykcja odpowiedzi układu dane uczące: sygnał wejściowy do układu: losowy dane uczące można wygenerować skryptem MATLABa lub budując model w SIMULINKu dane testujące: wybrane przebiegi sygnału wejściowego: sygnał trójkątny gasnąca sinusoida itp.

12 ZASTOSOWANIA SIECI NEURONOWYCH STEROWANIE

13 sterowanie zadania kinematyki: równania kinematyczne proste: dane: kąty przegubów θ 1 i θ 2 długości ramion l 1 i l 2 obliczyć: pozycję chwytaka x 1 i x 2 ( ) x = l cosθ + l cos θ + θ ( ) x = l sinθ + l sin θ + θ

14 sterowanie zadania kinematyki: równania kinematyczne odwrotne: dane: pozycja chwytaka x 1 i x 2 długości ramion l 1 i l 2 obliczyć: kąty przegubów θ 1 i θ 2 θ x1 + x2 l1 l 2 = arccos 2 l1 l2 x 2 l2 sinθ 1 θ1 = arctg arctg x l + l cosθ arccos funkcja niejednoznaczna dwa kąty dla jednej pozycji

15 zadanie 3. kinematyka robota - prosta źródło: Żurada, str. 307 nauczyć sieć rozwiązywania prostego zadania kinematyki: wariant I - dane uczące: dla założonych długości ramion, np. l 1 = 3 i l 2 = 2 9 wektorów uczących dla punktów leżących na okręgu: wejścia znormalizowane do zakresu 0-1 x = r cos β y = r sin β dla: r = 3, 5 o < β < 85 o wariant I - sieć: sieć MLP: funkcja aktywacji: unipolarna wariant I - uczenie: wagi początkowe: losowe z zakresu od -0.5 do 0.5 BP z momentum - η = α = 0.9 (wypróbować inne parametry) wariant I - testowanie: punkty z okręgu (gęściej niż dla uczenia) dla: r = 3, 0 o < β < 90 o

16 zadanie 3. kinematyka robota - odwrotna źródło: Żurada, str. 307 nauczyć sieć rozwiązywania odwrotnego zadania kinematyki: wariant II - dane uczące: dla założonych długości ramion, np. l 1 = 3 i l 2 = 2 9 wektorów uczących dla punktów leżących na okręgu: wejścia znormalizowane do zakresu 0-1 x = r cos β y = r sin β dla: r = 3, 5 o < β < 85 o wariant II - sieć: sieć MLP: funkcja aktywacji: unipolarna wariant II - uczenie: wagi początkowe: losowe z zakresu od -0.5 do 0.5 BP z momentum - η = α = 0.3 (wypróbować inne parametry) wariant II - testowanie: punkty z okręgu (gęściej niż dla uczenia) dla: r = 3, 0 o < β < 90 o

17 zadanie 3. kinematyka robota - prosta źródło: Żurada, str. 307 nauczyć sieć rozwiązywania prostego zadania kinematyki: wariant III - dane uczące: dla założonych długości ramion, np. l 1 = 3 i l 2 = 2 64 przykłady prawie wszystkie kombinacje kątów przegubów θ 1 i θ 2 w zakresie 0-90 o wariant III - sieci: sieć MLP: sieć MLP: sieć MLP: z wejściami funkcyjnymi: sin θ 1, sin θ 2, cos θ 1, cos θ 2, sin ( θ 1 + θ 2 ), cos (θ 1 + θ 2 ) wejścia znormalizowane od 0 do 1, wyjścia nie znormalizowane funkcja aktywacji: unipolarna, w wyjściowych liniowa wariant III - uczenie: wagi początkowe: losowe z zakresu od -0.5 do 0.5 sieci MLP: BP η = 0.1 (wypróbować inne parametry) BP z momentum - η = α = 0.9 (wypróbować inne parametry) sieć funkcyjna: reguła delta - η = 0.4 wariant III - testowanie: 3 przebieg: θ ( ) ( ) dla 0 < t < t = θ2 t = 3 10 t

18 Zadanie 4 MODELOWANIE TŁUMIKA DRGAŃ SEJSMICZNYCH

19 zadanie 4. modelowanie tłumika drgań sejsmicznych źródło: własne nauczyć sieć identyfikacji nastepującego nieliniowego obiektu - tłumika drgań sejsmicznych magnetorheological damper: model: B. Spencer Jr., S. Dyke, S. M., and J. Carlson, Phenomenological model for magnetorheological dampers Computer of Engineering mechanics, ASCE, 123(3): , 1997

20 zadanie 4. modelowanie tłumika drgań sejsmicznych źródło: własne nauczyć sieć identyfikacji nastepującego nieliniowego obiektu - tłumika drgań sejsmicznych magnetorheological damper: model: B. Spencer Jr., S. Dyke, S. M., and J. Carlson, Phenomenological model for magnetorheological dampers Computer of Engineering mechanics, ASCE, 123(3): , 1997

21 zadanie 4. modelowanie tłumika drgań sejsmicznych źródło: własne nauczyć sieć identyfikacji nastepującego nieliniowego obiektu - tłumika drgań sejsmicznych magnetorheological damper: model:

22 zadanie 4. modelowanie tłumika drgań sejsmicznych źródło: własne nauczyć sieć identyfikacji nastepującego nieliniowego obiektu - tłumika drgań sejsmicznych magnetorheological damper: model:

23 zadanie 4. modelowanie tłumika drgań sejsmicznych źródło: własne nauczyć sieć identyfikacji nastepującego nieliniowego obiektu - tłumika drgań sejsmicznych magnetorheological damper: model:

24 zadanie 4. modelowanie tłumika drgań sejsmicznych źródło: własne nauczyć sieć identyfikacji nastepującego nieliniowego obiektu - tłumika drgań sejsmicznych magnetorheological damper: model: B. Spencer Jr., S. Dyke, S. M., and J. Carlson, Phenomenological model for magnetorheological dampers Computer of Engineering mechanics, ASCE, 123(3): , 1997

25 zadanie 4. modelowanie tłumika drgań sejsmicznych źródło: własne nauczyć sieć identyfikacji następującego nieliniowego obiektu - tłumika drgań sejsmicznych magnetorheological damper: model: bardzo skomplikowany dane uczące: model w SIMULINKu sieć: wejścia: x, napięcie wyjścia: F

26 zadanie 4. modelowanie tłumika drgań sejsmicznych źródło: własne model w simulinku źródło danych uczących dla sieci: aaaa 1 4 nr zrodla -przemieszczenie x z alfa(u) c0(u) x' du/dt alfa(u) z dot4 c0(u) x' c0(u) c1(u) 1./u odwr 1 c0(u) + c1(u) dot6 y ' 1/s integr y ' x x F x F ( x ) przemieszczenie - stale deriv x dot5 x' przemieszczenie - sinus x x x y x - y k0 (x - y) 46.9 k0 c1(u) y ' dot7 c1 y' x' F x ' F ( x' ) besself 9 nr zrodla - napiecie zrodla 1 do 6 po 1 s kazde wszystkie zrodla po 2 s kazde losowe zrodlo od 1 do 6 co 0.1s Out1 zrodla V losowo przelaczane co 0.01s przemieszczenie opoznienie - zeby filtr -przemieszczenie 30Hz besself 3 Band-Limited ciut White Noise filtr wiecej -przemieszczenie - przemieszczenie 25Hz wybor zrodla - przemieszczenie nr zrodla 0 wybor zrodla 1. stale - napiecie - stale / zmienne stale wybor zrodla 1.5 -napiecie 3. stale - okresowe stale stale stale wybor zrodla -napiecie wybor zrodla - losowe - napiecie 7. sinus: 2V 4Hz - okresowe / losowe napiecie dot8 x' y ' z 1 alfa b1 x' - y' x' - y' u gamma x' - y' z z abs1 z 363 z z z u gamma abs2 z z dot1 dot2 do potegi n (tu: 2) z ^2 z ^ 2 ( x ' - y ' ) beta ( z ^2 ( x' - y' ) ) x' - y' 363 dot3 beta x' - y' A ( x' - y' ) 301 A c0(u) c1(u) alfa(u) du/dt deriv napiecie 140 alfa a u alfa b 283 c1a u ' alfa b2 1/190 du/dt 1 / ni deriv u 2.95 z' z 1/s integr z ' alfa(u) c1(u) x x-x x0 alfa c1 5.0 k1 k1 (x-x0) 0 czas F F napiecie napiecie u u napiecie u u ( napiecie ) napiecie F F ( napiecie ) t x x' napiecie napiecie ' u u ' F F ' du/dt 2 deriv F Matrix Concatenation przebieg zapis przebiegu probkowanie: 2kHz przebieg1 zapis przebiegu probkowanie: 500 Hz przebieg2 zapis przebiegu probkowanie: 50 Hz 8. skok: do 2.25V po 0.6s besself c1b 21.0 c0a 3 9. losowe: Band-Limited White Noise - napiecie od -3V do 3V filtr - napiecie 25Hz 3.50 c0(u) c0 wybor zrodla - napiecie c0b

27 zadanie 4. modelowanie tłumika drgań sejsmicznych źródło: własne wejścia: wyjście:

28 zadanie 4. modelowanie tłumika drgań sejsmicznych źródło: własne

29 zadanie 4. modelowanie tłumika drgań sejsmicznych źródło: własne nauczyć sieć identyfikacji następującego nieliniowego obiektu - tłumika drgań sejsmicznych magnetorheological damper: model: bardzo skomplikowany dane uczące: model w SIMULINKu sieć: wejścia: x, napięcie wyjścia: F efekt: traditional 20-1 net model net voltage context-dependent 10-1 net model net voltage

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką

Bardziej szczegółowo

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych klasyfikacja LABORKA Piotr Ciskowski zadanie 1. klasyfikacja zwierząt sieć jednowarstwowa żródło: Tadeusiewicz. Odkrywanie własności sieci neuronowych, str. 159 Przykład

Bardziej szczegółowo

8. Neuron z ciągłą funkcją aktywacji.

8. Neuron z ciągłą funkcją aktywacji. 8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i

Bardziej szczegółowo

Uczenie sieci typu MLP

Uczenie sieci typu MLP Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik

Bardziej szczegółowo

Identyfikacja obiektów dynamicznych za pomocą sieci neuronowych

Identyfikacja obiektów dynamicznych za pomocą sieci neuronowych Metody Sztucznej Inteligencji w Sterowaniu Ćwiczenie 3 Identyfikacja obiektów dynamicznych za pomocą sieci neuronowych Przygotował: mgr inż. Marcin Pelic Instytut Technologii Mechanicznej Politechnika

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt

Bardziej szczegółowo

Podstawy Sztucznej Inteligencji (PSZT)

Podstawy Sztucznej Inteligencji (PSZT) Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12

Bardziej szczegółowo

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu Literatura Wykład : Wprowadzenie do sztucznych sieci neuronowych Małgorzata Krętowska Wydział Informatyki Politechnika Białostocka Tadeusiewicz R: Sieci neuronowe, Akademicka Oficyna Wydawnicza RM, Warszawa

Bardziej szczegółowo

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Temat: Sztuczne Sieci Neuronowe Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sztuczne sieci neuronowe

Bardziej szczegółowo

Sieci neuronowe w Statistica

Sieci neuronowe w Statistica http://usnet.us.edu.pl/uslugi-sieciowe/oprogramowanie-w-usk-usnet/oprogramowaniestatystyczne/ Sieci neuronowe w Statistica Agnieszka Nowak - Brzezińska Podstawowym elementem składowym sztucznej sieci neuronowej

Bardziej szczegółowo

1. Logika, funkcje logiczne, preceptron.

1. Logika, funkcje logiczne, preceptron. Sieci neuronowe 1. Logika, funkcje logiczne, preceptron. 1. (Logika) Udowodnij prawa de Morgana, prawo pochłaniania p (p q), prawo wyłączonego środka p p oraz prawo sprzeczności (p p). 2. Wyraź funkcję

Bardziej szczegółowo

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe www.math.uni.lodz.pl/ radmat Cel wykładu Celem wykładu jest prezentacja różnych rodzajów sztucznych sieci neuronowych. Biologiczny model neuronu Mózg człowieka składa się z około 10 11 komórek nerwowych,

Bardziej szczegółowo

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice) WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO Stanisław Kowalik (Poland, Gliwice) 1. Wprowadzenie Wstrząsy podziemne i tąpania występujące w kopalniach

Bardziej szczegółowo

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa

Bardziej szczegółowo

ANALIZA SYGNAŁÓ W JEDNÓWYMIARÓWYCH

ANALIZA SYGNAŁÓ W JEDNÓWYMIARÓWYCH ANALIZA SYGNAŁÓ W JEDNÓWYMIARÓWYCH Generowanie podstawowych przebiegów okresowych sawtooth() przebieg trójkątny (wierzhołki +/-1, okres 2 ) square() przebieg kwadratowy (okres 2 ) gauspuls()przebieg sinusoidalny

Bardziej szczegółowo

Podstawy sztucznej inteligencji

Podstawy sztucznej inteligencji wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,

Bardziej szczegółowo

INSTRUKCJA DO ĆWICZENIA NR 7

INSTRUKCJA DO ĆWICZENIA NR 7 KATEDRA MECHANIKI STOSOWANEJ Wydział Mechaniczny POLITECHNIKA LUBELSKA INSTRUKCJA DO ĆWICZENIA NR 7 PRZEDMIOT TEMAT OPRACOWAŁ LABORATORIUM MODELOWANIA Przykładowe analizy danych: przebiegi czasowe, portrety

Bardziej szczegółowo

sieci jednowarstwowe w MATLABie LABORKA Piotr Ciskowski

sieci jednowarstwowe w MATLABie LABORKA Piotr Ciskowski sieci jednowarstwowe w ATLABie LABORKA Piotr Ciskowski trzy funkcje do obsługi sieci jednowarstwowej : init1.m - tworzy sieć, inicjuje wagi (losowo) dzialaj1.m symuluje działanie sieci (na pojedynczym

Bardziej szczegółowo

Projekt Sieci neuronowe

Projekt Sieci neuronowe Projekt Sieci neuronowe Chmielecka Katarzyna Gr. 9 IiE 1. Problem i dane Sieć neuronowa miała za zadanie nauczyć się klasyfikować wnioski kredytowe. W projekcie wykorzystano dane pochodzące z 110 wniosków

Bardziej szczegółowo

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska Sieci neuronowe w Statistica Agnieszka Nowak - Brzezioska Podstawowym elementem składowym sztucznej sieci neuronowej jest element przetwarzający neuron. Schemat działania neuronu: x1 x2 w1 w2 Dendrites

Bardziej szczegółowo

Inteligentne systemy przeciw atakom sieciowym

Inteligentne systemy przeciw atakom sieciowym Inteligentne systemy przeciw atakom sieciowym wykład Sztuczne sieci neuronowe (SSN) Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 1 / 36 Biologiczne

Bardziej szczegółowo

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska

Bardziej szczegółowo

Sieć przesyłająca żetony CP (counter propagation)

Sieć przesyłająca żetony CP (counter propagation) Sieci neuropodobne IX, specyficzne architektury 1 Sieć przesyłająca żetony CP (counter propagation) warstwa Kohonena: wektory wejściowe są unormowane jednostki mają unormowane wektory wag jednostki są

Bardziej szczegółowo

Metody Sztucznej Inteligencji II

Metody Sztucznej Inteligencji II 17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału

Bardziej szczegółowo

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE SIECI NEURONOWE Przedmiotem laboratorium jest stworzenie algorytmu rozpoznawania zwierząt z zastosowaniem sieci neuronowych w oparciu o 5 kryteriów: ile zwierzę ma nóg, czy żyje w wodzie, czy umie latać,

Bardziej szczegółowo

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,

Bardziej szczegółowo

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek Sztuczne sieci neuronowe Ćwiczenia Piotr Fulmański, Marta Grzanek Piotr Fulmański 1 Wydział Matematyki i Informatyki, Marta Grzanek 2 Uniwersytet Łódzki Banacha 22, 90-232, Łódź Polska e-mail 1: fulmanp@math.uni.lodz.pl,

Bardziej szczegółowo

Temat: Sieci neuronowe oraz technologia CUDA

Temat: Sieci neuronowe oraz technologia CUDA Elbląg, 27.03.2010 Temat: Sieci neuronowe oraz technologia CUDA Przygotował: Mateusz Górny VIII semestr ASiSK Wstęp Sieci neuronowe są to specyficzne struktury danych odzwierciedlające sieć neuronów w

Bardziej szczegółowo

GENERACJA PRZEBIEGU SINUSOIDALNEGO.

GENERACJA PRZEBIEGU SINUSOIDALNEGO. GENERACJA PRZEBIEGU SINUSOIDALNEGO. Podstawą generacji sygnału sinusoidalnego jest równanie różnicowe wyprowadzone w sposób następujący. Transmitancja układu generującego jest równa: Na wyjściu spodziewany

Bardziej szczegółowo

Podstawy Sztucznej Inteligencji

Podstawy Sztucznej Inteligencji Politechnika Łódzka Katedra Informatyki Stosowanej Podstawy Sztucznej Inteligencji Laboratorium Ćwiczenie 2 Wykorzystanie środowiska Matlab do modelowania sztucznych sieci neuronowych Opracowali: Dr hab

Bardziej szczegółowo

2.12. Zadania odwrotne kinematyki

2.12. Zadania odwrotne kinematyki Politechnika Poznańska, Katedra Sterowania i Inżynierii Systemów str. 1 2.12. Zadania odwrotne kinematyki Określenie zadania odwrotnego kinematyki T 0 N = [ ] n s a p = r 11 r 12 r 13 p x r 21 r 22 r 23

Bardziej szczegółowo

Elementy inteligencji obliczeniowej

Elementy inteligencji obliczeniowej Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego

Bardziej szczegółowo

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. zajecia.jakubw.pl/nai Literatura: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym. WNT, Warszawa 997. PODSTAWOWE ZAGADNIENIA TECHNICZNE AI

Bardziej szczegółowo

I EKSPLORACJA DANYCH

I EKSPLORACJA DANYCH I EKSPLORACJA DANYCH Zadania eksploracji danych: przewidywanie Przewidywanie jest podobne do klasyfikacji i szacowania, z wyjątkiem faktu, że w przewidywaniu wynik dotyczy przyszłości. Typowe zadania przewidywania

Bardziej szczegółowo

Widzenie komputerowe

Widzenie komputerowe Widzenie komputerowe Uczenie maszynowe na przykładzie sieci neuronowych (3) źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Zdolność uogólniania sieci neuronowej R oznaczenie

Bardziej szczegółowo

Zrealizować sieć neuronową (learnbpm) uczącą się odwzorowania z = x 2 + y 2 dla x i y zmieniających się od -1 do 1.

Zrealizować sieć neuronową (learnbpm) uczącą się odwzorowania z = x 2 + y 2 dla x i y zmieniających się od -1 do 1. Politechnika Rzeszowska Wydział Elektrotechniki i Informatyki Mateusz Błażej Nr albumu: 130366 Zrealizować sieć neuronową (learnbpm) uczącą się odwzorowania z = x 2 + y 2 dla x i y zmieniających się od

Bardziej szczegółowo

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy

Bardziej szczegółowo

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe wykład 1. Właściwości sieci neuronowych Model matematyczny sztucznego neuronu Rodzaje sieci neuronowych Przegląd d głównych g

Bardziej szczegółowo

Sztuczna inteligencja

Sztuczna inteligencja Sztuczna inteligencja Wykład 7. Architektury sztucznych sieci neuronowych. Metody uczenia sieci. źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Podstawowe architektury

Bardziej szczegółowo

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2013/2014

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2013/2014 Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner rok akademicki 2013/2014 Sieci neuronowe Sieci neuronowe W XIX wieku sformułowano teorię opisującą podstawowe

Bardziej szczegółowo

Klasyfikator liniowy Wstęp Klasyfikator liniowy jest najprostszym możliwym klasyfikatorem. Zakłada on liniową separację liniowy podział dwóch klas między sobą. Przedstawia to poniższy rysunek: 5 4 3 2

Bardziej szczegółowo

Procedura modelowania matematycznego

Procedura modelowania matematycznego Procedura modelowania matematycznego System fizyczny Model fizyczny Założenia Uproszczenia Model matematyczny Analiza matematyczna Symulacja komputerowa Rozwiązanie w postaci modelu odpowiedzi Poszerzenie

Bardziej szczegółowo

Automatyka i robotyka ETP2005L. Laboratorium semestr zimowy

Automatyka i robotyka ETP2005L. Laboratorium semestr zimowy Automatyka i robotyka ETP2005L Laboratorium semestr zimowy 2017-2018 Liniowe człony automatyki x(t) wymuszenie CZŁON (element) OBIEKT AUTOMATYKI y(t) odpowiedź Modelowanie matematyczne obiektów automatyki

Bardziej szczegółowo

Transformaty. Kodowanie transformujace

Transformaty. Kodowanie transformujace Transformaty. Kodowanie transformujace Kodowanie i kompresja informacji - Wykład 10 10 maja 2009 Szeregi Fouriera Każda funkcję okresowa f (t) o okresie T można zapisać jako f (t) = a 0 + a n cos nω 0

Bardziej szczegółowo

Funkcje trygonometryczne. XX LO (wrzesień 2016) Matematyka elementarna Temat #5 1 / 14

Funkcje trygonometryczne. XX LO (wrzesień 2016) Matematyka elementarna Temat #5 1 / 14 XX LO (wrzesień 2016) Matematyka elementarna Temat #5 1 / 14 Miara kąta Miara kąta kąt mierzymy od ramienia początkowego do końcowego w kierunku przeciwnym do ruchu wskazówek zegara (α > 0) kąt zgodny

Bardziej szczegółowo

Algorytmy metaheurystyczne Wykład 11. Piotr Syga

Algorytmy metaheurystyczne Wykład 11. Piotr Syga Algorytmy metaheurystyczne Wykład 11 Piotr Syga 22.05.2017 Drzewa decyzyjne Idea Cel Na podstawie przesłanek (typowo zbiory rozmyte) oraz zbioru wartości w danych testowych, w oparciu o wybrane miary,

Bardziej szczegółowo

Uczenie sieci neuronowych i bayesowskich

Uczenie sieci neuronowych i bayesowskich Wstęp do metod sztucznej inteligencji www.mat.uni.torun.pl/~piersaj 2009-01-22 Co to jest neuron? Komputer, a mózg komputer mózg Jednostki obliczeniowe 1-4 CPU 10 11 neuronów Pojemność 10 9 b RAM, 10 10

Bardziej szczegółowo

Zastosowania sieci neuronowych predykcja - giełda

Zastosowania sieci neuronowych predykcja - giełda Zastosowania sieci neuronowych predykcja - giełda LABORKA Piotr Ciskowski AKCJE INDEKS WIG20 plik giełda-wig.xlsx : dane: indeks WIG od 1991 do 2005 ok. 3000 sesji bez ostatniej szalonej hossy dla każdej

Bardziej szczegółowo

Emergentne właściwości. sztucznych sieci neuronowych

Emergentne właściwości. sztucznych sieci neuronowych Barbara Pankiewicz nauczyciel fizyki III Liceum Ogólnokształcące w Zamościu ul. Kilińskiego 15 22-400 Zamość Emergentne właściwości sztucznych sieci neuronowych Opracowała: Barbara Pankiewicz Zamość, 2001

Bardziej szczegółowo

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ optymalizacje podejmowanych decyzji Tomasz Karczyoski Wydział W-08 IZ Czym są sieci neuronowe Struktura matematycznych oraz programowy lub sprzętowy model, realizujących obliczenia lub przetwarzanie sygnałów

Bardziej szczegółowo

8. Realizacja projektowanie i pomiary filtrów IIR

8. Realizacja projektowanie i pomiary filtrów IIR 53 8. Realizacja projektowanie i pomiary filtrów IIR Cele ćwiczenia Realizacja na zestawie TMX320C5515 ezdsp prostych liniowych filtrów cyfrowych. Pomiary charakterystyk amplitudowych zrealizowanych filtrów

Bardziej szczegółowo

Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I.

Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I. Sieci M. I. Jordana Sieci rekurencyjne z parametrycznym biasem Leszek Rybicki 30 listopada 2007 Leszek Rybicki Sieci M. I. Jordana 1/21 Plan O czym będzie 1 Wstęp do sieci neuronowych Neurony i perceptrony

Bardziej szczegółowo

D l. D p. Rodzaje baz jezdnych robotów mobilnych

D l. D p. Rodzaje baz jezdnych robotów mobilnych ERO Elementy robotyki 1 Rodzaje baz jezdnych robotów mobilnych Napęd różnicowy dwa niezależnie napędzane koła jednej osi, dla zachowania równowagi dodane jest trzecie koło bierne (lub dwa bierne koła)

Bardziej szczegółowo

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0 Uczenie się pojedynczego neuronu W0 X0=1 W1 x1 W2 s f y x2 Wp xp p x i w i=x w+wo i=0 Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z=0 Wówczas: W 1 x 1 + w 2 x 2 + = 0 Algorytm

Bardziej szczegółowo

SIEĆ NEURONOWA JAKO NARZĘDZIE APROKSYMACJI I KLASYFIKACJI DANYCH. Jakub Karbowski Gimnazjum nr 17 w Krakowie

SIEĆ NEURONOWA JAKO NARZĘDZIE APROKSYMACJI I KLASYFIKACJI DANYCH. Jakub Karbowski Gimnazjum nr 17 w Krakowie SIEĆ NEURONOWA JAKO NARZĘDZIE APROKSYMACJI I KLASYFIKACJI DANYCH Jakub Karbowski Gimnazjum nr 17 w Krakowie KRAKÓW 2017 1. Spis treści 2. WSTĘP 2 3. SIECI NEURONOWE 2 3.1. Co to są sieci neuronowe... 2

Bardziej szczegółowo

Matematyka ETId I.Gorgol. Funkcja złożona i odwrotna. Funkcje

Matematyka ETId I.Gorgol. Funkcja złożona i odwrotna. Funkcje Funkcja złożona i odwrotna. Funkcje cyklometryczne. Definicja funkcji DEFINICJA Niech dane będa dwa zbiory D i P. Funkcja f : D P nazywamy przyporzadkowanie, które każdemu elementowi ze zbioru D przyporzadkowuje

Bardziej szczegółowo

Algorytmy sztucznej inteligencji

Algorytmy sztucznej inteligencji Algorytmy sztucznej inteligencji Dynamiczne sieci neuronowe 1 Zapis macierzowy sieci neuronowych Poniżej omówione zostaną części składowe sieci neuronowych i metoda ich zapisu za pomocą macierzy. Obliczenia

Bardziej szczegółowo

Technologie Informacyjne

Technologie Informacyjne POLITECHNIKA KRAKOWSKA - WIEiK - KATEDRA AUTOMATYKI Technologie Informacyjne www.pk.edu.pl/~zk/ti_hp.html Wykładowca: dr inż. Zbigniew Kokosiński zk@pk.edu.pl Wykład: Generacja liczb losowych Problem generacji

Bardziej szczegółowo

Sterowanie Napędów Maszyn i Robotów

Sterowanie Napędów Maszyn i Robotów Wykład 4 - Model w przestrzeni stanów Instytut Automatyki i Robotyki Warszawa, 2015 Wstęp Do zaprojektowania układu regulacji pozycji siłownika pneumatycznego, poszukiwany jest model dynamiki układu w

Bardziej szczegółowo

ELEMENTY SZTUCZNEJ INTELIGENCJI. Sztuczne sieci neuronowe

ELEMENTY SZTUCZNEJ INTELIGENCJI. Sztuczne sieci neuronowe ELEMENTY SZTUCZNEJ INTELIGENCJI Sztuczne sieci neuronowe Plan 2 Wzorce biologiczne. Idea SSN - model sztucznego neuronu. Perceptron prosty i jego uczenie regułą delta Perceptron wielowarstwowy i jego uczenie

Bardziej szczegółowo

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH** Górnictwo i Geoinżynieria Rok 31 Zeszyt 3 2007 Dorota Pawluś* PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH** 1. Wstęp Eksploatacja górnicza złóż ma niekorzystny wpływ na powierzchnię

Bardziej szczegółowo

Laboratorium nr 2. Identyfikacja systemu i detekcja uszkodzeń na podstawie modelu

Laboratorium nr 2. Identyfikacja systemu i detekcja uszkodzeń na podstawie modelu Instytut Sterowania i Systemów Informatycznych Uniwersytet Zielonogórski Diagnostyka procesów i systemów Prowadzący: Marcel Luzar 1 Laboratorium nr 2 Identyfikacja systemu i detekcja uszkodzeń na podstawie

Bardziej szczegółowo

Zadanie: Filtr adaptywny

Zadanie: Filtr adaptywny Spis treści 1 Zadanie: Filtr adaptywny 1.1 Przygotuj sygnały: 1.2 Symulacja sieci 1.3 Wykresy 1.4 Szkielet rozwiązania: 1.5 Pytania Zadanie: Filtr adaptywny W tym zadaniu symulujemy działanie filtra, który

Bardziej szczegółowo

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE INSTYTUT TECHNOLOGII MECHANICZNEJ Metody Sztucznej Inteligencji Sztuczne Sieci Neuronowe Wstęp Sieci neuronowe są sztucznymi strukturami, których

Bardziej szczegółowo

INTERPOLACJA I APROKSYMACJA FUNKCJI

INTERPOLACJA I APROKSYMACJA FUNKCJI Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Wprowadzenie Na czym polega interpolacja? Interpolacja polega

Bardziej szczegółowo

Analiza szeregów czasowych: 7. Liniowe modele stochastyczne

Analiza szeregów czasowych: 7. Liniowe modele stochastyczne Analiza szeregów czasowych: 7. Liniowe modele stochastyczne P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ semestr letni 2005/06 Liniowe modele stochastyczne Niech {y n } N n=1 będzie pewnym ciagiem danych

Bardziej szczegółowo

Wstęp do sztucznych sieci neuronowych

Wstęp do sztucznych sieci neuronowych Wstęp do sztucznych sieci neuronowych Michał Garbowski Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Wydział Informatyki 15 grudnia 2011 Plan wykładu I 1 Wprowadzenie Inspiracja biologiczna

Bardziej szczegółowo

OCENA DZIAŁANIA AE. METODY HEURYSTYCZNE wykład 4 LOSOWOŚĆ W AE KRZYWE ZBIEŻNOŚCI ANALIZA STATYSTYCZNA:

OCENA DZIAŁANIA AE. METODY HEURYSTYCZNE wykład 4 LOSOWOŚĆ W AE KRZYWE ZBIEŻNOŚCI ANALIZA STATYSTYCZNA: METODY HEURYSTYCZNE wykład 4 OCENA DZIAŁANIA AE 1 2 LOSOWOŚĆ W AE Różne zachowanie algorytmuw poszczególnych uruchomieniach przy jednakowych ustawieniach parametrów i identycznych populacjach początkowych.

Bardziej szczegółowo

przy warunkach początkowych: 0 = 0, 0 = 0

przy warunkach początkowych: 0 = 0, 0 = 0 MODELE MATEMATYCZNE UKŁADÓW DYNAMICZNYCH Podstawową formą opisu procesów zachodzących w członach lub układach automatyki jest równanie ruchu - równanie dynamiki. Opisuje ono zależność wielkości fizycznych,

Bardziej szczegółowo

WYDZIAŁ ELEKTROTECHNIKI, AUTOMATYKI I INFORMATYKI INSTYTUT AUTOMATYKI I INFORMATYKI KIERUNEK AUTOMATYKA I ROBOTYKA STUDIA STACJONARNE I STOPNIA

WYDZIAŁ ELEKTROTECHNIKI, AUTOMATYKI I INFORMATYKI INSTYTUT AUTOMATYKI I INFORMATYKI KIERUNEK AUTOMATYKA I ROBOTYKA STUDIA STACJONARNE I STOPNIA WYDZIAŁ ELEKTROTECHNIKI, AUTOMATYKI I INFORMATYKI INSTYTUT AUTOMATYKI I INFORMATYKI KIERUNEK AUTOMATYKA I ROBOTYKA STUDIA STACJONARNE I STOPNIA PRZEDMIOT : : LABORATORIUM PODSTAW AUTOMATYKI 10. Dyskretyzacja

Bardziej szczegółowo

Analiza szeregów czasowych: 5. Liniowe modele stochastyczne

Analiza szeregów czasowych: 5. Liniowe modele stochastyczne Analiza szeregów czasowych: 5. Liniowe modele stochastyczne P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ semestr letni 2006/07 Dwa rodzaje modelowania 1. Modelowanie z pierwszych zasad. Znamy prawa

Bardziej szczegółowo

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych. Sieci rekurencyjne Ewa Adamus ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych 7 maja 2012 Jednowarstwowa sieć Hopfielda, z n neuronami Bipolarna funkcja przejścia W wariancie

Bardziej szczegółowo

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM ZASTOSOWANIE SIECI NEURONOWYCH W SYSTEMACH AKTYWNEJ REDUKCJI HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM WPROWADZENIE Zwalczanie hałasu przy pomocy metod aktywnych redukcji hałasu polega

Bardziej szczegółowo

Politechnika Warszawska

Politechnika Warszawska Politechnika Warszawska Programowa realizacja sieci neuronowych Zbigniew Szymański, Stanisław Jankowski grudzień 03 Instytut Informatyki Nowowiejska 5 / 9, 00-665 Warszawa Programowa realizacja sieci neuronowych

Bardziej szczegółowo

Funkcją sinus kąta α nazywamy stosunek przyprostokątnej leżącej naprzeciw kąta α do przeciwprostokątnej w trójkącie prostokątnym, i opisujemy jako:

Funkcją sinus kąta α nazywamy stosunek przyprostokątnej leżącej naprzeciw kąta α do przeciwprostokątnej w trójkącie prostokątnym, i opisujemy jako: 1. Trygonometria 1.1Wprowadzenie Jednym z podstawowych działów matematyki który wykorzystywany jest w rozwiązywaniu problemów technicznych jest trygonometria. W szkole średniej wprowadzone zostały podstawowe

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY

METODY INŻYNIERII WIEDZY METODY INŻYNIERII WIEDZY SZTUCZNE SIECI NEURONOWE MLP Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i Inżynierii

Bardziej szczegółowo

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW

Bardziej szczegółowo

Katedra Zarządzania i Informatyki Politechnika Śląska

Katedra Zarządzania i Informatyki Politechnika Śląska prof. dr hab. Tadeusz Wieczorek mgr inż. Krystian Mączka Katedra Zarządzania i Informatyki Politechnika Śląska Charakterystyka procesu topienia złomu w piecu łukowym Problemy do rozwiązania Prezentacja

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 10. WNIOSKOWANIE W LOGICE ROZMYTEJ Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska WNIOSKOWANIE W LOGICE DWUWARTOŚCIOWEJ W logice

Bardziej szczegółowo

Kinematyka: opis ruchu

Kinematyka: opis ruchu Kinematyka: opis ruchu Fizyka I (B+C) Wykład IV: Ruch jednostajnie przyspieszony Ruch harmoniczny Ruch po okręgu Klasyfikacja ruchów Ze względu na tor wybrane przypadki szczególne prostoliniowy, odbywajacy

Bardziej szczegółowo

wiedzy Sieci neuronowe

wiedzy Sieci neuronowe Metody detekcji uszkodzeń oparte na wiedzy Sieci neuronowe Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 7 Wprowadzenie Okres kształtowania się teorii sztucznych sieci

Bardziej szczegółowo

Sztuczne siei neuronowe - wprowadzenie

Sztuczne siei neuronowe - wprowadzenie Metody Sztucznej Inteligencji w Sterowaniu Ćwiczenie 2 Sztuczne siei neuronowe - wprowadzenie Przygotował: mgr inż. Marcin Pelic Instytut Technologii Mechanicznej Politechnika Poznańska Poznań, 2 Wstęp

Bardziej szczegółowo

wiedzy Sieci neuronowe (c.d.)

wiedzy Sieci neuronowe (c.d.) Metody detekci uszkodzeń oparte na wiedzy Sieci neuronowe (c.d.) Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 8 Metody detekci uszkodzeń oparte na wiedzy Wprowadzenie

Bardziej szczegółowo

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak 2 Rozdział 1 Sztuczne sieci neuronowe. 3 Sztuczna sieć neuronowa jest zbiorem prostych elementów pracujących równolegle, których zasada działania inspirowana jest biologicznym systemem nerwowym. Sztuczną

Bardziej szczegółowo

ZASTOSOWANIA PRZEKSZTAŁCENIA ZET

ZASTOSOWANIA PRZEKSZTAŁCENIA ZET CPS - - ZASTOSOWANIA PRZEKSZTAŁCENIA ZET Rozwiązywanie równań różnicowych Dyskretny system liniowy-stacjonarny można opisać równaniem różnicowym w postaci ogólnej N M aky[ n k] bkx[ n k] k k Przekształcenie

Bardziej szczegółowo

Analityczne metody detekcji uszkodzeń

Analityczne metody detekcji uszkodzeń Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 5 Model procesu Rozważmy czasowo-dyskretny model liniowy gdzie: k dyskretny czas, x(k) R n wektor stanu, x(k + 1) = Ax(k)

Bardziej szczegółowo

Sztuczne sieci neuronowe (SNN)

Sztuczne sieci neuronowe (SNN) Sztuczne sieci neuronowe (SNN) Pozyskanie informacji (danych) Wstępne przetwarzanie danych przygotowanie ich do dalszej analizy Selekcja informacji Ostateczny model decyzyjny SSN - podstawy Sieci neuronowe

Bardziej szczegółowo

Wprowadzenie do Sieci Neuronowych Laboratorium 05 Algorytm wstecznej propagacji błędu

Wprowadzenie do Sieci Neuronowych Laboratorium 05 Algorytm wstecznej propagacji błędu Wprowadzenie do Sieci Neuronowych Laboratorium Algorytm wstecznej propagacji błędu Maja Czoków, Jarosław Piersa --7. Powtórzenie Perceptron sigmoidalny Funkcja sigmoidalna: σ(x) = + exp( c (x p)) () Parametr

Bardziej szczegółowo

Matematyka. rok akademicki 2008/2009, semestr zimowy. Konwersatorium 1. Własności funkcji

Matematyka. rok akademicki 2008/2009, semestr zimowy. Konwersatorium 1. Własności funkcji . Własności funkcji () Wyznaczyć dziedzinę funkcji danej wzorem: y = 2 2 + 5 y = +4 y = 2 + (2) Podać zbiór wartości funkcji: y = 2 3, [2, 5) y = 2 +, [, 4] y =, [3, 6] (3) Stwierdzić, czy dana funkcja

Bardziej szczegółowo

x(n) x(n-1) x(n-2) D x(n-n+1) h N-1

x(n) x(n-1) x(n-2) D x(n-n+1) h N-1 Laboratorium Układy dyskretne LTI projektowanie filtrów typu FIR Z1. apisać funkcję y = filtruj(x, h), która wyznacza sygnał y będący wynikiem filtracji sygnału x przez filtr FIR o odpowiedzi impulsowej

Bardziej szczegółowo

SPRZĘTOWA REALIZACJA FILTRÓW CYFROWYCH TYPU SOI

SPRZĘTOWA REALIZACJA FILTRÓW CYFROWYCH TYPU SOI 1 ĆWICZENIE VI SPRZĘTOWA REALIZACJA FILTRÓW CYFROWYCH TYPU SOI (00) Celem pracy jest poznanie sposobu fizycznej realizacji filtrów cyfrowych na procesorze sygnałowym firmy Texas Instruments TMS320C6711

Bardziej szczegółowo

Systemy uczące się wykład 2

Systemy uczące się wykład 2 Systemy uczące się wykład 2 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 19 X 2018 Podstawowe definicje Fakt; Przesłanka; Konkluzja; Reguła; Wnioskowanie. Typy wnioskowania

Bardziej szczegółowo

ALGORYTMY SZTUCZNEJ INTELIGENCJI

ALGORYTMY SZTUCZNEJ INTELIGENCJI ALGORYTMY SZTUCZNEJ INTELIGENCJI Sieci neuronowe 06.12.2014 Krzysztof Salamon 1 Wstęp Sprawozdanie to dotyczy ćwiczeń z zakresu sieci neuronowych realizowanym na przedmiocie: Algorytmy Sztucznej Inteligencji.

Bardziej szczegółowo

Symulacja sygnału czujnika z wyjściem częstotliwościowym w stanach dynamicznych

Symulacja sygnału czujnika z wyjściem częstotliwościowym w stanach dynamicznych XXXVIII MIĘDZYUCZELNIANIA KONFERENCJA METROLOGÓW MKM 06 Warszawa Białobrzegi, 4-6 września 2006 r. Symulacja sygnału czujnika z wyjściem częstotliwościowym w stanach dynamicznych Eligiusz PAWŁOWSKI Politechnika

Bardziej szczegółowo

Rachunek różniczkowy funkcji jednej zmiennej. 1 Obliczanie pochodnej i jej interpretacja geometryczna

Rachunek różniczkowy funkcji jednej zmiennej. 1 Obliczanie pochodnej i jej interpretacja geometryczna Wydział Matematyki Stosowanej Zestaw zadań nr 4 Akademia Górniczo-Hutnicza w Krakowie WEiP, energetyka, I rok Elżbieta Adamus 4 grudnia 08r. Rachunek różniczkowy funkcji jednej zmiennej Obliczanie pochodnej

Bardziej szczegółowo

Systemy. Krzysztof Patan

Systemy. Krzysztof Patan Systemy Krzysztof Patan Systemy z pamięcią System jest bez pamięci (statyczny), jeżeli dla dowolnej chwili t 0 wartość sygnału wyjściowego y(t 0 ) zależy wyłącznie od wartości sygnału wejściowego w tej

Bardziej szczegółowo

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej. Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej BIOCYBERNETYKA Adrian Horzyk SIECI NEURONOWE www.agh.edu.pl Mózg inspiruje nas od wieków Co takiego

Bardziej szczegółowo

Ćwiczenie EA9 Czujniki położenia

Ćwiczenie EA9 Czujniki położenia Akademia Górniczo-Hutnicza im.s.staszica w Krakowie KATEDRA MASZYN ELEKTRYCZNYCH Ćwiczenie EA9 Program ćwiczenia I. Transformator położenia kątowego 1. Wyznaczenie przekładni napięciowych 2. Pomiar napięć

Bardziej szczegółowo