Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie
|
|
- Teresa Kozieł
- 7 lat temu
- Przeglądów:
Transkrypt
1 Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie LABORKA Piotr Ciskowski
2 ZASTOSOWANIA SIECI NEURONOWYCH IDENTYFIKACJA
3 zastosowania przegląd zastosowania sieci neuronowych: o identyfikacja określenie zbioru nieliniowych funkcji aproksymujących danych układ zbudowanie adaptacyjnego systemu uczącego się parametrów pracy obiektu w czasie pracy źródło rysunku: Żurada, Sztuczne sieci neuronowe
4 Zadanie 1 IDENTYFIKACJA OBIEKTU NIELINIOWEGO
5 zadanie 1. identyfikacja obiektu nieliniowego źródło: Korbicz, Obuchowicz, Uciński, przykład 7.2, str. 165 Obiekt podlegający identyfikacji jest opisany nieliniowym równaniem różnicowym postaci: (,,,, ) y = f y y y u u k + 1 k k 1 k 2 k k 1 gdzie nieznana funkcja nieliniowa f dana jest wzorem: (,,,, ) f x x x x x ( 1) x x x x x + x = x3 + x2 Zadanie identyfikacji obiektu polega na aproksymacji funkcji nieliniowej f przy pomocy sieci neuronowej o sieć: trójwarstwowa o dane uczące: na wejściu układu sygnał losowy o rozkładzie równomiernym w przedziale [-1,1] próbkowany co 0,25s o uczenie: metodą propagacji wstecznej błędu, kroków 2π k sin k o testowanie: na wejściu układu taki sygnał uk = 2π k 2π k 0.8sin + 0.2sin k >
6 zadanie 1. identyfikacja obiektu nieliniowego źródło: Korbicz, Obuchowicz, Uciński, przykład 7.2, str. 165 yk + 1 = f ( yk, yk 1, yk 2, uk, uk 1 ) ( 1) (,,,, ) = f x x x x x x x x x x + x x3 + x2
7 zadanie 1. identyfikacja obiektu nieliniowego źródło: Korbicz, Obuchowicz, Uciński, przykład 7.2, str. 165
8 zadanie 1. identyfikacja obiektu nieliniowego źródło: Korbicz, Obuchowicz, Uciński, przykład 7.2, str. 165 sieć neuronowa do identyfikacji obiektu: x[n] obiekt y[n] x[n] x[n-1] z -1 x[n-1] z -1 y[n-1] x[n-2] sieć y[n] z -1 z -1 y[n-1] x[n-2] y[n-2] y[n-2]
9 Zadanie 2 IDENTYFIKACJA OBIEKTU NIELINIOWEGO WIENERA
10 zadanie 2. identyfikacja obiektu nieliniowego Wienera źródło: Osowski, str. 135 nauczyć sieć identyfikacji obiektu: obiekt: sieć: kaskadowe połączenie obiektu liniowego: filtru Butterwortha 6 rzędu oraz nieliniowego: x 3 MLP: funkcja aktywacji: bipolarna wejścia: 12 opóźnionych próbek sygnału wejściowego 12 opóźnionych ostatnich odpowiedzi układu wyjście: predykcja odpowiedzi układu dane uczące: sygnał wejściowy do układu: losowy dane uczące można wygenerować skryptem MATLABa lub budując model w SIMULINKu dane testujące: wybrane przebiegi sygnału wejściowego: sygnał trójkątny gasnąca sinusoida itp.
11 zadanie 2. identyfikacja obiektu nieliniowego Wienera źródło: Osowski, str. 135 nauczyć sieć identyfikacji obiektu: obiekt: sieć: kaskadowe połączenie obiektu liniowego: filtru Butterwortha 6 rzędu oraz nieliniowego: x 3 MLP: funkcja aktywacji: bipolarna wejścia: 12 opóźnionych próbek sygnału wejściowego 12 opóźnionych ostatnich odpowiedzi układu wyjście: predykcja odpowiedzi układu dane uczące: sygnał wejściowy do układu: losowy dane uczące można wygenerować skryptem MATLABa lub budując model w SIMULINKu dane testujące: wybrane przebiegi sygnału wejściowego: sygnał trójkątny gasnąca sinusoida itp.
12 ZASTOSOWANIA SIECI NEURONOWYCH STEROWANIE
13 sterowanie zadania kinematyki: równania kinematyczne proste: dane: kąty przegubów θ 1 i θ 2 długości ramion l 1 i l 2 obliczyć: pozycję chwytaka x 1 i x 2 ( ) x = l cosθ + l cos θ + θ ( ) x = l sinθ + l sin θ + θ
14 sterowanie zadania kinematyki: równania kinematyczne odwrotne: dane: pozycja chwytaka x 1 i x 2 długości ramion l 1 i l 2 obliczyć: kąty przegubów θ 1 i θ 2 θ x1 + x2 l1 l 2 = arccos 2 l1 l2 x 2 l2 sinθ 1 θ1 = arctg arctg x l + l cosθ arccos funkcja niejednoznaczna dwa kąty dla jednej pozycji
15 zadanie 3. kinematyka robota - prosta źródło: Żurada, str. 307 nauczyć sieć rozwiązywania prostego zadania kinematyki: wariant I - dane uczące: dla założonych długości ramion, np. l 1 = 3 i l 2 = 2 9 wektorów uczących dla punktów leżących na okręgu: wejścia znormalizowane do zakresu 0-1 x = r cos β y = r sin β dla: r = 3, 5 o < β < 85 o wariant I - sieć: sieć MLP: funkcja aktywacji: unipolarna wariant I - uczenie: wagi początkowe: losowe z zakresu od -0.5 do 0.5 BP z momentum - η = α = 0.9 (wypróbować inne parametry) wariant I - testowanie: punkty z okręgu (gęściej niż dla uczenia) dla: r = 3, 0 o < β < 90 o
16 zadanie 3. kinematyka robota - odwrotna źródło: Żurada, str. 307 nauczyć sieć rozwiązywania odwrotnego zadania kinematyki: wariant II - dane uczące: dla założonych długości ramion, np. l 1 = 3 i l 2 = 2 9 wektorów uczących dla punktów leżących na okręgu: wejścia znormalizowane do zakresu 0-1 x = r cos β y = r sin β dla: r = 3, 5 o < β < 85 o wariant II - sieć: sieć MLP: funkcja aktywacji: unipolarna wariant II - uczenie: wagi początkowe: losowe z zakresu od -0.5 do 0.5 BP z momentum - η = α = 0.3 (wypróbować inne parametry) wariant II - testowanie: punkty z okręgu (gęściej niż dla uczenia) dla: r = 3, 0 o < β < 90 o
17 zadanie 3. kinematyka robota - prosta źródło: Żurada, str. 307 nauczyć sieć rozwiązywania prostego zadania kinematyki: wariant III - dane uczące: dla założonych długości ramion, np. l 1 = 3 i l 2 = 2 64 przykłady prawie wszystkie kombinacje kątów przegubów θ 1 i θ 2 w zakresie 0-90 o wariant III - sieci: sieć MLP: sieć MLP: sieć MLP: z wejściami funkcyjnymi: sin θ 1, sin θ 2, cos θ 1, cos θ 2, sin ( θ 1 + θ 2 ), cos (θ 1 + θ 2 ) wejścia znormalizowane od 0 do 1, wyjścia nie znormalizowane funkcja aktywacji: unipolarna, w wyjściowych liniowa wariant III - uczenie: wagi początkowe: losowe z zakresu od -0.5 do 0.5 sieci MLP: BP η = 0.1 (wypróbować inne parametry) BP z momentum - η = α = 0.9 (wypróbować inne parametry) sieć funkcyjna: reguła delta - η = 0.4 wariant III - testowanie: 3 przebieg: θ ( ) ( ) dla 0 < t < t = θ2 t = 3 10 t
18 Zadanie 4 MODELOWANIE TŁUMIKA DRGAŃ SEJSMICZNYCH
19 zadanie 4. modelowanie tłumika drgań sejsmicznych źródło: własne nauczyć sieć identyfikacji nastepującego nieliniowego obiektu - tłumika drgań sejsmicznych magnetorheological damper: model: B. Spencer Jr., S. Dyke, S. M., and J. Carlson, Phenomenological model for magnetorheological dampers Computer of Engineering mechanics, ASCE, 123(3): , 1997
20 zadanie 4. modelowanie tłumika drgań sejsmicznych źródło: własne nauczyć sieć identyfikacji nastepującego nieliniowego obiektu - tłumika drgań sejsmicznych magnetorheological damper: model: B. Spencer Jr., S. Dyke, S. M., and J. Carlson, Phenomenological model for magnetorheological dampers Computer of Engineering mechanics, ASCE, 123(3): , 1997
21 zadanie 4. modelowanie tłumika drgań sejsmicznych źródło: własne nauczyć sieć identyfikacji nastepującego nieliniowego obiektu - tłumika drgań sejsmicznych magnetorheological damper: model:
22 zadanie 4. modelowanie tłumika drgań sejsmicznych źródło: własne nauczyć sieć identyfikacji nastepującego nieliniowego obiektu - tłumika drgań sejsmicznych magnetorheological damper: model:
23 zadanie 4. modelowanie tłumika drgań sejsmicznych źródło: własne nauczyć sieć identyfikacji nastepującego nieliniowego obiektu - tłumika drgań sejsmicznych magnetorheological damper: model:
24 zadanie 4. modelowanie tłumika drgań sejsmicznych źródło: własne nauczyć sieć identyfikacji nastepującego nieliniowego obiektu - tłumika drgań sejsmicznych magnetorheological damper: model: B. Spencer Jr., S. Dyke, S. M., and J. Carlson, Phenomenological model for magnetorheological dampers Computer of Engineering mechanics, ASCE, 123(3): , 1997
25 zadanie 4. modelowanie tłumika drgań sejsmicznych źródło: własne nauczyć sieć identyfikacji następującego nieliniowego obiektu - tłumika drgań sejsmicznych magnetorheological damper: model: bardzo skomplikowany dane uczące: model w SIMULINKu sieć: wejścia: x, napięcie wyjścia: F
26 zadanie 4. modelowanie tłumika drgań sejsmicznych źródło: własne model w simulinku źródło danych uczących dla sieci: aaaa 1 4 nr zrodla -przemieszczenie x z alfa(u) c0(u) x' du/dt alfa(u) z dot4 c0(u) x' c0(u) c1(u) 1./u odwr 1 c0(u) + c1(u) dot6 y ' 1/s integr y ' x x F x F ( x ) przemieszczenie - stale deriv x dot5 x' przemieszczenie - sinus x x x y x - y k0 (x - y) 46.9 k0 c1(u) y ' dot7 c1 y' x' F x ' F ( x' ) besself 9 nr zrodla - napiecie zrodla 1 do 6 po 1 s kazde wszystkie zrodla po 2 s kazde losowe zrodlo od 1 do 6 co 0.1s Out1 zrodla V losowo przelaczane co 0.01s przemieszczenie opoznienie - zeby filtr -przemieszczenie 30Hz besself 3 Band-Limited ciut White Noise filtr wiecej -przemieszczenie - przemieszczenie 25Hz wybor zrodla - przemieszczenie nr zrodla 0 wybor zrodla 1. stale - napiecie - stale / zmienne stale wybor zrodla 1.5 -napiecie 3. stale - okresowe stale stale stale wybor zrodla -napiecie wybor zrodla - losowe - napiecie 7. sinus: 2V 4Hz - okresowe / losowe napiecie dot8 x' y ' z 1 alfa b1 x' - y' x' - y' u gamma x' - y' z z abs1 z 363 z z z u gamma abs2 z z dot1 dot2 do potegi n (tu: 2) z ^2 z ^ 2 ( x ' - y ' ) beta ( z ^2 ( x' - y' ) ) x' - y' 363 dot3 beta x' - y' A ( x' - y' ) 301 A c0(u) c1(u) alfa(u) du/dt deriv napiecie 140 alfa a u alfa b 283 c1a u ' alfa b2 1/190 du/dt 1 / ni deriv u 2.95 z' z 1/s integr z ' alfa(u) c1(u) x x-x x0 alfa c1 5.0 k1 k1 (x-x0) 0 czas F F napiecie napiecie u u napiecie u u ( napiecie ) napiecie F F ( napiecie ) t x x' napiecie napiecie ' u u ' F F ' du/dt 2 deriv F Matrix Concatenation przebieg zapis przebiegu probkowanie: 2kHz przebieg1 zapis przebiegu probkowanie: 500 Hz przebieg2 zapis przebiegu probkowanie: 50 Hz 8. skok: do 2.25V po 0.6s besself c1b 21.0 c0a 3 9. losowe: Band-Limited White Noise - napiecie od -3V do 3V filtr - napiecie 25Hz 3.50 c0(u) c0 wybor zrodla - napiecie c0b
27 zadanie 4. modelowanie tłumika drgań sejsmicznych źródło: własne wejścia: wyjście:
28 zadanie 4. modelowanie tłumika drgań sejsmicznych źródło: własne
29 zadanie 4. modelowanie tłumika drgań sejsmicznych źródło: własne nauczyć sieć identyfikacji następującego nieliniowego obiektu - tłumika drgań sejsmicznych magnetorheological damper: model: bardzo skomplikowany dane uczące: model w SIMULINKu sieć: wejścia: x, napięcie wyjścia: F efekt: traditional 20-1 net model net voltage context-dependent 10-1 net model net voltage
Zastosowania sieci neuronowych
Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką
Bardziej szczegółowoSztuczna Inteligencja Tematy projektów Sieci Neuronowe
PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia
Bardziej szczegółowoZastosowania sieci neuronowych
Zastosowania sieci neuronowych klasyfikacja LABORKA Piotr Ciskowski zadanie 1. klasyfikacja zwierząt sieć jednowarstwowa żródło: Tadeusiewicz. Odkrywanie własności sieci neuronowych, str. 159 Przykład
Bardziej szczegółowo8. Neuron z ciągłą funkcją aktywacji.
8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i
Bardziej szczegółowoUczenie sieci typu MLP
Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik
Bardziej szczegółowoIdentyfikacja obiektów dynamicznych za pomocą sieci neuronowych
Metody Sztucznej Inteligencji w Sterowaniu Ćwiczenie 3 Identyfikacja obiektów dynamicznych za pomocą sieci neuronowych Przygotował: mgr inż. Marcin Pelic Instytut Technologii Mechanicznej Politechnika
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3
Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt
Bardziej szczegółowoPodstawy Sztucznej Inteligencji (PSZT)
Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12
Bardziej szczegółowoLiteratura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu
Literatura Wykład : Wprowadzenie do sztucznych sieci neuronowych Małgorzata Krętowska Wydział Informatyki Politechnika Białostocka Tadeusiewicz R: Sieci neuronowe, Akademicka Oficyna Wydawnicza RM, Warszawa
Bardziej szczegółowoTemat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE
Temat: Sztuczne Sieci Neuronowe Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sztuczne sieci neuronowe
Bardziej szczegółowoSieci neuronowe w Statistica
http://usnet.us.edu.pl/uslugi-sieciowe/oprogramowanie-w-usk-usnet/oprogramowaniestatystyczne/ Sieci neuronowe w Statistica Agnieszka Nowak - Brzezińska Podstawowym elementem składowym sztucznej sieci neuronowej
Bardziej szczegółowo1. Logika, funkcje logiczne, preceptron.
Sieci neuronowe 1. Logika, funkcje logiczne, preceptron. 1. (Logika) Udowodnij prawa de Morgana, prawo pochłaniania p (p q), prawo wyłączonego środka p p oraz prawo sprzeczności (p p). 2. Wyraź funkcję
Bardziej szczegółowoSztuczne sieci neuronowe
www.math.uni.lodz.pl/ radmat Cel wykładu Celem wykładu jest prezentacja różnych rodzajów sztucznych sieci neuronowych. Biologiczny model neuronu Mózg człowieka składa się z około 10 11 komórek nerwowych,
Bardziej szczegółowoWYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)
WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO Stanisław Kowalik (Poland, Gliwice) 1. Wprowadzenie Wstrząsy podziemne i tąpania występujące w kopalniach
Bardziej szczegółowoAlgorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa
Bardziej szczegółowoANALIZA SYGNAŁÓ W JEDNÓWYMIARÓWYCH
ANALIZA SYGNAŁÓ W JEDNÓWYMIARÓWYCH Generowanie podstawowych przebiegów okresowych sawtooth() przebieg trójkątny (wierzhołki +/-1, okres 2 ) square() przebieg kwadratowy (okres 2 ) gauspuls()przebieg sinusoidalny
Bardziej szczegółowoPodstawy sztucznej inteligencji
wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,
Bardziej szczegółowoINSTRUKCJA DO ĆWICZENIA NR 7
KATEDRA MECHANIKI STOSOWANEJ Wydział Mechaniczny POLITECHNIKA LUBELSKA INSTRUKCJA DO ĆWICZENIA NR 7 PRZEDMIOT TEMAT OPRACOWAŁ LABORATORIUM MODELOWANIA Przykładowe analizy danych: przebiegi czasowe, portrety
Bardziej szczegółowosieci jednowarstwowe w MATLABie LABORKA Piotr Ciskowski
sieci jednowarstwowe w ATLABie LABORKA Piotr Ciskowski trzy funkcje do obsługi sieci jednowarstwowej : init1.m - tworzy sieć, inicjuje wagi (losowo) dzialaj1.m symuluje działanie sieci (na pojedynczym
Bardziej szczegółowoProjekt Sieci neuronowe
Projekt Sieci neuronowe Chmielecka Katarzyna Gr. 9 IiE 1. Problem i dane Sieć neuronowa miała za zadanie nauczyć się klasyfikować wnioski kredytowe. W projekcie wykorzystano dane pochodzące z 110 wniosków
Bardziej szczegółowoSieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska
Sieci neuronowe w Statistica Agnieszka Nowak - Brzezioska Podstawowym elementem składowym sztucznej sieci neuronowej jest element przetwarzający neuron. Schemat działania neuronu: x1 x2 w1 w2 Dendrites
Bardziej szczegółowoInteligentne systemy przeciw atakom sieciowym
Inteligentne systemy przeciw atakom sieciowym wykład Sztuczne sieci neuronowe (SSN) Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 1 / 36 Biologiczne
Bardziej szczegółowoInteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska
Bardziej szczegółowoSieć przesyłająca żetony CP (counter propagation)
Sieci neuropodobne IX, specyficzne architektury 1 Sieć przesyłająca żetony CP (counter propagation) warstwa Kohonena: wektory wejściowe są unormowane jednostki mają unormowane wektory wag jednostki są
Bardziej szczegółowoMetody Sztucznej Inteligencji II
17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału
Bardziej szczegółowoOprogramowanie Systemów Obrazowania SIECI NEURONOWE
SIECI NEURONOWE Przedmiotem laboratorium jest stworzenie algorytmu rozpoznawania zwierząt z zastosowaniem sieci neuronowych w oparciu o 5 kryteriów: ile zwierzę ma nóg, czy żyje w wodzie, czy umie latać,
Bardziej szczegółowoIMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ
IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,
Bardziej szczegółowoSztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek
Sztuczne sieci neuronowe Ćwiczenia Piotr Fulmański, Marta Grzanek Piotr Fulmański 1 Wydział Matematyki i Informatyki, Marta Grzanek 2 Uniwersytet Łódzki Banacha 22, 90-232, Łódź Polska e-mail 1: fulmanp@math.uni.lodz.pl,
Bardziej szczegółowoTemat: Sieci neuronowe oraz technologia CUDA
Elbląg, 27.03.2010 Temat: Sieci neuronowe oraz technologia CUDA Przygotował: Mateusz Górny VIII semestr ASiSK Wstęp Sieci neuronowe są to specyficzne struktury danych odzwierciedlające sieć neuronów w
Bardziej szczegółowoGENERACJA PRZEBIEGU SINUSOIDALNEGO.
GENERACJA PRZEBIEGU SINUSOIDALNEGO. Podstawą generacji sygnału sinusoidalnego jest równanie różnicowe wyprowadzone w sposób następujący. Transmitancja układu generującego jest równa: Na wyjściu spodziewany
Bardziej szczegółowoPodstawy Sztucznej Inteligencji
Politechnika Łódzka Katedra Informatyki Stosowanej Podstawy Sztucznej Inteligencji Laboratorium Ćwiczenie 2 Wykorzystanie środowiska Matlab do modelowania sztucznych sieci neuronowych Opracowali: Dr hab
Bardziej szczegółowo2.12. Zadania odwrotne kinematyki
Politechnika Poznańska, Katedra Sterowania i Inżynierii Systemów str. 1 2.12. Zadania odwrotne kinematyki Określenie zadania odwrotnego kinematyki T 0 N = [ ] n s a p = r 11 r 12 r 13 p x r 21 r 22 r 23
Bardziej szczegółowoElementy inteligencji obliczeniowej
Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego
Bardziej szczegółowoZagadnienia optymalizacji i aproksymacji. Sieci neuronowe.
Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. zajecia.jakubw.pl/nai Literatura: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym. WNT, Warszawa 997. PODSTAWOWE ZAGADNIENIA TECHNICZNE AI
Bardziej szczegółowoI EKSPLORACJA DANYCH
I EKSPLORACJA DANYCH Zadania eksploracji danych: przewidywanie Przewidywanie jest podobne do klasyfikacji i szacowania, z wyjątkiem faktu, że w przewidywaniu wynik dotyczy przyszłości. Typowe zadania przewidywania
Bardziej szczegółowoWidzenie komputerowe
Widzenie komputerowe Uczenie maszynowe na przykładzie sieci neuronowych (3) źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Zdolność uogólniania sieci neuronowej R oznaczenie
Bardziej szczegółowoZrealizować sieć neuronową (learnbpm) uczącą się odwzorowania z = x 2 + y 2 dla x i y zmieniających się od -1 do 1.
Politechnika Rzeszowska Wydział Elektrotechniki i Informatyki Mateusz Błażej Nr albumu: 130366 Zrealizować sieć neuronową (learnbpm) uczącą się odwzorowania z = x 2 + y 2 dla x i y zmieniających się od
Bardziej szczegółowo1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda
Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy
Bardziej szczegółowoInteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe wykład 1. Właściwości sieci neuronowych Model matematyczny sztucznego neuronu Rodzaje sieci neuronowych Przegląd d głównych g
Bardziej szczegółowoSztuczna inteligencja
Sztuczna inteligencja Wykład 7. Architektury sztucznych sieci neuronowych. Metody uczenia sieci. źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Podstawowe architektury
Bardziej szczegółowoZastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2013/2014
Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner rok akademicki 2013/2014 Sieci neuronowe Sieci neuronowe W XIX wieku sformułowano teorię opisującą podstawowe
Bardziej szczegółowoKlasyfikator liniowy Wstęp Klasyfikator liniowy jest najprostszym możliwym klasyfikatorem. Zakłada on liniową separację liniowy podział dwóch klas między sobą. Przedstawia to poniższy rysunek: 5 4 3 2
Bardziej szczegółowoProcedura modelowania matematycznego
Procedura modelowania matematycznego System fizyczny Model fizyczny Założenia Uproszczenia Model matematyczny Analiza matematyczna Symulacja komputerowa Rozwiązanie w postaci modelu odpowiedzi Poszerzenie
Bardziej szczegółowoAutomatyka i robotyka ETP2005L. Laboratorium semestr zimowy
Automatyka i robotyka ETP2005L Laboratorium semestr zimowy 2017-2018 Liniowe człony automatyki x(t) wymuszenie CZŁON (element) OBIEKT AUTOMATYKI y(t) odpowiedź Modelowanie matematyczne obiektów automatyki
Bardziej szczegółowoTransformaty. Kodowanie transformujace
Transformaty. Kodowanie transformujace Kodowanie i kompresja informacji - Wykład 10 10 maja 2009 Szeregi Fouriera Każda funkcję okresowa f (t) o okresie T można zapisać jako f (t) = a 0 + a n cos nω 0
Bardziej szczegółowoFunkcje trygonometryczne. XX LO (wrzesień 2016) Matematyka elementarna Temat #5 1 / 14
XX LO (wrzesień 2016) Matematyka elementarna Temat #5 1 / 14 Miara kąta Miara kąta kąt mierzymy od ramienia początkowego do końcowego w kierunku przeciwnym do ruchu wskazówek zegara (α > 0) kąt zgodny
Bardziej szczegółowoAlgorytmy metaheurystyczne Wykład 11. Piotr Syga
Algorytmy metaheurystyczne Wykład 11 Piotr Syga 22.05.2017 Drzewa decyzyjne Idea Cel Na podstawie przesłanek (typowo zbiory rozmyte) oraz zbioru wartości w danych testowych, w oparciu o wybrane miary,
Bardziej szczegółowoUczenie sieci neuronowych i bayesowskich
Wstęp do metod sztucznej inteligencji www.mat.uni.torun.pl/~piersaj 2009-01-22 Co to jest neuron? Komputer, a mózg komputer mózg Jednostki obliczeniowe 1-4 CPU 10 11 neuronów Pojemność 10 9 b RAM, 10 10
Bardziej szczegółowoZastosowania sieci neuronowych predykcja - giełda
Zastosowania sieci neuronowych predykcja - giełda LABORKA Piotr Ciskowski AKCJE INDEKS WIG20 plik giełda-wig.xlsx : dane: indeks WIG od 1991 do 2005 ok. 3000 sesji bez ostatniej szalonej hossy dla każdej
Bardziej szczegółowoEmergentne właściwości. sztucznych sieci neuronowych
Barbara Pankiewicz nauczyciel fizyki III Liceum Ogólnokształcące w Zamościu ul. Kilińskiego 15 22-400 Zamość Emergentne właściwości sztucznych sieci neuronowych Opracowała: Barbara Pankiewicz Zamość, 2001
Bardziej szczegółowoSieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ
optymalizacje podejmowanych decyzji Tomasz Karczyoski Wydział W-08 IZ Czym są sieci neuronowe Struktura matematycznych oraz programowy lub sprzętowy model, realizujących obliczenia lub przetwarzanie sygnałów
Bardziej szczegółowo8. Realizacja projektowanie i pomiary filtrów IIR
53 8. Realizacja projektowanie i pomiary filtrów IIR Cele ćwiczenia Realizacja na zestawie TMX320C5515 ezdsp prostych liniowych filtrów cyfrowych. Pomiary charakterystyk amplitudowych zrealizowanych filtrów
Bardziej szczegółowoSieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I.
Sieci M. I. Jordana Sieci rekurencyjne z parametrycznym biasem Leszek Rybicki 30 listopada 2007 Leszek Rybicki Sieci M. I. Jordana 1/21 Plan O czym będzie 1 Wstęp do sieci neuronowych Neurony i perceptrony
Bardziej szczegółowoD l. D p. Rodzaje baz jezdnych robotów mobilnych
ERO Elementy robotyki 1 Rodzaje baz jezdnych robotów mobilnych Napęd różnicowy dwa niezależnie napędzane koła jednej osi, dla zachowania równowagi dodane jest trzecie koło bierne (lub dwa bierne koła)
Bardziej szczegółowoUczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0
Uczenie się pojedynczego neuronu W0 X0=1 W1 x1 W2 s f y x2 Wp xp p x i w i=x w+wo i=0 Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z=0 Wówczas: W 1 x 1 + w 2 x 2 + = 0 Algorytm
Bardziej szczegółowoSIEĆ NEURONOWA JAKO NARZĘDZIE APROKSYMACJI I KLASYFIKACJI DANYCH. Jakub Karbowski Gimnazjum nr 17 w Krakowie
SIEĆ NEURONOWA JAKO NARZĘDZIE APROKSYMACJI I KLASYFIKACJI DANYCH Jakub Karbowski Gimnazjum nr 17 w Krakowie KRAKÓW 2017 1. Spis treści 2. WSTĘP 2 3. SIECI NEURONOWE 2 3.1. Co to są sieci neuronowe... 2
Bardziej szczegółowoMatematyka ETId I.Gorgol. Funkcja złożona i odwrotna. Funkcje
Funkcja złożona i odwrotna. Funkcje cyklometryczne. Definicja funkcji DEFINICJA Niech dane będa dwa zbiory D i P. Funkcja f : D P nazywamy przyporzadkowanie, które każdemu elementowi ze zbioru D przyporzadkowuje
Bardziej szczegółowoAlgorytmy sztucznej inteligencji
Algorytmy sztucznej inteligencji Dynamiczne sieci neuronowe 1 Zapis macierzowy sieci neuronowych Poniżej omówione zostaną części składowe sieci neuronowych i metoda ich zapisu za pomocą macierzy. Obliczenia
Bardziej szczegółowoTechnologie Informacyjne
POLITECHNIKA KRAKOWSKA - WIEiK - KATEDRA AUTOMATYKI Technologie Informacyjne www.pk.edu.pl/~zk/ti_hp.html Wykładowca: dr inż. Zbigniew Kokosiński zk@pk.edu.pl Wykład: Generacja liczb losowych Problem generacji
Bardziej szczegółowoSterowanie Napędów Maszyn i Robotów
Wykład 4 - Model w przestrzeni stanów Instytut Automatyki i Robotyki Warszawa, 2015 Wstęp Do zaprojektowania układu regulacji pozycji siłownika pneumatycznego, poszukiwany jest model dynamiki układu w
Bardziej szczegółowoELEMENTY SZTUCZNEJ INTELIGENCJI. Sztuczne sieci neuronowe
ELEMENTY SZTUCZNEJ INTELIGENCJI Sztuczne sieci neuronowe Plan 2 Wzorce biologiczne. Idea SSN - model sztucznego neuronu. Perceptron prosty i jego uczenie regułą delta Perceptron wielowarstwowy i jego uczenie
Bardziej szczegółowoPROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**
Górnictwo i Geoinżynieria Rok 31 Zeszyt 3 2007 Dorota Pawluś* PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH** 1. Wstęp Eksploatacja górnicza złóż ma niekorzystny wpływ na powierzchnię
Bardziej szczegółowoLaboratorium nr 2. Identyfikacja systemu i detekcja uszkodzeń na podstawie modelu
Instytut Sterowania i Systemów Informatycznych Uniwersytet Zielonogórski Diagnostyka procesów i systemów Prowadzący: Marcel Luzar 1 Laboratorium nr 2 Identyfikacja systemu i detekcja uszkodzeń na podstawie
Bardziej szczegółowoZadanie: Filtr adaptywny
Spis treści 1 Zadanie: Filtr adaptywny 1.1 Przygotuj sygnały: 1.2 Symulacja sieci 1.3 Wykresy 1.4 Szkielet rozwiązania: 1.5 Pytania Zadanie: Filtr adaptywny W tym zadaniu symulujemy działanie filtra, który
Bardziej szczegółowoZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE
ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE INSTYTUT TECHNOLOGII MECHANICZNEJ Metody Sztucznej Inteligencji Sztuczne Sieci Neuronowe Wstęp Sieci neuronowe są sztucznymi strukturami, których
Bardziej szczegółowoINTERPOLACJA I APROKSYMACJA FUNKCJI
Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Wprowadzenie Na czym polega interpolacja? Interpolacja polega
Bardziej szczegółowoAnaliza szeregów czasowych: 7. Liniowe modele stochastyczne
Analiza szeregów czasowych: 7. Liniowe modele stochastyczne P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ semestr letni 2005/06 Liniowe modele stochastyczne Niech {y n } N n=1 będzie pewnym ciagiem danych
Bardziej szczegółowoWstęp do sztucznych sieci neuronowych
Wstęp do sztucznych sieci neuronowych Michał Garbowski Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Wydział Informatyki 15 grudnia 2011 Plan wykładu I 1 Wprowadzenie Inspiracja biologiczna
Bardziej szczegółowoOCENA DZIAŁANIA AE. METODY HEURYSTYCZNE wykład 4 LOSOWOŚĆ W AE KRZYWE ZBIEŻNOŚCI ANALIZA STATYSTYCZNA:
METODY HEURYSTYCZNE wykład 4 OCENA DZIAŁANIA AE 1 2 LOSOWOŚĆ W AE Różne zachowanie algorytmuw poszczególnych uruchomieniach przy jednakowych ustawieniach parametrów i identycznych populacjach początkowych.
Bardziej szczegółowoprzy warunkach początkowych: 0 = 0, 0 = 0
MODELE MATEMATYCZNE UKŁADÓW DYNAMICZNYCH Podstawową formą opisu procesów zachodzących w członach lub układach automatyki jest równanie ruchu - równanie dynamiki. Opisuje ono zależność wielkości fizycznych,
Bardziej szczegółowoWYDZIAŁ ELEKTROTECHNIKI, AUTOMATYKI I INFORMATYKI INSTYTUT AUTOMATYKI I INFORMATYKI KIERUNEK AUTOMATYKA I ROBOTYKA STUDIA STACJONARNE I STOPNIA
WYDZIAŁ ELEKTROTECHNIKI, AUTOMATYKI I INFORMATYKI INSTYTUT AUTOMATYKI I INFORMATYKI KIERUNEK AUTOMATYKA I ROBOTYKA STUDIA STACJONARNE I STOPNIA PRZEDMIOT : : LABORATORIUM PODSTAW AUTOMATYKI 10. Dyskretyzacja
Bardziej szczegółowoAnaliza szeregów czasowych: 5. Liniowe modele stochastyczne
Analiza szeregów czasowych: 5. Liniowe modele stochastyczne P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ semestr letni 2006/07 Dwa rodzaje modelowania 1. Modelowanie z pierwszych zasad. Znamy prawa
Bardziej szczegółowoSieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.
Sieci rekurencyjne Ewa Adamus ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych 7 maja 2012 Jednowarstwowa sieć Hopfielda, z n neuronami Bipolarna funkcja przejścia W wariancie
Bardziej szczegółowoHAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM
ZASTOSOWANIE SIECI NEURONOWYCH W SYSTEMACH AKTYWNEJ REDUKCJI HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM WPROWADZENIE Zwalczanie hałasu przy pomocy metod aktywnych redukcji hałasu polega
Bardziej szczegółowoPolitechnika Warszawska
Politechnika Warszawska Programowa realizacja sieci neuronowych Zbigniew Szymański, Stanisław Jankowski grudzień 03 Instytut Informatyki Nowowiejska 5 / 9, 00-665 Warszawa Programowa realizacja sieci neuronowych
Bardziej szczegółowoFunkcją sinus kąta α nazywamy stosunek przyprostokątnej leżącej naprzeciw kąta α do przeciwprostokątnej w trójkącie prostokątnym, i opisujemy jako:
1. Trygonometria 1.1Wprowadzenie Jednym z podstawowych działów matematyki który wykorzystywany jest w rozwiązywaniu problemów technicznych jest trygonometria. W szkole średniej wprowadzone zostały podstawowe
Bardziej szczegółowoMETODY INŻYNIERII WIEDZY
METODY INŻYNIERII WIEDZY SZTUCZNE SIECI NEURONOWE MLP Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i Inżynierii
Bardziej szczegółowoZastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań
Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW
Bardziej szczegółowoKatedra Zarządzania i Informatyki Politechnika Śląska
prof. dr hab. Tadeusz Wieczorek mgr inż. Krystian Mączka Katedra Zarządzania i Informatyki Politechnika Śląska Charakterystyka procesu topienia złomu w piecu łukowym Problemy do rozwiązania Prezentacja
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt
Bardziej szczegółowoSZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 10. WNIOSKOWANIE W LOGICE ROZMYTEJ Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska WNIOSKOWANIE W LOGICE DWUWARTOŚCIOWEJ W logice
Bardziej szczegółowoKinematyka: opis ruchu
Kinematyka: opis ruchu Fizyka I (B+C) Wykład IV: Ruch jednostajnie przyspieszony Ruch harmoniczny Ruch po okręgu Klasyfikacja ruchów Ze względu na tor wybrane przypadki szczególne prostoliniowy, odbywajacy
Bardziej szczegółowowiedzy Sieci neuronowe
Metody detekcji uszkodzeń oparte na wiedzy Sieci neuronowe Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 7 Wprowadzenie Okres kształtowania się teorii sztucznych sieci
Bardziej szczegółowoSztuczne siei neuronowe - wprowadzenie
Metody Sztucznej Inteligencji w Sterowaniu Ćwiczenie 2 Sztuczne siei neuronowe - wprowadzenie Przygotował: mgr inż. Marcin Pelic Instytut Technologii Mechanicznej Politechnika Poznańska Poznań, 2 Wstęp
Bardziej szczegółowowiedzy Sieci neuronowe (c.d.)
Metody detekci uszkodzeń oparte na wiedzy Sieci neuronowe (c.d.) Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 8 Metody detekci uszkodzeń oparte na wiedzy Wprowadzenie
Bardziej szczegółowoRozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak
2 Rozdział 1 Sztuczne sieci neuronowe. 3 Sztuczna sieć neuronowa jest zbiorem prostych elementów pracujących równolegle, których zasada działania inspirowana jest biologicznym systemem nerwowym. Sztuczną
Bardziej szczegółowoZASTOSOWANIA PRZEKSZTAŁCENIA ZET
CPS - - ZASTOSOWANIA PRZEKSZTAŁCENIA ZET Rozwiązywanie równań różnicowych Dyskretny system liniowy-stacjonarny można opisać równaniem różnicowym w postaci ogólnej N M aky[ n k] bkx[ n k] k k Przekształcenie
Bardziej szczegółowoAnalityczne metody detekcji uszkodzeń
Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 5 Model procesu Rozważmy czasowo-dyskretny model liniowy gdzie: k dyskretny czas, x(k) R n wektor stanu, x(k + 1) = Ax(k)
Bardziej szczegółowoSztuczne sieci neuronowe (SNN)
Sztuczne sieci neuronowe (SNN) Pozyskanie informacji (danych) Wstępne przetwarzanie danych przygotowanie ich do dalszej analizy Selekcja informacji Ostateczny model decyzyjny SSN - podstawy Sieci neuronowe
Bardziej szczegółowoWprowadzenie do Sieci Neuronowych Laboratorium 05 Algorytm wstecznej propagacji błędu
Wprowadzenie do Sieci Neuronowych Laboratorium Algorytm wstecznej propagacji błędu Maja Czoków, Jarosław Piersa --7. Powtórzenie Perceptron sigmoidalny Funkcja sigmoidalna: σ(x) = + exp( c (x p)) () Parametr
Bardziej szczegółowoMatematyka. rok akademicki 2008/2009, semestr zimowy. Konwersatorium 1. Własności funkcji
. Własności funkcji () Wyznaczyć dziedzinę funkcji danej wzorem: y = 2 2 + 5 y = +4 y = 2 + (2) Podać zbiór wartości funkcji: y = 2 3, [2, 5) y = 2 +, [, 4] y =, [3, 6] (3) Stwierdzić, czy dana funkcja
Bardziej szczegółowox(n) x(n-1) x(n-2) D x(n-n+1) h N-1
Laboratorium Układy dyskretne LTI projektowanie filtrów typu FIR Z1. apisać funkcję y = filtruj(x, h), która wyznacza sygnał y będący wynikiem filtracji sygnału x przez filtr FIR o odpowiedzi impulsowej
Bardziej szczegółowoSPRZĘTOWA REALIZACJA FILTRÓW CYFROWYCH TYPU SOI
1 ĆWICZENIE VI SPRZĘTOWA REALIZACJA FILTRÓW CYFROWYCH TYPU SOI (00) Celem pracy jest poznanie sposobu fizycznej realizacji filtrów cyfrowych na procesorze sygnałowym firmy Texas Instruments TMS320C6711
Bardziej szczegółowoSystemy uczące się wykład 2
Systemy uczące się wykład 2 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 19 X 2018 Podstawowe definicje Fakt; Przesłanka; Konkluzja; Reguła; Wnioskowanie. Typy wnioskowania
Bardziej szczegółowoALGORYTMY SZTUCZNEJ INTELIGENCJI
ALGORYTMY SZTUCZNEJ INTELIGENCJI Sieci neuronowe 06.12.2014 Krzysztof Salamon 1 Wstęp Sprawozdanie to dotyczy ćwiczeń z zakresu sieci neuronowych realizowanym na przedmiocie: Algorytmy Sztucznej Inteligencji.
Bardziej szczegółowoSymulacja sygnału czujnika z wyjściem częstotliwościowym w stanach dynamicznych
XXXVIII MIĘDZYUCZELNIANIA KONFERENCJA METROLOGÓW MKM 06 Warszawa Białobrzegi, 4-6 września 2006 r. Symulacja sygnału czujnika z wyjściem częstotliwościowym w stanach dynamicznych Eligiusz PAWŁOWSKI Politechnika
Bardziej szczegółowoRachunek różniczkowy funkcji jednej zmiennej. 1 Obliczanie pochodnej i jej interpretacja geometryczna
Wydział Matematyki Stosowanej Zestaw zadań nr 4 Akademia Górniczo-Hutnicza w Krakowie WEiP, energetyka, I rok Elżbieta Adamus 4 grudnia 08r. Rachunek różniczkowy funkcji jednej zmiennej Obliczanie pochodnej
Bardziej szczegółowoSystemy. Krzysztof Patan
Systemy Krzysztof Patan Systemy z pamięcią System jest bez pamięci (statyczny), jeżeli dla dowolnej chwili t 0 wartość sygnału wyjściowego y(t 0 ) zależy wyłącznie od wartości sygnału wejściowego w tej
Bardziej szczegółowoBIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.
Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej BIOCYBERNETYKA Adrian Horzyk SIECI NEURONOWE www.agh.edu.pl Mózg inspiruje nas od wieków Co takiego
Bardziej szczegółowoĆwiczenie EA9 Czujniki położenia
Akademia Górniczo-Hutnicza im.s.staszica w Krakowie KATEDRA MASZYN ELEKTRYCZNYCH Ćwiczenie EA9 Program ćwiczenia I. Transformator położenia kątowego 1. Wyznaczenie przekładni napięciowych 2. Pomiar napięć
Bardziej szczegółowo