OCENA EFEKTYWNOŚCI TECHNIKI EXTREME LEARNING MACHINE (ELM) DO MODELOWANIA DWUWYMIAROWYCH NIELINIOWOŚCI W UKŁADACH NAPĘDOWYCH
|
|
- Kamila Kot
- 8 lat temu
- Przeglądów:
Transkrypt
1 Prace Naukowe Instytutu Maszyn, Napędów i Pomiarów Elektrycznych Nr 7 Politechniki Wrocławskiej Nr 7 Studia i Materiały Nr Marcin JASTRZĘBSKI*, Jacek KABZIŃSKI*, Grzegorz WASIAK*, Rafał ZAWIŚLAK* Extreme Learning Machine, ELM, modelowanie tarcia, regulacja adaptacyjna, modelowanie rozmyte, silnik liniowy OCENA EFEKTYWNOŚCI TECHNIKI EXTREME LEARNING MACHINE (ELM) DO MODELOWANIA DWUWYMIAROWYCH NIELINIOWOŚCI W UKŁADACH NAPĘDOWYCH Celem artykułu jest ocena przydatności techniki Extreme Learning Machine (ELM) do modelowania dwuwymiarowych nieliniowości występujących w układach napędowych. Jako przykład typowej nieliniowości wybrana została funkcja opisująca sumaryczną siłę oporów w napędzie liniowym. Do stworzenia neuronowego modelu oporu użyta została klasyczna technika ELM. Autorzy ocenili efekty zastosowania tej techniki i zaproponowali modyfikację modelu pozwalającą na zmniejszenie błędów modelowania. Przeprowadzone testy symulacyjne i eksperymenty pozwoliły autorom na sformułowanie ogólnych wniosków dotyczących możliwości stosowania techniki ELM do modelowania nieliniowych, dwuwymiarowych zależności na podstawie zaszumionych danych uzyskanych eksperymentalnie.. WPROWADZENIE W układach napędowych wielowymiarowe modele matematyczne wykorzystuje się między innymi w zadaniach identyfikacji, kompensacji czy sterowania adaptacyjnego. Wiedza pochodząca z procesu identyfikacji obiektu może być wykorzystana w układach regulacji, zarówno do określenia struktury układu sterowania jak i do strojenia parametrów regulatorów. Dobrym przykładem może być kompensacja siły tarcia zależnej od położenia i prędkości [2] [5] w układach sterowania pozycyjnego, czy też modelowanie kształtu strumienia magnetycznego zależnego od prądu i położenia, wykorzystywane w układach regulacji momentu. Satysfakcjonujący model * Instytut Automatyki, Politechnika Łódzka, Łódź, ul. B. Stefanowskiego 8/22, marcin.jastrzebski@p.lodz.pl, jacek.kabzinski@p.lodz.pl, grzegorz.wasiak@p.lodz.pl, rafal.zawislak@p.lodz.pl
2 84 stosowany w układzie sterowania napędem powinien łączyć w sobie następujące cechy: dostateczną dokładność pozwalającą na wierne odtworzenie modelowanej zależności, dostateczną prostotę, pozwalająca na szybkie strojenie modelu i szybkie obliczanie jego wyjścia w czasie rzeczywistym, odporność na zaszumienia i błędy danych, elastyczność pozwalająca na szybką modyfikację w czasie rzeczywistym, np. poprzez adaptację jego parametrów. Otrzymywane w wyniku eksperymentów dane pomiarowe z reguły wskazują na występowanie nieliniowości, a czasami także nieciągłości. Do modelowania zależności tego rodzaju można wykorzystywać różne techniki aproksymacji, także modelowanie rozmyte i modelowanie poprzez sztuczne sieci neuronowe. Powszechnie znaną zaletą systemów rozmytych jest duża zdolność aproksymacji nieliniowości oraz przydatność do rozwiązywania zadań klasyfikacji oraz stosunkowa łatwość interpretacji zgromadzonej w nich wiedzy. Do niewątpliwych zalet charakterystycznych dla sztucznych sieci neuronowych należy zaliczyć ich zdolność uczenia się. Połączenie tych koncepcji doprowadziło do powstania systemów rozmyto-neuronowych, a w dalszym etapie poprzez kolejne próby hybrydyzacji systemów ewolucyjno-rozmytych o strukturach strojonych przez algorytmy bakteryjne, rojowe, itp. Wadą tych rozwiązań są skomplikowanie algorytmy strojenia oraz stosunkowo długi czas poszukiwania wartości optymalnych ich parametrów. Extreme Learning Machine (ELM) można zaliczyć do relatywnie nowych technik modelowania neuronowego. W literaturze przedmiotu można znaleźć szereg artykułów przeglądowych opisujących, charakteryzujących i promujących tę technikę, głównie ze względu na prostotę modelu oraz krótki czas jego uczenia [,, 2]. Dość szeroki jest również opisywany zakres zastosowań ELM: od aproksymacji danych pomiarowych do problemów klasyfikacji, z technikami uczenia wsadowego bądź sekwencyjnego. Liczni autorzy publikacji jak również sami autorzy algorytmu podkreślają główną zaletę ELM, to jest prostą strukturę sieci neuronowy model z jedną warstwą ukrytą oraz niemalże błyskawiczny czas nauki uzyskany poprzez: losowy wybór parametrów wag neuronów w warstwie ukrytej, które pozostają niezmienione (są więc całkowicie niezależne od danych uczących) obliczenie wag neuronu wyjściowego z pojedynczej formuły analitycznej, bez konieczności iteracyjnego uczenia modelu. Z drugiej strony część autorów publikacji wskazuje jednak na możliwość powstawania problemów numerycznych związanych np. ze złym uwarunkowaniem macierzy [0], nadmiarowością danych oraz trudnościami wynikającymi z zastosowania całkowicie losowych wartości wag. Poniżej przedstawiono efekty wykorzystania techniki ELM do odtworzenia przebiegu zmienności siły oporów działających na silnik liniowy. Problem kompensacji siły
3 85 oporów jest tym trudniejszy, że zawiera ona składniki pochodzące z wielu niezależnych źródeł i może być silnie nieliniową, nieciągłą funkcją położenia silnika i jego prędkości. 2. DWUWYMIAROWY MODEL SIŁY OPORÓW Na potrzeby testów techniki ELM zaproponowano modelowanie siły oporów w serwonapędzie liniowym, w postaci statycznej, nieliniowej zależności ww. siły od położenia i prędkości silnika. Dane do testów zebrane zostały w układzie laboratoryjnym wyposażonym w: silnik liniowy TB250 o całkowitej masie 7,04 kg, długotrwałej sile 04 N, z enkoderem o rozdzielczości µm i z tensometrycznymi czujnikami do pomiaru sił. Napęd był zasilany z falownika XTL z wbudowanym regulatorem prądu, a całość algorytmów sterowania realizował modularny zestaw kontrolno-pomiarowy oparty na karcie dspace DS06, z czasem próbkowania równym 50 ms. Wartości sił obciążenia mogły być zbierane z czujników tensometrycznych lub z wyjścia obserwatora zakłócenia [4, 5]. Schemat stanowiska laboratoryjnego pokazano na rysunku. Rys.. Schemat układu laboratoryjnego Dane zebrane za pomocą obserwatora ilustruje rys. 2. Analiza tych danych wykazała nieciągłość dla prędkości równej zero, której źródłem jest istnienie tarcia statycznego oraz okresową (o okresie równym podziałce biegunowej silnika 5,2 mm) zmienność siły oporu w funkcji położenia nałożoną na wzrost oporu, który odzwierciedla np. efekt narzędzia obrabiającego przedmiot o zmiennej twardości czy też pe-
4 86 netrację tkanki w przypadku robotów chirurgicznych. Efekty te uzyskano zmieniając obciążenie, kształt i materiał belki zaznaczonej na rys.. W pierwszej fazie testów techniki ELM zastosowano dane wygenerowane na podstawie wzoru (): 2π Fo ( p, v) = 0,4 sin p + 2sign( v) ξt (00( p 0,5)) + 3,62sign( v) + 24, 8v () 0,052 gdzie: ξ t ( z) = 2/( + exp( 2z)), p wartość położenia [m], v prędkość liniowa silnika [m/s], F o (p,v) sumaryczna siłę oporu [N]. Wzór () generuje powierzchnię o właściwościach podobnych do danych przedstawionych na rys. 2. Wykorzystanie tej powierzchni pozwoliło na analizę właściwości metody i przetestowanie jej wariantów zanim zostanie zastosowana do danych z układu rzeczywistego. Na potrzeby symulacji wszystkie dane zostały znormalizowane do przedziałów [0, ]. Ich przebieg (płaszczyzna wg wzoru () po normalizacji) przedstawiono na rys. 3. Rys. 2. Dane z obserwatora Rys. 3. Model płaszczyzny Rys. 4. Zaszumione dane do nauki i testów Rys. 5. Dane do testów ze wzorca
5 87 Rysunki 4 i 5 przedstawiają wygenerowane dane służące do nauki i do testów poprawności modelu. Dane te zostały wygenerowane na podstawie wzoru (), uwzględniając zarówno ich losowy rozkład w osiach p, v jak i losowo wygenerowany szum pomiarowy o wartościach z zakresu [ 0,, 0,] N. Wprowadzone zostały średniokwadratowe miary jakości E train, E test i E Ttest porównujące uzyskany metodą ELM model F m (p,v) odpowiednio z danymi użytymi do nauki i testów (zaszumionymi) oraz z danymi niezaszumionymi uzyskanymi ze wzoru (): E N n 2 train = ( Fm ( pn, v i n ) F i sz ( pn, v i n )) i Nn i=, (2) E Nt 2 test = ( Fm ( pt, v i t ) F i sz ( pt, v i t )) i Nt i= E N 2 Ttrain = ( Fm ( pi, vi ) Fo ( pi, vi )) N i=, (3). (4) gdzie: N n liczba losowo wybranych próbek ( p, v ) służących do nauki modelu ni n i techniką ELM, N t liczba losowo wybranych próbek ( p, v ) służących do testowania N ti t i otrzymanej powierzchni, liczba wszystkich punktów z równomiernej siatki, użytych do wygenerowania płaszczyzny z rys. 3, F sz, F o odpowiednio zaszumione i niezaszumione wartości funkcji oporu dla par (p, v). 3. STANDARDOWY MODEL EML Technika Extreme Learning Machine została zaproponowana w pracy Huang et al. [] jako efektywny algorytm uczenia sieci neuronowej o jednej warstwie ukrytej. Głównym założeniem tej koncepcji jest fakt iż: wagi i biasy neuronów warstwy ukrytej są generowane losowo i pozostają stałe, wagi neuronu wyjściowego są wyznaczane z pojedynczej formuły analitycznej, bez konieczności iteracyjnego uczenia, wyjście modelu jest wyznaczane z formuły: F ELM M ( x) = k = β khk ( x) (5)
6 88 gdzie: x n-wymiarowy wektor wejść, M liczba neuronów w warstwie ukrytej, T h(x) = [ h ( x),..., h M ( x)] T wektor wyjść tych neuronów, β ( x ) = [ β ( x),..., βm ( x)] wektor wag neuronu wyjściowego. Do konstrukcji modelu mogą być użyte różne funkcje aktywacji. Powszechnie stosowane są funkcje: sigmoidalne, Gaussowskie, skokowe, trójkątne, sinusoidalne. Najczęściej używana sigmoidalna funkcja aktywacji opisana jest wzorem: T hk ( x) = (6) T + exp( w ( x) x + b ) gdzie: wk ( x) = [ wk, ( x),..., wk, n( x)], k =,..., M jest wektorem wag k-tego neuronu warstwy ukrytej, zaś b k jego biasem. Parametry w k i b k, są generowane losowo, z dowolnego rozkładu ciągłego, niezależnie od danych wejściowych i pozostają stałe. Jeśli: i i k n i k {( x, t ), i =,..., N }, x R (7) tworzą zbiór danych uczących, to N n -wymiarowy wektor wyjść modelu F m jest porównywany z wektorem wzorców F, gdzie: Z uwagi na to, że: F m T [ FELM ( x ),..., FELM ( xn )], F = [ t, n =, t ] (8) F m h x h x ( ) M ( ) β = = Hβ, (9) h xn hm x N β ( ) ( ) n n M wagi β można wyznaczyć minimalizując wskaźnik dopasowania: Optymalną wartością jest: 2 n E = Hβ F (0) β = H F () opt gdzie H + jest odwrotnością Moore Penrose a macierzy H. Do celów testowych w niniejszym artykule została użyta standardowa postać ELM z sigmoidalnymi funkcjami aktywacji o parametrach w k i b k, pochodzącymi z rozkładu jednostajnego w przedziale [, ]. Efekty uczenia sieci o różnej liczbie neuronów zostały przedstawione na rys. 6 i 7. Jak z nich wynika, zarówno wskaźnik uwarunkowania rozwiązywanego układu równań liniowych, jak i wartości parametrów wyjścia są bardzo duże. Użycie większej + N T
7 89 ilości neuronów w warstwie ukrytej nie poprawi więc jakości modelu. Analizując rys. 7 można zauważyć, że błędy również przyjmują spore wartości. Jak widać z rys. 8 i 9 model nauczony techniką ELM nie radzi sobie dobrze z odtworzeniem nieciągłości prędkości. Rys. 6. Średnia wartość norm parametrów wyjścia oraz średnia wartość cond(h*h T ) Rys. 7. Średnie wartości błędów z 20 eksperymentów w funkcji liczby neuronów w warstwie ukrytej Rys. 8. Płaszczyzna otrzymana z modelu ELM zawierającego 50 neuronów dla punktów (p,v) ze zbioru Ttest Rys. 9. Błąd bezwzględny modelu ELM zawierającego 50 neuronów Jakkolwiek średnie wartości błędów pokazane na rys. 7 maleją w funkcji rosnącej liczby neuronów i osiągają minima [E train, E test, E Ttest ] = [0,0488 0,058 0,0534], to nie oznacza to zadowalającej dokładności modelu. Jak widać na rys. 9 błąd jest szczególnie duży w rejonie nieciągłości danych i na brzegach obszaru pokrytego danymi. W literaturze opisano typowe modyfikacje metody ELM, które powinny poprawić jakość modelowania, czyli dokładność modelu, jego zdolność do uogólniania a przede wszystkim jego stabilność numeryczną. Przetestowano je w kolejnych eksperymentach.
8 90 W pierwszej kolejności rozważono wpływ zmiany funkcji aktywacji na jakość modelu. Zmiana typu funkcji aktywacji z sigmoidalnych na dowolne różniczkowalne funkcje przynależności, przy pozostawionej tej samej procedurze losowania wartości wag w warstwie ukrytej, nie wpłynęła znacząco na poprawę obserwowanych parametrów, co zilustrowano na rys. 0. Podobne wartości jak w poprzednich symulacjach przyjęły również cond(h*h T ) i β. Rys. 0. Błąd otrzymany dla różnych funkcji aktywacji (sigmoidalna, sinusoidalna, radialna) Rys.. Błąd bezwzględny ELM dla C = Dobrze znanym remedium na problemy numeryczne spowodowane złym uwarunkowaniem macierzy H T H jest regularyzacja []. Zamiast minimalizować równanie (0) rozważmy wyrażenie: gdzie C jest pewnym parametrem projektowym. Rozwiązaniem optymalnym będzie teraz []: E c 2 2 = β + C Hβ F (2) T T β opt = I + H H H F (3) C T Zmniejszanie wartości C pozwala na ograniczenie wartości cond I + H H. C Niestety równocześnie obserwujemy pogorszenie dokładności modelowania i jeszcze gorsze odtwarzanie nieciągłości. Przy doborze wartości tego współczynnika trzeba się zatem kierować zdrowym rozsądkiem i wybrać rozwiązanie pośrednie. Dobór współczynnika C jest zależny od struktury problemu i z tego powodu trudno jest formułować ogólne wnioski. Na rys. przedstawiony został przebieg błędów w układzie policzonym dla C = Wartość β została znacznie ograniczona i pozostawała na poziomie akceptowalnym pomimo zwiększaniem liczby neuronów w warstwie
9 9 ukrytej. Jak wynika z rys., ta sama wartość parametru C nie zapewnia dobrej dokładności modelowania dla żadnej liczby neuronów, a zwiększenie liczby neuronów powyżej 20 powodowało wręcz wzrost wszystkich błędów. 4. MODYFIKACJE MODELU EML Jak wynika z przedstawionego przykładu, metoda ELM, mimo zalet intensywnie promowanych przez jej twórców zawodzi w przypadku modelowanej nieliniowości. Przyczyną jest niedostateczna zmienność funkcji bazowych przy narzuconym sposobie losowania parametrów. Sieć ELM nie pozwala na uczenie się cech z danych wejściowych, są one tylko rzutowane na przestrzeń cech skonstruowaną przez losowo wybrane funkcje aktywacji. Przestrzeń ta powinna być dostatecznie bogata by odwzorować wszystkie cechy danych, więc funkcje aktywacji powinny charakteryzować się dostateczną zmiennością wartości w swych dziedzinach. Można pokusić się o zwiększenie zmienności funkcji aktywacji poprzez modyfikację sposobu losowania parametrów, jak to proponowano w [7], lub też zapewnić lepszą ekstrakcję cech danych Rys. 2. Przebiegi uzyskane dla modelu ELM z trzema wejściami [położenie, prędkość, znak prędkości] i z 50 neuronami w warstwie ukrytej
10 92 wejściowych poprzez zwiększenie liczby wejść, lub dekompozycje danych na obszary, w których są one bardziej jednorodne. Uwzględniając specyfikę nieciągłości powierzchni siły oporu, dla rozważanego przypadku związaną z przejściem prędkości przez zero, można zaproponować modyfikację modelu poprzez dodanie do niego kolejnego, trzeciego wejścia sygnału znaku prędkości sign(v). Uzyskane wyniki dla tak skonstruowanego modelu prezentuje rys. 2. Otrzymane w wyniku symulacji wartości [E train, E test, E Ttest ] wynoszą odpowiednio [0,036 0,054 0,055] i jak pokazano na rys. 2, błąd modelowania jest równomierny w całej dziedzinie. Z analizy tego rysunku wynika że, ten prosty zabieg pozwolił na znaczne zmniejszenie błędu aproksymacji modelowanej powierzchni. Powierzchnia odtwarzana przez układ nauczony techniką ELM bez problemu radzi sobie z nieciągłością prędkości już przy 0 5 neuronach w warstwie ukrytej. Zaszumienie wartości próbek nie pozwala na zmniejszenie błędu dla niewielkiej liczby neuronów, z kolei zwiększanie ich liczby prowadzi do złego, z punktu widzenia numerycznego, uwarunkowania zadania. Rys. 3. Przebiegi uzyskane dla modelu z trzema wejściami [położenie, prędkość, znak prędkości] uczonego wg. danych z obserwatora
11 93 Kolejnym etapem testów było uruchomienie procedury modelowania dla danych uzyskanych z eksperymentu (rys. 2). Analogicznie jak poprzednio z całego zbioru punktów (N) opisujących siłę oporu ( p, v, f ) wybrano podzbiór, który podzielono na część przeznaczoną do nauki modelu (N n ) i drugą do testów (N t ). Wyniki symulacji przedstawione zostały na rys. 3. Jak wynika z rys. 3, układ uczony techniką ELM nadal dobrze sobie radzi w przypadku danych pochodzących z układu rzeczywistego. Nieco większe błędy wynikają z większego zaszumienia danych wejściowych. 5. WNIOSKI Metoda ELM potwierdziła swoje zalety krótki czas uczenia, liniową parametryzację modelu przez wagi neuronu wyjściowego, dobrą właściwość filtracji szumu, odporność na izolowane błędy danych wejściowych oraz dobre właściwości generalizacji. Metoda w klasycznej postaci nie radzi sobie z aproksymacją danych z nieciągłościami, o dużej zmienności czy różnorodności przebiegu w podzbiorach dziedziny. Metoda nie pozwala na dowolne zwiększanie liczby neuronów w warstwie ukrytej, co teoretycznie powinno poprawiać dokładność modelu, z powodu ograniczeń numerycznych: rosnącego wskaźnika uwarunkowania macierzy używanej przy obliczaniu pseudoodwrotności oraz rosnących wartości wag neuronu wyjściowego. Przyczyną tych kłopotów jest nieefektywna ekstrakcja cech z danych wejściowych przez funkcje aktywacji, które w klasycznych warunkach losowania parametrów mogą charakteryzować się zbyt małą zmiennością [7], [8]. Zaproponowaną metodą pokonania tych trudności jest poprawa ekstrakcji cech poprzez wprowadzenie dodatkowych wejść charakteryzujących obszary jednorodnych danych w prezentowanym przykładzie był to podział na obszar dodatniej i ujemnej prędkości (dodatkowym wejściem był znak prędkości). Przy takiej modyfikacji metoda ELM pozwala na osiąganie jakości modelu porównywalnej do uzyskanej techniką modelowania rozmytego z nieliniowymi następnikami [6], [9]. Przedstawione badania pokazują, że technika Extreme Learning Machine może być rozważana jako interesująca alternatywa modelowania rozmytego, choć nie jest tak uniwersalna jak ją przedstawiają w literaturze przedmiotu. LITERATURA [] GAO H., GUANG-BIN, HUANG, SHIJI SONG, KEYOU YOU, Trends in extreme learning machines: A review, Neural Networks, 205, Vol. 6, [2] GAO Z., Active disturbance rejection: A paradigm shift in feedback control system design, Proc. IEEE American Control Conference, 2006, [3] HAN ME K., SEONG IK H., JONG SHIK K., Precision position control of servo systems using adaptive backstepping and recurrent fuzzy neural networks, Journal of Mechanical Science and Technology, 2009, Vol. 23,
12 94 [4] JASTRZĘBSKI M., On-line parameter tuning of discontinuous fuzzy friction compensator in linear drive, XXIV Inter. Conf. Information, Communication and Automation, Piscataway, USA, 203, [5] KABZIŃSKI J., Experimental identification of disturbance forces effecting permanent magnet linear motors, Proc. Inter. Conf. Power Electronics and Intelligent Control for Energy Conservation, [6] KABZINSKI J., Fuzzy Friction Modeling for Adaptive Control of Mechatronic Systems. Artificial Intelligence Applications and Innovations, IFIP Advances in Information and Communication Technology, Springer, Berlin Heidelberg, 202, Vol. 38, [7] KABZINSKI J., Is Extreme Learning Machine Effective for Multisource Friction Modeling?, Artificial Intelligence Applications and Innovations. IFIP Advances in Information and Communication Technology, Springer, Bayonne, France, 205, Vol. 456, [8] KABZIŃSKI J., One-Dimensional Linear Local Prototypes for Effective Selection of Neuro-Fuzzy Sugeno Model Initial Structure, IFIP WG 2.5 Inter. Conf. Artificial Intelligence Applications and Innovations,, Springer, IFIP Series, Larnaca, Cyprus, Berlin 200, [9] KABZIŃSKI J., KACERKA J., TSK Fuzzy Modeling with Nonlinear Consequences, [in:] Artificial Intelligence Applications and Innovations IFIP Advances in Information and Communication Technology, Springer, Berlin Heidelberg, 204, [0] PARVIAINEN E., RIIHIMÄKI J., Connection between Extreme Learning Machine and Neural Network Kernel, [in:] Knowledge Discovery, Knowledge Engineering and Knowledge Management, Springer, Berlin Heidelberg, 203, [] SHAOBO LIN, XIA LIU; JIAN FANG; ZONGBEN XU, Is Extreme Learning Machine Feasible? A Theoretical Assessment (Part II), IEEE Trans. Neural Networks and Learning Systems, 205, Vol. 26, [2] XIA LIU, SHAOBO LIN, JIAN FANG, ZONGBEN XU, Is Extreme Learning Machine Feasible? A Theoretical Assessment (Part I), IEEE Trans. Neural Networks and Learning Systems, 205, Vol. 26, APPRAISAL OF EXTREME LEARNING MACHINE EFFECTIVE FOR 2D FRICTION MODELING The aim of this article is to discuss suitability of extreme learning machine (ELM) approach for modeling multisource 2D friction for motion control purposes. The article describes a method of obtaining data used to modulate the resistance forces, taking into account specific to the case and machine external conditions. The features of multisource friction in mechatronic systems are defined, the main aspects of friction modeling by a Standard ELM are investigated and some modifications are proposed to make it more suitable for specific demands of the discussed task. This allows to formulate some general remarks concerning properties of ELM for function approximation.
Adaptacja reguł rozmytego modelu siły oporu w sterowaniu położeniem silnika liniowego
Adaptacja reguł rozmytego modelu siły oporu w sterowaniu położeniem silnika liniowego Marcin Jastrzębski Streszczenie: W artykule zaproponowano sterowanie wykorzystujące adaptacyjny algorytm wstecznego
Metody Sztucznej Inteligencji II
17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału
Sztuczna Inteligencja Tematy projektów Sieci Neuronowe
PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia
Temat: ANFIS + TS w zadaniach. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE
Temat: ANFIS + TS w zadaniach Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1. Systemy neuronowo - rozmyte Systemy
IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ
IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,
Uczenie sieci typu MLP
Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik
Zastosowania sieci neuronowych
Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką
Algorytmy sztucznej inteligencji
Algorytmy sztucznej inteligencji Dynamiczne sieci neuronowe 1 Zapis macierzowy sieci neuronowych Poniżej omówione zostaną części składowe sieci neuronowych i metoda ich zapisu za pomocą macierzy. Obliczenia
Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym
Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW 17 XII 2013 Jan Karwowski
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa
Podstawy Sztucznej Inteligencji (PSZT)
Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12
Projekt Sieci neuronowe
Projekt Sieci neuronowe Chmielecka Katarzyna Gr. 9 IiE 1. Problem i dane Sieć neuronowa miała za zadanie nauczyć się klasyfikować wnioski kredytowe. W projekcie wykorzystano dane pochodzące z 110 wniosków
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 4. UCZENIE SIĘ INDUKCYJNE Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska WSTĘP Wiedza pozyskana przez ucznia ma charakter odwzorowania
ALGORYTM PROJEKTOWANIA ROZMYTYCH SYSTEMÓW EKSPERCKICH TYPU MAMDANI ZADEH OCENIAJĄCYCH EFEKTYWNOŚĆ WYKONANIA ZADANIA BOJOWEGO
Szybkobieżne Pojazdy Gąsienicowe (2) Nr 2, 24 Mirosław ADAMSKI Norbert GRZESIK ALGORYTM PROJEKTOWANIA CH SYSTEMÓW EKSPERCKICH TYPU MAMDANI ZADEH OCENIAJĄCYCH EFEKTYWNOŚĆ WYKONANIA ZADANIA BOJOWEGO. WSTĘP
Problemy optymalizacji układów napędowych w automatyce i robotyce
Akademia Górniczo-Hutnicza im. Stanisława Staszica Wydział Elektrotechniki, Automatyki, Informatyki i Elektroniki Katedra Automatyki Autoreferat rozprawy doktorskiej Problemy optymalizacji układów napędowych
S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor
S O M SELF-ORGANIZING MAPS Przemysław Szczepańczyk Łukasz Myszor Podstawy teoretyczne Map Samoorganizujących się stworzył prof. Teuvo Kohonen (1982 r.). SOM wywodzi się ze sztucznych sieci neuronowych.
Elementy inteligencji obliczeniowej
Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego
Podstawy sztucznej inteligencji
wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,
1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda
Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy
Oprogramowanie Systemów Obrazowania SIECI NEURONOWE
SIECI NEURONOWE Przedmiotem laboratorium jest stworzenie algorytmu rozpoznawania zwierząt z zastosowaniem sieci neuronowych w oparciu o 5 kryteriów: ile zwierzę ma nóg, czy żyje w wodzie, czy umie latać,
Optymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
Temat: Projektowanie sterownika rozmytego. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE
Temat: Projektowanie sterownika rozmytego Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie System
Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład I dr inż. 2015/2016
Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład I dr inż. Bogumil.Konopka@pwr.edu.pl 2015/2016 1 Wykład I - plan Sprawy organizacyjne Uczenie maszynowe podstawowe pojęcia Proces modelowania
Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE
Temat: Sztuczne Sieci Neuronowe Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sztuczne sieci neuronowe
Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej. Adam Żychowski
Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej Adam Żychowski Definicja problemu Każdy z obiektów może należeć do więcej niż jednej kategorii. Alternatywna definicja Zastosowania
Testowanie modeli predykcyjnych
Testowanie modeli predykcyjnych Wstęp Podczas budowy modelu, którego celem jest przewidywanie pewnych wartości na podstawie zbioru danych uczących poważnym problemem jest ocena jakości uczenia i zdolności
Systemy uczące się wykład 2
Systemy uczące się wykład 2 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 19 X 2018 Podstawowe definicje Fakt; Przesłanka; Konkluzja; Reguła; Wnioskowanie. Typy wnioskowania
Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań
Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW
Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3
Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt
Temat: Projektowanie sterownika rozmytego. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE
Temat: Projektowanie sterownika rozmytego Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sterowanie
Inteligentne systemy przeciw atakom sieciowym
Inteligentne systemy przeciw atakom sieciowym wykład Sztuczne sieci neuronowe (SSN) Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 1 / 36 Biologiczne
Zastosowania sieci neuronowych
Zastosowania sieci neuronowych klasyfikacja LABORKA Piotr Ciskowski zadanie 1. klasyfikacja zwierząt sieć jednowarstwowa żródło: Tadeusiewicz. Odkrywanie własności sieci neuronowych, str. 159 Przykład
Modelowanie jako sposób opisu rzeczywistości. Katedra Mikroelektroniki i Technik Informatycznych Politechnika Łódzka
Modelowanie jako sposób opisu rzeczywistości Katedra Mikroelektroniki i Technik Informatycznych Politechnika Łódzka 2015 Wprowadzenie: Modelowanie i symulacja PROBLEM: Podstawowy problem z opisem otaczającej
Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie
Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie LABORKA Piotr Ciskowski ZASTOSOWANIA SIECI NEURONOWYCH IDENTYFIKACJA zastosowania przegląd zastosowania sieci neuronowych: o identyfikacja
PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**
Górnictwo i Geoinżynieria Rok 31 Zeszyt 3 2007 Dorota Pawluś* PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH** 1. Wstęp Eksploatacja górnicza złóż ma niekorzystny wpływ na powierzchnię
Systemy uczące się Lab 4
Systemy uczące się Lab 4 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 26 X 2018 Projekt zaliczeniowy Podstawą zaliczenia ćwiczeń jest indywidualne wykonanie projektu uwzględniającego
Programowanie celowe #1
Programowanie celowe #1 Problem programowania celowego (PC) jest przykładem problemu programowania matematycznego nieliniowego, który można skutecznie zlinearyzować, tzn. zapisać (i rozwiązać) jako problem
Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.
Wstęp do teorii sztucznej inteligencji Wykład III Modele sieci neuronowych. 1 Perceptron model najprostzszy przypomnienie Schemat neuronu opracowany przez McCullocha i Pittsa w 1943 roku. Przykład funkcji
Aproksymacja funkcji a regresja symboliczna
Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(x), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(x), zwaną funkcją aproksymującą
Szybkie prototypowanie w projektowaniu mechatronicznym
Szybkie prototypowanie w projektowaniu mechatronicznym Systemy wbudowane (Embedded Systems) Systemy wbudowane (ang. Embedded Systems) są to dedykowane architektury komputerowe, które są integralną częścią
SIECI RBF (RADIAL BASIS FUNCTIONS)
SIECI RBF (RADIAL BASIS FUNCTIONS) Wybrane slajdy z prezentacji prof. Tadeusiewicza Wykład Andrzeja Burdy S. Osowski, Sieci Neuronowe w ujęciu algorytmicznym, Rozdz. 5, PWNT, Warszawa 1996. opr. P.Lula,
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA SYSTEMY ROZMYTE Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i Inżynierii Biomedycznej Laboratorium
HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM
ZASTOSOWANIE SIECI NEURONOWYCH W SYSTEMACH AKTYWNEJ REDUKCJI HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM WPROWADZENIE Zwalczanie hałasu przy pomocy metod aktywnych redukcji hałasu polega
Ćw. 18: Pomiary wielkości nieelektrycznych II
Wydział: EAIiE Kierunek: Imię i nazwisko (e mail): Rok:. (../..) Grupa: Zespół: Data wykonania: Zaliczenie: Podpis prowadzącego: Uwagi: LABORATORIUM METROLOGII Ćw. 18: Pomiary wielkości nieelektrycznych
Identyfikacja obiektów dynamicznych za pomocą sieci neuronowych
Metody Sztucznej Inteligencji w Sterowaniu Ćwiczenie 3 Identyfikacja obiektów dynamicznych za pomocą sieci neuronowych Przygotował: mgr inż. Marcin Pelic Instytut Technologii Mechanicznej Politechnika
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt
WPŁYW ZAKŁÓCEŃ PROCESU WZBOGACANIA WĘGLA W OSADZARCE NA ZMIANY GĘSTOŚCI ROZDZIAŁU BADANIA LABORATORYJNE
Górnictwo i Geoinżynieria Rok 33 Zeszyt 4 2009 Stanisław Cierpisz*, Daniel Kowol* WPŁYW ZAKŁÓCEŃ PROCESU WZBOGACANIA WĘGLA W OSADZARCE NA ZMIANY GĘSTOŚCI ROZDZIAŁU BADANIA LABORATORYJNE 1. Wstęp Zasadniczym
Automatyka i Regulacja Automatyczna Laboratorium Zagadnienia Seria II
Automatyka i Regulacja Automatyczna Laboratorium Zagadnienia Seria II Zagadnienia na ocenę 3.0 1. Podaj transmitancję oraz naszkicuj teoretyczną odpowiedź skokową układu całkującego z inercją 1-go rzędu.
Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335
Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Wykład 10 Mapa cech Kohonena i jej modyfikacje - uczenie sieci samoorganizujących się - kwantowanie wektorowe
ANALIZA SYSTEMU POMIAROWEGO (MSA)
StatSoft Polska, tel. 1 484300, 601 414151, info@statsoft.pl, www.statsoft.pl ANALIZA SYSTEMU POMIAROWEGO (MSA) dr inż. Tomasz Greber, Politechnika Wrocławska, Instytut Organizacji i Zarządzania Wprowadzenie
DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI
POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 80 Electrical Engineering 2014 Stanisław PŁACZEK* DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI W artykule
PRZEWODNIK PO PRZEDMIOCIE
Nazwa przedmiotu: MODELOWANIE I SYMULACJA UKŁADÓW STEROWANIA Kierunek: Mechatronika Rodzaj przedmiotu: Rodzaj zajęć: wykład, laboratorium I KARTA PRZEDMIOTU CEL PRZEDMIOTU PRZEWODNIK PO PRZEDMIOCIE C1.
Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.
Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2
Sterowanie układem zawieszenia magnetycznego
Politechnika Śląska w Gliwicach Wydział: Automatyki, Elektroniki i Informatyki Kierunek: Automatyka i Robotyka Specjalność: Komputerowe systemy sterowania Sterowanie układem zawieszenia magnetycznego Maciej
Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści
Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, 2013 Spis treści Przedmowa 7 1. Wstęp 9 1.1. Podstawy biologiczne działania neuronu 9 1.2. Pierwsze modele sieci neuronowej
Mikroekonometria 6. Mikołaj Czajkowski Wiktor Budziński
Mikroekonometria 6 Mikołaj Czajkowski Wiktor Budziński Metody symulacyjne Monte Carlo Metoda Monte-Carlo Wykorzystanie mocy obliczeniowej komputerów, aby poznać charakterystyki zmiennych losowych poprzez
Sterowanie wielkością zamówienia w Excelu - cz. 3
Sterowanie wielkością zamówienia w Excelu - cz. 3 21.06.2005 r. 4. Planowanie eksperymentów symulacyjnych Podczas tego etapu ważne jest określenie typu rozkładu badanej charakterystyki. Dzięki tej informacji
Rola stacji gazowych w ograniczaniu strat gazu w sieciach dystrybucyjnych
Rola stacji gazowych w ograniczaniu strat gazu w sieciach dystrybucyjnych Politechnika Warszawska Zakład Systemów Ciepłowniczych i Gazowniczych Prof. dr hab. inż. Andrzej J. Osiadacz Dr hab. inż. Maciej
Ćwiczenie 1b. Silnik prądu stałego jako element wykonawczy Modelowanie i symulacja napędu CZUJNIKI POMIAROWE I ELEMENTY WYKONAWCZE
Politechnika Łódzka Katedra Mikroelektroniki i Technik Informatycznych 90-924 Łódź, ul. Wólczańska 221/223, bud. B18 tel. 42 631 26 28 faks 42 636 03 27 e-mail secretary@dmcs.p.lodz.pl http://www.dmcs.p.lodz.pl
10. Redukcja wymiaru - metoda PCA
Algorytmy rozpoznawania obrazów 10. Redukcja wymiaru - metoda PCA dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. PCA Analiza składowych głównych: w skrócie nazywana PCA (od ang. Principle Component
Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311
Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311 PLAN: Wykład 5 - Metody doboru współczynnika uczenia - Problem inicjalizacji wag - Problem doboru architektury
Wpływ nieliniowości elementów układu pomiarowego na błąd pomiaru impedancji
Wpływ nieliniowości elementów układu pomiarowego na błąd pomiaru impedancji Wiesław Miczulski* W artykule przedstawiono wyniki badań ilustrujące wpływ nieliniowości elementów układu porównania napięć na
Uczenie sieci radialnych (RBF)
Uczenie sieci radialnych (RBF) Budowa sieci radialnej Lokalne odwzorowanie przestrzeni wokół neuronu MLP RBF Budowa sieci radialnych Zawsze jedna warstwa ukryta Budowa neuronu Neuron radialny powinien
Mechatronika i inteligentne systemy produkcyjne. Modelowanie systemów mechatronicznych Platformy przetwarzania danych
Mechatronika i inteligentne systemy produkcyjne Modelowanie systemów mechatronicznych Platformy przetwarzania danych 1 Sterowanie procesem oparte na jego modelu u 1 (t) System rzeczywisty x(t) y(t) Tworzenie
Politechnika Warszawska Wydział Samochodów i Maszyn Roboczych Instytut Podstaw Budowy Maszyn Zakład Mechaniki
Politechnika Warszawska Wydział Samochodów i Maszyn Roboczych Instytut Podstaw Budowy Maszyn Zakład Mechaniki http://www.ipbm.simr.pw.edu.pl/ Teoria maszyn i podstawy automatyki semestr zimowy 206/207
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych
Elektrotechnika I stopień ogólnoakademicki. niestacjonarne. przedmiot kierunkowy. obieralny polski semestr VII semestr zimowy. nie
KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu Nazwa modułu Nazwa modułu w języku angielskim Teoria sterowania wybrane zagadnienia Control theory selection problems Obowiązuje od roku akademickiego 2012/2013
PARAMETRYZACJA NEURONOWO-ROZMYTYCH REGULATORÓW TYPU TSK PRACUJĄCYCH W ADAPTACYJNEJ STRUKTURZE STEROWANIA PRĘDKOŚCIĄ UKŁADU NAPĘDOWEGO
Prace Naukowe Instytutu Maszyn, Napędów i Pomiarów Elektrycznych Nr 66 Politechniki Wrocławskiej Nr 66 Studia i Materiały Nr 32 2012 Sebastian KNYCHAS* sterowanie adaptacyjne, regulatory neuronowo-rozmyte,
przetworzonego sygnału
Synteza falek ortogonalnych na podstawie oceny przetworzonego sygnału Instytut Informatyki Politechnika Łódzka 28 lutego 2012 Plan prezentacji 1 Sformułowanie problemu 2 3 4 Historia przekształcenia falkowego
REJESTRACJA WARTOŚCI CHWILOWYCH NAPIĘĆ I PRĄDÓW W UKŁADACH ZASILANIA WYBRANYCH MIESZAREK ODLEWNICZYCH
WYDZIAŁ ODLEWNICTWA AGH ODDZIAŁ KRAKOWSKI STOP XXXIII KONFERENCJA NAUKOWA z okazji Ogólnopolskiego Dnia Odlewnika 2009 Kraków, 11 grudnia 2009 r. Eugeniusz ZIÓŁKOWSKI, Roman WRONA, Krzysztof SMYKSY, Marcin
Analiza możliwości szacowania parametrów mieszanin rozkładów prawdopodobieństwa za pomocą sztucznych sieci neuronowych 4
Wojciech Sikora 1 AGH w Krakowie Grzegorz Wiązania 2 AGH w Krakowie Maksymilian Smolnik 3 AGH w Krakowie Analiza możliwości szacowania parametrów mieszanin rozkładów prawdopodobieństwa za pomocą sztucznych
ELEMENTY ANALIZY NUMERYCZNEJ ELEMENTY ANALIZY NUMERYCZNEJ. Egzamin pisemny zestaw 1 26 czerwca 2017 roku
Egzamin pisemny zestaw czerwca 0 roku Imię i nazwisko:.... ( pkt.) Udowodnić, że jeśli funkcja g interpoluje funkcję f w węzłach x 0, x, K, x n, a funk- cja h interpoluje funkcję f w węzłach x, x, K, x
MATLAB Neural Network Toolbox przegląd
MATLAB Neural Network Toolbox przegląd WYKŁAD Piotr Ciskowski Neural Network Toolbox: Neural Network Toolbox - zastosowania: przykłady zastosowań sieci neuronowych: The 1988 DARPA Neural Network Study
w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych.
Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(), zwaną funkcją aproksymującą
Tematy prac dyplomowych w Katedrze Awioniki i Sterowania. Studia: II stopnia (magisterskie)
Tematy prac dyplomowych w Katedrze Awioniki i Sterowania Studia II stopnia (magisterskie) Temat: Układ sterowania płaszczyzną sterową o podwyższonej niezawodności 1. Analiza literatury. 2. Uruchomienie
MATEMATYCZNY MODEL PĘTLI HISTEREZY MAGNETYCZNEJ
ELEKTRYKA 014 Zeszyt 1 (9) Rok LX Krzysztof SZTYMELSKI, Marian PASKO Politechnika Śląska w Gliwicach MATEMATYCZNY MODEL PĘTLI ISTEREZY MAGNETYCZNEJ Streszczenie. W artykule został zaprezentowany matematyczny
SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU)
SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU) 1. Opis problemu - ocena końcowa projektu Projekt jako nowe, nietypowe przedsięwzięcie wymaga właściwego zarządzania. Podjęcie się realizacji
ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH
Transport, studia I stopnia Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać ogólna równania nieliniowego Często występującym, ważnym problemem obliczeniowym
5. Analiza dyskryminacyjna: FLD, LDA, QDA
Algorytmy rozpoznawania obrazów 5. Analiza dyskryminacyjna: FLD, LDA, QDA dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Liniowe funkcje dyskryminacyjne Liniowe funkcje dyskryminacyjne mają ogólną
Sieci neuronowe i ich ciekawe zastosowania. Autor: Wojciech Jamrozy III rok SMP / Informatyka
Sieci neuronowe i ich ciekawe zastosowania Autor: Wojciech Jamrozy III rok SMP / Informatyka Klasyczna algorytmika Sortowanie ciągu liczb Czy i ile razy dane słowo wystąpiło w tekście Najkrótsza droga
Pattern Classification
Pattern Classification All materials in these slides were taken from Pattern Classification (2nd ed) by R. O. Duda, P. E. Hart and D. G. Stork, John Wiley & Sons, 2000 with the permission of the authors
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska
Temat: Model TS + ANFIS. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE
Temat: Model TS + ANFIS Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Pierwszym rodzajem modelowania
ZASTOSOWANIE SZTUCZNYCH SIECI NEURONOWYCH DO LOKALIZACJI ZWARĆ W LINIACH ELEKTROENERGETYCZNYCH
Prace Naukowe Instytutu Maszyn, Napędów i Pomiarów Elektrycznych Nr 65 Politechniki Wrocławskiej Nr 65 Studia i Materiały Nr 31 2011 Mirosław ŁUKOWICZ* Mateusz PUSTUŁKA* sieci neuronowe, systemy elektroenergetyczne,
Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.
Wstęp do teorii sztucznej inteligencji Wykład II Uczenie sztucznych neuronów. 1 - powtórzyć o klasyfikacji: Sieci liniowe I nieliniowe Sieci rekurencyjne Uczenie z nauczycielem lub bez Jednowarstwowe I
Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar... 1. Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16
Spis treści Przedmowa.......................... XI Rozdział 1. Pomiar: jednostki miar................. 1 1.1. Wielkości fizyczne i pozafizyczne.................. 1 1.2. Spójne układy miar. Układ SI i jego
AUTO-STROJENIE REGULATORA TYPU PID Z WYKORZYSTANIEM LOGIKI ROZMYTEJ
POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 75 Electrical Engineering 2013 Łukasz NIEWIARA* Krzysztof ZAWIRSKI* AUTO-STROJENIE REGULATORA TYPU PID Z WYKORZYSTANIEM LOGIKI ROZMYTEJ Zagadnienia
FIZYKA klasa 1 Liceum Ogólnokształcącego (4 letniego)
2019-09-01 FIZYKA klasa 1 Liceum Ogólnokształcącego (4 letniego) Treści z podstawy programowej przedmiotu POZIOM ROZSZERZONY (PR) SZKOŁY BENEDYKTA Podstawa programowa FIZYKA KLASA 1 LO (4-letnie po szkole
Ćw. 18: Pomiary wielkości nieelektrycznych II
Wydział: EAIiE Kierunek: Imię i nazwisko (e mail): Rok:. (2010/2011) Grupa: Zespół: Data wykonania: Zaliczenie: Podpis prowadzącego: Uwagi: LABORATORIUM METROLOGII Ćw. 18: Pomiary wielkości nieelektrycznych
Sieci neuronowe w Statistica
http://usnet.us.edu.pl/uslugi-sieciowe/oprogramowanie-w-usk-usnet/oprogramowaniestatystyczne/ Sieci neuronowe w Statistica Agnieszka Nowak - Brzezińska Podstawowym elementem składowym sztucznej sieci neuronowej
Politechnika Warszawska Wydział Samochodów i Maszyn Roboczych Instytut Podstaw Budowy Maszyn Zakład Mechaniki
Politechnika Warszawska Wydział Samochodów i Maszyn Roboczych Instytut Podstaw Budowy Maszyn Zakład Mechaniki http://www.ipbm.simr.pw.edu.pl/ Teoria maszyn i podstawy automatyki semestr zimowy 2017/2018
Klasyfikator liniowy Wstęp Klasyfikator liniowy jest najprostszym możliwym klasyfikatorem. Zakłada on liniową separację liniowy podział dwóch klas między sobą. Przedstawia to poniższy rysunek: 5 4 3 2
Temat: Model SUGENO. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE
Temat: Model SUGENO Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Pierwszym rodzajem modelowania
Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner
Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner Wydział Matematyki i Nauk Informacyjnych Politechnika Warszawska Elementy nieprzystające Definicja odrzucania Klasyfikacja
8. Neuron z ciągłą funkcją aktywacji.
8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i
WYZNACZANIE NIEPEWNOŚCI POMIARU METODAMI SYMULACYJNYMI
WYZNACZANIE NIEPEWNOŚCI POMIARU METODAMI SYMULACYJNYMI Stefan WÓJTOWICZ, Katarzyna BIERNAT ZAKŁAD METROLOGII I BADAŃ NIENISZCZĄCYCH INSTYTUT ELEKTROTECHNIKI ul. Pożaryskiego 8, 04-703 Warszawa tel. (0)
Widzenie komputerowe
Widzenie komputerowe Uczenie maszynowe na przykładzie sieci neuronowych (3) źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Zdolność uogólniania sieci neuronowej R oznaczenie
Mikroekonometria 5. Mikołaj Czajkowski Wiktor Budziński
Mikroekonometria 5 Mikołaj Czajkowski Wiktor Budziński Zadanie 1. Wykorzystując dane me.medexp3.dta przygotuj model regresji kwantylowej 1. Przygotuj model regresji kwantylowej w którym logarytm wydatków
Analiza współzależności zjawisk
Analiza współzależności zjawisk Informacje ogólne Jednostki tworzące zbiorowość statystyczną charakteryzowane są zazwyczaj za pomocą wielu cech zmiennych, które nierzadko pozostają ze sobą w pewnym związku.
WPŁYW OPÓŹNIENIA NA DYNAMIKĘ UKŁADÓW Z REGULACJĄ KLASYCZNĄ I ROZMYTĄ
Prace Naukowe Instytutu Maszyn, Napędów i Pomiarów Elektrycznych Nr 65 Politechniki Wrocławskiej Nr 65 Studia i Materiały Nr 31 2011 Kinga GÓRNIAK* układy z opóźnieniem, regulacja rozmyta, model Mamdaniego,