Metody Informatyki Stosowanej

Wielkość: px
Rozpocząć pokaz od strony:

Download "Metody Informatyki Stosowanej"

Transkrypt

1 Polska Akademia Nauk Oddział w Gdańsku Komisja Informatyki Metody Informatyki Stosowanej Nr 3/2009 (20) Szczecin 2009

2 Metody Informatyki Stosowanej Kwartalnik Komisji Informatyki Polskiej Akademii Nauk Oddział w Gdańsku Komitet Naukowy: Przewodniczący: prof. dr hab. inż. Henryk Krawczyk, czł. koresp. PAN, Politechnika Gdańska Członkowie: prof. dr hab. inż. Michał Białko, czł. rzecz. PAN, Politechnika Koszalińska prof. dr hab. inż. Ludosław Drelichowski, Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy prof. dr hab. inż. Janusz Kacprzyk, czł. koresp. PAN, Instytut Badań Systemowych PAN prof. dr hab. Jan Madey, Uniwersytet Warszawski prof. dr hab. inż. Leszek Rutkowski, czł. koresp. PAN, Politechnika Częstochowska prof. dr hab. inż. Piotr Sienkiewicz, Akademia Obrony Narodowej prof. dr inż. Jerzy Sołdek, Zachodniopomorska Szkoła Biznesu w Szczecinie prof. dr hab. inż. Andrzej Straszak, Instytut Badań Systemowych PAN prof. dr hab. Maciej M. Sysło, Uniwersytet Wrocławski Recenzenci współpracujący z redakcją: Marian Adamski, Zbigniew Banaszak, Alexander Barkalov, Włodzimierz Bielecki, Janusz Bobulski, Piotr Bubacz, Ryszard Budziński, Henryk Budzisz, Dariusz Burak, Jacek Czarnecki, Andrzej Czyżewski, Ludosław Drelichowski, Piotr Dziurzański, Witold Dzwinel, Imed El Frey, Mykhaylo Fedorov, Paweł Forczmański, Dariusz Frejlichowski, Krzysztof Giaro, Larysa Globa, Zbigniew Gmyrek, Janusz Górski, Stanisław Grzegórski, Volodymyr Harbarchuk, Volodymyr Hrytsyk, Wojciech Jędruch, Aleksander Katkow, Przemysław Klęsk, Shinya Kobayashi, Leonid Kompanets, Józef Korbicz, Jerzy Korostil, Marcin Korzeń, Georgy Kukharev, Mieczysław Kula, Eugeniusz Kuriata, Emma Kusztina, Małgorzata Łatuszyńska, Wiesław Madej, Wojciech Maleika, Oleg Mashkov, Oleg Maslennikow, Karol Myszkowski, Evgeny Ochin, Krzysztof Okarma, Piotr Pechmann, Jerzy Pejaś, Andrzej Pieczyński, Andrzej Piegat, Mateusz Piwowarski, Marcin Pluciński, Jacek Pomykała, Orest Popov, Remigiusz Rak, Valeriy Rogoza, Leszek Rutkowski, Khalid Saeed, Jerzy Sołdek, Boris Sovetov, Marek Stabrowski, Andrzej Stateczny, Janusz Stokłosa, Alexander Ţariov, Leszek Trybus, Andrzej Tujaka, Zenon Ulman, Andrzej Walczak, Jarosław Wątróbski, Sławomir Wiak, Antoni Wiliński, Waldemar Wolski, Waldemar Wójcik, Oleg Zaikin, Zenon Zwierzewicz Redaktor Naczelny: Antoni Wiliński Sekretarz redakcji: Piotr Czapiewski ISSN Wydawnictwo: Polska Akademia Nauk Oddział w Gdańsku, Komisja Informatyki Adres kontaktowy: ul. Żołnierska 49 p. 104, Szczecin, Druk: Pracownia Poligraficzna Wydziału Informatyki Zachodniopomorskiego Uniwersytetu Technologicznego w Szczecinie Nakład 510 egz.

3 Spis treści Jacek Bartman REGUŁA PID UCZENIA SZTUCZNYCH NEURONÓW... 5 Piotr Byszewski, Anna Tomaszewska REALISTYCZNA ORAZ SZYBKA WIZUALIZACJA ALGORYTMU ZACHOWANIA SIĘ TŁUMU W OBLICZU PANIKI Luiza Fabisiak EKSPLORACJA DANYCH W SERWISACH INTERNETOWYCH Mykhailo Fedorov ON PARALLEL IMPLEMENTATION OF A STEADY STATE THERMAL AND HYDRAULIC ANALYSIS OF PIPE NETWORKS IN OPENMP Włodzimierz Filipowicz STRUKTURY PRZEKONAŃ I ICH ZASTOSOWANIE W NAWIGACJI Dariusz Frejlichowski REPREZENTACJA KSZTAŁTU 3D OPARTA NA DESKRYPTORZE EGI NA POTRZEBY INDEKSOWANIA Sławomir Jaszczak, Mariusz Dramski, Mariusz Matejski SYMULACJA I TESTOWANIE UKŁADU STEROWANIA RUCHEM POJAZDU PODWODNEGO METODĄ HIL Georgy Kukharev, Ekaterina Kamenskaya TWO-DIMENSIONAL CANONICAL CORRELATION ANALYSIS FOR FACE IMAGE PROCESSING AND RECOGNITION Krzysztof Małecki, Jarosław Wątróbski THE EFFECTIVENESS OF LANE SELECTION IN ROUNDABOUT Wojciech Maleika SEMANTIC DATA DESCRIPTION IN CONTENT MANAGEMENT SYSTEMS Marcin W. Mastalerz, Zygmund Drążek PROCEDURA WYBORU WARIANTU E-LEARNINGU W SZKOLE WYŻSZEJ W OPARCIU O HIERARCHICZNĄ ANALIZĘ PROBLEMU Leszek Misztal WYKORZYSTANIE NAIWNEGO ALGORYTMU BAYES A W ZADANIU KLASYFIKACJI PODATNIKÓW Antoni Nowakowski, Tomasz Klasa EVALUATION OF INFORMATION SYSTEMS RISK TREATMENT EFFICIENCY PROPOSAL Łukasz Nozdrzykowski ANALIZA ISTOTNOŚCI MIAR OBRAZU WPŁYWAJĄCYCH NA ZMNIEJSZENIE ZNIEKSZTAŁCEŃ SPOWODOWANYCH STEGANOGRAFICZNYM UKRYWANIEM WIADOMOŚCI W OBRAZACH W OPARCIU O FUNKCJĘ CSF Andrzej Piegat, Marcin Olchowy CZY ISTNIEJE OPTYMALNA FORMA EKSPERCKIEGO MODELU ROZMYTEGO? Marcin Pluciński MODULAR FUZZY SYSTEMS THE COMPARISON OF TWO DIFFERENT APPROACHES

4 Edward Półrolniczak SEGMENTACJA ELEMENTÓW ZNAKÓW TABLIC REJESTRACYJNYCH Z WYKORZYSTANIEM STATYSTYCZNEGO ŁĄCZENIA REGIONÓW Artur Sosnówka RÓWNOLEGŁE PRZETWARZANIE NIEREGULARNYCH ZAGNIEŻDŻONYCH PĘTLI PROGRAMOWYCH Grzegorz Ulacha ZASTOSOWANIE GRADIENTOWO ZALEŻNEJ PREDYKCJI LINIOWEJ DO BEZSTRATNEJ KOMPRESJI OBRAZÓW Abdullah Zair WYBRANE ASPEKTY ZASTOSOWAŃ METOD OPTYMALIZACJI W SYSTEMACH WSPOMAGANIA DECYZJI NA PRZYKŁADZIE ODDZIAŁU CHIRURGII

5 Reguła PID uczenia sztucznych neuronów Jacek Bartman Uniwersytet Rzeszowski, Wydział Matematyczno-Przyrodniczy, Instytut Techniki Abstract: The training of artificial neural networks and strictly related with them artificial neurons are still interesting research areas. A new artificial neurons learning rule PID algorithm has been proposed in this paper. The rule presentation is preceded by brief analysis of the learning algorithms. Their mathematical formulas and short characteristics are presented. The paper compares neurons learning effectiveness of PID algorithm and widely used Delta algorithm. The first results have shown that the demonstrated rule can have better performance and can be less sensitive for choice of learning algorithms. It makes this method very promising for further research. Keywords: artificial neural net, learning rule, PID rule 1. Wprowadzenie Przebieg procesu uczenia sztucznej sieci neuronowej ma charakter stochastyczny, a więc w pewnym zakresie nieprzewidywalny, ta słabość jest jednocześnie największą siłą SSN siłą z której wynika bardzo ważna cecha: sieć może rozwiązywać zadania, których my sami nie potrafimy rozwiązać lub których nie potrafimy zapisać przy pomocy klasycznego aparatu matematycznego. Cała wiedza jaką posiada sieć neuronowa zgromadzona jest w wagach poszczególnych neuronów, a sam proces uczenia polega na modyfikacji wartości tych wag wg określonego algorytmu [2]. Czy jest różnica pomiędzy uczeniem sieci a uczeniem pojedynczego neuronu, czy jest możliwe rozdzielenie tych procesów i potraktowanie osobno? Wydaje się, że tak, warto jednak byłoby wprowadzić jednoznaczną nomenklaturę nazywając uczenie pojedynczych neuronów regułami uczenia, a uczenie całej sieci metodami uczenia. Oczywiście elementem uczenia sieci jest uczenie neuronów, a więc metoda uczenia wykorzystuje regułę bądź reguły uczenia. Reguły uczenia to po prostu opis w jaki sposób modyfikować wagi neuronu, a metody uczenia to opis jak korzystać z reguł uczenia neuronów, jak wyznaczyć wymagane przez nie parametry. Ze względu na rodzaj algorytmu (wzorów), według których w procesie uczenia dokonuje się modyfikacji wag synaptycznych, wyróżnia się szereg reguł uczenia. Niektóre z tych reguł odnoszą się do trybu uczenia z nauczycielem, a niektóre do uczenia bez nauczyciela [9] (rys. 1). Wartość wyjścia neuronu, można zapisać zależnością: y f ( u ) f n i0 w i x i f w T x (1) Metody Informatyki Stosowanej, nr 3/2009 (20), s ISSN Polska Akademia Nauk Oddział w Gdańsku, Komisja Informatyki

6 6 Jacek Bartman T gdzie: 1, x1,x2...xn x0,x1,x2... xn T T,w,w...w w,w,w... w T x wektor sygnałów wejściowych; w b 1 2 n n wektor wag synaptycznych; u potencjał membranowy neuronu. Analiza formuły (1) prowadzi do wniosku, że sztuczny neuron jest elementem realizującym funkcję dwóch zmiennych wektorowych przekształcającym sygnał z przestrzeni n- wymiarowej w przestrzeń jednowymiarową [1]. Przekształcenie wartości z przestrzeni n- wymiarowej w przestrzeń jednowymiarowa odbywa się w bloku sumującym, blok aktywacji nie zmienia wymiarowości a jedynie wartość sygnału. Funkcja przejścia f determinuje zachowanie neuronu, najczęściej stosuje się funkcje typu tangens hiperboliczny lub sinus hiperboliczny gdyż właśnie one najlepiej oddają działanie neuronów biologicznych. Rzadziej wykorzystywane są funkcje: liniowa, bipolarna czy unipolarna, a zastosowanie jeszcze innych funkcji przejścia jest zupełnie marginalne. 2. Uczenie pojedynczego sztucznego neuronu. Reguły uczenia Uczenie neuronu ma na celu dobór takich wartości wag, dla których odpowiedzi elementu są optymalne wedle pewnego przyjętego kryterium - określonego przez odpowiednio zdefiniowaną funkcję celu, której wartość ustala punkt stopu. Uczenie może odbywać się w trybie nadzorowanym (z nauczycielem) lub nienadzorowanym (bez nauczyciela). Uczenie nadzorowane może być stosowane tylko wtedy gdy znana jest oczekiwana odpowiedź neuronu (z), jeżeli oczekiwana odpowiedź nie jest znana wówczas można stosować tylko uczenie nienadzorowane (rys.1.). a) Sygnał wejściowy x Uczony neuron W Oczekiwana odpowiedź z Sygnał wyjściowy y ustalenie błędu =z-y Sygnał wejściowy x Uczony neuron W Sygnał wyjściowy y Rysunek 1. Schemat uczenia nadzorowanego (a) i nienadzorowanego (b) neuronu [9] Wielkość korekty wag zarówno dla uczenia nadzorowanego jak i uczenia nienadzorowanego można opisać zależnością: w( k 1 ) w( k ) w( k ) (2) gdzie wielkość w jest poszukiwaną wartością zmian wag, zaś parametr k wprowadzono w celu podkreśla, iż uczenie neuronu ma charakter iteracyjny. Ogólna zasada uczenia mówi, że korekta wag neuronu winna być proporcjonalna do iloczynu sygnału wejściowego x oraz sygnału uczącego r. Dla dowolnego neuronu regułę uczenia można zapisać wzorem: b) w( k ) r( k ) x( k ) (3)

7 Reguła PID uczenia sztucznych neuronów 7 gdzie: gdzie: współczynnik proporcjonalności (współczynnik uczenia), r sygnał uczący, zdefiniowany jako funkcja trzech zmiennych w - wektor wag neuronu; x - wektor wejściowy; z - sygnał nauczyciela (oczekiwana odpowiedź neuronu). r r w, x,z (4) Warto zauważyć, iż sygnał uczący r może być funkcją wektora wag neuronu, wektora wejściowego oraz sygnału będącego oczekiwaną odpowiedzią elementu. Nie jest wprost zaznaczone, że sygnał uczący może zależeć od odpowiedzi udzielonej przez uczony neuron, ale ponieważ odpowiedź neuronu jest funkcją wektora wag oraz wektora wejściowego (1) więc sygnał uczący również może być jego funkcją. Poniżej scharakteryzowano, znane podstawowe iteracyjne reguły uczenia (modyfikacji wag) sztucznych neuronów. W dalszej części pracy przedstawiono nową regułę uczenia neuronów tzw. regułę PID. Wszystkie przedstawione reguły różnią się jedynie sygnałem uczącym r() Reguła Hebba Reguła umożliwia uczenie w trybie nienadzorowanym i stanowi praktyczną realizację znanej obserwacji z zakresu neurologii odnotowanej przez Hebba [2]: Jeżeli akson komórki A bierze systematycznie udział w pobudzaniu komórki B powodującym jej aktywację, to wywołuje to zmianę metaboliczną w jednej lub w obu komórkach, prowadzącą do wzrostu skuteczności pobudzania komórki B przez komórkę A. Tak sformułowana zasada pozwala jako sygnał uczący przyjąć wyjście neuronu: r y f x (5) wówczas zgodnie z zależnością (3) przyrost wektora wag wynosi: w T t w y x f w xx (6) Analiza zależności (6) prowadzi do wniosku, iż wzmocnieniu ulegają te wagi, których wejścia są aktywne (mają duże x) i towarzyszy im duża wartość odpowiedzi neuronu (y). Występuje wówczas autoasocjacja jeżeli pewien wzór wzbudzenia jest sygnalizowany przez pewne wyjcie y, to w miarę upływu czasu ta sygnalizacja staje się coraz wyraźniejsza. W konsekwencji reguła prowadzi do uzyskania najlepszej korelacji pomiędzy sygnałami wejściowymi, a zapamiętanym w wagach wzorcem. Wadą reguły jest to, iż prowadzi ona do nieograniczonego wzrostu wag. Reguła wymaga wstępnego ustawienia wag na wartości przypadkowe z otoczenia 0 (zera) Reguła korelacyjna Reguła korelacyjna stosowana jest do uczenia nadzorowanego, neuronów z dowolną funkcją aktywacji. Można ją uważać za odpowiednik reguły Hebba wykorzystywanej w uczeniu nienadzorowanym w regule Hebba sygnałem uczącym jest odpowiedź neuronu, a w regule korelacyjnej oczekiwana odpowiedź neuronu:

8 8 Jacek Bartman Korektę wektora wag opisuje zależność: Reguła wymaga przyjęcia zerowych początkowych wartości wag Reguła perceptronowa r z (7) w zx (8) Reguła perceptronowa została zaproponowana przez Rosenblatta w 1958 roku, do uczenia neuronów dyskretnych metodą nadzorowaną [6]. Sygnałem uczącym jest błąd popełniany przez neuron: r z y (9) Dla tak określonego sygnału uczącego zgodnie z zależnością (3) korektę wag można opisać wzorem: Wartości początkowe wag powinny być losowe Reguła Delta w z yx (10) Reguła została opublikowana przez McClellanda i Rumelharta w 1986 roku. Stosuje się ją dla neuronów z ciągłymi funkcjami aktywacji, uczonych w trybie nadzorowanym (z nauczycielem) [4]. Sygnał uczący - uzyskany w wyniku minimalizacji sumy kwadratów błędów - zwany tu sygnałem Delta, zdefiniowany jest w tej regule jako: def z yf w x T r (11) gdzie: δ - sygnał uczący Delta, właściwie jest to przeskalowany błąd neuronu; f x - pierwsza pochodna funkcji aktywacji neuronu. w T W regule tej - zgodnie ze wzorem (3) - przyrost wektora wag wynosi: T z y f w xx w (12) Reguła stanowi odpowiednik reguły perceptronowej dla neuronów o ciągłej funkcji aktywacji i dlatego bywa nazywana ciągłą funkcją perceptronową. Reguła Delta jest najpopularniejszym sposobem uczenia z nauczycielem, jej wielką zaletą jest możliwość uogólnienia zapisu na sieci wielowarstwowe. W regule tej wartości początkowe wag powinny być losowe.

9 Reguła PID uczenia sztucznych neuronów Reguła Widrowa-Hoffa (reguła LMS) Reguła Widrowa-Hoffa została zaproponowana w 1960 roku i odnosi się do uczenia nadzorowanego neuronów o dowolnych funkcjach aktywacji (ciągłych i nieciągłych). Regułę uzyskuje się minimalizując błąd średniokwadratowy pomiędzy oczekiwaną odpowiedzią neuronu, a jego potencjałem membranowym, dlatego nosi też ona nazwę reguły LMS - od nazwy metody optymalizacji - metoda najmniejszych kwadratów (least mean square). Sygnał uczący jest zdefiniowany jako: def r z u z x (13) Podstawiając powyższą zależność do wzoru (3) uzyskujemy wzór pozwalający wyznaczyć wielkość korekty wag neuronu: T w T w z w xx (14) Dla neuronów z liniową funkcją aktywacji reguła Widrowa-Hoffa stanowi szczególny przypadek reguły Delta, w literaturze można nawet spotkać tę regułę pod nazwą reguła delta [3]. W regule Widrowa-Hoff wartości początkowe wag powinny być losowe Algorytm Resilient BackPropagation (RPROP) Algorytm Resilient BP zaproponowali w 1992 roku Riedmiller oraz Braun postuluje on aby przyrost wag był zależny jedynie od znaku gradientu miary błędu (bez uwzględniania jego wartości): E wi i sgn (15) wi gdzie: E funkcja określająca błąd popełniany przez neuron (miara błędu). Charakterystyczną cechą algorytmu jest indywidualne potraktowanie wag neuronów. Otóż dla każdej wagi przypisany jest oddzielny współczynnik uczenia i, który jest modyfikowany w każdym kroku, według następującej zasady: gdy znaki kolejnych gradientów pozostają zgodne - współczynnik uczenia jest zwiększany, natomiast gdy są różne, jest on zmniejszany [6]. 3. Reguła PID Reguła PID odwołuje się do ogólnej zasady uczenia nakazującej aby korekta wag była proporcjonalna do sygnału uczącego r oraz wektora wejściowego x (3). Proponuje się, aby sygnał uczący uwzględniał błąd popełniany przez neuron, szybkość i kierunek zmian tegoż błędu oraz historię uczenia. W celu uwzględnienia wymienionych elementów wprowadza się sygnał uczący składający się z trzech elementów: składnika uwzględniającego błąd popełniany przez neuron, składnika uwzględniającego szybkość i kierunek zmian błędu, składnika uwzględniającego historię zmian.

10 10 Jacek Bartman Prowadzi to do następującej zależności opisującej sygnał uczący r 1 d K p t t dt Td Ti dt t (16) przy czym t zt yt (17) Zaproponowana zależność (16) prowadzi do skojarzenia sposobu wyliczania sygnału uczącego r ze sposobem wyznaczania sterowania w układach automatycznej regulacji. Zasadę wyznaczania sygnału uczącego pokazano na rys. 2. Rysunek 2. Ogólny schemat wyliczania sygnału uczącego w regule PID Wielkości występujące we wzorze (16) mają znaczenie identyczne jak wcześniej, a ponadto (wykorzystano kontekst z automatyki): błąd popełniany przez neuron; K p wzmocnienie; T i stała całkowania określająca wpływ członu całkującego na sygnał uczący definiuje wpływ historii uczenia na wartość sygnału uczącego; T d stała różniczkowania określająca wpływ członu różniczkującego na sygnał uczący definiuje wpływ szybkości zmian błędu na wartość sygnału uczącego. Uwzględniając zależność (16) we wzorze na korektę wag (3) uzyskujemy stosowny wzór dla reguły PID: 1 d w K p t t dt Td Ti dt t x (18) 3.1. Dyskretyzacja algorytmu PID Parametr t występujący w zależności (18) ma charakter ciągły, dlatego bezpośrednie jej zastosowanie do uczenia neuronów nie jest możliwe - gdyż proces uczenia sztucznych neuronów ma charakter iteracyjny - dlatego koniczne jest przeprowadzenie dyskretyzacji reguły PID. W tym celu całkę zastąpimy sumą:

11 Reguła PID uczenia sztucznych neuronów 11 t n k 0 k dt (19) zaś pochodną z błędu popełnianego przez neuron przybliżymy ilorazem różnicowym pierwszego rzędu: T s d( t ) ( k ) ( k 1) dt T s (20) Parametr T s stanowi odpowiednik okresu próbkowania czyli odstępu czasu pomiędzy pobieraniem kolejnych próbek, w przypadku uczenia sieci neuronowej będzie to pojedynczy krok iteracji. Po uwzględnieniu zależności (19) oraz (20) we wzorze na korektę wag (18) uzyskujemy w T n s T d K p k x k k k 1 (21) Ti T k 0 s Podstawiając (zastosowano te same nazwy parametrów gdyż podstawienie prowadzi jedynie do przeskalowania wartości): Ti Td K p, Ti, Td (22) T T uzyskujemy końcowy wzór opisujący korektę wag pojedynczego neuronu wg reguły PID: s n w 1 k x k Td t k 1 (23) Ti k 0 Zaproponowana metoda może być stosowana do uczenia nadzorowanego sztucznych neuronów. Wartości początkowe wag powinny być przypadkowe. 4. Wyniki badań symulacyjnych W celu wstępnego sprawdzenia efektywności zaproponowanej metody przeprowadzono uczenie pojedynczego neuronu reguł bramki NOR oraz przeprowadzono uczenie dla prostego zadania klasyfikacji. Uzyskane rezultaty zestawiono z rezultatami uzyskanymi przy zastosowaniu klasycznej reguły Delta oraz reguły Resilient BP (RPROP). Klasyczna reguła Delty jest metodą bardzo wolną, ale stanowi dobry punkt odniesienia do ogólnej oceny proponowanej reguły PID. Natomiast reguła Resilient BP jest metodą, która w obszarach niewielkiego nachylenia funkcji celu daje bardzo duże przyspieszenie procesu uczenia i pomimo niewielkiej złożoności obliczeniowej zaliczana jest do szybszych metod uczenia. Symulacje wykonano dla losowych wartości początkowych wag. Zagwarantowano jednak, aby dla wszystkich reguł proces uczenia odbywał się z takimi samymi wartościami początkowymi wag zabezpiecza to pełną porównywalność metod. Dla żadnej z reguł nie s

12 12 Jacek Bartman optymalizowano wartości współczynników uczenia, (w przypadku reguły PID -, T i, T d, w przypadku reguły Delta oraz Resilient BP - ) przyjęto dla nich wartość 1. Uczyniono tak ponieważ brak jest metod analitycznego doboru ich wartości, a dokonuje się go w sposób heurystyczny. Zrealizowano po 1000 przebiegów uczenia dla wszystkich reguł Symulacja reguł bramki NOR Ponieważ brak jest metod, które pozwalałyby analitycznie określić punkt stopu dla algorytmów uczenia SSN dlatego badania przeprowadzono dla dwóch różnych wartości końcowych funkcji celu - 0,01 oraz 0,001 (uwzględniono, iż oczekujemy odpowiedzi o wartościach 0 lub 1) Efekty ucznia reguł bramki NOR dla wartości funkcji celu 0.01 W tabeli 1 pokazano tablicę bramki NOR oraz przykładowe odpowiedzi neuronu uczonego porównywanymi regułami (Delta, Resilient BP oraz PID). Uzyskane odpowiedzi różnią się od wartości oczekiwanej, ale nie ulega wątpliwości, iż neuron prawidłowo klasyfikuje sygnały wejściowe - tabela 1. Tabela 1. Zestawienie przykładowych odpowiedzi dla wartości funkcji celu MSE=0.01 Wejścia Odpowiedź oczekiwana Przykładowe odpowiedzi sieci Delta Resilent BP PID Przykładowy przebieg procesu uczenia porównywanych reguł pokazano na rysunku 3 rysunek b) stanowi powiększenie fragmentu rysunku a) w celu ułatwienia porównania przebiegu uczenia regułą PID i Resilient BP. a) b) Rysunek 3. Przykładowy przebieg procesu uczenia neuronu porównywanymi regułami (MSE=0.01) Zestawienie statystyczne wyników symulacji przedstawiono w tabeli 2. Analiza uzyskanych rezultatów prowadzi do wniosku, iż w przypadku końcowej wartości funkcji celu 0.01 uczenie najszybciej przebiegało w oparciu o regułę PID - oczekiwany rezultat uczenia dla

13 Reguła PID uczenia sztucznych neuronów 13 reguły Delta uzyskano średnio po 697 krokach, dla reguły Resilient BP po 18 a dla reguły PID po 7,7 krokach. Tabela 2. Wyniki uczenia poszczególnymi regułami w ujęciu statystycznym (MSE=0.01) Delta Resilient BP PID Wartość maksymalna Wartość minimalna Mediana Średnia ,0 7,7 Odchylenie standardowe 839 5,45 3, Efekty ucznia reguł bramki NOR dla wartości funkcji celu Kolejne badania wykonano zmniejszając dziesięciokrotnie wartość końcową funkcji celu (z 0.01 do 0.001). Przedstawione w tabeli 3 wyniki pokazują, że uzyskane odpowiedzi neuronu są obarczone mniejszym błędem. Tabela 3. Zestawienie przykładowych odpowiedzi dla MSE=0.001 Wejścia Odpowiedź oczekiwana Przykładowe odpowiedzi sieci Delta Resilient BP PID a) b) Rysunek 4. Przykładowy przebieg procesu uczenia neuronu porównywanymi regułami (MSE=0.001) Kolejna tabela zawiera zestawienie statystyczne uzyskanych wyników. Po zmniejszeniu końcowej wartości funkcji celu najszybsza okazała się reguła Resilient BP, która oczekiwany rezultat uczenia osiągała średnio po 20,3 epokach wobec 28,5 epok potrzebnych regule PID oraz 2884 regule Delta. Warto zauważyć, iż odchylenie standardowe w przypadku reguł Resilient BP oraz PID jest zdecydowanie mniejsze niż w przypadku uczenia klasyczną regułą Delta oznacza to, mniejszy rozrzut wyników, co można interpretować jako większa powtarzalność uczenia (w wymiarze liczby epok potrzebnych do nauczenia neuronu).

14 14 Jacek Bartman Tabela 4. Wyniki uczenia poszczególnymi regułami w ujęciu statystycznym (MSE=0.001) Delta Resilient BP PID Wartość maksymalna Wartość minimalna Mediana Średnia ważona ,3 28,5 Odchylenie standardowe 960 4,60 5, Wnioski i spostrzeżenia z badań symulacyjnych bramki NOR Szybkość uczenia regułą PID dla rozważanego przypadku jest porównywalna z szybkością uczenia regułą Resilient BP, reguła Delta jest zdecydowanie wolniejsza. Analiza przebiegów uczenia regułą PID i regułą Resilient BP (rys. 3, rys. 4) prowadzi do wniosku, że uczenie regułą PID powoduje w początkowym etapie szybszy postęp procesu uczenia, natomiast reguła Resilient BP w początkowym etapie uczy się wolniej a w końcowym bardzo szybko. Charakterystyczne dla uczenia regułą PID szarpnięcia (rys.3, rys. 4) (wzrost wartości funkcji celu) prawdopodobnie można wyeliminować odpowiednio dobierając wartości współczynników, T i, T d, w konsekwencji powinno to prowadzić do przyspieszenia procesu uczenia Zadanie klasyfikacji elementów dla danych wejściowych dwuwymiarowych Zadanie klasyfikacji elementów było kolejnym problemem służącym porównaniu efektywności reguł Delta, Resilinet BP oraz PID uczenia sztucznych neuronów. Zadaniem neuronu była klasyfikacja elementów rozmieszczonych na płaszczyźnie (rys. 5.): a1=(2, 11), a2=(7, 10), a3=(8, 16), a4=(10, -6), a5=(15, -10), b1=(-4, 6), b2=(0, 7), b3=(10, 15), b4=(-6, -7), b5=(-10,-4) do dwóch zbiorów A, B: A={a1, a2, a3, a4, a5}, B={b1, b2, b3, b4, b5} Tabela 5 zawiera statystyczne zestawienie uzyskanych rezultatów. Dla reguły Delta okazało się, że neuron nie nauczył się ani razu na 1000 przypadków konieczne jest właściwe dobranie współczynnika uczenia Rysunek 5. Rozkład klasyfikowanych elementów na płaszczyźnie Tabela 5. Wyniki uczenia klasyfikacji elementów w ujęciu statystycznym Resilient BP PID Wartość maksymalna Wartość minimalna Mediana Średnia ważona Odchylenie standardowe 51,5 45,6

15 Reguła PID uczenia sztucznych neuronów 15 Porównanie szybkości uczenia regułami Resilient BP oraz PID wypada na korzyść reguły PID dla której neuron nauczył się średnio po 131 epokach przy 147 epokach uczenia potrzebnych metodzie Resilent BP. Również odchylenie standardowe jest mniejsze dla metody PID. Rysunek 6 pokazuje przykładowy przebieg procesu uczenia neuronu. Kształt krzywej obrazującej uczenie regułą PID jest bardzo nietypowy początkowo praktycznie brak postępów w uczeniu (wartość funkcji celu na przemian wzrasta i maleje) a następnie następuje gwałtowna poprawa. Zachowanie w początkowym etapie uczenia sugeruje, iż parametry (, T i, T d ) są mocno nieoptymalne i właściwe ich dostrojenie winno spowodować poprawę efektywności metody. Wart podkreślenia jest fakt, iż w każdym przypadku (z 1000) sieć uczona regułą PID uzyskiwała zadaną wartość funkcji celu. Rysunek 6. Przykładowy przebieg procesu uczenia neuronu zadania klasyfikacji elementów Kolejne porównanie efektywności uczenia sztucznych neuronów regułami Delta, Resilinet BP oraz PID wykonano wykorzystując dane ze zbioru Baloon set umieszczone w UCI Machine Learning Repository [10]. Zbiór wejściowy składał się z 16 wektorów uczących, opisujących balony, a każdy wektor złożony był z czterech atrybutów: color {yellow, purple}; size {large, small}; act {stretch, dip}; age {adult, child}. Na podstawie danych sieć miała podjąć decyzję czy balon się uniesie czy nie. Zadanie zalicza się więc do problemów klasyfikacji jednak w odróżnieniu od zagadnień rozwiązywanych wcześniej, dane wejściowe nie mają charakteru dwuwymiarowego (łatwego do zaprezentowania na płaszczyźnie i stwierdzenia separowalności liniowej), a charakter wielowymiarowy. Dane z których złożone były wektory uczące posiadały charakter tekstowy, dlatego też konieczne było ich zakodowanie przyjęto bardzo prostą zasadę kodowania przypisując w zależności od wartości każdemu z atrybutów wartość 0 lub 1. W tabeli 6 pokazano dane przed kodowaniem, po zakodowaniu oraz przykładowe odpowiedzi sieci dla każdej z reguła uczenia. Przykładowy przebieg procesu uczenia porównywanych reguł pokazano na rysunku 7 rysunek b) stanowi powiększenie fragmentu rysunku a). Zwraca uwagę fakt, iż przebieg uczenia każdą z porównywanych metod ma charakter monotoniczny (funkcja miary błędu systematycznie maleje do zadanej wartości). W zaprezentowanych powyżej przykładach przebieg uczenia regułą PID miał charakter szarpany (miara błędu na przemian rosła i malała). W analizowanym przypadku zjawisko to nie występuje i w konsekwencji reguła PID osiąga zdecydowanie najszybciej zadaną wartość funkcji celu (miary błędu). Tabela 7 zawiera zestawienie statystyczne uzyskanych wyników. Porównanie szybkości uczenia metodami PID oraz Resilient, BP wypada zdecydowanie na korzyść reguły PID potrzebowały one średnio odpowiednio 20,8 oraz 2,47 epoki do nauczenia neuronu właściwej klasyfikacji elementów. Reguła Delta jest zdecydowanie wolniejsza.

16 16 Jacek Bartman Tabela 6. Zestawienie przykładowych odpowiedzi dla MSE=0.001 Dane z repozytorium Dane po zakodowaniu Przykładowe odpowiedzi sieci Dane wejściowe Odp. Dane wejściowe Odp. Delta ResilientBP PID Yellow Small Stretch Adult T Yellow Small Stretch Child F Yellow Small Dip Adult F Yellow Small Dip Child F Yellow Large Stretch Adult T Yellow Large Stretch Child F Yellow Large Dip Adult F Yellow Large Dip Child F Purple Small Stretch Adult T Purple Small Stretch Child F Purple Small Dip Adult F Purple Small Dip Child F Purple Large Stretch Adult T Purple Large Stretch Child F Purple Large Dip Adult F Purple Large Dip Child F a) b) Rysunek 7. Przykładowy przebieg procesu uczenia neuronu porównywanymi regułami Tabela.7. Wyniki uczenia klasyfikacji elementów w ujęciu statystycznym Delta Resilient BP PID Wartość maksymalna Wartość minimalna Mediana Średnia ważona ,8 2,47 Odchylenie standardowe 289 4,0 0,792

17 Reguła PID uczenia sztucznych neuronów Badania na danych eksperckich. Dane do kolejnych badań zaczerpnięto ze zbioru Acute Inflammations Data Set [11] umieszczonego w UCI Machine Learning Repository. Dane zostały stworzone przez eksperta medycznego w celu zbudowania systemu eksperckiego wykonującego diagnostykę dwóch domniemanych chorób układu moczowego - zapalenia pęcherza moczowego oraz zapalenia nerek. Każdy rekord reprezentuje potencjalnego pacjenta opisanego poprzez następujące atrybuty: temperaturę ciała {35C - 42C), złe samopoczucie, nudności {tak, nie}, ból lędźwiowy {tak, nie}, ciągłą potrzebę oddawania moczu {tak, nie}, ból podczas oddawania moczu {tak, nie}, obrzęk cewki moczowej {tak, nie}. Dane logiczne (tak/nie) wymagały odpowiedniego zakodowania w tym celu wartości tak przypisano 1, a wartości nie Klasyfikacja danych eksperckich W artykule przedstawiono przypadek uczenia sztucznej sieci neuronowej rozpoznawania zapalenia nerek na podstawie danych zawartych w wektorze wejściowym (rekordzie). Tak postawione zadanie jest zadaniem z dziedziny klasyfikacji. Uczenie przeprowadzono w oparciu o reguły PID oraz Resilient BP. Zrezygnowano z uczenia regułą Delta gdyż wymagała ona precyzyjnego doboru współczynnika uczenia. Na rys. 8. przedstawiono przykładowy przebieg uczenia dla obu porównywanych metod jak widać reguła PID jest wyraźnie szybsza. Spostrzeżenie to potwierdzają zawarte w tabeli 8 zestawienia statystyczne na 1000 wykonanych prób reguła PID średnio po 15,7 epokach uzyskiwała założoną dopuszczalną wartość błędu, a reguła Resilient BP po 57 epokach. Rysunek 8. Przebieg uczenia neuronów zadania klasyfikacji elementów eksperckich Tabela 8. Wyniki uczenia klasyfikacji elementów eksperckich w ujęciu statystycznym Resilient BP PID Wartość maksymalna Wartość minimalna 24 1 Mediana Średnia ważona 57,0 15,7 Odchylenie standardowe 15,3 6,07

18 18 Jacek Bartman Diagnostyka W kolejnym eksperymencie dane eksperckie podzielono na dwie grupy grupę danych uczących oraz grupę danych testowych. Do zbioru uczącego włączono 40 spośród 120 wektorów z danymi uczącymi. Przykładowy przebieg procesu uczenia pokazano na rysunku 9 a zestawienie statystyczne uzyskanych rezultatów (na podstawie 1000 powtórzeń) zebrano w tabeli 9. Uczenie skróconym zbiorem uczącym przebiegało nieco wolniej, ale w tym przypadku podobnie jak we wcześniejszym reguła PID okazała się szybsza od Resilient BP, uzyskując pożądany efekt uczenia po 43,5 epokach wobec 63,6 epok reguły Resilient BP. Rysunek 9. Przebieg uczenia neuronów zadania diagnostycznego Tabela 9. Wyniki uczenia skróconym zbiorem danych eksperckich w ujęciu statystycznym Resilient BP PID Wartość maksymalna Wartość minimalna 27 4 Mediana Średnia ważona 63,6 43,5 Odchylenie standardowe 18,0 16,2 Zasadniczym zadaniem w analizowanym przypadku było określenie jak reguła uczenia wpłynęła na zdolność do uogólniania. W zbiorze testowym (rozłącznym ze zbiorem uczącym) umieszczono 80 przypadków zdefiniowanych przez eksperta. Wykonano 100 krotnie uczenie neuronów po każdym sprawdzając poprawność jego odpowiedzi na dane testowe. Przyjęto, iż w przypadku oczekiwanej odpowiedzi 0 jako poprawną (nie budzącą wątpliwości) uznaje się odpowiedź nie przekraczającą 0,3 a w przypadku oczekiwanej odpowiedzi 1 za poprawną uznano wartości nie mniejsze niż 0,7. Uzyskane podczas badań wyniki zebrano w tabeli 10, należy podkreślić, iż liczba błędnych diagnoz była bardzo mała. Neuron uczony regułą PID 15 krotnie podał błędną odpowiedź na 800 prób a uczony regułą Resilient BP 10 krotnie wystawił błędną diagnozę w analogicznej liczbie prób. Dla pojedynczego uczenia neuron uczony regułą PID maksymalnie dla 1 przypadku udzielił błędnej odpowiedzi a dla reguły Resilient BP dla 2 przypadków. Tabela.10. Wyniki uczenia skróconym zbiorem danych eksperckich w ujęciu statystycznym Resilient BP PID Liczba błędnych diagnoz w 800 przypadkach Maksymalna liczba błędów dla 1 epoki danych testowych 2 1 Minimalna liczba błędów dla 1 epoki danych testowych 0 0

19 Reguła PID uczenia sztucznych neuronów Podsumowanie Uczenie sztucznych sieci neuronowych i bezpośrednio z nim związane uczenie sztucznych neuronów są ciągle interesującymi obszarami badawczymi pomimo, iż istnieje wiele reguł opisujących w jaki sposób korygować wagi neuronu, aby jego zachowanie było zgodne z oczekiwanym. W literaturze można znaleźć opisy reguł gradientowych jak i również charakteryzujących się większą złożonością obliczeniową reguł wykorzystujących macierz hesjanu funkcji celu. W pracy zaproponowano nowa regułę uczenia sztucznych neuronów regułę PID oraz dokonano porównania jej efektywności z klasyczną regułą Delty oraz regułą Resilient BP. Wstępne wyniki są zachęcające do podjęcia dalszych badań. W większości przebadanych przypadków reguła PID okazała się nieco szybsza od reguły Resilient BP oraz zdecydowanie szybsza od reguły Delty. Interesujące wydaje się być porównanie jej z innymi regułami uczenia oraz ustalenie wpływu współczynników (, T i, T d ) na jej szybkość oraz stabilność. Przebieg procesu uczenia regułą PID w wielu przypadkach miał bardzo nietypowy charakter (rys. 6, rys. 8, rys 9) wartość funkcji celu (będącej miarą błędu) przez długi czas pozostawała praktycznie niezmieniona, by następnie gwałtownie osiągnąć pożądaną wartość. Nieodzowne jest przeprowadzenie badań, które wyjaśnią czym jest to spowodowane niewłaściwym doborem współczynników uczenia(, T i, T d ), kolejnością podawania wzorców (była ona losowa), czy też jakimś innym czynnikiem. Przedstawione badania ograniczyły się do analizy uczenia pojedynczego neuronu intrygujące będzie wykorzystanie reguły w metodzie wstecznej propagacji błędu do uczenia całej sieci i zestawienie uzyskanych rezultatów z rezultatami jakie daje klasyczna metoda wstecznej propagacji błędu. Bibliografia [1] Bielecki A. Mathematical model of architecture and learning processes of artificial neural networks. TASK Quarterly 7 no 1/2003, s [2] Hebb D. The organization of behaviour. Wiley, New York, 1949 [3] Korbicz J., Obuchowicz A., Uciński D. Sztuczne sieci neuronowe. Podstawy i zastosowania, Akademicka Oficyna Wydawnicza PLJ, Warszawa [4] McClelland T.L., Rumelhart D.E., and the PDP Research Group. Paralell Distributed Processing. MIT Press, Cambridge, Mass [5] Osowski St. Sieci neuronowe w ujęciu algorytmicznym, WNT, Warszawa [6] Rosenblatt F. The perceptron: A probalistic model for information storage and organization in the brain. Psychology Review no 65/1958 s [7] Tadeusiewicz R. Sieci neuronowe, Akademicka Oficyna Wydawnicza RM, Warszawa [8] Widrow B., Hoff M. E. Adaptive switching circuits. New York IRE WESCON Conventional Record 1960, s [9] Żurada J., Barski M., Jędruch W. Sztuczne sieci neuronowe. Podstawa teorii i zastosowania. PWN, Warszawa [10] Asuncion, A., Newman, D.J. UCI Machine Learning Repository. Irvine, CA: University of California, School of Information and Computer Science, [http://www.ics.uci.edu/~mlearn/mlrepository.html] [11] Czerniak J., Zarzycki H., Application of rough sets in the presumptive diagnosis of urinary system diseases. Artificial Intelligence and Security in Computing Systems, ACS'2002 9th International Conference Proceedings, Kluwer Academic Publishers,2003, pp

20

Inteligentne systemy informacyjne

Inteligentne systemy informacyjne Inteligentne systemy informacyjne Moduł 10 Mieczysław Muraszkiewicz www.icie.com.pl/lect_pw.htm M. Muraszkiewicz strona 1 Sieci neuronowe szkic Moduł 10 M. Muraszkiewicz strona 2 Dwa nurty M. Muraszkiewicz

Bardziej szczegółowo

Metody Sztucznej Inteligencji II

Metody Sztucznej Inteligencji II 17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału

Bardziej szczegółowo

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. zajecia.jakubw.pl/nai Literatura: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym. WNT, Warszawa 997. PODSTAWOWE ZAGADNIENIA TECHNICZNE AI

Bardziej szczegółowo

8. Neuron z ciągłą funkcją aktywacji.

8. Neuron z ciągłą funkcją aktywacji. 8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i

Bardziej szczegółowo

Uniwersytet w Białymstoku Wydział Ekonomiczno-Informatyczny w Wilnie SYLLABUS na rok akademicki 2012/2013 http://www.wilno.uwb.edu.

Uniwersytet w Białymstoku Wydział Ekonomiczno-Informatyczny w Wilnie SYLLABUS na rok akademicki 2012/2013 http://www.wilno.uwb.edu. SYLLABUS na rok akademicki 01/013 Tryb studiów Studia stacjonarne Kierunek studiów Informatyka Poziom studiów Pierwszego stopnia Rok studiów/ semestr /3 Specjalność Bez specjalności Kod katedry/zakładu

Bardziej szczegółowo

Wpływ opisu danych na efektywność uczenia oraz pracy sztucznej sieci neuronowej na przykładzie identyfikacji białek

Wpływ opisu danych na efektywność uczenia oraz pracy sztucznej sieci neuronowej na przykładzie identyfikacji białek Jacek BARTMAN Uniwersytet Rzeszowski, Instytut Techniki, Polska Wpływ opisu danych na efektywność uczenia oraz pracy sztucznej sieci neuronowej na przykładzie identyfikacji białek Wstęp Sztuczne sieci

Bardziej szczegółowo

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny

Bardziej szczegółowo

PRZEWODNIK PO PRZEDMIOCIE

PRZEWODNIK PO PRZEDMIOCIE Nazwa przedmiotu: Kierunek: Mechatronika Rodzaj przedmiotu: obowiązkowy Rodzaj zajęć: wykład, laboratorium I KARTA PRZEDMIOTU CEL PRZEDMIOTU PRZEWODNIK PO PRZEDMIOCIE C1. Zapoznanie studentów z inteligentnymi

Bardziej szczegółowo

Regulator PID w sterownikach programowalnych GE Fanuc

Regulator PID w sterownikach programowalnych GE Fanuc Regulator PID w sterownikach programowalnych GE Fanuc Wykład w ramach przedmiotu: Sterowniki programowalne Opracował na podstawie dokumentacji GE Fanuc dr inż. Jarosław Tarnawski Cel wykładu Przypomnienie

Bardziej szczegółowo

4.1. Wprowadzenie...70 4.2. Podstawowe definicje...71 4.3. Algorytm określania wartości parametrów w regresji logistycznej...74

4.1. Wprowadzenie...70 4.2. Podstawowe definicje...71 4.3. Algorytm określania wartości parametrów w regresji logistycznej...74 3 Wykaz najważniejszych skrótów...8 Przedmowa... 10 1. Podstawowe pojęcia data mining...11 1.1. Wprowadzenie...12 1.2. Podstawowe zadania eksploracji danych...13 1.3. Główne etapy eksploracji danych...15

Bardziej szczegółowo

Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2)

Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2) Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2) Ewa Wołoszko Praca pisana pod kierunkiem Pani dr hab. Małgorzaty Doman Plan tego wystąpienia Teoria Narzędzia

Bardziej szczegółowo

1.7. Eksploracja danych: pogłębianie, przeszukiwanie i wyławianie

1.7. Eksploracja danych: pogłębianie, przeszukiwanie i wyławianie Wykaz tabel Wykaz rysunków Przedmowa 1. Wprowadzenie 1.1. Wprowadzenie do eksploracji danych 1.2. Natura zbiorów danych 1.3. Rodzaje struktur: modele i wzorce 1.4. Zadania eksploracji danych 1.5. Komponenty

Bardziej szczegółowo

Wykład z Technologii Informacyjnych. Piotr Mika

Wykład z Technologii Informacyjnych. Piotr Mika Wykład z Technologii Informacyjnych Piotr Mika Uniwersalna forma graficznego zapisu algorytmów Schemat blokowy zbiór bloków, powiązanych ze sobą liniami zorientowanymi. Jest to rodzaj grafu, którego węzły

Bardziej szczegółowo

Algorytmy sztucznej inteligencji

Algorytmy sztucznej inteligencji Algorytmy sztucznej inteligencji Dynamiczne sieci neuronowe 1 Zapis macierzowy sieci neuronowych Poniżej omówione zostaną części składowe sieci neuronowych i metoda ich zapisu za pomocą macierzy. Obliczenia

Bardziej szczegółowo

Sieci neuronowe w Statistica

Sieci neuronowe w Statistica http://usnet.us.edu.pl/uslugi-sieciowe/oprogramowanie-w-usk-usnet/oprogramowaniestatystyczne/ Sieci neuronowe w Statistica Agnieszka Nowak - Brzezińska Podstawowym elementem składowym sztucznej sieci neuronowej

Bardziej szczegółowo

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa

Bardziej szczegółowo

Sieci Kohonena Grupowanie

Sieci Kohonena Grupowanie Sieci Kohonena Grupowanie http://zajecia.jakubw.pl/nai UCZENIE SIĘ BEZ NADZORU Załóżmy, że mamy za zadanie pogrupować następujące słowa: cup, roulette, unbelievable, cut, put, launderette, loveable Nie

Bardziej szczegółowo

Podstawy sztucznej inteligencji

Podstawy sztucznej inteligencji wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,

Bardziej szczegółowo

AUTO-STROJENIE REGULATORA TYPU PID Z WYKORZYSTANIEM LOGIKI ROZMYTEJ

AUTO-STROJENIE REGULATORA TYPU PID Z WYKORZYSTANIEM LOGIKI ROZMYTEJ POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 75 Electrical Engineering 2013 Łukasz NIEWIARA* Krzysztof ZAWIRSKI* AUTO-STROJENIE REGULATORA TYPU PID Z WYKORZYSTANIEM LOGIKI ROZMYTEJ Zagadnienia

Bardziej szczegółowo

AUTO-STROJENIE REGULATORA TYPU PID Z WYKORZYSTANIEM LOGIKI ROZMYTEJ

AUTO-STROJENIE REGULATORA TYPU PID Z WYKORZYSTANIEM LOGIKI ROZMYTEJ POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 75 Electrical Engineering 2013 Łukasz NIEWIARA* Krzysztof ZAWIRSKI* AUTO-STROJENIE REGULATORA TYPU PID Z WYKORZYSTANIEM LOGIKI ROZMYTEJ Zagadnienia

Bardziej szczegółowo

Scenariusz lekcji opartej na programie Program nauczania informatyki w gimnazjum DKW-4014-87/99

Scenariusz lekcji opartej na programie Program nauczania informatyki w gimnazjum DKW-4014-87/99 Scenariusz lekcji opartej na programie Program nauczania informatyki w gimnazjum DKW-4014-87/99 Techniki algorytmiczne realizowane przy pomocy grafiki żółwia w programie ELI 2,0. Przedmiot: Informatyka

Bardziej szczegółowo

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW 17 XII 2013 Jan Karwowski

Bardziej szczegółowo

SPOSOBY POMIARU KĄTÓW W PROGRAMIE AutoCAD

SPOSOBY POMIARU KĄTÓW W PROGRAMIE AutoCAD Dr inż. Jacek WARCHULSKI Dr inż. Marcin WARCHULSKI Mgr inż. Witold BUŻANTOWICZ Wojskowa Akademia Techniczna SPOSOBY POMIARU KĄTÓW W PROGRAMIE AutoCAD Streszczenie: W referacie przedstawiono możliwości

Bardziej szczegółowo

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW Sztuczne Sieci Neuronowe Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW SN są częścią dziedziny Sztucznej Inteligencji Sztuczna Inteligencja (SI) zajmuje się

Bardziej szczegółowo

Grafika komputerowa i wizualizacja

Grafika komputerowa i wizualizacja Grafika komputerowa i wizualizacja Radosław Mantiuk ( rmantiuk@wi.zut.edu.pl, p. 315 WI2) http://rmantiuk.zut.edu.pl Katedra Systemów Multimedialnych Wydział Informatyki, Zachodniopomorski Uniwersytet

Bardziej szczegółowo

Prof. Stanisław Jankowski

Prof. Stanisław Jankowski Prof. Stanisław Jankowski Zakład Sztucznej Inteligencji Zespół Statystycznych Systemów Uczących się p. 228 sjank@ise.pw.edu.pl Zakres badań: Sztuczne sieci neuronowe Maszyny wektorów nośnych SVM Maszyny

Bardziej szczegółowo

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych. Metody Sztucznej Inteligencji 2 Projekt Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych. Autorzy: Robert Wojciechowski Michał Denkiewicz Mateusz Gągol Wstęp Celem projektu

Bardziej szczegółowo

KARTA MODUŁU KSZTAŁCENIA

KARTA MODUŁU KSZTAŁCENIA KARTA MODUŁU KSZTAŁCENIA I. Informacje ogólne 1 Nazwa modułu kształcenia Sztuczna inteligencja 2 Nazwa jednostki prowadzącej moduł Instytut Informatyki, Zakład Informatyki Stosowanej 3 Kod modułu (wypełnia

Bardziej szczegółowo

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ optymalizacje podejmowanych decyzji Tomasz Karczyoski Wydział W-08 IZ Czym są sieci neuronowe Struktura matematycznych oraz programowy lub sprzętowy model, realizujących obliczenia lub przetwarzanie sygnałów

Bardziej szczegółowo

METODY CHEMOMETRYCZNE W IDENTYFIKACJI ŹRÓDEŁ POCHODZENIA

METODY CHEMOMETRYCZNE W IDENTYFIKACJI ŹRÓDEŁ POCHODZENIA METODY CHEMOMETRYCZNE W IDENTYFIKACJI ŹRÓDEŁ POCHODZENIA AMFETAMINY Waldemar S. Krawczyk Centralne Laboratorium Kryminalistyczne Komendy Głównej Policji, Warszawa (praca obroniona na Wydziale Chemii Uniwersytetu

Bardziej szczegółowo

Integracja systemu CAD/CAM Catia z bazą danych uchwytów obróbkowych MS Access za pomocą interfejsu API

Integracja systemu CAD/CAM Catia z bazą danych uchwytów obróbkowych MS Access za pomocą interfejsu API Dr inż. Janusz Pobożniak, pobozniak@mech.pk.edu.pl Instytut Technologii Maszyn i Automatyzacji produkcji Politechnika Krakowska, Wydział Mechaniczny Integracja systemu CAD/CAM Catia z bazą danych uchwytów

Bardziej szczegółowo

Algorytm genetyczny (genetic algorithm)-

Algorytm genetyczny (genetic algorithm)- Optymalizacja W praktyce inżynierskiej często zachodzi potrzeba znalezienia parametrów, dla których system/urządzenie będzie działać w sposób optymalny. Klasyczne podejście do optymalizacji: sformułowanie

Bardziej szczegółowo

Algorytm. Krótka historia algorytmów

Algorytm. Krótka historia algorytmów Algorytm znaczenie cybernetyczne Jest to dokładny przepis wykonania w określonym porządku skończonej liczby operacji, pozwalający na rozwiązanie zbliżonych do siebie klas problemów. znaczenie matematyczne

Bardziej szczegółowo

Hierarchiczna analiza skupień

Hierarchiczna analiza skupień Hierarchiczna analiza skupień Cel analizy Analiza skupień ma na celu wykrycie w zbiorze obserwacji klastrów, czyli rozłącznych podzbiorów obserwacji, wewnątrz których obserwacje są sobie w jakimś określonym

Bardziej szczegółowo

MATLAB Neural Network Toolbox przegląd

MATLAB Neural Network Toolbox przegląd MATLAB Neural Network Toolbox przegląd WYKŁAD Piotr Ciskowski Neural Network Toolbox: Neural Network Toolbox - zastosowania: przykłady zastosowań sieci neuronowych: The 1988 DARPA Neural Network Study

Bardziej szczegółowo

Obrona rozprawy doktorskiej Neuro-genetyczny system komputerowy do prognozowania zmiany indeksu giełdowego

Obrona rozprawy doktorskiej Neuro-genetyczny system komputerowy do prognozowania zmiany indeksu giełdowego IBS PAN, Warszawa 9 kwietnia 2008 Obrona rozprawy doktorskiej Neuro-genetyczny system komputerowy do prognozowania zmiany indeksu giełdowego mgr inż. Marcin Jaruszewicz promotor: dr hab. inż. Jacek Mańdziuk,

Bardziej szczegółowo

Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie

Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie LABORKA Piotr Ciskowski ZASTOSOWANIA SIECI NEURONOWYCH IDENTYFIKACJA zastosowania przegląd zastosowania sieci neuronowych: o identyfikacja

Bardziej szczegółowo

XQTav - reprezentacja diagramów przepływu prac w formacie SCUFL przy pomocy XQuery

XQTav - reprezentacja diagramów przepływu prac w formacie SCUFL przy pomocy XQuery http://xqtav.sourceforge.net XQTav - reprezentacja diagramów przepływu prac w formacie SCUFL przy pomocy XQuery dr hab. Jerzy Tyszkiewicz dr Andrzej Kierzek mgr Jacek Sroka Grzegorz Kaczor praca mgr pod

Bardziej szczegółowo

Praca dyplomowa magisterska

Praca dyplomowa magisterska Praca dyplomowa magisterska Implementacja algorytmów filtracji adaptacyjnej o strukturze transwersalnej na platformie CUDA Dyplomant: Jakub Kołakowski Opiekun pracy: dr inż. Michał Meller Plan prezentacji

Bardziej szczegółowo

OSTASZEWSKI Paweł (55566) PAWLICKI Piotr (55567) Algorytmy i Struktury Danych PIŁA

OSTASZEWSKI Paweł (55566) PAWLICKI Piotr (55567) Algorytmy i Struktury Danych PIŁA OSTASZEWSKI Paweł (55566) PAWLICKI Piotr (55567) 16.01.2003 Algorytmy i Struktury Danych PIŁA ALGORYTMY ZACHŁANNE czas [ms] Porównanie Algorytmów Rozwiązyjących problem TSP 100 000 000 000,000 10 000 000

Bardziej szczegółowo

Konkurs z przedmiotu eksploracja i analiza danych: problem regresji i klasyfikacji

Konkurs z przedmiotu eksploracja i analiza danych: problem regresji i klasyfikacji Konkurs z przedmiotu eksploracja i analiza danych: problem regresji i klasyfikacji Michał Witczak Data Mining 20 maja 2012 r. 1. Wstęp Dostarczone zostały nam 4 pliki, z których dwa stanowiły zbiory uczące

Bardziej szczegółowo

PROGRAM SEMINARIUM ZAKOPANE 2011. czwartek, 1 grudnia 2011 r. Sesja przedpołudniowa

PROGRAM SEMINARIUM ZAKOPANE 2011. czwartek, 1 grudnia 2011 r. Sesja przedpołudniowa czwartek, 1 grudnia 2011 r. Sesja przedpołudniowa 9.30 9.40: 9.40 10.10: 10.10 10.40: 10.40 11.00: Otwarcie seminarium Prof. dr hab. inż. Tadeusz Czachórski prof. dr hab. inż. Robert Schaeffer, prezentacja:

Bardziej szczegółowo

Diagnostyka procesów przemysłowych Kod przedmiotu

Diagnostyka procesów przemysłowych Kod przedmiotu Diagnostyka procesów przemysłowych - opis przedmiotu Informacje ogólne Nazwa przedmiotu Diagnostyka procesów przemysłowych Kod przedmiotu 06.0-WE-AiRP-DPP Wydział Kierunek Wydział Informatyki, Elektrotechniki

Bardziej szczegółowo

ROZWIĄZYWANIE UKŁADÓW RÓWNAŃ NIELINIOWYCH PRZY POMOCY DODATKU SOLVER PROGRAMU MICROSOFT EXCEL. sin x2 (1)

ROZWIĄZYWANIE UKŁADÓW RÓWNAŃ NIELINIOWYCH PRZY POMOCY DODATKU SOLVER PROGRAMU MICROSOFT EXCEL. sin x2 (1) ROZWIĄZYWANIE UKŁADÓW RÓWNAŃ NIELINIOWYCH PRZY POMOCY DODATKU SOLVER PROGRAMU MICROSOFT EXCEL 1. Problem Rozważmy układ dwóch równań z dwiema niewiadomymi (x 1, x 2 ): 1 x1 sin x2 x2 cos x1 (1) Nie jest

Bardziej szczegółowo

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-03 Projekt pn. Wzmocnienie potencjału

Bardziej szczegółowo

Obliczenia inspirowane Naturą

Obliczenia inspirowane Naturą Obliczenia inspirowane Naturą Wykład 02 Jarosław Miszczak IITiS PAN Gliwice 06/10/2016 1 / 31 Czego dowiedzieliśmy się na poprzednim wykładzie? 1... 2... 3... 2 / 31 1 2 3 3 / 31 to jeden z pierwszych

Bardziej szczegółowo

METODY SZTUCZNEJ INTELIGENCJI 2 Opis projektu

METODY SZTUCZNEJ INTELIGENCJI 2 Opis projektu Kamil Figura Krzysztof Kaliński Bartek Kutera METODY SZTUCZNEJ INTELIGENCJI 2 Opis projektu Porównanie metod uczenia z rodziny TD z algorytmem Layered Learning na przykładzie gry w warcaby i gry w anty-warcaby

Bardziej szczegółowo

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar... 1. Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar... 1. Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16 Spis treści Przedmowa.......................... XI Rozdział 1. Pomiar: jednostki miar................. 1 1.1. Wielkości fizyczne i pozafizyczne.................. 1 1.2. Spójne układy miar. Układ SI i jego

Bardziej szczegółowo

Modele i narzędzia optymalizacji w systemach informatycznych zarządzania

Modele i narzędzia optymalizacji w systemach informatycznych zarządzania Politechnika Poznańska Modele i narzędzia optymalizacji w systemach informatycznych zarządzania Joanna Józefowska POZNAŃ 2010/11 Spis treści Rozdział 1. Metoda programowania dynamicznego........... 5

Bardziej szczegółowo

przy warunkach początkowych: 0 = 0, 0 = 0

przy warunkach początkowych: 0 = 0, 0 = 0 MODELE MATEMATYCZNE UKŁADÓW DYNAMICZNYCH Podstawową formą opisu procesów zachodzących w członach lub układach automatyki jest równanie ruchu - równanie dynamiki. Opisuje ono zależność wielkości fizycznych,

Bardziej szczegółowo

Jakość uczenia i generalizacja

Jakość uczenia i generalizacja Jakość uczenia i generalizacja Dokładność uczenia Jest koncepcją miary w jakim stopniu nasza sieć nauczyła się rozwiązywać określone zadanie Dokładność mówi na ile nauczyliśmy się rozwiązywać zadania które

Bardziej szczegółowo

SIEĆ NEURONOWA JAKO NARZĘDZIE APROKSYMACJI I KLASYFIKACJI DANYCH. Jakub Karbowski Gimnazjum nr 17 w Krakowie

SIEĆ NEURONOWA JAKO NARZĘDZIE APROKSYMACJI I KLASYFIKACJI DANYCH. Jakub Karbowski Gimnazjum nr 17 w Krakowie SIEĆ NEURONOWA JAKO NARZĘDZIE APROKSYMACJI I KLASYFIKACJI DANYCH Jakub Karbowski Gimnazjum nr 17 w Krakowie KRAKÓW 2017 1. Spis treści 2. WSTĘP 2 3. SIECI NEURONOWE 2 3.1. Co to są sieci neuronowe... 2

Bardziej szczegółowo

W naukach technicznych większość rozpatrywanych wielkości możemy zapisać w jednej z trzech postaci: skalara, wektora oraz tensora.

W naukach technicznych większość rozpatrywanych wielkości możemy zapisać w jednej z trzech postaci: skalara, wektora oraz tensora. 1. Podstawy matematyki 1.1. Geometria analityczna W naukach technicznych większość rozpatrywanych wielkości możemy zapisać w jednej z trzech postaci: skalara, wektora oraz tensora. Skalarem w fizyce nazywamy

Bardziej szczegółowo

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe JOANNA GRABSKA-CHRZĄSTOWSKA Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA BUDOWA RZECZYWISTEGO NEURONU

Bardziej szczegółowo

Regulator PID w sterownikach programowalnych GE Fanuc

Regulator PID w sterownikach programowalnych GE Fanuc Regulator PID w sterownikach programowalnych GE Fanuc Wykład w ramach przedmiotu: Sterowniki programowalne Opracował na podstawie dokumentacji GE Fanuc dr inż. Jarosław Tarnawski Cel wykładu Przypomnienie

Bardziej szczegółowo

LEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów

LEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów LEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów Łukasz Piątek, Jerzy W. Grzymała-Busse Katedra Systemów Ekspertowych i Sztucznej Inteligencji, Wydział Informatyki

Bardziej szczegółowo

Sieci neuronowe i ich ciekawe zastosowania. Autor: Wojciech Jamrozy III rok SMP / Informatyka

Sieci neuronowe i ich ciekawe zastosowania. Autor: Wojciech Jamrozy III rok SMP / Informatyka Sieci neuronowe i ich ciekawe zastosowania Autor: Wojciech Jamrozy III rok SMP / Informatyka Klasyczna algorytmika Sortowanie ciągu liczb Czy i ile razy dane słowo wystąpiło w tekście Najkrótsza droga

Bardziej szczegółowo

WYBÓR PUNKTÓW POMIAROWYCH

WYBÓR PUNKTÓW POMIAROWYCH Scientific Bulletin of Che lm Section of Technical Sciences No. 1/2008 WYBÓR PUNKTÓW POMIAROWYCH WE WSPÓŁRZĘDNOŚCIOWEJ TECHNICE POMIAROWEJ MAREK MAGDZIAK Katedra Technik Wytwarzania i Automatyzacji, Politechnika

Bardziej szczegółowo

ALGORYTM RANDOM FOREST

ALGORYTM RANDOM FOREST SKRYPT PRZYGOTOWANY NA ZAJĘCIA INDUKOWANYCH REGUŁ DECYZYJNYCH PROWADZONYCH PRZEZ PANA PAWŁA WOJTKIEWICZA ALGORYTM RANDOM FOREST Katarzyna Graboś 56397 Aleksandra Mańko 56699 2015-01-26, Warszawa ALGORYTM

Bardziej szczegółowo

Mathcad c.d. - Macierze, wykresy 3D, rozwiązywanie równań, pochodne i całki, animacje

Mathcad c.d. - Macierze, wykresy 3D, rozwiązywanie równań, pochodne i całki, animacje Mathcad c.d. - Macierze, wykresy 3D, rozwiązywanie równań, pochodne i całki, animacje Opracował: Zbigniew Rudnicki Powtórka z poprzedniego wykładu 2 1 Dokument, regiony, klawisze: Dokument Mathcada realizuje

Bardziej szczegółowo

Instrukcja realizacji ćwiczenia

Instrukcja realizacji ćwiczenia SIEĆ KOHONENA ROZPOZNAWANIE OBRAZÓW Cel ćwiczenia: zapoznanie się ze sposobem reprezentacji wiedzy w sieciach Kohonena i mechanizmami sąsiedztwa i sumienia neuronów. Zadanie do analizy: analizujemy sieć

Bardziej szczegółowo

Algorytmiczne sieci neuronowe idea działania, słabe i mocne strony

Algorytmiczne sieci neuronowe idea działania, słabe i mocne strony Patryk DUŃSKI Wydział Informatyki, Zachodniopomorski Uniwersytet Technologiczny w Szczecinie E mail: pdunski@wi.zut.edu.pl Algorytmiczne sieci neuronowe idea działania, słabe i mocne strony Streszczenie:

Bardziej szczegółowo

WYKORZYSTANIE SZTUCZNYCH SIECI NEURONOWYCH W PROGNOZOWANIU

WYKORZYSTANIE SZTUCZNYCH SIECI NEURONOWYCH W PROGNOZOWANIU WYKORZYSTANIE SZTUCZNYCH SIECI NEURONOWYCH W PROGNOZOWANIU THE USE OF ARTIFICIAL NEURAL NETWORKS IN FORECASTING Konrad BAJDA, Sebastian PIRÓG Resume Artykuł opisuje wykorzystanie sztucznych sieci neuronowych

Bardziej szczegółowo

Data Mining Wykład 9. Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster. Plan wykładu. Sformułowanie problemu

Data Mining Wykład 9. Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster. Plan wykładu. Sformułowanie problemu Data Mining Wykład 9 Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster Plan wykładu Wprowadzanie Definicja problemu Klasyfikacja metod grupowania Grupowanie hierarchiczne Sformułowanie problemu

Bardziej szczegółowo

Definicje. Algorytm to:

Definicje. Algorytm to: Algorytmy Definicje Algorytm to: skończony ciąg operacji na obiektach, ze ściśle ustalonym porządkiem wykonania, dający możliwość realizacji zadania określonej klasy pewien ciąg czynności, który prowadzi

Bardziej szczegółowo

MODELOWANIE POŁĄCZEŃ TYPU SWORZEŃ OTWÓR ZA POMOCĄ MES BEZ UŻYCIA ANALIZY KONTAKTOWEJ

MODELOWANIE POŁĄCZEŃ TYPU SWORZEŃ OTWÓR ZA POMOCĄ MES BEZ UŻYCIA ANALIZY KONTAKTOWEJ Jarosław MAŃKOWSKI * Andrzej ŻABICKI * Piotr ŻACH * MODELOWANIE POŁĄCZEŃ TYPU SWORZEŃ OTWÓR ZA POMOCĄ MES BEZ UŻYCIA ANALIZY KONTAKTOWEJ 1. WSTĘP W analizach MES dużych konstrukcji wykonywanych na skalę

Bardziej szczegółowo

Analiza korespondencji

Analiza korespondencji Analiza korespondencji Kiedy stosujemy? 2 W wielu badaniach mamy do czynienia ze zmiennymi jakościowymi (nominalne i porządkowe) typu np.: płeć, wykształcenie, status palenia. Punktem wyjścia do analizy

Bardziej szczegółowo

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe wykład 1. Właściwości sieci neuronowych Model matematyczny sztucznego neuronu Rodzaje sieci neuronowych Przegląd d głównych g

Bardziej szczegółowo

Uczenie sieci neuronowych i bayesowskich

Uczenie sieci neuronowych i bayesowskich Wstęp do metod sztucznej inteligencji www.mat.uni.torun.pl/~piersaj 2009-01-22 Co to jest neuron? Komputer, a mózg komputer mózg Jednostki obliczeniowe 1-4 CPU 10 11 neuronów Pojemność 10 9 b RAM, 10 10

Bardziej szczegółowo

Metody sztucznej inteligencji

Metody sztucznej inteligencji Metody sztucznej inteligencji sztuczne sieci neuronowe - wstęp dr hab. inż. Andrzej Obuchowicz, prof. UZ Instytut Sterowania i Systemów Informatycznych Uniwersytet Zielonogórski A. Obuchowicz Metody sztucznej

Bardziej szczegółowo

KOMPUTEROWY MODEL UKŁADU STEROWANIA MIKROKLIMATEM W PRZECHOWALNI JABŁEK

KOMPUTEROWY MODEL UKŁADU STEROWANIA MIKROKLIMATEM W PRZECHOWALNI JABŁEK Inżynieria Rolnicza 8(117)/2009 KOMPUTEROWY MODEL UKŁADU STEROWANIA MIKROKLIMATEM W PRZECHOWALNI JABŁEK Ewa Wachowicz, Piotr Grudziński Katedra Automatyki, Politechnika Koszalińska Streszczenie. W pracy

Bardziej szczegółowo

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18 Eksploracja Danych wykład 4 Sebastian Zając WMP.SNŚ UKSW 10 maja 2017 Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja 2017 1 / 18 Klasyfikacja danych Klasyfikacja Najczęściej stosowana (najstarsza)

Bardziej szczegółowo

ANALIZA WYNIKÓW NAUCZANIA W GIMNAZJUM NR 3 Z ZASTOSOWANIEM KALKULATORA EWD 100 ROK 2013

ANALIZA WYNIKÓW NAUCZANIA W GIMNAZJUM NR 3 Z ZASTOSOWANIEM KALKULATORA EWD 100 ROK 2013 ANALIZA WYNIKÓW NAUCZANIA W GIMNAZJUM NR 3 Z ZASTOSOWANIEM KALKULATORA EWD 100 ROK 2013 OPRACOWAŁY: ANNA ANWAJLER MARZENA KACZOR DOROTA LIS 1 WSTĘP W analizie wykorzystywany będzie model szacowania EWD.

Bardziej szczegółowo

OPTYMALIZACJA HARMONOGRAMOWANIA MONTAŻU SAMOCHODÓW Z ZASTOSOWANIEM PROGRAMOWANIA W LOGICE Z OGRANICZENIAMI

OPTYMALIZACJA HARMONOGRAMOWANIA MONTAŻU SAMOCHODÓW Z ZASTOSOWANIEM PROGRAMOWANIA W LOGICE Z OGRANICZENIAMI Autoreferat do rozprawy doktorskiej OPTYMALIZACJA HARMONOGRAMOWANIA MONTAŻU SAMOCHODÓW Z ZASTOSOWANIEM PROGRAMOWANIA W LOGICE Z OGRANICZENIAMI Michał Mazur Gliwice 2016 1 2 Montaż samochodów na linii w

Bardziej szczegółowo

WYDZIAŁ ELEKTROTECHNIKI, AUTOMATYKI I INFORMATYKI INSTYTUT AUTOMATYKI I INFORMATYKI KIERUNEK AUTOMATYKA I ROBOTYKA STUDIA STACJONARNE I STOPNIA

WYDZIAŁ ELEKTROTECHNIKI, AUTOMATYKI I INFORMATYKI INSTYTUT AUTOMATYKI I INFORMATYKI KIERUNEK AUTOMATYKA I ROBOTYKA STUDIA STACJONARNE I STOPNIA WYDZIAŁ ELEKTROTECHNIKI, AUTOMATYKI I INFORMATYKI INSTYTUT AUTOMATYKI I INFORMATYKI KIERUNEK AUTOMATYKA I ROBOTYKA STUDIA STACJONARNE I STOPNIA PRZEDMIOT : : LABORATORIUM PODSTAW AUTOMATYKI 9. Dobór nastaw

Bardziej szczegółowo

Wykład 4: Statystyki opisowe (część 1)

Wykład 4: Statystyki opisowe (część 1) Wykład 4: Statystyki opisowe (część 1) Wprowadzenie W przypadku danych mających charakter liczbowy do ich charakterystyki można wykorzystać tak zwane STATYSTYKI OPISOWE. Za pomocą statystyk opisowych można

Bardziej szczegółowo

Sztuczne siei neuronowe - wprowadzenie

Sztuczne siei neuronowe - wprowadzenie Metody Sztucznej Inteligencji w Sterowaniu Ćwiczenie 2 Sztuczne siei neuronowe - wprowadzenie Przygotował: mgr inż. Marcin Pelic Instytut Technologii Mechanicznej Politechnika Poznańska Poznań, 2 Wstęp

Bardziej szczegółowo

OpenAI Gym. Adam Szczepaniak, Kamil Walkowiak

OpenAI Gym. Adam Szczepaniak, Kamil Walkowiak OpenAI Gym Adam Szczepaniak, Kamil Walkowiak Plan prezentacji Programowanie agentowe Uczenie przez wzmacnianie i problemy związane z rozwojem algorytmów Charakterystyka OpenAI Gym Biblioteka gym Podsumowanie

Bardziej szczegółowo

ANALIZA ZDOLNOŚCI PROCESU O ZALEŻNYCH CHARAKTERYSTYKACH

ANALIZA ZDOLNOŚCI PROCESU O ZALEŻNYCH CHARAKTERYSTYKACH Małgorzata Szerszunowicz Uniwersytet Ekonomiczny w Katowicach ANALIZA ZDOLNOŚCI PROCESU O ZALEŻNYCH CHARAKTERYSTYKACH Wprowadzenie Statystyczna kontrola jakości ma na celu doskonalenie procesu produkcyjnego

Bardziej szczegółowo

PLAN REALIZACJI MATERIAŁU NAUCZANIA Z INFORMATYKI II. Uczeń umie: Świadomie stosować się do zasad regulaminów (P).

PLAN REALIZACJI MATERIAŁU NAUCZANIA Z INFORMATYKI II. Uczeń umie: Świadomie stosować się do zasad regulaminów (P). PLAN REALIZACJI MATERIAŁU NAUCZANIA Z INFORMATYKI II DZIAŁ I: KOMPUTER W ŻYCIU CZŁOWIEKA. 1. Lekcja organizacyjna. Zapoznanie uczniów z wymaganiami edukacyjnymi i PSP. 2. Przykłady zastosowań komputerów

Bardziej szczegółowo

Numeryczna symulacja rozpływu płynu w węźle

Numeryczna symulacja rozpływu płynu w węźle 231 Prace Instytutu Mechaniki Górotworu PAN Tom 7, nr 3-4, (2005), s. 231-236 Instytut Mechaniki Górotworu PAN Numeryczna symulacja rozpływu płynu w węźle JERZY CYGAN Instytut Mechaniki Górotworu PAN,

Bardziej szczegółowo

Technologia informacyjna Algorytm Janusz Uriasz

Technologia informacyjna Algorytm Janusz Uriasz Technologia informacyjna Algorytm Janusz Uriasz Algorytm Algorytm - (łac. algorithmus); ścisły przepis realizacji działań w określonym porządku, system operacji, reguła komponowania operacji, sposób postępowania.

Bardziej szczegółowo

Algorytm. Krótka historia algorytmów

Algorytm. Krótka historia algorytmów Algorytm znaczenie cybernetyczne Jest to dokładny przepis wykonania w określonym porządku skończonej liczby operacji, pozwalający na rozwiązanie zbliżonych do siebie klas problemów. znaczenie matematyczne

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY

METODY INŻYNIERII WIEDZY METODY INŻYNIERII WIEDZY WALIDACJA KRZYŻOWA dla ZAAWANSOWANEGO KLASYFIKATORA KNN ĆWICZENIA Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Bardziej szczegółowo

ANALIZA WYNIKÓW NAUCZANIA W GIMNAZJUM NR 3 Z ZASTOSOWANIEM KALKULATORA EWD 100 ROK 2012

ANALIZA WYNIKÓW NAUCZANIA W GIMNAZJUM NR 3 Z ZASTOSOWANIEM KALKULATORA EWD 100 ROK 2012 ANALIZA WYNIKÓW NAUCZANIA W GIMNAZJUM NR 3 Z ZASTOSOWANIEM KALKULATORA EWD 100 ROK 2012 OPRACOWAŁY: ANNA ANWAJLER MARZENA KACZOR DOROTA LIS 1 WSTĘP W analizie wykorzystywany będzie model szacowania EWD.

Bardziej szczegółowo

INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Temat: Podstawowe pojęcia z logiki rozmytej Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sterowanie

Bardziej szczegółowo

Politechnika Warszawska Wydział Samochodów i Maszyn Roboczych Instytut Podstaw Budowy Maszyn Zakład Mechaniki

Politechnika Warszawska Wydział Samochodów i Maszyn Roboczych Instytut Podstaw Budowy Maszyn Zakład Mechaniki Politechnika Warszawska Wydział Samochodów i Maszyn Roboczych Instytut Podstaw Budowy Maszyn Zakład Mechaniki http://www.ipbm.simr.pw.edu.pl/ Teoria maszyn i podstawy automatyki semestr zimowy 206/207

Bardziej szczegółowo

ZASTOSOWANIE TECHNOLOGII WIRTUALNEJ RZECZYWISTOŚCI W PROJEKTOWANIU MASZYN

ZASTOSOWANIE TECHNOLOGII WIRTUALNEJ RZECZYWISTOŚCI W PROJEKTOWANIU MASZYN MODELOWANIE INŻYNIERSKIE ISSN 1896-771X 37, s. 141-146, Gliwice 2009 ZASTOSOWANIE TECHNOLOGII WIRTUALNEJ RZECZYWISTOŚCI W PROJEKTOWANIU MASZYN KRZYSZTOF HERBUŚ, JERZY ŚWIDER Instytut Automatyzacji Procesów

Bardziej szczegółowo

TP1 - TABELE PRZESTAWNE od A do Z

TP1 - TABELE PRZESTAWNE od A do Z TP1 - TABELE PRZESTAWNE od A do Z Program szkolenia 1. Tabele programu Excel 1.1. Wstawianie tabeli 1.2. Style tabeli 1.3. Właściwości tabeli 1.4. Narzędzia tabel 1.4.1. Usuń duplikaty 1.4.2. Konwertuj

Bardziej szczegółowo

Badania operacyjne: Wykład Zastosowanie kolorowania grafów w planowaniu produkcji typu no-idle

Badania operacyjne: Wykład Zastosowanie kolorowania grafów w planowaniu produkcji typu no-idle Badania operacyjne: Wykład Zastosowanie kolorowania grafów w planowaniu produkcji typu no-idle Paweł Szołtysek 12 czerwca 2008 Streszczenie Planowanie produkcji jest jednym z problemów optymalizacji dyskretnej,

Bardziej szczegółowo

Informacje i materiały dotyczące wykładu będą publikowane na stronie internetowej wykładowcy, m.in. prezentacje z wykładów

Informacje i materiały dotyczące wykładu będą publikowane na stronie internetowej wykładowcy, m.in. prezentacje z wykładów Eksploracja danych Piotr Lipiński Informacje ogólne Informacje i materiały dotyczące wykładu będą publikowane na stronie internetowej wykładowcy, m.in. prezentacje z wykładów UWAGA: prezentacja to nie

Bardziej szczegółowo

Algorytmika i pseudoprogramowanie

Algorytmika i pseudoprogramowanie Przedmiotowy system oceniania Zawód: Technik Informatyk Nr programu: 312[ 01] /T,SP/MENiS/ 2004.06.14 Przedmiot: Programowanie Strukturalne i Obiektowe Klasa: druga Dział Dopuszczający Dostateczny Dobry

Bardziej szczegółowo

System wspomagania harmonogramowania przedsięwzięć budowlanych

System wspomagania harmonogramowania przedsięwzięć budowlanych System wspomagania harmonogramowania przedsięwzięć budowlanych Wojciech Bożejko 1 Zdzisław Hejducki 2 Mariusz Uchroński 1 Mieczysław Wodecki 3 1 Instytut Informatyki, Automatyki i Robotyki Politechnika

Bardziej szczegółowo

Sterowanie wielkością zamówienia w Excelu - cz. 3

Sterowanie wielkością zamówienia w Excelu - cz. 3 Sterowanie wielkością zamówienia w Excelu - cz. 3 21.06.2005 r. 4. Planowanie eksperymentów symulacyjnych Podczas tego etapu ważne jest określenie typu rozkładu badanej charakterystyki. Dzięki tej informacji

Bardziej szczegółowo

ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH

ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH Transport, studia I stopnia Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać ogólna równania nieliniowego Często występującym, ważnym problemem obliczeniowym

Bardziej szczegółowo

OBIEKTY TECHNICZNE OBIEKTY TECHNICZNE

OBIEKTY TECHNICZNE OBIEKTY TECHNICZNE OBIEKTY TECHNICZNE Klawisze skrótów: F7 wywołanie zapytania (% - zastępuje wiele znaków _ - zastępuje jeden znak F8 wyszukanie według podanych kryteriów (system rozróżnia małe i wielkie litery) F9 wywołanie

Bardziej szczegółowo

Zadania badawcze prowadzone przez Zakład Technik Programowania:

Zadania badawcze prowadzone przez Zakład Technik Programowania: Zadania badawcze prowadzone przez Zakład Technik Programowania: - Opracowanie metod zrównoleglania programów sekwencyjnych o rozszerzonym zakresie stosowalności. - Opracowanie algorytmów obliczenia tranzytywnego

Bardziej szczegółowo

Badania biegłości laboratorium poprzez porównania międzylaboratoryjne

Badania biegłości laboratorium poprzez porównania międzylaboratoryjne Badania biegłości laboratorium poprzez porównania międzylaboratoryjne Dr inż. Maciej Wojtczak, Politechnika Łódzka Badanie biegłości (ang. Proficienty testing) laboratorium jest to określenie, za pomocą

Bardziej szczegółowo

PRZEWODNIK PO PRZEDMIOCIE

PRZEWODNIK PO PRZEDMIOCIE Nazwa przedmiotu: Kierunek: Informatyka Rodzaj przedmiotu: moduł specjalności obowiązkowy: Inżynieria oprogramowania, Sieci komputerowe Rodzaj zajęć: wykład, laboratorium MODELOWANIE I SYMULACJA Modelling

Bardziej szczegółowo

Algorytm indukcji klasyfikatora za pomocą EA z automatycznym przełączaniem ukierunkowań

Algorytm indukcji klasyfikatora za pomocą EA z automatycznym przełączaniem ukierunkowań Algorytm indukcji klasyfikatora za pomocą EA z automatycznym przełączaniem ukierunkowań Anna Manerowska, Michal Kozakiewicz 2.12.2009 1 Wstęp Jako projekt na przedmiot MEUM (Metody Ewolucyjne Uczenia Maszyn)

Bardziej szczegółowo