Metody Informatyki Stosowanej
|
|
- Joanna Karczewska
- 8 lat temu
- Przeglądów:
Transkrypt
1 Polska Akademia Nauk Oddział w Gdańsku Komisja Informatyki Metody Informatyki Stosowanej Nr 3/2009 (20) Szczecin 2009
2 Metody Informatyki Stosowanej Kwartalnik Komisji Informatyki Polskiej Akademii Nauk Oddział w Gdańsku Komitet Naukowy: Przewodniczący: prof. dr hab. inż. Henryk Krawczyk, czł. koresp. PAN, Politechnika Gdańska Członkowie: prof. dr hab. inż. Michał Białko, czł. rzecz. PAN, Politechnika Koszalińska prof. dr hab. inż. Ludosław Drelichowski, Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy prof. dr hab. inż. Janusz Kacprzyk, czł. koresp. PAN, Instytut Badań Systemowych PAN prof. dr hab. Jan Madey, Uniwersytet Warszawski prof. dr hab. inż. Leszek Rutkowski, czł. koresp. PAN, Politechnika Częstochowska prof. dr hab. inż. Piotr Sienkiewicz, Akademia Obrony Narodowej prof. dr inż. Jerzy Sołdek, Zachodniopomorska Szkoła Biznesu w Szczecinie prof. dr hab. inż. Andrzej Straszak, Instytut Badań Systemowych PAN prof. dr hab. Maciej M. Sysło, Uniwersytet Wrocławski Recenzenci współpracujący z redakcją: Marian Adamski, Zbigniew Banaszak, Alexander Barkalov, Włodzimierz Bielecki, Janusz Bobulski, Piotr Bubacz, Ryszard Budziński, Henryk Budzisz, Dariusz Burak, Jacek Czarnecki, Andrzej Czyżewski, Ludosław Drelichowski, Piotr Dziurzański, Witold Dzwinel, Imed El Frey, Mykhaylo Fedorov, Paweł Forczmański, Dariusz Frejlichowski, Krzysztof Giaro, Larysa Globa, Zbigniew Gmyrek, Janusz Górski, Stanisław Grzegórski, Volodymyr Harbarchuk, Volodymyr Hrytsyk, Wojciech Jędruch, Aleksander Katkow, Przemysław Klęsk, Shinya Kobayashi, Leonid Kompanets, Józef Korbicz, Jerzy Korostil, Marcin Korzeń, Georgy Kukharev, Mieczysław Kula, Eugeniusz Kuriata, Emma Kusztina, Małgorzata Łatuszyńska, Wiesław Madej, Wojciech Maleika, Oleg Mashkov, Oleg Maslennikow, Karol Myszkowski, Evgeny Ochin, Krzysztof Okarma, Piotr Pechmann, Jerzy Pejaś, Andrzej Pieczyński, Andrzej Piegat, Mateusz Piwowarski, Marcin Pluciński, Jacek Pomykała, Orest Popov, Remigiusz Rak, Valeriy Rogoza, Leszek Rutkowski, Khalid Saeed, Jerzy Sołdek, Boris Sovetov, Marek Stabrowski, Andrzej Stateczny, Janusz Stokłosa, Alexander Ţariov, Leszek Trybus, Andrzej Tujaka, Zenon Ulman, Andrzej Walczak, Jarosław Wątróbski, Sławomir Wiak, Antoni Wiliński, Waldemar Wolski, Waldemar Wójcik, Oleg Zaikin, Zenon Zwierzewicz Redaktor Naczelny: Antoni Wiliński Sekretarz redakcji: Piotr Czapiewski ISSN Wydawnictwo: Polska Akademia Nauk Oddział w Gdańsku, Komisja Informatyki Adres kontaktowy: ul. Żołnierska 49 p. 104, Szczecin, pan@wi.zut.edu.pl Druk: Pracownia Poligraficzna Wydziału Informatyki Zachodniopomorskiego Uniwersytetu Technologicznego w Szczecinie Nakład 510 egz.
3 Spis treści Jacek Bartman REGUŁA PID UCZENIA SZTUCZNYCH NEURONÓW... 5 Piotr Byszewski, Anna Tomaszewska REALISTYCZNA ORAZ SZYBKA WIZUALIZACJA ALGORYTMU ZACHOWANIA SIĘ TŁUMU W OBLICZU PANIKI Luiza Fabisiak EKSPLORACJA DANYCH W SERWISACH INTERNETOWYCH Mykhailo Fedorov ON PARALLEL IMPLEMENTATION OF A STEADY STATE THERMAL AND HYDRAULIC ANALYSIS OF PIPE NETWORKS IN OPENMP Włodzimierz Filipowicz STRUKTURY PRZEKONAŃ I ICH ZASTOSOWANIE W NAWIGACJI Dariusz Frejlichowski REPREZENTACJA KSZTAŁTU 3D OPARTA NA DESKRYPTORZE EGI NA POTRZEBY INDEKSOWANIA Sławomir Jaszczak, Mariusz Dramski, Mariusz Matejski SYMULACJA I TESTOWANIE UKŁADU STEROWANIA RUCHEM POJAZDU PODWODNEGO METODĄ HIL Georgy Kukharev, Ekaterina Kamenskaya TWO-DIMENSIONAL CANONICAL CORRELATION ANALYSIS FOR FACE IMAGE PROCESSING AND RECOGNITION Krzysztof Małecki, Jarosław Wątróbski THE EFFECTIVENESS OF LANE SELECTION IN ROUNDABOUT Wojciech Maleika SEMANTIC DATA DESCRIPTION IN CONTENT MANAGEMENT SYSTEMS Marcin W. Mastalerz, Zygmund Drążek PROCEDURA WYBORU WARIANTU E-LEARNINGU W SZKOLE WYŻSZEJ W OPARCIU O HIERARCHICZNĄ ANALIZĘ PROBLEMU Leszek Misztal WYKORZYSTANIE NAIWNEGO ALGORYTMU BAYES A W ZADANIU KLASYFIKACJI PODATNIKÓW Antoni Nowakowski, Tomasz Klasa EVALUATION OF INFORMATION SYSTEMS RISK TREATMENT EFFICIENCY PROPOSAL Łukasz Nozdrzykowski ANALIZA ISTOTNOŚCI MIAR OBRAZU WPŁYWAJĄCYCH NA ZMNIEJSZENIE ZNIEKSZTAŁCEŃ SPOWODOWANYCH STEGANOGRAFICZNYM UKRYWANIEM WIADOMOŚCI W OBRAZACH W OPARCIU O FUNKCJĘ CSF Andrzej Piegat, Marcin Olchowy CZY ISTNIEJE OPTYMALNA FORMA EKSPERCKIEGO MODELU ROZMYTEGO? Marcin Pluciński MODULAR FUZZY SYSTEMS THE COMPARISON OF TWO DIFFERENT APPROACHES
4 Edward Półrolniczak SEGMENTACJA ELEMENTÓW ZNAKÓW TABLIC REJESTRACYJNYCH Z WYKORZYSTANIEM STATYSTYCZNEGO ŁĄCZENIA REGIONÓW Artur Sosnówka RÓWNOLEGŁE PRZETWARZANIE NIEREGULARNYCH ZAGNIEŻDŻONYCH PĘTLI PROGRAMOWYCH Grzegorz Ulacha ZASTOSOWANIE GRADIENTOWO ZALEŻNEJ PREDYKCJI LINIOWEJ DO BEZSTRATNEJ KOMPRESJI OBRAZÓW Abdullah Zair WYBRANE ASPEKTY ZASTOSOWAŃ METOD OPTYMALIZACJI W SYSTEMACH WSPOMAGANIA DECYZJI NA PRZYKŁADZIE ODDZIAŁU CHIRURGII
5 Reguła PID uczenia sztucznych neuronów Jacek Bartman Uniwersytet Rzeszowski, Wydział Matematyczno-Przyrodniczy, Instytut Techniki Abstract: The training of artificial neural networks and strictly related with them artificial neurons are still interesting research areas. A new artificial neurons learning rule PID algorithm has been proposed in this paper. The rule presentation is preceded by brief analysis of the learning algorithms. Their mathematical formulas and short characteristics are presented. The paper compares neurons learning effectiveness of PID algorithm and widely used Delta algorithm. The first results have shown that the demonstrated rule can have better performance and can be less sensitive for choice of learning algorithms. It makes this method very promising for further research. Keywords: artificial neural net, learning rule, PID rule 1. Wprowadzenie Przebieg procesu uczenia sztucznej sieci neuronowej ma charakter stochastyczny, a więc w pewnym zakresie nieprzewidywalny, ta słabość jest jednocześnie największą siłą SSN siłą z której wynika bardzo ważna cecha: sieć może rozwiązywać zadania, których my sami nie potrafimy rozwiązać lub których nie potrafimy zapisać przy pomocy klasycznego aparatu matematycznego. Cała wiedza jaką posiada sieć neuronowa zgromadzona jest w wagach poszczególnych neuronów, a sam proces uczenia polega na modyfikacji wartości tych wag wg określonego algorytmu [2]. Czy jest różnica pomiędzy uczeniem sieci a uczeniem pojedynczego neuronu, czy jest możliwe rozdzielenie tych procesów i potraktowanie osobno? Wydaje się, że tak, warto jednak byłoby wprowadzić jednoznaczną nomenklaturę nazywając uczenie pojedynczych neuronów regułami uczenia, a uczenie całej sieci metodami uczenia. Oczywiście elementem uczenia sieci jest uczenie neuronów, a więc metoda uczenia wykorzystuje regułę bądź reguły uczenia. Reguły uczenia to po prostu opis w jaki sposób modyfikować wagi neuronu, a metody uczenia to opis jak korzystać z reguł uczenia neuronów, jak wyznaczyć wymagane przez nie parametry. Ze względu na rodzaj algorytmu (wzorów), według których w procesie uczenia dokonuje się modyfikacji wag synaptycznych, wyróżnia się szereg reguł uczenia. Niektóre z tych reguł odnoszą się do trybu uczenia z nauczycielem, a niektóre do uczenia bez nauczyciela [9] (rys. 1). Wartość wyjścia neuronu, można zapisać zależnością: y f ( u ) f n i0 w i x i f w T x (1) Metody Informatyki Stosowanej, nr 3/2009 (20), s ISSN Polska Akademia Nauk Oddział w Gdańsku, Komisja Informatyki
6 6 Jacek Bartman T gdzie: 1, x1,x2...xn x0,x1,x2... xn T T,w,w...w w,w,w... w T x wektor sygnałów wejściowych; w b 1 2 n n wektor wag synaptycznych; u potencjał membranowy neuronu. Analiza formuły (1) prowadzi do wniosku, że sztuczny neuron jest elementem realizującym funkcję dwóch zmiennych wektorowych przekształcającym sygnał z przestrzeni n- wymiarowej w przestrzeń jednowymiarową [1]. Przekształcenie wartości z przestrzeni n- wymiarowej w przestrzeń jednowymiarowa odbywa się w bloku sumującym, blok aktywacji nie zmienia wymiarowości a jedynie wartość sygnału. Funkcja przejścia f determinuje zachowanie neuronu, najczęściej stosuje się funkcje typu tangens hiperboliczny lub sinus hiperboliczny gdyż właśnie one najlepiej oddają działanie neuronów biologicznych. Rzadziej wykorzystywane są funkcje: liniowa, bipolarna czy unipolarna, a zastosowanie jeszcze innych funkcji przejścia jest zupełnie marginalne. 2. Uczenie pojedynczego sztucznego neuronu. Reguły uczenia Uczenie neuronu ma na celu dobór takich wartości wag, dla których odpowiedzi elementu są optymalne wedle pewnego przyjętego kryterium - określonego przez odpowiednio zdefiniowaną funkcję celu, której wartość ustala punkt stopu. Uczenie może odbywać się w trybie nadzorowanym (z nauczycielem) lub nienadzorowanym (bez nauczyciela). Uczenie nadzorowane może być stosowane tylko wtedy gdy znana jest oczekiwana odpowiedź neuronu (z), jeżeli oczekiwana odpowiedź nie jest znana wówczas można stosować tylko uczenie nienadzorowane (rys.1.). a) Sygnał wejściowy x Uczony neuron W Oczekiwana odpowiedź z Sygnał wyjściowy y ustalenie błędu =z-y Sygnał wejściowy x Uczony neuron W Sygnał wyjściowy y Rysunek 1. Schemat uczenia nadzorowanego (a) i nienadzorowanego (b) neuronu [9] Wielkość korekty wag zarówno dla uczenia nadzorowanego jak i uczenia nienadzorowanego można opisać zależnością: w( k 1 ) w( k ) w( k ) (2) gdzie wielkość w jest poszukiwaną wartością zmian wag, zaś parametr k wprowadzono w celu podkreśla, iż uczenie neuronu ma charakter iteracyjny. Ogólna zasada uczenia mówi, że korekta wag neuronu winna być proporcjonalna do iloczynu sygnału wejściowego x oraz sygnału uczącego r. Dla dowolnego neuronu regułę uczenia można zapisać wzorem: b) w( k ) r( k ) x( k ) (3)
7 Reguła PID uczenia sztucznych neuronów 7 gdzie: gdzie: współczynnik proporcjonalności (współczynnik uczenia), r sygnał uczący, zdefiniowany jako funkcja trzech zmiennych w - wektor wag neuronu; x - wektor wejściowy; z - sygnał nauczyciela (oczekiwana odpowiedź neuronu). r r w, x,z (4) Warto zauważyć, iż sygnał uczący r może być funkcją wektora wag neuronu, wektora wejściowego oraz sygnału będącego oczekiwaną odpowiedzią elementu. Nie jest wprost zaznaczone, że sygnał uczący może zależeć od odpowiedzi udzielonej przez uczony neuron, ale ponieważ odpowiedź neuronu jest funkcją wektora wag oraz wektora wejściowego (1) więc sygnał uczący również może być jego funkcją. Poniżej scharakteryzowano, znane podstawowe iteracyjne reguły uczenia (modyfikacji wag) sztucznych neuronów. W dalszej części pracy przedstawiono nową regułę uczenia neuronów tzw. regułę PID. Wszystkie przedstawione reguły różnią się jedynie sygnałem uczącym r() Reguła Hebba Reguła umożliwia uczenie w trybie nienadzorowanym i stanowi praktyczną realizację znanej obserwacji z zakresu neurologii odnotowanej przez Hebba [2]: Jeżeli akson komórki A bierze systematycznie udział w pobudzaniu komórki B powodującym jej aktywację, to wywołuje to zmianę metaboliczną w jednej lub w obu komórkach, prowadzącą do wzrostu skuteczności pobudzania komórki B przez komórkę A. Tak sformułowana zasada pozwala jako sygnał uczący przyjąć wyjście neuronu: r y f x (5) wówczas zgodnie z zależnością (3) przyrost wektora wag wynosi: w T t w y x f w xx (6) Analiza zależności (6) prowadzi do wniosku, iż wzmocnieniu ulegają te wagi, których wejścia są aktywne (mają duże x) i towarzyszy im duża wartość odpowiedzi neuronu (y). Występuje wówczas autoasocjacja jeżeli pewien wzór wzbudzenia jest sygnalizowany przez pewne wyjcie y, to w miarę upływu czasu ta sygnalizacja staje się coraz wyraźniejsza. W konsekwencji reguła prowadzi do uzyskania najlepszej korelacji pomiędzy sygnałami wejściowymi, a zapamiętanym w wagach wzorcem. Wadą reguły jest to, iż prowadzi ona do nieograniczonego wzrostu wag. Reguła wymaga wstępnego ustawienia wag na wartości przypadkowe z otoczenia 0 (zera) Reguła korelacyjna Reguła korelacyjna stosowana jest do uczenia nadzorowanego, neuronów z dowolną funkcją aktywacji. Można ją uważać za odpowiednik reguły Hebba wykorzystywanej w uczeniu nienadzorowanym w regule Hebba sygnałem uczącym jest odpowiedź neuronu, a w regule korelacyjnej oczekiwana odpowiedź neuronu:
8 8 Jacek Bartman Korektę wektora wag opisuje zależność: Reguła wymaga przyjęcia zerowych początkowych wartości wag Reguła perceptronowa r z (7) w zx (8) Reguła perceptronowa została zaproponowana przez Rosenblatta w 1958 roku, do uczenia neuronów dyskretnych metodą nadzorowaną [6]. Sygnałem uczącym jest błąd popełniany przez neuron: r z y (9) Dla tak określonego sygnału uczącego zgodnie z zależnością (3) korektę wag można opisać wzorem: Wartości początkowe wag powinny być losowe Reguła Delta w z yx (10) Reguła została opublikowana przez McClellanda i Rumelharta w 1986 roku. Stosuje się ją dla neuronów z ciągłymi funkcjami aktywacji, uczonych w trybie nadzorowanym (z nauczycielem) [4]. Sygnał uczący - uzyskany w wyniku minimalizacji sumy kwadratów błędów - zwany tu sygnałem Delta, zdefiniowany jest w tej regule jako: def z yf w x T r (11) gdzie: δ - sygnał uczący Delta, właściwie jest to przeskalowany błąd neuronu; f x - pierwsza pochodna funkcji aktywacji neuronu. w T W regule tej - zgodnie ze wzorem (3) - przyrost wektora wag wynosi: T z y f w xx w (12) Reguła stanowi odpowiednik reguły perceptronowej dla neuronów o ciągłej funkcji aktywacji i dlatego bywa nazywana ciągłą funkcją perceptronową. Reguła Delta jest najpopularniejszym sposobem uczenia z nauczycielem, jej wielką zaletą jest możliwość uogólnienia zapisu na sieci wielowarstwowe. W regule tej wartości początkowe wag powinny być losowe.
9 Reguła PID uczenia sztucznych neuronów Reguła Widrowa-Hoffa (reguła LMS) Reguła Widrowa-Hoffa została zaproponowana w 1960 roku i odnosi się do uczenia nadzorowanego neuronów o dowolnych funkcjach aktywacji (ciągłych i nieciągłych). Regułę uzyskuje się minimalizując błąd średniokwadratowy pomiędzy oczekiwaną odpowiedzią neuronu, a jego potencjałem membranowym, dlatego nosi też ona nazwę reguły LMS - od nazwy metody optymalizacji - metoda najmniejszych kwadratów (least mean square). Sygnał uczący jest zdefiniowany jako: def r z u z x (13) Podstawiając powyższą zależność do wzoru (3) uzyskujemy wzór pozwalający wyznaczyć wielkość korekty wag neuronu: T w T w z w xx (14) Dla neuronów z liniową funkcją aktywacji reguła Widrowa-Hoffa stanowi szczególny przypadek reguły Delta, w literaturze można nawet spotkać tę regułę pod nazwą reguła delta [3]. W regule Widrowa-Hoff wartości początkowe wag powinny być losowe Algorytm Resilient BackPropagation (RPROP) Algorytm Resilient BP zaproponowali w 1992 roku Riedmiller oraz Braun postuluje on aby przyrost wag był zależny jedynie od znaku gradientu miary błędu (bez uwzględniania jego wartości): E wi i sgn (15) wi gdzie: E funkcja określająca błąd popełniany przez neuron (miara błędu). Charakterystyczną cechą algorytmu jest indywidualne potraktowanie wag neuronów. Otóż dla każdej wagi przypisany jest oddzielny współczynnik uczenia i, który jest modyfikowany w każdym kroku, według następującej zasady: gdy znaki kolejnych gradientów pozostają zgodne - współczynnik uczenia jest zwiększany, natomiast gdy są różne, jest on zmniejszany [6]. 3. Reguła PID Reguła PID odwołuje się do ogólnej zasady uczenia nakazującej aby korekta wag była proporcjonalna do sygnału uczącego r oraz wektora wejściowego x (3). Proponuje się, aby sygnał uczący uwzględniał błąd popełniany przez neuron, szybkość i kierunek zmian tegoż błędu oraz historię uczenia. W celu uwzględnienia wymienionych elementów wprowadza się sygnał uczący składający się z trzech elementów: składnika uwzględniającego błąd popełniany przez neuron, składnika uwzględniającego szybkość i kierunek zmian błędu, składnika uwzględniającego historię zmian.
10 10 Jacek Bartman Prowadzi to do następującej zależności opisującej sygnał uczący r 1 d K p t t dt Td Ti dt t (16) przy czym t zt yt (17) Zaproponowana zależność (16) prowadzi do skojarzenia sposobu wyliczania sygnału uczącego r ze sposobem wyznaczania sterowania w układach automatycznej regulacji. Zasadę wyznaczania sygnału uczącego pokazano na rys. 2. Rysunek 2. Ogólny schemat wyliczania sygnału uczącego w regule PID Wielkości występujące we wzorze (16) mają znaczenie identyczne jak wcześniej, a ponadto (wykorzystano kontekst z automatyki): błąd popełniany przez neuron; K p wzmocnienie; T i stała całkowania określająca wpływ członu całkującego na sygnał uczący definiuje wpływ historii uczenia na wartość sygnału uczącego; T d stała różniczkowania określająca wpływ członu różniczkującego na sygnał uczący definiuje wpływ szybkości zmian błędu na wartość sygnału uczącego. Uwzględniając zależność (16) we wzorze na korektę wag (3) uzyskujemy stosowny wzór dla reguły PID: 1 d w K p t t dt Td Ti dt t x (18) 3.1. Dyskretyzacja algorytmu PID Parametr t występujący w zależności (18) ma charakter ciągły, dlatego bezpośrednie jej zastosowanie do uczenia neuronów nie jest możliwe - gdyż proces uczenia sztucznych neuronów ma charakter iteracyjny - dlatego koniczne jest przeprowadzenie dyskretyzacji reguły PID. W tym celu całkę zastąpimy sumą:
11 Reguła PID uczenia sztucznych neuronów 11 t n k 0 k dt (19) zaś pochodną z błędu popełnianego przez neuron przybliżymy ilorazem różnicowym pierwszego rzędu: T s d( t ) ( k ) ( k 1) dt T s (20) Parametr T s stanowi odpowiednik okresu próbkowania czyli odstępu czasu pomiędzy pobieraniem kolejnych próbek, w przypadku uczenia sieci neuronowej będzie to pojedynczy krok iteracji. Po uwzględnieniu zależności (19) oraz (20) we wzorze na korektę wag (18) uzyskujemy w T n s T d K p k x k k k 1 (21) Ti T k 0 s Podstawiając (zastosowano te same nazwy parametrów gdyż podstawienie prowadzi jedynie do przeskalowania wartości): Ti Td K p, Ti, Td (22) T T uzyskujemy końcowy wzór opisujący korektę wag pojedynczego neuronu wg reguły PID: s n w 1 k x k Td t k 1 (23) Ti k 0 Zaproponowana metoda może być stosowana do uczenia nadzorowanego sztucznych neuronów. Wartości początkowe wag powinny być przypadkowe. 4. Wyniki badań symulacyjnych W celu wstępnego sprawdzenia efektywności zaproponowanej metody przeprowadzono uczenie pojedynczego neuronu reguł bramki NOR oraz przeprowadzono uczenie dla prostego zadania klasyfikacji. Uzyskane rezultaty zestawiono z rezultatami uzyskanymi przy zastosowaniu klasycznej reguły Delta oraz reguły Resilient BP (RPROP). Klasyczna reguła Delty jest metodą bardzo wolną, ale stanowi dobry punkt odniesienia do ogólnej oceny proponowanej reguły PID. Natomiast reguła Resilient BP jest metodą, która w obszarach niewielkiego nachylenia funkcji celu daje bardzo duże przyspieszenie procesu uczenia i pomimo niewielkiej złożoności obliczeniowej zaliczana jest do szybszych metod uczenia. Symulacje wykonano dla losowych wartości początkowych wag. Zagwarantowano jednak, aby dla wszystkich reguł proces uczenia odbywał się z takimi samymi wartościami początkowymi wag zabezpiecza to pełną porównywalność metod. Dla żadnej z reguł nie s
12 12 Jacek Bartman optymalizowano wartości współczynników uczenia, (w przypadku reguły PID -, T i, T d, w przypadku reguły Delta oraz Resilient BP - ) przyjęto dla nich wartość 1. Uczyniono tak ponieważ brak jest metod analitycznego doboru ich wartości, a dokonuje się go w sposób heurystyczny. Zrealizowano po 1000 przebiegów uczenia dla wszystkich reguł Symulacja reguł bramki NOR Ponieważ brak jest metod, które pozwalałyby analitycznie określić punkt stopu dla algorytmów uczenia SSN dlatego badania przeprowadzono dla dwóch różnych wartości końcowych funkcji celu - 0,01 oraz 0,001 (uwzględniono, iż oczekujemy odpowiedzi o wartościach 0 lub 1) Efekty ucznia reguł bramki NOR dla wartości funkcji celu 0.01 W tabeli 1 pokazano tablicę bramki NOR oraz przykładowe odpowiedzi neuronu uczonego porównywanymi regułami (Delta, Resilient BP oraz PID). Uzyskane odpowiedzi różnią się od wartości oczekiwanej, ale nie ulega wątpliwości, iż neuron prawidłowo klasyfikuje sygnały wejściowe - tabela 1. Tabela 1. Zestawienie przykładowych odpowiedzi dla wartości funkcji celu MSE=0.01 Wejścia Odpowiedź oczekiwana Przykładowe odpowiedzi sieci Delta Resilent BP PID Przykładowy przebieg procesu uczenia porównywanych reguł pokazano na rysunku 3 rysunek b) stanowi powiększenie fragmentu rysunku a) w celu ułatwienia porównania przebiegu uczenia regułą PID i Resilient BP. a) b) Rysunek 3. Przykładowy przebieg procesu uczenia neuronu porównywanymi regułami (MSE=0.01) Zestawienie statystyczne wyników symulacji przedstawiono w tabeli 2. Analiza uzyskanych rezultatów prowadzi do wniosku, iż w przypadku końcowej wartości funkcji celu 0.01 uczenie najszybciej przebiegało w oparciu o regułę PID - oczekiwany rezultat uczenia dla
13 Reguła PID uczenia sztucznych neuronów 13 reguły Delta uzyskano średnio po 697 krokach, dla reguły Resilient BP po 18 a dla reguły PID po 7,7 krokach. Tabela 2. Wyniki uczenia poszczególnymi regułami w ujęciu statystycznym (MSE=0.01) Delta Resilient BP PID Wartość maksymalna Wartość minimalna Mediana Średnia ,0 7,7 Odchylenie standardowe 839 5,45 3, Efekty ucznia reguł bramki NOR dla wartości funkcji celu Kolejne badania wykonano zmniejszając dziesięciokrotnie wartość końcową funkcji celu (z 0.01 do 0.001). Przedstawione w tabeli 3 wyniki pokazują, że uzyskane odpowiedzi neuronu są obarczone mniejszym błędem. Tabela 3. Zestawienie przykładowych odpowiedzi dla MSE=0.001 Wejścia Odpowiedź oczekiwana Przykładowe odpowiedzi sieci Delta Resilient BP PID a) b) Rysunek 4. Przykładowy przebieg procesu uczenia neuronu porównywanymi regułami (MSE=0.001) Kolejna tabela zawiera zestawienie statystyczne uzyskanych wyników. Po zmniejszeniu końcowej wartości funkcji celu najszybsza okazała się reguła Resilient BP, która oczekiwany rezultat uczenia osiągała średnio po 20,3 epokach wobec 28,5 epok potrzebnych regule PID oraz 2884 regule Delta. Warto zauważyć, iż odchylenie standardowe w przypadku reguł Resilient BP oraz PID jest zdecydowanie mniejsze niż w przypadku uczenia klasyczną regułą Delta oznacza to, mniejszy rozrzut wyników, co można interpretować jako większa powtarzalność uczenia (w wymiarze liczby epok potrzebnych do nauczenia neuronu).
14 14 Jacek Bartman Tabela 4. Wyniki uczenia poszczególnymi regułami w ujęciu statystycznym (MSE=0.001) Delta Resilient BP PID Wartość maksymalna Wartość minimalna Mediana Średnia ważona ,3 28,5 Odchylenie standardowe 960 4,60 5, Wnioski i spostrzeżenia z badań symulacyjnych bramki NOR Szybkość uczenia regułą PID dla rozważanego przypadku jest porównywalna z szybkością uczenia regułą Resilient BP, reguła Delta jest zdecydowanie wolniejsza. Analiza przebiegów uczenia regułą PID i regułą Resilient BP (rys. 3, rys. 4) prowadzi do wniosku, że uczenie regułą PID powoduje w początkowym etapie szybszy postęp procesu uczenia, natomiast reguła Resilient BP w początkowym etapie uczy się wolniej a w końcowym bardzo szybko. Charakterystyczne dla uczenia regułą PID szarpnięcia (rys.3, rys. 4) (wzrost wartości funkcji celu) prawdopodobnie można wyeliminować odpowiednio dobierając wartości współczynników, T i, T d, w konsekwencji powinno to prowadzić do przyspieszenia procesu uczenia Zadanie klasyfikacji elementów dla danych wejściowych dwuwymiarowych Zadanie klasyfikacji elementów było kolejnym problemem służącym porównaniu efektywności reguł Delta, Resilinet BP oraz PID uczenia sztucznych neuronów. Zadaniem neuronu była klasyfikacja elementów rozmieszczonych na płaszczyźnie (rys. 5.): a1=(2, 11), a2=(7, 10), a3=(8, 16), a4=(10, -6), a5=(15, -10), b1=(-4, 6), b2=(0, 7), b3=(10, 15), b4=(-6, -7), b5=(-10,-4) do dwóch zbiorów A, B: A={a1, a2, a3, a4, a5}, B={b1, b2, b3, b4, b5} Tabela 5 zawiera statystyczne zestawienie uzyskanych rezultatów. Dla reguły Delta okazało się, że neuron nie nauczył się ani razu na 1000 przypadków konieczne jest właściwe dobranie współczynnika uczenia Rysunek 5. Rozkład klasyfikowanych elementów na płaszczyźnie Tabela 5. Wyniki uczenia klasyfikacji elementów w ujęciu statystycznym Resilient BP PID Wartość maksymalna Wartość minimalna Mediana Średnia ważona Odchylenie standardowe 51,5 45,6
15 Reguła PID uczenia sztucznych neuronów 15 Porównanie szybkości uczenia regułami Resilient BP oraz PID wypada na korzyść reguły PID dla której neuron nauczył się średnio po 131 epokach przy 147 epokach uczenia potrzebnych metodzie Resilent BP. Również odchylenie standardowe jest mniejsze dla metody PID. Rysunek 6 pokazuje przykładowy przebieg procesu uczenia neuronu. Kształt krzywej obrazującej uczenie regułą PID jest bardzo nietypowy początkowo praktycznie brak postępów w uczeniu (wartość funkcji celu na przemian wzrasta i maleje) a następnie następuje gwałtowna poprawa. Zachowanie w początkowym etapie uczenia sugeruje, iż parametry (, T i, T d ) są mocno nieoptymalne i właściwe ich dostrojenie winno spowodować poprawę efektywności metody. Wart podkreślenia jest fakt, iż w każdym przypadku (z 1000) sieć uczona regułą PID uzyskiwała zadaną wartość funkcji celu. Rysunek 6. Przykładowy przebieg procesu uczenia neuronu zadania klasyfikacji elementów Kolejne porównanie efektywności uczenia sztucznych neuronów regułami Delta, Resilinet BP oraz PID wykonano wykorzystując dane ze zbioru Baloon set umieszczone w UCI Machine Learning Repository [10]. Zbiór wejściowy składał się z 16 wektorów uczących, opisujących balony, a każdy wektor złożony był z czterech atrybutów: color {yellow, purple}; size {large, small}; act {stretch, dip}; age {adult, child}. Na podstawie danych sieć miała podjąć decyzję czy balon się uniesie czy nie. Zadanie zalicza się więc do problemów klasyfikacji jednak w odróżnieniu od zagadnień rozwiązywanych wcześniej, dane wejściowe nie mają charakteru dwuwymiarowego (łatwego do zaprezentowania na płaszczyźnie i stwierdzenia separowalności liniowej), a charakter wielowymiarowy. Dane z których złożone były wektory uczące posiadały charakter tekstowy, dlatego też konieczne było ich zakodowanie przyjęto bardzo prostą zasadę kodowania przypisując w zależności od wartości każdemu z atrybutów wartość 0 lub 1. W tabeli 6 pokazano dane przed kodowaniem, po zakodowaniu oraz przykładowe odpowiedzi sieci dla każdej z reguła uczenia. Przykładowy przebieg procesu uczenia porównywanych reguł pokazano na rysunku 7 rysunek b) stanowi powiększenie fragmentu rysunku a). Zwraca uwagę fakt, iż przebieg uczenia każdą z porównywanych metod ma charakter monotoniczny (funkcja miary błędu systematycznie maleje do zadanej wartości). W zaprezentowanych powyżej przykładach przebieg uczenia regułą PID miał charakter szarpany (miara błędu na przemian rosła i malała). W analizowanym przypadku zjawisko to nie występuje i w konsekwencji reguła PID osiąga zdecydowanie najszybciej zadaną wartość funkcji celu (miary błędu). Tabela 7 zawiera zestawienie statystyczne uzyskanych wyników. Porównanie szybkości uczenia metodami PID oraz Resilient, BP wypada zdecydowanie na korzyść reguły PID potrzebowały one średnio odpowiednio 20,8 oraz 2,47 epoki do nauczenia neuronu właściwej klasyfikacji elementów. Reguła Delta jest zdecydowanie wolniejsza.
16 16 Jacek Bartman Tabela 6. Zestawienie przykładowych odpowiedzi dla MSE=0.001 Dane z repozytorium Dane po zakodowaniu Przykładowe odpowiedzi sieci Dane wejściowe Odp. Dane wejściowe Odp. Delta ResilientBP PID Yellow Small Stretch Adult T Yellow Small Stretch Child F Yellow Small Dip Adult F Yellow Small Dip Child F Yellow Large Stretch Adult T Yellow Large Stretch Child F Yellow Large Dip Adult F Yellow Large Dip Child F Purple Small Stretch Adult T Purple Small Stretch Child F Purple Small Dip Adult F Purple Small Dip Child F Purple Large Stretch Adult T Purple Large Stretch Child F Purple Large Dip Adult F Purple Large Dip Child F a) b) Rysunek 7. Przykładowy przebieg procesu uczenia neuronu porównywanymi regułami Tabela.7. Wyniki uczenia klasyfikacji elementów w ujęciu statystycznym Delta Resilient BP PID Wartość maksymalna Wartość minimalna Mediana Średnia ważona ,8 2,47 Odchylenie standardowe 289 4,0 0,792
17 Reguła PID uczenia sztucznych neuronów Badania na danych eksperckich. Dane do kolejnych badań zaczerpnięto ze zbioru Acute Inflammations Data Set [11] umieszczonego w UCI Machine Learning Repository. Dane zostały stworzone przez eksperta medycznego w celu zbudowania systemu eksperckiego wykonującego diagnostykę dwóch domniemanych chorób układu moczowego - zapalenia pęcherza moczowego oraz zapalenia nerek. Każdy rekord reprezentuje potencjalnego pacjenta opisanego poprzez następujące atrybuty: temperaturę ciała {35C - 42C), złe samopoczucie, nudności {tak, nie}, ból lędźwiowy {tak, nie}, ciągłą potrzebę oddawania moczu {tak, nie}, ból podczas oddawania moczu {tak, nie}, obrzęk cewki moczowej {tak, nie}. Dane logiczne (tak/nie) wymagały odpowiedniego zakodowania w tym celu wartości tak przypisano 1, a wartości nie Klasyfikacja danych eksperckich W artykule przedstawiono przypadek uczenia sztucznej sieci neuronowej rozpoznawania zapalenia nerek na podstawie danych zawartych w wektorze wejściowym (rekordzie). Tak postawione zadanie jest zadaniem z dziedziny klasyfikacji. Uczenie przeprowadzono w oparciu o reguły PID oraz Resilient BP. Zrezygnowano z uczenia regułą Delta gdyż wymagała ona precyzyjnego doboru współczynnika uczenia. Na rys. 8. przedstawiono przykładowy przebieg uczenia dla obu porównywanych metod jak widać reguła PID jest wyraźnie szybsza. Spostrzeżenie to potwierdzają zawarte w tabeli 8 zestawienia statystyczne na 1000 wykonanych prób reguła PID średnio po 15,7 epokach uzyskiwała założoną dopuszczalną wartość błędu, a reguła Resilient BP po 57 epokach. Rysunek 8. Przebieg uczenia neuronów zadania klasyfikacji elementów eksperckich Tabela 8. Wyniki uczenia klasyfikacji elementów eksperckich w ujęciu statystycznym Resilient BP PID Wartość maksymalna Wartość minimalna 24 1 Mediana Średnia ważona 57,0 15,7 Odchylenie standardowe 15,3 6,07
18 18 Jacek Bartman Diagnostyka W kolejnym eksperymencie dane eksperckie podzielono na dwie grupy grupę danych uczących oraz grupę danych testowych. Do zbioru uczącego włączono 40 spośród 120 wektorów z danymi uczącymi. Przykładowy przebieg procesu uczenia pokazano na rysunku 9 a zestawienie statystyczne uzyskanych rezultatów (na podstawie 1000 powtórzeń) zebrano w tabeli 9. Uczenie skróconym zbiorem uczącym przebiegało nieco wolniej, ale w tym przypadku podobnie jak we wcześniejszym reguła PID okazała się szybsza od Resilient BP, uzyskując pożądany efekt uczenia po 43,5 epokach wobec 63,6 epok reguły Resilient BP. Rysunek 9. Przebieg uczenia neuronów zadania diagnostycznego Tabela 9. Wyniki uczenia skróconym zbiorem danych eksperckich w ujęciu statystycznym Resilient BP PID Wartość maksymalna Wartość minimalna 27 4 Mediana Średnia ważona 63,6 43,5 Odchylenie standardowe 18,0 16,2 Zasadniczym zadaniem w analizowanym przypadku było określenie jak reguła uczenia wpłynęła na zdolność do uogólniania. W zbiorze testowym (rozłącznym ze zbiorem uczącym) umieszczono 80 przypadków zdefiniowanych przez eksperta. Wykonano 100 krotnie uczenie neuronów po każdym sprawdzając poprawność jego odpowiedzi na dane testowe. Przyjęto, iż w przypadku oczekiwanej odpowiedzi 0 jako poprawną (nie budzącą wątpliwości) uznaje się odpowiedź nie przekraczającą 0,3 a w przypadku oczekiwanej odpowiedzi 1 za poprawną uznano wartości nie mniejsze niż 0,7. Uzyskane podczas badań wyniki zebrano w tabeli 10, należy podkreślić, iż liczba błędnych diagnoz była bardzo mała. Neuron uczony regułą PID 15 krotnie podał błędną odpowiedź na 800 prób a uczony regułą Resilient BP 10 krotnie wystawił błędną diagnozę w analogicznej liczbie prób. Dla pojedynczego uczenia neuron uczony regułą PID maksymalnie dla 1 przypadku udzielił błędnej odpowiedzi a dla reguły Resilient BP dla 2 przypadków. Tabela.10. Wyniki uczenia skróconym zbiorem danych eksperckich w ujęciu statystycznym Resilient BP PID Liczba błędnych diagnoz w 800 przypadkach Maksymalna liczba błędów dla 1 epoki danych testowych 2 1 Minimalna liczba błędów dla 1 epoki danych testowych 0 0
19 Reguła PID uczenia sztucznych neuronów Podsumowanie Uczenie sztucznych sieci neuronowych i bezpośrednio z nim związane uczenie sztucznych neuronów są ciągle interesującymi obszarami badawczymi pomimo, iż istnieje wiele reguł opisujących w jaki sposób korygować wagi neuronu, aby jego zachowanie było zgodne z oczekiwanym. W literaturze można znaleźć opisy reguł gradientowych jak i również charakteryzujących się większą złożonością obliczeniową reguł wykorzystujących macierz hesjanu funkcji celu. W pracy zaproponowano nowa regułę uczenia sztucznych neuronów regułę PID oraz dokonano porównania jej efektywności z klasyczną regułą Delty oraz regułą Resilient BP. Wstępne wyniki są zachęcające do podjęcia dalszych badań. W większości przebadanych przypadków reguła PID okazała się nieco szybsza od reguły Resilient BP oraz zdecydowanie szybsza od reguły Delty. Interesujące wydaje się być porównanie jej z innymi regułami uczenia oraz ustalenie wpływu współczynników (, T i, T d ) na jej szybkość oraz stabilność. Przebieg procesu uczenia regułą PID w wielu przypadkach miał bardzo nietypowy charakter (rys. 6, rys. 8, rys 9) wartość funkcji celu (będącej miarą błędu) przez długi czas pozostawała praktycznie niezmieniona, by następnie gwałtownie osiągnąć pożądaną wartość. Nieodzowne jest przeprowadzenie badań, które wyjaśnią czym jest to spowodowane niewłaściwym doborem współczynników uczenia(, T i, T d ), kolejnością podawania wzorców (była ona losowa), czy też jakimś innym czynnikiem. Przedstawione badania ograniczyły się do analizy uczenia pojedynczego neuronu intrygujące będzie wykorzystanie reguły w metodzie wstecznej propagacji błędu do uczenia całej sieci i zestawienie uzyskanych rezultatów z rezultatami jakie daje klasyczna metoda wstecznej propagacji błędu. Bibliografia [1] Bielecki A. Mathematical model of architecture and learning processes of artificial neural networks. TASK Quarterly 7 no 1/2003, s [2] Hebb D. The organization of behaviour. Wiley, New York, 1949 [3] Korbicz J., Obuchowicz A., Uciński D. Sztuczne sieci neuronowe. Podstawy i zastosowania, Akademicka Oficyna Wydawnicza PLJ, Warszawa [4] McClelland T.L., Rumelhart D.E., and the PDP Research Group. Paralell Distributed Processing. MIT Press, Cambridge, Mass [5] Osowski St. Sieci neuronowe w ujęciu algorytmicznym, WNT, Warszawa [6] Rosenblatt F. The perceptron: A probalistic model for information storage and organization in the brain. Psychology Review no 65/1958 s [7] Tadeusiewicz R. Sieci neuronowe, Akademicka Oficyna Wydawnicza RM, Warszawa [8] Widrow B., Hoff M. E. Adaptive switching circuits. New York IRE WESCON Conventional Record 1960, s [9] Żurada J., Barski M., Jędruch W. Sztuczne sieci neuronowe. Podstawa teorii i zastosowania. PWN, Warszawa [10] Asuncion, A., Newman, D.J. UCI Machine Learning Repository. Irvine, CA: University of California, School of Information and Computer Science, [ [11] Czerniak J., Zarzycki H., Application of rough sets in the presumptive diagnosis of urinary system diseases. Artificial Intelligence and Security in Computing Systems, ACS'2002 9th International Conference Proceedings, Kluwer Academic Publishers,2003, pp
20
IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ
IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,
Bardziej szczegółowoSztuczna Inteligencja Tematy projektów Sieci Neuronowe
PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia
Bardziej szczegółowoLiteratura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu
Literatura Wykład : Wprowadzenie do sztucznych sieci neuronowych Małgorzata Krętowska Wydział Informatyki Politechnika Białostocka Tadeusiewicz R: Sieci neuronowe, Akademicka Oficyna Wydawnicza RM, Warszawa
Bardziej szczegółowo1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda
Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy
Bardziej szczegółowoSystemy uczące się Lab 4
Systemy uczące się Lab 4 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 26 X 2018 Projekt zaliczeniowy Podstawą zaliczenia ćwiczeń jest indywidualne wykonanie projektu uwzględniającego
Bardziej szczegółowoElementy inteligencji obliczeniowej
Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego
Bardziej szczegółowoS O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor
S O M SELF-ORGANIZING MAPS Przemysław Szczepańczyk Łukasz Myszor Podstawy teoretyczne Map Samoorganizujących się stworzył prof. Teuvo Kohonen (1982 r.). SOM wywodzi się ze sztucznych sieci neuronowych.
Bardziej szczegółowoInteligentne systemy informacyjne
Inteligentne systemy informacyjne Moduł 10 Mieczysław Muraszkiewicz www.icie.com.pl/lect_pw.htm M. Muraszkiewicz strona 1 Sieci neuronowe szkic Moduł 10 M. Muraszkiewicz strona 2 Dwa nurty M. Muraszkiewicz
Bardziej szczegółowoZagadnienia optymalizacji i aproksymacji. Sieci neuronowe.
Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. zajecia.jakubw.pl/nai Literatura: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym. WNT, Warszawa 997. PODSTAWOWE ZAGADNIENIA TECHNICZNE AI
Bardziej szczegółowoMetody Sztucznej Inteligencji II
17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału
Bardziej szczegółowo8. Neuron z ciągłą funkcją aktywacji.
8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
Bardziej szczegółowoInteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska
Bardziej szczegółowoUniwersytet w Białymstoku Wydział Ekonomiczno-Informatyczny w Wilnie SYLLABUS na rok akademicki 2012/2013 http://www.wilno.uwb.edu.
SYLLABUS na rok akademicki 01/013 Tryb studiów Studia stacjonarne Kierunek studiów Informatyka Poziom studiów Pierwszego stopnia Rok studiów/ semestr /3 Specjalność Bez specjalności Kod katedry/zakładu
Bardziej szczegółowoUczenie sieci typu MLP
Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik
Bardziej szczegółowoUniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych
Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych ELEMENTY SZTUCZNEJ INTELIGENCJI Laboratorium nr 6 SYSTEMY ROZMYTE TYPU MAMDANIEGO
Bardziej szczegółowoAlgorytmy decyzyjne będące alternatywą dla sieci neuronowych
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny
Bardziej szczegółowoPRZEWODNIK PO PRZEDMIOCIE
Nazwa przedmiotu: Kierunek: Informatyka Rodzaj przedmiotu: obowiązkowy w ramach treści kierunkowych, moduł kierunkowy oólny Rodzaj zajęć: wykład, laboratorium I KARTA PRZEDMIOTU CEL PRZEDMIOTU PRZEWODNIK
Bardziej szczegółowoSieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści
Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, 2013 Spis treści Przedmowa 7 1. Wstęp 9 1.1. Podstawy biologiczne działania neuronu 9 1.2. Pierwsze modele sieci neuronowej
Bardziej szczegółowoWYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)
WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO Stanisław Kowalik (Poland, Gliwice) 1. Wprowadzenie Wstrząsy podziemne i tąpania występujące w kopalniach
Bardziej szczegółowoSZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA SYSTEMY ROZMYTE Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i Inżynierii Biomedycznej Laboratorium
Bardziej szczegółowoPRZEWODNIK PO PRZEDMIOCIE
Nazwa przedmiotu: Kierunek: Mechatronika Rodzaj przedmiotu: obowiązkowy Rodzaj zajęć: wykład, laboratorium I KARTA PRZEDMIOTU CEL PRZEDMIOTU PRZEWODNIK PO PRZEDMIOCIE C1. Zapoznanie studentów z inteligentnymi
Bardziej szczegółowoPodstawy Sztucznej Inteligencji (PSZT)
Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12
Bardziej szczegółowoPROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**
Górnictwo i Geoinżynieria Rok 31 Zeszyt 3 2007 Dorota Pawluś* PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH** 1. Wstęp Eksploatacja górnicza złóż ma niekorzystny wpływ na powierzchnię
Bardziej szczegółowo4.1. Wprowadzenie...70 4.2. Podstawowe definicje...71 4.3. Algorytm określania wartości parametrów w regresji logistycznej...74
3 Wykaz najważniejszych skrótów...8 Przedmowa... 10 1. Podstawowe pojęcia data mining...11 1.1. Wprowadzenie...12 1.2. Podstawowe zadania eksploracji danych...13 1.3. Główne etapy eksploracji danych...15
Bardziej szczegółowoWpływ opisu danych na efektywność uczenia oraz pracy sztucznej sieci neuronowej na przykładzie identyfikacji białek
Jacek BARTMAN Uniwersytet Rzeszowski, Instytut Techniki, Polska Wpływ opisu danych na efektywność uczenia oraz pracy sztucznej sieci neuronowej na przykładzie identyfikacji białek Wstęp Sztuczne sieci
Bardziej szczegółowoZastosowania sieci neuronowych
Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką
Bardziej szczegółowoRegulator PID w sterownikach programowalnych GE Fanuc
Regulator PID w sterownikach programowalnych GE Fanuc Wykład w ramach przedmiotu: Sterowniki programowalne Opracował na podstawie dokumentacji GE Fanuc dr inż. Jarosław Tarnawski Cel wykładu Przypomnienie
Bardziej szczegółowoALGORYTMY SZTUCZNEJ INTELIGENCJI
ALGORYTMY SZTUCZNEJ INTELIGENCJI Sieci neuronowe 06.12.2014 Krzysztof Salamon 1 Wstęp Sprawozdanie to dotyczy ćwiczeń z zakresu sieci neuronowych realizowanym na przedmiocie: Algorytmy Sztucznej Inteligencji.
Bardziej szczegółowoZastosowania sieci neuronowych
Zastosowania sieci neuronowych klasyfikacja LABORKA Piotr Ciskowski zadanie 1. klasyfikacja zwierząt sieć jednowarstwowa żródło: Tadeusiewicz. Odkrywanie własności sieci neuronowych, str. 159 Przykład
Bardziej szczegółowoWykład z Technologii Informacyjnych. Piotr Mika
Wykład z Technologii Informacyjnych Piotr Mika Uniwersalna forma graficznego zapisu algorytmów Schemat blokowy zbiór bloków, powiązanych ze sobą liniami zorientowanymi. Jest to rodzaj grafu, którego węzły
Bardziej szczegółowoSYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.
SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska INFORMACJE WSTĘPNE Hipotezy do uczenia się lub tworzenia
Bardziej szczegółowoZastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2)
Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2) Ewa Wołoszko Praca pisana pod kierunkiem Pani dr hab. Małgorzaty Doman Plan tego wystąpienia Teoria Narzędzia
Bardziej szczegółowoWstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.
Wstęp do teorii sztucznej inteligencji Wykład III Modele sieci neuronowych. 1 Perceptron model najprostzszy przypomnienie Schemat neuronu opracowany przez McCullocha i Pittsa w 1943 roku. Przykład funkcji
Bardziej szczegółowoWstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.
Wstęp do teorii sztucznej inteligencji Wykład II Uczenie sztucznych neuronów. 1 - powtórzyć o klasyfikacji: Sieci liniowe I nieliniowe Sieci rekurencyjne Uczenie z nauczycielem lub bez Jednowarstwowe I
Bardziej szczegółowoAnaliza składowych głównych. Wprowadzenie
Wprowadzenie jest techniką redukcji wymiaru. Składowe główne zostały po raz pierwszy zaproponowane przez Pearsona(1901), a następnie rozwinięte przez Hotellinga (1933). jest zaliczana do systemów uczących
Bardziej szczegółowo1.7. Eksploracja danych: pogłębianie, przeszukiwanie i wyławianie
Wykaz tabel Wykaz rysunków Przedmowa 1. Wprowadzenie 1.1. Wprowadzenie do eksploracji danych 1.2. Natura zbiorów danych 1.3. Rodzaje struktur: modele i wzorce 1.4. Zadania eksploracji danych 1.5. Komponenty
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.
Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 2013-11-26 Projekt pn. Wzmocnienie potencjału
Bardziej szczegółowoĆWICZENIE 5: Sztuczne sieci neuronowe
Instytut Mechaniki i Inżynierii Obliczeniowej Wydział Mechaniczny Technologiczny, Politechnika Śląska www.imio.polsl.pl METODY HEURYSTYCZNE ĆWICZENIE 5: Sztuczne sieci neuronowe opracował: dr inż. Witold
Bardziej szczegółowoSPOSOBY POMIARU KĄTÓW W PROGRAMIE AutoCAD
Dr inż. Jacek WARCHULSKI Dr inż. Marcin WARCHULSKI Mgr inż. Witold BUŻANTOWICZ Wojskowa Akademia Techniczna SPOSOBY POMIARU KĄTÓW W PROGRAMIE AutoCAD Streszczenie: W referacie przedstawiono możliwości
Bardziej szczegółowoScenariusz lekcji opartej na programie Program nauczania informatyki w gimnazjum DKW-4014-87/99
Scenariusz lekcji opartej na programie Program nauczania informatyki w gimnazjum DKW-4014-87/99 Techniki algorytmiczne realizowane przy pomocy grafiki żółwia w programie ELI 2,0. Przedmiot: Informatyka
Bardziej szczegółowoPROGRAMOWANIE DYNAMICZNE W ROZMYTYM OTOCZENIU DO STEROWANIA STATKIEM
Mostefa Mohamed-Seghir Akademia Morska w Gdyni PROGRAMOWANIE DYNAMICZNE W ROZMYTYM OTOCZENIU DO STEROWANIA STATKIEM W artykule przedstawiono propozycję zastosowania programowania dynamicznego do rozwiązywania
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3
Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt
Bardziej szczegółowoĆwiczenia nr 7. TEMATYKA: Krzywe Bézier a
TEMATYKA: Krzywe Bézier a Ćwiczenia nr 7 DEFINICJE: Interpolacja: przybliżanie funkcji za pomocą innej funkcji, zwykle wielomianu, tak aby były sobie równe w zadanych punktach. Poniżej przykład interpolacji
Bardziej szczegółowoAlgorytmy sztucznej inteligencji
Algorytmy sztucznej inteligencji Dynamiczne sieci neuronowe 1 Zapis macierzowy sieci neuronowych Poniżej omówione zostaną części składowe sieci neuronowych i metoda ich zapisu za pomocą macierzy. Obliczenia
Bardziej szczegółowoAlgorytm genetyczny (genetic algorithm)-
Optymalizacja W praktyce inżynierskiej często zachodzi potrzeba znalezienia parametrów, dla których system/urządzenie będzie działać w sposób optymalny. Klasyczne podejście do optymalizacji: sformułowanie
Bardziej szczegółowoTemat: Sieci neuronowe oraz technologia CUDA
Elbląg, 27.03.2010 Temat: Sieci neuronowe oraz technologia CUDA Przygotował: Mateusz Górny VIII semestr ASiSK Wstęp Sieci neuronowe są to specyficzne struktury danych odzwierciedlające sieć neuronów w
Bardziej szczegółowoSztuczne sieci neuronowe (SNN)
Sztuczne sieci neuronowe (SNN) Pozyskanie informacji (danych) Wstępne przetwarzanie danych przygotowanie ich do dalszej analizy Selekcja informacji Ostateczny model decyzyjny SSN - podstawy Sieci neuronowe
Bardziej szczegółowoTemat: ANFIS + TS w zadaniach. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE
Temat: ANFIS + TS w zadaniach Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1. Systemy neuronowo - rozmyte Systemy
Bardziej szczegółowoAlgorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa
Bardziej szczegółowoSieci neuronowe w Statistica
http://usnet.us.edu.pl/uslugi-sieciowe/oprogramowanie-w-usk-usnet/oprogramowaniestatystyczne/ Sieci neuronowe w Statistica Agnieszka Nowak - Brzezińska Podstawowym elementem składowym sztucznej sieci neuronowej
Bardziej szczegółowoProf. Stanisław Jankowski
Prof. Stanisław Jankowski Zakład Sztucznej Inteligencji Zespół Statystycznych Systemów Uczących się p. 228 sjank@ise.pw.edu.pl Zakres badań: Sztuczne sieci neuronowe Maszyny wektorów nośnych SVM Maszyny
Bardziej szczegółowoWstęp do sztucznych sieci neuronowych
Wstęp do sztucznych sieci neuronowych Michał Garbowski Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Wydział Informatyki 15 grudnia 2011 Plan wykładu I 1 Wprowadzenie Inspiracja biologiczna
Bardziej szczegółowoRys 1 Schemat modelu masa- sprężyna- tłumik
Rys 1 Schemat modelu masa- sprężyna- tłumik gdzie: m-masa bloczka [kg], ẏ prędkośćbloczka [ m s ]. 3. W kolejnym energię potencjalną: gdzie: y- przemieszczenie bloczka [m], k- stała sprężystości, [N/m].
Bardziej szczegółowoTemat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE
Temat: Sztuczne Sieci Neuronowe Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sztuczne sieci neuronowe
Bardziej szczegółowoAproksymacja funkcji a regresja symboliczna
Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(x), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(x), zwaną funkcją aproksymującą
Bardziej szczegółowoNajprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;
Sieci Hopfielda Najprostsze modele sieci z rekurencją sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Modele bardziej złoŝone: RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie
Bardziej szczegółowoZastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym
Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW 17 XII 2013 Jan Karwowski
Bardziej szczegółowowiedzy Sieci neuronowe
Metody detekcji uszkodzeń oparte na wiedzy Sieci neuronowe Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 7 Wprowadzenie Okres kształtowania się teorii sztucznych sieci
Bardziej szczegółowoKlasyfikator liniowy Wstęp Klasyfikator liniowy jest najprostszym możliwym klasyfikatorem. Zakłada on liniową separację liniowy podział dwóch klas między sobą. Przedstawia to poniższy rysunek: 5 4 3 2
Bardziej szczegółowoModelowanie jako sposób opisu rzeczywistości. Katedra Mikroelektroniki i Technik Informatycznych Politechnika Łódzka
Modelowanie jako sposób opisu rzeczywistości Katedra Mikroelektroniki i Technik Informatycznych Politechnika Łódzka 2015 Wprowadzenie: Modelowanie i symulacja PROBLEM: Podstawowy problem z opisem otaczającej
Bardziej szczegółowoMETODY CHEMOMETRYCZNE W IDENTYFIKACJI ŹRÓDEŁ POCHODZENIA
METODY CHEMOMETRYCZNE W IDENTYFIKACJI ŹRÓDEŁ POCHODZENIA AMFETAMINY Waldemar S. Krawczyk Centralne Laboratorium Kryminalistyczne Komendy Głównej Policji, Warszawa (praca obroniona na Wydziale Chemii Uniwersytetu
Bardziej szczegółowoGrafika komputerowa i wizualizacja
Grafika komputerowa i wizualizacja Radosław Mantiuk ( rmantiuk@wi.zut.edu.pl, p. 315 WI2) http://rmantiuk.zut.edu.pl Katedra Systemów Multimedialnych Wydział Informatyki, Zachodniopomorski Uniwersytet
Bardziej szczegółowoOSTASZEWSKI Paweł (55566) PAWLICKI Piotr (55567) Algorytmy i Struktury Danych PIŁA
OSTASZEWSKI Paweł (55566) PAWLICKI Piotr (55567) 16.01.2003 Algorytmy i Struktury Danych PIŁA ALGORYTMY ZACHŁANNE czas [ms] Porównanie Algorytmów Rozwiązyjących problem TSP 100 000 000 000,000 10 000 000
Bardziej szczegółowoHierarchiczna analiza skupień
Hierarchiczna analiza skupień Cel analizy Analiza skupień ma na celu wykrycie w zbiorze obserwacji klastrów, czyli rozłącznych podzbiorów obserwacji, wewnątrz których obserwacje są sobie w jakimś określonym
Bardziej szczegółowoAUTO-STROJENIE REGULATORA TYPU PID Z WYKORZYSTANIEM LOGIKI ROZMYTEJ
POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 75 Electrical Engineering 2013 Łukasz NIEWIARA* Krzysztof ZAWIRSKI* AUTO-STROJENIE REGULATORA TYPU PID Z WYKORZYSTANIEM LOGIKI ROZMYTEJ Zagadnienia
Bardziej szczegółowoOprogramowanie Systemów Obrazowania SIECI NEURONOWE
SIECI NEURONOWE Przedmiotem laboratorium jest stworzenie algorytmu rozpoznawania zwierząt z zastosowaniem sieci neuronowych w oparciu o 5 kryteriów: ile zwierzę ma nóg, czy żyje w wodzie, czy umie latać,
Bardziej szczegółowoID1SII4. Informatyka I stopień (I stopień / II stopień) ogólnoakademicki (ogólno akademicki / praktyczny) stacjonarne (stacjonarne / niestacjonarne)
Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 lutego 2012r. KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu ID1SII4 Nazwa modułu Systemy inteligentne 1 Nazwa modułu w języku angielskim Intelligent
Bardziej szczegółowoPROGRAM SEMINARIUM ZAKOPANE 2011. czwartek, 1 grudnia 2011 r. Sesja przedpołudniowa
czwartek, 1 grudnia 2011 r. Sesja przedpołudniowa 9.30 9.40: 9.40 10.10: 10.10 10.40: 10.40 11.00: Otwarcie seminarium Prof. dr hab. inż. Tadeusz Czachórski prof. dr hab. inż. Robert Schaeffer, prezentacja:
Bardziej szczegółowoSieci Kohonena Grupowanie
Sieci Kohonena Grupowanie http://zajecia.jakubw.pl/nai UCZENIE SIĘ BEZ NADZORU Załóżmy, że mamy za zadanie pogrupować następujące słowa: cup, roulette, unbelievable, cut, put, launderette, loveable Nie
Bardziej szczegółowoSztuczne sieci neuronowe
www.math.uni.lodz.pl/ radmat Cel wykładu Celem wykładu jest prezentacja różnych rodzajów sztucznych sieci neuronowych. Biologiczny model neuronu Mózg człowieka składa się z około 10 11 komórek nerwowych,
Bardziej szczegółowo2
1 2 3 4 5 Dużo pisze się i słyszy o projektach wdrożeń systemów zarządzania wiedzą, które nie przyniosły oczekiwanych rezultatów, bo mało kto korzystał z tych systemów. Technologia nie jest bowiem lekarstwem
Bardziej szczegółowoOptymalizacja systemów
Optymalizacja systemów Laboratorium - problem detekcji twarzy autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, P. Klukowski Cel zadania Celem zadania jest zapoznanie się z gradientowymi algorytmami optymalizacji
Bardziej szczegółowoUczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0
Uczenie się pojedynczego neuronu W0 X0=1 W1 x1 W2 s f y x2 Wp xp p x i w i=x w+wo i=0 Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z=0 Wówczas: W 1 x 1 + w 2 x 2 + = 0 Algorytm
Bardziej szczegółowoZastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań
Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW
Bardziej szczegółowoMATLAB Neural Network Toolbox przegląd
MATLAB Neural Network Toolbox przegląd WYKŁAD Piotr Ciskowski Neural Network Toolbox: Neural Network Toolbox - zastosowania: przykłady zastosowań sieci neuronowych: The 1988 DARPA Neural Network Study
Bardziej szczegółowoObrona rozprawy doktorskiej Neuro-genetyczny system komputerowy do prognozowania zmiany indeksu giełdowego
IBS PAN, Warszawa 9 kwietnia 2008 Obrona rozprawy doktorskiej Neuro-genetyczny system komputerowy do prognozowania zmiany indeksu giełdowego mgr inż. Marcin Jaruszewicz promotor: dr hab. inż. Jacek Mańdziuk,
Bardziej szczegółowoProjekt Sieci neuronowe
Projekt Sieci neuronowe Chmielecka Katarzyna Gr. 9 IiE 1. Problem i dane Sieć neuronowa miała za zadanie nauczyć się klasyfikować wnioski kredytowe. W projekcie wykorzystano dane pochodzące z 110 wniosków
Bardziej szczegółowoAlgorytmy sztucznej inteligencji
www.math.uni.lodz.pl/ radmat Przeszukiwanie z ograniczeniami Zagadnienie przeszukiwania z ograniczeniami stanowi grupę problemów przeszukiwania w przestrzeni stanów, które składa się ze: 1 skończonego
Bardziej szczegółowoSAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006
SAS wybrane elementy DATA MINING Część III Seweryn Kowalski 2006 Algorytmy eksploracji danych Algorytm eksploracji danych jest dobrze zdefiniowaną procedurą, która na wejściu otrzymuje dane, a na wyjściu
Bardziej szczegółowoSIECI REKURENCYJNE SIECI HOPFIELDA
SIECI REKURENCYJNE SIECI HOPFIELDA Joanna Grabska- Chrząstowska Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA SPRZĘŻENIE ZWROTNE W NEURONIE LINIOWYM sygnał
Bardziej szczegółowoAutomatyczna klasyfikacja zespołów QRS
Przetwarzanie sygnałów w systemach diagnostycznych Informatyka Stosowana V Automatyczna klasyfikacja zespołów QRS Anna Mleko Tomasz Kotliński AGH EAIiE 9 . Opis zadania Tematem projektu było zaprojektowanie
Bardziej szczegółowoPodstawy sztucznej inteligencji
wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt
Bardziej szczegółowoCHARAKTERYSTYKA I ZASTOSOWANIA ALGORYTMÓW OPTYMALIZACJI ROZMYTEJ. E. ZIÓŁKOWSKI 1 Wydział Odlewnictwa AGH, ul. Reymonta 23, Kraków
36/3 Archives of Foundry, Year 004, Volume 4, 3 Archiwum Odlewnictwa, Rok 004, Rocznik 4, Nr 3 PAN Katowice PL ISSN 64-5308 CHARAKTERYSTYKA I ZASTOSOWANIA ALGORYTMÓW OPTYMALIZACJI ROZMYTEJ E. ZIÓŁKOWSKI
Bardziej szczegółowoAutomatyczne tworzenie trójwymiarowego planu pomieszczenia z zastosowaniem metod stereowizyjnych
Automatyczne tworzenie trójwymiarowego planu pomieszczenia z zastosowaniem metod stereowizyjnych autor: Robert Drab opiekun naukowy: dr inż. Paweł Rotter 1. Wstęp Zagadnienie generowania trójwymiarowego
Bardziej szczegółowoSieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ
optymalizacje podejmowanych decyzji Tomasz Karczyoski Wydział W-08 IZ Czym są sieci neuronowe Struktura matematycznych oraz programowy lub sprzętowy model, realizujących obliczenia lub przetwarzanie sygnałów
Bardziej szczegółowoSztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW
Sztuczne Sieci Neuronowe Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW SN są częścią dziedziny Sztucznej Inteligencji Sztuczna Inteligencja (SI) zajmuje się
Bardziej szczegółowoMetoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych
inż. Marek Duczkowski Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych słowa kluczowe: algorytm gradientowy, optymalizacja, określanie wodnicy W artykule
Bardziej szczegółowoXQTav - reprezentacja diagramów przepływu prac w formacie SCUFL przy pomocy XQuery
http://xqtav.sourceforge.net XQTav - reprezentacja diagramów przepływu prac w formacie SCUFL przy pomocy XQuery dr hab. Jerzy Tyszkiewicz dr Andrzej Kierzek mgr Jacek Sroka Grzegorz Kaczor praca mgr pod
Bardziej szczegółowo1. Logika, funkcje logiczne, preceptron.
Sieci neuronowe 1. Logika, funkcje logiczne, preceptron. 1. (Logika) Udowodnij prawa de Morgana, prawo pochłaniania p (p q), prawo wyłączonego środka p p oraz prawo sprzeczności (p p). 2. Wyraź funkcję
Bardziej szczegółowoLekcja 5: Sieć Kohonena i sieć ART
Lekcja 5: Sieć Kohonena i sieć ART S. Hoa Nguyen 1 Materiał Sieci Kohonena (Sieć samo-organizująca) Rysunek 1: Sieć Kohonena Charakterystyka sieci: Jednowarstwowa jednokierunkowa sieć. Na ogół neurony
Bardziej szczegółowoPraca dyplomowa magisterska
Praca dyplomowa magisterska Implementacja algorytmów filtracji adaptacyjnej o strukturze transwersalnej na platformie CUDA Dyplomant: Jakub Kołakowski Opiekun pracy: dr inż. Michał Meller Plan prezentacji
Bardziej szczegółowoKARTA MODUŁU KSZTAŁCENIA
KARTA MODUŁU KSZTAŁCENIA I. Informacje ogólne 1 Nazwa modułu kształcenia Sztuczna inteligencja 2 Nazwa jednostki prowadzącej moduł Instytut Informatyki, Zakład Informatyki Stosowanej 3 Kod modułu (wypełnia
Bardziej szczegółowoMetody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści
Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, 2012 Spis treści Przedmowa do wydania drugiego Przedmowa IX X 1. Wstęp 1 2. Wybrane zagadnienia sztucznej inteligencji
Bardziej szczegółowoProgramowanie celowe #1
Programowanie celowe #1 Problem programowania celowego (PC) jest przykładem problemu programowania matematycznego nieliniowego, który można skutecznie zlinearyzować, tzn. zapisać (i rozwiązać) jako problem
Bardziej szczegółowoSZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 4. UCZENIE SIĘ INDUKCYJNE Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska WSTĘP Wiedza pozyskana przez ucznia ma charakter odwzorowania
Bardziej szczegółowoSieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska
Sieci neuronowe w Statistica Agnieszka Nowak - Brzezioska Podstawowym elementem składowym sztucznej sieci neuronowej jest element przetwarzający neuron. Schemat działania neuronu: x1 x2 w1 w2 Dendrites
Bardziej szczegółowoDEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI
POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 80 Electrical Engineering 2014 Stanisław PŁACZEK* DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI W artykule
Bardziej szczegółowoAlgorytm. Krótka historia algorytmów
Algorytm znaczenie cybernetyczne Jest to dokładny przepis wykonania w określonym porządku skończonej liczby operacji, pozwalający na rozwiązanie zbliżonych do siebie klas problemów. znaczenie matematyczne
Bardziej szczegółowo