Poprawa procesu uczenia się sztucznej sieci neuronowej typu Neural Gas w kontekście realizacji sprzętowej 2
|
|
- Krystyna Kamila Andrzejewska
- 4 lat temu
- Przeglądów:
Transkrypt
1 Tomasz Talaśka 1 Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy Poprawa procesu uczenia się sztucznej sieci neuronowej typu Neural Gas w kontekście realizacji sprzętowej 2 Wprowadzenie Sztuczne sieci neuronowe (ANN) są uniwersalnym i jednocześnie bardzo zaawansowanym narzędziem do przetwarzania informacji. Wykorzystywane są one w różnych dziedzinach życia, jak np. medycyna, ekonomia, logistyka, informatyka, automatyka, elektronika, telekomunikacja, itp [1,2,3,4,5,6,7]. Ich zalety, na tle klasycznych metod przetwarzania sygnałów, uwidaczniają się tym bardziej im dane, które to sieci neuronowe przetwarzają są bardziej zakłócone i niepełne. Przykładem mogą tu być systemy rozpoznawania (np. obrazów), czy też klasyfikacji danych w systemach logistycznych. Mimo iż sztuczne sieci neuronowe (NN) zainspirowane były sieciami biologicznymi, to ich podobieństwo do takich systemów jest nadal bardzo znikome. Różnice są widoczne zarówno po stronie możliwości obliczeniowych takich sieci (w sieciach biologicznych mamy do czynienia z bardzo dużą liczbą neuronów, przetwarzających informacje w sposób równoległy), a także ich budowy i działania. Sztuczne sieci neuronowe możemy podzielić według różnych kryteriów. Do najbardziej popularnych należy sposób uczenia sieci, gdzie wyróżnić możemy sieci uczone z tzw. nauczycielem i bez nauczyciela. Innym często spotykamy sposobem podziału sieci jest sposób ich implementacji. Wyróżnić możemy tu sieci implementowane na klasycznych komputerach PC (takich sieci jest zdecydowanie najwięcej), a także sieci implementowane w postaci układów elektronicznych. Szczególnie ciekawa jest ten drugi sposób realizacji, bowiem przy odpowiednio dobrze wybranej technice realizacji, jak np. specjalizowane układy scalone ASIC (ang. Application Specific Integrated Circuit) możliwe jest równoległe przetwarzanie danych (które zwyczajowo spotykane jest tylko w biologicznych sieciach neuronowych) z wykorzystaniem znikomo małej energii. Niestety implementacja sieci w postaci układów ASIC jest droga, a sam proces projektowania i testów długi. Inną ciekawą odmianą sprzętowej realizacji sieci neuronowej jest wykorzystanie stosunkowo tanich obecnie na rynku układów FPGA (ang. Field Programmable Gate Array) oraz mikrokontrolerów [8,9,10,11]. Zanim zaimplementujemy sieci neuronową w postaci układów elektronicznych musimy często, dokonać pewnych modyfikacji w samej sieci tak, aby dostosować ją do sposobu działania odpowiedniego, użytego przez nas układu elektronicznego. Istotne jest także, aby ewentualne, wprowadzone modyfikacje nie wpływały negatywnie na proces uczenia, tj. nie zwiększały błędu uczenia, czasu przetwarzania i oczekiwanych wyników. W artykule przedstawiono pewną modyfikację procesu uczenia samoorganizującej się sztucznej sieci neuronowej, typu Neural Gas (NG) [12,13] polegającą na użyciu nowej funkcji sąsiedztwa. Funkcja ta dobrze nadaje się do implementacji w postaci układów programowalnych (np. na mikrokontrolerze lub w postaci układu FPGA). Czas uczenia, zbadany na modelu programowym, jest podobny, jak w przypadku sieci z klasyczną funkcją sąsiedztwa, natomiast wartość błędu uczenia jest mniejsza. W celu weryfikacji poprawności działania sieci z nową funkcją sąsiedztwa opracowano model programowy sieci (ang. software model) w środowisku Java. Model programowy, sieci neuronowych, które będą realizowane w przyszłości w postaci układów elektronicznych, jest bardzo ważny i zarazem niesłychanie pomocny. Pozwala on na przeprowadzenie bardzo szczegółowych i czasochłonnych badań takich sieci, przed ich bezpośrednią realizacją sprzętową. Dodatkowo model taki pozwala w szerszy sposób spojrzeć na możliwości wykorzystania takich sieci w różnych aplikacjach (np. w systemach klasyfikacji i rozpoznawania sygnałów w systemach logistycznych). Artykuł, poza wstępem i podsumowaniem, składa się z dwóch rozdziałów. Pierwszy poświęcony został omówieniu metody uczenia sieci NG. W drugim natomiast zaprezentowana została nowa funkcja sąsiedztwa wraz z odpowiednimi testami sieci. Sztuczne sieci neuronowe uczone metodą Neural Gas Sposób, w jaki nasz umysł przetwarza informacje, może być postrzegany, w pewnym określonym sensie, jako proces samoorganizacji. Zmysły ludzi odwzorowane są w jego korze mózgowej [21]. Wzrok, słuch, węch oraz dotyk łączą się i komunikują z mózgiem człowieka za pomocą różnych map, jak na przykład retinotopowej, czy tonotopowej. Można powiedzieć, że mapy te tworzą pewnego rodzaju odwzorowanie danych, których wcześniej nauczył się nasz umysł. Powstają one w wyniku samouczenia i samoorganizacji naszego mózgu. 1 Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy, Wydział Telekomunikacji, Informatyki i Elektrotechniki, Instytut Telekomunikacji i Informatyki, Bydgoszcz, ul. Kaliskiego 7, tel.: , , talaska@utp.edu.pl 2 Artykuł recenzowany. Logistyka 1/
2 Pojęcie samoorganizacji znane jest od dawna, a pierwsze publikacje, w których poruszono ten problem, w odniesieniu do sztucznych sieci neuronowych, wydano w latach siedemdziesiątych ubiegłego stulecia [14,15]. Dopiero kilka lat później Teuvo Kohonen sformalizował i rozwinął znacznie ten termin, wprowadzając dodatkowo pojęcie konkurencji między neuronami [16].Opracowano wówczas takie sieci neuronowe, jak WTA (ang. Winner Takes All) oraz WTM (ang. Winner Takes Most) [17,18].Podczas prac na poprawą procesu uczenia tych sieci, zauważono, że znaczną poprawę procesu samoorganizacji, uzyskać możemy stosując nieco inną technikę uczenia sieci, którą nazwano metodą gazu neuronowego (ang. Neural Gas) (NG). Proces uczenia sieci NG Uczenie sieci NG jest procesem iteracyjnym, w którym poszczególne operacje realizowane są po sobie w ściśle określonej kolejności. Schemat blokowy procesu uczenia sieci NG, o i-wejściach i j-wyjściach (neuronach) przedstawia rysunek 1. Po podaniu na wejście sieci sygnału uczącego X następuje rywalizacja między neuronami. Rywalizacja ma na celu wyłonienie tego lub tych spośród neuronów, dla którego podobieństwo między wektorem uczącym X, a jego wektorem wag W (według aktualnie przyjętej metryki np. Euklidesa) jest największe. Następuje sortowanie wszystkich neuronów, w zależności od ich odległości od wektora uczącego. Polega ono generalnie na tym, że wyliczane są miary podobieństwa miedzy wektorami wag poszczególnych neuronów, a wektorem uczącym. Neurony są ustawiane w kolejności odpowiadającej narastającej odległości, tj: d 0 < d 1 < d 2. < d j, (1) gdzie d reprezentuje miarę podobieństwa danego neuronu wyznaczoną między wektorem jego wag W, a wektorem uczącym X, zgodnie z przyjętą metryką. Pierwszy neuron umownie nazwany zostaje zwycięskim. W odróżnieniu do sieci typu WTA, poza zwycięskim neuronem, prawo adaptacji wag mają także inne neurony, zgodnie z wyrażaniem (2): W ( k + 1) = W ( k) + G( a, λ( k)) ( X ( k) W ( k)), η (2) gdzie η jest współczynnikiem szybkości uczenia (ang. learning rate), którego wartość powinna maleć wraz z prezentacją kolejnych wektorów uczących, przyjmując na wartości zbliżone do zera, k jest krokiem (iteracją) procesu uczenia, a G funkcją sąsiedztwa. Funkcję sąsiedztwa, G, możemy natomiast opisać za pomocą wyrażenia (3): G(a, λ(k)) = exp a, (3) λ(k) gdzie a określa miejsce neuronu uzyskane w wyniku sortowania, a λ jest pewnym parametrem, który możemy traktować podobnie, jak promień sąsiedztwa w sieci neuronowej Kohonena typu WTM (ang. Winner Takes Most). Parametr λ maleje w trakcie procesu uczenia osiągając na końcu wartość 1 (wówczas sieć NG działa tak, jak sieć WTA). Parametr λ wskazuje, ile kolejnych po sobie, wcześniej odpowiednio posortowanych, neuronów powinno mieć zmienione wagi. W przypadku użycia metryki Euklidesa obszary dominacji neuronów przedstawione mogą być za pomocą mozaiki Voronoia. Obszar Voronoia V może być postrzegany, jako pewna część przestrzeni wzorców uczących, reprezentowana przez neurony, których miary odległości spełniają warunek (4): V j { X X W < X W j k} = :, (4) i ji W tym przypadku indeksem j oznaczono tzw. zwycięski neuron, czyli neuron, który jest reprezentantem pewnej klasy przypisanej do odpowiedniej przestrzeni wzorców uczących. Przestrzeń podzielona zostaje na pewne obszary (klastry) dominacji neuronów. Nowe dane na wejściu sieci, które znajdą się wewnątrz pewnego obszaru, są reprezentowane przez dominujący w danym miejscu neuron. Diagram Voronoia jest dobrym wyznacznikiem aktywności i dominacji neuronów i pomaga w ocenie skuteczności działania poszczególnych mechanizmów [20]. Innym sposobem oceny procesu uczenia jest wyznaczenie tzw. błąd kwantyzacji Eq. Błąd ten opisać możemy za pomocą wyrażenia (5): z 2 1 E = X W, q (5) z j k = 1 gdzie z jest liczbą wszystkich wzorców uczących przedstawionych sieci podczas jednej epoki procesu uczenia, j indeksem oznaczającym neuron o wartości miary d 0 (tzw. zwycięski neuron). Poszczególne bloki sieci NG pokazano na rysunku 1. i ki Logistyka 1/
3 Rys. 1. Schemat blokowy sieci NG o i-wejściach i j-wyjściach (j- neuronów) (BOP - blok obliczania podobieństwa, BS - blok sortowania neuronów, BAW - blok adaptacji wag. Bloki te odpowiedzialne są za wykonanie następujących po sobie operacji, tworząc tym samym jeden pełen cykl procesu uczenia. Proces uczenia podzielić możemy na tzw. iteracje i epoki. Podczas jednej iteracji procesu uczenia sieci NG wyróżnić możemy takie operacje jak: Prezentacja nowego wektora uczącego X, obliczenie odległości (miary podobieństwa) między wektorem uczącym X, a wektorami wag W poszczególnych neuronów - blok BOP (Blok Obliczania Podobieństwa), wykrycie, na podstawie miary podobieństwa zwycięskiego neuronu i kolejnych neuronów -- tzw. sortowanie neuronówblok BS (Blok Sortowania), modyfikacja wag neuronów zgodnie z regułą NG (1) - blok BAW (Blok Adaptacji Wag). Po wykonaniu wszystkich tych czynności następuje prezentacja nowego wektora uczącego i proces uczenia zaczyna się niejako od nowa. Liczba iteracji w 1 epoce równa jest liczbie wszystkich wzorców uczących, natomiast liczba epok może być różna, zależnie od wyników procesu uczenia. Poszczególne cykle pracy sieci NG przedstawia rysunek 2. W czasie trwania procesu uczenia (wraz ze zmianą kolejnych iteracji i epok)niektóre parametry procesu uczenia ulegają zmianie, jak np. współczynnik szybkości uczenia, czy wartość promienia sąsiedztwa λ. Rys. 2. Poszczególne fazy pracy sieci NG (faza uczenia i testowania). Logistyka 1/
4 Modyfikacja algorytmu uczenia pod kątem realizacji sprzętowej Podczas realizacji sprzętowej różnych algorytmów matematycznych, w tym także implementacji sztucznych sieci neuronowych, musimy zwrócić uwagę na kilka ważnych aspektów związanych z możliwościami pracy (maksymalna szybkość, pobór energii, wielkość pamięci, itp.) wykorzystywanych do tego celu układów elektronicznych. Projektując sieć neuronową ważne jest, aby realizowany algorytm procesu uczenia był stosunkowo łatwy, a tym samym, aby czas potrzebny na jego realizację przez układ elektroniczny (np. mikrokontroler) odpowiednio mały. Dzięki temu możemy zwiększyć liczbę wejść lub wyjść sieci (zachowując stały czas przetwarzania 1 iteracji procesu uczenia), co wpływa na zwiększenie potencjalnych możliwości wykorzystania takich sieci w różnych aplikacjach. W artykule zaproponowano zamianę funkcję sąsiedztwa opisanej wzorem (3) na nową funkcję sąsiedztwa G opisaną za pomocą wyrażenia (6): G(a, λ) = (λ a), (6) gdzie a określa miejsce neuronu uzyskane w wyniku sortowania, λ jest parametrem, który możemy traktować podobnie, jak promień sąsiedztwa w sieci typu WTM (ang. Winner Takes Most). Należy zwrócić uwagę na to, że w przypadku klasycznej funkcji sąsiedztwa G, opisanej za pomocą wyrażenia (3), parametr λ (określający tzw. promień ) nie powoduje wyłączenia z procesu uczenia tych neuronów, które są poza tą wartością (wartość funkcji G 0). Inne neurony, znajdujące się poza promieniem sąsiedztwa, niestety muszą mieć także zmienione wagi (zgodnie z wyrażeniem (2)).Fakt ten negatywnie wpływa na czas realizacji algorytmu, a w przypadku układu elektronicznego także na pobór moc (więcej elementów bierze za każdym razem udział w procesie uczenia sieci). Przykładowo dla sieci zbudowanej ze 100 neuronów (rys. 3), gdy wartość współczynnika ʎ=30, dla nowej funkcji sąsiedztwa tylko 30 neuronów (pierwszych w wyniku sortowania) zmienia swoje wagi, a 70 pozostałych może być w tym czasie uśpionych (bowiem G=0). W przypadku użycia klasycznej funkcji sąsiedztwa praktycznie wszystkie neurony pracują, bo wartość funkcji G powyżej promienia sąsiedztwa ma pewną wartość różną od zera. Hibernowanie neuronów, lub bardziej precyzyjnie, chwilowe dezaktywowanie ich układów zmiany wag, w przypadku realizacji sprzętowej wpływa na zmniejszenie poboru mocy, a także czas uczenia sieci. Rys. 3. Porównanie funkcji sąsiedztwa G dla różnych wartości parametru λ. Wszystkie testy sieci z nową funkcją sąsiedztwa wykonano na specjalnie do tego celu zaimplementowanym w środowisku Java modelu sieci NG. Wektor uczący składał się z 500 wzorców (dwu i pięciowymiarowych), posegregowanych w 10 grup. Na jedną grupę przypadało 50 wzorców danych (rysunek 4b - niebieskie kulki). Warte podkreślenia jest to, że zaproponowana funkcja sąsiedztwa nie zmienia zasadniczo procesu uczenia sieci NG. Uzyskane wyniki, patrząc z punktu widzenia sieci pracującej, jako klasyfikator danych (diagram Voronoia (rysunek 4), czas pracy sieci (Tabela 1 i Tabela 2) są porównywalne dla dwóch różnych funkcji G, natomiast wartość błędu kwantyzacji dla nowej funkcji jest zawsze mniejsza. Ważne jest także to, że nowa funkcja może być łatwo wykonana w postaci sprzętowej (np. przy użyciu układów programowalnych, a także specjalizowanych układów scalonych). Możemy ją bezpośrednio zaimplementować w sprzęcie (wykorzystując wzór 6), ale także (co jest bardzo ważne), wykonać ją stosując pewne Logistyka 1/
5 uproszczenia. Zwróćmy uwagę (rysunek 3), że funkcja G (opisana wyrażeniem 6) ma skokowy i malejący, w czasie procesu uczenia, przebieg (ale tylko w ramach promienia sąsiedztwa, poza nim ma zawsze wartość 0). Implementując ją w sprzęcie wystarczy przyjąć jej maksymalną wartość równą 1 (przypisać tę wartość tzw. zwycięzcy) i dokonywać odpowiedniej dekretacji jej wartości dla pozostałych, posortowanych neuronów. W konsekwencji tak zrealizowana sieć neuronowa, zaimplementowana w postaci układów elektronicznych (np. na uc, FPGA) będzie uczyć się szybciej, a sam proces będzie bardziej energooszczędny (łatwiejszy opis i realizacja funkcji G, w danej iteracji procesu uczenia pracują tylko neurony znajdujące się w ramach promienia, pozostałe są uśpione). Rys. 4. Proces uczenia sieci NG z wykorzystaniem dwóch różnych funkcji sąsiedztwa G (na górze funkcja opisana wyrażeniem (3), na dole funkcja opisana wyrażeniem (6)). Na rysunkach z lewej strony (a) przedstawione są diagramy Voronoia, z prawej strony (b) dane uczące X (500 wzorców uczących) i wartości wag po zakończonym procesie uczenia sieci dla 50 neuronów. Tab. 1.Porównanie parametrów procesu uczenia dla różnych funkcji G dla 2 wymiarowych danych uczących. Liczba neuronów sieci NG funkcja G opisana wyrażeniem (3) sieci NG nowa funkcja G opisana wyrażeniem (6) funkcja G opisana wyrażeniem (3) nowa funkcja G opisana wyrażeniem (6) ,008 0,006 ok. 630s ok. 630s~ 500 0,009 0,007 ok. 177s ok. 165s~ 100 0,019 0,017 ok. 5.5s ok. 5.5s~ 80 0,027 0,019 ok. 3.6s ok. 3.6s~ 60 0,039 0,029 ok. 2.1s ok. 2.1s~ 40 0,062 0,051 ok. 1.0s ok. 1.0s~ 20 0,133 0,120 ok. 0.3s ok. 0.3s~ 10 0,670 0,480 ok. 0.2s ok. 0.2s~ Logistyka 1/
6 Tab. 2. Porównanie parametrów procesu uczenia dla różnych funkcji G dla 5 wymiarowych danych uczących. Liczba neuronów sieci NG funkcja G opisana wyrażeniem (3) sieci NG nowa funkcja G opisana wyrażeniem (6) - funkcja G opisana wyrażeniem (3) nowa funkcja G opisana wyrażeniem (6) ,12 0,08 ok. 654s ok. 660s~ 500 0,14 0,09 ok. 165s ok. 167s~ 100 0,19 0,16 ok. 8.1s ok. 8.1s~ 80 0,21 0,18 ok. 5.4s ok. 5.4s~ 60 0,24 0,21 ok. 3.4s ok. 3.3s~ 40 0,28 0,26 ok. 1.7s ok. 1.7s~ 20 0,48 0,34 ok. 0.6s ok. 0.6s~ 20 2,50 1,10 ok. 0.3s ok. 0.3s~ W modelu sieci dodatkowo zastosowano skokową zmianę współczynnika uczenia sieci η (ang. learning rate). Skok współczynnika η odbywa się, co epokę k (zgodnie z wyrażeniem 7), osiągając na wartość 0. Na początku, tj. w pierwszej epoce procesu uczenia (k=1) musimy ustawić pewną początkową wartość tego współczynnika. Warte podkreślenie jest to, że podobnie jak w przypadku zaproponowanej funkcji sąsiedztwa, skokowe zmiany współczynnika szybkości uczenia w sprzęcie zrealizować możemy stosunkowo łatwo. η(k) = η (k=1) 1 z, (7) N gdzie N to całkowita liczba epok. Wnioski W artykule przedstawiono pewną modyfikację procesu uczenia sieci Neural Gas. Modyfikacja polega na zmianie funkcji sąsiedztwa, która wykorzystywana jest w procesie uczenia się sieci. Zaproponowana funkcja może być dobrą alternatywą do istniejących i znanych z literatury rozwiązań [12,13]. Zalety jej wykorzystania, będą szczególnie widoczne w przypadku realizacji sieci NG w układach elektronicznych. Łatwość realizacji takiej funkcji (np. przez stosunkową prostą w realizacji dekrementację jej wartości w czasie) w konsekwencji przełoży się na zmniejszenie czasu uczenia sieci i pobieranej przez nią energii. Streszczenie W artykule przedstawiono pewną modyfikację procesu uczenia sieci Neural Gas. Modyfikacja polega na zmianie funkcji sąsiedztwa G, która wykorzystywana jest w procesie uczenia się sieci. Zaproponowana funkcja może być dobrą alternatywą do istniejących i znanych z literatury rozwiązań. Zalety jej wykorzystania, będą szczególnie widoczne w przypadku realizacji sieci NG w układach elektronicznych. Łatwość realizacji takiej funkcji (np. przez dekrementację jej wartości w czasie) w konsekwencji przełoży się na zmniejszenie czasu uczenia sieci i pobieranej przez nią energii. Słowa kluczowe: algorytm gazu neuronowego, funkcja sąsiedztwa, realizacje sprzętowe sieci neuronowych. Improving learning process of the artificial neural network based on neural gas algorithm in the context of the hardware implementation Abstract The paper presents a modification of the learning process of the Artificial Neural Network based on Neural Gas Algotithm. In this network changed the function of the neighbourhood G. The proposed function can be a good alternative to the existing and known from the literature solutions. The advantages of its use, will be particularly evident in the case of NG network implementation in electronic circuits. Keywords: neural gas algorithm, neighbourhood function, hardware implementations of neural networks. Logistyka 1/
7 LITERATURA / BIBLIOGRAPHY [1] Singh S., Harini J, Surabhi B., R., A novel neural network based automated system for diagnosis of breast cancer from real time biopsy slides 2014 International Conference on Circuits, Communication, Control and Computing (I4C), India, [2] Fukuoka Y., Fukuhara M., Ishida A., Stress assessment based on ECG using neural networks, Proceedings of the 18th Annual International Conference of the IEEE Engineering in Medicine and Biology Society, Amsterdam, The Netherlands, Vol. 5, [3] Li Meng, Exchange rate forecasting based on neural network with revised weight, nd International Conference on Artificial Intelligence, Management Science and Electronic Commerce (AIMSEC), Zhengzhou, China, [4] Dissananayake B.M.M., Hendahewa C.H., Karunananda A.S, Artificial Neural Network approach to credit risk assessment, International Conference on Industrial and Information Systems (ICIIS 2007), Sri Lanka, [5] Kaijun Xu, Guangming Zhang, Yang Xu, Intelligent landing control system for civil aviation aircraft with dual fuzzy neural network, 2011 eighth International Conference on Fuzzy Systems and Knowledge Discovery (FSKD), Shanghai, China, Vol. 4, [6] LinChih-Min, Chun-Fei Hsu, Neural-network hybrid control for antilock braking systems, IEEE Transactions on Neural Networks, Vol. 14, No. 2, [7] Sutton J.C, III., Identification of electronic component faults using neural networks and fuzzy systems, Proceedings of the 1992 International Conference on Industrial Electronics, Control, Instrumentation, and Automation, Power Electronics and Motion Control, USA, [8] Farooq U., Amar M., ulhaq E., Asad M.U., Atiq H.M., Microcontroller Based Neural Network Controlled Low Cost Autonomous Vehicle, 2010 Second International Conference on Machine Learning and Computing (ICMLC), India, 2010 [9] Garcia-Breijo E., Atkinson J., Garrigues J., Gil L., Ibanez J., Glanc M., Olguin C.,An electronic tongue for monitoring drinking waters using a fuzzy ARTMAP neural network implemented on a microcontroller, 2011 IEEE International Symposium on Industrial Electronics (ISIE), Gdańsk, Poland, [10] Deotale P.D., Dole L., Design of FPGA based general purpose neural network, 2014 International Conference on Information Communication and Embedded Systems (ICICES), Madras, India, [11] Orlowska-Kowalska T., Kaminski M., FPGA Implementation of the Multilayer Neural Network for the Speed Estimation of the Two-Mass Drive System, IEEE Transactions on Industrial Informatics, Vol. 7, No. 3, [12] Martinetz T., Schulten K., A "neural gas" network learns topologies, Artificial Neural Networks, Elsevier, Amsterdam, [13] Martinetz T., Berkovich S.G., Schulten K., "Neural gas" for vector quantization and its application to time-series prediction, IEEE Transactions on Neural Networks, Vo. 4, No. 4, [14] Korbicz J., Obuchowicz A., UcińskiD., Sztuczne sieci neuronowe. Podstawy i zastosowania, Akademicka Oficyna Wydawnicza PLJ, Warszawa, [15] Von der Malsburg C., Self-organisation of orientation sensitive cells in the striate cortex, Kybernetik, Vol. 14, pp: , [16] Wilshow D. J., von der Malsburg C.,How patterned neural connections can be set up by self-organization, Proceedings of the Royal Society of London, seria B, Biological Sciences, Vol. 194, No. 1117, pp: , [17] Kangas J., Kohonen T., Laaksonen J., Simula O., Venta O. Variants of self-organizing maps, International Joint Conference on Neural Networks (IJCNN), Vol. 2, pp: , USA, [18] Kohonen T., The self-organizing map, Proceedings of the IEEE, Vol 78, No. 9, [19] Kohonen T., Self-organizing maps, 3-ed, Springer Verlag, Berlin, Heidelberg, [20] Talaśka T., Idźkowski M., Rydlewski A., Miciak. M, Wiatr R., Nowy, efektywny mechanism pobudzania martwych neuronów w sztucznych sieciach neuronowych Kohonena typu WTA, Logistyka, nr 6/2014. Logistyka 1/
Lekcja 5: Sieć Kohonena i sieć ART
Lekcja 5: Sieć Kohonena i sieć ART S. Hoa Nguyen 1 Materiał Sieci Kohonena (Sieć samo-organizująca) Rysunek 1: Sieć Kohonena Charakterystyka sieci: Jednowarstwowa jednokierunkowa sieć. Na ogół neurony
Bardziej szczegółowoS O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor
S O M SELF-ORGANIZING MAPS Przemysław Szczepańczyk Łukasz Myszor Podstawy teoretyczne Map Samoorganizujących się stworzył prof. Teuvo Kohonen (1982 r.). SOM wywodzi się ze sztucznych sieci neuronowych.
Bardziej szczegółowoSztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335
Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Wykład 10 Mapa cech Kohonena i jej modyfikacje - uczenie sieci samoorganizujących się - kwantowanie wektorowe
Bardziej szczegółowoSztuczna Inteligencja Tematy projektów Sieci Neuronowe
PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia
Bardziej szczegółowoObliczenia inteligentne Zadanie 4
Sieci SOM Poniedziałek, 10:15 2007/2008 Krzysztof Szcześniak Cel Celem zadania jest zaimplementowanie neuronowej samoorganizującej się mapy wraz z metodą jej nauczania algorytmem gazu neuronowego. Część
Bardziej szczegółowoMonitorowanie i Diagnostyka w Systemach Sterowania
Monitorowanie i Diagnostyka w Systemach Sterowania Katedra Inżynierii Systemów Sterowania Dr inż. Michał Grochowski Monitorowanie i Diagnostyka w Systemach Sterowania na studiach II stopnia specjalności:
Bardziej szczegółowoMETODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING NEURONOWE MAPY SAMOORGANIZUJĄCE SIĘ Self-Organizing Maps SOM Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki,
Bardziej szczegółowoZastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym
Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW 17 XII 2013 Jan Karwowski
Bardziej szczegółowoCo to jest grupowanie
Grupowanie danych Co to jest grupowanie 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Szukanie grup, obszarów stanowiących lokalne gromady punktów Co to jest grupowanie
Bardziej szczegółowoWPŁYW FUNKCJI SĄSIEDZTWA NA EFEKTYWNOŚĆ UCZENIA SIECI NEURONOWYCH KOHONENA IMPLEMENTOWANYCH SPRZĘTOWO
ELEKTRYKA 11 Zeszyt 1 (17) Rok LVII Marta KOLASA, Rafał DŁUGOSZ Zakład Podstaw Elektrotechnik Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy Aleksandra FIGAS Katedra Inżynierii Komputerowej, Politechnika
Bardziej szczegółowoIMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ
IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,
Bardziej szczegółowoZastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej. Adam Żychowski
Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej Adam Żychowski Definicja problemu Każdy z obiektów może należeć do więcej niż jednej kategorii. Alternatywna definicja Zastosowania
Bardziej szczegółowoProblem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner
Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner Wydział Matematyki i Nauk Informacyjnych Politechnika Warszawska Elementy nieprzystające Definicja odrzucania Klasyfikacja
Bardziej szczegółowoSIECI KOHONENA UCZENIE BEZ NAUCZYCIELA JOANNA GRABSKA-CHRZĄSTOWSKA
SIECI KOHONENA UCZENIE BEZ NAUCZYCIELA JOANNA GRABSKA-CHRZĄSTOWSKA Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA SAMOUCZENIE SIECI metoda Hebba W mózgu
Bardziej szczegółowoPOZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 79 Electrical Engineering 2014
POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 79 Electrical Engineering 2014 Marta KOLASA* Rafał DŁUGOSZ* KONCEPCJA ZASTOSOWANIA SZTUCZNYCH SIECI NEURONOWYCH DO LOKALIZACJI ELEMENTÓW POWODUJĄCYCH
Bardziej szczegółowoAlgorytmy sztucznej inteligencji
Algorytmy sztucznej inteligencji Dynamiczne sieci neuronowe 1 Zapis macierzowy sieci neuronowych Poniżej omówione zostaną części składowe sieci neuronowych i metoda ich zapisu za pomocą macierzy. Obliczenia
Bardziej szczegółowo8. Neuron z ciągłą funkcją aktywacji.
8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i
Bardziej szczegółowoZastosowanie sztucznej inteligencji w testowaniu oprogramowania
Zastosowanie sztucznej inteligencji w testowaniu oprogramowania Problem NP Problem NP (niedeterministycznie wielomianowy, ang. nondeterministic polynomial) to problem decyzyjny, dla którego rozwiązanie
Bardziej szczegółowoLEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów
LEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów Łukasz Piątek, Jerzy W. Grzymała-Busse Katedra Systemów Ekspertowych i Sztucznej Inteligencji, Wydział Informatyki
Bardziej szczegółowoWprowadzenie. SOM jest skrótem od Self Organizing Maps, czyli Samoorganizujące się mapy.
SOM i WebSOM Wprowadzenie SOM jest skrótem od Self Organizing Maps, czyli Samoorganizujące się mapy. Podstawy teoretyczne stworzył fiński profesor Teuvo Kohonen w 1982 r SOM - ogólnie Celem tych sieci
Bardziej szczegółowoMETODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING NEURONOWE MAPY SAMOORGANIZUJĄCE SIĘ ĆWICZENIA Self-Organizing Maps SOM Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki,
Bardziej szczegółowoOptymalizacja optymalizacji
7 maja 2008 Wstęp Optymalizacja lokalna Optymalizacja globalna Algorytmy genetyczne Badane czasteczki Wykorzystane oprogramowanie (Algorytm genetyczny) 2 Sieć neuronowa Pochodne met-enkefaliny Optymalizacja
Bardziej szczegółowoMATLAB Neural Network Toolbox przegląd
MATLAB Neural Network Toolbox przegląd WYKŁAD Piotr Ciskowski Neural Network Toolbox: Neural Network Toolbox - zastosowania: przykłady zastosowań sieci neuronowych: The 1988 DARPA Neural Network Study
Bardziej szczegółowoMetody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF.
Metody sztucznej inteligencji Zadanie 3: ( klasteryzacja samoorganizująca się mapa Kohonena, (2 aproksymacja sieć RBF dr inż Przemysław Klęsk Klasteryzacja za pomocą samoorganizującej się mapy Kohonena
Bardziej szczegółowoZastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2014/2015
Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner rok akademicki 2014/2015 Sieci Kohonena Sieci Kohonena Sieci Kohonena zostały wprowadzone w 1982 przez fińskiego
Bardziej szczegółowoSztuczna inteligencja
Sztuczna inteligencja Wykład 7. Architektury sztucznych sieci neuronowych. Metody uczenia sieci. źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Podstawowe architektury
Bardziej szczegółowoDeep Learning na przykładzie Deep Belief Networks
Deep Learning na przykładzie Deep Belief Networks Jan Karwowski Zakład Sztucznej Inteligencji i Metod Obliczeniowych Wydział Matematyki i Nauk Informacyjnych PW 20 V 2014 Jan Karwowski (MiNI) Deep Learning
Bardziej szczegółowoMetody Sztucznej Inteligencji II
17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału
Bardziej szczegółowoSzybkie prototypowanie w projektowaniu mechatronicznym
Szybkie prototypowanie w projektowaniu mechatronicznym Systemy wbudowane (Embedded Systems) Systemy wbudowane (ang. Embedded Systems) są to dedykowane architektury komputerowe, które są integralną częścią
Bardziej szczegółowoSIEĆ GRNN W KOMPRESJI OBRAZÓW RADAROWYCH
ZESZYTY NAUKOWE AKADEMII MARYNARKI WOJENNEJ ROK XLV NR 1 (156) 2004 Tomasz Praczyk SIEĆ GRNN W KOMPRESJI OBRAZÓW RADAROWYCH STRESZCZENIE Obraz morskiego radaru nawigacyjnego może być podstawą perspektywicznego
Bardziej szczegółowoSztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010
Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010 Sieci neuronowe jednokierunkowa wielowarstwowa sieć neuronowa sieci Kohonena
Bardziej szczegółowoElementy inteligencji obliczeniowej
Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego
Bardziej szczegółowoSieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści
Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, 2013 Spis treści Przedmowa 7 1. Wstęp 9 1.1. Podstawy biologiczne działania neuronu 9 1.2. Pierwsze modele sieci neuronowej
Bardziej szczegółowoSieci neuronowe i ich ciekawe zastosowania. Autor: Wojciech Jamrozy III rok SMP / Informatyka
Sieci neuronowe i ich ciekawe zastosowania Autor: Wojciech Jamrozy III rok SMP / Informatyka Klasyczna algorytmika Sortowanie ciągu liczb Czy i ile razy dane słowo wystąpiło w tekście Najkrótsza droga
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 8 Uczenie nienadzorowane.
Wstęp do sieci neuronowych, wykład 8. M. Czoków, J. Piersa, A. Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 1-811-6 Projekt pn. Wzmocnienie potencjału dydaktycznego
Bardziej szczegółowoSystemy uczące się Lab 4
Systemy uczące się Lab 4 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 26 X 2018 Projekt zaliczeniowy Podstawą zaliczenia ćwiczeń jest indywidualne wykonanie projektu uwzględniającego
Bardziej szczegółowoNajprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;
Sieci Hopfielda Najprostsze modele sieci z rekurencją sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Modele bardziej złoŝone: RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie
Bardziej szczegółowoUniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych
Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych ELEMENTY SZTUCZNEJ INTELIGENCJI Laboratorium nr 6 SYSTEMY ROZMYTE TYPU MAMDANIEGO
Bardziej szczegółowoZastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2)
Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2) Ewa Wołoszko Praca pisana pod kierunkiem Pani dr hab. Małgorzaty Doman Plan tego wystąpienia Teoria Narzędzia
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3
Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt
Bardziej szczegółowoDEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI
POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 80 Electrical Engineering 2014 Stanisław PŁACZEK* DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI W artykule
Bardziej szczegółowo1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda
Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy
Bardziej szczegółowoZastosowania sieci neuronowych
Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką
Bardziej szczegółowoInteligentne systemy informacyjne
Inteligentne systemy informacyjne Moduł 10 Mieczysław Muraszkiewicz www.icie.com.pl/lect_pw.htm M. Muraszkiewicz strona 1 Sieci neuronowe szkic Moduł 10 M. Muraszkiewicz strona 2 Dwa nurty M. Muraszkiewicz
Bardziej szczegółowoMETODY INŻYNIERII WIEDZY
METODY INŻYNIERII WIEDZY WALIDACJA KRZYŻOWA dla ZAAWANSOWANEGO KLASYFIKATORA KNN ĆWICZENIA Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej
Bardziej szczegółowo10. Redukcja wymiaru - metoda PCA
Algorytmy rozpoznawania obrazów 10. Redukcja wymiaru - metoda PCA dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. PCA Analiza składowych głównych: w skrócie nazywana PCA (od ang. Principle Component
Bardziej szczegółowoElementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2
Elementy Sztucznej Inteligencji Sztuczne sieci neuronowe cz. 2 1 Plan wykładu Uczenie bez nauczyciela (nienadzorowane). Sieci Kohonena (konkurencyjna) Sieć ze sprzężeniem zwrotnym Hopfielda. 2 Cechy uczenia
Bardziej szczegółowoAdrian Horzyk
Metody Inteligencji Obliczeniowej Metoda K Najbliższych Sąsiadów (KNN) Adrian Horzyk horzyk@agh.edu.pl AGH Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej
Bardziej szczegółowoAdrian Horzyk
Sztuczne Systemy Skojarzeniowe SSS Asocjacyjne grafowe struktury danych AGDS Associative Graph Data Structure Adrian Horzyk horzyk@agh.edu.pl AGH Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki,
Bardziej szczegółowoIMPLEMENTATION OF THE SPECTRUM ANALYZER ON MICROCONTROLLER WITH ARM7 CORE IMPLEMENTACJA ANALIZATORA WIDMA NA MIKROKONTROLERZE Z RDZENIEM ARM7
Łukasz Deńca V rok Koło Techniki Cyfrowej dr inż. Wojciech Mysiński opiekun naukowy IMPLEMENTATION OF THE SPECTRUM ANALYZER ON MICROCONTROLLER WITH ARM7 CORE IMPLEMENTACJA ANALIZATORA WIDMA NA MIKROKONTROLERZE
Bardziej szczegółowoPattern Classification
Pattern Classification All materials in these slides were taken from Pattern Classification (2nd ed) by R. O. Duda, P. E. Hart and D. G. Stork, John Wiley & Sons, 2000 with the permission of the authors
Bardziej szczegółowoLiteratura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu
Literatura Wykład : Wprowadzenie do sztucznych sieci neuronowych Małgorzata Krętowska Wydział Informatyki Politechnika Białostocka Tadeusiewicz R: Sieci neuronowe, Akademicka Oficyna Wydawnicza RM, Warszawa
Bardziej szczegółowoWspółczesna problematyka klasyfikacji Informatyki
Współczesna problematyka klasyfikacji Informatyki Nazwa pojawiła się na przełomie lat 50-60-tych i przyjęła się na dobre w Europie Jedna z definicji (z Wikipedii): Informatyka dziedzina nauki i techniki
Bardziej szczegółowoMetody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska
Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska e-mail: bartosz.krawczyk@pwr.wroc.pl Czym jest klasyfikacja
Bardziej szczegółowoZastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań
Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW
Bardziej szczegółowoWstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.
Wstęp do teorii sztucznej inteligencji Wykład II Uczenie sztucznych neuronów. 1 - powtórzyć o klasyfikacji: Sieci liniowe I nieliniowe Sieci rekurencyjne Uczenie z nauczycielem lub bez Jednowarstwowe I
Bardziej szczegółowoPRZEWODNIK PO PRZEDMIOCIE
Nazwa przedmiotu: Kierunek: Mechatronika Rodzaj przedmiotu: obowiązkowy Rodzaj zajęć: wykład, laboratorium I KARTA PRZEDMIOTU CEL PRZEDMIOTU PRZEWODNIK PO PRZEDMIOCIE C1. Zapoznanie studentów z inteligentnymi
Bardziej szczegółowoMETODY INTELIGENCJI OBLICZENIOWEJ wykład 5
METODY INTELIGENCJI OBLICZENIOWEJ wykład 5 1 2 SZTUCZNE SIECI NEURONOWE cd 3 UCZENIE PERCEPTRONU: Pojedynczy neuron (lub 1 warstwa neuronów) typu percep- tronowego jest w stanie rozdzielić przestrzeń obsza-
Bardziej szczegółowoWstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty
Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-03 Projekt pn. Wzmocnienie potencjału
Bardziej szczegółowoSieci neuronowe i algorytmy uczenia Czyli co i jak andrzej.rusiecki.staff.iiar.pwr.wroc.pl s.
Sieci neuronowe i algorytmy uczenia Czyli co i jak 2016 andrzej.rusiecki@pwr.edu.pl andrzej.rusiecki.staff.iiar.pwr.wroc.pl s. 230/C-3 O co chodzi? Celem przedmiotu jest ogólne zapoznanie się z podstawowymi
Bardziej szczegółowoMETODY ZINTEGROWANEGO PROJEKTOWANIA SPRZĘTU I OPROGRAMOWANIA Z WYKORZYSTANIEM NOWOCZESNYCH UKŁADÓW PROGRAMOWALNYCH
METODY ZINTEGROWANEGO PROJEKTOWANIA SPRZĘTU I OPROGRAMOWANIA Z WYKORZYSTANIEM NOWOCZESNYCH UKŁADÓW PROGRAMOWALNYCH Arkadiusz Bukowiec mgr inż. Agnieszka Węgrzyn Instytut Informatyki i Elektroniki, Uniwersytet
Bardziej szczegółowoUczenie sieci neuronowych i bayesowskich
Wstęp do metod sztucznej inteligencji www.mat.uni.torun.pl/~piersaj 2009-01-22 Co to jest neuron? Komputer, a mózg komputer mózg Jednostki obliczeniowe 1-4 CPU 10 11 neuronów Pojemność 10 9 b RAM, 10 10
Bardziej szczegółowoSystemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017
Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład III bogumil.konopka@pwr.edu.pl 2016/2017 Wykład III - plan Regresja logistyczna Ocena skuteczności klasyfikacji Macierze pomyłek Krzywe
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.
Wstęp do sieci neuronowych, wykład 7. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 212-11-28 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu
Bardziej szczegółowoBadacze zbudowali wiele systemów technicznych, naśladujących w komputerze ludzki mózg. Najbardziej pożyteczne okazały się sieci neuronowe.
Naśladując w komputerze ludzki mózg staramy się połączyć zalety komputera (dostępność i szybkość działania) z zaletami mózgu (zdolność do uczenia się) informatyka + 2 Badacze zbudowali wiele systemów technicznych,
Bardziej szczegółowoOprogramowanie Systemów Obrazowania SIECI NEURONOWE
SIECI NEURONOWE Przedmiotem laboratorium jest stworzenie algorytmu rozpoznawania zwierząt z zastosowaniem sieci neuronowych w oparciu o 5 kryteriów: ile zwierzę ma nóg, czy żyje w wodzie, czy umie latać,
Bardziej szczegółowoPROJEKTOWANIE UKŁADÓW MIKROPROGRAMOWANYCH Z WYKORZYSTANIEM WBUDOWANYCH BLOKÓW PAMIĘCI W MATRYCACH PROGRAMOWALNYCH
II Konferencja Naukowa KNWS'05 "Informatyka- sztuka czy rzemios o" 5-8 czerwca 005, Z otniki Luba skie PROJEKTOWANIE UKŁADÓW MIKROPROGRAMOWANYCH Z WYKORZYSTANIEM WBUDOWANYCH BLOKÓW PAMIĘCI W MATRYCACH
Bardziej szczegółowoAlgorytmy i struktury danych
Algorytmy i struktury danych Proste algorytmy sortowania Witold Marańda maranda@dmcs.p.lodz.pl 1 Pojęcie sortowania Sortowaniem nazywa się proces ustawiania zbioru obiektów w określonym porządku Sortowanie
Bardziej szczegółowoWYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)
WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO Stanisław Kowalik (Poland, Gliwice) 1. Wprowadzenie Wstrząsy podziemne i tąpania występujące w kopalniach
Bardziej szczegółowoSztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW
Sztuczne Sieci Neuronowe Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW SN są częścią dziedziny Sztucznej Inteligencji Sztuczna Inteligencja (SI) zajmuje się
Bardziej szczegółowoUczenie sieci typu MLP
Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik
Bardziej szczegółowoSieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.
Sieci rekurencyjne Ewa Adamus ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych 7 maja 2012 Jednowarstwowa sieć Hopfielda, z n neuronami Bipolarna funkcja przejścia W wariancie
Bardziej szczegółowoMetody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium JAVA Zadanie nr 2 Rozpoznawanie liter autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z problemem klasyfikacji
Bardziej szczegółowoAlgorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych. Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS
Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS Dyskretyzacja - definicja Dyskretyzacja - zamiana atrybutów
Bardziej szczegółowoWYKORZYSTANIE SIECI NEURONOWYCH DO ODWZOROWANIA DEFORMACJI POWIERZCHNI NA TERENACH GÓRNICZYCH
IZABELA SKRZYPCZAK, DAWID ZIENTEK WYKORZYSTANIE SIECI NEURONOWYCH DO ODWZOROWANIA DEFORMACJI POWIERZCHNI NA TERENACH GÓRNICZYCH THE APPLICATION OF NEURAL NETWORKS FOR PROJECTION OF SURFACES DEFORMATIONS
Bardziej szczegółowoTestowanie modeli predykcyjnych
Testowanie modeli predykcyjnych Wstęp Podczas budowy modelu, którego celem jest przewidywanie pewnych wartości na podstawie zbioru danych uczących poważnym problemem jest ocena jakości uczenia i zdolności
Bardziej szczegółowoTestowanie systemów wbudowanych i krytycznych dla bezpieczeństwa Bogdan Bereza Wersja 2.0 1 (33)
Testowanie systemów wbudowanych i krytycznych dla bezpieczeństwa Bogdan Bereza Wersja 2.0 1 (33) 1. Wbudowane 2. Krytyczne 3. Czasu rzeczywistego 2 (33) Chmura Agile Biznes ISTQB 3 (33) 1. Testowanie systemów
Bardziej szczegółowoAsocjacyjna reprezentacja danych i wnioskowanie
Asocjacyjna reprezentacja danych i wnioskowanie Wykorzystane technologie JetBrains PyCharm 504 Python 35 Struktura drzewa GRAPH PARAM PARAM ID1 ID2 ID_N params params params param_name_1: param_value_1
Bardziej szczegółowoZastosowania sieci neuronowych
Zastosowania sieci neuronowych klasyfikacja LABORKA Piotr Ciskowski zadanie 1. klasyfikacja zwierząt sieć jednowarstwowa żródło: Tadeusiewicz. Odkrywanie własności sieci neuronowych, str. 159 Przykład
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt
Bardziej szczegółowoInstrukcja realizacji ćwiczenia
SIEĆ KOHONENA ROZPOZNAWANIE OBRAZÓW Cel ćwiczenia: zapoznanie się ze sposobem reprezentacji wiedzy w sieciach Kohonena i mechanizmami sąsiedztwa i sumienia neuronów. Zadanie do analizy: analizujemy sieć
Bardziej szczegółowoMetody klasyfikacji i rozpoznawania wzorców. Najważniejsze rodzaje klasyfikatorów
Metody klasyfikacji i rozpoznawania wzorców www.michalbereta.pl Najważniejsze rodzaje klasyfikatorów Dla określonego problemu klasyfikacyjnego (tzn. dla danego zestawu danych) należy przetestować jak najwięcej
Bardziej szczegółowoTemat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE
Temat: Sztuczne Sieci Neuronowe Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sztuczne sieci neuronowe
Bardziej szczegółowoWYKORZYSTANIE SZTUCZNYCH SIECI NEURONOWYCH W PROGNOZOWANIU
WYKORZYSTANIE SZTUCZNYCH SIECI NEURONOWYCH W PROGNOZOWANIU THE USE OF ARTIFICIAL NEURAL NETWORKS IN FORECASTING Konrad BAJDA, Sebastian PIRÓG Resume Artykuł opisuje wykorzystanie sztucznych sieci neuronowych
Bardziej szczegółowo7. Maszyny wektorów podpierajacych SVMs
Algorytmy rozpoznawania obrazów 7. Maszyny wektorów podpierajacych SVMs dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Maszyny wektorów podpierajacych - SVMs Maszyny wektorów podpierających (ang.
Bardziej szczegółowoO badaniach nad SZTUCZNĄ INTELIGENCJĄ
O badaniach nad SZTUCZNĄ INTELIGENCJĄ Jak określa się inteligencję naturalną? Jak określa się inteligencję naturalną? Inteligencja wg psychologów to: Przyrodzona, choć rozwijana w toku dojrzewania i uczenia
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.
Wstęp do sieci neuronowych, wykład 7. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 213-11-19 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych
Bardziej szczegółowoZagadnienia egzaminacyjne INFORMATYKA. stacjonarne. I-go stopnia. (INT) Inżynieria internetowa STOPIEŃ STUDIÓW TYP STUDIÓW SPECJALNOŚĆ
(INT) Inżynieria internetowa 1.Tryby komunikacji między procesami w standardzie Message Passing Interface. 2. HTML DOM i XHTML cel i charakterystyka. 3. Asynchroniczna komunikacja serwerem HTTP w technologii
Bardziej szczegółowoKLASYFIKACJA. Słownik języka polskiego
KLASYFIKACJA KLASYFIKACJA Słownik języka polskiego Klasyfikacja systematyczny podział przedmiotów lub zjawisk na klasy, działy, poddziały, wykonywany według określonej zasady Klasyfikacja polega na przyporządkowaniu
Bardziej szczegółowoAutoreferat Rozprawy Doktorskiej
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Autoreferat Rozprawy Doktorskiej Krzysztof Kogut Real-time control
Bardziej szczegółowoTemat: Sieci neuronowe oraz technologia CUDA
Elbląg, 27.03.2010 Temat: Sieci neuronowe oraz technologia CUDA Przygotował: Mateusz Górny VIII semestr ASiSK Wstęp Sieci neuronowe są to specyficzne struktury danych odzwierciedlające sieć neuronów w
Bardziej szczegółowoAUTO-STROJENIE REGULATORA TYPU PID Z WYKORZYSTANIEM LOGIKI ROZMYTEJ
POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 75 Electrical Engineering 2013 Łukasz NIEWIARA* Krzysztof ZAWIRSKI* AUTO-STROJENIE REGULATORA TYPU PID Z WYKORZYSTANIEM LOGIKI ROZMYTEJ Zagadnienia
Bardziej szczegółowoWstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.
Wstęp do teorii sztucznej inteligencji Wykład III Modele sieci neuronowych. 1 Perceptron model najprostzszy przypomnienie Schemat neuronu opracowany przez McCullocha i Pittsa w 1943 roku. Przykład funkcji
Bardziej szczegółowoScenariusz lekcji. podać przykłady zalet użycia takiej instrukcji; opisać algorytm obliczania średniej n liczb;
1 TEMAT LEKCJI: Instrukcja pętli For w języku Turbo Pascal 2 CELE LEKCJI: 2.1 Wiadomości: Uczeń potrafi: podać konstrukcję instrukcji pętli For w języku Turbo Pascal; omówić sposób działania instrukcji
Bardziej szczegółowoProgramowanie i techniki algorytmiczne
Temat 2. Programowanie i techniki algorytmiczne Realizacja podstawy programowej 1) wyjaśnia pojęcie algorytmu, podaje odpowiednie przykłady algorytmów rozwiązywania różnych 2) formułuje ścisły opis prostej
Bardziej szczegółowosynaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.
Sieci neuronowe model konekcjonistyczny Plan wykładu Mózg ludzki a komputer Modele konekcjonistycze Perceptron Sieć neuronowa Uczenie sieci Sieci Hopfielda Mózg ludzki a komputer Twój mózg to 00 000 000
Bardziej szczegółowoOptymalizacja systemów
Optymalizacja systemów Laboratorium - problem detekcji twarzy autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, P. Klukowski Cel zadania Celem zadania jest zapoznanie się z gradientowymi algorytmami optymalizacji
Bardziej szczegółowoSemestr 1 suma pkt ECTS dla wszystkich kursów w semestrze: 30
1. Zestaw kursów i grup kursów obowiązkowych i wybieralnych w układzie semestralnym Załącznik nr3 Semestr 1 suma pkt dla wszystkich kursów w semestrze: 30 Kursy obowiązkowe suma pkt : 30 Lp Kod kursu pkt
Bardziej szczegółowoPRZEWODNIK PO PRZEDMIOCIE
Nazwa przedmiotu: Kierunek: Informatyka Rodzaj przedmiotu: obowiązkowy w ramach treści kierunkowych, moduł kierunkowy oólny Rodzaj zajęć: wykład, laboratorium I KARTA PRZEDMIOTU CEL PRZEDMIOTU PRZEWODNIK
Bardziej szczegółowo