Poprawa procesu uczenia się sztucznej sieci neuronowej typu Neural Gas w kontekście realizacji sprzętowej 2

Wielkość: px
Rozpocząć pokaz od strony:

Download "Poprawa procesu uczenia się sztucznej sieci neuronowej typu Neural Gas w kontekście realizacji sprzętowej 2"

Transkrypt

1 Tomasz Talaśka 1 Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy Poprawa procesu uczenia się sztucznej sieci neuronowej typu Neural Gas w kontekście realizacji sprzętowej 2 Wprowadzenie Sztuczne sieci neuronowe (ANN) są uniwersalnym i jednocześnie bardzo zaawansowanym narzędziem do przetwarzania informacji. Wykorzystywane są one w różnych dziedzinach życia, jak np. medycyna, ekonomia, logistyka, informatyka, automatyka, elektronika, telekomunikacja, itp [1,2,3,4,5,6,7]. Ich zalety, na tle klasycznych metod przetwarzania sygnałów, uwidaczniają się tym bardziej im dane, które to sieci neuronowe przetwarzają są bardziej zakłócone i niepełne. Przykładem mogą tu być systemy rozpoznawania (np. obrazów), czy też klasyfikacji danych w systemach logistycznych. Mimo iż sztuczne sieci neuronowe (NN) zainspirowane były sieciami biologicznymi, to ich podobieństwo do takich systemów jest nadal bardzo znikome. Różnice są widoczne zarówno po stronie możliwości obliczeniowych takich sieci (w sieciach biologicznych mamy do czynienia z bardzo dużą liczbą neuronów, przetwarzających informacje w sposób równoległy), a także ich budowy i działania. Sztuczne sieci neuronowe możemy podzielić według różnych kryteriów. Do najbardziej popularnych należy sposób uczenia sieci, gdzie wyróżnić możemy sieci uczone z tzw. nauczycielem i bez nauczyciela. Innym często spotykamy sposobem podziału sieci jest sposób ich implementacji. Wyróżnić możemy tu sieci implementowane na klasycznych komputerach PC (takich sieci jest zdecydowanie najwięcej), a także sieci implementowane w postaci układów elektronicznych. Szczególnie ciekawa jest ten drugi sposób realizacji, bowiem przy odpowiednio dobrze wybranej technice realizacji, jak np. specjalizowane układy scalone ASIC (ang. Application Specific Integrated Circuit) możliwe jest równoległe przetwarzanie danych (które zwyczajowo spotykane jest tylko w biologicznych sieciach neuronowych) z wykorzystaniem znikomo małej energii. Niestety implementacja sieci w postaci układów ASIC jest droga, a sam proces projektowania i testów długi. Inną ciekawą odmianą sprzętowej realizacji sieci neuronowej jest wykorzystanie stosunkowo tanich obecnie na rynku układów FPGA (ang. Field Programmable Gate Array) oraz mikrokontrolerów [8,9,10,11]. Zanim zaimplementujemy sieci neuronową w postaci układów elektronicznych musimy często, dokonać pewnych modyfikacji w samej sieci tak, aby dostosować ją do sposobu działania odpowiedniego, użytego przez nas układu elektronicznego. Istotne jest także, aby ewentualne, wprowadzone modyfikacje nie wpływały negatywnie na proces uczenia, tj. nie zwiększały błędu uczenia, czasu przetwarzania i oczekiwanych wyników. W artykule przedstawiono pewną modyfikację procesu uczenia samoorganizującej się sztucznej sieci neuronowej, typu Neural Gas (NG) [12,13] polegającą na użyciu nowej funkcji sąsiedztwa. Funkcja ta dobrze nadaje się do implementacji w postaci układów programowalnych (np. na mikrokontrolerze lub w postaci układu FPGA). Czas uczenia, zbadany na modelu programowym, jest podobny, jak w przypadku sieci z klasyczną funkcją sąsiedztwa, natomiast wartość błędu uczenia jest mniejsza. W celu weryfikacji poprawności działania sieci z nową funkcją sąsiedztwa opracowano model programowy sieci (ang. software model) w środowisku Java. Model programowy, sieci neuronowych, które będą realizowane w przyszłości w postaci układów elektronicznych, jest bardzo ważny i zarazem niesłychanie pomocny. Pozwala on na przeprowadzenie bardzo szczegółowych i czasochłonnych badań takich sieci, przed ich bezpośrednią realizacją sprzętową. Dodatkowo model taki pozwala w szerszy sposób spojrzeć na możliwości wykorzystania takich sieci w różnych aplikacjach (np. w systemach klasyfikacji i rozpoznawania sygnałów w systemach logistycznych). Artykuł, poza wstępem i podsumowaniem, składa się z dwóch rozdziałów. Pierwszy poświęcony został omówieniu metody uczenia sieci NG. W drugim natomiast zaprezentowana została nowa funkcja sąsiedztwa wraz z odpowiednimi testami sieci. Sztuczne sieci neuronowe uczone metodą Neural Gas Sposób, w jaki nasz umysł przetwarza informacje, może być postrzegany, w pewnym określonym sensie, jako proces samoorganizacji. Zmysły ludzi odwzorowane są w jego korze mózgowej [21]. Wzrok, słuch, węch oraz dotyk łączą się i komunikują z mózgiem człowieka za pomocą różnych map, jak na przykład retinotopowej, czy tonotopowej. Można powiedzieć, że mapy te tworzą pewnego rodzaju odwzorowanie danych, których wcześniej nauczył się nasz umysł. Powstają one w wyniku samouczenia i samoorganizacji naszego mózgu. 1 Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy, Wydział Telekomunikacji, Informatyki i Elektrotechniki, Instytut Telekomunikacji i Informatyki, Bydgoszcz, ul. Kaliskiego 7, tel.: , , talaska@utp.edu.pl 2 Artykuł recenzowany. Logistyka 1/

2 Pojęcie samoorganizacji znane jest od dawna, a pierwsze publikacje, w których poruszono ten problem, w odniesieniu do sztucznych sieci neuronowych, wydano w latach siedemdziesiątych ubiegłego stulecia [14,15]. Dopiero kilka lat później Teuvo Kohonen sformalizował i rozwinął znacznie ten termin, wprowadzając dodatkowo pojęcie konkurencji między neuronami [16].Opracowano wówczas takie sieci neuronowe, jak WTA (ang. Winner Takes All) oraz WTM (ang. Winner Takes Most) [17,18].Podczas prac na poprawą procesu uczenia tych sieci, zauważono, że znaczną poprawę procesu samoorganizacji, uzyskać możemy stosując nieco inną technikę uczenia sieci, którą nazwano metodą gazu neuronowego (ang. Neural Gas) (NG). Proces uczenia sieci NG Uczenie sieci NG jest procesem iteracyjnym, w którym poszczególne operacje realizowane są po sobie w ściśle określonej kolejności. Schemat blokowy procesu uczenia sieci NG, o i-wejściach i j-wyjściach (neuronach) przedstawia rysunek 1. Po podaniu na wejście sieci sygnału uczącego X następuje rywalizacja między neuronami. Rywalizacja ma na celu wyłonienie tego lub tych spośród neuronów, dla którego podobieństwo między wektorem uczącym X, a jego wektorem wag W (według aktualnie przyjętej metryki np. Euklidesa) jest największe. Następuje sortowanie wszystkich neuronów, w zależności od ich odległości od wektora uczącego. Polega ono generalnie na tym, że wyliczane są miary podobieństwa miedzy wektorami wag poszczególnych neuronów, a wektorem uczącym. Neurony są ustawiane w kolejności odpowiadającej narastającej odległości, tj: d 0 < d 1 < d 2. < d j, (1) gdzie d reprezentuje miarę podobieństwa danego neuronu wyznaczoną między wektorem jego wag W, a wektorem uczącym X, zgodnie z przyjętą metryką. Pierwszy neuron umownie nazwany zostaje zwycięskim. W odróżnieniu do sieci typu WTA, poza zwycięskim neuronem, prawo adaptacji wag mają także inne neurony, zgodnie z wyrażaniem (2): W ( k + 1) = W ( k) + G( a, λ( k)) ( X ( k) W ( k)), η (2) gdzie η jest współczynnikiem szybkości uczenia (ang. learning rate), którego wartość powinna maleć wraz z prezentacją kolejnych wektorów uczących, przyjmując na wartości zbliżone do zera, k jest krokiem (iteracją) procesu uczenia, a G funkcją sąsiedztwa. Funkcję sąsiedztwa, G, możemy natomiast opisać za pomocą wyrażenia (3): G(a, λ(k)) = exp a, (3) λ(k) gdzie a określa miejsce neuronu uzyskane w wyniku sortowania, a λ jest pewnym parametrem, który możemy traktować podobnie, jak promień sąsiedztwa w sieci neuronowej Kohonena typu WTM (ang. Winner Takes Most). Parametr λ maleje w trakcie procesu uczenia osiągając na końcu wartość 1 (wówczas sieć NG działa tak, jak sieć WTA). Parametr λ wskazuje, ile kolejnych po sobie, wcześniej odpowiednio posortowanych, neuronów powinno mieć zmienione wagi. W przypadku użycia metryki Euklidesa obszary dominacji neuronów przedstawione mogą być za pomocą mozaiki Voronoia. Obszar Voronoia V może być postrzegany, jako pewna część przestrzeni wzorców uczących, reprezentowana przez neurony, których miary odległości spełniają warunek (4): V j { X X W < X W j k} = :, (4) i ji W tym przypadku indeksem j oznaczono tzw. zwycięski neuron, czyli neuron, który jest reprezentantem pewnej klasy przypisanej do odpowiedniej przestrzeni wzorców uczących. Przestrzeń podzielona zostaje na pewne obszary (klastry) dominacji neuronów. Nowe dane na wejściu sieci, które znajdą się wewnątrz pewnego obszaru, są reprezentowane przez dominujący w danym miejscu neuron. Diagram Voronoia jest dobrym wyznacznikiem aktywności i dominacji neuronów i pomaga w ocenie skuteczności działania poszczególnych mechanizmów [20]. Innym sposobem oceny procesu uczenia jest wyznaczenie tzw. błąd kwantyzacji Eq. Błąd ten opisać możemy za pomocą wyrażenia (5): z 2 1 E = X W, q (5) z j k = 1 gdzie z jest liczbą wszystkich wzorców uczących przedstawionych sieci podczas jednej epoki procesu uczenia, j indeksem oznaczającym neuron o wartości miary d 0 (tzw. zwycięski neuron). Poszczególne bloki sieci NG pokazano na rysunku 1. i ki Logistyka 1/

3 Rys. 1. Schemat blokowy sieci NG o i-wejściach i j-wyjściach (j- neuronów) (BOP - blok obliczania podobieństwa, BS - blok sortowania neuronów, BAW - blok adaptacji wag. Bloki te odpowiedzialne są za wykonanie następujących po sobie operacji, tworząc tym samym jeden pełen cykl procesu uczenia. Proces uczenia podzielić możemy na tzw. iteracje i epoki. Podczas jednej iteracji procesu uczenia sieci NG wyróżnić możemy takie operacje jak: Prezentacja nowego wektora uczącego X, obliczenie odległości (miary podobieństwa) między wektorem uczącym X, a wektorami wag W poszczególnych neuronów - blok BOP (Blok Obliczania Podobieństwa), wykrycie, na podstawie miary podobieństwa zwycięskiego neuronu i kolejnych neuronów -- tzw. sortowanie neuronówblok BS (Blok Sortowania), modyfikacja wag neuronów zgodnie z regułą NG (1) - blok BAW (Blok Adaptacji Wag). Po wykonaniu wszystkich tych czynności następuje prezentacja nowego wektora uczącego i proces uczenia zaczyna się niejako od nowa. Liczba iteracji w 1 epoce równa jest liczbie wszystkich wzorców uczących, natomiast liczba epok może być różna, zależnie od wyników procesu uczenia. Poszczególne cykle pracy sieci NG przedstawia rysunek 2. W czasie trwania procesu uczenia (wraz ze zmianą kolejnych iteracji i epok)niektóre parametry procesu uczenia ulegają zmianie, jak np. współczynnik szybkości uczenia, czy wartość promienia sąsiedztwa λ. Rys. 2. Poszczególne fazy pracy sieci NG (faza uczenia i testowania). Logistyka 1/

4 Modyfikacja algorytmu uczenia pod kątem realizacji sprzętowej Podczas realizacji sprzętowej różnych algorytmów matematycznych, w tym także implementacji sztucznych sieci neuronowych, musimy zwrócić uwagę na kilka ważnych aspektów związanych z możliwościami pracy (maksymalna szybkość, pobór energii, wielkość pamięci, itp.) wykorzystywanych do tego celu układów elektronicznych. Projektując sieć neuronową ważne jest, aby realizowany algorytm procesu uczenia był stosunkowo łatwy, a tym samym, aby czas potrzebny na jego realizację przez układ elektroniczny (np. mikrokontroler) odpowiednio mały. Dzięki temu możemy zwiększyć liczbę wejść lub wyjść sieci (zachowując stały czas przetwarzania 1 iteracji procesu uczenia), co wpływa na zwiększenie potencjalnych możliwości wykorzystania takich sieci w różnych aplikacjach. W artykule zaproponowano zamianę funkcję sąsiedztwa opisanej wzorem (3) na nową funkcję sąsiedztwa G opisaną za pomocą wyrażenia (6): G(a, λ) = (λ a), (6) gdzie a określa miejsce neuronu uzyskane w wyniku sortowania, λ jest parametrem, który możemy traktować podobnie, jak promień sąsiedztwa w sieci typu WTM (ang. Winner Takes Most). Należy zwrócić uwagę na to, że w przypadku klasycznej funkcji sąsiedztwa G, opisanej za pomocą wyrażenia (3), parametr λ (określający tzw. promień ) nie powoduje wyłączenia z procesu uczenia tych neuronów, które są poza tą wartością (wartość funkcji G 0). Inne neurony, znajdujące się poza promieniem sąsiedztwa, niestety muszą mieć także zmienione wagi (zgodnie z wyrażeniem (2)).Fakt ten negatywnie wpływa na czas realizacji algorytmu, a w przypadku układu elektronicznego także na pobór moc (więcej elementów bierze za każdym razem udział w procesie uczenia sieci). Przykładowo dla sieci zbudowanej ze 100 neuronów (rys. 3), gdy wartość współczynnika ʎ=30, dla nowej funkcji sąsiedztwa tylko 30 neuronów (pierwszych w wyniku sortowania) zmienia swoje wagi, a 70 pozostałych może być w tym czasie uśpionych (bowiem G=0). W przypadku użycia klasycznej funkcji sąsiedztwa praktycznie wszystkie neurony pracują, bo wartość funkcji G powyżej promienia sąsiedztwa ma pewną wartość różną od zera. Hibernowanie neuronów, lub bardziej precyzyjnie, chwilowe dezaktywowanie ich układów zmiany wag, w przypadku realizacji sprzętowej wpływa na zmniejszenie poboru mocy, a także czas uczenia sieci. Rys. 3. Porównanie funkcji sąsiedztwa G dla różnych wartości parametru λ. Wszystkie testy sieci z nową funkcją sąsiedztwa wykonano na specjalnie do tego celu zaimplementowanym w środowisku Java modelu sieci NG. Wektor uczący składał się z 500 wzorców (dwu i pięciowymiarowych), posegregowanych w 10 grup. Na jedną grupę przypadało 50 wzorców danych (rysunek 4b - niebieskie kulki). Warte podkreślenia jest to, że zaproponowana funkcja sąsiedztwa nie zmienia zasadniczo procesu uczenia sieci NG. Uzyskane wyniki, patrząc z punktu widzenia sieci pracującej, jako klasyfikator danych (diagram Voronoia (rysunek 4), czas pracy sieci (Tabela 1 i Tabela 2) są porównywalne dla dwóch różnych funkcji G, natomiast wartość błędu kwantyzacji dla nowej funkcji jest zawsze mniejsza. Ważne jest także to, że nowa funkcja może być łatwo wykonana w postaci sprzętowej (np. przy użyciu układów programowalnych, a także specjalizowanych układów scalonych). Możemy ją bezpośrednio zaimplementować w sprzęcie (wykorzystując wzór 6), ale także (co jest bardzo ważne), wykonać ją stosując pewne Logistyka 1/

5 uproszczenia. Zwróćmy uwagę (rysunek 3), że funkcja G (opisana wyrażeniem 6) ma skokowy i malejący, w czasie procesu uczenia, przebieg (ale tylko w ramach promienia sąsiedztwa, poza nim ma zawsze wartość 0). Implementując ją w sprzęcie wystarczy przyjąć jej maksymalną wartość równą 1 (przypisać tę wartość tzw. zwycięzcy) i dokonywać odpowiedniej dekretacji jej wartości dla pozostałych, posortowanych neuronów. W konsekwencji tak zrealizowana sieć neuronowa, zaimplementowana w postaci układów elektronicznych (np. na uc, FPGA) będzie uczyć się szybciej, a sam proces będzie bardziej energooszczędny (łatwiejszy opis i realizacja funkcji G, w danej iteracji procesu uczenia pracują tylko neurony znajdujące się w ramach promienia, pozostałe są uśpione). Rys. 4. Proces uczenia sieci NG z wykorzystaniem dwóch różnych funkcji sąsiedztwa G (na górze funkcja opisana wyrażeniem (3), na dole funkcja opisana wyrażeniem (6)). Na rysunkach z lewej strony (a) przedstawione są diagramy Voronoia, z prawej strony (b) dane uczące X (500 wzorców uczących) i wartości wag po zakończonym procesie uczenia sieci dla 50 neuronów. Tab. 1.Porównanie parametrów procesu uczenia dla różnych funkcji G dla 2 wymiarowych danych uczących. Liczba neuronów sieci NG funkcja G opisana wyrażeniem (3) sieci NG nowa funkcja G opisana wyrażeniem (6) funkcja G opisana wyrażeniem (3) nowa funkcja G opisana wyrażeniem (6) ,008 0,006 ok. 630s ok. 630s~ 500 0,009 0,007 ok. 177s ok. 165s~ 100 0,019 0,017 ok. 5.5s ok. 5.5s~ 80 0,027 0,019 ok. 3.6s ok. 3.6s~ 60 0,039 0,029 ok. 2.1s ok. 2.1s~ 40 0,062 0,051 ok. 1.0s ok. 1.0s~ 20 0,133 0,120 ok. 0.3s ok. 0.3s~ 10 0,670 0,480 ok. 0.2s ok. 0.2s~ Logistyka 1/

6 Tab. 2. Porównanie parametrów procesu uczenia dla różnych funkcji G dla 5 wymiarowych danych uczących. Liczba neuronów sieci NG funkcja G opisana wyrażeniem (3) sieci NG nowa funkcja G opisana wyrażeniem (6) - funkcja G opisana wyrażeniem (3) nowa funkcja G opisana wyrażeniem (6) ,12 0,08 ok. 654s ok. 660s~ 500 0,14 0,09 ok. 165s ok. 167s~ 100 0,19 0,16 ok. 8.1s ok. 8.1s~ 80 0,21 0,18 ok. 5.4s ok. 5.4s~ 60 0,24 0,21 ok. 3.4s ok. 3.3s~ 40 0,28 0,26 ok. 1.7s ok. 1.7s~ 20 0,48 0,34 ok. 0.6s ok. 0.6s~ 20 2,50 1,10 ok. 0.3s ok. 0.3s~ W modelu sieci dodatkowo zastosowano skokową zmianę współczynnika uczenia sieci η (ang. learning rate). Skok współczynnika η odbywa się, co epokę k (zgodnie z wyrażeniem 7), osiągając na wartość 0. Na początku, tj. w pierwszej epoce procesu uczenia (k=1) musimy ustawić pewną początkową wartość tego współczynnika. Warte podkreślenie jest to, że podobnie jak w przypadku zaproponowanej funkcji sąsiedztwa, skokowe zmiany współczynnika szybkości uczenia w sprzęcie zrealizować możemy stosunkowo łatwo. η(k) = η (k=1) 1 z, (7) N gdzie N to całkowita liczba epok. Wnioski W artykule przedstawiono pewną modyfikację procesu uczenia sieci Neural Gas. Modyfikacja polega na zmianie funkcji sąsiedztwa, która wykorzystywana jest w procesie uczenia się sieci. Zaproponowana funkcja może być dobrą alternatywą do istniejących i znanych z literatury rozwiązań [12,13]. Zalety jej wykorzystania, będą szczególnie widoczne w przypadku realizacji sieci NG w układach elektronicznych. Łatwość realizacji takiej funkcji (np. przez stosunkową prostą w realizacji dekrementację jej wartości w czasie) w konsekwencji przełoży się na zmniejszenie czasu uczenia sieci i pobieranej przez nią energii. Streszczenie W artykule przedstawiono pewną modyfikację procesu uczenia sieci Neural Gas. Modyfikacja polega na zmianie funkcji sąsiedztwa G, która wykorzystywana jest w procesie uczenia się sieci. Zaproponowana funkcja może być dobrą alternatywą do istniejących i znanych z literatury rozwiązań. Zalety jej wykorzystania, będą szczególnie widoczne w przypadku realizacji sieci NG w układach elektronicznych. Łatwość realizacji takiej funkcji (np. przez dekrementację jej wartości w czasie) w konsekwencji przełoży się na zmniejszenie czasu uczenia sieci i pobieranej przez nią energii. Słowa kluczowe: algorytm gazu neuronowego, funkcja sąsiedztwa, realizacje sprzętowe sieci neuronowych. Improving learning process of the artificial neural network based on neural gas algorithm in the context of the hardware implementation Abstract The paper presents a modification of the learning process of the Artificial Neural Network based on Neural Gas Algotithm. In this network changed the function of the neighbourhood G. The proposed function can be a good alternative to the existing and known from the literature solutions. The advantages of its use, will be particularly evident in the case of NG network implementation in electronic circuits. Keywords: neural gas algorithm, neighbourhood function, hardware implementations of neural networks. Logistyka 1/

7 LITERATURA / BIBLIOGRAPHY [1] Singh S., Harini J, Surabhi B., R., A novel neural network based automated system for diagnosis of breast cancer from real time biopsy slides 2014 International Conference on Circuits, Communication, Control and Computing (I4C), India, [2] Fukuoka Y., Fukuhara M., Ishida A., Stress assessment based on ECG using neural networks, Proceedings of the 18th Annual International Conference of the IEEE Engineering in Medicine and Biology Society, Amsterdam, The Netherlands, Vol. 5, [3] Li Meng, Exchange rate forecasting based on neural network with revised weight, nd International Conference on Artificial Intelligence, Management Science and Electronic Commerce (AIMSEC), Zhengzhou, China, [4] Dissananayake B.M.M., Hendahewa C.H., Karunananda A.S, Artificial Neural Network approach to credit risk assessment, International Conference on Industrial and Information Systems (ICIIS 2007), Sri Lanka, [5] Kaijun Xu, Guangming Zhang, Yang Xu, Intelligent landing control system for civil aviation aircraft with dual fuzzy neural network, 2011 eighth International Conference on Fuzzy Systems and Knowledge Discovery (FSKD), Shanghai, China, Vol. 4, [6] LinChih-Min, Chun-Fei Hsu, Neural-network hybrid control for antilock braking systems, IEEE Transactions on Neural Networks, Vol. 14, No. 2, [7] Sutton J.C, III., Identification of electronic component faults using neural networks and fuzzy systems, Proceedings of the 1992 International Conference on Industrial Electronics, Control, Instrumentation, and Automation, Power Electronics and Motion Control, USA, [8] Farooq U., Amar M., ulhaq E., Asad M.U., Atiq H.M., Microcontroller Based Neural Network Controlled Low Cost Autonomous Vehicle, 2010 Second International Conference on Machine Learning and Computing (ICMLC), India, 2010 [9] Garcia-Breijo E., Atkinson J., Garrigues J., Gil L., Ibanez J., Glanc M., Olguin C.,An electronic tongue for monitoring drinking waters using a fuzzy ARTMAP neural network implemented on a microcontroller, 2011 IEEE International Symposium on Industrial Electronics (ISIE), Gdańsk, Poland, [10] Deotale P.D., Dole L., Design of FPGA based general purpose neural network, 2014 International Conference on Information Communication and Embedded Systems (ICICES), Madras, India, [11] Orlowska-Kowalska T., Kaminski M., FPGA Implementation of the Multilayer Neural Network for the Speed Estimation of the Two-Mass Drive System, IEEE Transactions on Industrial Informatics, Vol. 7, No. 3, [12] Martinetz T., Schulten K., A "neural gas" network learns topologies, Artificial Neural Networks, Elsevier, Amsterdam, [13] Martinetz T., Berkovich S.G., Schulten K., "Neural gas" for vector quantization and its application to time-series prediction, IEEE Transactions on Neural Networks, Vo. 4, No. 4, [14] Korbicz J., Obuchowicz A., UcińskiD., Sztuczne sieci neuronowe. Podstawy i zastosowania, Akademicka Oficyna Wydawnicza PLJ, Warszawa, [15] Von der Malsburg C., Self-organisation of orientation sensitive cells in the striate cortex, Kybernetik, Vol. 14, pp: , [16] Wilshow D. J., von der Malsburg C.,How patterned neural connections can be set up by self-organization, Proceedings of the Royal Society of London, seria B, Biological Sciences, Vol. 194, No. 1117, pp: , [17] Kangas J., Kohonen T., Laaksonen J., Simula O., Venta O. Variants of self-organizing maps, International Joint Conference on Neural Networks (IJCNN), Vol. 2, pp: , USA, [18] Kohonen T., The self-organizing map, Proceedings of the IEEE, Vol 78, No. 9, [19] Kohonen T., Self-organizing maps, 3-ed, Springer Verlag, Berlin, Heidelberg, [20] Talaśka T., Idźkowski M., Rydlewski A., Miciak. M, Wiatr R., Nowy, efektywny mechanism pobudzania martwych neuronów w sztucznych sieciach neuronowych Kohonena typu WTA, Logistyka, nr 6/2014. Logistyka 1/

Lekcja 5: Sieć Kohonena i sieć ART

Lekcja 5: Sieć Kohonena i sieć ART Lekcja 5: Sieć Kohonena i sieć ART S. Hoa Nguyen 1 Materiał Sieci Kohonena (Sieć samo-organizująca) Rysunek 1: Sieć Kohonena Charakterystyka sieci: Jednowarstwowa jednokierunkowa sieć. Na ogół neurony

Bardziej szczegółowo

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor S O M SELF-ORGANIZING MAPS Przemysław Szczepańczyk Łukasz Myszor Podstawy teoretyczne Map Samoorganizujących się stworzył prof. Teuvo Kohonen (1982 r.). SOM wywodzi się ze sztucznych sieci neuronowych.

Bardziej szczegółowo

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Wykład 10 Mapa cech Kohonena i jej modyfikacje - uczenie sieci samoorganizujących się - kwantowanie wektorowe

Bardziej szczegółowo

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia

Bardziej szczegółowo

Obliczenia inteligentne Zadanie 4

Obliczenia inteligentne Zadanie 4 Sieci SOM Poniedziałek, 10:15 2007/2008 Krzysztof Szcześniak Cel Celem zadania jest zaimplementowanie neuronowej samoorganizującej się mapy wraz z metodą jej nauczania algorytmem gazu neuronowego. Część

Bardziej szczegółowo

Monitorowanie i Diagnostyka w Systemach Sterowania

Monitorowanie i Diagnostyka w Systemach Sterowania Monitorowanie i Diagnostyka w Systemach Sterowania Katedra Inżynierii Systemów Sterowania Dr inż. Michał Grochowski Monitorowanie i Diagnostyka w Systemach Sterowania na studiach II stopnia specjalności:

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING NEURONOWE MAPY SAMOORGANIZUJĄCE SIĘ Self-Organizing Maps SOM Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki,

Bardziej szczegółowo

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW 17 XII 2013 Jan Karwowski

Bardziej szczegółowo

Co to jest grupowanie

Co to jest grupowanie Grupowanie danych Co to jest grupowanie 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Szukanie grup, obszarów stanowiących lokalne gromady punktów Co to jest grupowanie

Bardziej szczegółowo

WPŁYW FUNKCJI SĄSIEDZTWA NA EFEKTYWNOŚĆ UCZENIA SIECI NEURONOWYCH KOHONENA IMPLEMENTOWANYCH SPRZĘTOWO

WPŁYW FUNKCJI SĄSIEDZTWA NA EFEKTYWNOŚĆ UCZENIA SIECI NEURONOWYCH KOHONENA IMPLEMENTOWANYCH SPRZĘTOWO ELEKTRYKA 11 Zeszyt 1 (17) Rok LVII Marta KOLASA, Rafał DŁUGOSZ Zakład Podstaw Elektrotechnik Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy Aleksandra FIGAS Katedra Inżynierii Komputerowej, Politechnika

Bardziej szczegółowo

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,

Bardziej szczegółowo

Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej. Adam Żychowski

Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej. Adam Żychowski Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej Adam Żychowski Definicja problemu Każdy z obiektów może należeć do więcej niż jednej kategorii. Alternatywna definicja Zastosowania

Bardziej szczegółowo

Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner

Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner Wydział Matematyki i Nauk Informacyjnych Politechnika Warszawska Elementy nieprzystające Definicja odrzucania Klasyfikacja

Bardziej szczegółowo

SIECI KOHONENA UCZENIE BEZ NAUCZYCIELA JOANNA GRABSKA-CHRZĄSTOWSKA

SIECI KOHONENA UCZENIE BEZ NAUCZYCIELA JOANNA GRABSKA-CHRZĄSTOWSKA SIECI KOHONENA UCZENIE BEZ NAUCZYCIELA JOANNA GRABSKA-CHRZĄSTOWSKA Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA SAMOUCZENIE SIECI metoda Hebba W mózgu

Bardziej szczegółowo

POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 79 Electrical Engineering 2014

POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 79 Electrical Engineering 2014 POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 79 Electrical Engineering 2014 Marta KOLASA* Rafał DŁUGOSZ* KONCEPCJA ZASTOSOWANIA SZTUCZNYCH SIECI NEURONOWYCH DO LOKALIZACJI ELEMENTÓW POWODUJĄCYCH

Bardziej szczegółowo

Algorytmy sztucznej inteligencji

Algorytmy sztucznej inteligencji Algorytmy sztucznej inteligencji Dynamiczne sieci neuronowe 1 Zapis macierzowy sieci neuronowych Poniżej omówione zostaną części składowe sieci neuronowych i metoda ich zapisu za pomocą macierzy. Obliczenia

Bardziej szczegółowo

8. Neuron z ciągłą funkcją aktywacji.

8. Neuron z ciągłą funkcją aktywacji. 8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i

Bardziej szczegółowo

Zastosowanie sztucznej inteligencji w testowaniu oprogramowania

Zastosowanie sztucznej inteligencji w testowaniu oprogramowania Zastosowanie sztucznej inteligencji w testowaniu oprogramowania Problem NP Problem NP (niedeterministycznie wielomianowy, ang. nondeterministic polynomial) to problem decyzyjny, dla którego rozwiązanie

Bardziej szczegółowo

LEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów

LEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów LEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów Łukasz Piątek, Jerzy W. Grzymała-Busse Katedra Systemów Ekspertowych i Sztucznej Inteligencji, Wydział Informatyki

Bardziej szczegółowo

Wprowadzenie. SOM jest skrótem od Self Organizing Maps, czyli Samoorganizujące się mapy.

Wprowadzenie. SOM jest skrótem od Self Organizing Maps, czyli Samoorganizujące się mapy. SOM i WebSOM Wprowadzenie SOM jest skrótem od Self Organizing Maps, czyli Samoorganizujące się mapy. Podstawy teoretyczne stworzył fiński profesor Teuvo Kohonen w 1982 r SOM - ogólnie Celem tych sieci

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING NEURONOWE MAPY SAMOORGANIZUJĄCE SIĘ ĆWICZENIA Self-Organizing Maps SOM Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki,

Bardziej szczegółowo

Optymalizacja optymalizacji

Optymalizacja optymalizacji 7 maja 2008 Wstęp Optymalizacja lokalna Optymalizacja globalna Algorytmy genetyczne Badane czasteczki Wykorzystane oprogramowanie (Algorytm genetyczny) 2 Sieć neuronowa Pochodne met-enkefaliny Optymalizacja

Bardziej szczegółowo

MATLAB Neural Network Toolbox przegląd

MATLAB Neural Network Toolbox przegląd MATLAB Neural Network Toolbox przegląd WYKŁAD Piotr Ciskowski Neural Network Toolbox: Neural Network Toolbox - zastosowania: przykłady zastosowań sieci neuronowych: The 1988 DARPA Neural Network Study

Bardziej szczegółowo

Metody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF.

Metody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF. Metody sztucznej inteligencji Zadanie 3: ( klasteryzacja samoorganizująca się mapa Kohonena, (2 aproksymacja sieć RBF dr inż Przemysław Klęsk Klasteryzacja za pomocą samoorganizującej się mapy Kohonena

Bardziej szczegółowo

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2014/2015

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2014/2015 Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner rok akademicki 2014/2015 Sieci Kohonena Sieci Kohonena Sieci Kohonena zostały wprowadzone w 1982 przez fińskiego

Bardziej szczegółowo

Sztuczna inteligencja

Sztuczna inteligencja Sztuczna inteligencja Wykład 7. Architektury sztucznych sieci neuronowych. Metody uczenia sieci. źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Podstawowe architektury

Bardziej szczegółowo

Deep Learning na przykładzie Deep Belief Networks

Deep Learning na przykładzie Deep Belief Networks Deep Learning na przykładzie Deep Belief Networks Jan Karwowski Zakład Sztucznej Inteligencji i Metod Obliczeniowych Wydział Matematyki i Nauk Informacyjnych PW 20 V 2014 Jan Karwowski (MiNI) Deep Learning

Bardziej szczegółowo

Metody Sztucznej Inteligencji II

Metody Sztucznej Inteligencji II 17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału

Bardziej szczegółowo

Szybkie prototypowanie w projektowaniu mechatronicznym

Szybkie prototypowanie w projektowaniu mechatronicznym Szybkie prototypowanie w projektowaniu mechatronicznym Systemy wbudowane (Embedded Systems) Systemy wbudowane (ang. Embedded Systems) są to dedykowane architektury komputerowe, które są integralną częścią

Bardziej szczegółowo

SIEĆ GRNN W KOMPRESJI OBRAZÓW RADAROWYCH

SIEĆ GRNN W KOMPRESJI OBRAZÓW RADAROWYCH ZESZYTY NAUKOWE AKADEMII MARYNARKI WOJENNEJ ROK XLV NR 1 (156) 2004 Tomasz Praczyk SIEĆ GRNN W KOMPRESJI OBRAZÓW RADAROWYCH STRESZCZENIE Obraz morskiego radaru nawigacyjnego może być podstawą perspektywicznego

Bardziej szczegółowo

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010 Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010 Sieci neuronowe jednokierunkowa wielowarstwowa sieć neuronowa sieci Kohonena

Bardziej szczegółowo

Elementy inteligencji obliczeniowej

Elementy inteligencji obliczeniowej Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego

Bardziej szczegółowo

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, 2013 Spis treści Przedmowa 7 1. Wstęp 9 1.1. Podstawy biologiczne działania neuronu 9 1.2. Pierwsze modele sieci neuronowej

Bardziej szczegółowo

Sieci neuronowe i ich ciekawe zastosowania. Autor: Wojciech Jamrozy III rok SMP / Informatyka

Sieci neuronowe i ich ciekawe zastosowania. Autor: Wojciech Jamrozy III rok SMP / Informatyka Sieci neuronowe i ich ciekawe zastosowania Autor: Wojciech Jamrozy III rok SMP / Informatyka Klasyczna algorytmika Sortowanie ciągu liczb Czy i ile razy dane słowo wystąpiło w tekście Najkrótsza droga

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 8 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 8 Uczenie nienadzorowane. Wstęp do sieci neuronowych, wykład 8. M. Czoków, J. Piersa, A. Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 1-811-6 Projekt pn. Wzmocnienie potencjału dydaktycznego

Bardziej szczegółowo

Systemy uczące się Lab 4

Systemy uczące się Lab 4 Systemy uczące się Lab 4 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 26 X 2018 Projekt zaliczeniowy Podstawą zaliczenia ćwiczeń jest indywidualne wykonanie projektu uwzględniającego

Bardziej szczegółowo

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Sieci Hopfielda Najprostsze modele sieci z rekurencją sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Modele bardziej złoŝone: RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie

Bardziej szczegółowo

Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych

Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych ELEMENTY SZTUCZNEJ INTELIGENCJI Laboratorium nr 6 SYSTEMY ROZMYTE TYPU MAMDANIEGO

Bardziej szczegółowo

Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2)

Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2) Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2) Ewa Wołoszko Praca pisana pod kierunkiem Pani dr hab. Małgorzaty Doman Plan tego wystąpienia Teoria Narzędzia

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt

Bardziej szczegółowo

DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI

DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 80 Electrical Engineering 2014 Stanisław PŁACZEK* DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI W artykule

Bardziej szczegółowo

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką

Bardziej szczegółowo

Inteligentne systemy informacyjne

Inteligentne systemy informacyjne Inteligentne systemy informacyjne Moduł 10 Mieczysław Muraszkiewicz www.icie.com.pl/lect_pw.htm M. Muraszkiewicz strona 1 Sieci neuronowe szkic Moduł 10 M. Muraszkiewicz strona 2 Dwa nurty M. Muraszkiewicz

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY

METODY INŻYNIERII WIEDZY METODY INŻYNIERII WIEDZY WALIDACJA KRZYŻOWA dla ZAAWANSOWANEGO KLASYFIKATORA KNN ĆWICZENIA Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Bardziej szczegółowo

10. Redukcja wymiaru - metoda PCA

10. Redukcja wymiaru - metoda PCA Algorytmy rozpoznawania obrazów 10. Redukcja wymiaru - metoda PCA dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. PCA Analiza składowych głównych: w skrócie nazywana PCA (od ang. Principle Component

Bardziej szczegółowo

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2 Elementy Sztucznej Inteligencji Sztuczne sieci neuronowe cz. 2 1 Plan wykładu Uczenie bez nauczyciela (nienadzorowane). Sieci Kohonena (konkurencyjna) Sieć ze sprzężeniem zwrotnym Hopfielda. 2 Cechy uczenia

Bardziej szczegółowo

Adrian Horzyk

Adrian Horzyk Metody Inteligencji Obliczeniowej Metoda K Najbliższych Sąsiadów (KNN) Adrian Horzyk horzyk@agh.edu.pl AGH Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Bardziej szczegółowo

Adrian Horzyk

Adrian Horzyk Sztuczne Systemy Skojarzeniowe SSS Asocjacyjne grafowe struktury danych AGDS Associative Graph Data Structure Adrian Horzyk horzyk@agh.edu.pl AGH Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki,

Bardziej szczegółowo

IMPLEMENTATION OF THE SPECTRUM ANALYZER ON MICROCONTROLLER WITH ARM7 CORE IMPLEMENTACJA ANALIZATORA WIDMA NA MIKROKONTROLERZE Z RDZENIEM ARM7

IMPLEMENTATION OF THE SPECTRUM ANALYZER ON MICROCONTROLLER WITH ARM7 CORE IMPLEMENTACJA ANALIZATORA WIDMA NA MIKROKONTROLERZE Z RDZENIEM ARM7 Łukasz Deńca V rok Koło Techniki Cyfrowej dr inż. Wojciech Mysiński opiekun naukowy IMPLEMENTATION OF THE SPECTRUM ANALYZER ON MICROCONTROLLER WITH ARM7 CORE IMPLEMENTACJA ANALIZATORA WIDMA NA MIKROKONTROLERZE

Bardziej szczegółowo

Pattern Classification

Pattern Classification Pattern Classification All materials in these slides were taken from Pattern Classification (2nd ed) by R. O. Duda, P. E. Hart and D. G. Stork, John Wiley & Sons, 2000 with the permission of the authors

Bardziej szczegółowo

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu Literatura Wykład : Wprowadzenie do sztucznych sieci neuronowych Małgorzata Krętowska Wydział Informatyki Politechnika Białostocka Tadeusiewicz R: Sieci neuronowe, Akademicka Oficyna Wydawnicza RM, Warszawa

Bardziej szczegółowo

Współczesna problematyka klasyfikacji Informatyki

Współczesna problematyka klasyfikacji Informatyki Współczesna problematyka klasyfikacji Informatyki Nazwa pojawiła się na przełomie lat 50-60-tych i przyjęła się na dobre w Europie Jedna z definicji (z Wikipedii): Informatyka dziedzina nauki i techniki

Bardziej szczegółowo

Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska

Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska e-mail: bartosz.krawczyk@pwr.wroc.pl Czym jest klasyfikacja

Bardziej szczegółowo

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW

Bardziej szczegółowo

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów. Wstęp do teorii sztucznej inteligencji Wykład II Uczenie sztucznych neuronów. 1 - powtórzyć o klasyfikacji: Sieci liniowe I nieliniowe Sieci rekurencyjne Uczenie z nauczycielem lub bez Jednowarstwowe I

Bardziej szczegółowo

PRZEWODNIK PO PRZEDMIOCIE

PRZEWODNIK PO PRZEDMIOCIE Nazwa przedmiotu: Kierunek: Mechatronika Rodzaj przedmiotu: obowiązkowy Rodzaj zajęć: wykład, laboratorium I KARTA PRZEDMIOTU CEL PRZEDMIOTU PRZEWODNIK PO PRZEDMIOCIE C1. Zapoznanie studentów z inteligentnymi

Bardziej szczegółowo

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5 METODY INTELIGENCJI OBLICZENIOWEJ wykład 5 1 2 SZTUCZNE SIECI NEURONOWE cd 3 UCZENIE PERCEPTRONU: Pojedynczy neuron (lub 1 warstwa neuronów) typu percep- tronowego jest w stanie rozdzielić przestrzeń obsza-

Bardziej szczegółowo

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-03 Projekt pn. Wzmocnienie potencjału

Bardziej szczegółowo

Sieci neuronowe i algorytmy uczenia Czyli co i jak andrzej.rusiecki.staff.iiar.pwr.wroc.pl s.

Sieci neuronowe i algorytmy uczenia Czyli co i jak andrzej.rusiecki.staff.iiar.pwr.wroc.pl s. Sieci neuronowe i algorytmy uczenia Czyli co i jak 2016 andrzej.rusiecki@pwr.edu.pl andrzej.rusiecki.staff.iiar.pwr.wroc.pl s. 230/C-3 O co chodzi? Celem przedmiotu jest ogólne zapoznanie się z podstawowymi

Bardziej szczegółowo

METODY ZINTEGROWANEGO PROJEKTOWANIA SPRZĘTU I OPROGRAMOWANIA Z WYKORZYSTANIEM NOWOCZESNYCH UKŁADÓW PROGRAMOWALNYCH

METODY ZINTEGROWANEGO PROJEKTOWANIA SPRZĘTU I OPROGRAMOWANIA Z WYKORZYSTANIEM NOWOCZESNYCH UKŁADÓW PROGRAMOWALNYCH METODY ZINTEGROWANEGO PROJEKTOWANIA SPRZĘTU I OPROGRAMOWANIA Z WYKORZYSTANIEM NOWOCZESNYCH UKŁADÓW PROGRAMOWALNYCH Arkadiusz Bukowiec mgr inż. Agnieszka Węgrzyn Instytut Informatyki i Elektroniki, Uniwersytet

Bardziej szczegółowo

Uczenie sieci neuronowych i bayesowskich

Uczenie sieci neuronowych i bayesowskich Wstęp do metod sztucznej inteligencji www.mat.uni.torun.pl/~piersaj 2009-01-22 Co to jest neuron? Komputer, a mózg komputer mózg Jednostki obliczeniowe 1-4 CPU 10 11 neuronów Pojemność 10 9 b RAM, 10 10

Bardziej szczegółowo

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017 Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład III bogumil.konopka@pwr.edu.pl 2016/2017 Wykład III - plan Regresja logistyczna Ocena skuteczności klasyfikacji Macierze pomyłek Krzywe

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane. Wstęp do sieci neuronowych, wykład 7. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 212-11-28 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu

Bardziej szczegółowo

Badacze zbudowali wiele systemów technicznych, naśladujących w komputerze ludzki mózg. Najbardziej pożyteczne okazały się sieci neuronowe.

Badacze zbudowali wiele systemów technicznych, naśladujących w komputerze ludzki mózg. Najbardziej pożyteczne okazały się sieci neuronowe. Naśladując w komputerze ludzki mózg staramy się połączyć zalety komputera (dostępność i szybkość działania) z zaletami mózgu (zdolność do uczenia się) informatyka + 2 Badacze zbudowali wiele systemów technicznych,

Bardziej szczegółowo

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE SIECI NEURONOWE Przedmiotem laboratorium jest stworzenie algorytmu rozpoznawania zwierząt z zastosowaniem sieci neuronowych w oparciu o 5 kryteriów: ile zwierzę ma nóg, czy żyje w wodzie, czy umie latać,

Bardziej szczegółowo

PROJEKTOWANIE UKŁADÓW MIKROPROGRAMOWANYCH Z WYKORZYSTANIEM WBUDOWANYCH BLOKÓW PAMIĘCI W MATRYCACH PROGRAMOWALNYCH

PROJEKTOWANIE UKŁADÓW MIKROPROGRAMOWANYCH Z WYKORZYSTANIEM WBUDOWANYCH BLOKÓW PAMIĘCI W MATRYCACH PROGRAMOWALNYCH II Konferencja Naukowa KNWS'05 "Informatyka- sztuka czy rzemios o" 5-8 czerwca 005, Z otniki Luba skie PROJEKTOWANIE UKŁADÓW MIKROPROGRAMOWANYCH Z WYKORZYSTANIEM WBUDOWANYCH BLOKÓW PAMIĘCI W MATRYCACH

Bardziej szczegółowo

Algorytmy i struktury danych

Algorytmy i struktury danych Algorytmy i struktury danych Proste algorytmy sortowania Witold Marańda maranda@dmcs.p.lodz.pl 1 Pojęcie sortowania Sortowaniem nazywa się proces ustawiania zbioru obiektów w określonym porządku Sortowanie

Bardziej szczegółowo

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice) WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO Stanisław Kowalik (Poland, Gliwice) 1. Wprowadzenie Wstrząsy podziemne i tąpania występujące w kopalniach

Bardziej szczegółowo

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW Sztuczne Sieci Neuronowe Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW SN są częścią dziedziny Sztucznej Inteligencji Sztuczna Inteligencja (SI) zajmuje się

Bardziej szczegółowo

Uczenie sieci typu MLP

Uczenie sieci typu MLP Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik

Bardziej szczegółowo

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych. Sieci rekurencyjne Ewa Adamus ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych 7 maja 2012 Jednowarstwowa sieć Hopfielda, z n neuronami Bipolarna funkcja przejścia W wariancie

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium JAVA Zadanie nr 2 Rozpoznawanie liter autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z problemem klasyfikacji

Bardziej szczegółowo

Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych. Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS

Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych. Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS Dyskretyzacja - definicja Dyskretyzacja - zamiana atrybutów

Bardziej szczegółowo

WYKORZYSTANIE SIECI NEURONOWYCH DO ODWZOROWANIA DEFORMACJI POWIERZCHNI NA TERENACH GÓRNICZYCH

WYKORZYSTANIE SIECI NEURONOWYCH DO ODWZOROWANIA DEFORMACJI POWIERZCHNI NA TERENACH GÓRNICZYCH IZABELA SKRZYPCZAK, DAWID ZIENTEK WYKORZYSTANIE SIECI NEURONOWYCH DO ODWZOROWANIA DEFORMACJI POWIERZCHNI NA TERENACH GÓRNICZYCH THE APPLICATION OF NEURAL NETWORKS FOR PROJECTION OF SURFACES DEFORMATIONS

Bardziej szczegółowo

Testowanie modeli predykcyjnych

Testowanie modeli predykcyjnych Testowanie modeli predykcyjnych Wstęp Podczas budowy modelu, którego celem jest przewidywanie pewnych wartości na podstawie zbioru danych uczących poważnym problemem jest ocena jakości uczenia i zdolności

Bardziej szczegółowo

Testowanie systemów wbudowanych i krytycznych dla bezpieczeństwa Bogdan Bereza Wersja 2.0 1 (33)

Testowanie systemów wbudowanych i krytycznych dla bezpieczeństwa Bogdan Bereza Wersja 2.0 1 (33) Testowanie systemów wbudowanych i krytycznych dla bezpieczeństwa Bogdan Bereza Wersja 2.0 1 (33) 1. Wbudowane 2. Krytyczne 3. Czasu rzeczywistego 2 (33) Chmura Agile Biznes ISTQB 3 (33) 1. Testowanie systemów

Bardziej szczegółowo

Asocjacyjna reprezentacja danych i wnioskowanie

Asocjacyjna reprezentacja danych i wnioskowanie Asocjacyjna reprezentacja danych i wnioskowanie Wykorzystane technologie JetBrains PyCharm 504 Python 35 Struktura drzewa GRAPH PARAM PARAM ID1 ID2 ID_N params params params param_name_1: param_value_1

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych klasyfikacja LABORKA Piotr Ciskowski zadanie 1. klasyfikacja zwierząt sieć jednowarstwowa żródło: Tadeusiewicz. Odkrywanie własności sieci neuronowych, str. 159 Przykład

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt

Bardziej szczegółowo

Instrukcja realizacji ćwiczenia

Instrukcja realizacji ćwiczenia SIEĆ KOHONENA ROZPOZNAWANIE OBRAZÓW Cel ćwiczenia: zapoznanie się ze sposobem reprezentacji wiedzy w sieciach Kohonena i mechanizmami sąsiedztwa i sumienia neuronów. Zadanie do analizy: analizujemy sieć

Bardziej szczegółowo

Metody klasyfikacji i rozpoznawania wzorców. Najważniejsze rodzaje klasyfikatorów

Metody klasyfikacji i rozpoznawania wzorców.  Najważniejsze rodzaje klasyfikatorów Metody klasyfikacji i rozpoznawania wzorców www.michalbereta.pl Najważniejsze rodzaje klasyfikatorów Dla określonego problemu klasyfikacyjnego (tzn. dla danego zestawu danych) należy przetestować jak najwięcej

Bardziej szczegółowo

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Temat: Sztuczne Sieci Neuronowe Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sztuczne sieci neuronowe

Bardziej szczegółowo

WYKORZYSTANIE SZTUCZNYCH SIECI NEURONOWYCH W PROGNOZOWANIU

WYKORZYSTANIE SZTUCZNYCH SIECI NEURONOWYCH W PROGNOZOWANIU WYKORZYSTANIE SZTUCZNYCH SIECI NEURONOWYCH W PROGNOZOWANIU THE USE OF ARTIFICIAL NEURAL NETWORKS IN FORECASTING Konrad BAJDA, Sebastian PIRÓG Resume Artykuł opisuje wykorzystanie sztucznych sieci neuronowych

Bardziej szczegółowo

7. Maszyny wektorów podpierajacych SVMs

7. Maszyny wektorów podpierajacych SVMs Algorytmy rozpoznawania obrazów 7. Maszyny wektorów podpierajacych SVMs dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Maszyny wektorów podpierajacych - SVMs Maszyny wektorów podpierających (ang.

Bardziej szczegółowo

O badaniach nad SZTUCZNĄ INTELIGENCJĄ

O badaniach nad SZTUCZNĄ INTELIGENCJĄ O badaniach nad SZTUCZNĄ INTELIGENCJĄ Jak określa się inteligencję naturalną? Jak określa się inteligencję naturalną? Inteligencja wg psychologów to: Przyrodzona, choć rozwijana w toku dojrzewania i uczenia

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane. Wstęp do sieci neuronowych, wykład 7. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 213-11-19 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych

Bardziej szczegółowo

Zagadnienia egzaminacyjne INFORMATYKA. stacjonarne. I-go stopnia. (INT) Inżynieria internetowa STOPIEŃ STUDIÓW TYP STUDIÓW SPECJALNOŚĆ

Zagadnienia egzaminacyjne INFORMATYKA. stacjonarne. I-go stopnia. (INT) Inżynieria internetowa STOPIEŃ STUDIÓW TYP STUDIÓW SPECJALNOŚĆ (INT) Inżynieria internetowa 1.Tryby komunikacji między procesami w standardzie Message Passing Interface. 2. HTML DOM i XHTML cel i charakterystyka. 3. Asynchroniczna komunikacja serwerem HTTP w technologii

Bardziej szczegółowo

KLASYFIKACJA. Słownik języka polskiego

KLASYFIKACJA. Słownik języka polskiego KLASYFIKACJA KLASYFIKACJA Słownik języka polskiego Klasyfikacja systematyczny podział przedmiotów lub zjawisk na klasy, działy, poddziały, wykonywany według określonej zasady Klasyfikacja polega na przyporządkowaniu

Bardziej szczegółowo

Autoreferat Rozprawy Doktorskiej

Autoreferat Rozprawy Doktorskiej Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Autoreferat Rozprawy Doktorskiej Krzysztof Kogut Real-time control

Bardziej szczegółowo

Temat: Sieci neuronowe oraz technologia CUDA

Temat: Sieci neuronowe oraz technologia CUDA Elbląg, 27.03.2010 Temat: Sieci neuronowe oraz technologia CUDA Przygotował: Mateusz Górny VIII semestr ASiSK Wstęp Sieci neuronowe są to specyficzne struktury danych odzwierciedlające sieć neuronów w

Bardziej szczegółowo

AUTO-STROJENIE REGULATORA TYPU PID Z WYKORZYSTANIEM LOGIKI ROZMYTEJ

AUTO-STROJENIE REGULATORA TYPU PID Z WYKORZYSTANIEM LOGIKI ROZMYTEJ POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 75 Electrical Engineering 2013 Łukasz NIEWIARA* Krzysztof ZAWIRSKI* AUTO-STROJENIE REGULATORA TYPU PID Z WYKORZYSTANIEM LOGIKI ROZMYTEJ Zagadnienia

Bardziej szczegółowo

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych. Wstęp do teorii sztucznej inteligencji Wykład III Modele sieci neuronowych. 1 Perceptron model najprostzszy przypomnienie Schemat neuronu opracowany przez McCullocha i Pittsa w 1943 roku. Przykład funkcji

Bardziej szczegółowo

Scenariusz lekcji. podać przykłady zalet użycia takiej instrukcji; opisać algorytm obliczania średniej n liczb;

Scenariusz lekcji. podać przykłady zalet użycia takiej instrukcji; opisać algorytm obliczania średniej n liczb; 1 TEMAT LEKCJI: Instrukcja pętli For w języku Turbo Pascal 2 CELE LEKCJI: 2.1 Wiadomości: Uczeń potrafi: podać konstrukcję instrukcji pętli For w języku Turbo Pascal; omówić sposób działania instrukcji

Bardziej szczegółowo

Programowanie i techniki algorytmiczne

Programowanie i techniki algorytmiczne Temat 2. Programowanie i techniki algorytmiczne Realizacja podstawy programowej 1) wyjaśnia pojęcie algorytmu, podaje odpowiednie przykłady algorytmów rozwiązywania różnych 2) formułuje ścisły opis prostej

Bardziej szczegółowo

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna. Sieci neuronowe model konekcjonistyczny Plan wykładu Mózg ludzki a komputer Modele konekcjonistycze Perceptron Sieć neuronowa Uczenie sieci Sieci Hopfielda Mózg ludzki a komputer Twój mózg to 00 000 000

Bardziej szczegółowo

Optymalizacja systemów

Optymalizacja systemów Optymalizacja systemów Laboratorium - problem detekcji twarzy autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, P. Klukowski Cel zadania Celem zadania jest zapoznanie się z gradientowymi algorytmami optymalizacji

Bardziej szczegółowo

Semestr 1 suma pkt ECTS dla wszystkich kursów w semestrze: 30

Semestr 1 suma pkt ECTS dla wszystkich kursów w semestrze: 30 1. Zestaw kursów i grup kursów obowiązkowych i wybieralnych w układzie semestralnym Załącznik nr3 Semestr 1 suma pkt dla wszystkich kursów w semestrze: 30 Kursy obowiązkowe suma pkt : 30 Lp Kod kursu pkt

Bardziej szczegółowo

PRZEWODNIK PO PRZEDMIOCIE

PRZEWODNIK PO PRZEDMIOCIE Nazwa przedmiotu: Kierunek: Informatyka Rodzaj przedmiotu: obowiązkowy w ramach treści kierunkowych, moduł kierunkowy oólny Rodzaj zajęć: wykład, laboratorium I KARTA PRZEDMIOTU CEL PRZEDMIOTU PRZEWODNIK

Bardziej szczegółowo