Recenzja rozprawy doktorskiej Deep Neural Architectures for Algorithms and Sequential Data napisanej przez mgr Karola Kuracha.
|
|
- Feliks Krupa
- 8 lat temu
- Przeglądów:
Transkrypt
1 Prof. dr hab. Włodzisław Duch Katedra Informatyki Stosowanej, Laboratorium Neurokognitywne Uniwersytet Mikołaja Kopernika, Toruń Recenzja rozprawy doktorskiej Deep Neural Architectures for Algorithms and Sequential Data napisanej przez mgr Karola Kuracha. Praca doktorska magistra Karola Kuracha została wykonana w Instytucie Informatyki Wydziału Matematyki, Informatyki i Mechaniki Uniwersytetu Warszawskiego pod kierunkiem dr hab. Hung Son Nguyena, profesora UW. Na rozprawę doktorską składa się 7 publikacji, jedna strona streszczenia i 21 stron wprowadzenia. Tematyka wszystkich prac dotyczy uczenia maszynowego, sieci neuronowych o głębokiej architekturze oraz sieci rekurencyjnych. Są to obecnie zagadnienia niezwykle aktualne i ważne z punktu widzenia rozwoju informatyki i jej zastosowań. Wystarczy rzucić okiem na streszczenie i wprowadzenie by się przekonać, że jest to praca wybitna, a jej recenzja będzie prawdziwą przyjemnością. Dobrze się stało, że jej Autor nie tracił czasu na pisanie rozprawy w tradycyjny sposób. Pan Kurach podaje w 5 z załączonych prac afiliację w grupie Google Brain i zgodnie z polityką tej firmy wystawia je w otwartym dostępnie na serwerach arxiv.org. Są to publikacje konferencyjne, a więc niedoceniane przez nasz system ocen bibliometrycznych, chociaż w informatyce właśnie publikacje na bardzo wymagających konferencjach są obecnie najbardziej istotne. Procent zaakceptowanych prac na konferencjach, na których przyjęto te prace jest bardzo niewielki. Dla NIPS zaledwie 3.7% prac zostało wyróżnionych jako spotlight, w konkursie AAIA przyjęto tylko 3.9% prac, w pozostałych to poniżej 10%, z wyjątkiem International Conference on Learning Representations (ICLR), na której akceptowanych jest około ¼ nadesłanych prac. Są to konferencje o uznanej renomie, na które swoich prac nie nadsyłają przypadkowi autorzy. Poza 7 publikacjami przedstawionymi jako osiągnięcie badawcze mgr Kurach jest autorem jeszcze dwóch publikacji konferencyjnych nie dotyczących sieci neuronowych. Biorąc pod uwagę niewielki procent przyjętych publikacji i poziom tych konferencji można uznać, że wszystkie przeszły przez wnikliwe recenzje. Oświadczenia współautorów wskazują na istotny wkład mgr Kuracha do każdej z przedstawionych publikacji.
2 2 Wprowadzenie zawiera krótkie omówienie głębokiego uczenia, które w ostatnich latach zrobiło wielką karierę dzięki postępom w metodach uczenia wielowarstwowych sieci, szybkim procesorom (w tym rozwiązaniom opartym na GPU), oraz dużym bazom danych, głównie obrazów i sygnałów. Analiza takich danych możliwa jest tylko dzięki bardzo złożonym modelom w postaci sieci neuronowych zawierających miliony parametrów. Otwiera to zupełnie nowe możliwości zastosowań. Oprócz sieci neuronowych z jednokierunkowym przepływem (FNN), które wymagają danych wejściowych o ustalonej strukturze, ważną klasą sieci są sieci z rekurencją (RNN). Umożliwiają one mapowanie dowolnych sekwencji sygnałów na inne sekwencje. W klasycznym ujęciu RNN jest tylko jeden wektor reprezentujący ukryte aktywacje, a uczenie najczęściej realizowane jest za pomocą algorytmu wstecznej propagacji błędów w czasie (BPTT). Lepszy model opublikowany już w 1997 roku przez Hochreitera i Schmidhubera używa dodatkowego wektora reprezentującego pamięć długoterminową, stąd nazwa Long Short-Term Memory (LSTM). Do pewnego stopnia model ten odzwierciedla działanie biologicznej pamięci roboczej, w której możliwe jest utrzymanie lub zapominanie poprzednich informacji przez modulowane bramki. Formalnie jest to przekształcenie wektora wejściowego, aktywacji ukrytych elementów i aktywacji komórek pamięci na wektor wyjściowy i nowy wektor ukrytych aktywacji. Wzór 8 (str. 8) zawiera drobny błąd, zamiast g t powinno być u t. Algorytmy LSTM zostały ostatnio uzupełnione o mechanizmy uwagi oraz wykorzystanie pamięci zewnętrznej, co jeszcze bardziej zbliża je do inspiracji biologicznych, chociaż autorzy się na nie nie powołują. Pierwsze cztery prace dotyczą metod uczenia i architektur sieci neuronowych, następne trzy ambitnych zastosowań. Praca Adding Gradient Noise Improves Learning for Very Deep Networks ma aż 7 autorów i dotyczy stosunkowo prostej metody usprawnienia uczenia głębokich sieci neuronowych. Szum dodawany był w różny sposób do danych wejściowych lub parametrów sieci, służąc jak metoda regularyzacji funkcji realizowanej przez sieć. W tej pracy zaproponowano by dodawać stopniowo zmniejszający się szum Gaussowski do gradientów w stochastycznej optymalizacji parametrów sieci. Chociaż idea nie jest całkiem nowa przedstawione tu symulacje na głębokich sieciach neuronowych pokazały jej dużą przydatność. Pozwala to przezwyciężyć efekty słabej inicjalizacji w głębokich sieciach jednokierunkowych. Wiele eksperymentów wykonano na danych MNIST (rozpoznawanie ręcznie pisanych cyfr) z 20-warstwową siecią i 50 neuronami w każdej warstwie. Takie sieci trudno jest dobrze zainicjalizować i dodanie szumu do gradientów znacznie poprawia zbieżność uczenia. Na głębo-
3 3 kich sieciach typu End-to-End Memory (Sukhbaatar i inn., 2015) przeznaczonych do odpowiedzi na pytania (Q/A system) wymagające dedukcyjnego bądź indukcyjnego wnioskowania błąd również znacząco zmalał. Architektura Neural Programmer (Neelakantan i inn 2015) służy do szukania odpowiedzi na zadawane pytania, wykorzystując informacje dostępne w bazie danych. Dodawanie szumu do gradientów polepszało znacząco wyniki we wszystkich eksperymentach. Podobnie było z architekturą Convolutional Gated Recurrent Networks (CGRN, Kaiser & Sutskever, 2015), która może się nauczyć konstruować dowolny algorytm. Liczba poprawnych wyników zwiększyła się dwukrotnie. W pracy Neural Random-Access Machines Kurach, Andrychowicz i ich opiekun Ilya Sutskever idąc śladami Neuronowej Maszyny Turinga (Graves i inn. 2014) definiują głęboką architekturę neuronową której operacje bazowe obejmują manipulację wskaźnikami i dostępem do pamięci. Sieć neuronowa, jednokierunkowa lub rekurencyjna sieć LSTM, traktowana jest tu jako uczący się kontroler, modyfikujący połączenia pomiędzy węzłami, w których znajdują się wyspecjalizowane moduły. Ich zadaniem jest odczytywanie i modyfikacja danych z rejestrów, oraz komunikacja z taśmą pamięci. W procesie uczenia zastosowano najnowsze algorytmy: nieliniowość ReLu zamiast sigmoidy, algorytm Adam stochastycznej optymalizacji, systematyczne uczenie (curriculum learning, od prostych do złożonych relacji), skalowanie gradientów, szum dodany do gradientów, warstwy renormalizujące rozkłady prawdopodobieństwa, zaburzenia funkcji kosztu zależne od entropii rozkładów neuronowego kontrolera. Stosowane tu metody uczenia pojawiły się w ostatnich kilku latach. W eksperymentach użyto 14 modułów realizujących operacje arytmetyczne i logiczne, odczytu i zapisu. Tworząc połączenia tych modułów sieć uczyła się zadań typu: odczytując z taśmy liczbę k i wektor A podaj A[k]; mając wskaźnik do miejsca i wektor skopiuj elementy na odpowiednie miejsce; mając dwie liczby całkowite p i q oraz wektor A zamień wartości A[p] z A[q]. Były też bardziej złożone zadania, np. mając wskaźnik do początku listy i wartość v znajdź wskaźnik do pierwszego węzła listy o wartości v. Dla niektórych zadań osiągnięto generalizację na dowolnie duże dane wejściowe. Tylko dwóch zadań nie udało się nauczyć bez błędów: połączyć posortowane tablice i mając dany wskaźnik do korzenia drzewa binarnego i określoną ścieżkę zwrócić końcową wartość elementu drzewa z tej ścieżki. Jest to ciekawy kierunek badań, zmierzający do wykorzystania sieci neuronowych nie tylko do rozpoznawania wzorców ale i zadań wymagających ułożenia programu działania, wymagających wykorzystania wiedzy deklaratywnej i dostępu do pamięci. W pracy Learning
4 4 Efficient Algorithms with Hierarchical Attentive Memory (Andrychowicz, Kurach) zaproponowano ogólny mechanizm uwagi wykorzystujący hierarchiczną pamięć (model HAM) w postaci binarnego drzewa, co pozwala na zmniejszenie czasu dostępu do Θ(log n). Podobne mechanizmy wykorzystywano dotychczas w metodach opartych na podobieństwie do wyszukiwania najbliższych sąsiadów. Ostatnio mechanizmy uwagi pojawiły się w kilku pracach wykorzystujących zewnętrzną pamięć w połączeniu z głębokimi sieciami neuronowymi. Model HAM został przetestowany w połączeniu z siecią LSTM jako kontrolerem i MLP jako predyktorem kierunku przesuwania się po drzewie, oceniając gradienty metodą REINFORCE (Williams 1992), oraz stosując liczne usprawniające uczenie metody z opisanej powyżej pracy. Kombinacja LSTM i HAM pozwoliła na podstawie przykładów nauczyć się takich operacji jak łączenie posortowanych tablic, czy naukę algorytmu sortowania, który działa w czasie Θ(n log n) i można go zastosować do bardziej złożonych problemów niż były nauczone w czasie treningu. Takie zadania to dość naturalne zastosowanie hierarchicznej pamięci opartej na binarnym drzewie. Nie działa to jednak idealnie i pojawiają się drobne błędy, które autorzy mają nadzieję usunąć dzięki dalszym usprawnieniom mechanizmów uczenia się. Przydatność samego modułu HAM w połączeniu z siecią MLP przetestowano też z bardzo dobrym wynikiem ucząc tego systemu podstawowych operacji PUSH/POP realizujących kolejkę FIFO i kolejkę priorytetową. Poszukując metod pozwalających automatycznie odkrywać efektywne algorytmy Zaremba, Kurach i Fergus skupili się na operacjach na macierzach. W pracy Learning to Discover Efficient Mathematical Identities pokazali, jak wyrażenia symboliczne można przedstawić za pomocą sekwencji reguł gramatycznych w schemacie gramatyk atrybutywnych. Składanie symbolicznych wyrażeń jest NP-trudne, prowadzi do eksplozji kombinatorycznej. Używając sieci rekurencyjnych trenowanych na prostych drzewach z symbolicznymi wyrażeniami w węzłach algorytm uczy się reguł składania wyrażeń (gramatyki) w sposób dający prawidłowy rezultat tańszym kosztem. Pierwszym przykładem jest obliczanie sum(sum(a*b)), co przy prostym sumowaniu po wszystkich trzech indeksach wymaga Θ(nmp) operacji, a przy optymalnym podejściu tylko Θ(n(m+p)) operacji. Sprawdzanie czy złożenie operacji daje właściwy wyniki można zrobić w prosty sposób używając numerycznych przykładów, lub używając rekursywnych sieci neuronowych mapując symboliczne wyrażenia na wektory w wysokowymiarowej przestrzeni. Dla operacji macierzowych zawierających potęgi k lub niższe wystarczy 30 wymiarów. Zbiór wszystkich poprawnych wyrażeń do stopnia k jest najpierw mapowany
5 5 na wektory w tej przestrzeni a potem pogrupowany w klastry równoważnych wyrażeń. Dla k=6 utworzono 1687 klastrów. Taka reprezentacja pozwala na identyfikację właściwych wyrażeń za pomocą sieci rekurencyjnej, która klasyfikuje złożone wyrażenia mapowane do tej przestrzeni. W eksperymentach z odkrywaniem równoważnych wyrażeń porównano 3 różne strategie szukania rozwiązań. Udało się odkryć algorytmy obliczające różne wyrażenia macierzowe dające skalarny wynik, np. sumę obustronnych iloczynów macierzy dla wszystkich binarnych wektorów (vah) k. Naiwne oceny wymagają Θ(2 2n ) operacji, a odkryty algorytm redukuje to do Θ(n 3 ). Najlepszą strategią wydają się n-gramy (używano 2-5-gramów). Perspektywa automatycznej transformacji naiwnych programów w efektywne obliczeniowo rozwiązania jest tu widoczna. Jest jednak jeszcze sporo do poprawienia ale i tak rezultaty są już teraz bardzo interesujące. Pozostałe trzy prace dotyczą zastosowań omawianych metod. Detecting Methane Outbreaks from Time Series Data with Deep Neural Networks (Pawłowski, Kurach, 2015) zawiera wyniki konkursu przewidywania niebezpiecznego poziomu koncentracji metanu. Dane pochodziły z polskich kopalni, zebrano je z 28 sensorów i miały postać szeregów czasowych zawierających rekordów, każdy rekord zawierał odczytów, w sumie ponad 868 mln wartości (3.5 GB). Są to więc dane dużych rozmiarów, bardzo niezbalansowane (2% ostrzeżeń, reszta odczytów uznana za normalne), większość szeregów czasowych się mocno nakładała. Autorzy zastosowali tu sieć LSTM i komitet wielowarstwowych sieci MLP osiągając bardzo dobry wynik i plasując się na 6 miejscu na 52 uczestników w konkursie na konferencji IJCRS 2015 (jednak różnice w stosunku do pozycji drugiej były niewielkie, a użyto surowych danych z sensorów). Podobne podejście, opisane w pracy Predicting Dangerous Seismic Activity with RNN (Kurach, Pawłowski, 2016) zastosowano w konkursie przewidywania niebezpiecznej aktywności sejsmicznej w kopalniach. Rezultaty konkursu będą ogłoszone na konferencji AAIA 2016 w połowie września. Ostatnia praca, Smart Reply: Automated Response Suggestion for jest sygnowana przez 11 osób z korporacji Google i została zaimplementowana w wersji Google Inbox mobilnej poczty. Mgr Kurach należał do grupy 4 osób, które ten projekt zainicjowały i koordynowały. Ich zadaniem było stworzenie programu Smart Reply sugerującego krótkie, sensowne odpowiedzi na e. Ponieważ ta aplikacja obsługuje miliony użytkowników autorzy oceniają, że 10% odpowiedzi na e przechodzące przez Inbox jest generowanych przez ich system wymagało to spełnienia wielu warunków. Sieć rekurencyjna LSTM została wy-
6 6 trenowana na wielkim korpusie 238 mln i, użyto biblioteki TensorFlow do jej nauki na masowo równoległym systemie komputerowym. Cała aplikacja jest dalece nietrywialna i wymagała zastosowania wielu wyrafinowanych technik uczenia maszynowego i analizy języka naturalnego. Zarówno w tej jak i we wszystkich poprzednich pracach autorzy włożyli dużo wysiłku w szczegółową ocenę zalet i wad opracowanych przez siebie rozwiązań, jak i porównania z innymi możliwymi podejściami. Omówione powyżej prace składające się na rozprawę doktorska pokazują jednoznacznie głęboką wiedzę mgr Kuracha w dziedzinie uczenia maszynowego, sieci neuronowych i metod statystycznych. Jest współautorem wielu nowych idei, które znalazły zastosowanie w nowych systemach, umożliwiając znaczny postęp w zastosowaniu sieci neuronowych i metod uczenia maszynowego do rozwiazywania realnych problemów. O jego umiejętnościach i wiedzy świadczą też udziały w dwóch konkursach analizy dużych i trudnych danych. Jego rozprawa doktorska dotyczy najnowszej i bardzo ważnej tematyki, a rezultaty jego badań zostały opublikowane i przedstawione na bardzo wymagających konferencjach. Ustawowe wymogi dotyczące prac doktorskich zostały więc w pełni spełnione. Ze względu na wagę tych osiągnięć naukowych uważam, że jest to praca zasługująca na wyróżnienie i wnioskuję o dopuszczenie jej Autora do dalszych etapów przewodu doktorskiego. Włodzisław Duch, Toruń, 25 sierpnia 2016
Temat: Sieci neuronowe oraz technologia CUDA
Elbląg, 27.03.2010 Temat: Sieci neuronowe oraz technologia CUDA Przygotował: Mateusz Górny VIII semestr ASiSK Wstęp Sieci neuronowe są to specyficzne struktury danych odzwierciedlające sieć neuronów w
Dariusz Brzeziński Instytut Informatyki, Politechnika Poznańska
Dariusz Brzeziński Instytut Informatyki, Politechnika Poznańska Podstawowe architektury sieci neuronowych Generowanie sztucznych danych Jak się nie przemęczyć Korzystanie z istniejących wag Zamrażanie
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa
Podstawy Sztucznej Inteligencji (PSZT)
Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12
IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ
IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,
Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3
Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt
Uczenie sieci typu MLP
Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik
Wprowadzenie do sieci neuronowych i zagadnień deep learning
Wprowadzenie do sieci neuronowych i zagadnień deep learning Inteligentne Obliczenia Wydział Mechatroniki Politechniki Warszawskiej Anna Sztyber INO (IAiR PW) Deep learning Anna Sztyber 1 / 28 Deep learning
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt
Optymalizacja optymalizacji
7 maja 2008 Wstęp Optymalizacja lokalna Optymalizacja globalna Algorytmy genetyczne Badane czasteczki Wykorzystane oprogramowanie (Algorytm genetyczny) 2 Sieć neuronowa Pochodne met-enkefaliny Optymalizacja
Deep Learning na przykładzie Deep Belief Networks
Deep Learning na przykładzie Deep Belief Networks Jan Karwowski Zakład Sztucznej Inteligencji i Metod Obliczeniowych Wydział Matematyki i Nauk Informacyjnych PW 20 V 2014 Jan Karwowski (MiNI) Deep Learning
Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści
Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, 2013 Spis treści Przedmowa 7 1. Wstęp 9 1.1. Podstawy biologiczne działania neuronu 9 1.2. Pierwsze modele sieci neuronowej
Wstęp do głębokich sieci neuronowych. Paweł Morawiecki IPI PAN
Wstęp do głębokich sieci neuronowych Paweł Morawiecki IPI PAN Liczba projektów z głębokim uczeniem rośnie bardzo szybko liczba projektów w firmie Google 4000 3000 2000 1000 2012 2013 2014 2015 2016 2017
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-10 Projekt pn. Wzmocnienie
Zastosowania sieci neuronowych
Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką
Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.
Wstęp do teorii sztucznej inteligencji Wykład III Modele sieci neuronowych. 1 Perceptron model najprostzszy przypomnienie Schemat neuronu opracowany przez McCullocha i Pittsa w 1943 roku. Przykład funkcji
Algorytm do rozpoznawania człowieka na podstawie dynamiki użycia klawiatury. Paweł Kobojek, prof. dr hab. inż. Khalid Saeed
Algorytm do rozpoznawania człowieka na podstawie dynamiki użycia klawiatury Paweł Kobojek, prof. dr hab. inż. Khalid Saeed Zakres pracy Przegląd stanu wiedzy w dziedzinie biometrii, ze szczególnym naciskiem
WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)
WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO Stanisław Kowalik (Poland, Gliwice) 1. Wprowadzenie Wstrząsy podziemne i tąpania występujące w kopalniach
Wrocław University of Technology. Uczenie głębokie. Maciej Zięba
Wrocław University of Technology Uczenie głębokie Maciej Zięba UCZENIE GŁĘBOKIE (ang. deep learning) = klasa metod uczenia maszynowego, gdzie model ma strukturę hierarchiczną złożoną z wielu nieliniowych
Sztuczna Inteligencja Tematy projektów Sieci Neuronowe
PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia
Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty
Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-03 Projekt pn. Wzmocnienie potencjału
Algorytm grupowania danych typu kwantyzacji wektorów
Algorytm grupowania danych typu kwantyzacji wektorów Wstęp Definicja problemu: Typowe, problemem często spotykanym w zagadnieniach eksploracji danych (ang. data mining) jest zagadnienie grupowania danych
Uczenie sieci radialnych (RBF)
Uczenie sieci radialnych (RBF) Budowa sieci radialnej Lokalne odwzorowanie przestrzeni wokół neuronu MLP RBF Budowa sieci radialnych Zawsze jedna warstwa ukryta Budowa neuronu Neuron radialny powinien
synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.
Sieci neuronowe model konekcjonistyczny Plan wykładu Mózg ludzki a komputer Modele konekcjonistycze Perceptron Sieć neuronowa Uczenie sieci Sieci Hopfielda Mózg ludzki a komputer Twój mózg to 00 000 000
XQTav - reprezentacja diagramów przepływu prac w formacie SCUFL przy pomocy XQuery
http://xqtav.sourceforge.net XQTav - reprezentacja diagramów przepływu prac w formacie SCUFL przy pomocy XQuery dr hab. Jerzy Tyszkiewicz dr Andrzej Kierzek mgr Jacek Sroka Grzegorz Kaczor praca mgr pod
Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010
Materiały/konsultacje Automatyczna predykcja http://www.ibp.pwr.wroc.pl/kotulskalab Konsultacje wtorek, piątek 9-11 (uprzedzić) D1-115 malgorzata.kotulska@pwr.wroc.pl Co to jest uczenie maszynowe? Uczenie
Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;
Sieci Hopfielda Najprostsze modele sieci z rekurencją sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Modele bardziej złoŝone: RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie
Optymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
Wykład z Technologii Informacyjnych. Piotr Mika
Wykład z Technologii Informacyjnych Piotr Mika Uniwersalna forma graficznego zapisu algorytmów Schemat blokowy zbiór bloków, powiązanych ze sobą liniami zorientowanymi. Jest to rodzaj grafu, którego węzły
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska
Zaawansowane algorytmy i struktury danych
Zaawansowane algorytmy i struktury danych u dr Barbary Marszał-Paszek Opracowanie pytań teoretycznych z egzaminów. Strona 1 z 12 Pytania teoretyczne z egzaminu pisemnego z 25 czerwca 2014 (studia dzienne)
komputery? Andrzej Skowron, Hung Son Nguyen Instytut Matematyki, Wydział MIM, UW
Czego moga się nauczyć komputery? Andrzej Skowron, Hung Son Nguyen son@mimuw.edu.pl; skowron@mimuw.edu.pl Instytut Matematyki, Wydział MIM, UW colt.tex Czego mogą się nauczyć komputery? Andrzej Skowron,
Wprowadzenie do teorii systemów ekspertowych
Myślące komputery przyszłość czy utopia? Wprowadzenie do teorii systemów ekspertowych Roman Simiński siminski@us.edu.pl Wizja inteligentnych maszyn jest od wielu lat obecna w literaturze oraz filmach z
Temat: ANFIS + TS w zadaniach. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE
Temat: ANFIS + TS w zadaniach Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1. Systemy neuronowo - rozmyte Systemy
Elementy kognitywistyki III: Modele i architektury poznawcze
Elementy kognitywistyki III: Modele i architektury poznawcze Wykład III: Psychologiczne modele umysłu Gwoli przypomnienia: Kroki w modelowaniu kognitywnym: teoretyczne ramy pojęciowe (modele pojęciowe)
Algorytmy i struktury danych
Algorytmy i struktury danych ĆWICZENIE 2 - WYBRANE ZŁOŻONE STRUKTURY DANYCH - (12.3.212) Prowadząca: dr hab. inż. Małgorzata Sterna Informatyka i3, poniedziałek godz. 11:45 Adam Matuszewski, nr 1655 Oliver
dr inż. Jarosław Forenc
Informatyka 2 Politechnika Białostocka - Wydział Elektryczny Elektrotechnika, semestr III, studia stacjonarne I stopnia Rok akademicki 2010/2011 Wykład nr 7 (24.01.2011) dr inż. Jarosław Forenc Rok akademicki
ID1SII4. Informatyka I stopień (I stopień / II stopień) ogólnoakademicki (ogólno akademicki / praktyczny) stacjonarne (stacjonarne / niestacjonarne)
Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 lutego 2012r. KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu ID1SII4 Nazwa modułu Systemy inteligentne 1 Nazwa modułu w języku angielskim Intelligent
Metody Sztucznej Inteligencji II
17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału
RNN Sieci rekurencyjne i modelowanie sekwencji. Sieci Neronowe 1
RNN Sieci rekurencyjne i modelowanie sekwencji Sieci Neronowe 1 Modelowanie sekwencji Dane sekwencyjne lub zależne od czasu: sygnał audio, tekst, ruch obiektów, EEG,... Modelowanie sekwencji: generowanie
Uczenie sieci neuronowych i bayesowskich
Wstęp do metod sztucznej inteligencji www.mat.uni.torun.pl/~piersaj 2009-01-22 Co to jest neuron? Komputer, a mózg komputer mózg Jednostki obliczeniowe 1-4 CPU 10 11 neuronów Pojemność 10 9 b RAM, 10 10
Wybór / ocena atrybutów na podstawie oceny jakości działania wybranego klasyfikatora.
Wprowadzenie do programu RapidMiner Studio 7.6, część 7 Podstawy metod wyboru atrybutów w problemach klasyfikacyjnych, c.d. Michał Bereta www.michalbereta.pl Wybór / ocena atrybutów na podstawie oceny
Sieć przesyłająca żetony CP (counter propagation)
Sieci neuropodobne IX, specyficzne architektury 1 Sieć przesyłająca żetony CP (counter propagation) warstwa Kohonena: wektory wejściowe są unormowane jednostki mają unormowane wektory wag jednostki są
Adrian Horzyk
Metody Inteligencji Obliczeniowej Metoda K Najbliższych Sąsiadów (KNN) Adrian Horzyk horzyk@agh.edu.pl AGH Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny
Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335
Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Wykład 10 Mapa cech Kohonena i jej modyfikacje - uczenie sieci samoorganizujących się - kwantowanie wektorowe
Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.
Wstęp do teorii sztucznej inteligencji Wykład II Uczenie sztucznych neuronów. 1 - powtórzyć o klasyfikacji: Sieci liniowe I nieliniowe Sieci rekurencyjne Uczenie z nauczycielem lub bez Jednowarstwowe I
Co to jest grupowanie
Grupowanie danych Co to jest grupowanie 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Szukanie grup, obszarów stanowiących lokalne gromady punktów Co to jest grupowanie
Sieci neuronowe w Statistica
http://usnet.us.edu.pl/uslugi-sieciowe/oprogramowanie-w-usk-usnet/oprogramowaniestatystyczne/ Sieci neuronowe w Statistica Agnieszka Nowak - Brzezińska Podstawowym elementem składowym sztucznej sieci neuronowej
1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda
Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy
Porównanie czasów działania algorytmów sortowania przez wstawianie i scalanie
Więcej o sprawności algorytmów Porównanie czasów działania algorytmów sortowania przez wstawianie i scalanie Załóżmy, że możemy wykonać dane zadanie przy użyciu dwóch algorytmów: jednego o złożoności czasowej
1.7. Eksploracja danych: pogłębianie, przeszukiwanie i wyławianie
Wykaz tabel Wykaz rysunków Przedmowa 1. Wprowadzenie 1.1. Wprowadzenie do eksploracji danych 1.2. Natura zbiorów danych 1.3. Rodzaje struktur: modele i wzorce 1.4. Zadania eksploracji danych 1.5. Komponenty
Prof. Stanisław Jankowski
Prof. Stanisław Jankowski Zakład Sztucznej Inteligencji Zespół Statystycznych Systemów Uczących się p. 228 sjank@ise.pw.edu.pl Zakres badań: Sztuczne sieci neuronowe Maszyny wektorów nośnych SVM Maszyny
Projekt Sieci neuronowe
Projekt Sieci neuronowe Chmielecka Katarzyna Gr. 9 IiE 1. Problem i dane Sieć neuronowa miała za zadanie nauczyć się klasyfikować wnioski kredytowe. W projekcie wykorzystano dane pochodzące z 110 wniosków
Teoretyczne podstawy informatyki
Teoretyczne podstawy informatyki Wykład 4a: Rozwiązywanie rekurencji http://kiwi.if.uj.edu.pl/~erichter/dydaktyka2010/tpi-2010 Prof. dr hab. Elżbieta Richter-Wąs 1 Czas działania programu Dla konkretnych
Oprogramowanie Systemów Obrazowania SIECI NEURONOWE
SIECI NEURONOWE Przedmiotem laboratorium jest stworzenie algorytmu rozpoznawania zwierząt z zastosowaniem sieci neuronowych w oparciu o 5 kryteriów: ile zwierzę ma nóg, czy żyje w wodzie, czy umie latać,
MODELOWANIE RZECZYWISTOŚCI
MODELOWANIE RZECZYWISTOŚCI Daniel Wójcik Instytut Biologii Doświadczalnej PAN Szkoła Wyższa Psychologii Społecznej d.wojcik@nencki.gov.pl dwojcik@swps.edu.pl tel. 022 5892 424 http://www.neuroinf.pl/members/danek/swps/
Zastosowania sieci neuronowych
Zastosowania sieci neuronowych klasyfikacja LABORKA Piotr Ciskowski zadanie 1. klasyfikacja zwierząt sieć jednowarstwowa żródło: Tadeusiewicz. Odkrywanie własności sieci neuronowych, str. 159 Przykład
Matlab podstawy + testowanie dokładności modeli inteligencji obliczeniowej
Matlab podstawy + testowanie dokładności modeli inteligencji obliczeniowej Podstawy matlaba cz.ii Funkcje Dotychczas kod zapisany w matlabie stanowił skrypt który pozwalał na określenie kolejności wykonywania
1. Logika, funkcje logiczne, preceptron.
Sieci neuronowe 1. Logika, funkcje logiczne, preceptron. 1. (Logika) Udowodnij prawa de Morgana, prawo pochłaniania p (p q), prawo wyłączonego środka p p oraz prawo sprzeczności (p p). 2. Wyraź funkcję
Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę
Norbert Jankowski Ontogeniczne sieci neuronowe O sieciach zmieniających swoją strukturę Warszawa 2003 Opracowanie książki było wspierane stypendium Uniwersytetu Mikołaja Kopernika Spis treści Wprowadzenie
Programowanie komputerów
Programowanie komputerów Wykład 1-2. Podstawowe pojęcia Plan wykładu Omówienie programu wykładów, laboratoriów oraz egzaminu Etapy rozwiązywania problemów dr Helena Dudycz Katedra Technologii Informacyjnych
S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor
S O M SELF-ORGANIZING MAPS Przemysław Szczepańczyk Łukasz Myszor Podstawy teoretyczne Map Samoorganizujących się stworzył prof. Teuvo Kohonen (1982 r.). SOM wywodzi się ze sztucznych sieci neuronowych.
Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.
Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. zajecia.jakubw.pl/nai Literatura: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym. WNT, Warszawa 997. PODSTAWOWE ZAGADNIENIA TECHNICZNE AI
Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I
Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:
Elementy modelowania matematycznego
Elementy modelowania matematycznego Modelowanie algorytmów klasyfikujących. Podejście probabilistyczne. Naiwny klasyfikator bayesowski. Modelowanie danych metodą najbliższych sąsiadów. Jakub Wróblewski
Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska
Sieci neuronowe w Statistica Agnieszka Nowak - Brzezioska Podstawowym elementem składowym sztucznej sieci neuronowej jest element przetwarzający neuron. Schemat działania neuronu: x1 x2 w1 w2 Dendrites
Algorytmy Równoległe i Rozproszone Część V - Model PRAM II
Algorytmy Równoległe i Rozproszone Część V - Model PRAM II Łukasz Kuszner pokój 209, WETI http://www.sphere.pl/ kuszner/ kuszner@sphere.pl Oficjalna strona wykładu http://www.sphere.pl/ kuszner/arir/ 2005/06
Klasa 2 INFORMATYKA. dla szkół ponadgimnazjalnych zakres rozszerzony. Założone osiągnięcia ucznia wymagania edukacyjne na. poszczególne oceny
Klasa 2 INFORMATYKA dla szkół ponadgimnazjalnych zakres rozszerzony Założone osiągnięcia ucznia wymagania edukacyjne na poszczególne oceny Algorytmy 2 3 4 5 6 Wie, co to jest algorytm. Wymienia przykłady
Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010
Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010 Sieci neuronowe jednokierunkowa wielowarstwowa sieć neuronowa sieci Kohonena
METODY INŻYNIERII WIEDZY
METODY INŻYNIERII WIEDZY Metoda K Najbliższych Sąsiadów K-Nearest Neighbours (KNN) ĆWICZENIA Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej
Sztuczne siei neuronowe - wprowadzenie
Metody Sztucznej Inteligencji w Sterowaniu Ćwiczenie 2 Sztuczne siei neuronowe - wprowadzenie Przygotował: mgr inż. Marcin Pelic Instytut Technologii Mechanicznej Politechnika Poznańska Poznań, 2 Wstęp
AUTOMATYKA INFORMATYKA
AUTOMATYKA INFORMATYKA Technologie Informacyjne Sieć Semantyczna Przetwarzanie Języka Naturalnego Internet Edytor Serii: Zdzisław Kowalczuk Inteligentne wydobywanie informacji z internetowych serwisów
Algorytmy sztucznej inteligencji
Algorytmy sztucznej inteligencji Dynamiczne sieci neuronowe 1 Zapis macierzowy sieci neuronowych Poniżej omówione zostaną części składowe sieci neuronowych i metoda ich zapisu za pomocą macierzy. Obliczenia
Machine learning Lecture 6
Machine learning Lecture 6 Marcin Wolter IFJ PAN 11 maja 2017 Deep learning Convolution network Zastosowanie do poszukiwań bozonu Higgsa 1 Deep learning Poszczególne warstwy ukryte uczą się rozpoznawania
Sortowanie przez scalanie
Sortowanie przez scalanie Wykład 2 12 marca 2019 (Wykład 2) Sortowanie przez scalanie 12 marca 2019 1 / 17 Outline 1 Metoda dziel i zwyciężaj 2 Scalanie Niezmiennik pętli - poprawność algorytmu 3 Sortowanie
Czy architektura umysłu to tylko taka sobie bajeczka? Marcin Miłkowski
Czy architektura umysłu to tylko taka sobie bajeczka? Marcin Miłkowski Architektura umysłu Pojęcie używane przez prawie wszystkie współczesne ujęcia kognitywistyki Umysł Przetwornik informacji 2 Architektura
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA SYSTEMY ROZMYTE Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i Inżynierii Biomedycznej Laboratorium
KARTA MODUŁU KSZTAŁCENIA
KARTA MODUŁU KSZTAŁCENIA I. Informacje ogólne 1 Nazwa modułu kształcenia Sztuczna inteligencja 2 Nazwa jednostki prowadzącej moduł Instytut Informatyki, Zakład Informatyki Stosowanej 3 Kod modułu (wypełnia
8. Neuron z ciągłą funkcją aktywacji.
8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i
ALGORYTM RANDOM FOREST
SKRYPT PRZYGOTOWANY NA ZAJĘCIA INDUKOWANYCH REGUŁ DECYZYJNYCH PROWADZONYCH PRZEZ PANA PAWŁA WOJTKIEWICZA ALGORYTM RANDOM FOREST Katarzyna Graboś 56397 Aleksandra Mańko 56699 2015-01-26, Warszawa ALGORYTM
OPINIA. o rozprawie doktorskiej mgr inż. Beaty Potrzeszcz-Sut, pt. Sieci neuronowe w wybranych zagadnieniach mechaniki konstrukcji i materiałów".
POLITECHNIKA RZESZO KA im. IGNACEGO ł.ukasiewitza e WYDZIAŁ BUDOWNICTWA. INŻYNlERII ŚRODOWISKA I ARCHITEKTURY f'olitttl!ntli.i llzłllilow!>juij Prof. dr hab. inż. Leonard Ziemiański Katedra Mechaniki Konstrukcji
Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak
2 Rozdział 1 Sztuczne sieci neuronowe. 3 Sztuczna sieć neuronowa jest zbiorem prostych elementów pracujących równolegle, których zasada działania inspirowana jest biologicznym systemem nerwowym. Sztuczną
Sztuczne sieci neuronowe (SNN)
Sztuczne sieci neuronowe (SNN) Pozyskanie informacji (danych) Wstępne przetwarzanie danych przygotowanie ich do dalszej analizy Selekcja informacji Ostateczny model decyzyjny SSN - podstawy Sieci neuronowe
Recenzja rozprawy doktorskiej mgr inż. Joanny Wróbel
Prof. dr hab. inż. Tadeusz BURCZYŃSKI, czł. koresp. PAN Instytut Podstawowych Problemów Techniki PAN ul. A. Pawińskiego 5B 02-106 Warszawa e-mail: tburczynski@ippt.pan.pl Warszawa, 15.09.2017 Recenzja
Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu
Literatura Wykład : Wprowadzenie do sztucznych sieci neuronowych Małgorzata Krętowska Wydział Informatyki Politechnika Białostocka Tadeusiewicz R: Sieci neuronowe, Akademicka Oficyna Wydawnicza RM, Warszawa
OpenAI Gym. Adam Szczepaniak, Kamil Walkowiak
OpenAI Gym Adam Szczepaniak, Kamil Walkowiak Plan prezentacji Programowanie agentowe Uczenie przez wzmacnianie i problemy związane z rozwojem algorytmów Charakterystyka OpenAI Gym Biblioteka gym Podsumowanie
Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań
Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW
Sztuczne sieci neuronowe
www.math.uni.lodz.pl/ radmat Cel wykładu Celem wykładu jest prezentacja różnych rodzajów sztucznych sieci neuronowych. Biologiczny model neuronu Mózg człowieka składa się z około 10 11 komórek nerwowych,
Algorytmy równoległe: ocena efektywności prostych algorytmów dla systemów wielokomputerowych
Algorytmy równoległe: ocena efektywności prostych algorytmów dla systemów wielokomputerowych Rafał Walkowiak Politechnika Poznańska Studia inżynierskie Informatyka 2014/15 Znajdowanie maksimum w zbiorze
Praca dyplomowa magisterska
Praca dyplomowa magisterska Implementacja algorytmów filtracji adaptacyjnej o strukturze transwersalnej na platformie CUDA Dyplomant: Jakub Kołakowski Opiekun pracy: dr inż. Michał Meller Plan prezentacji
ĆWICZENIE 5: Sztuczne sieci neuronowe
Instytut Mechaniki i Inżynierii Obliczeniowej Wydział Mechaniczny Technologiczny, Politechnika Śląska www.imio.polsl.pl METODY HEURYSTYCZNE ĆWICZENIE 5: Sztuczne sieci neuronowe opracował: dr inż. Witold
Inteligentne systemy przeciw atakom sieciowym
Inteligentne systemy przeciw atakom sieciowym wykład Sztuczne sieci neuronowe (SSN) Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 1 / 36 Biologiczne
Metody numeryczne Technika obliczeniowa i symulacyjna Sem. 2, EiT, 2014/2015
Metody numeryczne Technika obliczeniowa i symulacyjna Sem. 2, EiT, 2014/2015 1 Metody numeryczne Dział matematyki Metody rozwiązywania problemów matematycznych za pomocą operacji na liczbach. Otrzymywane
Systemy uczące się Lab 4
Systemy uczące się Lab 4 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 26 X 2018 Projekt zaliczeniowy Podstawą zaliczenia ćwiczeń jest indywidualne wykonanie projektu uwzględniającego
Elementy kognitywistyki III: Modele i architektury poznawcze
Elementy kognitywistyki III: Modele i architektury poznawcze Wykład VII: Modelowanie uczenia się w sieciach neuronowych Uczenie się sieci i trening nienaruszona struktura sieci (z pewnym ale ) nienaruszone
Nazwa wariantu modułu (opcjonalnie): Laboratorium programowania w języku C++
Uniwersytet Śląski w Katowicach str. 1 Kierunek i poziom studiów: Chemia, poziom pierwszy Sylabus modułu: Laboratorium programowania (0310-CH-S1-019) Nazwa wariantu modułu (opcjonalnie): Laboratorium programowania