Recenzja rozprawy doktorskiej Deep Neural Architectures for Algorithms and Sequential Data napisanej przez mgr Karola Kuracha.

Wielkość: px
Rozpocząć pokaz od strony:

Download "Recenzja rozprawy doktorskiej Deep Neural Architectures for Algorithms and Sequential Data napisanej przez mgr Karola Kuracha."

Transkrypt

1 Prof. dr hab. Włodzisław Duch Katedra Informatyki Stosowanej, Laboratorium Neurokognitywne Uniwersytet Mikołaja Kopernika, Toruń Recenzja rozprawy doktorskiej Deep Neural Architectures for Algorithms and Sequential Data napisanej przez mgr Karola Kuracha. Praca doktorska magistra Karola Kuracha została wykonana w Instytucie Informatyki Wydziału Matematyki, Informatyki i Mechaniki Uniwersytetu Warszawskiego pod kierunkiem dr hab. Hung Son Nguyena, profesora UW. Na rozprawę doktorską składa się 7 publikacji, jedna strona streszczenia i 21 stron wprowadzenia. Tematyka wszystkich prac dotyczy uczenia maszynowego, sieci neuronowych o głębokiej architekturze oraz sieci rekurencyjnych. Są to obecnie zagadnienia niezwykle aktualne i ważne z punktu widzenia rozwoju informatyki i jej zastosowań. Wystarczy rzucić okiem na streszczenie i wprowadzenie by się przekonać, że jest to praca wybitna, a jej recenzja będzie prawdziwą przyjemnością. Dobrze się stało, że jej Autor nie tracił czasu na pisanie rozprawy w tradycyjny sposób. Pan Kurach podaje w 5 z załączonych prac afiliację w grupie Google Brain i zgodnie z polityką tej firmy wystawia je w otwartym dostępnie na serwerach arxiv.org. Są to publikacje konferencyjne, a więc niedoceniane przez nasz system ocen bibliometrycznych, chociaż w informatyce właśnie publikacje na bardzo wymagających konferencjach są obecnie najbardziej istotne. Procent zaakceptowanych prac na konferencjach, na których przyjęto te prace jest bardzo niewielki. Dla NIPS zaledwie 3.7% prac zostało wyróżnionych jako spotlight, w konkursie AAIA przyjęto tylko 3.9% prac, w pozostałych to poniżej 10%, z wyjątkiem International Conference on Learning Representations (ICLR), na której akceptowanych jest około ¼ nadesłanych prac. Są to konferencje o uznanej renomie, na które swoich prac nie nadsyłają przypadkowi autorzy. Poza 7 publikacjami przedstawionymi jako osiągnięcie badawcze mgr Kurach jest autorem jeszcze dwóch publikacji konferencyjnych nie dotyczących sieci neuronowych. Biorąc pod uwagę niewielki procent przyjętych publikacji i poziom tych konferencji można uznać, że wszystkie przeszły przez wnikliwe recenzje. Oświadczenia współautorów wskazują na istotny wkład mgr Kuracha do każdej z przedstawionych publikacji.

2 2 Wprowadzenie zawiera krótkie omówienie głębokiego uczenia, które w ostatnich latach zrobiło wielką karierę dzięki postępom w metodach uczenia wielowarstwowych sieci, szybkim procesorom (w tym rozwiązaniom opartym na GPU), oraz dużym bazom danych, głównie obrazów i sygnałów. Analiza takich danych możliwa jest tylko dzięki bardzo złożonym modelom w postaci sieci neuronowych zawierających miliony parametrów. Otwiera to zupełnie nowe możliwości zastosowań. Oprócz sieci neuronowych z jednokierunkowym przepływem (FNN), które wymagają danych wejściowych o ustalonej strukturze, ważną klasą sieci są sieci z rekurencją (RNN). Umożliwiają one mapowanie dowolnych sekwencji sygnałów na inne sekwencje. W klasycznym ujęciu RNN jest tylko jeden wektor reprezentujący ukryte aktywacje, a uczenie najczęściej realizowane jest za pomocą algorytmu wstecznej propagacji błędów w czasie (BPTT). Lepszy model opublikowany już w 1997 roku przez Hochreitera i Schmidhubera używa dodatkowego wektora reprezentującego pamięć długoterminową, stąd nazwa Long Short-Term Memory (LSTM). Do pewnego stopnia model ten odzwierciedla działanie biologicznej pamięci roboczej, w której możliwe jest utrzymanie lub zapominanie poprzednich informacji przez modulowane bramki. Formalnie jest to przekształcenie wektora wejściowego, aktywacji ukrytych elementów i aktywacji komórek pamięci na wektor wyjściowy i nowy wektor ukrytych aktywacji. Wzór 8 (str. 8) zawiera drobny błąd, zamiast g t powinno być u t. Algorytmy LSTM zostały ostatnio uzupełnione o mechanizmy uwagi oraz wykorzystanie pamięci zewnętrznej, co jeszcze bardziej zbliża je do inspiracji biologicznych, chociaż autorzy się na nie nie powołują. Pierwsze cztery prace dotyczą metod uczenia i architektur sieci neuronowych, następne trzy ambitnych zastosowań. Praca Adding Gradient Noise Improves Learning for Very Deep Networks ma aż 7 autorów i dotyczy stosunkowo prostej metody usprawnienia uczenia głębokich sieci neuronowych. Szum dodawany był w różny sposób do danych wejściowych lub parametrów sieci, służąc jak metoda regularyzacji funkcji realizowanej przez sieć. W tej pracy zaproponowano by dodawać stopniowo zmniejszający się szum Gaussowski do gradientów w stochastycznej optymalizacji parametrów sieci. Chociaż idea nie jest całkiem nowa przedstawione tu symulacje na głębokich sieciach neuronowych pokazały jej dużą przydatność. Pozwala to przezwyciężyć efekty słabej inicjalizacji w głębokich sieciach jednokierunkowych. Wiele eksperymentów wykonano na danych MNIST (rozpoznawanie ręcznie pisanych cyfr) z 20-warstwową siecią i 50 neuronami w każdej warstwie. Takie sieci trudno jest dobrze zainicjalizować i dodanie szumu do gradientów znacznie poprawia zbieżność uczenia. Na głębo-

3 3 kich sieciach typu End-to-End Memory (Sukhbaatar i inn., 2015) przeznaczonych do odpowiedzi na pytania (Q/A system) wymagające dedukcyjnego bądź indukcyjnego wnioskowania błąd również znacząco zmalał. Architektura Neural Programmer (Neelakantan i inn 2015) służy do szukania odpowiedzi na zadawane pytania, wykorzystując informacje dostępne w bazie danych. Dodawanie szumu do gradientów polepszało znacząco wyniki we wszystkich eksperymentach. Podobnie było z architekturą Convolutional Gated Recurrent Networks (CGRN, Kaiser & Sutskever, 2015), która może się nauczyć konstruować dowolny algorytm. Liczba poprawnych wyników zwiększyła się dwukrotnie. W pracy Neural Random-Access Machines Kurach, Andrychowicz i ich opiekun Ilya Sutskever idąc śladami Neuronowej Maszyny Turinga (Graves i inn. 2014) definiują głęboką architekturę neuronową której operacje bazowe obejmują manipulację wskaźnikami i dostępem do pamięci. Sieć neuronowa, jednokierunkowa lub rekurencyjna sieć LSTM, traktowana jest tu jako uczący się kontroler, modyfikujący połączenia pomiędzy węzłami, w których znajdują się wyspecjalizowane moduły. Ich zadaniem jest odczytywanie i modyfikacja danych z rejestrów, oraz komunikacja z taśmą pamięci. W procesie uczenia zastosowano najnowsze algorytmy: nieliniowość ReLu zamiast sigmoidy, algorytm Adam stochastycznej optymalizacji, systematyczne uczenie (curriculum learning, od prostych do złożonych relacji), skalowanie gradientów, szum dodany do gradientów, warstwy renormalizujące rozkłady prawdopodobieństwa, zaburzenia funkcji kosztu zależne od entropii rozkładów neuronowego kontrolera. Stosowane tu metody uczenia pojawiły się w ostatnich kilku latach. W eksperymentach użyto 14 modułów realizujących operacje arytmetyczne i logiczne, odczytu i zapisu. Tworząc połączenia tych modułów sieć uczyła się zadań typu: odczytując z taśmy liczbę k i wektor A podaj A[k]; mając wskaźnik do miejsca i wektor skopiuj elementy na odpowiednie miejsce; mając dwie liczby całkowite p i q oraz wektor A zamień wartości A[p] z A[q]. Były też bardziej złożone zadania, np. mając wskaźnik do początku listy i wartość v znajdź wskaźnik do pierwszego węzła listy o wartości v. Dla niektórych zadań osiągnięto generalizację na dowolnie duże dane wejściowe. Tylko dwóch zadań nie udało się nauczyć bez błędów: połączyć posortowane tablice i mając dany wskaźnik do korzenia drzewa binarnego i określoną ścieżkę zwrócić końcową wartość elementu drzewa z tej ścieżki. Jest to ciekawy kierunek badań, zmierzający do wykorzystania sieci neuronowych nie tylko do rozpoznawania wzorców ale i zadań wymagających ułożenia programu działania, wymagających wykorzystania wiedzy deklaratywnej i dostępu do pamięci. W pracy Learning

4 4 Efficient Algorithms with Hierarchical Attentive Memory (Andrychowicz, Kurach) zaproponowano ogólny mechanizm uwagi wykorzystujący hierarchiczną pamięć (model HAM) w postaci binarnego drzewa, co pozwala na zmniejszenie czasu dostępu do Θ(log n). Podobne mechanizmy wykorzystywano dotychczas w metodach opartych na podobieństwie do wyszukiwania najbliższych sąsiadów. Ostatnio mechanizmy uwagi pojawiły się w kilku pracach wykorzystujących zewnętrzną pamięć w połączeniu z głębokimi sieciami neuronowymi. Model HAM został przetestowany w połączeniu z siecią LSTM jako kontrolerem i MLP jako predyktorem kierunku przesuwania się po drzewie, oceniając gradienty metodą REINFORCE (Williams 1992), oraz stosując liczne usprawniające uczenie metody z opisanej powyżej pracy. Kombinacja LSTM i HAM pozwoliła na podstawie przykładów nauczyć się takich operacji jak łączenie posortowanych tablic, czy naukę algorytmu sortowania, który działa w czasie Θ(n log n) i można go zastosować do bardziej złożonych problemów niż były nauczone w czasie treningu. Takie zadania to dość naturalne zastosowanie hierarchicznej pamięci opartej na binarnym drzewie. Nie działa to jednak idealnie i pojawiają się drobne błędy, które autorzy mają nadzieję usunąć dzięki dalszym usprawnieniom mechanizmów uczenia się. Przydatność samego modułu HAM w połączeniu z siecią MLP przetestowano też z bardzo dobrym wynikiem ucząc tego systemu podstawowych operacji PUSH/POP realizujących kolejkę FIFO i kolejkę priorytetową. Poszukując metod pozwalających automatycznie odkrywać efektywne algorytmy Zaremba, Kurach i Fergus skupili się na operacjach na macierzach. W pracy Learning to Discover Efficient Mathematical Identities pokazali, jak wyrażenia symboliczne można przedstawić za pomocą sekwencji reguł gramatycznych w schemacie gramatyk atrybutywnych. Składanie symbolicznych wyrażeń jest NP-trudne, prowadzi do eksplozji kombinatorycznej. Używając sieci rekurencyjnych trenowanych na prostych drzewach z symbolicznymi wyrażeniami w węzłach algorytm uczy się reguł składania wyrażeń (gramatyki) w sposób dający prawidłowy rezultat tańszym kosztem. Pierwszym przykładem jest obliczanie sum(sum(a*b)), co przy prostym sumowaniu po wszystkich trzech indeksach wymaga Θ(nmp) operacji, a przy optymalnym podejściu tylko Θ(n(m+p)) operacji. Sprawdzanie czy złożenie operacji daje właściwy wyniki można zrobić w prosty sposób używając numerycznych przykładów, lub używając rekursywnych sieci neuronowych mapując symboliczne wyrażenia na wektory w wysokowymiarowej przestrzeni. Dla operacji macierzowych zawierających potęgi k lub niższe wystarczy 30 wymiarów. Zbiór wszystkich poprawnych wyrażeń do stopnia k jest najpierw mapowany

5 5 na wektory w tej przestrzeni a potem pogrupowany w klastry równoważnych wyrażeń. Dla k=6 utworzono 1687 klastrów. Taka reprezentacja pozwala na identyfikację właściwych wyrażeń za pomocą sieci rekurencyjnej, która klasyfikuje złożone wyrażenia mapowane do tej przestrzeni. W eksperymentach z odkrywaniem równoważnych wyrażeń porównano 3 różne strategie szukania rozwiązań. Udało się odkryć algorytmy obliczające różne wyrażenia macierzowe dające skalarny wynik, np. sumę obustronnych iloczynów macierzy dla wszystkich binarnych wektorów (vah) k. Naiwne oceny wymagają Θ(2 2n ) operacji, a odkryty algorytm redukuje to do Θ(n 3 ). Najlepszą strategią wydają się n-gramy (używano 2-5-gramów). Perspektywa automatycznej transformacji naiwnych programów w efektywne obliczeniowo rozwiązania jest tu widoczna. Jest jednak jeszcze sporo do poprawienia ale i tak rezultaty są już teraz bardzo interesujące. Pozostałe trzy prace dotyczą zastosowań omawianych metod. Detecting Methane Outbreaks from Time Series Data with Deep Neural Networks (Pawłowski, Kurach, 2015) zawiera wyniki konkursu przewidywania niebezpiecznego poziomu koncentracji metanu. Dane pochodziły z polskich kopalni, zebrano je z 28 sensorów i miały postać szeregów czasowych zawierających rekordów, każdy rekord zawierał odczytów, w sumie ponad 868 mln wartości (3.5 GB). Są to więc dane dużych rozmiarów, bardzo niezbalansowane (2% ostrzeżeń, reszta odczytów uznana za normalne), większość szeregów czasowych się mocno nakładała. Autorzy zastosowali tu sieć LSTM i komitet wielowarstwowych sieci MLP osiągając bardzo dobry wynik i plasując się na 6 miejscu na 52 uczestników w konkursie na konferencji IJCRS 2015 (jednak różnice w stosunku do pozycji drugiej były niewielkie, a użyto surowych danych z sensorów). Podobne podejście, opisane w pracy Predicting Dangerous Seismic Activity with RNN (Kurach, Pawłowski, 2016) zastosowano w konkursie przewidywania niebezpiecznej aktywności sejsmicznej w kopalniach. Rezultaty konkursu będą ogłoszone na konferencji AAIA 2016 w połowie września. Ostatnia praca, Smart Reply: Automated Response Suggestion for jest sygnowana przez 11 osób z korporacji Google i została zaimplementowana w wersji Google Inbox mobilnej poczty. Mgr Kurach należał do grupy 4 osób, które ten projekt zainicjowały i koordynowały. Ich zadaniem było stworzenie programu Smart Reply sugerującego krótkie, sensowne odpowiedzi na e. Ponieważ ta aplikacja obsługuje miliony użytkowników autorzy oceniają, że 10% odpowiedzi na e przechodzące przez Inbox jest generowanych przez ich system wymagało to spełnienia wielu warunków. Sieć rekurencyjna LSTM została wy-

6 6 trenowana na wielkim korpusie 238 mln i, użyto biblioteki TensorFlow do jej nauki na masowo równoległym systemie komputerowym. Cała aplikacja jest dalece nietrywialna i wymagała zastosowania wielu wyrafinowanych technik uczenia maszynowego i analizy języka naturalnego. Zarówno w tej jak i we wszystkich poprzednich pracach autorzy włożyli dużo wysiłku w szczegółową ocenę zalet i wad opracowanych przez siebie rozwiązań, jak i porównania z innymi możliwymi podejściami. Omówione powyżej prace składające się na rozprawę doktorska pokazują jednoznacznie głęboką wiedzę mgr Kuracha w dziedzinie uczenia maszynowego, sieci neuronowych i metod statystycznych. Jest współautorem wielu nowych idei, które znalazły zastosowanie w nowych systemach, umożliwiając znaczny postęp w zastosowaniu sieci neuronowych i metod uczenia maszynowego do rozwiazywania realnych problemów. O jego umiejętnościach i wiedzy świadczą też udziały w dwóch konkursach analizy dużych i trudnych danych. Jego rozprawa doktorska dotyczy najnowszej i bardzo ważnej tematyki, a rezultaty jego badań zostały opublikowane i przedstawione na bardzo wymagających konferencjach. Ustawowe wymogi dotyczące prac doktorskich zostały więc w pełni spełnione. Ze względu na wagę tych osiągnięć naukowych uważam, że jest to praca zasługująca na wyróżnienie i wnioskuję o dopuszczenie jej Autora do dalszych etapów przewodu doktorskiego. Włodzisław Duch, Toruń, 25 sierpnia 2016

Temat: Sieci neuronowe oraz technologia CUDA

Temat: Sieci neuronowe oraz technologia CUDA Elbląg, 27.03.2010 Temat: Sieci neuronowe oraz technologia CUDA Przygotował: Mateusz Górny VIII semestr ASiSK Wstęp Sieci neuronowe są to specyficzne struktury danych odzwierciedlające sieć neuronów w

Bardziej szczegółowo

Dariusz Brzeziński Instytut Informatyki, Politechnika Poznańska

Dariusz Brzeziński Instytut Informatyki, Politechnika Poznańska Dariusz Brzeziński Instytut Informatyki, Politechnika Poznańska Podstawowe architektury sieci neuronowych Generowanie sztucznych danych Jak się nie przemęczyć Korzystanie z istniejących wag Zamrażanie

Bardziej szczegółowo

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa

Bardziej szczegółowo

Podstawy Sztucznej Inteligencji (PSZT)

Podstawy Sztucznej Inteligencji (PSZT) Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12

Bardziej szczegółowo

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt

Bardziej szczegółowo

Uczenie sieci typu MLP

Uczenie sieci typu MLP Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik

Bardziej szczegółowo

Wprowadzenie do sieci neuronowych i zagadnień deep learning

Wprowadzenie do sieci neuronowych i zagadnień deep learning Wprowadzenie do sieci neuronowych i zagadnień deep learning Inteligentne Obliczenia Wydział Mechatroniki Politechniki Warszawskiej Anna Sztyber INO (IAiR PW) Deep learning Anna Sztyber 1 / 28 Deep learning

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt

Bardziej szczegółowo

Optymalizacja optymalizacji

Optymalizacja optymalizacji 7 maja 2008 Wstęp Optymalizacja lokalna Optymalizacja globalna Algorytmy genetyczne Badane czasteczki Wykorzystane oprogramowanie (Algorytm genetyczny) 2 Sieć neuronowa Pochodne met-enkefaliny Optymalizacja

Bardziej szczegółowo

Deep Learning na przykładzie Deep Belief Networks

Deep Learning na przykładzie Deep Belief Networks Deep Learning na przykładzie Deep Belief Networks Jan Karwowski Zakład Sztucznej Inteligencji i Metod Obliczeniowych Wydział Matematyki i Nauk Informacyjnych PW 20 V 2014 Jan Karwowski (MiNI) Deep Learning

Bardziej szczegółowo

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, 2013 Spis treści Przedmowa 7 1. Wstęp 9 1.1. Podstawy biologiczne działania neuronu 9 1.2. Pierwsze modele sieci neuronowej

Bardziej szczegółowo

Wstęp do głębokich sieci neuronowych. Paweł Morawiecki IPI PAN

Wstęp do głębokich sieci neuronowych. Paweł Morawiecki IPI PAN Wstęp do głębokich sieci neuronowych Paweł Morawiecki IPI PAN Liczba projektów z głębokim uczeniem rośnie bardzo szybko liczba projektów w firmie Google 4000 3000 2000 1000 2012 2013 2014 2015 2016 2017

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-10 Projekt pn. Wzmocnienie

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką

Bardziej szczegółowo

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych. Wstęp do teorii sztucznej inteligencji Wykład III Modele sieci neuronowych. 1 Perceptron model najprostzszy przypomnienie Schemat neuronu opracowany przez McCullocha i Pittsa w 1943 roku. Przykład funkcji

Bardziej szczegółowo

Algorytm do rozpoznawania człowieka na podstawie dynamiki użycia klawiatury. Paweł Kobojek, prof. dr hab. inż. Khalid Saeed

Algorytm do rozpoznawania człowieka na podstawie dynamiki użycia klawiatury. Paweł Kobojek, prof. dr hab. inż. Khalid Saeed Algorytm do rozpoznawania człowieka na podstawie dynamiki użycia klawiatury Paweł Kobojek, prof. dr hab. inż. Khalid Saeed Zakres pracy Przegląd stanu wiedzy w dziedzinie biometrii, ze szczególnym naciskiem

Bardziej szczegółowo

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice) WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO Stanisław Kowalik (Poland, Gliwice) 1. Wprowadzenie Wstrząsy podziemne i tąpania występujące w kopalniach

Bardziej szczegółowo

Wrocław University of Technology. Uczenie głębokie. Maciej Zięba

Wrocław University of Technology. Uczenie głębokie. Maciej Zięba Wrocław University of Technology Uczenie głębokie Maciej Zięba UCZENIE GŁĘBOKIE (ang. deep learning) = klasa metod uczenia maszynowego, gdzie model ma strukturę hierarchiczną złożoną z wielu nieliniowych

Bardziej szczegółowo

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia

Bardziej szczegółowo

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-03 Projekt pn. Wzmocnienie potencjału

Bardziej szczegółowo

Algorytm grupowania danych typu kwantyzacji wektorów

Algorytm grupowania danych typu kwantyzacji wektorów Algorytm grupowania danych typu kwantyzacji wektorów Wstęp Definicja problemu: Typowe, problemem często spotykanym w zagadnieniach eksploracji danych (ang. data mining) jest zagadnienie grupowania danych

Bardziej szczegółowo

Uczenie sieci radialnych (RBF)

Uczenie sieci radialnych (RBF) Uczenie sieci radialnych (RBF) Budowa sieci radialnej Lokalne odwzorowanie przestrzeni wokół neuronu MLP RBF Budowa sieci radialnych Zawsze jedna warstwa ukryta Budowa neuronu Neuron radialny powinien

Bardziej szczegółowo

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna. Sieci neuronowe model konekcjonistyczny Plan wykładu Mózg ludzki a komputer Modele konekcjonistycze Perceptron Sieć neuronowa Uczenie sieci Sieci Hopfielda Mózg ludzki a komputer Twój mózg to 00 000 000

Bardziej szczegółowo

XQTav - reprezentacja diagramów przepływu prac w formacie SCUFL przy pomocy XQuery

XQTav - reprezentacja diagramów przepływu prac w formacie SCUFL przy pomocy XQuery http://xqtav.sourceforge.net XQTav - reprezentacja diagramów przepływu prac w formacie SCUFL przy pomocy XQuery dr hab. Jerzy Tyszkiewicz dr Andrzej Kierzek mgr Jacek Sroka Grzegorz Kaczor praca mgr pod

Bardziej szczegółowo

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010 Materiały/konsultacje Automatyczna predykcja http://www.ibp.pwr.wroc.pl/kotulskalab Konsultacje wtorek, piątek 9-11 (uprzedzić) D1-115 malgorzata.kotulska@pwr.wroc.pl Co to jest uczenie maszynowe? Uczenie

Bardziej szczegółowo

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Sieci Hopfielda Najprostsze modele sieci z rekurencją sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Modele bardziej złoŝone: RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej

Bardziej szczegółowo

Wykład z Technologii Informacyjnych. Piotr Mika

Wykład z Technologii Informacyjnych. Piotr Mika Wykład z Technologii Informacyjnych Piotr Mika Uniwersalna forma graficznego zapisu algorytmów Schemat blokowy zbiór bloków, powiązanych ze sobą liniami zorientowanymi. Jest to rodzaj grafu, którego węzły

Bardziej szczegółowo

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska

Bardziej szczegółowo

Zaawansowane algorytmy i struktury danych

Zaawansowane algorytmy i struktury danych Zaawansowane algorytmy i struktury danych u dr Barbary Marszał-Paszek Opracowanie pytań teoretycznych z egzaminów. Strona 1 z 12 Pytania teoretyczne z egzaminu pisemnego z 25 czerwca 2014 (studia dzienne)

Bardziej szczegółowo

komputery? Andrzej Skowron, Hung Son Nguyen Instytut Matematyki, Wydział MIM, UW

komputery? Andrzej Skowron, Hung Son Nguyen  Instytut Matematyki, Wydział MIM, UW Czego moga się nauczyć komputery? Andrzej Skowron, Hung Son Nguyen son@mimuw.edu.pl; skowron@mimuw.edu.pl Instytut Matematyki, Wydział MIM, UW colt.tex Czego mogą się nauczyć komputery? Andrzej Skowron,

Bardziej szczegółowo

Wprowadzenie do teorii systemów ekspertowych

Wprowadzenie do teorii systemów ekspertowych Myślące komputery przyszłość czy utopia? Wprowadzenie do teorii systemów ekspertowych Roman Simiński siminski@us.edu.pl Wizja inteligentnych maszyn jest od wielu lat obecna w literaturze oraz filmach z

Bardziej szczegółowo

Temat: ANFIS + TS w zadaniach. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Temat: ANFIS + TS w zadaniach. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Temat: ANFIS + TS w zadaniach Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1. Systemy neuronowo - rozmyte Systemy

Bardziej szczegółowo

Elementy kognitywistyki III: Modele i architektury poznawcze

Elementy kognitywistyki III: Modele i architektury poznawcze Elementy kognitywistyki III: Modele i architektury poznawcze Wykład III: Psychologiczne modele umysłu Gwoli przypomnienia: Kroki w modelowaniu kognitywnym: teoretyczne ramy pojęciowe (modele pojęciowe)

Bardziej szczegółowo

Algorytmy i struktury danych

Algorytmy i struktury danych Algorytmy i struktury danych ĆWICZENIE 2 - WYBRANE ZŁOŻONE STRUKTURY DANYCH - (12.3.212) Prowadząca: dr hab. inż. Małgorzata Sterna Informatyka i3, poniedziałek godz. 11:45 Adam Matuszewski, nr 1655 Oliver

Bardziej szczegółowo

dr inż. Jarosław Forenc

dr inż. Jarosław Forenc Informatyka 2 Politechnika Białostocka - Wydział Elektryczny Elektrotechnika, semestr III, studia stacjonarne I stopnia Rok akademicki 2010/2011 Wykład nr 7 (24.01.2011) dr inż. Jarosław Forenc Rok akademicki

Bardziej szczegółowo

ID1SII4. Informatyka I stopień (I stopień / II stopień) ogólnoakademicki (ogólno akademicki / praktyczny) stacjonarne (stacjonarne / niestacjonarne)

ID1SII4. Informatyka I stopień (I stopień / II stopień) ogólnoakademicki (ogólno akademicki / praktyczny) stacjonarne (stacjonarne / niestacjonarne) Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 lutego 2012r. KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu ID1SII4 Nazwa modułu Systemy inteligentne 1 Nazwa modułu w języku angielskim Intelligent

Bardziej szczegółowo

Metody Sztucznej Inteligencji II

Metody Sztucznej Inteligencji II 17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału

Bardziej szczegółowo

RNN Sieci rekurencyjne i modelowanie sekwencji. Sieci Neronowe 1

RNN Sieci rekurencyjne i modelowanie sekwencji. Sieci Neronowe 1 RNN Sieci rekurencyjne i modelowanie sekwencji Sieci Neronowe 1 Modelowanie sekwencji Dane sekwencyjne lub zależne od czasu: sygnał audio, tekst, ruch obiektów, EEG,... Modelowanie sekwencji: generowanie

Bardziej szczegółowo

Uczenie sieci neuronowych i bayesowskich

Uczenie sieci neuronowych i bayesowskich Wstęp do metod sztucznej inteligencji www.mat.uni.torun.pl/~piersaj 2009-01-22 Co to jest neuron? Komputer, a mózg komputer mózg Jednostki obliczeniowe 1-4 CPU 10 11 neuronów Pojemność 10 9 b RAM, 10 10

Bardziej szczegółowo

Wybór / ocena atrybutów na podstawie oceny jakości działania wybranego klasyfikatora.

Wybór / ocena atrybutów na podstawie oceny jakości działania wybranego klasyfikatora. Wprowadzenie do programu RapidMiner Studio 7.6, część 7 Podstawy metod wyboru atrybutów w problemach klasyfikacyjnych, c.d. Michał Bereta www.michalbereta.pl Wybór / ocena atrybutów na podstawie oceny

Bardziej szczegółowo

Sieć przesyłająca żetony CP (counter propagation)

Sieć przesyłająca żetony CP (counter propagation) Sieci neuropodobne IX, specyficzne architektury 1 Sieć przesyłająca żetony CP (counter propagation) warstwa Kohonena: wektory wejściowe są unormowane jednostki mają unormowane wektory wag jednostki są

Bardziej szczegółowo

Adrian Horzyk

Adrian Horzyk Metody Inteligencji Obliczeniowej Metoda K Najbliższych Sąsiadów (KNN) Adrian Horzyk horzyk@agh.edu.pl AGH Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Bardziej szczegółowo

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny

Bardziej szczegółowo

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Wykład 10 Mapa cech Kohonena i jej modyfikacje - uczenie sieci samoorganizujących się - kwantowanie wektorowe

Bardziej szczegółowo

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów. Wstęp do teorii sztucznej inteligencji Wykład II Uczenie sztucznych neuronów. 1 - powtórzyć o klasyfikacji: Sieci liniowe I nieliniowe Sieci rekurencyjne Uczenie z nauczycielem lub bez Jednowarstwowe I

Bardziej szczegółowo

Co to jest grupowanie

Co to jest grupowanie Grupowanie danych Co to jest grupowanie 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Szukanie grup, obszarów stanowiących lokalne gromady punktów Co to jest grupowanie

Bardziej szczegółowo

Sieci neuronowe w Statistica

Sieci neuronowe w Statistica http://usnet.us.edu.pl/uslugi-sieciowe/oprogramowanie-w-usk-usnet/oprogramowaniestatystyczne/ Sieci neuronowe w Statistica Agnieszka Nowak - Brzezińska Podstawowym elementem składowym sztucznej sieci neuronowej

Bardziej szczegółowo

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy

Bardziej szczegółowo

Porównanie czasów działania algorytmów sortowania przez wstawianie i scalanie

Porównanie czasów działania algorytmów sortowania przez wstawianie i scalanie Więcej o sprawności algorytmów Porównanie czasów działania algorytmów sortowania przez wstawianie i scalanie Załóżmy, że możemy wykonać dane zadanie przy użyciu dwóch algorytmów: jednego o złożoności czasowej

Bardziej szczegółowo

1.7. Eksploracja danych: pogłębianie, przeszukiwanie i wyławianie

1.7. Eksploracja danych: pogłębianie, przeszukiwanie i wyławianie Wykaz tabel Wykaz rysunków Przedmowa 1. Wprowadzenie 1.1. Wprowadzenie do eksploracji danych 1.2. Natura zbiorów danych 1.3. Rodzaje struktur: modele i wzorce 1.4. Zadania eksploracji danych 1.5. Komponenty

Bardziej szczegółowo

Prof. Stanisław Jankowski

Prof. Stanisław Jankowski Prof. Stanisław Jankowski Zakład Sztucznej Inteligencji Zespół Statystycznych Systemów Uczących się p. 228 sjank@ise.pw.edu.pl Zakres badań: Sztuczne sieci neuronowe Maszyny wektorów nośnych SVM Maszyny

Bardziej szczegółowo

Projekt Sieci neuronowe

Projekt Sieci neuronowe Projekt Sieci neuronowe Chmielecka Katarzyna Gr. 9 IiE 1. Problem i dane Sieć neuronowa miała za zadanie nauczyć się klasyfikować wnioski kredytowe. W projekcie wykorzystano dane pochodzące z 110 wniosków

Bardziej szczegółowo

Teoretyczne podstawy informatyki

Teoretyczne podstawy informatyki Teoretyczne podstawy informatyki Wykład 4a: Rozwiązywanie rekurencji http://kiwi.if.uj.edu.pl/~erichter/dydaktyka2010/tpi-2010 Prof. dr hab. Elżbieta Richter-Wąs 1 Czas działania programu Dla konkretnych

Bardziej szczegółowo

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE SIECI NEURONOWE Przedmiotem laboratorium jest stworzenie algorytmu rozpoznawania zwierząt z zastosowaniem sieci neuronowych w oparciu o 5 kryteriów: ile zwierzę ma nóg, czy żyje w wodzie, czy umie latać,

Bardziej szczegółowo

MODELOWANIE RZECZYWISTOŚCI

MODELOWANIE RZECZYWISTOŚCI MODELOWANIE RZECZYWISTOŚCI Daniel Wójcik Instytut Biologii Doświadczalnej PAN Szkoła Wyższa Psychologii Społecznej d.wojcik@nencki.gov.pl dwojcik@swps.edu.pl tel. 022 5892 424 http://www.neuroinf.pl/members/danek/swps/

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych klasyfikacja LABORKA Piotr Ciskowski zadanie 1. klasyfikacja zwierząt sieć jednowarstwowa żródło: Tadeusiewicz. Odkrywanie własności sieci neuronowych, str. 159 Przykład

Bardziej szczegółowo

Matlab podstawy + testowanie dokładności modeli inteligencji obliczeniowej

Matlab podstawy + testowanie dokładności modeli inteligencji obliczeniowej Matlab podstawy + testowanie dokładności modeli inteligencji obliczeniowej Podstawy matlaba cz.ii Funkcje Dotychczas kod zapisany w matlabie stanowił skrypt który pozwalał na określenie kolejności wykonywania

Bardziej szczegółowo

1. Logika, funkcje logiczne, preceptron.

1. Logika, funkcje logiczne, preceptron. Sieci neuronowe 1. Logika, funkcje logiczne, preceptron. 1. (Logika) Udowodnij prawa de Morgana, prawo pochłaniania p (p q), prawo wyłączonego środka p p oraz prawo sprzeczności (p p). 2. Wyraź funkcję

Bardziej szczegółowo

Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę

Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę Norbert Jankowski Ontogeniczne sieci neuronowe O sieciach zmieniających swoją strukturę Warszawa 2003 Opracowanie książki było wspierane stypendium Uniwersytetu Mikołaja Kopernika Spis treści Wprowadzenie

Bardziej szczegółowo

Programowanie komputerów

Programowanie komputerów Programowanie komputerów Wykład 1-2. Podstawowe pojęcia Plan wykładu Omówienie programu wykładów, laboratoriów oraz egzaminu Etapy rozwiązywania problemów dr Helena Dudycz Katedra Technologii Informacyjnych

Bardziej szczegółowo

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor S O M SELF-ORGANIZING MAPS Przemysław Szczepańczyk Łukasz Myszor Podstawy teoretyczne Map Samoorganizujących się stworzył prof. Teuvo Kohonen (1982 r.). SOM wywodzi się ze sztucznych sieci neuronowych.

Bardziej szczegółowo

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. zajecia.jakubw.pl/nai Literatura: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym. WNT, Warszawa 997. PODSTAWOWE ZAGADNIENIA TECHNICZNE AI

Bardziej szczegółowo

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:

Bardziej szczegółowo

Elementy modelowania matematycznego

Elementy modelowania matematycznego Elementy modelowania matematycznego Modelowanie algorytmów klasyfikujących. Podejście probabilistyczne. Naiwny klasyfikator bayesowski. Modelowanie danych metodą najbliższych sąsiadów. Jakub Wróblewski

Bardziej szczegółowo

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska Sieci neuronowe w Statistica Agnieszka Nowak - Brzezioska Podstawowym elementem składowym sztucznej sieci neuronowej jest element przetwarzający neuron. Schemat działania neuronu: x1 x2 w1 w2 Dendrites

Bardziej szczegółowo

Algorytmy Równoległe i Rozproszone Część V - Model PRAM II

Algorytmy Równoległe i Rozproszone Część V - Model PRAM II Algorytmy Równoległe i Rozproszone Część V - Model PRAM II Łukasz Kuszner pokój 209, WETI http://www.sphere.pl/ kuszner/ kuszner@sphere.pl Oficjalna strona wykładu http://www.sphere.pl/ kuszner/arir/ 2005/06

Bardziej szczegółowo

Klasa 2 INFORMATYKA. dla szkół ponadgimnazjalnych zakres rozszerzony. Założone osiągnięcia ucznia wymagania edukacyjne na. poszczególne oceny

Klasa 2 INFORMATYKA. dla szkół ponadgimnazjalnych zakres rozszerzony. Założone osiągnięcia ucznia wymagania edukacyjne na. poszczególne oceny Klasa 2 INFORMATYKA dla szkół ponadgimnazjalnych zakres rozszerzony Założone osiągnięcia ucznia wymagania edukacyjne na poszczególne oceny Algorytmy 2 3 4 5 6 Wie, co to jest algorytm. Wymienia przykłady

Bardziej szczegółowo

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010 Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010 Sieci neuronowe jednokierunkowa wielowarstwowa sieć neuronowa sieci Kohonena

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY

METODY INŻYNIERII WIEDZY METODY INŻYNIERII WIEDZY Metoda K Najbliższych Sąsiadów K-Nearest Neighbours (KNN) ĆWICZENIA Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Bardziej szczegółowo

Sztuczne siei neuronowe - wprowadzenie

Sztuczne siei neuronowe - wprowadzenie Metody Sztucznej Inteligencji w Sterowaniu Ćwiczenie 2 Sztuczne siei neuronowe - wprowadzenie Przygotował: mgr inż. Marcin Pelic Instytut Technologii Mechanicznej Politechnika Poznańska Poznań, 2 Wstęp

Bardziej szczegółowo

AUTOMATYKA INFORMATYKA

AUTOMATYKA INFORMATYKA AUTOMATYKA INFORMATYKA Technologie Informacyjne Sieć Semantyczna Przetwarzanie Języka Naturalnego Internet Edytor Serii: Zdzisław Kowalczuk Inteligentne wydobywanie informacji z internetowych serwisów

Bardziej szczegółowo

Algorytmy sztucznej inteligencji

Algorytmy sztucznej inteligencji Algorytmy sztucznej inteligencji Dynamiczne sieci neuronowe 1 Zapis macierzowy sieci neuronowych Poniżej omówione zostaną części składowe sieci neuronowych i metoda ich zapisu za pomocą macierzy. Obliczenia

Bardziej szczegółowo

Machine learning Lecture 6

Machine learning Lecture 6 Machine learning Lecture 6 Marcin Wolter IFJ PAN 11 maja 2017 Deep learning Convolution network Zastosowanie do poszukiwań bozonu Higgsa 1 Deep learning Poszczególne warstwy ukryte uczą się rozpoznawania

Bardziej szczegółowo

Sortowanie przez scalanie

Sortowanie przez scalanie Sortowanie przez scalanie Wykład 2 12 marca 2019 (Wykład 2) Sortowanie przez scalanie 12 marca 2019 1 / 17 Outline 1 Metoda dziel i zwyciężaj 2 Scalanie Niezmiennik pętli - poprawność algorytmu 3 Sortowanie

Bardziej szczegółowo

Czy architektura umysłu to tylko taka sobie bajeczka? Marcin Miłkowski

Czy architektura umysłu to tylko taka sobie bajeczka? Marcin Miłkowski Czy architektura umysłu to tylko taka sobie bajeczka? Marcin Miłkowski Architektura umysłu Pojęcie używane przez prawie wszystkie współczesne ujęcia kognitywistyki Umysł Przetwornik informacji 2 Architektura

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA SYSTEMY ROZMYTE Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i Inżynierii Biomedycznej Laboratorium

Bardziej szczegółowo

KARTA MODUŁU KSZTAŁCENIA

KARTA MODUŁU KSZTAŁCENIA KARTA MODUŁU KSZTAŁCENIA I. Informacje ogólne 1 Nazwa modułu kształcenia Sztuczna inteligencja 2 Nazwa jednostki prowadzącej moduł Instytut Informatyki, Zakład Informatyki Stosowanej 3 Kod modułu (wypełnia

Bardziej szczegółowo

8. Neuron z ciągłą funkcją aktywacji.

8. Neuron z ciągłą funkcją aktywacji. 8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i

Bardziej szczegółowo

ALGORYTM RANDOM FOREST

ALGORYTM RANDOM FOREST SKRYPT PRZYGOTOWANY NA ZAJĘCIA INDUKOWANYCH REGUŁ DECYZYJNYCH PROWADZONYCH PRZEZ PANA PAWŁA WOJTKIEWICZA ALGORYTM RANDOM FOREST Katarzyna Graboś 56397 Aleksandra Mańko 56699 2015-01-26, Warszawa ALGORYTM

Bardziej szczegółowo

OPINIA. o rozprawie doktorskiej mgr inż. Beaty Potrzeszcz-Sut, pt. Sieci neuronowe w wybranych zagadnieniach mechaniki konstrukcji i materiałów".

OPINIA. o rozprawie doktorskiej mgr inż. Beaty Potrzeszcz-Sut, pt. Sieci neuronowe w wybranych zagadnieniach mechaniki konstrukcji i materiałów. POLITECHNIKA RZESZO KA im. IGNACEGO ł.ukasiewitza e WYDZIAŁ BUDOWNICTWA. INŻYNlERII ŚRODOWISKA I ARCHITEKTURY f'olitttl!ntli.i llzłllilow!>juij Prof. dr hab. inż. Leonard Ziemiański Katedra Mechaniki Konstrukcji

Bardziej szczegółowo

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak 2 Rozdział 1 Sztuczne sieci neuronowe. 3 Sztuczna sieć neuronowa jest zbiorem prostych elementów pracujących równolegle, których zasada działania inspirowana jest biologicznym systemem nerwowym. Sztuczną

Bardziej szczegółowo

Sztuczne sieci neuronowe (SNN)

Sztuczne sieci neuronowe (SNN) Sztuczne sieci neuronowe (SNN) Pozyskanie informacji (danych) Wstępne przetwarzanie danych przygotowanie ich do dalszej analizy Selekcja informacji Ostateczny model decyzyjny SSN - podstawy Sieci neuronowe

Bardziej szczegółowo

Recenzja rozprawy doktorskiej mgr inż. Joanny Wróbel

Recenzja rozprawy doktorskiej mgr inż. Joanny Wróbel Prof. dr hab. inż. Tadeusz BURCZYŃSKI, czł. koresp. PAN Instytut Podstawowych Problemów Techniki PAN ul. A. Pawińskiego 5B 02-106 Warszawa e-mail: tburczynski@ippt.pan.pl Warszawa, 15.09.2017 Recenzja

Bardziej szczegółowo

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu Literatura Wykład : Wprowadzenie do sztucznych sieci neuronowych Małgorzata Krętowska Wydział Informatyki Politechnika Białostocka Tadeusiewicz R: Sieci neuronowe, Akademicka Oficyna Wydawnicza RM, Warszawa

Bardziej szczegółowo

OpenAI Gym. Adam Szczepaniak, Kamil Walkowiak

OpenAI Gym. Adam Szczepaniak, Kamil Walkowiak OpenAI Gym Adam Szczepaniak, Kamil Walkowiak Plan prezentacji Programowanie agentowe Uczenie przez wzmacnianie i problemy związane z rozwojem algorytmów Charakterystyka OpenAI Gym Biblioteka gym Podsumowanie

Bardziej szczegółowo

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW

Bardziej szczegółowo

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe www.math.uni.lodz.pl/ radmat Cel wykładu Celem wykładu jest prezentacja różnych rodzajów sztucznych sieci neuronowych. Biologiczny model neuronu Mózg człowieka składa się z około 10 11 komórek nerwowych,

Bardziej szczegółowo

Algorytmy równoległe: ocena efektywności prostych algorytmów dla systemów wielokomputerowych

Algorytmy równoległe: ocena efektywności prostych algorytmów dla systemów wielokomputerowych Algorytmy równoległe: ocena efektywności prostych algorytmów dla systemów wielokomputerowych Rafał Walkowiak Politechnika Poznańska Studia inżynierskie Informatyka 2014/15 Znajdowanie maksimum w zbiorze

Bardziej szczegółowo

Praca dyplomowa magisterska

Praca dyplomowa magisterska Praca dyplomowa magisterska Implementacja algorytmów filtracji adaptacyjnej o strukturze transwersalnej na platformie CUDA Dyplomant: Jakub Kołakowski Opiekun pracy: dr inż. Michał Meller Plan prezentacji

Bardziej szczegółowo

ĆWICZENIE 5: Sztuczne sieci neuronowe

ĆWICZENIE 5: Sztuczne sieci neuronowe Instytut Mechaniki i Inżynierii Obliczeniowej Wydział Mechaniczny Technologiczny, Politechnika Śląska www.imio.polsl.pl METODY HEURYSTYCZNE ĆWICZENIE 5: Sztuczne sieci neuronowe opracował: dr inż. Witold

Bardziej szczegółowo

Inteligentne systemy przeciw atakom sieciowym

Inteligentne systemy przeciw atakom sieciowym Inteligentne systemy przeciw atakom sieciowym wykład Sztuczne sieci neuronowe (SSN) Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 1 / 36 Biologiczne

Bardziej szczegółowo

Metody numeryczne Technika obliczeniowa i symulacyjna Sem. 2, EiT, 2014/2015

Metody numeryczne Technika obliczeniowa i symulacyjna Sem. 2, EiT, 2014/2015 Metody numeryczne Technika obliczeniowa i symulacyjna Sem. 2, EiT, 2014/2015 1 Metody numeryczne Dział matematyki Metody rozwiązywania problemów matematycznych za pomocą operacji na liczbach. Otrzymywane

Bardziej szczegółowo

Systemy uczące się Lab 4

Systemy uczące się Lab 4 Systemy uczące się Lab 4 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 26 X 2018 Projekt zaliczeniowy Podstawą zaliczenia ćwiczeń jest indywidualne wykonanie projektu uwzględniającego

Bardziej szczegółowo

Elementy kognitywistyki III: Modele i architektury poznawcze

Elementy kognitywistyki III: Modele i architektury poznawcze Elementy kognitywistyki III: Modele i architektury poznawcze Wykład VII: Modelowanie uczenia się w sieciach neuronowych Uczenie się sieci i trening nienaruszona struktura sieci (z pewnym ale ) nienaruszone

Bardziej szczegółowo

Nazwa wariantu modułu (opcjonalnie): Laboratorium programowania w języku C++

Nazwa wariantu modułu (opcjonalnie): Laboratorium programowania w języku C++ Uniwersytet Śląski w Katowicach str. 1 Kierunek i poziom studiów: Chemia, poziom pierwszy Sylabus modułu: Laboratorium programowania (0310-CH-S1-019) Nazwa wariantu modułu (opcjonalnie): Laboratorium programowania

Bardziej szczegółowo