SIECI KOHONENA UCZENIE BEZ NAUCZYCIELA JOANNA GRABSKA-CHRZĄSTOWSKA

Save this PDF as:
 WORD  PNG  TXT  JPG

Wielkość: px
Rozpocząć pokaz od strony:

Download "SIECI KOHONENA UCZENIE BEZ NAUCZYCIELA JOANNA GRABSKA-CHRZĄSTOWSKA"

Transkrypt

1 SIECI KOHONENA UCZENIE BEZ NAUCZYCIELA JOANNA GRABSKA-CHRZĄSTOWSKA Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA

2 SAMOUCZENIE SIECI metoda Hebba W mózgu wzmocnieniu podlegają te drogi przekazywania sygnałów, które stanowią połączenia ośrodków ulegających równoczesnemu pobudzeniu lub hamowaniu. Dla sygnału X=<x 1 (j), x 2 (j),...,x n (j) > dla neuronu o numerze sygnał wyjściowy wagi na i-tym wejściu: - k - y (j) k w k i (j+1) =w k i (j) + η y k (j) x i (j)

3 REGUŁA WIDROW-HOFFA (DELTA) W = W + X > = 0 = z - y > = 0 z y > = 0 z > y czyli odpowiedź sieci jest ZA MAŁA X 1 2 W W 2 < 1 cos 2 > cos 1 y 2 > y 1

4 REGUŁA HEBBA W = W + y X > = 0 y > 0 y < 0 X 1 2 W X 1 2 W W W

5 Samouczenie sieci metodą Hebba (2) Wady samouczenia metodą Hebba: Stosunkowo niska efektywność uczenia Przemnożony wpływ początkowych wartości wag Możliwość pomijania niektórych klas w nauczonej sieci Powstawanie reduntantnych nadprezentacji klas

6 POCZĄTKOWE POŁOŻENIE PUNKTÓW REPREZENTUJĄCYCH NEURONY

7 PROCES SAMOUCZENIA sygnał wejściowy uczący

8 PROCES SAMOUCZENIA sygnał wejściowy uczący

9 PROCES SAMOUCZENIA sygnał wejściowy uczący

10 Marsjanie, Marsjanki, Marsjaniątka i Marsjamory

11

12 ZASADA OWCZEGO PĘDU

13 ZASADA OWCZEGO PĘDU

14 ZASADA OWCZEGO PĘDU

15 BARDZO DUŻY WSPÓŁCZYNNIK UCZENIA

16 BARDZO DUŻY WSPÓŁCZYNNIK UCZENIA

17 MAŁY WSPÓŁCZYNNIK UCZENIA

18 MAŁY WSPÓŁCZYNNIK UCZENIA stan po pewnym czasie nauki

19 DŁUGOTRWAŁY PROCES UCZENIA utrata zdolności do akceptowania nowości

20 BARDZO DUŻA LICZBA NEURONÓW

21 BARDZO DUŻA LICZBA NEURONÓW

22 BARDZO DUŻA LICZBA NEURONÓW

23 FANTAZJE W SIECIACH NEURONOWYCH

24

25 GIGANTOMANIA

26 Neuron pamiętający wygląd lwa Rzeczywisty obraz lwa pokazany jako przykład uczący Inny neuron pamiętający lwa Wyobrażenie superlwa przyjęte przez jeden z neuronów

27 RABUNEK... i klasa popada w zapomnienie

28 RABUNEK... i klasa popada w zapomnienie

29 RABUNEK... i klasa popada w zapomnienie...i nie ma już prawdziwych Marsjan

30 WARIANTY METOD SAMOUCZENIA METODA PRZYROSTOWEGO SAMOUCZENIA (differential hebbian learning)

31 WARIANTY METOD SAMOUCZENIA METODA GWIAZDY WEJŚĆ ( instar learning ). Jest najczęściej wykorzystywaną formułą uczenia nienadzorowanego w analizie skupień.

32 METODA INSTAR LEARNING GWIAZDA WEJŚĆ k w ki ( j+1) = w ki ( j ) + [ x i ( j ) w ki ( j ) ] y k k ustalone i - zmienne w 1 w 2 w 3 w 4 w 5 x 1 x 2 x 3 x 4 x 5

33 METODA INSTAR LEARNING w ki ( j+1) = w ki ( j ) + [ x i ( j ) w ki ( j ) ] x ( t ) w ( t+1) D w ( t ) w ( t ) x(t) wektor wejściowy w(t) wektor wag przed korektą Δw(t) wektor poprawki w(t+1) wektor wag po korekcie. Miarą podobieństwa wektora wejściowego i wektora wag jest COSINUS KĄTA unormowanych wektorów.

34 METODA OUTSTAR LEARNING GWIAZDY WYJŚĆ w ki ( j+1) = w ki ( j ) + (j) [ y k ( j ) w ki ( j ) ] (j) = 0,1 l * j i ustalone k - zmienne y 1 y 2 y 3 y 4 y 5 w 2 w i 1i k w 4 w i 3 w 5 i i x i i

35 Teuvo Kohonen i jego historyczne dzieło

36 SAMOUCZENIE SIECI METODĄ KOHONENA Po pojawieniu się w chwili j znormalizowanego sygnału X = < x 1 (j), x 2 (j),...,x n (j) > sygnały wyjściowe wszystkich neuronów sa porównywane i wybierany jest zwycięzca tzn. neuron o numerze k, którego sygnał wyjściowy y k (j) będzie mieć największą wartość to wówczas współczynnik wagi na i-tym wejściu zwycięskiego neuronu zmienia sie: w ki (j+1) = w ki (j) + η( x i (j) - w ki (j) ) Uczenie może być rozciągnięte na inne neurony w ramach tzw. sąsiedztwa : w mi (j+1) =w mi (j) + ηh(m,k)(x i (j) - w mi (j) ) gdzie funkcje sąsiedztwa h(m,k) określona jako malejąca funkcja odległość ρ między neuronem m a zwycięzcą k

37 SAMOUCZENIE SIECI METODĄ KOHONENA ZASADA RYWALIZACJI: Zwycięzca bierze wszystko WINNER TAKES ALL (WTA) jesli wprowadzimy sąsiedztwo to obowiązuje zasada: Zwycięzca bierze większość WINNER TAKES MOST (WTM)

38 Po nauczeniu sieć na wejściowy sygnał daje odpowiedź w postaci rozkładu pobudzeń neuronów warstwy topologicznej Zwycięzca

39 Interpretacja tej odpowiedzi musi być jednak dopasowana do znanych przypadków

40 Neurony, które rozpoznają pojawianie się punktów z poszczególnych podobszarów przestrzeni sygnałów wejściowych

41 Podczas samouczenia położenie wektora wag neuronu może ulegać częstym zmianom, ale w ostatecznym efekcie tego myszkowania neuron lokuje się w samym środku grupy reprezentowanych danych wejściowych.

42 PRZYKŁAD ZASTOSOWANIA SIECI KOHONENA Obrazy wejsciowe (tylko 2 cechy)

43 WAGI PO NAUCZENIU SIECI 1 obraz testowy

44 Oto konstelacja punktów reprezentujących początkowe wagi neuronów wartość 2. wagi neuronu sąsiad sąsiad Zaczynamy uczenie sąsiadów! wartość 2. składowej sygnału punkt, który reprezentuje właściwości zwycięskiego neuronu sąsiad Zaczynamy uczenie! położenie zwycięskiego neuronu po uczeniu punkt, który reprezentuje sygnał wejściowy sąsiad wartość 1. składowej sygnału wartość 1. wagi neuronu

45 PRZEBIEG UCZENIA W SIECI KOHONENA

46 Ten sam proces uczenia można będzie lepiej prześledzić, gdy połączy się położenia sąsiadów sąsiad wartość 2. wagi neuronu sąsiad sąsiad Procesowi uczenia towarzyszy w tej sieci zmiana wyglądu siatki prezentującej sąsiedztwa sąsiad wartość 1. wagi neuronu

47 SAMOUCZENIE SIECI METODĄ KOHONENA Sposób oznaczania sąsiednich neuronów podczas prezentacji uczenia sieci Kohonena.

48 SĄSIEDZTWO JEDNOWYMIAROWE

49 RODZAJE SĄSIEDZTWA DWUWYMIAROWEGO

50 RODZAJE SĄSIEDZTWA DWUWYMIAROWEGO

51 SĄSIEDZTWO DWUWYMIAROWE

52 SĄSIEDZTWO JEDNOWYMIAROWE Opisane zjawisko zostało wykryte przez samego Kohonena

53 Mapa topologiczna o podobnej strukturze, jak mapy tworzone przez sieci Kohonena, powstaje w korze mózgowej człowieka w obszarze czucia somatycznego oraz sterowania. Obszary rejestrujące doznania czucia Obszary sterujące ruchem

54 Podobnie jak w sieci Kohonena w obszarach otaczających bruzdę Rolanda na powierzchni kory mózgowej wytwarza się mapa topologiczna sygnałów z całego ciała. Obszary z których pochodzi więcej sygnałów zajmują więcej miejsca (angażują więcej neuronów), nawet jeśli anatomicznie są małe.

55 Takie proporcje ma ciało człowieka, jeśli brać pod uwagę wielkość struktur nerwowych związanych ze sterowaniem poszczególnymi częściami ciała

56 SĄSIEDZTWO JEDNOWYMIAROWE

57 MAPY KOHONENA

58 ZJAWISKO SKRĘCENIA W SIECI KOHONENA Część danych wejściowych została zignorowana!

59 ZJAWISKO SKRĘCENIA W SIECI KOHONENA

60 ZJAWISKO SKRĘCENIA W SIECI KOHONENA

61 Grupowaniu w sieci Kohonena mogą podlegać kraje świata

62 World Poverty Map Samoorganizujące Mapa (SOM) mogą być wykorzystywane do przedstawiania skomplikowanych korelacji w danych statystycznych. Oto dane składające się z danych statystycznych Banku Światowego krajów w 1992 roku. W sumie zostało wykorzystanych 39 wskaźników opisujących różne wskaźniki jakości, takie jak stan zdrowia, odżywiania, usługi edukacyjne, itp. Kraje, które miały podobne wartości wskaźników znalazł się blisko siebie na mapie. Poszczególne gromady na mapie zostały automatycznie kodowane w różnych kolorach, tak, żeby kolory płynnie płynnie zmieniały się na ekranie mapy. W wyniku tego procesu, do każdego kraju był w rzeczywistości automatycznie przypisany kolor opisujący jego rodzaj ubóstwa w stosunku do innych krajów.

63

64

65 ZMIANA CELÓW SAMOORGANIZACJI W TRAKCIE UCZENIA SIECI

66 WYMIAR SIECI A WYMIAR PRZESTRZENI SYGNAŁÓW WEJŚCIOWYCH

67 We wszystkich wyżej podawanych przykładach wymiar przestrzeni sygnałów i wymiar struktury sieci były zgodne

68 Można jednak pokazać przykład sieci, w której wymiar przestrzeni wejściowej jest inny niż wymiar topologii sieci

69 MAPY KOHONENA

70 Zjawisko skręcenia się sieci Kohonena (3) Rzadko występujący przypadek skręcania się sieci Kohonena odtwarzającej obszar w przestrzeni sygnałów wejściowych w postaci krzyża

71 Niekiedy obszar pokrywany przez sieć Kohonena może być dosyć skomplikowany w kształcie

72 Wniosek Sieć Kohonena może służyć do tego, żeby przy jej pomocy rzutować wielowymiarowe zbiory danych do przestrzeni o małej wymiarowości.

73 MECHANIZM SUMIENIA (lub zmęczenia neuronu) (CONSCIENCE MECHANISM), Mechanizm sumienia - część neuronów może nie znaleźć się w strefie wpływu neuronów wygrywających i tym samym może nie zmienić swoich początkowych wag (nie uczestniczy w procesie uczenia).

74 Grupowanie banków wynik działania sieci Kohonena (w zależności od wskaźników finansowych)

75 Mapa cech przedsiębiorstw uzyskana z pomocą sieci Kohonena

76 Struktura sieci Kohonena Warstwa topologiczna Warstwa wejściowa PODSUMOWANIE Cechy charakterystyczne: sieć uczy się bez nauczyciela sieć ma dwie warstwy o wyraźnie rozdzielonych funkcjach uporządkowane neurony wyjściowe uczony głównie neuron zwycięski ważną rolę odgrywa sąsiedztwo w wyniku uczenia powstaje mapa topologiczna aprioryczna interpretacja wartości wyjściowych jest niemożliwa, po uczeniu można ustalić, jakie znaczenie mają poszczególne rejony mapy topologicznej - ale wyłącznie na podstawie analizy konkretnych przykładów danych wejściowych

77 ZASTOSOWANIA SIECI KOHONENA Rozpoznawanie obrazów Klasyfikacja Zgłębianie danych Tworzenie modeli np.: - model świata zewnętrznego w mózgu robota - model uczciwego przedsiębiorcy - model działania procesu

78 LITERATURA Tadeusiewicz Ryszard, Sieci neuronowe. W-wa 1993 Tadeusiewicz Ryszard, Elementarne wprowadzenie do techniki sieci neuronowych z przykładowymi programamami. W-wa 1998

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor S O M SELF-ORGANIZING MAPS Przemysław Szczepańczyk Łukasz Myszor Podstawy teoretyczne Map Samoorganizujących się stworzył prof. Teuvo Kohonen (1982 r.). SOM wywodzi się ze sztucznych sieci neuronowych.

Bardziej szczegółowo

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2 Elementy Sztucznej Inteligencji Sztuczne sieci neuronowe cz. 2 1 Plan wykładu Uczenie bez nauczyciela (nienadzorowane). Sieci Kohonena (konkurencyjna) Sieć ze sprzężeniem zwrotnym Hopfielda. 2 Cechy uczenia

Bardziej szczegółowo

Wprowadzenie. SOM jest skrótem od Self Organizing Maps, czyli Samoorganizujące się mapy.

Wprowadzenie. SOM jest skrótem od Self Organizing Maps, czyli Samoorganizujące się mapy. SOM i WebSOM Wprowadzenie SOM jest skrótem od Self Organizing Maps, czyli Samoorganizujące się mapy. Podstawy teoretyczne stworzył fiński profesor Teuvo Kohonen w 1982 r SOM - ogólnie Celem tych sieci

Bardziej szczegółowo

Sztuczna inteligencja

Sztuczna inteligencja Sztuczna inteligencja Wykład 7. Architektury sztucznych sieci neuronowych. Metody uczenia sieci. źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Podstawowe architektury

Bardziej szczegółowo

Co to jest grupowanie

Co to jest grupowanie Grupowanie danych Co to jest grupowanie 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Szukanie grup, obszarów stanowiących lokalne gromady punktów Co to jest grupowanie

Bardziej szczegółowo

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe JOANNA GRABSKA-CHRZĄSTOWSKA Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA BUDOWA RZECZYWISTEGO NEURONU

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych klasyfikacja LABORKA Piotr Ciskowski zadanie 1. klasyfikacja zwierząt sieć jednowarstwowa żródło: Tadeusiewicz. Odkrywanie własności sieci neuronowych, str. 159 Przykład

Bardziej szczegółowo

Metody Sztucznej Inteligencji II

Metody Sztucznej Inteligencji II 17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału

Bardziej szczegółowo

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010 Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010 Sieci neuronowe jednokierunkowa wielowarstwowa sieć neuronowa sieci Kohonena

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką

Bardziej szczegółowo

Sieć przesyłająca żetony CP (counter propagation)

Sieć przesyłająca żetony CP (counter propagation) Sieci neuropodobne IX, specyficzne architektury 1 Sieć przesyłająca żetony CP (counter propagation) warstwa Kohonena: wektory wejściowe są unormowane jednostki mają unormowane wektory wag jednostki są

Bardziej szczegółowo

Sieci Kohonena Grupowanie

Sieci Kohonena Grupowanie Sieci Kohonena Grupowanie http://zajecia.jakubw.pl/nai UCZENIE SIĘ BEZ NADZORU Załóżmy, że mamy za zadanie pogrupować następujące słowa: cup, roulette, unbelievable, cut, put, launderette, loveable Nie

Bardziej szczegółowo

Obliczenia inteligentne Zadanie 4

Obliczenia inteligentne Zadanie 4 Sieci SOM Poniedziałek, 10:15 2007/2008 Krzysztof Szcześniak Cel Celem zadania jest zaimplementowanie neuronowej samoorganizującej się mapy wraz z metodą jej nauczania algorytmem gazu neuronowego. Część

Bardziej szczegółowo

Sieci Kohonena. Sieci samouczące się. Teuvo Kohonen... Struktura sieci Kohonena. Typowe zastosowanie SOM

Sieci Kohonena. Sieci samouczące się. Teuvo Kohonen... Struktura sieci Kohonena. Typowe zastosowanie SOM Sieci Kohonena Teuvo Kohonen...... i jego historyczne dzieło Sieci Kohonena realizują pewne odwzorowania, stąd ich powszechnie używany symbol: SOM (Self Organizing Maps) X SOM Y Struktura sieci Kohonena

Bardziej szczegółowo

8. Neuron z ciągłą funkcją aktywacji.

8. Neuron z ciągłą funkcją aktywacji. 8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i

Bardziej szczegółowo

Metody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF.

Metody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF. Metody sztucznej inteligencji Zadanie 3: ( klasteryzacja samoorganizująca się mapa Kohonena, (2 aproksymacja sieć RBF dr inż Przemysław Klęsk Klasteryzacja za pomocą samoorganizującej się mapy Kohonena

Bardziej szczegółowo

Podstawy sztucznej inteligencji

Podstawy sztucznej inteligencji wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,

Bardziej szczegółowo

Sztuczne sieci neuronowe (SNN)

Sztuczne sieci neuronowe (SNN) Sztuczne sieci neuronowe (SNN) Pozyskanie informacji (danych) Wstępne przetwarzanie danych przygotowanie ich do dalszej analizy Selekcja informacji Ostateczny model decyzyjny SSN - podstawy Sieci neuronowe

Bardziej szczegółowo

Temat: Sieci neuronowe oraz technologia CUDA

Temat: Sieci neuronowe oraz technologia CUDA Elbląg, 27.03.2010 Temat: Sieci neuronowe oraz technologia CUDA Przygotował: Mateusz Górny VIII semestr ASiSK Wstęp Sieci neuronowe są to specyficzne struktury danych odzwierciedlające sieć neuronów w

Bardziej szczegółowo

Badacze zbudowali wiele systemów technicznych, naśladujących w komputerze ludzki mózg. Najbardziej pożyteczne okazały się sieci neuronowe.

Badacze zbudowali wiele systemów technicznych, naśladujących w komputerze ludzki mózg. Najbardziej pożyteczne okazały się sieci neuronowe. Naśladując w komputerze ludzki mózg staramy się połączyć zalety komputera (dostępność i szybkość działania) z zaletami mózgu (zdolność do uczenia się) informatyka + 2 Badacze zbudowali wiele systemów technicznych,

Bardziej szczegółowo

Wykład 2. Model Neuronu McCulocha-Pittsa Perceptron Liniowe Sieci Neuronowe

Wykład 2. Model Neuronu McCulocha-Pittsa Perceptron Liniowe Sieci Neuronowe Sztuczne Sieci Neuronowe Wykład 2 Model Neuronu McCulocha-Pittsa Perceptron Liniowe Sieci Neuronowe wykład przygotowany na podstawie. R. Tadeusiewicz, Sieci Neuronowe, Rozdz. 3. Akademicka Oficyna Wydawnicza

Bardziej szczegółowo

Instrukcja realizacji ćwiczenia

Instrukcja realizacji ćwiczenia SIEĆ KOHONENA ROZPOZNAWANIE OBRAZÓW Cel ćwiczenia: zapoznanie się ze sposobem reprezentacji wiedzy w sieciach Kohonena i mechanizmami sąsiedztwa i sumienia neuronów. Zadanie do analizy: analizujemy sieć

Bardziej szczegółowo

Przykładowe funkcje przejścia używane przy budowie sztucznych neuronów

Przykładowe funkcje przejścia używane przy budowie sztucznych neuronów Przykładowe funkcje przejścia używane przy budowie sztucznych neuronów Funkcja Wzór funkcji Wzór pochodnej Sigmoida f(s)=1/(1+e -(β*s) ) f (s)=β*(1- f(s))* f(s) Funkcje przejścia neuronu powinno się rozpatrywać

Bardziej szczegółowo

Wstęp do teorii sztucznej inteligencji

Wstęp do teorii sztucznej inteligencji Wstęp do teorii sztucznej inteligencji Wykład V Algorytmy uczenia SSN Modele sieci neuronowych. SSN = Architektura + Algorytm Wagi i wejścia dla sieci neuronuowej: reprezentacja macierzowa δ i = z i y

Bardziej szczegółowo

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe wykład 1. Właściwości sieci neuronowych Model matematyczny sztucznego neuronu Rodzaje sieci neuronowych Przegląd d głównych g

Bardziej szczegółowo

Elementy kognitywistyki III: Modele i architektury poznawcze

Elementy kognitywistyki III: Modele i architektury poznawcze Elementy kognitywistyki III: Modele i architektury poznawcze Wykład VII: Modelowanie uczenia się w sieciach neuronowych Uczenie się sieci i trening nienaruszona struktura sieci (z pewnym ale ) nienaruszone

Bardziej szczegółowo

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa

Bardziej szczegółowo

Sieci neuronowe w Statistica

Sieci neuronowe w Statistica http://usnet.us.edu.pl/uslugi-sieciowe/oprogramowanie-w-usk-usnet/oprogramowaniestatystyczne/ Sieci neuronowe w Statistica Agnieszka Nowak - Brzezińska Podstawowym elementem składowym sztucznej sieci neuronowej

Bardziej szczegółowo

METODY HEURYSTYCZNE wykład 5

METODY HEURYSTYCZNE wykład 5 METODY HEURYSTYCZNE wykład 5 1 KLASY ZASTOSOWAŃ: PREDYKCJA ze znajomości: przewidzieć : { f ( x ), f ( x ),..., f ( x )} f ( x ) n+ 1 n k n k + 1 n bez jawnego definiowania związku między danymi wejściowymi

Bardziej szczegółowo

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska Sieci neuronowe w Statistica Agnieszka Nowak - Brzezioska Podstawowym elementem składowym sztucznej sieci neuronowej jest element przetwarzający neuron. Schemat działania neuronu: x1 x2 w1 w2 Dendrites

Bardziej szczegółowo

SIECI NEURONOWE Wprowadzenie

SIECI NEURONOWE Wprowadzenie SIECI NEURONOWE Wprowadzenie JOANNA GRABSKA-CHRZĄSTOWSKA Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA WYKŁADOWCA JOANNA GRABSKA CHRZĄSTOWSKA KATEDRA

Bardziej szczegółowo

TEORETYCZNE PODSTAWY INFORMATYKI

TEORETYCZNE PODSTAWY INFORMATYKI 1 TEORETYCZNE PODSTAWY INFORMATYKI WFAiS UJ, Informatyka Stosowana I rok studiów, I stopień Wykład 16 2 Data Science: Uczenie maszynowe Uczenie maszynowe: co to znaczy? Metody Regresja Klasyfikacja Klastering

Bardziej szczegółowo

MATLAB Neural Network Toolbox przegląd

MATLAB Neural Network Toolbox przegląd MATLAB Neural Network Toolbox przegląd WYKŁAD Piotr Ciskowski Neural Network Toolbox: Neural Network Toolbox - zastosowania: przykłady zastosowań sieci neuronowych: The 1988 DARPA Neural Network Study

Bardziej szczegółowo

Zastosowanie sieci Kohonena do klasyfikacji próbek węgla kamiennego wg PN-54/G

Zastosowanie sieci Kohonena do klasyfikacji próbek węgla kamiennego wg PN-54/G Jarosław Bielak Zastosowanie sieci Kohonena do klasyfikacji próbek węgla kamiennego wg PN-54/G-97 002 Streszczenie Sieci neuronowe Kohonena są układami mającymi zdolność przeprowadzania, bez korekty zewnętrznej,

Bardziej szczegółowo

Hierarchiczna analiza skupień

Hierarchiczna analiza skupień Hierarchiczna analiza skupień Cel analizy Analiza skupień ma na celu wykrycie w zbiorze obserwacji klastrów, czyli rozłącznych podzbiorów obserwacji, wewnątrz których obserwacje są sobie w jakimś określonym

Bardziej szczegółowo

Prof. Stanisław Jankowski

Prof. Stanisław Jankowski Prof. Stanisław Jankowski Zakład Sztucznej Inteligencji Zespół Statystycznych Systemów Uczących się p. 228 sjank@ise.pw.edu.pl Zakres badań: Sztuczne sieci neuronowe Maszyny wektorów nośnych SVM Maszyny

Bardziej szczegółowo

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE SIECI NEURONOWE Przedmiotem laboratorium jest stworzenie algorytmu rozpoznawania zwierząt z zastosowaniem sieci neuronowych w oparciu o 5 kryteriów: ile zwierzę ma nóg, czy żyje w wodzie, czy umie latać,

Bardziej szczegółowo

Elementy statystyki wielowymiarowej

Elementy statystyki wielowymiarowej Wnioskowanie_Statystyczne_-_wykład Spis treści 1 Elementy statystyki wielowymiarowej 1.1 Kowariancja i współczynnik korelacji 1.2 Macierz kowariancji 1.3 Dwumianowy rozkład normalny 1.4 Analiza składowych

Bardziej szczegółowo

2. Reprezentacje danych wielowymiarowych sposoby sobie radzenia z nimi. a. Wprowadzenie, aspekt psychologiczny, wady statystyki

2. Reprezentacje danych wielowymiarowych sposoby sobie radzenia z nimi. a. Wprowadzenie, aspekt psychologiczny, wady statystyki 1. Wstęp 2. Reprezentacje danych wielowymiarowych sposoby sobie radzenia z nimi a. Wprowadzenie, aspekt psychologiczny, wady statystyki b. Metody graficzne i. Wykres 1.zmiennej ii. Rzut na 2 współrzędne

Bardziej szczegółowo

Asocjacyjna reprezentacja danych i wnioskowanie

Asocjacyjna reprezentacja danych i wnioskowanie Asocjacyjna reprezentacja danych i wnioskowanie Wykorzystane technologie JetBrains PyCharm 504 Python 35 Struktura drzewa GRAPH PARAM PARAM ID1 ID2 ID_N params params params param_name_1: param_value_1

Bardziej szczegółowo

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Sieci Hopfielda Najprostsze modele sieci z rekurencją sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Modele bardziej złoŝone: RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie

Bardziej szczegółowo

Pozyskiwanie wiedzy z baz danych z pomocą sieci neuropodobnych

Pozyskiwanie wiedzy z baz danych z pomocą sieci neuropodobnych Tomasz ŁUKASZUK 1, Leon BOBROWSKI 1,2 1 Wydział Informatyki Politechniki Białostockiej, 2 Instytut Biocybernetyki i Inżynierii Biomedycznej PAN, Warszawa E-mail: tomluk@ii.pb.bialystok.pl, leon@ibib.waw.pl

Bardziej szczegółowo

2.4. Algorytmy uczenia sieci neuronowych

2.4. Algorytmy uczenia sieci neuronowych 2.4. Algorytmy uczenia sieci neuronowych Prosta struktura sieci jednokierunkowych sprawia, że są najchętniej stosowane. Ponadto metody uczenia ich należą również do popularnych i łatwych w realizacji.

Bardziej szczegółowo

Inteligentne systemy informacyjne

Inteligentne systemy informacyjne Inteligentne systemy informacyjne Moduł 10 Mieczysław Muraszkiewicz www.icie.com.pl/lect_pw.htm M. Muraszkiewicz strona 1 Sieci neuronowe szkic Moduł 10 M. Muraszkiewicz strona 2 Dwa nurty M. Muraszkiewicz

Bardziej szczegółowo

SIECI RBF (RADIAL BASIS FUNCTIONS)

SIECI RBF (RADIAL BASIS FUNCTIONS) SIECI RBF (RADIAL BASIS FUNCTIONS) Wybrane slajdy z prezentacji prof. Tadeusiewicza Wykład Andrzeja Burdy S. Osowski, Sieci Neuronowe w ujęciu algorytmicznym, Rozdz. 5, PWNT, Warszawa 1996. opr. P.Lula,

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych

Bardziej szczegółowo

Analiza skupień. Analiza Skupień W sztucznej inteligencji istotną rolę ogrywają algorytmy grupowania

Analiza skupień. Analiza Skupień W sztucznej inteligencji istotną rolę ogrywają algorytmy grupowania Analiza skupień W sztucznej inteligencji istotną rolę ogrywają algorytmy grupowania Analiza Skupień Elementy składowe procesu grupowania obiekt Ekstrakcja cech Sprzężenie zwrotne Grupowanie klastry Reprezentacja

Bardziej szczegółowo

Analiza składowych głównych. Wprowadzenie

Analiza składowych głównych. Wprowadzenie Wprowadzenie jest techniką redukcji wymiaru. Składowe główne zostały po raz pierwszy zaproponowane przez Pearsona(1901), a następnie rozwinięte przez Hotellinga (1933). jest zaliczana do systemów uczących

Bardziej szczegółowo

Uczenie sieci typu MLP

Uczenie sieci typu MLP Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik

Bardziej szczegółowo

Przykładowa analiza danych

Przykładowa analiza danych Przykładowa analiza danych W analizie wykorzystano dane pochodzące z publicznego repozytorium ArrayExpress udostępnionego na stronach Europejskiego Instytutu Bioinformatyki (http://www.ebi.ac.uk/). Zbiór

Bardziej szczegółowo

Sieci Neuronowe. Liniowe Sieci Neuronowe

Sieci Neuronowe. Liniowe Sieci Neuronowe Sieci Neuronowe Liniowe Sieci Neuronowe Paweł KrzyŜanowski ETI 9.4 Sieci Liniowe Sieci liniowe, znane w literaturze pod nazwami ADALINE i MADALINE są najprostsze w budowie, a równocześnie są w wielu wypadkach

Bardziej szczegółowo

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek Sztuczne sieci neuronowe Ćwiczenia Piotr Fulmański, Marta Grzanek Piotr Fulmański 1 Wydział Matematyki i Informatyki, Marta Grzanek 2 Uniwersytet Łódzki Banacha 22, 90-232, Łódź Polska e-mail 1: fulmanp@math.uni.lodz.pl,

Bardziej szczegółowo

Rozpoznawanie pisma ręcznego przy pomocy sieci neuronowej Kohonena

Rozpoznawanie pisma ręcznego przy pomocy sieci neuronowej Kohonena Rozpoznawanie pisma ręcznego przy pomocy sieci neuronowej Kohonena Automatyczne rozpoznawanie pisma ręcznego jest problemem bardzo trudnym i od wielu lat nie do końca jeszcze rozwiązanym. Złożoność tego

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-10 Projekt pn. Wzmocnienie

Bardziej szczegółowo

Obliczenia Naturalne - Sztuczne sieci neuronowe

Obliczenia Naturalne - Sztuczne sieci neuronowe Literatura Wprowadzenie Obliczenia Naturalne - Sztuczne sieci neuronowe Paweł Paduch Politechnika Świętokrzyska 13 marca 2014 Paweł Paduch Obliczenia Naturalne - Sztuczne sieci neuronowe 1 z 43 Plan wykładu

Bardziej szczegółowo

Klasyfikacja województw według ich konkurencyjności przy pomocy metod taksonomicznych oraz sieci neuronowych.

Klasyfikacja województw według ich konkurencyjności przy pomocy metod taksonomicznych oraz sieci neuronowych. Klasyfikacja województw według ich konkurencyjności przy pomocy metod taksonomicznych oraz sieci neuronowych. Krzysztof Karpio, Piotr Łukasiewicz, rkadiusz Orłowski, rkadiusz Gralak Katedra Ekonometrii

Bardziej szczegółowo

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV Klasyfikatory: k-nn oraz naiwny Bayesa Agnieszka Nowak Brzezińska Wykład IV Naiwny klasyfikator Bayesa Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną

Bardziej szczegółowo

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM ZASTOSOWANIE SIECI NEURONOWYCH W SYSTEMACH AKTYWNEJ REDUKCJI HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM WPROWADZENIE Zwalczanie hałasu przy pomocy metod aktywnych redukcji hałasu polega

Bardziej szczegółowo

Optymalizacja optymalizacji

Optymalizacja optymalizacji 7 maja 2008 Wstęp Optymalizacja lokalna Optymalizacja globalna Algorytmy genetyczne Badane czasteczki Wykorzystane oprogramowanie (Algorytm genetyczny) 2 Sieć neuronowa Pochodne met-enkefaliny Optymalizacja

Bardziej szczegółowo

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice) WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO Stanisław Kowalik (Poland, Gliwice) 1. Wprowadzenie Wstrząsy podziemne i tąpania występujące w kopalniach

Bardziej szczegółowo

Agnieszka Nowak Brzezińska

Agnieszka Nowak Brzezińska Agnieszka Nowak Brzezińska jeden z algorytmów regresji nieparametrycznej używanych w statystyce do prognozowania wartości pewnej zmiennej losowej. Może również byd używany do klasyfikacji. - Założenia

Bardziej szczegółowo

Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie

Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie LABORKA Piotr Ciskowski ZASTOSOWANIA SIECI NEURONOWYCH IDENTYFIKACJA zastosowania przegląd zastosowania sieci neuronowych: o identyfikacja

Bardziej szczegółowo

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska

Bardziej szczegółowo

Rozpoznawanie twarzy za pomocą sieci neuronowych

Rozpoznawanie twarzy za pomocą sieci neuronowych Rozpoznawanie twarzy za pomocą sieci neuronowych Michał Bereta http://torus.uck.pk.edu.pl/~beretam Praktyczna przydatność Bardzo szerokie praktyczne zastosowanie Ochrona Systemy bezpieczeństwa (np. lotniska)

Bardziej szczegółowo

Projekt Sieci neuronowe

Projekt Sieci neuronowe Projekt Sieci neuronowe Chmielecka Katarzyna Gr. 9 IiE 1. Problem i dane Sieć neuronowa miała za zadanie nauczyć się klasyfikować wnioski kredytowe. W projekcie wykorzystano dane pochodzące z 110 wniosków

Bardziej szczegółowo

Politechnika Lubelska

Politechnika Lubelska Politechnika Lubelska Wydział Zarządzania i Podstaw Techniki Temat: Sieć neuronowa do klasyfikacji rodzaju węgla kamiennego. Prowadzący: Wykonał: Dr Popko Artur Marek Harasimiuk ETI 5.3. (gr. lab. 5.5)

Bardziej szczegółowo

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010 Materiały/konsultacje Automatyczna predykcja http://www.ibp.pwr.wroc.pl/kotulskalab Konsultacje wtorek, piątek 9-11 (uprzedzić) D1-115 malgorzata.kotulska@pwr.wroc.pl Co to jest uczenie maszynowe? Uczenie

Bardziej szczegółowo

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania WYKŁAD 4 Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania PLAN WYKŁADU Metody uczenia sieci: Uczenie perceptronu Propagacja wsteczna Zastosowania Sterowanie (powtórzenie) Kompresja obrazu Rozpoznawanie

Bardziej szczegółowo

Algorytmiczne sieci neuronowe idea działania, słabe i mocne strony

Algorytmiczne sieci neuronowe idea działania, słabe i mocne strony Patryk DUŃSKI Wydział Informatyki, Zachodniopomorski Uniwersytet Technologiczny w Szczecinie E mail: pdunski@wi.zut.edu.pl Algorytmiczne sieci neuronowe idea działania, słabe i mocne strony Streszczenie:

Bardziej szczegółowo

1. Logika, funkcje logiczne, preceptron.

1. Logika, funkcje logiczne, preceptron. Sieci neuronowe 1. Logika, funkcje logiczne, preceptron. 1. (Logika) Udowodnij prawa de Morgana, prawo pochłaniania p (p q), prawo wyłączonego środka p p oraz prawo sprzeczności (p p). 2. Wyraź funkcję

Bardziej szczegółowo

SIEĆ NEURONOWA JAKO NARZĘDZIE APROKSYMACJI I KLASYFIKACJI DANYCH. Jakub Karbowski Gimnazjum nr 17 w Krakowie

SIEĆ NEURONOWA JAKO NARZĘDZIE APROKSYMACJI I KLASYFIKACJI DANYCH. Jakub Karbowski Gimnazjum nr 17 w Krakowie SIEĆ NEURONOWA JAKO NARZĘDZIE APROKSYMACJI I KLASYFIKACJI DANYCH Jakub Karbowski Gimnazjum nr 17 w Krakowie KRAKÓW 2017 1. Spis treści 2. WSTĘP 2 3. SIECI NEURONOWE 2 3.1. Co to są sieci neuronowe... 2

Bardziej szczegółowo

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW Sztuczne Sieci Neuronowe Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW SN są częścią dziedziny Sztucznej Inteligencji Sztuczna Inteligencja (SI) zajmuje się

Bardziej szczegółowo

Widzenie komputerowe

Widzenie komputerowe Widzenie komputerowe Uczenie maszynowe na przykładzie sieci neuronowych (3) źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Zdolność uogólniania sieci neuronowej R oznaczenie

Bardziej szczegółowo

CLASSIFICATION OF SELECTED APPLES VARIETIES AND DRIED CARROTS USING NEURAL NETWORK TYPE KOHONEN

CLASSIFICATION OF SELECTED APPLES VARIETIES AND DRIED CARROTS USING NEURAL NETWORK TYPE KOHONEN Piotr BONIECKI, Krzysztof KOSZELA, Andrzej PRZYBYLAK Uniwersytet Przyrodniczy w Poznaniu CLASSIFICATION OF SELECTED APPLES VARIETIES AND DRIED CARROTS USING NEURAL NETWORK TYPE KOHONEN Summary The purpose

Bardziej szczegółowo

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, 2012 Spis treści Przedmowa do wydania drugiego Przedmowa IX X 1. Wstęp 1 2. Wybrane zagadnienia sztucznej inteligencji

Bardziej szczegółowo

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311 Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311 PLAN: Wykład 5 - Metody doboru współczynnika uczenia - Problem inicjalizacji wag - Problem doboru architektury

Bardziej szczegółowo

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej. Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej BIOCYBERNETYKA Adrian Horzyk SIECI NEURONOWE www.agh.edu.pl Mózg inspiruje nas od wieków Co takiego

Bardziej szczegółowo

Symulacyjna analiza efektywnoêci sieci neuronowych w klasyfikacji bezwzorcowej

Symulacyjna analiza efektywnoêci sieci neuronowych w klasyfikacji bezwzorcowej Zeszyty Naukowe nr 724 Akademii Ekonomicznej w Krakowie 2006 Katedra Informatyki Symulacyjna analiza efektywnoêci sieci neuronowych w klasyfikacji bezwzorcowej Streszczenie: W artykule dokonano weryfikacji

Bardziej szczegółowo

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ optymalizacje podejmowanych decyzji Tomasz Karczyoski Wydział W-08 IZ Czym są sieci neuronowe Struktura matematycznych oraz programowy lub sprzętowy model, realizujących obliczenia lub przetwarzanie sygnałów

Bardziej szczegółowo

Deep Learning na przykładzie Deep Belief Networks

Deep Learning na przykładzie Deep Belief Networks Deep Learning na przykładzie Deep Belief Networks Jan Karwowski Zakład Sztucznej Inteligencji i Metod Obliczeniowych Wydział Matematyki i Nauk Informacyjnych PW 20 V 2014 Jan Karwowski (MiNI) Deep Learning

Bardziej szczegółowo

Sieci neuronowe i algorytmy uczenia Czyli co i jak andrzej.rusiecki.staff.iiar.pwr.wroc.pl s.

Sieci neuronowe i algorytmy uczenia Czyli co i jak andrzej.rusiecki.staff.iiar.pwr.wroc.pl s. Sieci neuronowe i algorytmy uczenia Czyli co i jak 2016 andrzej.rusiecki@pwr.edu.pl andrzej.rusiecki.staff.iiar.pwr.wroc.pl s. 230/C-3 O co chodzi? Celem przedmiotu jest ogólne zapoznanie się z podstawowymi

Bardziej szczegółowo

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18 Eksploracja Danych wykład 4 Sebastian Zając WMP.SNŚ UKSW 10 maja 2017 Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja 2017 1 / 18 Klasyfikacja danych Klasyfikacja Najczęściej stosowana (najstarsza)

Bardziej szczegółowo

ZASTOSOWANIE SAMOORGANIZUJĄCYCH SIĘ MAP CECH W DIAGNOSTYCE SILNIKÓW O ZAPŁONIE SAMOCZYNNYM

ZASTOSOWANIE SAMOORGANIZUJĄCYCH SIĘ MAP CECH W DIAGNOSTYCE SILNIKÓW O ZAPŁONIE SAMOCZYNNYM Inżynieria Rolnicza 7(105)/2008 ZASTOSOWANIE SAMOORGANIZUJĄCYCH SIĘ MAP CECH W DIAGNOSTYCE SILNIKÓW O ZAPŁONIE SAMOCZYNNYM Marek Klimkiewicz Katedra Organizacji i Inżynierii Produkcji, Szkoła Główna Gospodarstwa

Bardziej szczegółowo

1. W jaki sposób radzimy sobie z problemem zatrzymywania się w lokalnym minimum błędu podczas procesu uczenia?

1. W jaki sposób radzimy sobie z problemem zatrzymywania się w lokalnym minimum błędu podczas procesu uczenia? . W jaki sposób radzimy sobie z problemem zatrzymywania się w lokalnym minimum błędu podczas procesu uczenia? Stosujemy technikę momentum. w(k = η*δ*f (φ*u + α* w(k-, α współczynnik momentum [0;] Kiedy

Bardziej szczegółowo

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron Elementy kognitywistyki II: Sztuczna inteligencja WYKŁAD X: Sztuczny neuron Koneksjonizm: wprowadzenie 1943: Warren McCulloch, Walter Pitts: ogólna teoria przetwarzania informacji oparta na sieciach binarnych

Bardziej szczegółowo

Seminarium magisterskie. Dyskusja nad tematem pracy magisterskiej pisanej pod kierunkiem pani Dr hab. Małgorzaty Doman

Seminarium magisterskie. Dyskusja nad tematem pracy magisterskiej pisanej pod kierunkiem pani Dr hab. Małgorzaty Doman Seminarium magisterskie Dyskusja nad tematem pracy magisterskiej pisanej pod kierunkiem pani Dr hab. Małgorzaty Doman Plan wystąpienia Ogólnie o sztucznych sieciach neuronowych Temat pracy magisterskiej

Bardziej szczegółowo

Celem tych ćwiczeń jest zapoznanie się z klasyfikacją za pomocą sieci neuronowych.

Celem tych ćwiczeń jest zapoznanie się z klasyfikacją za pomocą sieci neuronowych. Spis treści 1 Wstęp 1.1 Importy 2 Zbiór uczący 3 Klasyfikacja 3.1 Rysunki dodatkowe 4 Polecenia dodatkowe Wstęp Celem tych ćwiczeń jest zapoznanie się z klasyfikacją za pomocą sieci neuronowych. Importy

Bardziej szczegółowo

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład I dr inż. 2015/2016

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład I dr inż. 2015/2016 Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład I dr inż. Bogumil.Konopka@pwr.edu.pl 2015/2016 1 Wykład I - plan Sprawy organizacyjne Uczenie maszynowe podstawowe pojęcia Proces modelowania

Bardziej szczegółowo

Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I.

Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I. Sieci M. I. Jordana Sieci rekurencyjne z parametrycznym biasem Leszek Rybicki 30 listopada 2007 Leszek Rybicki Sieci M. I. Jordana 1/21 Plan O czym będzie 1 Wstęp do sieci neuronowych Neurony i perceptrony

Bardziej szczegółowo

ZASTOSOWANIA SIECI NEURONOWYCH

ZASTOSOWANIA SIECI NEURONOWYCH SN... 1 DZIEJE BADA¼ NAD SIECIAMI NEURONOWYMI - równoleg»y sposób przetwarzania informacji - 1957 : Perceptron, Cornell Aeronautical Laboratory (uk»ad elektromechaniczny do rozpoznawania znaków) 8 komórek,

Bardziej szczegółowo

Algorytmy sztucznej inteligencji

Algorytmy sztucznej inteligencji Algorytmy sztucznej inteligencji Dynamiczne sieci neuronowe 1 Zapis macierzowy sieci neuronowych Poniżej omówione zostaną części składowe sieci neuronowych i metoda ich zapisu za pomocą macierzy. Obliczenia

Bardziej szczegółowo

Podstawy sztucznej inteligencji

Podstawy sztucznej inteligencji wykład 5 Sztuczne sieci neuronowe (SSN) 28 listopad 2012 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 5 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest

Bardziej szczegółowo

Klasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L,

Klasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L, Klasyfikator Jedną z najistotniejszych nieparametrycznych metod klasyfikacji jest metoda K-najbliższych sąsiadów, oznaczana przez K-NN. W metodzie tej zaliczamy rozpoznawany obiekt do tej klasy, do której

Bardziej szczegółowo

Data Mining Wykład 9. Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster. Plan wykładu. Sformułowanie problemu

Data Mining Wykład 9. Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster. Plan wykładu. Sformułowanie problemu Data Mining Wykład 9 Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster Plan wykładu Wprowadzanie Definicja problemu Klasyfikacja metod grupowania Grupowanie hierarchiczne Sformułowanie problemu

Bardziej szczegółowo

7. Zagadnienie parkowania ciężarówki.

7. Zagadnienie parkowania ciężarówki. 7. Zagadnienie parkowania ciężarówki. Sterowniki rozmyte Aby móc sterować przebiegiem pewnych procesów lub też pracą urządzeń niezbędne jest stworzenie odpowiedniego modelu, na podstawie którego można

Bardziej szczegółowo

KADD Minimalizacja funkcji

KADD Minimalizacja funkcji Minimalizacja funkcji n-wymiarowych Forma kwadratowa w n wymiarach Procedury minimalizacji Minimalizacja wzdłuż prostej w n-wymiarowej przestrzeni Metody minimalizacji wzdłuż osi współrzędnych wzdłuż kierunków

Bardziej szczegółowo

Zastosowanie metod eksploracji danych (data mining) do sterowania i diagnostyki procesów w przemyśle spożywczym

Zastosowanie metod eksploracji danych (data mining) do sterowania i diagnostyki procesów w przemyśle spożywczym POLITECHNIKA WARSZAWSKA Instytut Technik Wytwarzania Zastosowanie metod eksploracji danych (data mining) do sterowania i diagnostyki procesów w przemyśle spożywczym Marcin Perzyk Dlaczego eksploracja danych?

Bardziej szczegółowo

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny

Bardziej szczegółowo

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. zajecia.jakubw.pl/nai Literatura: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym. WNT, Warszawa 997. PODSTAWOWE ZAGADNIENIA TECHNICZNE AI

Bardziej szczegółowo