Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę

Podobne dokumenty
Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę

4.1. Wprowadzenie Podstawowe definicje Algorytm określania wartości parametrów w regresji logistycznej...74

Uczenie sieci radialnych (RBF)

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

UCZENIE MASZYNOWE III - SVM. mgr inż. Adam Kupryjanow

Przykładowe funkcje przejścia używane przy budowie sztucznych neuronów

SIECI RBF (RADIAL BASIS FUNCTIONS)

Lokalne klasyfikatory jako narzędzie analizy i

Systemy Inteligentnego Przetwarzania wykład 7: Sieci RBF

Klasyfikacja LDA + walidacja

Prof. Stanisław Jankowski

Elementy modelowania matematycznego

Widzenie komputerowe

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Zastosowania sieci neuronowych

Ontogeniczne sieci neuronowe w zastosowaniu do klasyfikacji danych medycznych

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

AUTOMATYKA INFORMATYKA

Meta-uczenie co to jest?

Agnieszka Nowak Brzezińska Wykład III

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Python : podstawy nauki o danych / Alberto Boschetti, Luca Massaron. Gliwice, cop Spis treści

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych. Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS

Sieć przesyłająca żetony CP (counter propagation)

Metody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF.

Biometria WYKŁAD 7: ROZPOZNAWANIE I KLASYFIKACJA OBIEKTÓW

Zastosowania funkcji jądrowych do rozpoznawania ręcznie pisanych cyfr.

1.7. Eksploracja danych: pogłębianie, przeszukiwanie i wyławianie

Spis treści WSTĘP... 9

Agnieszka Nowak Brzezińska Wykład III

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Co to jest grupowanie

Techniki uczenia maszynowego nazwa przedmiotu SYLABUS

Data Mining Wykład 6. Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa.

MATLAB Neural Network Toolbox przegląd

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Część 2. Teoretyczne i praktyczne aspekty wybranych metod analiz ilościowych w ekonomii i zarządzaniu

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW

Inteligentne wydobywanie informacji z internetowych serwisów społecznościowych

KLASYFIKACJA TEKSTUR ZA POMOCĄ SVM MASZYNY WEKTORÓW WSPIERAJĄCYCH

Zastosowania sieci neuronowych

Laboratorium 11. Regresja SVM.

Sztuczne sieci neuronowe (SNN)

WYKŁAD: Perceptron Rosenblatta. Maszyny wektorów podpierających (SVM). Empiryczne reguły bayesowskie. Zaawansowane Metody Uczenia Maszynowego

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska

Ontogeniczne sieci neuronowe

W ostatnim wykładzie doszliśmy do tego, że problem znalezienia klasyfikatora optymalnego pod względem marginesów można wyrazić w następujący sposób:

Sztuczne Sieci Neuronowe

Agnieszka Nowak Brzezińska

Uczenie sieci typu MLP

Metody systemowe i decyzyjne w informatyce

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Metody klasyfikacji Danych wielowymiarowych by mgr inz. Marcin Kurdziel and mgr inz. Tomasz Arodz

Wstęp do sieci neuronowych, wykład 8 Uczenie nienadzorowane.

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

Wprowadzenie. Metody bayesowskie Drzewa klasyfikacyjne i lasy losowe Sieci neuronowe SVM. Klasyfikacja. Wstęp

Lekcja 5: Sieć Kohonena i sieć ART

I EKSPLORACJA DANYCH

Optymalizacja systemów

7. Maszyny wektorów podpierajacych SVMs

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Oracle Data Mining 10g

Popularne klasyfikatory w pakietach komputerowych

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

wiedzy Sieci neuronowe

Metody Sztucznej Inteligencji II

Przykładowa analiza danych

Elementy inteligencji obliczeniowej

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Uczenie sieci neuronowych i bayesowskich

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Lokalne klasyfikatory jako narzędzie analizy i klasyfikacji sygnałów. Wit Jakuczun

Metody klasyfikacji danych - część 1 p.1/24

Metody klasyfikacji i rozpoznawania wzorców. Najważniejsze rodzaje klasyfikatorów

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor


Projekt Sieci neuronowe

Obliczenia równoległe i rozproszone. Praca zbiorowa pod redakcją Andrzeja Karbowskiego i Ewy Niewiadomskiej-Szynkiewicz

Mail: Pokój 214, II piętro

Metody selekcji cech

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

METODY INŻYNIERII WIEDZY

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Wydział Elektrotechniki, Automatyki, Informatyki i Elektroniki

Automatyczne rozpoznawanie mowy - wybrane zagadnienia / Ryszard Makowski. Wrocław, Spis treści

Metody systemowe i decyzyjne w informatyce

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Wybór modelu i ocena jakości klasyfikatora

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Widzenie komputerowe (computer vision)

Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych

Metody systemowe i decyzyjne w informatyce

Prognozowanie zanieczyszczeń atmosferycznych przy użyciu sieci neuronowych

Analiza skupień. Analiza Skupień W sztucznej inteligencji istotną rolę ogrywają algorytmy grupowania

Transkrypt:

Norbert Jankowski Ontogeniczne sieci neuronowe O sieciach zmieniających swoją strukturę Warszawa 2003

Opracowanie książki było wspierane stypendium Uniwersytetu Mikołaja Kopernika

Spis treści Wprowadzenie 15 1 Funkcje transferu 21 1.1 Funkcjerealizowaneprzezneuron... 24 1.2 Funkcjeaktywacji... 28 1.2.1 Miary odległości i podobieństwa jako funkcje aktywacji.. 30 1.2.1.1 Jednorodnemiaryodległości... 31 1.2.1.2 Niejednorodnemiaryodległości... 33 1.2.2 Funkcje aktywacji powstające jako złożenie iloczynu skalarnegoimiarpodobieństwa... 36 1.3 Funkcjewyjścia... 37 1.3.1 Funkcjesigmoidalne... 39 1.3.2 Funkcje zlokalizowane wokół jednego centrum....... 40 1.3.3 Funkcjesemi-centralne... 49 1.4 Funkcjetransferu... 49 1.4.1 Nielokalnefunkcjetransferu... 50 1.4.2 Lokalneisemi-lokalnefunkcjetransferu... 51 1.4.3 Gaussowska i sigmoidalna funkcja wstęgowa........ 54 1.4.4 Funkcjeogęstościachelipsoidalnych... 57 1.4.5 Uniwersalnefunkcjetransferu... 59 1.4.6 Funkcjebicentralne... 66 1.4.7 Rozszerzeniafunkcjibicentralnych... 71 1.4.7.1 Funkcje bicentralne z niezależnymi skosami... 71 1.4.7.2 Funkcjebicentralnezrotacją... 71 1.4.7.3 Funkcje bicentralne z rotacją i niezależnymi skosami 74 1.4.8 Hierarchia funkcji transferu pod względem ich elastyczności 76 1.4.9 Końcowe porównanie różnych funkcji transferu....... 77 2 Sieci z radialnymi funkcjami bazowymi (RBF) 81 2.1 Sieci z radialnymi funkcjami bazowymi i regularyzacją....... 81 2.2 Uogólniona sieć z radialnymi funkcjami bazowymi (GRBF).... 85 2.3 Metody inicjalizacji i uczenia bez nadzoru sieci typu RBF..... 87 2.3.1 Inicjalizacja położeń zbiorem wektorów uczących...... 87

4 SPIS TREŚCI 2.3.2 Inicjalizacja położeń poprzez podzbiór zbioru uczącego.. 88 2.3.3 Inicjalizacja położeń metodą klasteryzacji k-średnich... 88 2.3.4 Inicjalizacja za pomocą metody k najbliższych sąsiadów.. 89 2.3.5 Konstruowanie klastrów za pomocą dendrogramów.... 90 2.3.6 Inicjalizacja za pomocą histogramów i drzew decyzyjnych 91 2.4 UczenieznadzoremsieciRBF... 94 2.5 RozszerzeniasieciRBF... 96 2.5.1 RozszerzeniagłównegorównaniasieciRBF... 96 2.5.2 Regularyzacja... 97 2.5.3 InnemetodyuczeniasieciRBF... 99 2.6 PorównaniesieciRBFzsieciamiMLP...100 2.7 Probabilistyczne sieci neuronowe..... 103 3 Support Vector Machines (SVM) 107 3.1 Funkcjejądrowe...108 3.2 Konstrukcjaoptymalnejhiperpłaszczyzny...110 3.3 Konstrukcja hiperpłaszczyzny dla przypadków nieseparowalnych (C-SVC)...112 3.4 ν-svc...114 3.5 Problem regresji (ǫ-svr)...117 3.6 Problem regresji dla ν-svm (ν-svr)...118 3.7 Optymalizacja problemów programowania kwadratowego (QP). 119 3.7.1 Dekompozycja...119 3.7.2 WybórzbioruroboczegodlaC-SVM...121 3.7.3 Kryteriumstopu...122 3.7.4 Wybór zbioru roboczego dla ν-svm...122 3.7.5 Kryterium stopu dla ν-svm...122 3.7.6 Analityczne rozwiązanie problemu dekompozycji...... 123 3.7.7 Wyznaczenie wartości b i ρ...124 3.7.8 Dalsze sposoby przyspieszenia rozwiązywania problemów QPdlaSVM...124 3.8 ZbieżnośćalgorytmówdekompozycjiQP...125 3.9 SVMaRBF...125 3.10Meta-SVM...125 3.10.1 Walidacjaskośnastosowanadouczenia...126 3.10.2 WynikialgorytmuMeta-SVM...128 3.10.3 Podsumowanie...131 4 Ontogeniczne modele sieci neuronowych 133 4.1 Modelezmniejszającestrukturę...137 4.1.1 Modelezmniejszającestrukturęaregularyzacja...138 4.1.1.1 Rozpadwag...138 4.1.1.2 Eliminacjawag...139 4.1.1.3 MLP2LN...139 4.1.1.4 Lokalnaregresjagrzbietowa...140

SPIS TREŚCI 5 4.1.1.5 Metodywspółdzieleniawag...140 4.1.2 Usuwanie wag metodami Optimal Brain Damage (OBD) ioptimalbrainsurgeon(obs)...140 4.1.3 Statystyczne i inne metody zmniejszania struktury sieci neuronowych...143 4.2 Modeleostrukturachrozrastającychsię...145 4.2.1 Algorytmkafelkowania...145 4.2.1.0.1 Algorytmkieszonkowy...146 4.2.1.0.2 Sieć kafelkowa dla problemów wieloklasowych...147 4.2.2 Algorytmwieżaipiramida...147 4.2.3 Upstart...148 4.2.4 Algorytm budowania sieci kaskadowych przez analizę dychotomii...149 4.2.5 Algorytmkorelacjikaskadowej...152 4.2.6 Kaskadowasiećperceptronowa...153 4.2.7 FeatureSpaceMapping(FSM)...153 4.2.8 SiećRANzprzydziałemzasobów...155 4.2.8.1 Uczeniesekwencyjne...155 4.2.8.2 GeometryczneKryteriumRozrostu...157 4.2.8.3 AdaptacjasieciRAN...160 4.3 Sieć IncNet ze statystyczną kontrolą złożoności sieci........ 160 4.3.1 Strukturasieciifunkcjetransferu...162 4.3.2 RozszerzonyfiltrKalmana...164 4.3.3 SzybkawersjarozszerzonegofiltruKalmana...166 4.3.4 Kryteriumwystarczalnościmodelu...167 4.3.5 Usuwanieneuronów...169 4.3.6 Łączenieneuronów...171 4.3.7 WykorzystaniesieciIncNetwklasyfikacji...173 4.3.8 Charakterystyka parametrów kontroli procesu adaptacji sieciincnet...175 4.4 Siećneuronowaoptymalnychfunkcjitransferu...177 4.4.1 Siećoptymalnychfunkcjitransferu(OTFN)...178 4.4.1.1 Usuwanieneuronów...178 4.4.1.2 Statystyczne kryterium usuwania neuronów... 179 4.4.1.3 Kryteriumwystarczalnościsieci...179 4.4.2 SiećoptymalnychfunkcjitransferutypuII...180 4.4.3 Przykłady działania sieci optymalnych funkcji transferu.. 182 4.4.3.1 Problemparzystości...182 4.4.3.2 Problempółsferyipółprzestrzeni...183 4.4.3.3 Problemtrójkąta...184

6 SPIS TREŚCI 5 Komitety modeli 185 5.1 K-klasyfikatorów...187 5.2 K 2 -klasyfikatorów...188 5.3 Maszynaliniowa...189 5.4 Sposobypodejmowaniadecyzjiprzezkomitet...190 5.5 Bootstrap Aggregating (Bagging)..... 191 5.6 BoostingiAdaBoost...192 5.7 Innekomitety...194 5.7.1 Arcing...195 5.7.2 RegionBoost...195 5.7.3 Stacking...195 5.7.4 Grading...197 5.7.5 Mixtureoflocalexperts...197 5.8 Komitetyheterogeniczne...199 5.9 Komitetyzlokalnąkompetencją...199 6 Wstępne i końcowe przetwarzanie danych 201 6.1 Transformacjedanych...201 6.2 Wartościnietypoweibrakujące...203 6.2.1 Wartościnietypowe...203 6.2.2 Wartościbrakujące...204 6.3 Metodyselekcjiiważeniacech...205 6.3.1 Ważenie i selekcja cech dyskretną metodą quasi-gradientową206 6.3.1.1 Algorytmważeniacech...207 6.3.1.1.1 Uczenie z wykorzystaniem walidacji skośnej...207 6.3.1.1.2 Estymacjawagkońcowych...208 6.3.1.1.3 Procedura FindWeights...209 6.3.1.2 Eliminacjacech...210 6.3.1.3 Przykłady rezultatów dla ważenia cech...... 210 6.3.1.3.1 Bazadanychtarczycy...212 6.3.1.3.2 Dane wyrostka robaczkowego (Appendicitis)...213 6.3.1.3.3 Dane Australian credit...213 6.3.1.3.4 Dane opisujące flagi narodowe (Flags).. 213 6.3.1.3.5 Danerakapiersi...218 6.3.1.3.6 Zbiór danych Glass...218 6.3.1.3.7 Danechoróbserca...218 6.3.1.3.8 Daneopisującegatunkiwin...219 6.3.1.4 Podsumowanie...219 6.4 Regularyzacjadanych...219 6.4.1 Odcienieszarości...222 6.4.2 Eliminacja złych wektorów i przeetykietowanie klas.... 222 6.4.3 Przykładyużyciaregularyzacjidanych...223 6.4.4 Podsumowanie...223

SPIS TREŚCI 7 6.5 Przedziały ufności jako narzędzie analizy danych i wizualizacji wyników...226 6.5.1 Przedziały ufności i probabilistyczne przedziały ufności aregułylogiczne...230 7 Zastosowanie sieci neuronowych 235 7.1 Technikiporównywaniaróżnychmodeli...235 7.2 MedycznezastosowaniasieciIncNet...238 7.2.1 Klasyfikacja i analiza danych psychometrycznych...... 238 7.2.1.1 Opisproblemu...238 7.2.1.2 Dane...239 7.2.1.3 Procesuczenia...240 7.2.1.4 Porównanieianalizawyników...244 7.2.2 Typowemedycznedaneporównawcze...263 7.2.2.1 Zapaleniewyrostkarobaczkowego...263 7.2.2.2 Danedotyczącerakapiersi...265 7.2.2.3 Danedotyczącezapaleniawątroby...266 7.2.2.4 Danedotyczącecukrzycy...267 7.2.2.5 Chorobytarczycy...268 7.3 Aproksymacja...271 7.3.1 FunkcjaHermita...271 7.3.2 FunkcjaGaboraiGirosiego...272 7.3.3 FunkcjaSugeno...273 8 Zakończenie 277 Bibliografia 279 Skorowidz 298 Ilustracje kolorowe 305