Plan wykładu. Sztuczne sieci neuronowe. Problem dwuklasowy (N=1) Problem klasyfikacji. Wykład 6: Ocena jakoci sieci neuronowej Sieci RBF KLASYFIKATOR

Podobne dokumenty
Plan wykładu. Sztuczne sieci neuronowe. Problem dwuklasowy (N=1) Problem klasyfikacji. Wykład 4-5: Ocena jakości sieci neuronowej Sieci RBF

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Analiza danych OGÓLNY SCHEMAT. Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja)

Proces narodzin i śmierci

Statystyczne metody przetwarzania danych

System M/M/1/L. λ = H 0 µ 1 λ 0 H 1 µ 2 λ 1 H 2 µ 3 λ 2 µ L+1 λ L H L+1. Jeli załoymy, e λ. i dla i = 1, 2,, L+1 oraz

aij - wygrana gracza I bij - wygrana gracza II

Neural networks. Krótka historia rozpoznawanie znaków alfanumerycznych.

Laboratorium ochrony danych

Sieci Neuronowe 2 Michał Bereta

Kwantyzacja skalarna. Plan 1. Definicja 2. Kwantyzacja równomierna 3. Niedopasowanie, adaptacja 4. Kwantyzacja nierównomierna

Uczenie sieci radialnych (RBF)

EKONOMIA MENEDŻERSKA. Wykład 3 Funkcje produkcji 1 FUNKCJE PRODUKCJI. ANALIZA KOSZTÓW I KORZYŚCI SKALI. MINIMALIZACJA KOSZTÓW PRODUKCJI.

= σ σ. 5. CML Capital Market Line, Rynkowa Linia Kapitału

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych

ZASTOSOWANIE PROGRAMOWANIA DYNAMICZNEGO DO OPRACOWANIA STRATEGII REDUKCJI EMISJI GAZÓW

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

Ocena dokładności diagnozy

Sztuczne Sieci Neuronowe

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Algorytm do rozpoznawania człowieka na podstawie dynamiki użycia klawiatury. Paweł Kobojek, prof. dr hab. inż. Khalid Saeed

SYSTEMY UCZĄCE SIĘ WYKŁAD 7. KLASYFIKATORY BAYESA. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

KRYTERIA WYBORU ARCHITEKTURY SIECI NEURONOWYCH - FINANSOWE CZY BŁ DU PROGNOZY

Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE

Sztuczne sieci neuronowe

LABORATORIUM METROLOGII TECHNIKA POMIARÓW (M-1)

Analiza nośności pionowej pojedynczego pala


WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania

Diagonalizacja macierzy kwadratowej

9. Praktyczna ocena jakości klasyfikacji

Zasada Jourdina i zasada Gaussa

Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba

Plan wykładu. Sztuczne sieci neuronowe. Uczenie nienadzorowane (bez nauczyciela) Uczenie nienadzorowane - przykłady

Sieci Neuronowe 1 Michał Bereta

Plan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty)

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010

Zaawansowane metody numeryczne

Indukowane Reguły Decyzyjne I. Wykład 8

Prace wst pne Wytyczenie sieci gazowej na mapie geodezyjnej

Plan wykładu. Sztuczne sieci neuronowe. Podstawowe pojcia logiki rozmytej. Logika ostra a logika rozmyta. Wykład 13: Sieci neuronowe o logice rozmytej

Wielokategorialne systemy uczące się i ich zastosowanie w bioinformatyce. Rafał Grodzicki

Dzielenie. Dzielenie pozycyjne

Systemy Inteligentnego Przetwarzania wykład 7: Sieci RBF

przegrody (W ) Łukasz Nowak, Instytut Budownictwa, Politechnika Wrocławska, lukasz.nowak@pwr.wroc.pl 1

V. WPROWADZENIE DO PRZESTRZENI FUNKCYJNYCH

Programowanie Równoległe i Rozproszone

wiedzy Sieci neuronowe (c.d.)

Pokazać, że wyżej zdefiniowana struktura algebraiczna jest przestrzenią wektorową nad ciałem

Podstawy teorii falek (Wavelets)

Dla dzielnej X (dividend) i dzielnika D 0 (divisor) liczby Q oraz R takie, Ŝe

Pattern Classification

XLI OLIMPIADA FIZYCZNA ETAP WSTĘPNY Zadanie teoretyczne

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017

Macierz prawdopodobieństw przejścia w pojedynczym kroku dla łańcucha Markowa jest postaci

P 1, P 2 - wektory sił wewnętrznych w punktach powierzchni F wokół punktu A

DOBÓR SERWOSILNIKA POSUWU. Rysunek 1 przedstawia schemat kinematyczny napędu jednej osi urządzenia.

Systemy Ochrony Powietrza Ćwiczenia Laboratoryjne

Zastosowania sieci neuronowych

Plan wykładu. Sztuczne sieci neuronowe. Sieci rekurencyjne. Sieci rekurencyjne. Wykład 8: Sieci rekurencyjne: sie Hopfielda. Sieci rekurencyjne

Nie istnieje ogólna recepta, każdy przypadek musi być rozważany indywidualnie!

Nieeuklidesowe sieci neuronowe

Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu

Zapis pochodnej. Modelowanie dynamicznych systemów biocybernetycznych. Dotychczas rozważane były głownie modele biocybernetyczne typu statycznego.

WOJSKOWA AKADEMIA TECHNICZNA im. Jar osława Dąbr owskiego ZAKŁAD AWIONIKI I UZBROJENIA LOTNICZEGO

METODA ELEMENTU SKOŃCZONEGO. Termokinetyka

Badanie energetyczne płaskiego kolektora słonecznego

Plan wykładu. Sztuczne sieci neuronowe. Gaz neuronowy (ang. Neural Gas - NG) NG - zasada działania. Gaz neuronowy. Rosncy gaz neuronowy

Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę

( ) ( ) 2. Zadanie 1. są niezależnymi zmiennymi losowymi o. oraz. rozkładach normalnych, przy czym EX. i σ są nieznane. 1 Niech X

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

TERMODYNAMIKA TECHNICZNA I CHEMICZNA

SIECI RBF (RADIAL BASIS FUNCTIONS)

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.

ANALIZA TEKSTUR W OBRAZACH CYFROWYCH I JEJ ZASTOSOWANIE DO OBRAZÓW ANGIOGRAFICZNYCH

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Systemy Inteligentnego Przetwarzania wykład 3: sieci rekurencyjne, sieci samoorganizujące się

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Zapis informacji, systemy pozycyjne 1. Literatura Jerzy Grębosz, Symfonia C++ standard. Harvey M. Deitl, Paul J. Deitl, Arkana C++. Programowanie.

RBF sieci neuronowe o radialnych funkcjach bazowych

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Wprowadzenie. Support vector machines (maszyny wektorów wspierających, maszyny wektorów nośnych) SVM służy do: Zalety metody SVM

Przykład 3.1. Wyznaczenie zmiany odległości między punktami ramy trójprzegubowej

Zastosowanie technik sztucznej inteligencji w analizie odwrotnej

Reprezentacje grup symetrii. g s

ORGANIZACJA ZAJĘĆ OPTYMALIZACJA GLOBALNA WSTĘP PLAN WYKŁADU. Wykładowca dr inż. Agnieszka Bołtuć, pokój 304,

liniowym w przeciwnym przypadku mówimy o programowaniu nieliniowym.

p Z(G). (G : Z({x i })),

XII. EFEKTYWNO FUNKCJONOWANIA SYSTEMÓW DZIAŁANIA

WYKŁAD 7. Testowanie jakości modeli klasyfikacyjnych metodyka i kryteria

Korekcja liniowych układów regulacji automatycznej

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych

Analiza rodzajów skutków i krytyczności uszkodzeń FMECA/FMEA według MIL STD A

STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH

SYSTEMY UCZĄCE SIĘ WYKŁAD 15. ANALIZA DANYCH WYKRYWANIE OBSERWACJI. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

Bayesowskie testowanie modeli tobitowych w analizie spłaty kredytów detalicznych

Zestaw zadań 4: Przestrzenie wektorowe i podprzestrzenie. Liniowa niezależność. Sumy i sumy proste podprzestrzeni.

Transkrypt:

Plan wykładu Wykład 6: Ocena jakoc sec neuronowej Sec RBF Małgorzata Krtowska Katedra Orogramowana e-mal: mmac@.b.balystok.l Metody oceny jakoc sec neuronowych roblem klasyfkacj metody szacowana jakoc klasyfkacj ocena jakoc klasyfkacj Sec o radalnych funkcjach bazowych Wrowadzene do sec RBF Porównane sec welowarstwowych sec RBF Teoretyczne odstawy dzałane sec RBF Problem klasyfkacj Problem dwuklasowy (N=) Przyorzdkowane danego wektora cech do jednej z M klas: K, K,.., K M 0. (/K ) (/K ) {,,..., n } KLASYFIKATOR 0. K 0.0 0 5 c 0 5 3 4

Problem dwuklasowy (N=) Metody oceny jakoc klasyfkacj Zbór uczcy zbór testowy Waldacja krzyowa (ang. crossvaldaton) Metoda leave-one-out (Jackknfe) 5 6 Waldacja krzyowa (k-unktowa) Leave-one-out zbór danych: Przyadek szczególny waldacj krzyowej Jeel zbór uczcy zawera wektorów cech wówczas metoda leave-one-out jest równowana -unktowej waldacj krzyowej losowy odzał zboru danych na k odzborów zbór danych: odzbór testowy W raktyce : k=0 7 8

Ocena jakoc klasyfkacj Ocena jakoc klasyfkacj ( klasy) Jako klasyfkacj = Lczba orawne sklasyfkowanych rzyadków / Lczba wszystkch analzowanych rzyadków Klasa => Decyzja K K... K M Klasa (0, ) n. choroba (tak, ne) Tak Ne K n n n M K n n n M... Wynk klasyfkacj Tak Ne True ostve (TP) False negatve (FN) False Postve (FP) True negatve (TN) TP+FP FN+TN K M n M n M n MM TP+FN FP+TN Lczno n n... n M Czy jako klasyfkacj 0,95 jest dobra? 9 0 Ocena jakoc klasyfkacj ( klasy) Ocena jakoc klasyfkacj ( klasy) 0. (/K ) (/K 0 ) Efektywno = TP+TN / TP+FP+FN+TN - frakcja orawne sklasyfkowanych rzyadków 0. 0.0 TP TN FP FN 0 5 c 0 5 Czuło = TP / TP+FN - frakcja orawne sklasyfkowanych rzyadków choroby Secyfczno = TN / FP+TN - frakcja orawne sklasyfkowanych rzyadków osób zdrowych (ang. accuracy, senstvty, secfcty)

Krzywa ROC (ang. Recever Oeratng Characterstcs) Sec o radalnych funkcjach bazowych (RBF; ang. Radal Bass Functons) Krzywa ROC - obrazuje zaleno omdzy czułoc metody a wartoc -secyfczno dla rónych wartoc rogowych Porównane jakoc dwóch metod klasyfkacj => orównane welkoc obszaru od krzyw ROC Sec dwuwarstwowe ( warstwa ukryta) Przeływ nformacj od wejca w kerunku warstwy wyjcowej Brak wymany nformacj mdzy neuronam w jednej warstwe 3 4 Sec welowarstwowe a sec RBF Sec welowarstwowe a sec RBF Sec neuronowe welowarstwowe neurony w warstwach ukrytych sełnały rol sumatorów mulsów dochodzcych do nch z orzednej warstwy rezultat sumowana był nastne rzetwarzany rzez tzw. funkcj aktywacj owodował obudzene neuronu na okrelonym ozome neuron rzekazywał swoj aktywacj - jako bodzec numeryczny do warstwy nastnej lub na wyjce Sec RBF wyznaczene aktywacj, w neuronach warstwy ukrytej, odbywa s na zasadze wyznaczena wartoc tzw. radalnej funkcj bazowej (argumentem jest odległo -c ) Warstwa wyjcowa sumuje aktywacje neuronów warstwy ukrytej (osługujc s swom wagam) Wynk sumowana jest odawany jako wynk dzałana sec Sec welowarstwowe neuron rerezentuje herłaszczyzn moe by wele warstw ukrytych Sec RBF neuron rerezentuje hersfer, dokonujc odzału kołowego wokół unktu centralnego jedna warstwa ukryta => uroszczene uczena sec 5 6

Radalne funkcje bazowe Radaln funkcj bazow (tyu RBF) nazywany funkcj ( ) ostac: Przykłady radalnych funkcj bazowych r Funkcja aussa ( r) = e σ (; c) = (r(,c)), gdze r(,c)= -c ={(-c) T (-c)} / oznacza to, e wartoc funkcj - dla danego argumentu - zale tylko od odległoc jej argumentu od centrum c bdcym arametrem tej funkcj. (ojedyncza funkcja radalna jest czasem nazywana jdrem (ang. kernel) a arametr σ szerokoc jdra). 7 8 Przykłady radalnych funkcj bazowych Przykłady radalnych funkcj bazowych α Funkcje otgowe ( r) = ( σ + r ), α > 0 Funkcja sklejana ( r) = ( σr) ln( σr) α= -0.5 9 0

Dzałane sec RBF Teoretyczne odstawy sec RBF (aroksymacja) W secach RBF neurony erwszej warstwy oblczaj - na odstawe odanego na wejce wektora cech, swoje aktywacje jako warto: ()=(, c ); ()=(, c );...; H ()=(,c H ) gdze h - oznacza funkcj radaln oblczon wzgldem centrum c h. Oblczone w ten sosób wartoc,.., H słu jako dane wejcowe dla warstwy wyjcowej, która oblcza z nch waon sum. Przy załoenu jednego neuronu w warstwe wyjcowej otrzymujemy: y()=w 0 +w () +w () +... + w H H () Se RBF dzała na zasadze welowymarowej nterolacj, której zadanem jest odwzorowane rónych wektorów wejcowych (=,,.., ) z N wymarowej rzestrzen wejcowej w zbór lczb rzeczywstych d. Jest to równowane okrelenu funkcj radalnej F(), dla której s sełnone warunk nterolacj: F( ) = d rzy czym funkcja F() okrelona jest wzorem: F( ) = = w ( ) Przy danych centrach c, c,..., c H arametrze σ ozostaj nam tylko do wyznaczena wartoc wag. gdze - wartoc wektorów centra funkcj radalnej. Wybór rodzaju normy moe by dowolny, w raktyce najczcej norma eukldesowa. Teoretyczne odstawy sec RBF Se RBF - odstawy teoretyczne Zakładajc unktów nterolacyjnych mona otrzyma układ równa lnowych: gdze j =( j - ) dotyczy funkcj radalnej w centrum. W ostac macerzowej: Rozwzane: W=d W= - d W d W d = W d Wrowadzone załoene dotyczce stnena neuronów ukrytych rowadz do uzyskana sec o złych własnocach uogólnajcych. Przy duej lczbe danych uczcych równej m lczbe funkcj radalnych se bdze s doasowywała do rónego rodzaju szumów neregularnoc wystujcych w danych. Wrowadzene czynnka regularyzacj (roblem otymalzacj): L( F ) = ( F ( ) d ) + λ PF = gdze λ wsółczynnk regularyzacj, PF - czynnk stablzujcy karzcy za brak gładkoc funkcj F (due czsto owtarzajce s zmany nachyle funkcj aroksymujcej) 3 4

Regularyzacja Se RBF - odstawy teoretyczne (klasyfkacja) Twerdzene Covera (965) Złoony roblem klasyfkacyjny zrzutowany nelnowo na rzestrze welowymarow moe by rozdzelony za omoc searatora lnowego z wkszym rawdoodobestwem n rzy rzutowanu na rzestrze o mnejszej lczbe wymarów. Wływ regularyzacj na odwzorowane danych rzy nadwymarowej lczbe funkcj bazowych: a) brak regularyzacj; b) wynk z regularyzacj Udowodnono, e kady zbór wzorców losowo rozmeszczony w rzestrzen welowymarowej jest ϕ-searowalny z rawdoodobestwem równym jeden, od warunkem zastosowana odowedno duego wymaru, na który rzutowana jest ta rzestrze, tj. rzestrze generowana rzez funkcje bazowe ϕ. 5 6 Se RBF - odstawy teoretyczne Se RBF Zatem stneje tak wektor w, e: w T ϕ() 0 dla A w T ϕ() < 0 dla B gdze w T ϕ()=0 rerezentuje granc omdzy klasam. W raktyce oznacza to, e zastosowane dwu warstw sec, jednej zawerajcej funkcje radalne wyjcowej warstwy lnowej zaewna rozwzane roblemu klasyfkacj nelnowej. y m = H = 0 ( ) w m 7 8

Rodzaje sec RBF Sec HRBF Sec RBF (ang. eneralzed Radal Bass Functon)- mnejsza lczba wzłów n danych. Sec HRBF (ang. Hyer Radal Bass Functon)- ełna macerz obrotów skalowana Q (wsółczynnk wagowy, ze wzgldu na rón zmenno w kadej os; Q róne dla rónych centrów): Sec RBF Sec HRBF T = ( Q) ( Q) = Q T Q T Q Oznaczajc loczyn macerzy Q T Q jako macerz C otrzymujemy: Q = = j= C W szczególnoc, jeel macerz Q jest dagonalna Q=, wówczas wagowa norma Eukldesowa srowadza s do normy klasycznej: j = = Q = j 9 30 Uczene sec RBF Eta I - wybór centrów funkcj bazowych Uczene sec RBF odbywa s w trybe nadzorowanym. Mona tu wyrón dwa etay: Losowy wybór centrów funkcj bazowych dobór arametrów funkcj bazowych (centra + dysersje) Zastosowane rocesu samoorganzacj Wykorzystane dendrogramów Algorytm robablstyczny (HRBF) dobór wag neuronów warstwy wyjcowej 3 3

Losowy wybór centrów funkcj bazowych Zastosowane rocesu samoorganzacj rozwzane najrostsze, wykorzystywane dla klasycznych sec radalnych losowy wybór centrów: w obszarze zmennoc wzorców uczcych losowy wybór centrów soród wzorców uczcych (rosty daje dobre rezultaty) arametr dysersj jest jednakowy dla wszystkch funkcj bazowych jest okrelany jako: d σ = gdze M M - jest lczb wszystkch neuronów warstwe ukrytej; d jest maksymaln odległoc omdzy wybranym centram aussowska funkcja bazowa rzyjmuje osta: ( ) c c = e d K 33 Proces samoorganzacj stosowany do danych uczcych automatyczne dzel rzestrze na obszary Voronoa, rerezentujce oddzelne gruy danych centrum klastra jest utosamane z centrum odowednej funkcj radalnej lczba tych funkcj równa jest lczbe klastrów moe by korygowana rzez algorytm samoorganzacj Proces odzału danych na klastry moe by rzerowadzony rzy uycu jednej z wersj algorytmu k-rednch Proces ncjalzacj centrów: odbywa s najczcej losowo, rzy załoenu rozkładu równomernego w rocese doboru odowednch wektorów ze zboru danych uczcych, jako centrów. 34 Zastosowane rocesu samoorganzacj Zastosowane rocesu samoorganzacj w rzyadku danych uczcych rerezentujcych funkcj cgła: wstne wartoc centrów umeszcza s w unktach odowadajcych wartocom maksymalnym mnmalnym funkcj. Dane odowadajce tym centrom oraz ch najblszemu otoczenu s usuwane ze zboru, a ozostałe centra s lokowane równomerne w obszarze utworzonym rzez dane ozostajce w zborze. o zarezentowanu k-tego wzorca (k) ze zboru uczcego jest wyberane najblsze centrum, które nastne odlega aktualzacj: wsółczynnk uczena η(k) maleje w mar wzrostu k, n. (T - stała l. eok) η( k ) =η0 ( + k T ) kady wektor uczcy jest rezentowany klkunastokrotne, a do ustalena wartoc centrów. c ( k + ) = c ( k) + η( k)[( ( k) c ( k)] 35 Dobór arametru dysersj funkcj radalnych: Aby odwzorowane funkcj realzowane rzez sec radalne było stosunkowo gładke: ola rececyjne wszystkch funkcj radalnych ownny okrywa cały obszar danych wejcowych dwa ola mog okrywa s tylko w neznacznym stonu. Proonowane rozwzana za warto σ j j-tej funkcj radalnej rzyjmuje s odległo eukldesow centrum c j od jego najblszego ssada (tzn. nnego centrum) na warto σ j wływa odległo j-tego centrum od jego P najblszych ssadów (zwykle ne rzekracza trzech): P σ = c c j P k = j k 36