Algorytmy uczące się

Podobne dokumenty
Algorytmy uczące się

Machine learning Lecture 2

Uczenie maszynowe w zastosowaniu do fizyki cząstek

Wprowadzenie do statystyki oraz analizy danych

Wprowadzenie do statystyki oraz analizy danych

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Wprowadzenie do statystyki oraz analizy danych

Machine learning Lecture 6

Elementy modelowania matematycznego

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Machine learning Lecture 5


Optymalizacja kryteriów selekcji dla rozpadu Λ+c pμ+μza pomocą wielowymiarowej analizy danych

ALGORYTM RANDOM FOREST

Drzewa decyzyjne i lasy losowe

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Stan dotychczasowy. OCENA KLASYFIKACJI w diagnostyce. Metody 6/10/2013. Weryfikacja. Testowanie skuteczności metody uczenia Weryfikacja prosta

Aproksymacja funkcji a regresja symboliczna

Agnieszka Nowak Brzezińska Wykład III

Agnieszka Nowak Brzezińska Wykład III

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

8. Drzewa decyzyjne, bagging, boosting i lasy losowe

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

KLASYFIKACJA. Słownik języka polskiego

1 Klasyfikator bayesowski

Metody systemowe i decyzyjne w informatyce

SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006

Machine learning Lecture 3

Metody klasyfikacji i rozpoznawania wzorców. Najważniejsze rodzaje klasyfikatorów

Podstawy opracowania wyników pomiarów z elementami analizy niepewności statystycznych

Pakiet ROOT. prosty generator Monte Carlo. Maciej Trzebiński. Instytut Fizyki Jądrowej Polskiej Akademii Nauki

ANALIZA SEMANTYCZNA OBRAZU I DŹWIĘKU

Metody klasyfikacji danych - część 1 p.1/24

Kombinacja jądrowych estymatorów gęstości w klasyfikacji - zastosowanie na sztucznym zbiorze danych

Metoda największej wiarygodności

Data Mining Wykład 6. Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa.

Wprowadzenie do statystyki oraz analizy danych

w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych.

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

WSKAZÓWKI DO WYKONANIA SPRAWOZDANIA Z WYRÓWNAWCZYCH ZAJĘĆ LABORATORYJNYCH

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Temat: Sieci neuronowe oraz technologia CUDA

Algorytmy metaheurystyczne Wykład 11. Piotr Syga

Statystyczne Metody Opracowania Wyników Pomiarów

Sieć przesyłająca żetony CP (counter propagation)

5. Analiza dyskryminacyjna: FLD, LDA, QDA

Β2 - DETEKTOR SCYNTYLACYJNY POZYCYJNIE CZUŁY

Algorytmy klasyfikacji

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

Systemy uczące się Lab 4

Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Podstawowe modele probabilistyczne

4.1. Wprowadzenie Podstawowe definicje Algorytm określania wartości parametrów w regresji logistycznej...74

Metody Sztucznej Inteligencji II

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16

SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

WYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska

Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

Ważne rozkłady i twierdzenia c.d.

1.7. Eksploracja danych: pogłębianie, przeszukiwanie i wyławianie

Algorytmy, które estymują wprost rozkłady czy też mapowania z nazywamy algorytmami dyskryminacyjnymi.

Metody probabilistyczne klasyfikatory bayesowskie

Wstęp do sieci neuronowych, wykład 13-14, Walidacja jakości uczenia. Metody statystyczne.

Poszukiwanie gwiazd zmiennych w eksperymencie Pi of the Sky

Komputerowa analiza danych doświadczalnych

Rozkłady wielu zmiennych

Metoda największej wiarygodności

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

komputery? Andrzej Skowron, Hung Son Nguyen Instytut Matematyki, Wydział MIM, UW

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty

Wprowadzenie. Metody bayesowskie Drzewa klasyfikacyjne i lasy losowe Sieci neuronowe SVM. Klasyfikacja. Wstęp

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

PODSTAWY OPRACOWANIA WYNIKÓW POMIARÓW Z ELEMENTAMI ANALIZY NIEPEWNOŚCI POMIAROWYCH

Optymalizacja ciągła

Klasyfikacja LDA + walidacja

Modele DSGE. Jerzy Mycielski. Maj Jerzy Mycielski () Modele DSGE Maj / 11

SZTUCZNA INTELIGENCJA

Optymalizacja optymalizacji

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań

8. Neuron z ciągłą funkcją aktywacji.

Agnieszka Nowak Brzezińska

Inteligentna analiza danych

Jądrowe klasyfikatory liniowe

Rozpoznawanie obrazów

Komputerowa Analiza Danych Doświadczalnych

Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Fuzja sygnałów i filtry bayesowskie

MATLAB Neural Network Toolbox przegląd

KATEDRA SYSTEMÓW MULTIMEDIALNYCH. Inteligentne systemy decyzyjne. Ćwiczenie nr 12:

PODYPLOMOWE STUDIA ZAAWANSOWANE METODY ANALIZY DANYCH I DATA MINING W BIZNESIE

LABORATORIUM Z FIZYKI

UCZENIE MASZYNOWE III - SVM. mgr inż. Adam Kupryjanow

Uczenie sieci typu MLP

1 Podstawy rachunku prawdopodobieństwa

Sieci neuronowe w Statistica

Transkrypt:

Algorytmy uczące się w fizyce cząstek i nie tylko Marcin Wolter Instytut Fizyki Jądrowej PAN, Kraków Seminarium 7 grudnia 2012, Warszawa Jest to temat mojej rozprawy habilitacyjnej 1

Algorytmy uczące się, algorytmy wielu zmiennych Dlaczego uczące się? Bo chcemy, aby algorytm sam nauczył się na przykładach. Bo nie znamy zależności funkcyjnych pomiędzy zmiennymi ale dodana informacja pod postacią zależności funkcyjnych poprawia skuteczność algorytmu. Dlaczego wielu zmiennych? Bo chcemy optymalnie wykorzystać całą dostępną informację. Rozkłady prawdopodobieństwa wielu zmiennych zawierają więcej informacji niż rozkłady dla każdej zmiennej z osobna. Do czego można stosować? Klasyfikacja (np. sygnał i tło), Regresja aproksymacja funkcji ciągłej, Inne, jak selekcja zmiennych, aproksymacja prawdopodobieństwa... W jakich dziedzinach można stosować? W wielu: fizyka, chemia, meteorologia, finanse, rozpoznawanie obrazów, analiza tekstów... 2

Rodzaje algorytmów czyli jak spożytkować dostępną informację? x2 Klasyfikacja: znalezienie funkcji f(x1,x2) zwracającej prawdopodobieństwo, że dany punkt należy do danej klasy (np. klasy,,sygnał''). H1 H0 x1 Regresja: dopasowanie ciągłej funkcji (np. rekonstrukcja energii cząstki na podstawie wskazań kilku detektorów). 3

Kilka popularnych metod Metody liniowe Cięcia Dyskryminanty Fishera Metody nieliniowe Wzmocnione drzewa decyzyjne (Boosted Decision Trees), Maszyny wektorów wspierających (Support Vector Machines). I wiele innych... Naiwny klasyfikator bayesowski, Estymatory gęstości prawdopodobieństwa, (Probability Density Estimator), Metoda najbliższych sąsiadów, analiza składowych, niezależnych (Independant Component Analysis) analiza składowych głównych. PDE_RS (Probability Density Dlaczego jest ich tak dużo??? Estimator with Range Searches), Czym się różnią i do czego służą? Sieci neuronowe, Bayesowskie sieci neuronowe, Czy naprawdę potrzebujemy ich wszystkich? 4

Jak wytrenować algorytm? Uczenie z nauczycielem Potrzebne są dane treningowe, dla Dzielimy ten zbiór danych na dwie których znamy poprawną odpowiedź, części jedną używamy do np. czy jest to sygnał czy tło (np. treningu, drugą do sprawdzenia z symulacji komputerowej). jego wyników. Dlaczego zbiór treningowy i testowy? Chcemy sprawdzić,czy wynik uczenia jest zbliżony dla zbioru użytego do treningu i drugiego, niezależnego statystycznie. Istotne w przypadku przetrenowania (o tym za chwilę). 5

Klasyfikacja znalezienie funkcji f(x) F (F-klasa funkcji) najlepiej opisującej prawdopodobieństwo, że dany przypadek jest sygnałem. Problem minimalizacji funkcji straty (np. χ2 = (f ( x) y true )2, gdzie y true=±1 ). W granicy N funkcja f(x) będzie prawdziwym rozkładem prawdopodobieństwa. Poszczególne algorytmy różnią się: klasą funkcji F (np. liniowe, nieliniowe), funkcją straty, sposobem jej minimalizacji. Cięcia Klasyfikator liniowy Klasyfikator nieliniowy Klasyfikator Fishera Sieć neuronowa 6

Przetrenowanie Przetrenowanie algorytm uczy się poszczególnych przypadków, a nie ogólnych zasad. Efekt występuje we wszystkich metodach uczących się. Remedium kontrola z użyciem dodatkowego zbioru danych. Poprawnie zbiór treningowy zbiór testowy STOP testowy treningowy Przetrenowanie Przykład z użyciem sieci neuronowej. 7

Naiwny klasyfikator bayesowski Dane Klasyfikator Nazywany także metodą rzutowanych prawdopodobieństw,,,projected likelihood''. Rzut na oś X Rzut na oś Y Oparty na założeniu o wzajemnej niezależności zmiennych (dlatego,,naiwny''): Wynikowe prawdopodobieństwo, że sygnał (tło) jest iloczynem prawdopodobieństw dla poszczególnych zmiennych. Szybki i stabilny, w wielu przypadkach dobrze sprawdza się przy klasyfikacji danych. 8

Jądrowe estymatory gęstości Aproksymacja nieznanego rozkładu prawdopodobieństwa jako sumy funkcji jądrowych (kernel) umieszczonych w punktach xn zbioru treningowego (Parzen, lata 1960-te). P (S) D (x)= P (S)+ P( B) Typowe funkcje jądrowe: Gauss, 1/xn itp. Proste pojęciowo, ale użycie tej metody wymaga dużo czasu procesora i pamięci. Pakiet QUAERO, eksperyment D0. D0 Collaboration, V. M. Abazov i inni, Search for new physics using QUAERO: A general interface to DØ event data, Phys. Rev. Lett. 87 (2001) 231801, 9

Jak przyspieszyć? Metoda PDE_RS PDE_RS - Probability Density Estimation with Range Searches. Zlicz przypadki sygnału (ns) i tła (nb) w N-wymiarowej kostce wokół klasyfikowanego, nowego przypadku potrzeba tylko kilku przypadków z całego zbioru treningowego. Rozmiar hiperkostki podlega optymalizacji (parametr metody). Dyskryminator D(x) dany jest jako: D (x)= n S ns + nb Przypadki zapisane w drzewie binarnym szybciej znajdywane są sąsiednie przypadki. Opublikowana przez T. Carli, B. Koblitz, NIM A 501 (2003) 576-588, używana np. przez eksperyment HERA Dalsze usprawnienie: podzielić przestrzeń tak, aby rozmiar poszczególnych obszarów odzwierciedlał gęstość przypadków - algorytm FOAM prof. Stanisława Jadacha. 10

Sieci neuronowe θi x1 x2 wij θ Każdy węzeł: na wyjściu uzyskujemy sumę wejść z wagami transformowaną przez funkcję aktywacji. Wyjście Jak wytrenować sieć wielowarstwową? Jak dopasować wagi w warstwach ukrytych? Ten problem wi wstrzymywał rozwój algorytmów sieci neuronowych Wejście przez prawie 30 lat. Warstwy ukryte Rozwiązanie propagacja do 2 ai = wij x j + θ i f (ai ) tyłu (backpropagation). j =1 5 Różnica między wartością n( x, w) = f ( wi f (ai ) + θ ) oczekiwaną a otrzymaną na i =1 wyjściu y-f(x,w) jest propagowana wstecznie przez Funkcja sieć używając aktualnych wag aktywacji ( rewolucja lat '80). Funkcja aktywacji 11

System wstępnej selekcji przypadków (trigger) w eksperymencie H1 (1996 r) Wytrenowana sieć neuronowa jest szybka nadaje się do sytemu triggera. W drugim stopniu selekcji (L2) sprzętowa implementacja sieci neuronowej. Implementacja na równoległych procesorach (CNAPS z Adaptive Solutions). Czas decyzji (L1 hardware 2.3 µs, L2 sieć neuronowa - 20 µs, L3 mikroprocesory - 800 µs). J. K. Kohne i inni, Realization of a second level neural network trigger for the H1 experiment at HERA, Nucl. Instrum. Meth. A389 (1997) 12

Zastosowanie sieci neuronowych do selekcji sygnału w poszukiwaniach naładowanego bozonu Higgsa w eksperymencie ATLAS 06 Dec 2012 13

Sieci neuronowe aproksymujące funkcje struktury protonu Inkluzywny przekrój czynny na rozpraszanie elektronów na protonie można przedstawić za pomocą funkcji struktury F1(x,Q2) i F2(x,Q2), gdzie x ułamek pędu niesiony przez parton, Q2 przekaz czteropędu. Funkcje struktury mierzone są w szeregu eksperymentów, w różnych zakresach kinematycznych. Zestawiając dostępne dane i dopasowując do nich funkcje uzyskamy sparametryzowane funkcje struktury. Kolaboracja NNPDF używa sieci neuronowych do aproksymacji rozkładu funkcji struktury (lub rozkładu partonów w protonie): nieobciążony estymator (nie wybieramy funkcji aproksymującej), nie histogramujemy przypadków (lepsze wykorzystanie informacji). 14

NNPDF -aproksymacja funkcji struktury Stworzenie wielu replik danych Wszystkie dane eksperymentalne są użyte do wygenerowania pseudo-danych. Reprodukcja średnich, błędów, korelacji. DANE Stworzenie rozkładów gęstości prawdopodobieństwa partonów Dopasowanie sieci neuronowych, po jednej dla każdej repliki. Wiarygodność statystyczna Zestaw wytrenowanych sieci neuronowych jest używany do reprodukowania obserwabli, włączając w to błędy oraz korelacje. Uwaga: Wynik uzyskujemy z wielu sieci neuronowych estymacja błędu. Wytrenowane sieci neuronowe 15

Uczenie maszynowe a bayesowskie Uczenie maszynowe Uczymy algorytm zależności y = f(x) podając dane treningowe T = (x, y) = (x,y)1, (x,y)2, (x,y)n oraz więzy dotyczące klasy funkcji. Uczenie bayesowskie Dla każdej funkcji f(x) z przestrzeni funkcji F znajdujemy prawdopodobieństwo a posteriori p(f T) używając zbioru treningowego T= (x, y). W uczeniu bayesowskim NIE ZNAJDUJEMY jednej, najlepszej funkcji, ale używamy wielu funkcji ważonych ich prawdopodobieństwem. Prawdopodobieństwo a posteriori - prawdopodobieństwo obliczane na podstawie wyników doświadczenia. Zbiór treningowy T = (x, y): zbiór wektorów wejściowych x oraz odpowiedzi y. 16

Uczenie maszynowe a bayesowskie Maksimum p(w) p(w) p(w) Wybrana wartość W p(w) p(w) p(w) Uczenie maszynowe Uczenie bayesowskie Wybieramy jedną funkcję (lub wartość parametru opisującego funkcję). Każda funkcja (lub wartość parametru) ma przypisane prawdopodobieństwo (wagę). 17

Implementacja: bayesowskie sieci neuronowe Zamiast wybierać pojedynczy zestaw wag opisujących sieć neuronową znajdźmy gęstość prawdopodobieństwa dla całej przestrzeni wag. Użyjmy zamiast jednej wiele sieci neuronowych. Mając wiele sieci możemy uzyskać średnią ważoną lub maksymalnie prawdopodobną sieć, a także błąd estymacji. C.M. Bishop Neural Networks for Pattern Recognition, Oxford 1995 X NN1 y1 NN2 y2 NN3 y3 NNM ym y = a i y i ( x ) i Darmowe oprogramowanie (używane np. przez kolaborację D0): Radford Neal, http://www.cs.toronto.edu/~radford/fbm.software.html 18

Przykład BNN Jak bayesowska sieć o 8 węzłach działa przy różnej ilości danych? 2 Dane generowane za pomocą funkcji: y=0.3+0.4 x +0.5 sin (2.7x)+1.1 /(1+ x ) z gaussowskim szumem o odchyleniu standardowym 0.1 400 sieci neuronowych, z rozkładu odpowiedzi sieci wyznaczamy medianę oraz 10% Qnt i 90% Qnt (10% sieci dało odpowiedź o wartości poniżej dolnej niebieskiej linii oraz 10% powyżej górnej niebieskiej linii). Gdy użyliśmy zbioru treningowego tylko o 10 punktach błędy bardzo wzrosły (czyli tak jak powinny). 19

Przykład poszukiwanie pojedynczego kwarku top w eksperymencie D0 Zbliżona dokładność BDT i BNN Analiza z użyciem: wzmocnionych drzew decyzyjnych (BDT) oraz bayesowskich sieci neuronowych D0 Collaboration, PRD 78 012005, 2008 20

Drzewa decyzyjne Drzewo decyzyjne sekwencja cięć, do każdego liścia przypisujemy klasę (np.,,sygnał lub,,tło ) Bardzo proste i szybkie, ale niestabilne i czułe na małe zmiany w danych. Rozwiązanie: Uczenie zespołowe (wzmacnianie) boosting, bagging, random forests... Te procedury można stosować do różnych klasyfikatorów, nie tylko drzew! 21

Wzmocnione drzewa decyzyjne - AdaBoost Problem: Czy potrafimy wzmocnić słaby klasyfikator? Odpowiedź: Tak, stosując go wiele razy. Zbuduj drzewo decyzyjne. Zwiększ wagi źle sklasyfikowanych przypadków. Powtarzaj wiele razy tworząc wiele drzew. Najpopularniejszy algorytm: AdaBoost (Freund & Schapire 1996 Klasyfikuj przypadki drogą głosowania nagroda Gödel'a) przez wszystkie drzewa. 22

Wzmacnianie klasyfikatora Boosting, bagging w,,magiczny'' sposób otrzymujemy silny klasyfikator ze słabego. Przeważnie używane do wzmacniania drzew decyzyjnych Boosted Decision Trees BDT. Dobre wyniki bez pracochłonnego dopasowywania parametrów: the best out-of-box classification algorithm. Stosunkowo odporny na przeuczenie. Obecnie bardzo modny i często stosowany. I to z dobrymi skutkami! Naiwny klasyfikator bayesowski Wzmocniony klasyfikator bayesowski Zastosowanie algorytmu wzmacniania (5 iteracji) do naiwnego klasyfikatora bayesowskiego. 23

Przetrenowanie wzmocnionego drzewa decyzyjnego (BDT) 20 iteracji 50 iteracji Algorytm wzmacniania zastosowany do drzew decyzyjnych z jednym rozgałęzieniem. Na koniec dzieli przestrzeń na zbyt drobne obszary przetrenowanie. 80 iteracji 320 iteracji 24

Identyfikacja hadronowych rozpadów leptonów tau w eksperymencie ATLAS Szereg zmiennych identyfikujących, żadna z nich pojedynczo nie daje dobrej identyfikacji. Użycie metod wielu zmiennych zwiększa skuteczność identyfikacji. 25

Uczenie bez nauczyciela Dotychczasowe przykłady uczenie z nauczycielem. Uczenia bez nauczyciela - odpowiedź nie jest znana. Algorytm musi sam znaleźć zależności pomiędzy danymi i odpowiednio je pogrupować. Wytrenowany odzwierciedla statystyczną strukturę danych. Przykładowe algorytmy: Sieć Kohonena Self Organizing Maps Analiza składowych niezależnych - Independent Component Analysis (ICA) 26

Analiza składowych niezależnych Independent Component Analysis ICA Opracowana na Helsinki University of Technology http://www.cis.hut.fi/projects/ica/ Problem: Załóżmy, że zarejestrowany sygnał X jest liniową kombinacją X = AS niezależnych źródeł S. Zarówno macierz mieszania A oraz S są nieznane. Zadanie: znaleźć macierz T odwrotną do A, taką że elementy wektora U = TX są statystycznie niezależne. T jest macierzą odzyskującą pierwotne sygnały. Zastosowania: Filtrowanie jednego źródła dźwięku z szeregu innych, Separacja sygnałów w telekomunikacji, Separacja sygnałów z mózgu od szumu, separacja sygnałów z różnych obszarów mózgu, Separacja różnych źródeł sygnału w astrofizyce, Dekompozycja sygnałów w monitoringu wiązki akceleratora w FERMILAB. 27

Sygnały Gęstości Jak działa ICA? Mamy dwa zmierzone sygnały (chcemy je rozseparować na dwa niezależne źródła). Sygnały Gęstości Przygotowanie danych dekorelacja (współczynniki korelacji równe zero, σ=1). Złożenie wielu niezależnych rozkładów daje w granicy rozkład Gaussa. Sygnały po dekorelacji Sygnały Gęstości ICA obrót, sygnały powinny mieć rozkłady jak najbardziej niegaussowskie (miara niegaussowskiego kształtu - kurtoza). Kurtoza: Rozseparowane sygnały gdzie μ jest średnią rozkładu, a σ odchyleniem standardowym. 28

ICA badania mózgu, separacja sygnałów Dekompozycja za pomocą ICA 3 składowe z 21-wymiarowej dekompozycji za pomocą algorytmu,,spatial-ica''. PNAS February 21, 2012 vol. 109no. 8 3131-3136 29

ICA a rezonans magnetyczny Źródła sygnału Pomiary Blind Source Separation in Magnetic Resonance Images January 30, 2010 by Shubhendu Trivedi Rozseparowane składowe 30

ICA astronomia Trzy obrazy mgławicy NGC 7023 uzyskane z trzema różnymi filtrami. A&A 479, L41-L44 (2008) DOI: 10.1051/0004-6361:20079158 Rozproszone światło (u góry) oraz obraz ERE (Extended Red Emission u dołu) uzyskane za pomocą algorytmu FastICA z trzech obrazów źródłowych. 31

Uwagi końcowe Analiza wielowymiarowa jest pomocna, jeśli chcemy uzyskać z danych jak najwięcej informacji. Rev. Thomas Bayes (1702-1761) W każdym przypadku klasyfikacji staramy się rozwiązać ten sam problem: Znaleźć dobrą i praktyczną (!), aproksymację bayesowskiej funkcji decyzyjnej (Bayes Discriminant Function BDF) idealnej funkcji klasyfikującej, danej przez (nieznane) gęstości prawdopodobieństwa sygnału i tła. Wszystkie omówione metody są różnymi algorytmami aproksymującymi tę funkcję. Oznacza to, że jeżeli metoda daje wynik zbliżony do limitu Bayesa, to nie jest możliwe poprawienie wyniku, nawet poprzez stosowanie najbardziej wymyślnej metody klasyfikacji. Po latach prób widać, że nie istnieje jeden, uniwersalny i najlepszy algorytm analizy wielowymiarowej. Należy być sceptycznym wobec tych, którzy twierdzą inaczej! Należy starać się znaleźć metodę najlepiej pasującą do naszego problemu. 32

REKLAMA: Pakiet TMVA TMVA (Toolkit for MultiVariate Analysis) - zintegrowany z pakietem ROOT. Andreas Höcker, Helge Voss, Kai Voss, Joerg Stelzer et. al. http://tmva.sourceforge.net Marcin Wolter, Andrzej Zemla (IFJ PAN Krakow) Zawiera implementacje wielu metod wykorzystywanych do separacji danych. Optymalizacja cięć (rectangular cut optimisation) Metoda największej wiarygodności (Likelihood estimator) Wielowymiarowa metoda największej wiarygodności (PDE-RS) Dyskryminanty Fishera Sieci neuronowe Drzewa decyzyjne (Boosted/Bagged Decision Trees) 33

Deser Cocktail Party Demo - applet pokazujący działanie algorytmu analizy składowych niezależnych na przykładzie problemu,,przyjęcia cocktailowego''. http://research.ics.aalto.fi/ica/cocktail/cocktail_en.cgi 34

Ciekawe applety demonstracyjne Cocktail Party Demo Support Vector Machine LocBoost Applet AdaBoost applet Neural Network applets 35