Konstrukcja biortogonalnych baz dyskryminacyjnych dla problemu klasyfikacji sygnałów. Wit Jakuczun



Podobne dokumenty
Lokalne klasyfikatory jako narzędzie analizy i

Lokalne klasyfikatory jako narzędzie analizy i klasyfikacji sygnałów. Wit Jakuczun

Metody probabilistyczne klasyfikatory bayesowskie

7. Maszyny wektorów podpierajacych SVMs

Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner

ALGORYTM RANDOM FOREST

Lokalne klasyfikatory jako narzędzie analizy i klasyfikacji sygnałów

2 1 3 c c1. e 1, e 2,..., e n A= e 1 e 2...e n [ ] M. Przybycień Matematyczne Metody Fizyki I

4. O funkcji uwikłanej 4.1. Twierdzenie. Niech będzie dana funkcja f klasy C 1 na otwartym podzbiorze. ϕ : K(x 0, δ) (y 0 η, y 0 + η), taka że

4.1. Wprowadzenie Podstawowe definicje Algorytm określania wartości parametrów w regresji logistycznej...74

Optymalizacja ciągła

Entropia Renyi ego, estymacja gęstości i klasyfikacja

STATYSTYKA. Rafał Kucharski. Uniwersytet Ekonomiczny w Katowicach 2015/16 ROND, Finanse i Rachunkowość, rok 2

Przykład eksploracji danych o naturze statystycznej Próba 1 wartości zmiennej losowej odległość

ESTYMACJA BŁĘDU PREDYKCJI I JEJ ZASTOSOWANIA

Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych

Iloczyn skalarny. Mirosław Sobolewski. Wydział Matematyki, Informatyki i Mechaniki UW. 10. wykład z algebry liniowej Warszawa, grudzień 2013

Elementy modelowania matematycznego

Oracle Data Mining 10g

Rozwiązania, seria 5.

Klasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne)

Kwantyzacja wektorowa. Kodowanie różnicowe.

Wykład 5. Ker(f) = {v V ; f(v) = 0}

PODYPLOMOWE STUDIA ZAAWANSOWANE METODY ANALIZY DANYCH I DATA MINING W BIZNESIE

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Stanisław Cichocki Natalia Nehrebecka. Wykład 7

Data Mining Wykład 6. Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa.


komputery? Andrzej Skowron, Hung Son Nguyen Instytut Matematyki, Wydział MIM, UW

Elementy statystyki wielowymiarowej

EGZAMIN MAGISTERSKI, Matematyka w ekonomii i ubezpieczeniach

PROGRAMOWANIE KWADRATOWE

Metody numeryczne. dr Artur Woike. Ćwiczenia nr 2. Rozwiązywanie równań nieliniowych metody połowienia, regula falsi i siecznych.

Wstęp do Modelu Standardowego

Zmiana baz. Jacek Jędrzejewski Macierz przejścia od bazy do bazy 2

UCZENIE MASZYNOWE III - SVM. mgr inż. Adam Kupryjanow

Wprowadzenie do teorii ekonometrii. Wykład 1 Warunkowa wartość oczekiwana i odwzorowanie liniowe

PODSTAWY STATYSTYCZNEGO MODELOWANIA DANYCH. Wykład 6 Drzewa klasyfikacyjne - wprowadzenie. Reguły podziału i reguły przycinania drzew.

Programowanie liniowe metoda sympleks

Własności statystyczne regresji liniowej. Wykład 4

Sieć przesyłająca żetony CP (counter propagation)

Testowanie modeli predykcyjnych

Metody teorii gier. ALP520 - Wykład z Algorytmów Probabilistycznych p.2

Teoretyczne podstawy programowania liniowego

Statystyczna analiza Danych

Teoria systemów uczacych się i wymiar Vapnika-Chervonenkisa

3 1 + i 1 i i 1 2i 2. Wyznaczyć macierze spełniające własność komutacji: [A, X] = B

Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę

Część 2. Teoretyczne i praktyczne aspekty wybranych metod analiz ilościowych w ekonomii i zarządzaniu

Metody iteracyjne rozwiązywania układów równań liniowych (5.3) Normy wektorów i macierzy (5.3.1) Niech. x i. i =1

Metody klasyfikacji danych - część 1 p.1/24

10. Metody obliczeniowe najmniejszych kwadratów

Prawdopodobieństwo i statystyka

Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1

Metody numeryczne I Równania nieliniowe

METODA SYMPLEKS. Maciej Patan. Instytut Sterowania i Systemów Informatycznych Uniwersytet Zielonogórski

Jakość uczenia i generalizacja

Baza w jądrze i baza obrazu ( )

Algorytmy klasyfikacji

Prawdopodobieństwo i statystyka

1. Zbadać liniową niezależność funkcji x, 1, x, x 2 w przestrzeni liniowej funkcji ciągłych na przedziale [ 1, ).

Wstęp do metod numerycznych Faktoryzacja QR i SVD. P. F. Góra

Przestrzeń unitarna. Jacek Kłopotowski. 23 października Katedra Matematyki i Ekonomii Matematycznej SGH

ELEMENTY ANALIZY NUMERYCZNEJ ELEMENTY ANALIZY NUMERYCZNEJ. Egzamin pisemny zestaw 1 26 czerwca 2017 roku

Układy liniowo niezależne

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Wprowadzenie do uczenia maszynowego

Prawdopodobieństwo i statystyka

Laboratorium 11. Regresja SVM.

Metody dekompozycji macierzy stosowane w automatyce

Programowanie liniowe metoda sympleks

WIELKA SGH-OWA POWTÓRKA ZE STATYSTYKI ESTYMACJA

Analiza metod wykrywania przekazów steganograficznych. Magdalena Pejas Wydział EiTI PW

SVM: Maszyny Wektorów Podpieraja cych

WYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska

Politechnika Warszawska Wydział Samochodów i Maszyn Roboczych Instytut Podstaw Budowy Maszyn Zakład Mechaniki

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

1 Przestrzeń liniowa. α 1 x α k x k = 0

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne

Zaawansowane metody numeryczne

Programowanie celowe #1

15. PODSUMOWANIE ZAJĘĆ

Programowanie liniowe metoda sympleks

Spam or Not Spam That is the question

Praca domowa - seria 6

Metody systemowe i decyzyjne w informatyce

Testowanie hipotez. 1 Testowanie hipotez na temat średniej

Algorytmy ewolucyjne optymalizacji wielokryterialnej sterowane preferencjami decydenta

Programowanie liniowe



Strefa pokrycia radiowego wokół stacji bazowych. Zasięg stacji bazowych Zazębianie się komórek

ALGEBRA Z GEOMETRIĄ LINIOWA NIEZALEŻNOŚĆ, ROZPINANIE I BAZY

Algorytm Grovera. Kwantowe przeszukiwanie zbiorów. Robert Nowotniak

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Metody scoringowe w regresji logistycznej

Wykład 4 Udowodnimy teraz, że jeśli U, W są podprzetrzeniami skończenie wymiarowej przestrzeni V to zachodzi wzór: dim(u + W ) = dim U + dim W dim(u

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład I dr inż. 2015/2016

Wybór modelu i ocena jakości klasyfikatora

Transkrypt:

Konstrukcja biortogonalnych baz dyskryminacyjnych dla problemu klasyfikacji sygnałów Politechnika Warszawska Strona 1

Podstawowe definicje Politechnika Warszawska Strona 2

Podstawowe definicje Zbiór treningowy Politechnika Warszawska Strona 2

Podstawowe definicje Zbiór treningowy zbiór X = {(x i, y i ): x i R d, y i { 1, +1}} l i=1 rozkładem prawdopodobieństwa D na R n { 1, +1} wylosowany niezależnie zgodnie z pewnym Politechnika Warszawska Strona 2

Podstawowe definicje Zbiór treningowy zbiór X = {(x i, y i ): x i R d, y i { 1, +1}} l i=1 rozkładem prawdopodobieństwa D na R n { 1, +1} Klasyfikator wylosowany niezależnie zgodnie z pewnym Politechnika Warszawska Strona 2

Podstawowe definicje Zbiór treningowy zbiór X = {(x i, y i ): x i R d, y i { 1, +1}} l i=1 rozkładem prawdopodobieństwa D na R n { 1, +1} Klasyfikator Dowolne odwzorowanie h: R n { 1, +1} wylosowany niezależnie zgodnie z pewnym Politechnika Warszawska Strona 2

Podstawowe definicje Zbiór treningowy zbiór X = {(x i, y i ): x i R d, y i { 1, +1}} l i=1 rozkładem prawdopodobieństwa D na R n { 1, +1} Klasyfikator Dowolne odwzorowanie h: R n { 1, +1} Bład na próbce wylosowany niezależnie zgodnie z pewnym Politechnika Warszawska Strona 2

Podstawowe definicje Zbiór treningowy zbiór X = {(x i, y i ): x i R d, y i { 1, +1}} l i=1 rozkładem prawdopodobieństwa D na R n { 1, +1} Klasyfikator Dowolne odwzorowanie h: R n { 1, +1} Bład na próbce err X (h) = {(x i,y i ): h(x i ) y i } X wylosowany niezależnie zgodnie z pewnym Politechnika Warszawska Strona 2

Podstawowe definicje Zbiór treningowy zbiór X = {(x i, y i ): x i R d, y i { 1, +1}} l i=1 rozkładem prawdopodobieństwa D na R n { 1, +1} Klasyfikator Dowolne odwzorowanie h: R n { 1, +1} Bład na próbce err X (h) = {(x i,y i ): h(x i ) y i } X Bład rzeczywisty wylosowany niezależnie zgodnie z pewnym Politechnika Warszawska Strona 2

Podstawowe definicje Zbiór treningowy zbiór X = {(x i, y i ): x i R d, y i { 1, +1}} l i=1 rozkładem prawdopodobieństwa D na R n { 1, +1} Klasyfikator Dowolne odwzorowanie h: R n { 1, +1} Bład na próbce err X (h) = {(x i,y i ): h(x i ) y i } X Bład rzeczywisty err D (h) = P D (h(x) y) wylosowany niezależnie zgodnie z pewnym Politechnika Warszawska Strona 2

Podstawowe definicje cd. Politechnika Warszawska Strona 3

Podstawowe definicje cd. Baza biortogonalna Politechnika Warszawska Strona 3

Podstawowe definicje cd. Baza biortogonalna zbiór d par wektorów z R d {(φ i, ψ i )} d i=1, takich że φ i, ψ k = δ i,k x = d x, ψ i φ i i=1 x R Politechnika Warszawska Strona 3

Sformułowanie problemu (baza dyskryminacyjna) Politechnika Warszawska Strona 4

Sformułowanie problemu (baza dyskryminacyjna) Dla danego zbioru treningowego X znaleźć taka bazę biortogonalna {(φ i, ψ i )} d i=1 przestrzeni Rn, że warunek Politechnika Warszawska Strona 4

Sformułowanie problemu (baza dyskryminacyjna) Dla danego zbioru treningowego X znaleźć taka bazę biortogonalna {(φ i, ψ i )} d i=1 przestrzeni Rn, że warunek y i ψ k, x i > 0 zachodzi dla jak największej liczby przykładów treningowych dla k = 1,..., d, i = 1,..., l Politechnika Warszawska Strona 4

Szukanie bazy dyskryminacyjnej Politechnika Warszawska Strona 5

Szukanie bazy dyskryminacyjnej Dowolna baza Politechnika Warszawska Strona 5

Szukanie bazy dyskryminacyjnej Dowolna baza NIEWYKONALNE Politechnika Warszawska Strona 5

Szukanie bazy dyskryminacyjnej Dowolna baza NIEWYKONALNE Baza ortogonalna Politechnika Warszawska Strona 5

Szukanie bazy dyskryminacyjnej Dowolna baza NIEWYKONALNE Baza ortogonalna proste, brak adaptacji, brak lokalności Politechnika Warszawska Strona 5

Szukanie bazy dyskryminacyjnej Dowolna baza NIEWYKONALNE Baza ortogonalna proste, brak adaptacji, brak lokalności Lifting scheme Politechnika Warszawska Strona 5

Szukanie bazy dyskryminacyjnej Dowolna baza NIEWYKONALNE Baza ortogonalna proste, brak adaptacji, brak lokalności Lifting scheme proste, mo żliwósć adaptacji, lokalność Politechnika Warszawska Strona 5

Lifting Scheme Politechnika Warszawska Strona 6

Lifting Scheme Split Politechnika Warszawska Strona 6

Lifting Scheme Split Rozbij wektor x R d na dwa wektory x e (współrzędne parzyste) oraz x o (współrzędne nieparzyste). Politechnika Warszawska Strona 6

Lifting Scheme Split Rozbij wektor x R d na dwa wektory x e (współrzędne parzyste) oraz x o (współrzędne nieparzyste). Update Politechnika Warszawska Strona 6

Lifting Scheme Split Rozbij wektor x R d na dwa wektory x e (współrzędne parzyste) oraz x o (współrzędne nieparzyste). Update Utwórz zgrubne przybliżenie c wektora x c i = xo i + x e i 2 = x(2i) + x(2i + 1) 2 Politechnika Warszawska Strona 6

Lifting Scheme Split Rozbij wektor x R d na dwa wektory x e (współrzędne parzyste) oraz x o (współrzędne nieparzyste). Update Utwórz zgrubne przybliżenie c wektora x c i = xo i + x e i 2 = x(2i) + x(2i + 1) 2 Predict Politechnika Warszawska Strona 6

Lifting Scheme Split Rozbij wektor x R d na dwa wektory x e (współrzędne parzyste) oraz x o (współrzędne nieparzyste). Update Utwórz zgrubne przybliżenie c wektora x c i = xo i + x e i 2 = x(2i) + x(2i + 1) 2 Predict Znajdź współczynniki d i według wzoru d i = x o i PREDICT(c, L) Politechnika Warszawska Strona 6

Lifting scheme c.d. X Update C Predict D Politechnika Warszawska Strona 7

Lifting scheme (predyktor liniowy) c(n) x(2n+1) c(n+1) α +1 β Σ d(n) Politechnika Warszawska Strona 8

Lifting scheme - własności Politechnika Warszawska Strona 9

Lifting scheme - własności Zalety Politechnika Warszawska Strona 9

Lifting scheme - własności Zalety wektory bazowe ψ i (analizujace) sa lokalne Politechnika Warszawska Strona 9

Lifting scheme - własności Zalety wektory bazowe ψ i (analizujace) sa lokalne działanie operatorów predykcji jest od siebie niezależne Politechnika Warszawska Strona 9

Lifting scheme - własności Zalety wektory bazowe ψ i (analizujace) sa lokalne działanie operatorów predykcji jest od siebie niezależne Wady Politechnika Warszawska Strona 9

Lifting scheme - własności Zalety wektory bazowe ψ i (analizujace) sa lokalne działanie operatorów predykcji jest od siebie niezależne Wady zależność kolejnych współrzędnych wektora x od ich sasiadów Politechnika Warszawska Strona 9

Lifting scheme - własności Zalety wektory bazowe ψ i (analizujace) sa lokalne działanie operatorów predykcji jest od siebie niezależne Wady zależność kolejnych współrzędnych wektora x od ich sasiadów tylko jeden sposób budowy bazy Politechnika Warszawska Strona 9

Metoda (krok 1) Politechnika Warszawska Strona 10

Metoda (krok 1) Współczynniki d i można wykorzystać do klasyfikacji pred(x) = sgn(d i b i ) Politechnika Warszawska Strona 10

Metoda (krok 1) Współczynniki d i można wykorzystać do klasyfikacji pred(x) = sgn(d i b i ) W przypadku liniowego operatora predykcji, współczynnik d i można zapisać następujaco d i = x e i c, p i Politechnika Warszawska Strona 10

Metoda (krok 2) Politechnika Warszawska Strona 11

Metoda (krok 2) Na podstawie zbioru treningowego X tworzymy nowy zbiór treningowy (oddzielnie dla każdego współczynnika d i ) X i = {( c k i, y k )} l k=1 Politechnika Warszawska Strona 11

Metoda (krok 2) Na podstawie zbioru treningowego X tworzymy nowy zbiór treningowy (oddzielnie dla każdego współczynnika d i ) X i = {( c k i, y k )} l k=1 Aby znaleźć współczynniki p i należy rozwiazać następujacy problem optymalizacyjny 1 min p i,b i,c i 2 p i 2 2 + C i l k=1 przy ograniczeniach y k (x k o,i + c k i, p i + bi ) 1 0 ξ k 0 ξ i k = 1,..., l Politechnika Warszawska Strona 11

Metoda (krok 3) Politechnika Warszawska Strona 12

Metoda (krok 3) Podobnie jak w przypadku Support Vector Machines (SVM) rozwiazanie jest dane wzorem p i = l y k α k c k i k=1 Politechnika Warszawska Strona 12

Metoda (krok 3) Podobnie jak w przypadku Support Vector Machines (SVM) rozwiazanie jest dane wzorem p i = l y k α k c k i k=1 Do wyliczania współczynników d k i nie trzeba znać wektora p i d k i = x k o,i + y j α c j j i, ck i j I SV Politechnika Warszawska Strona 12

Metoda (krok 3) Podobnie jak w przypadku Support Vector Machines (SVM) rozwiazanie jest dane wzorem p i = l y k α k c k i k=1 Do wyliczania współczynników d k i nie trzeba znać wektora p i d k i = x k o,i + j I SV y j α j c j i, ck i Można zastosować kernel trick d k i = x k o,i + j I SV y j α j K( c j i, ck i ) Politechnika Warszawska Strona 12

Oszacowanie wymiaru VC Wymiar VC dla tak konstruowanej przestrzeni hipotez można oszacować następujaco dim V C 6.065 d + 3 log 2 (d) gdzie d = argmax s S ( em s ) s Politechnika Warszawska Strona 13

Podsumowanie Politechnika Warszawska Strona 14

Podsumowanie Zalety Politechnika Warszawska Strona 14

Podsumowanie Zalety Naturalna równoległość Politechnika Warszawska Strona 14

Podsumowanie Zalety Naturalna równoległość Łatwość interpretacji (lokalność funkcji bazowych) Politechnika Warszawska Strona 14

Podsumowanie Zalety Naturalna równoległość Łatwość interpretacji (lokalność funkcji bazowych) Wysoka jakość Politechnika Warszawska Strona 14

Podsumowanie Zalety Naturalna równoległość Łatwość interpretacji (lokalność funkcji bazowych) Wysoka jakość Wady Politechnika Warszawska Strona 14

Podsumowanie Zalety Naturalna równoległość Łatwość interpretacji (lokalność funkcji bazowych) Wysoka jakość Wady duża liczba parametrów sterujacych Politechnika Warszawska Strona 14

Podsumowanie Zalety Naturalna równoległość Łatwość interpretacji (lokalność funkcji bazowych) Wysoka jakość Wady duża liczba parametrów sterujacych ograniczenie do dwóch klas decyzyjnych Politechnika Warszawska Strona 14

Podsumowanie Zalety Naturalna równoległość Łatwość interpretacji (lokalność funkcji bazowych) Wysoka jakość Wady duża liczba parametrów sterujacych ograniczenie do dwóch klas decyzyjnych ograniczenie do klasyfikacji sygnałów Politechnika Warszawska Strona 14

Wyniki Dane Bład klasyfikacji Rozmiar drzewa Oryginalne Nowe Oryginalne Nowe Twonorm 0.215 0.015 35 3 Ringnorm 0.150 0.048 23 13 Threenorm 0.302 0.216 51 29 Waveform 0.290 0.183 - - Shape 0.088 0.062 - - Table 1: Klasyfikator C4.5 Politechnika Warszawska Strona 15

Wyniki c.d Dane Bład klasyfikacji 3 współczynniki 15 współczynników Twonorm 0.007 0.007 Ringnorm 0.070 0.047 Threenorm 0.170 0.187 Waveform 0.211 0.178 Shape 0.025 0.018 Table 2: Głosowanie 3 i 15 współczynników Politechnika Warszawska Strona 16