10. Redukcja wymiaru - metoda PCA

Podobne dokumenty
5. Analiza dyskryminacyjna: FLD, LDA, QDA

7. Maszyny wektorów podpierajacych SVMs

Algorytmy rozpoznawania obrazów. 11. Analiza skupień. dr inż. Urszula Libal. Politechnika Wrocławska

Prawdopodobieństwo i statystyka

Statystyka i eksploracja danych

8. Drzewa decyzyjne, bagging, boosting i lasy losowe

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

2. Empiryczna wersja klasyfikatora bayesowskiego

Stosowana Analiza Regresji

Analiza składowych głównych

Analiza głównych składowych- redukcja wymiaru, wykł. 12

METODY CHEMOMETRYCZNE W IDENTYFIKACJI ŹRÓDEŁ POCHODZENIA

SPOTKANIE 9: Metody redukcji wymiarów

Analiza składowych głównych. Wprowadzenie

Monitorowanie i Diagnostyka w Systemach Sterowania na studiach II stopnia specjalności: Systemy Sterowania i Podejmowania Decyzji

Elementy statystyki wielowymiarowej

Robert Susmaga. Instytut Informatyki ul. Piotrowo 2 Poznań

Geometria Lista 0 Zadanie 1

TRANSFORMACJE I JAKOŚĆ DANYCH

Metody systemowe i decyzyjne w informatyce

Eksploracyjna analiza danych. Metody rzutowania: analiza składowych głównych oraz skalowanie wielowymiarowe.

Transformaty. Kodowanie transformujace

Rozglądanie się w przestrzeni Iris czyli kręcenie (głową/płaszczyzną) w czterech wymiarach

ANALIZA SEMANTYCZNA OBRAZU I DŹWIĘKU

SPOTKANIE 7: Redukcja wymiarów: PCA, Probabilistic PCA

CMAES. Zapis algorytmu. Generacja populacji oraz selekcja Populacja q i (t) w kroku t generowana jest w następujący sposób:

ANALIZA CZYNNIKOWA Przykład 1

Analiza danych. TEMATYKA PRZEDMIOTU

Analiza korespondencji

9. Praktyczna ocena jakości klasyfikacji

Algebra Liniowa 2 (INF, TIN), MAP1152 Lista zadań

Maszyny wektorów podpierajacych w regresji rangowej

Kodowanie transformacyjne. Plan 1. Zasada 2. Rodzaje transformacji 3. Standard JPEG

Postać Jordana macierzy

Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner

Wprowadzenie (1) Przedmiotem analizy czynnikowej jest badanie wewnętrznych zależności w zbiorze zmiennych. Jest to modelowanie niejawne. Oprócz zmienn

CELE ANALIZY CZYNNIKOWEJ

Metody reprezentacji danych w podprzestrzeniach liniowych oraz ich zastosowanie w zadaniach rozpoznawania obrazów twarzy

Rozpoznawanie twarzy za pomocą sieci neuronowych

Przekształcenie Fouriera obrazów FFT

SIMR 2016/2017, Analiza 2, wykład 1, Przestrzeń wektorowa

WYDZIAŁ MATEMATYKI KARTA PRZEDMIOTU

Robert Susmaga. Instytut Informatyki ul. Piotrowo 2 Poznań

Zmienne zależne i niezależne

Przetwarzanie i transmisja danych multimedialnych. Wykład 7 Transformaty i kodowanie. Przemysław Sękalski.

Pattern Classification

Ważne rozkłady i twierdzenia c.d.

Ćwiczenie 6. Transformacje skali szarości obrazów

Prawdopodobieństwo i statystyka

Kompresja danych Streszczenie Studia Dzienne Wykład 10,

Data Mining Wykład 9. Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster. Plan wykładu. Sformułowanie problemu

Hybrydowa analiza transformat w rozpoznawaniu wysokości dźwięków w polifonicznych nagraniach instrumentów muzycznych

Badania asocjacyjne w skali genomu (GWAS)

Rozkłady wielu zmiennych

Procesy stochastyczne

PDF created with FinePrint pdffactory Pro trial version

Macierze. Rozdział Działania na macierzach

10. Metody obliczeniowe najmniejszych kwadratów

= i Ponieważ pierwiastkami stopnia 3 z 1 są (jak łatwo wyliczyć) liczby 1, 1+i 3

Kalibracja kamery. Kalibracja kamery

φ(x 1,..., x n ) = a i x 2 i +

Analiza składowych głównych idea

Zadania egzaminacyjne

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

Sterowanie procesem i jego zdolność. Zbigniew Wiśniewski

Procesy stochastyczne

1 Klasyfikator bayesowski

4.1. Wprowadzenie Podstawowe definicje Algorytm określania wartości parametrów w regresji logistycznej...74

WAE Jarosław Arabas Adaptacja i samoczynna adaptacja parametrów AE Algorytm CMA-ES

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład I dr inż. 2015/2016

Przekształcanie równań stanu do postaci kanonicznej diagonalnej

Ekonometria. Modele regresji wielorakiej - dobór zmiennych, szacowanie. Paweł Cibis pawel@cibis.pl. 1 kwietnia 2007

WEKTORY I WARTOŚCI WŁASNE MACIERZY. = λ c (*) problem przybliżonego rozwiązania zagadnienia własnego dla operatorów w mechanice kwantowej

Identyfikacja twarzy z wykorzystaniem Sztucznych Sieci Neuronowych oraz PCA

Rozpoznawanie obiektów na podstawie zredukowanego zbioru cech. Piotr Porwik Uniwersytet Śląski w Katowicach

3 1 + i 1 i i 1 2i 2. Wyznaczyć macierze spełniające własność komutacji: [A, X] = B

Co to jest wektor? Jest to obiekt posiadający: moduł (długość), kierunek wraz ze zwrotem.

Regresyjne metody łączenia klasyfikatorów

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski

Idea. Analiza składowych głównych Analiza czynnikowa Skalowanie wielowymiarowe Analiza korespondencji Wykresy obrazkowe.

Przegląd metod optymalizacji wielowymiarowej. Funkcja testowa. Funkcja testowa. Notes. Notes. Notes. Notes. Tomasz M. Gwizdałła

PODSTAWY AUTOMATYKI. MATLAB - komputerowe środowisko obliczeń naukowoinżynierskich - podstawowe operacje na liczbach i macierzach.

Rozwiązania, seria 5.

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Wykład 10 Skalowanie wielowymiarowe

Rozpoznawanie wzorców. Dr inż. Michał Bereta p. 144 / 10, Instytut Informatyki

L.Kowalski zadania z rachunku prawdopodobieństwa-zestaw 4 ZADANIA - ZESTAW 4

ANALIZA KURSÓW AKCJI Z WYKORZYSTANIEM METODY ICA

RAPORT Z PIERWSZEGO ETAPU REALIZACJI PROJEKTU POLONIUM

Hierarchiczna analiza skupień

Zaawansowane metody numeryczne

Przykładowa analiza danych

Podstawowe modele probabilistyczne

Idea. Analiza składowych głównych Analiza czynnikowa Skalowanie wielowymiarowe Analiza korespondencji Wykresy obrazkowe.

P R Z E T W A R Z A N I E S Y G N A Ł Ó W B I O M E T R Y C Z N Y C H

1 Grupa SU(3) i klasyfikacja cząstek

Klasyfikacja w oparciu o metrykę budowaną poprzez dystrybuanty empiryczne na przestrzeni wzorców uczących

Metody dekompozycji macierzy stosowane w automatyce

Przedmiot statystyki. Graficzne przedstawienie danych. Wykład Przedmiot statystyki

Transkrypt:

Algorytmy rozpoznawania obrazów 10. Redukcja wymiaru - metoda PCA dr inż. Urszula Libal Politechnika Wrocławska 2015 1

1. PCA Analiza składowych głównych: w skrócie nazywana PCA (od ang. Principle Component Analysis) znana także transformacją Karhunena-Loeve go (KLT). Polega na wybraniu k ortogonalnych n-wymiarowych wektorów, które najlepiej reprezentują dane, k n. Oryginalne dane są rzutowane na przestrzeń rozpiętą przez k wybranych wektorów (składowe główne), co prowadzi do redukcji wymiaru wektorów cech (z n do k). 2

2. PCA w kilku krokach 1. Unormowanie cech 2. Obliczenie składowych głównych 3. Sortowanie składowych głównych od najmocniejszych do najsłabszych 4. Wybranie k znaczących składowych głównych i usunięcie pozostałych 3

2.1. Unormowanie Dane wejściowe (wektory cech) są unormowane, aby każda cecha wpadała do tego samego przedziału. Krok ten pomaga w zapewnieniu, że cechy szerzej rozłożone nie zdominują cech mocniej skoncentrowanych. 4

2.2. Obliczenie składowych głównych Następnie wylicza się k ortonormalnych wektorów, które tworzą bazę dla unormowanych danych wejściowych. Wektory te są to wektory jednostkowe, wskazujące w kierunku prostopadłym do pozostałych wektorów z utworzonej bazy. Procedura PCA polega na wyliczeniu wartości własnych λ S 1, λ S 2,..., λ S n macierzy rozproszenia danych, np. macierzy kowariancji S. Dane są reprezentowane przez zestaw N wektorów cech x = (x 1, x 2,..., x n ) T o n wymiarach, tj. { x (1), x (2),..., x (N)}. 5

Macierz rozproszenia S wyliczamy ze wzoru S = N i=1 ( )( T x (i) x x (i) x), (1) gdzie x (i) to wektory cech, i = 1, 2,..., N, a x to ich empiryczna średnia. Następnie wyznacza się wektory własne oraz wartości własne macierzy S, np. przy pomocy dekompozycji macierzy do postaci (tzw. rozkład spektralny macierzy S, [2]) S = AΛA T, (2) gdzie A to macierz wektorów własnych, a Λ to macierz diagonalna, na przekątnej której znajdują się wartości własne macierzy S: λd S, d = 1, 2,..., n. 6

2.3. Sortowanie składowych głównych Uporządkowujemy wartości własne macierzy kowariancji S w kolejności malejącej λ S 1 λ S 2... λ S n 0. (3) Redukcja cech opiera się na wyznaczeniu podzbioru cech w nowej przestrzeni, rozpiętej przez ortonormalne składowe główne. Nowy zestaw cech po transformacji jest wyznaczony według zasady maksymalizujacej zmienność danych wraz z jednoczesną minimalizacją ubytku informacji spowodowanej ich redukcją. 7

2.4. Selekcja k składowych głównych Analiza skumulowanej wariancji k składowych głównych (k n) opiera się na procentowej mierze var wyjaśniania zmienności danych przez pierwszych k składowych głównych, która jest zdefiniowana następująco var = ( k d=1 λ ) d S n d=1 λ d S 100%. (4) Technika PCA zakłada, że jeżeli wartości danej cechy w d (d = 1, 2,..., n) charakteryzują się dużą wariancją, a odpowiadająca jej wartość własna λ S d przyjmuje dużą wartość, to cecha ta posiada dużą wartość informacyjną, np. dobrze dyskryminuje obiekty z różnych klas. 8

Redukcja wymiaru polega na wybraniu tylko tych składowych głównych (k składowych z n), dla których zmienność danych var (4) jest nie mniejsza od założonego procentu wyjaśnianej zmienności danych (np. 90%). Rysunek 1. Procent wyjaśnienia zmienności danych przez kolejne składowe główne. Źródło: opracowanie własne 9

W ostatnim kroku dokonujemy transformacji (rzutowania) wektorów cech x (i), i = 1, 2,..., N, do nowego układu współrzędnych rozpiętego przez wektory własne macierzy S. Przekształcenie to jest zwane rozwinięciem lub transformacją Karhunena-Loevego (patrz np. [5]). Wektory cech x (i) zostają przemnożone przez macierz A n k zawierającą tylko k kolumn macierzy wektorów własnych A, odpowiadających k największym wartościom własnym, x = A T n kx. (5) 10

W wyniku obrotu układu współrzędnych n-wymiarowe wektory cech x (i) zostają w ten sposób przekształcone w wektory cech x = (x 1, x 2,..., x k )T o jedynie k składowych. Transformacja Karhunena-Loevego posiada tę własność, że dowolna para współrzędnych nowego układu (tj. cech x n 1 i x n 2, n 1, n 2 {1, 2,..., n}) jest wzajemnie nieskorelowana (patrz np. [5]). Dlatego transformacja Karhunena-Loevego może zostać użyta w celu usunięcia korelacji cech. Z kolei wektory cech poddane selekcji przy użyciu metody PCA mogą następnie zostać użyte przy klasyfikacji obiektów. 11

3. Kernel PCA Rysunek 2. Przykład jądrowego PCA z gaussowskim jądrem κ(x, x ) = exp( x x 2 /0.1). Źródło: [6] 12

4. Eigenfaces Rysunek 3. Eigenfaces (5 pierwszych z 50). 13 Źródło: [3]

Literatura [1] J. Han, M. Kamber, J. Pei, Data Mining: Concepts and Techniques, 3rd ed., Elsevier, (2012) [2] J. Koronacki, J. Ćwik, Statystyczne systemy uczace się, WNT, Warszawa (2005) [3] M. Turk and A. Pentland, Face recognition using eigenfaces, Proc. IEEE Conference on Computer Vision and Pattern Recognition, pp. 586 591, (1991) [4] A.R. Webb, K.D. Copsey, Statistical Pattern Recognition, 3rd ed., Wiley (2011) [5] W. Sobczak, W. Malina, Metody selekcji i redukcji informacji, WNT, Warszawa (1985) [6] C.M. Bishop, Pattern Recognition and Machine Learning, Springer Series: Information Science and Statistics (2006) 14