Metody reprezentacji danych w podprzestrzeniach liniowych oraz ich zastosowanie w zadaniach rozpoznawania obrazów twarzy

Podobne dokumenty
10. Redukcja wymiaru - metoda PCA

5. Analiza dyskryminacyjna: FLD, LDA, QDA

Metody reprezentacji danych w podprzestrzeniach liniowych oraz ich zastosowanie w zadaniach rozpoznawania obrazów cyfrowych

Rozpoznawanie twarzy za pomocą sieci neuronowych

SPOTKANIE 9: Metody redukcji wymiarów

Analiza głównych składowych- redukcja wymiaru, wykł. 12

ANALIZA SEMANTYCZNA OBRAZU I DŹWIĘKU

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

Stosowana Analiza Regresji

4.1. Wprowadzenie Podstawowe definicje Algorytm określania wartości parametrów w regresji logistycznej...74

Klasyfikacja LDA + walidacja

Robert Susmaga. Instytut Informatyki ul. Piotrowo 2 Poznań

TRANSFORMACJE I JAKOŚĆ DANYCH

Analiza korespondencji

Prawdopodobieństwo i statystyka

Elementy statystyki wielowymiarowej

Statystyka i eksploracja danych

7. Maszyny wektorów podpierajacych SVMs

Zaawansowane metody numeryczne

SPOTKANIE 7: Redukcja wymiarów: PCA, Probabilistic PCA

Wektory i wartości własne

Wykład 4 Udowodnimy teraz, że jeśli U, W są podprzetrzeniami skończenie wymiarowej przestrzeni V to zachodzi wzór: dim(u + W ) = dim U + dim W dim(u

Wektory i wartości własne

dr Mariusz Grządziel 15,29 kwietnia 2014 Przestrzeń R k R k = R R... R k razy Elementy R k wektory;

Analiza składowych głównych. Wprowadzenie

Treść wykładu. Układy równań i ich macierze. Rząd macierzy. Twierdzenie Kroneckera-Capellego.

Robert Susmaga. Instytut Informatyki ul. Piotrowo 2 Poznań

NIEOPTYMALNA TECHNIKA DEKORELACJI W CYFROWYM PRZETWARZANIU OBRAZU

Detekcja punktów zainteresowania

Analiza składowych głównych

Rozglądanie się w przestrzeni Iris czyli kręcenie (głową/płaszczyzną) w czterech wymiarach

Przetwarzanie i transmisja danych multimedialnych. Wykład 7 Transformaty i kodowanie. Przemysław Sękalski.

Monitorowanie i Diagnostyka w Systemach Sterowania na studiach II stopnia specjalności: Systemy Sterowania i Podejmowania Decyzji

Wstęp do metod numerycznych Faktoryzacja QR i SVD. P. F. Góra

Cyfrowe przetwarzanie obrazów i sygnałów Wykład 8 AiR III

Rozpoznawanie płci na podstawie zdjęć twarzy

1 Macierz odwrotna metoda operacji elementarnych

Macierze. Rozdział Działania na macierzach

Rozpoznawanie wzorców. Dr inż. Michał Bereta p. 144 / 10, Instytut Informatyki

Zestaw zadań 5: Sumy i sumy proste podprzestrzeni. Baza i wymiar. Rzędy macierzy. Struktura zbioru rozwiązań układu równań.

Adaptacyjne Przetwarzanie Sygnałów. Filtracja adaptacyjna w dziedzinie częstotliwości

Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner

2 1 3 c c1. e 1, e 2,..., e n A= e 1 e 2...e n [ ] M. Przybycień Matematyczne Metody Fizyki I

Obliczenia naukowe Wykład nr 8

Baza w jądrze i baza obrazu ( )

Układy równań liniowych. Krzysztof Patan

ALGEBRA LINIOWA Z GEOMETRIĄ, LISTA ZADAŃ NR 8

Modelowanie danych hodowlanych

Transformaty. Kodowanie transformujace

Wykład wprowadzający


Adrian Horzyk

Układy równań liniowych

Analiza numeryczna Kurs INP002009W. Wykłady 6 i 7 Rozwiązywanie układów równań liniowych. Karol Tarnowski A-1 p.

Rozwiązania, seria 5.

φ(x 1,..., x n ) = a i x 2 i +

1 Podobieństwo macierzy

SIMR 2016/2017, Analiza 2, wykład 1, Przestrzeń wektorowa

MODELOWANIE PRZESTRZENI ZA POMOCĄ MULTIILOCZYNÓW WEKTORÓW

PODSTAWY AUTOMATYKI. MATLAB - komputerowe środowisko obliczeń naukowoinżynierskich - podstawowe operacje na liczbach i macierzach.

Algorytmy rozpoznawania obrazów. 11. Analiza skupień. dr inż. Urszula Libal. Politechnika Wrocławska

Wprowadzenie do metod numerycznych Wykład 3 Metody algebry liniowej I Wektory i macierze

3. Macierze i Układy Równań Liniowych

Pattern Classification

Identyfikacja twarzy z wykorzystaniem Sztucznych Sieci Neuronowych oraz PCA

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Skalowanie wielowymiarowe idea

Kolejny krok iteracji polega na tym, że przechodzimy do następnego wierzchołka, znajdującego się na jednej krawędzi z odnalezionym już punktem, w

Przekształcenia liniowe

1. Zbadać liniową niezależność funkcji x, 1, x, x 2 w przestrzeni liniowej funkcji ciągłych na przedziale [ 1, ).

Zał nr 4 do ZW. Dla grupy kursów zaznaczyć kurs końcowy. Liczba punktów ECTS charakterze praktycznym (P)

Rozpoznawanie obiektów z użyciem znaczników

Algebra liniowa. 1. Macierze.

2. Próbkowanie Sygnały okresowe (16). Trygonometryczny szereg Fouriera (17). Częstotliwość Nyquista (20).

Aproksymacja funkcji a regresja symboliczna

Akwizycja i przetwarzanie sygnałów cyfrowych

TRANSFORMATA FALKOWA 2D. Oprogramowanie Systemów Obrazowania 2016/2017

Wykład 14. Elementy algebry macierzy

Układy równań liniowych i metody ich rozwiązywania

Rozdział 5. Macierze. a 11 a a 1m a 21 a a 2m... a n1 a n2... a nm

Rozwiązywanie algebraicznych układów równań liniowych metodami iteracyjnymi. Plan wykładu:

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

Przestrzeń unitarna. Jacek Kłopotowski. 23 października Katedra Matematyki i Ekonomii Matematycznej SGH

Programowanie liniowe

SPOTKANIE 2: Wprowadzenie cz. I

= i Ponieważ pierwiastkami stopnia 3 z 1 są (jak łatwo wyliczyć) liczby 1, 1+i 3

Układy równań i nierówności liniowych

Programowanie liniowe

Badania asocjacyjne w skali genomu (GWAS)

Kodowanie transformacyjne. Plan 1. Zasada 2. Rodzaje transformacji 3. Standard JPEG

ANALIZA CZYNNIKOWA Przykład 1

Jądrowe klasyfikatory liniowe

Numeryczna algebra liniowa

KLASYFIKACJA. Słownik języka polskiego

SYSTEM BIOMETRYCZNY IDENTYFIKUJĄCY OSOBY NA PODSTAWIE CECH OSOBNICZYCH TWARZY. Autorzy: M. Lewicka, K. Stańczyk

2. Empiryczna wersja klasyfikatora bayesowskiego

3 1 + i 1 i i 1 2i 2. Wyznaczyć macierze spełniające własność komutacji: [A, X] = B

0 + 0 = 0, = 1, = 1, = 0.

Zadania z Algebry liniowej 4 Semestr letni 2009

P R Z E T W A R Z A N I E S Y G N A Ł Ó W B I O M E T R Y C Z N Y C H

Transkrypt:

Metody reprezentacji danych w podprzestrzeniach liniowych oraz ich zastosowanie w zadaniach rozpoznawania obrazów twarzy Paweł Forczmański Katedra Systemów Multimedialnych, Wydział Informatyki ZUT 1 / 60

Plan wykładu 1.1.Redukcja Redukcjawymiarowości wymiarowości 2.2.Przedstawienie Przedstawieniewybranych wybranychmetod metod oraz orazich ichzastosowań zastosowań 3.3.PCA PCA//KLT, KLT,1D, 1D,2D 2D 4.4.LDA, LDA,1D, 1D,2D 2D 2 / 60

Transformacje ortogonalne 1.1.SVD SVD Singular SingularValue ValueDecomposition Decomposition 2.2.DCT, DCT,DFT DFT Discrete DiscreteCosine/Fourier Cosine/FourierTransform Transform 3.PCA/KLT 3.PCA/KLT Principal PrincipalComponent ComponentAnalysis Analysis 4.4.LDA LDA Linear LinearDiscriminant DiscriminantAnalysis Analysis 3 / 60

Jak reprezentować obrazy? Dlaczego potrzebujemy metod reprezentacji obrazów? Przekleństwo wymiarowości (ang. Curse of dimensionality) szerokość x wysokość x kanały_koloru Usuwanie szumu Analiza sygnału I wizualizacja Metody reprezentacji W dziedzinie częstotliwości : metody liniowej transformacji DFT, DCT, DST, DWT, Często jako metody kompresji Operacje w podprzestzreniach PCA, ICA, LDA Liniowe transformacje obliczone na podstawie danych Metody ekstrakcji cech Wykrywanie linii I krawędzi Mapy cech uzyskane w wyniku filtracji Transformata Gabora Aktywne kontury (ASM, Snakes) 4 / 60

Czym jest podprzestrzeń? (1/2) Problem określenia bazy w niskowymiarowej podprzestrzeni: Aproksymacja wektorów poprzez rzutowanie do nowej, niskowymiarowej podprzestrzeni: (1) Początkowa reprezentacja: x = a1v1 + a2v2 + + an vn w N-wymiarowej przestrzeni space where is a bazą base in the original N-dimensional gdzie v1, v2,, vn jest (2) Niskowymiarowa reprezentacja w podprzestrzeni: xˆ = b1u1 + b2u2 + + bk u K where is a basein K -dimensionalsub-space (K<N) (K<N) bazą wthek-wymiarowej podprzestrzeni gdzie u1, u2,, uk jest Uwaga: jeżeli K=N, wtedy x = x 5 / 60

Czym jest podprzestrzeń? (2/2) Przykład (K=N): 6 / 60

Analiza Komponentów Głównych PRINCIPAL COMPONENT ANALYSIS (PCA) 7 / 60

Motywacja Cele analizy Znalezienie bazy, która ma dużą wariancję w danych Reprezentacja danych z możliwie małą liczbą elementów bazy z niskim MSE 8 / 60

Problem klasyfikacji Algorytmy Rozpoznawania Wzorców PCA szuka kierunków, które dobrze rozdzielają klasy nieefektywne klasa A efektywne klasa A klasa B klasa B 9 9 / 60

Rozporoszenie Algorytmy Rozpoznawania Wzorców PCA maksymalizuje całkowite rozproszenie Rozproszenie (ang. scatter) Klasa A Klasa B 10 10 / 60

Obliczenie komponentów (PCs) Zakładamy że E[ x] = 0 T T a=x q=q x s 2 = E[a 2 ] - E[a]2 = E[a 2 ] T q = (q q) 1 2 =1 Znaleźć takie q, które maksymalizują to = E[(qT x)(xt q)] = qt E[xxT ]q = qt Rq Komponent (PC) q obliczamy jest za pomocą dekomozycji wartości własnych, np. za pomocą SVD R = QΛQT, Q = [q1, q2,, q j,, qλ m ], Ű Rq j = l j q j = diag[l1, l2,, l j,, lm ] j = 1, 2,, m Rq = l q 11 / 60

Redukcja wymiarowości (1/2) Można odrzucić komponenty o mniejszym znaczeniu. Faktycznie, traci się częśc informacji, jednak wartości własne są na tyle małe, że utrata nie jest duża n wymiarów w danych początkowych Oblicza się n wektorów własnychiu wartości własnych wybieramy p wektorów własnych na podstawie największych wartości własnych Docelowa przestrzeń ma p wymiarów 12 / 60

Redukcja wymiarowości (2/2) Wariancja Wymiarowość 13 / 60

Rekonstrukcja Oryginał q=1 q=2 q=4 q=16 q=32 q=64 q=8 q=100 14 / 60

Algorytmy Rozpoznawania Wzorców Algorytm Eigenfaces Założenia Kwadratowe obrazy szerokość = wysokość = N M liczba obrazów w bazie danych P liczba osób w bazie danych Opracowane w 1991 przez Turka I Pentlanda Wykorzystuje PCA Stosunkowo prosta Szybka Odporna m.in. na szum 15 / 60

Eigenfaces Algorytmy Rozpoznawania Wzorców Baza danych 16 / 60

Eigenfaces Algorytmy Rozpoznawania Wzorców Obliczany obraz średni gdzie 17 / 60

Eigenfaces Algorytmy Rozpoznawania Wzorców Następnie odejmujemy od obrazów z bazy 18 / 60

Eigenfaces Algorytmy Rozpoznawania Wzorców Budujemy macierz N2 na M Macierz kowariancji w wymiarach N2 na N2 19 19 / 60

Eigenfaces Algorytmy Rozpoznawania Wzorców Należy znaleźć wartości własne macierzy kowariancji Macierz ta jest duża! Obliczenia są czasochłonne Interesuje nas najwyżej M wartości własnych Zmiejszamy wymiarowość tej macierzy 20 20 / 60

Algorytmy Rozpoznawania Wzorców Eigenfaces Obliczamy macierz o wymiarach M na M Znajdujemy M wartości własnych i wektorów własnych Wektory własne z Cov i L są równoważne Budujemy macierz V z wektorów obliczonych dla L 21 21 / 60

Eigenfaces Algorytmy Rozpoznawania Wzorców Wektory własne z Cov są linową kombinacją w przestrzeni obrazów (twarzy) z wektorami własnymi z L U = AV V to macierz wektorów własnych Wektory własne reprezentują zmienność twarzy 22 22 / 60

Algorytmy Rozpoznawania Wzorców Eigenfaces A: kolekcja twarzy w zbiorze uczącym U: przestrzeń twarzy własnych 23 23 / 60

Eigenfaces Twarze własne dla obrazów z bazy Algorytmy Rozpoznawania Wzorców 24 24 / 60

Eigenfaces Algorytmy Rozpoznawania Wzorców Obliczamy, dla każdej twarzy, jej projekcję w przestrzeni twarzy: Obliczamy próg: dla 25 / 60

Algorytmy Rozpoznawania Wzorców Eigenfaces: rozpoznawanie Aby rozpoznać twarz Odejmujemy od niej twarz średnią 26 / 60

Eigenfaces : rozpoznawanie Algorytmy Rozpoznawania Wzorców Obliczamy projekcję do przestrzeni twarzy U Obliczamy odległość w przestrzeni twarzy pomiędzy twarzą badaną oraz wszystkimi znanymi (zapamiętanymi w bazie) twarzami dla 27 / 60

Eigenfaces : rozpoznawanie Algorytmy Rozpoznawania Wzorców Rekonstrukcja twarzy ze pomocą twarzy własnych Obliczamy odległość badanej twarzy oraz jej rekonstrukcji 28 / 60

Eigenfaces : rozpoznawanie Algorytmy Rozpoznawania Wzorców Rozróżniamy pomiędzy następującymi przypadkami: Jeżeli to nie mamy do czynienia z twarzą; odległość pomiędzy badaną twarzą i jej rekonstrukcją jest większa niż próg Jeżeli oraz to jest to nowa twarz oraz Jeżeli to jest to znana twarz, ponieważ odległość badanej twarzy do wszystkich twarzy z bazy jest większa niż próg 29 / 60

Eigenfaces problemy Trudności w przypadku rozpoznawania Algorytmy Rozpoznawania Wzorców Różnych orientacji twarzy Róznych opozycji twarzy Różnic w ekspresji Obecności kierunkowego oświetlenia 30 / 60

Liniowa Analiza Dyskryminacyjna LINEAR DISCRIMINANT ANALYSIS (LDA) 31 / 60

Ograniczenia PCA Czy wymiary o maksymalnej wariancji odpowiadają wymiarom, które chcemy zachować? 32 / 60

Linear Discriminant Analysis (1/6) Co jest celem LDA? Przeprowadzić redukcję wymiarowości przy jednoczesnym zachowaniu informacji o separacji klas. Szukać kierunków, wzdłuż których klasy są najlepiej separowalne. Brać pod uwagę dyspersję wewnątrzklasową i międzyklasową. Np. w przypadku rozpoznawania twarzy, daje możliwośc rozróżniania obrazów bardziej w kontekscie ich przynależności do osób niż w kontekście zmian spowodowanych m.in. oświetleniem lub ekspresją. 33 / 60

Linear Discriminant Analysis (2/6) Rozrzut wewnątrzklasowy Within-class scatter matrix c ni ĺĺ S w = (Y j - M i )(Y j - M i )T i =1 j =1 c Rozrzut międzyklasowy Between-class scatter matrix ĺ Sb = ( M i - M )( M i - M )T i =1 Macierz po projekcji y =U x T LDA oblicza transformację, która maksymalizuje rozrzut międzyklasowy przy jednoczesnym minimalizowaniu rozrzutu wewnątrzklasowego: S%b U T SbU max = max T % U S wu Sw rezultaty oblicznia wart. własnych! S w-1sb = U LU T S%%b, S w : macierze rozrzutu po rzutowaniu y 34 / 60

Linear Discriminant Analysis (3/6) Czy Sw-1 da się zawsze obliczyć? jeżeli Sw jest nieosobliwa, możemy rozwiązać typowy problem wartości własnych poprzez: S w-1sb = U LU T W praktyce, Sw jest zwykle osobliwa ponieważ obrazy są danymi wektorowymi o dużej wymiarowości, podczas gdy licznośc zbioru jest stosunkowo mała (M << N ) Podczas gdy Sb ma najwyżej rząd C-1, maksymalna liczba wektorów własnych z niezerowymi wartościami własnymi jest równa C-1 (t.j., maksymalna wymiarowość podprzestrzeni to C-1) 35 / 60

Linear Discriminant Analysis (4/6) Czy Sw-1 da się zawsze obliczyć? Aby rozwiązać ten problem, stusuje się często PCA jako element obróbki dancyh: 1) PCA wstępnie redukuje wymiarowośc danych. 2) LDA jest wykonywane na tak uzyskanych danych: 36 / 60

Linear Discriminant Analysis (5/6) PCA LDA D. Swets, J. Weng, "Using Discriminant Eigenfeatures for Image Retrieval", IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 18, no. 8, pp. 831-836, 1996 37 / 60

Linear Discriminant Analysis (6/6) Porównanie PCA (MEF) i LDA (MDF) Wektory MEF (Most Expressive Features) pokazują tendencję PCA do przechowywania informacji takich jak zmiany oświetlenia. Wektory MDF (Most Discriminative Features) cechy te eliminują. D. Swets, J. Weng, "Using Discriminant Eigenfeatures for Image Retrieval", IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 18, no. 8, pp. 831-836, 1996 38 / 60

Algorytmy Rozpoznawania Wzorców Algorytm Fisherfaces Założenia Kwadratowe obrazy szerokość = wysokość = N M liczba obrazów w bazie danych P liczba osób w bazie danych Opracowany w 1997 przez P.Belhumeura i in. Wykorzystuje analizę Fishera = Linear Discriminant Analysis (LDA) Szybsza, w pewnych wypadkach, od Eigenfaces Niższy poziom błędów Działa w przypadku różnego oświetlenia Radzi sobie ze zmianami ekspresji. 39 / 60

Fisherfaces Algorytmy Rozpoznawania Wzorców Baza danych 40 / 60

Fisherfaces Algorytmy Rozpoznawania Wzorców Obliczany jest obraz średni gdzie 41 / 60

Fisherfaces Obliczana jest średnia twarzy dla każdej osoby 42 / 60

Fisherfaces Odejmujemy od każdego obrazu 43 / 60

Fisherfaces Budujemy macierze rozrzutu S1, S2, S3, S4 i macierz rozrzutu wewnątrzklasowego SW 44 / 60

Fisherfaces Międzyklasowa macierz rozrzutu Poszukiwania jest macierz W maksymalizująca 45 / 60

Fisherfaces Jeżeli SW jest nieosobliwa ( ): Kolumny W są wektorami własnymi Musmy obliczyć odwrotność SW Musimy mnożyć macierze i obliczyć wektory własne 46 / 60

Fisherfaces Jeżeli SW jest nieosobliwa ( Prościej: ): Kolumny W są wektorami własnymi, które spełniają Wartości własne są pierwiastkami Obliczamy wartości własne poprzez 47 / 60

Fisherfaces Jeżeli SW jest osobliwa ( Stosujemy najpierw PCA ): Zredukujemy w ten sposób wymiarowość twarzy z N2 do M Uzyskujemy wektory o wymiarze MM Stosujemy LDA 48 / 60

Fisherfaces Rzutujemy twarze do przestrzeni cech po LDA Klasyfikacja twarzy polega na Rzutowaniu do przestrzeni LDA Wykorzystaniu klasyfikatora, np. minimalnoodległościowego 49 / 60

PCA & Fisher s Linear Discriminant 50 / 60

PCA & Fisher s Linear Discriminant 51 / 60

Prównanie PCA i LDA Baza danych FERET Eigenfaces 80.0%, Fisherfaces 93.2% 52 / 60

Porównanie PCA i LDA Eigenfaces Projekcja do podprzestzreni o mniejszej wymiarowości Bez rozróżnienia pomiędzy zmiannością wewnątrzi pomiędzy-klasową Optymalna dla reprezentacji ale nie dyskryminacji Fisherfaces Znalezienie podprzestzreni, która maksymalizuje stosunek rozrzutu międzyklasowego do wewnątrzklasowego Wspólna miara zmienności wewnątrzklasowej 53 / 60

LDA : ograniczenia Algorytmy Rozpoznawania Wzorców Klasyczna metod LDA wymaga przeprowadzania wstępnej redukcji wymiarowości danych, np. za pomocą próbkowania (down-sampling) lub PCA/PCArc. Wymagane jest spełnienie warunku: gdzie K liczba klas obrazów, L-liczba obrazów w klasie, DIM wymiarowośc przestrzeni cech. G. Kukharev, P. Forczmański, Two-Dimensional LDA Approach to Image Compression and Recognition, Computing, Multimedia and Intelligent Techniques, vol.2, no. 1, 2006, s.87-98 G. Kukharev, P. Forczmański, Face Recognition by Means of Two-Dimensional Direct Linear, Discriminant Analysis Pattern recognition and information processing: PRIP 2005: Proceedings of the Eighth International Conference, 18-20 Maj, Mińsk, Białoruś 2005, s.280-283 54 / 60

Algorytmy Rozpoznawania Wzorców 2DLDA/LDArc (1) Rozwiązaniem tego problemu jest zastosowanie metody 2DLDA (LDArc), która zakłada dekompozycję obrazu na zestaw wierszy i kolumn i obliczanie 2 zestawów macierzy kowariancji: 55 / 60

2DLDA/LDArc (2) Algorytmy Rozpoznawania Wzorców Dla każdego zestawu obliczane są macierze kowariancji (podobnie do LDA): celem LDA jest maksymalizacja rozrzutu (scatter) międzyklasowego w stosunku do rozrzutu wewnątrzklasowego, co sprowadza się w maksymalizacji wyrażenia: 56 / 60

Algorytmy Rozpoznawania Wzorców 2DLDA/LDArc (3) W tym celu obliczane są rozkłady macierzy H: Dające zestawy macierzy wektorów własnych V i wartości własnych Λ dla odpowiednich reprezentacji (wierszowych R i kolumnowych C). 57 / 60

2DLDA/LDArc (5) Algorytmy Rozpoznawania Wzorców Przekształcenie LDArc można przedstawić w następujący sposób: Przykładowe wyniki redukcji przedstawiono poniżej: 58 / 60

Algorytmy Rozpoznawania Wzorców 2DLDA/LDArc: przykłady G. Kukharev, P. Forczmański, Facial images dimensionality reduction and recognition by means of 2DKLT, Machine Graphics & Vision, vol. 16, no. 3/4, 2007, s. 401-425 59 / 60

Literatura Simon Haykin, Neural Networks A Comprehensive Foundation- 2nd Edition, Prentice Hall Marian Stewart Bartlett, Face Image Analysis by Unsupervised Learning, Kluwer academic publishers A. Hyvärinen, J. Karhunen and E. Oja, Independent Component Analysis,, John Willy & Sons, Inc. D. L. Swets and J. Weng, Using Discriminant Eigenfeatures for Image Retrieval, IEEE Trasaction on Pattern Analysis and and Machine Intelligence, Vol. 18, No. 8, August 1996 60 / 60