Robert Susmaga. Instytut Informatyki ul. Piotrowo 2 Poznań

Podobne dokumenty
Robert Susmaga. Instytut Informatyki ul. Piotrowo 2 Poznań

Materiały wykładowe (fragmenty)

Teoria Informacji i Metody Kompresji Danych

Materiały wykładowe (fragmenty)

Analiza składowych głównych. Wprowadzenie

Teoria Informacji i Metody Kompresji Danych

Załóżmy, że obserwujemy nie jedną lecz dwie cechy, które oznaczymy symbolami X i Y. Wyniki obserwacji obu cech w i-tym obiekcie oznaczymy parą liczb

dr Mariusz Grządziel 15,29 kwietnia 2014 Przestrzeń R k R k = R R... R k razy Elementy R k wektory;

Wykład 14. Elementy algebry macierzy

Analiza składowych głównych

SIMR 2016/2017, Analiza 2, wykład 1, Przestrzeń wektorowa

3. Macierze i Układy Równań Liniowych

Metody numeryczne Wykład 4

Prawdopodobieństwo i statystyka

Regresja wieloraka Ogólny problem obliczeniowy: dopasowanie linii prostej do zbioru punktów. Najprostszy przypadek - jedna zmienna zależna i jedna

Statystyka i eksploracja danych

2 1 3 c c1. e 1, e 2,..., e n A= e 1 e 2...e n [ ] M. Przybycień Matematyczne Metody Fizyki I

Algebra liniowa. Macierze i układy równań liniowych

Metody statyczne selekcji i konstruowania cech dla wizualizacji danych wielowymiarowych

Definicja i własności wartości bezwzględnej.

Materiały wykładowe (fragmenty)

Układy równań liniowych

Zaawansowane metody numeryczne

1 Macierz odwrotna metoda operacji elementarnych

Wektory i wartości własne

Układy równań i nierówności liniowych

Baza w jądrze i baza obrazu ( )

Treść wykładu. Układy równań i ich macierze. Rząd macierzy. Twierdzenie Kroneckera-Capellego.

Wektory i wartości własne

Algebra Liniowa 2 (INF, TIN), MAP1152 Lista zadań

Rozkłady wielu zmiennych

III. Układy liniowe równań różniczkowych. 1. Pojęcie stabilności rozwiązań.

Przykładowe zadania na egzamin z matematyki - dr Anita Tlałka - 1

KADD Minimalizacja funkcji

Analiza głównych składowych- redukcja wymiaru, wykł. 12

Funkcje charakterystyczne zmiennych losowych, linie regresji 1-go i 2-go rodzaju

Rozszerzony konspekt preskryptu do przedmiotu Podstawy Robotyki

5. Rozwiązywanie układów równań liniowych

Rozwiazywanie układów równań liniowych. Ax = b

Aby przygotować się do kolokwiów oraz do egzaminów należy ponownie przeanalizować zadania

Algebra liniowa z geometrią

3 1 + i 1 i i 1 2i 2. Wyznaczyć macierze spełniające własność komutacji: [A, X] = B

Stosowana Analiza Regresji

Lista. Algebra z Geometrią Analityczną. Zadanie 1 Przypomnij definicję grupy, które z podanych struktur są grupami:

Materiały wykładowe (fragmenty)

MATEMATYKA I SEMESTR ALK (PwZ) 1. Sumy i sumy podwójne : Σ i ΣΣ

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Elementy statystyki wielowymiarowej

Równania liniowe. Rozdział Przekształcenia liniowe. Niech X oraz Y będą dwiema niepustymi przestrzeniami wektorowymi nad ciałem

Zadania przygotowawcze, 3 kolokwium

10. Redukcja wymiaru - metoda PCA

Wstęp do metod numerycznych Faktoryzacja QR i SVD. P. F. Góra

Analiza korespondencji

Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności. dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

Zadania z algebry liniowej - sem. I Przestrzenie liniowe, bazy, rząd macierzy

JEDNORÓWNANIOWY LINIOWY MODEL EKONOMETRYCZNY

Wykład Matematyka A, I rok, egzamin ustny w sem. letnim r. ak. 2002/2003. Każdy zdający losuje jedno pytanie teoretyczne i jedno praktyczne.

PODSTAWY RACHUNKU WEKTOROWEGO

φ(x 1,..., x n ) = a i x 2 i +

1 Wartości własne oraz wektory własne macierzy

Wartości i wektory własne

PODSTAWY AUTOMATYKI. MATLAB - komputerowe środowisko obliczeń naukowoinżynierskich - podstawowe operacje na liczbach i macierzach.

Recenzenci: prof. dr hab. Henryk Domański dr hab. Jarosław Górniak

Układy równań liniowych. Krzysztof Patan

Zaawansowane metody numeryczne

Przekształcanie równań stanu do postaci kanonicznej diagonalnej

Ważne rozkłady i twierdzenia c.d.

PDF created with FinePrint pdffactory Pro trial version

WEKTORY I WARTOŚCI WŁASNE MACIERZY. = λ c (*) problem przybliżonego rozwiązania zagadnienia własnego dla operatorów w mechanice kwantowej

Wyznaczniki. Mirosław Sobolewski. Wydział Matematyki, Informatyki i Mechaniki UW. 6. Wykład z algebry liniowej Warszawa, listopad 2013

UKŁADY RÓWNAŃ LINIOWYCH

Komputerowa Analiza Danych Doświadczalnych

Geometria Lista 0 Zadanie 1

MATEMATYKA I SEMESTR ALK (PwZ) 1. Sumy i sumy podwójne : Σ i ΣΣ

Rozwiązywanie układów równań liniowych

Metoda eliminacji Gaussa. Autorzy: Michał Góra

MODELOWANIE PRZESTRZENI ZA POMOCĄ MULTIILOCZYNÓW WEKTORÓW

Funkcje wymierne. Funkcja homograficzna. Równania i nierówności wymierne.

1. PODSTAWY TEORETYCZNE

Lista 6. Kamil Matuszewski 13 kwietnia D n =

( x) Równanie regresji liniowej ma postać. By obliczyć współczynniki a i b należy posłużyć się następującymi wzorami 1 : Gdzie:

a 11 a a 1n a 21 a a 2n... a m1 a m2... a mn a 1j a 2j R i = , C j =

POD- I NADOKREŚLONE UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

Algebra liniowa. 1. Macierze.

cx cx 1,cx 2,cx 3,...,cx n. Przykład 4, 5

Metody i analiza danych

Formy kwadratowe. Rozdział 10

Współczynnik korelacji. Współczynnik korelacji jest miernikiem zależności między dwiema cechami Oznaczenie: ϱ

1. Liczby zespolone i

Optymalizacja ciągła

Działania na przekształceniach liniowych i macierzach

3. Wykład Układy równań liniowych.

Układy równań liniowych

Matematyka stosowana i metody numeryczne

Modelowanie danych hodowlanych

Samochody w Polsce posiadanie, plany zakupu

= i Ponieważ pierwiastkami stopnia 3 z 1 są (jak łatwo wyliczyć) liczby 1, 1+i 3

Analiza matematyczna i algebra liniowa Macierze

Przestrzeń unitarna. Jacek Kłopotowski. 23 października Katedra Matematyki i Ekonomii Matematycznej SGH

Transkrypt:

...

Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL kontakt osobisty Centrum Wykładowe, blok informatyki, pok. 7

Wyłączenie odpowiedzialności Prezentowane materiały, będące dodatkiem pomocniczym do wykładów, z konieczności fragmentarycznym i niedopracowanym, należy wykorzystywaćz pełnąświadomościąfaktu, że mogąnie być pozbawione przypadkowych błędów, braków, wypaczeń i przeinaczeń:-) Autor

...

Co ujawnia EVD? 1 0 0 1 5

Co ujawnia EVD? 1 0 0 1 6

Co ujawnia EVD? 1 0 0 1 7

Co ujawnia EVD? Uogólniona macierz obrotu: (macierz obrotów uogólnionych na zmiany znaku) macierz ortogonalna K T K= I Przykłady I: I T I= I I:( I) T ( I) = ( I)( I) = I I podobnie: jeżeli K jest ortogonalna, to K jest także ortogonalna operacja K: zmiana znaku wszystkich kolumn/wierszy Analogiczne zjawisko zachodzi także dla wybranych wierszy/kolumn, jeżeli Kjest ortogonalna, to macierz Z, powstała z K przez zmianę znaku wybranych kolumn/wierszy, jest także ortogonalna

Co ujawnia EVD? Przekształcenie 9

Co ujawnia EVD? Przekształcenie figury 10

Co ujawnia EVD? Przekształcenie układu 11

Co ujawnia EVD? Co ujawnia EVD o macierzy przekształcającej? niech dane będzie przekształcenie wektora danych xpolegające na jego (prawostronnym) przemnożeniu przez (przekształcającą) macierz kwadratową A, produkujące wektor y = Ax przekształcenie to jest równoważne przekształceniu y T = x T A T gdzie A T jest także kwadratową macierzą przekształcającą

Co ujawnia EVD? Przypadki szczególne jeżeli Ajest macierzą diagonalną, to operacja stanowi jednokładność przeskalowanie wzdłuż poszczególnych osi jeżeli Ajest macierzą ortogonalną, to operacja stanowi uogólnienie obrotu (obrót uogólniony o ewentualne zmiany znaku) A co w ogólnym przypadku? (pominięte)

Co ujawnia EVD? Pytanie czy rozkład EVD macierzy przekształcającej (o ile istnieje) ujawnia coś więcej o tym przekształceniu? założymy więc, że macierz przekształcająca posiada rozkład EVD

Co ujawnia EVD? W przypadku, gdy A posiada rozkład EVD: A= KLK 1 (pominięte) W przypadku, gdy A posiada rozkład EVD: A= KLK T wtedy y= Ax można zapisać jako y= KLK T xi interpretować po kolei, wykorzystując y= Kv, gdzie v= Lu, gdzie u = K T x czyli y= K(L(K T x)) pierwsza operacja: u = K T x (mnożenie x przez macierz ortogonalną) druga operacja: v = Lu (mnożenie u przez macierz diagonalną) trzecia operacja: y = Kv(mnożenie v przez macierz ortogonalną) ponieważ macierze Ki K T są (w tym przypadku) własnymi odwrotnościami, operacja trzecia jest odwrotnością operacji pierwszej pierwsza przechodzi do nowego układu współrzędnych pierwsza wraca do oryginalnego układu współrzędnych

Co ujawnia EVD? Wniosek: przekształcenie EVD ujawnia, że w mnożenie przez (zakładaną) macierz przekształcającą zawiera w sobie mnożenie przez macierz diagonalną utworzoną z wartości własnych macierzy przekształcającej, co ma oczywiste konsekwencje dla rezultatów przekształcenia wartość własna > 1: zwiększanie rozmiaru figury wzdłuż danego wymiaru wartość własna < 1: zmniejszanie rozmiaru figury wzdłuż danego wymiaru wartość własna = 0: redukcja danego wymiaru

Co ujawnia EVD? 1 0 0 1 17

Co ujawnia EVD? 1 0 0 1 18

Co ujawnia EVD? 1 0 0 1 19

Co ujawnia EVD? 1 0 0 1 20

... 21

PCA jako transformacja układu współrzędnych Właściwości wykorzystywanej w przekształceniu PCA macierzy przekształcającej K: macierz K charakteryzuje się: unormowaniem kolumn: (k i ) T k i = 1 dla każdego i ortogonalnościąkolumn: (k i ) T k j = 0 dla każdej pary i j wniosek: kolumny macierzy Kdefiniująpewien układ współrzędnych (bazę) kolumny k i są wersoramitego układu ponieważ kolumny k i (a tym samym reprezentowane przez nie wersory) są unormowane i ortogonalne, to definiowany układ współrzędnych jest układem kartezjańskim kolumny/wersory k i tego układu są tak dobrane, aby reprezentować kierunki wzdłuż których wariancja zmiennych jest maksymalna Zadaniem procedury PCA jest więc przekształcenie danych do układu zdefiniowanego przez macierz K 22

PCA jako transformacja układu współrzędnych Niech będzie dana baza Aoraz pewien wektor y pytanie: jak zdobyć współrzędne wektora yw bazie B? odpowiedź: współrzędne wektora y w bazie Aprzestawia taki wektor x, który spełnia równanie macierzowe Ax = b wektor ten jest rozwiązaniem tego równania, a więc można go obliczyć np. jako x = A 1 b Procedura PCA dokonuje przekształcenia danych z macierzy X do nowego układu współrzędnych zdefiniowanego przez macierz K, jest jednak realizowana przez zwykłe mnożenie macierzy: Y = XK zachodzą pytania: na jakim etapie następuje poszukiwanie nowych współrzędnych? kiedy następuje poszukiwanie odwrotności macierzy K? 23

PCA jako transformacja układu współrzędnych Jakie są współrzędne danego wektora xw układzie reprezentowanym przez ortogonalną macierz K? (czyli przez wersory będące kolumnami tej macierzy) w ogólności, poszukiwane współrzędne (oznaczenie: y) spełniają Ky= x czyli K 1 Ky= K 1 x Iy= K 1 x y= K 1 x 24

PCA jako transformacja układu współrzędnych Jakie są współrzędne danego wektora x w układzie... ale ortogonalna K spełnia K 1 = K T, zatem y= K T x powyższe zachodzi dla wektora x(kolumnowego), jak to będzie wyglądało dla tego samego wektora w postaci x T (wierszowej)? wykorzystując A= B A T = B T mamy y T = (K T x) T y T = x T (K T ) T y T = x T K 25

PCA jako transformacja układu współrzędnych Jakie są współrzędne danego wektora x w układzie... czyli dla wektorów x 1, x 2,..., x m zachodzi (y 1 ) T = (x 1 ) T K (y 2 ) T = (x 2 ) T K... (y m ) T = (x m ) T K to samo prościej (traktując wektory (x 1 ) T, (x 2 ) T,..., (x m ) T jako wiersze macierzy X) Y = XK Wniosek: tworząc nowe zmienne (jako Y = XK), metoda PCA znajduje w praktyce współrzędne wektorów reprezentowanych przez wiersze macierzy X w układzie reprezentowanym przez kolumny macierzy K 26

PCA jako transformacja układu współrzędnych Jakie są współrzędne danego wektora x w układzie... istotną rolę w uproszczeniu powyższego zapisu odgrywa fakt, że macierz K jest ortogonalna co by było, gdyby nie była to macierz ortogonalna? gdyby Kbyła osobliwa, to nie mogłaby reprezentować wersorówukładu współrzędnych gdyby Kbyła nieosobliwa (co gwarantuje istnienie K 1 ), ale nie byłaby ortogonalna, to zachodziłoby w ogólności y= K 1 x i wtedy y T = (K 1 x) T y T = x T (K 1 ) T a w ogólności Y = X(K 1 ) T 27

Przykład: PCA dla danych dwuwymiarowych 35 30 25 20 15 10 5 0 K -5-5 0 5 10 15 20 25 20 K 0.55 0.83 20 11.0 16.6 0.83 0.55 16.6 11.0 28

... 29

PCA a MNK 35 30??? 25 20 15 10 5 0-5 -5 0 5 10 15 20 25 30

Metoda najmniejszych kwadratów Interpretacja geometryczna najmniejszych kwadratów w przestrzeni zmiennych dane punkty y x 31

Metoda najmniejszych kwadratów Przykładowe modele (proste) która z nich jest najlepsza? y a c b x 32

Metoda najmniejszych kwadratów Przykładowe modele (proste) ocena prostej a y x 33

Metoda najmniejszych kwadratów Przykładowe modele (proste) ocena prostej b y x 34

Metoda najmniejszych kwadratów Przykładowe modele (proste) ocena prostej c y x 35

PCA a MNK Klasyczna regresja: y = f(x) 35 30 25 20 15 10 5 0-5 -5 0 5 10 15 20 25

PCA a MNK Klasyczna regresja po zamianie zmiennych rolami: x = g(y) 35 30 25 20 15 10 5 0-5 -5 0 5 10 15 20 25

PCA a MNK PCA 35 30 25 20 15 10 5 0-5 -5 0 5 10 15 20 25

PCA a MNK MNK PCA wynik (propozycja prostej) uzyskany dla y = f(x) (y zależne od x) x = g(y) (x zależne od y) będzie identyczny dla f 1 = g (jest to jednakże bardzo szczególny przypadek) w sytuacji braku jasnej sytuacji co do tego, która zmienna jest zależna od której (czyli: która jest zależna, a która niezależna) mamy dwa różne rozwiązania co więcej, jeżeli występują między nimi różnice, to jedno może być lepsze, a drugie gorsze; niestety, zazwyczaj nie wiadomo, które jest tym lepszym rozwiązaniem! jeden wynik (jedna propozycja prostej), (zarówno dla [xy] jak i [yx])

... 40

PCA a EVD PCA a EVD podsumowanie PCA: procedura przekształcająca dane: X Y EVD: procedura rozkładająca macierz Ana iloczyn KLK 1 (inaczej: procedura diagonalizująca macierz A) relacja PCA EVD w procedurze PCA wykorzystuje sięproceduręevd do zdiagonalizowaniamacierzy kowariancji S X 41

... 42

Metody doboru liczby zmiennych redukowanych Niech λ={λ 1, λ 2,..., λ n }będzie zbiorem posortowanych nierosnąco wartości własnych macierzy kowariancji znajdź średniąwartość λ wszystkich λ i i utwórz tylko zmienne odpowiadające wartościomλ i λ utwórz tylko zmienne 1..s, przy minimalnym s, dla którego zachodzi: s i= 1 n i= 1 λ λ i i p, przy zadanym p 13 dobierz wizualnie zmienne na podstawie tzw. wykresu osypiska: 0 1 2 3 4 5 6 43

... 44

Zastosowania PCA: przykład biologiczny Jolicoeuri Mosiman(1960) dokonywali pomiarów skorupy żółwi, otrzymując oryginalne zmienne: długość szerokość wysokość Ze względu na względnie stałe proporcje powyższych wielkości (duża korelacja) zmienne oryginalne można przekształcić wykorzystując PCA i otrzymując: wielkość (98.64% informacji) kształt-a (0.94%) i kształt-b (0.41%) Podobne badania białe leghorny (Wright, 1954) 45

Zastosowania PCA: przykład psychologiczny Birreni Morrison(1961) badali wyniki testów Wechslera (testy na inteligencję dla dorosłych). Obserwowano: wyniki testu (11 zmiennych), oraz dodatkowo wiek i wykształcenie W rezultacie przekształcenia PCA otrzymano zmienne, które (po zanalizowaniu korelacji z oryginalnymi wynikami testów) zinterpretowano następująco: ogólna wydajność intelektualna (51.47%) doświadczenie (10.90%) miernik wyobraźni przestrzennej (6.15%) miernik umiejętności rachunkowych (5.48%) 46

... 47

Samochody osobowe Warianty 15 samochodów osobowych Kryteria 4 wybrane parametry zużycie paliwa [1/100 l/km], zakres: [6,10], typ: strata przyspieszenie do 100km/h [s], zakres: [9,14], typ: strata cena [tys. PLN], zakres: [24, 94], typ: strata wyposażenie [punkty uznaniowe], zakres: [1, 10], typ: zysk 48

Wizualizacja danych wielowymiarowych Oryginalne opisy 15 samochodów (tabela informacyjna) Marka Model Zużycie Przyspieszenie Cena Wyposażenie Alfa Romeo 156 8,1 9,3 71,14 9 Audi A4 7,9 11,9 93,35 10 BMW 316l 7,5 12,3 81,79 8 Daewoo Lanos 8,4 12,2 34,90 3 Honda Civic 6,7 10,8 48,90 7 Hyunday Accent 6,4 11,7 35,30 2 Lada Samara 7,2 13,0 24,90 2 Mitsubishi Carisma 7,2 12,0 60,60 9 Opel Astra II 7,0 12,0 56,95 8 Peugeot 206 XR 6,6 13,2 38,36 4 Renault Megane 7,0 9,9 50,05 9 Saab 93S 9,7 11,0 85,35 8 Seat Cordoba 8,3 10,9 44,99 8 Toyota Corrola 7,7 10,2 50,36 4 Volkswagen Golf IV 8,3 9,9 61,62 6

Wizualizacja danych wielowymiarowych Znormalizowane opisy 15 samochodów (tabela informacyjna) Marka Model Zużycie Przyspieszenie Cena Wyposażenie Alfa Romeo 156 0,57-1,74 0,76 0,93 Audi A4 0,34 0,46 1,87 1,31 BMW 316l -0,11 0,80 1,29 0,56 Daewoo Lanos 0,92 0,72-1,05-1,34 Honda Civic -1,03-0,47-0,35 0,18 Hyunday Accent -1,37 0,29-1,03-1,34 Lada Samara -0,46 1,40-1,55-1,72 Mitsubishi Carisma -0,46 0,55 0,23 0,93 Opel Astra II -0,69 0,55 0,05 0,56 Peugeot 206 XR -1,14 1,57-0,88-0,96 Renault Megane -0,69-1,23-0,29 0,93 Saab 93S 2,40-0,30 1,47 0,56 Seat Cordoba 0,80-0,39-0,55 0,56 Toyota Corrola 0,11-0,98-0,28-0,96 Volkswagen Golf IV 0,80-1,23 0,29-0,20

1.0000-0.3245 0.4872 0.2619-0.3245 1.0000-0.2609-0.3814 0.4872-0.2609 1.0000 0.7691 0.2619-0.3814 0.7691 1.0000 51

2.5 2 1.5 1 0.5 0 1 2 3 4 52

-1.9007-0.7758-1.7763 1.4540-0.6978 1.3548 1.2019-0.8323 0.3599 0.0557 2.2258-0.2916 2.5666-0.1197-0.2338 1.0564 0.1759 0.9305 2.1353 0.8628-0.5332-0.2984-2.3404-0.4234-0.4961-0.5953 0.2245-1.2162-0.9117-1.1617 53

3 2 1 Audi A4 BMW 316l Mitsubishi Carisma Opel Astra II Peugeot 206 XR 0-1 Honda Civic Lada Samara Renault Megane Hyunday Accent Saab 93S Seat Cordoba Alfa Romeo 156 Daewoo Lanos Volkswagen Toyota Golf IVCorrola -2-3 -3-2 -1 0 1 2 3 54

100 90 80 70 60 50 40 30 20 10 0 1 2 3 4 55

3 2 1 Audi A4 BMW 316l price eqip accel Mitsubishi Carisma Opel Astra II Peugeot 206 XR 0-1 Honda Civic Lada Samara Renault Megane Hyunday Accent Saab 93S Seat Cordoba Alfa Romeo 156 Daewoo Lanos cons Volkswagen Toyota Golf IVCorrola -2-3 -3-2 -1 0 1 2 3 56

... 57