Statystyka i eksploracja danych

Podobne dokumenty
Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka

Procesy stochastyczne

Procesy stochastyczne

Stosowana Analiza Regresji

Analiza głównych składowych- redukcja wymiaru, wykł. 12

Elementy statystyki wielowymiarowej

Prawdopodobieństwo i statystyka

Analiza składowych głównych

ANALIZA CZYNNIKOWA Przykład 1

Ważne rozkłady i twierdzenia c.d.

Wprowadzenie (1) Przedmiotem analizy czynnikowej jest badanie wewnętrznych zależności w zbiorze zmiennych. Jest to modelowanie niejawne. Oprócz zmienn

Komputerowa analiza danych doświadczalnych

10. Redukcja wymiaru - metoda PCA

Metoda momentów i kwantyli próbkowych. Wrocław, 7 listopada 2014

Metoda największej wiarygodności

Statystyka i eksploracja danych

Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX = 4 i EY = 6. Rozważamy zmienną losową Z =.

CELE ANALIZY CZYNNIKOWEJ

Formy kwadratowe. Rozdział 10

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Centralne twierdzenie graniczne

Wykład 6 Estymatory efektywne. Własności asymptotyczne estym. estymatorów

Postać Jordana macierzy

Prawdopodobieństwo i statystyka

Diagonalizacja macierzy i jej zastosowania

Eksploracyjna analiza danych. Metody rzutowania: analiza składowych głównych oraz skalowanie wielowymiarowe.

Statystyka i eksploracja danych

Wykład 5 Estymatory nieobciążone z jednostajnie minimalną war

Diagonalizacja macierzy i jej zastosowania

Komputerowa analiza danych doświadczalnych. Wykład dr inż. Łukasz Graczykowski

SPOTKANIE 7: Redukcja wymiarów: PCA, Probabilistic PCA

Diagonalizacja macierzy i jej zastosowania

Analiza składowych głównych. Wprowadzenie

Rozkłady wielu zmiennych

Rozkład normalny Parametry rozkładu zmiennej losowej Zmienne losowe wielowymiarowe

Statystyka i eksploracja danych

O ŚREDNIEJ STATYSTYCZNEJ

Wartość oczekiwana Mediana i dominanta Wariancja Nierówności związane z momentami. Momenty zmiennych losowych Momenty wektorów losowych

Wykład 3 Momenty zmiennych losowych.

Wykład 3 Momenty zmiennych losowych.

Redukcja wariancji w metodach Monte-Carlo

Prawdopodobieństwo i statystyka

Twierdzenie spektralne

Statystyka matematyczna. Wykład III. Estymacja przedziałowa

Rozglądanie się w przestrzeni Iris czyli kręcenie (głową/płaszczyzną) w czterech wymiarach

Natalia Neherbecka. 11 czerwca 2010

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski

Wykład 12 Testowanie hipotez dla współczynnika korelacji

Stosowana Analiza Regresji

SPOTKANIE 9: Metody redukcji wymiarów

Podstawowe modele probabilistyczne

Stacjonarne procesy gaussowskie, czyli o zwiazkach pomiędzy zwykła

1. Zbadać liniową niezależność funkcji x, 1, x, x 2 w przestrzeni liniowej funkcji ciągłych na przedziale [ 1, ).

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 3 - model statystyczny, podstawowe zadania statystyki matematycznej

WNIOSKOWANIE W MODELU REGRESJI LINIOWEJ

Statystyka matematyczna dla kierunku Rolnictwo w SGGW. BADANIE WSPÓŁZALEśNOŚCI DWÓCH CECH. ANALIZA KORELACJI PROSTEJ.

Stosowana Analiza Regresji

Wykład 12 Testowanie hipotez dla współczynnika korelacji

STATYSTYKA. Rafał Kucharski. Uniwersytet Ekonomiczny w Katowicach 2015/16 ROND, Finanse i Rachunkowość, rok 2

Równania liniowe. Rozdział Przekształcenia liniowe. Niech X oraz Y będą dwiema niepustymi przestrzeniami wektorowymi nad ciałem

12DRAP - parametry rozkładów wielowymiarowych

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

Idea. Analiza składowych głównych Analiza czynnikowa Skalowanie wielowymiarowe Analiza korespondencji Wykresy obrazkowe.

Analiza Składowych Głównych i Czynnikowa

Zależność. przyczynowo-skutkowa, symptomatyczna, pozorna (iluzoryczna),

METODY ESTYMACJI PUNKTOWEJ. nieznanym parametrem (lub wektorem parametrów). Przez X będziemy też oznaczać zmienną losową o rozkładzie

Komputerowa Analiza Danych Doświadczalnych

Prawdopodobieństwo i statystyka r.

Wykład 10 Skalowanie wielowymiarowe

Statystyczna analiza danych

Metoda najmniejszych kwadratów

1 Macierze i wyznaczniki

Zaawansowane metody numeryczne

Lista. Przestrzenie liniowe. Zadanie 1 Sprawdź, czy (V, +, ) jest przestrzenią liniową nadr :

Funkcje charakterystyczne zmiennych losowych, linie regresji 1-go i 2-go rodzaju

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

Uogólniona Metoda Momentów

1 Formy hermitowskie. GAL (Informatyka) Wykład - formy hermitowskie. Paweł Bechler

Metody probabilistyczne

Heteroscedastyczność. Zjawisko heteroscedastyczności Uogólniona Metoda Najmniejszych Kwadratów Stosowalna Metoda Najmniejszych Kwadratów

Prawdopodobieństwo i statystyka

Statystyka. Wykład 2. Krzysztof Topolski. Wrocław, 11 października 2012

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa

Literatura. Leitner R., Zacharski J., Zarys matematyki wyŝszej dla studentów, cz. III.

R k v = 0}. k N. V 0 = ker R k 0

1 Gaussowskie zmienne losowe

Układy równań liniowych

WEKTORY I WARTOŚCI WŁASNE MACIERZY. = λ c (*) problem przybliżonego rozwiązania zagadnienia własnego dla operatorów w mechanice kwantowej

Zadania egzaminacyjne

2 1 3 c c1. e 1, e 2,..., e n A= e 1 e 2...e n [ ] M. Przybycień Matematyczne Metody Fizyki I

Formy kwadratowe. Mirosław Sobolewski. Wydział Matematyki, Informatyki i Mechaniki UW. wykład z algebry liniowej Warszawa, styczeń 2009

Układy równań i równania wyższych rzędów

Teoretyczne podstawy programowania liniowego

L.Kowalski zadania z rachunku prawdopodobieństwa-zestaw 4 ZADANIA - ZESTAW 4

Zawansowane modele wyborów dyskretnych

Jak łatwo zauważyć, zbiór form symetrycznych (podobnie antysymetrycznych) stanowi podprzestrzeń przestrzeni L(V, V, K). Oznaczamy ją Sym(V ).

Prawa wielkich liczb, centralne twierdzenia graniczne

Metoda największej wiarygodności

Zmienne zależne i niezależne

Transkrypt:

Wykład XII: Zagadnienia redukcji wymiaru danych 12 maja 2014

Definicja Niech X będzie zmienną losową o skończonym drugim momencie. Standaryzacją zmiennej X nazywamy zmienną losową Z = X EX Var (X ).

Definicja Niech X będzie zmienną losową o skończonym drugim momencie. Standaryzacją zmiennej X nazywamy zmienną losową Z = X EX Var (X ). Uwaga: EZ = 0, Var (Z) = 1.

Definicja Niech X będzie zmienną losową o skończonym drugim momencie. Standaryzacją zmiennej X nazywamy zmienną losową Z = X EX Var (X ). Uwaga: EZ = 0, Var (Z) = 1. Uwaga: Jeżeli X = (X 1, X 2,..., X d ) T jest wektorem losowym o macierzy kowariancji Σ, to wektor standaryzowany (po współrzędnych) Z ma wartość oczekiwaną E Z = 0 i macierz kowariancji R = [r ij ] równą macierzy KORELACJI wektora X, tj. r ij = ρ ij = cov (X i, X j ). Var (X i )Var (X j )

- cd.

- cd. Uwaga: prosta baza danych + ewentualna liczbowa etykietyzacja niektórych pól = ciąg wartości wektorów X n (rekordów), których składowe mierzone są na ogół w różnych jednostkach.

- cd. Uwaga: prosta baza danych + ewentualna liczbowa etykietyzacja niektórych pól = ciąg wartości wektorów X n (rekordów), których składowe mierzone są na ogół w różnych jednostkach. Empiryczna standaryzacja ciągu wektorów losowych Niech X n = (X n1, X n2,..., X nd ) T, n = 1, 2,..., N będzie ciągiem wektorów losowych. Niech X j = 1 Nn=1 N (X nj X j ) X nj, S j = 2. N N 1 n=1 Standaryzacją ciągu { X n } nazywamy ciąg wektorów losowych Z n o składowych Z nj = (X nj X j ) S j.

- cd.

- cd. Empiryczna macierz korelacji ciągu wektorów losowych Empiryczną macierzą korelacji ciągu { X n } nazywamy macierz losową ˆρ ij = ˆρ N ij = Nn=1 (X ni X i )(X nj X j ) Nn=1 (X ni X i ) 2 Nn=1 (X nj X j ) 2.

- cd. Empiryczna macierz korelacji ciągu wektorów losowych Empiryczną macierzą korelacji ciągu { X n } nazywamy macierz losową ˆρ ij = ˆρ N ij = Nn=1 (X ni X i )(X nj X j ) Nn=1 (X ni X i ) 2 Nn=1 (X nj X j ) 2. Uwaga: Przypuśćmy, że ciąg { X n } jest próbą prostą z rozkładu µ.

- cd. Empiryczna macierz korelacji ciągu wektorów losowych Empiryczną macierzą korelacji ciągu { X n } nazywamy macierz losową ˆρ ij = ˆρ N ij = Nn=1 (X ni X i )(X nj X j ) Nn=1 (X ni X i ) 2 Nn=1 (X nj X j ) 2. Uwaga: Przypuśćmy, że ciąg { X n } jest próbą prostą z rozkładu µ. ˆρ N ij = 1 N 1 1 Nn=1 N 1 (X ni X i )(X nj X j ) Nn=1 (X ni X i ) 2 1. Nn=1 N 1 (X nj X j ) 2

- cd. Empiryczna macierz korelacji ciągu wektorów losowych Empiryczną macierzą korelacji ciągu { X n } nazywamy macierz losową ˆρ ij = ˆρ N ij = Nn=1 (X ni X i )(X nj X j ) Nn=1 (X ni X i ) 2 Nn=1 (X nj X j ) 2. Uwaga: Przypuśćmy, że ciąg { X n } jest próbą prostą z rozkładu µ. ˆρ N ij ˆρ N ij = 1 N 1 1 Nn=1 N 1 (X ni X i )(X nj X j ) Nn=1 (X ni X i ) 2 1. Nn=1 N 1 (X nj X j ) 2 jest mocno zgodnym ciągiem estymatorów.

- cd. Empiryczna macierz korelacji ciągu wektorów losowych Empiryczną macierzą korelacji ciągu { X n } nazywamy macierz losową ˆρ ij = ˆρ N ij = Nn=1 (X ni X i )(X nj X j ) Nn=1 (X ni X i ) 2 Nn=1 (X nj X j ) 2. Uwaga: Przypuśćmy, że ciąg { X n } jest próbą prostą z rozkładu µ. ˆρ N ij ˆρ N ij = 1 N 1 1 Nn=1 N 1 (X ni X i )(X nj X j ) Nn=1 (X ni X i ) 2 1. Nn=1 N 1 (X nj X j ) 2 jest mocno zgodnym ciągiem estymatorów. Jednak ˆρ N ij nie jest estymatorem nieobciążonym elementu ρ ij macierzy korelacji R.

Dla każdej realizacji X 1 (ω), X 2 (ω),..., X N (ω) empiryczna macierz korelacji ˆρ N (ω) jest macierzą korelacji, tzn. jest

Dla każdej realizacji X 1 (ω), X 2 (ω),..., X N (ω) empiryczna macierz korelacji ˆρ N (ω) jest macierzą korelacji, tzn. jest symetryczna,

Dla każdej realizacji X 1 (ω), X 2 (ω),..., X N (ω) empiryczna macierz korelacji ˆρ N (ω) jest macierzą korelacji, tzn. jest symetryczna, nieujemnie określona,

Dla każdej realizacji X 1 (ω), X 2 (ω),..., X N (ω) empiryczna macierz korelacji ˆρ N (ω) jest macierzą korelacji, tzn. jest symetryczna, nieujemnie określona, na przekątnej ma wartości 1, a więc jej ślad wynosi d (wymiar wektora danych).

Dla każdej realizacji X 1 (ω), X 2 (ω),..., X N (ω) empiryczna macierz korelacji ˆρ N (ω) jest macierzą korelacji, tzn. jest symetryczna, nieujemnie określona, na przekątnej ma wartości 1, a więc jej ślad wynosi d (wymiar wektora danych). W szczególności, dla ˆρ N (ω) istnieją wartości własne λ 1 λ 2... λ d 0 oraz odpowiadające im wektory własne {e 1, e 2,..., e d } tworzące bazę ortonormalną w R d.

Dla każdej realizacji X 1 (ω), X 2 (ω),..., X N (ω) empiryczna macierz korelacji ˆρ N (ω) jest macierzą korelacji, tzn. jest symetryczna, nieujemnie określona, na przekątnej ma wartości 1, a więc jej ślad wynosi d (wymiar wektora danych). W szczególności, dla ˆρ N (ω) istnieją wartości własne λ 1 λ 2... λ d 0 oraz odpowiadające im wektory własne {e 1, e 2,..., e d } tworzące bazę ortonormalną w R d. Uwaga: i wartości własne i wektory zależą od całej realizacji X 1 (ω), X 2 (ω),..., X N (ω)!

Składowe główne Niech Z będzie d-wymiarowym wektorem standaryzowanym (tzn. E Z = 0 i Cov ( Z) = Corr ( Z)).

Składowe główne Niech Z będzie d-wymiarowym wektorem standaryzowanym (tzn. E Z = 0 i Cov ( Z) = Corr ( Z)). Niech λ 1 λ 2... λ d 0 będą wartościami własnymi macierzy Corr ( Z) a {e 1, e 2,..., e d } odpowiadającymi im wektorami własnymi, które tworzą bazę ortonormalną w R d.

Składowe główne Niech Z będzie d-wymiarowym wektorem standaryzowanym (tzn. E Z = 0 i Cov ( Z) = Corr ( Z)). Niech λ 1 λ 2... λ d 0 będą wartościami własnymi macierzy Corr ( Z) a {e 1, e 2,..., e d } odpowiadającymi im wektorami własnymi, które tworzą bazę ortonormalną w R d. Składowymi głównymi wektora Z (w istocie: macierzy Corr ( Z)) nazywamy zmienne losowe Y i = e T i Z, i = 1, 2,..., d.

- cd.

- cd. Var (Y i ) = Var (ei T Z) = Var ( e i, Z ) = e i, Cov ( Z)e i = e i, Corr ( Z)e i = e i, λ i e i = λ i.

- cd. Var (Y i ) = Var (ei T Z) = Var ( e i, Z ) = e i, Cov ( Z)e i = e i, Corr ( Z)e i = e i, λ i e i = λ i. Mówimy, że zmienna Y i wyjaśnia część λ i /d całkowitej zmienności ( wariancji ) wektora Z.

- cd. Var (Y i ) = Var (ei T Z) = Var ( e i, Z ) = e i, Cov ( Z)e i = e i, Corr ( Z)e i = e i, λ i e i = λ i. Mówimy, że zmienna Y i wyjaśnia część λ i /d całkowitej zmienności ( wariancji ) wektora Z. (ang. Principal Components Analysis ) polega na wyborze i właściwej interpretacji zmiennych Y 1, Y 2,..., Y k w taki sposób, aby wyjaśnić zadaną część α (0, 1) całkowitej wariancji.

- cd.

- cd. Innymi słowy, w analizie składowych głównych (PCA) szukamy:

- cd. Innymi słowy, w analizie składowych głównych (PCA) szukamy: k możliwie małego (w stosunku do d), które spełnia warunek

- cd. Innymi słowy, w analizie składowych głównych (PCA) szukamy: k możliwie małego (w stosunku do d), które spełnia warunek λ i /d + λ 2 /d +... + λ k /d > α,

- cd. Innymi słowy, w analizie składowych głównych (PCA) szukamy: k możliwie małego (w stosunku do d), które spełnia warunek λ i /d + λ 2 /d +... + λ k /d > α, i dla którego odpowiednie kombinacje liniowe zmiennych wyjściowych posiadają sensowną interpretację.

Model dla analizy czynnikowej

Model dla analizy czynnikowej Postuluje się istnienie nieobserwowanych czynników (ang. factors ), które przejawiają się w rezultacie działania mechanizmu liniowego X E X = L F + ε, gdzie wektor obserwacji X ma wymiar d, wektor czynników F ma wymiar k < d (znacznie!), wektor czynników specyficznych ε ma wymiar d, a macierz ładunków czynników L ma wymiar d k.

Model dla analizy czynnikowej Postuluje się istnienie nieobserwowanych czynników (ang. factors ), które przejawiają się w rezultacie działania mechanizmu liniowego X E X = L F + ε, gdzie wektor obserwacji X ma wymiar d, wektor czynników F ma wymiar k < d (znacznie!), wektor czynników specyficznych ε ma wymiar d, a macierz ładunków czynników L ma wymiar d k. Zakłada się, że F i ε są nieskorelowane, E F = 0, Cov (F ) = 1I k, E ε = 0 i Cov ( ε) = Λ ε jest macierzą diagonalną,

(ang. Factor Analysis )

(ang. Factor Analysis ) W szczególności: Σ = E( X EX )( X EX ) T = E(LF + ε)(lf + ε) T = E(LF F T L T ) + E(LF ε T ) + E( ε F T L T ) + E( ε ε T ) = LL T + Λ ε.

(ang. Factor Analysis ) W szczególności: Σ = E( X E X )( X E X ) T = E(L F + ε)(l F + ε) T = E(L F F T L T ) + E(L F ε T ) + E( ε F T L T ) + E( ε ε T ) = LL T + Λ ε. Rozwiązanie powyższego równania oraz poszukiwanie czynników F przeprowadza się numerycznie.

(ang. Factor Analysis ) W szczególności: Σ = E( X E X )( X E X ) T = E(L F + ε)(l F + ε) T = E(L F F T L T ) + E(L F ε T ) + E( ε F T L T ) + E( ε ε T ) = LL T + Λ ε. Rozwiązanie powyższego równania oraz poszukiwanie czynników F przeprowadza się numerycznie. Niech ( F, L) będzie rozwiązaniem dla modelu analizy czynnikowej. Nich B będzie dowolnym odwzorowaniem ortogonalnym. Wówczas (B F, LB T ) tez jest rozwiązaniem i konieczna jest dodatkowa analiza i wybór odpowiedniej rotacji czynników.

(ang. Factor Analysis ) W szczególności: Σ = E( X E X )( X E X ) T = E(L F + ε)(l F + ε) T = E(L F F T L T ) + E(L F ε T ) + E( ε F T L T ) + E( ε ε T ) = LL T + Λ ε. Rozwiązanie powyższego równania oraz poszukiwanie czynników F przeprowadza się numerycznie. Niech ( F, L) będzie rozwiązaniem dla modelu analizy czynnikowej. Nich B będzie dowolnym odwzorowaniem ortogonalnym. Wówczas (B F, LB T ) tez jest rozwiązaniem i konieczna jest dodatkowa analiza i wybór odpowiedniej rotacji czynników., mimo bogatej literatury i mnogosci algorytmów pozostaje zawsze narzędziem bardzo kontrowersyjnym.