Analiza czynnikowa i wnioskowanie dla właściwości macierzy kowariancji Wioleta Arym, Daria Szlagowska, Martyna Zarach, Andrzej Rebell Wydział FTiMS, Politechnika Gdańska 9 maja 2014
Początki analizy czynnikowej Istota i cel analizy czynnikowej Porównanie z analizą głównych składowych Początek analizy czynnikowej sięga pierwszej połowy XX wieku. Naukowcy w swoich badaniach stwierdzili, ze wyniki różnych testów, które badają uzdolnienia intelektualne są zawsze ze sobą dodatnio skorelowane. Charles Spearman wysunął hipotezę, że może istnieć jeden ogólny czynnik występujący w większości testów, którego istnienie miałoby wyjaśniać współzmienność wyników testów. W swojej pracy Spearman podał macierz korelacji między następującymi zmiennymi-wyniki testów uzdolnień w zakresach: C-języki klasyczne, F-język francuski, E-język angielski, M-matematyka, D-rozróżnianie tonacji, Mu-słuch muzyczny.
Początki analizy czynnikowej Istota i cel analizy czynnikowej Porównanie z analizą głównych składowych Zauważył on, że macierz ta ma interesującą własność: jakiekolwiek dwie jej kolumny(wiersze) są niemal proporcjonalne (pomijając wyrazy na przekątnej). Na przykład weźmy kolumny C i M: 0,83 0,67 0,78 0,64 0,66 0,45 0,63 0,51 1, 2
Początki analizy czynnikowej Istota i cel analizy czynnikowej Porównanie z analizą głównych składowych Równanie przedstawiające wyniki pewnej liczby testów uzdolnień według Spearmana wyraża się wzorem X i = a i F + e i F-wspólny czynnik dla wszystkich pomiarów a i -miara udziału wspólnego czynnika F w wyjaśnieniu i-tego testu uzdolnień e i -część X i, która jest charakterystyczna dla konkretnego testu uzdolnień i. Zakładamy, że F i e i są niezależne. F ma wariacje równą 1. Wówczas jeżeli X i są standaryzowane to: wariancja jest równa a 2 i + Var(e i ) = 1 czyli a 2 i jest częścią wariancji wyjaśnioną przez czynnik F.
Początki analizy czynnikowej Istota i cel analizy czynnikowej Porównanie z analizą głównych składowych Rozważania Spearmana o wpływie jednego czynnika głównego zostały rozszerzone na większą liczbę czynników przez L.L. Thurstone a w połowie XX wieku. Podał on teoretyczne podstawy analizy wieloczynnikowej, jak i możliwości praktycznych rozwiązań.
Istota i cel analizy czynnikowej Początki analizy czynnikowej Istota i cel analizy czynnikowej Porównanie z analizą głównych składowych Analiza czynnikowa jest metodą statystyczną. Tłumaczy korelacje i poszukuje przyczyn współzmienności, która jest generowana przez czynniki wspólne. Czynniki te nie są bezpośrednio obserwowane- są to wielkości abstrakcyjne. Celem analizy jest wykrycie tych wspólnych czynników i opisanie obserwowanych zmiennych za pomocą kombinacji liniowej tych czynników. Prowadzi to do redukcji wymiaru przestrzeni zmiennych.
Początki analizy czynnikowej Istota i cel analizy czynnikowej Porównanie z analizą głównych składowych Porównanie z analizą głównych składowych Analiza czynnikowa może być uznawana, jako rozszerzenie do analizy głównych składowych. Obie mogą być postrzegane, jako próby zbliżenia się do macierzy kowariancji Σ.
Porównanie dwóch metod Początki analizy czynnikowej Istota i cel analizy czynnikowej Porównanie z analizą głównych składowych Analiza czynnikowa orientacja kowariancyjna: punktem wyjścia jest zredukowana macierz korelacji lub macierz kowariancji model otwarty: obok wariancji cech uwzględnia się także wariancję nieobjaśnianą (zm. pominięte, losowość obserwacji) Analiza głównych składowych orientacja wariancyjna: punktem wyjścia jest zwykła macierz korelacji model zamknięty: uwzględnia się wyłącznie wariancję badanych zmiennych
Początki analizy czynnikowej Istota i cel analizy czynnikowej Porównanie z analizą głównych składowych każda zmienna pierwotna jest funkcją nieobserwowanych czynników wspólnych i czynnika swoistego buduje się teoretyczny model zjawiska i sprawdza, czy jest zgodny z danymi empirycznymi celem analizy jest identyfikacja ukrytych zmiennych zmienne pierwotne są liniową funkcją składowych głównych(a główne składowe można przedstawić jako kombinacje liniowe zmiennych pierwotnych) wychodzi się od obserwacji empirycznych, a następnie buduje model teoretyczny celem analizy jest uproszczenie struktury danych
Założenia modelu analizy czynnikowej Struktura kowariancji modelu Przykład- brak odpowiedniego rozwiązania Niejednoznaczność rozwiązania Model ten zakłada, że X-macierz zmiennych obserwowanych, jest liniowo zależny od kilku nieobserwowalnych zmiennych losowych F 1, F 2,..., F m. Szczegółowy wzór analizy czynnikowej Macierzowy wzór analizy czynnikowej
Założenia modelu analizy czynnikowej Struktura kowariancji modelu Przykład- brak odpowiedniego rozwiązania Niejednoznaczność rozwiązania µ i -wartość oczekiwana zmiennej X i ; ɛ i -(i = 1, 2,..., p)czynnik specyficzny zmiennej X i ; odpowiada to interpretacji, że każda zmienna ma swój własny szczególny element niezależny od centralnego zjawiska; mówią one o cechach wyróżniających obserwowane zmienne, a często obejmują też efekt działania czynników losowych; F j -(j = 1, 2,..., m, gdzie m < p)czynnik wspólny; przyjmuje się, że opisuje on w więcej niż jedną zmienną, jeżeli opisuje wszystkie zmienne nazywamy go czynnikiem ogólnym; l ij -stałe parametry(współczynniki modelu) zwane ładunkami czynnikowymi; są one przedmiotem szacowania w analizie czynnikowej; ładunki te mają charakter podobny do współczynnika regresji i wskazują jak każdy z czynników wspólnych wpływa na konkretną zmienną obserwowaną.
Założenia modelu analizy czynnikowej Struktura kowariancji modelu Przykład- brak odpowiedniego rozwiązania Niejednoznaczność rozwiązania Założenia modelu czynniki wspólne są zestandaryzowane, czyli: E(F j ) = 0 i Var(F j ) = 1 dla j = 1, 2,..., m; czynniki wspólne F j nie są skorelowane ze sobą; dla czynników specyficznych zachodzi: E(ɛ i ) = 0, dla i = 1, 2,..., p oraz Cov(ɛ) = Ψ, gdzie Ψ jest macierzą diagonalną: ψ 1 0 0 0 ψ 2 0 Ψ =...... 0 0 ψ p czynniki wspólne F j nie są skorelowane z czynnikami specyficznymi ɛ i, czyli zachodzi: Cov(ɛ, F ) = 0
Założenia modelu analizy czynnikowej Struktura kowariancji modelu Przykład- brak odpowiedniego rozwiązania Niejednoznaczność rozwiązania Struktura kowariancji modelu
Założenia modelu analizy czynnikowej Struktura kowariancji modelu Przykład- brak odpowiedniego rozwiązania Niejednoznaczność rozwiązania Następuje podział wariancji poszczególnych zmiennych na wariancję wspólną i specyficzną: hi 2 - wariancja wspólna (communality), czyli ta część całkowitej wariancji, która jest wspólna z innymi zmiennymi, lub inaczej- która jest wyjaśniona przez wspólne czynniki. Zasób zmienności wspólnej i jest sumą kwadratów ładunków zmiennej i na m wspólnych czynnikach. ψ i - wariancja specyficzna (specific variance), czyli ta część wariancji całkowitej, która jest właściwa tylko tej konkretnej zmiennej.
Założenia modelu analizy czynnikowej Struktura kowariancji modelu Przykład- brak odpowiedniego rozwiązania Niejednoznaczność rozwiązania Zatem: Wariancja zmiennej X i Var(X i ) =wariancja wspólna + wariancja specyficzna
Założenia modelu analizy czynnikowej Struktura kowariancji modelu Przykład- brak odpowiedniego rozwiązania Niejednoznaczność rozwiązania Wzór na macierz wariancji- kowariancji wektora X zakłada, że p + p(p 1)/2 = p(p + 1)/2 wariancji i kowariancji X może być odtworzona z pm ładunków czynnikowych l ij i p wariancji specyficznych ψ i. Jeśli m = p, to każda macierz kowariancji Σ może być przedstawiona jednoznacznie z mnożenia macierzy LL, dlatego też Ψ może być macierzą zerową. Jednakże, analiza czynnikowa jest użyteczna wtedy, gdy m jest stosunkowo małe do p. W tym wypadku wzór na macierz kowariancji X umożliwia w prosty sposób wyliczenie wszystkich elementów p(p + 1)/2 za pomocą mniejszej liczby elementów. Na przykład jeśli X zawiera p=12 wartości i nasz podstawowy model analizy czynnikowej zawiera m=2 czynniki wspólne, wtedy p(p + 1)/2 = 12(13)/2 = 78 elementów Σ są opisane, w odniesieniu do mp + p = 2(12) + 12 = 36 parametrów l ij oraz ψ i z modelu.
Założenia modelu analizy czynnikowej Struktura kowariancji modelu Przykład- brak odpowiedniego rozwiązania Niejednoznaczność rozwiązania Przykład- brak odpowiedniego rozwiązania Niech p=3 i m=1 i niech zmienne losowe X 1, X 2 i X 3 mają dodatnio określoną macierz kowariancji: 1.9.7 Σ =.9 1.4.7.4 1 Wzór na macierz kowariancji zakłada, że: Σ = LL + Ψ, lub inaczej:
Założenia modelu analizy czynnikowej Struktura kowariancji modelu Przykład- brak odpowiedniego rozwiązania Niejednoznaczność rozwiązania Para równań:.70 = l 11 l 31 daje nam:.40 = l 21 l 31 l 21 = ( ).40 l 11.70 Zastąpienie l 21 tym wynikiem w równaniu:.90 = l 11 l 21 daje l 11 = ±1.255. Niech Var(F 1 ) = 1 i Var(X 1 ) = 1, l 11 = Cov(X 1, F 1 ) = Corr(X 1, F 1 ). Teraz współczynnik korelacji(w wartości bezwzględnej) nie może być większy niż 1. Zatem z tego punktu widzenia l 11 = 1.255 jest zbyt duże.
Założenia modelu analizy czynnikowej Struktura kowariancji modelu Przykład- brak odpowiedniego rozwiązania Niejednoznaczność rozwiązania Także równanie: 1 = l 2 11 + ψ 1 daje ψ 1 = 0.575, które jest niedostateczne, ponieważ daje wartość ujemną dla Var(ε 1 ) = ψ 1. Zatem dla tego przykładu z m=1, jest możliwe otrzymanie rozwiązania liczbowego dla równania Σ = LL + Ψ, jednakże rozwiązanie to nie jest zgodne z interpretacją statystyczną, a więc nie jest to poprawne rozwiązanie problemu.
Niejednoznaczność rozwiązania Założenia modelu analizy czynnikowej Struktura kowariancji modelu Przykład- brak odpowiedniego rozwiązania Niejednoznaczność rozwiązania Jeśli m > 1 zawsze istnieje jakaś niejednoznaczność związana z wyznaczeniem modelu analizy czynnikowej. By to zauważyć, weźmy dowolną macierz ortogonalną T o wymiarach m x m, taką że: TT = T T = I. Wtedy wzór modelu można zapisać: X µ = LF + ε = LTT F + ε = L F + ε gdzie L = LT i F = T F. Zachodzi: E(F ) = T E(F ) = 0 i Cov(F ) = T Cov(F )T = T T = I
Założenia modelu analizy czynnikowej Struktura kowariancji modelu Przykład- brak odpowiedniego rozwiązania Niejednoznaczność rozwiązania Nie jest więc możliwe, żeby na postawie obserwacji X, rozróżnić ładunki L od L. Oznacza to, że współczynniki F i F = T F mają te same właściwości statystyczne i oba generują tę samą macierz kowariancji Σ. To znaczy, że: Σ = LL + Ψ = LTT L + Ψ = (L ) (L ) + Ψ
Założenia modelu analizy czynnikowej Struktura kowariancji modelu Przykład- brak odpowiedniego rozwiązania Niejednoznaczność rozwiązania Ta niejednoznaczność daje uzasadnienie dla rotacji czynników, ponieważ macierze ortogonalne odpowiadają za obroty (i odbicia) układu współrzędnych X. Analiza czynników modelu postępuje przez nakładanie warunków, które pozwolą na jednoznaczne określenie L i Ψ. Następnie modyfikujemy macierz ładunków mnożąc ją przez macierz ortogonalną, tak aby otrzymać łatwiejsze do interpretacji wyniki. Ale o tym powiemy dokładniej w dalszej części prezentacji...
Metoda Głównych Składowych Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności Wśród metod obliczania ładunków czynnikowych wyróżniamy metodę znaną z analizy głównych składowych. Należy przyjrzeć się początkowym zmiennym. Jeżeli analizowane zmienne są porównywalne (wyrażają się w tych samych jednostkach i są tego samego rzędu), to w dalszej analizie wykorzystuje się macierz kowariancji. Jeżeli natomiast zmienne mają różne jednostki lub są różnego rzędu, analize składowych głównych przeprowadza się wykorzystując macierz korelacji.
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności Przyjmijmy, ze punktem wyjścia w analizie czynnikowej jest macierz kowariancji Σ, która ma pary wartości i wektorów własnych (λ i, e i ), dla i = 1, 2,..., p, przy czym λ 1 λ 2... λ p 0. Wtedy Macierz Σ jest postaci
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności Chociaż przedstawione w analizie czynnikowej Σ jest dokładne, nie jest ono szczególnie użyteczne: używa tyle samo wspólnych czynników ile jest zmiennych nie pozwala na jakąkolwiek wariancje specyficzną ψ (czyli ψ i = 0) Wolimy wzory, które wyjaśniają strukturę kowariancji w odniesieniu do kilku wspólnych czynników.
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności Jednym sposobem, stosowanym kiedy ostatnie p-m wartości własne są małe, jest pominięcie udziału λ m+1 e m+1 e m+1 +... + λ pe p e p w Σ. Pomijając ten udział, otrzymujemy obliczenie przybliżone Przybliżona macierz Σ Zakłada się w ten sposób, ze czynniki specyficzne ɛ i mają małe znaczenie i mogą być pominięte w macierzy Σ.
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności Jeśli specyficzne współczynniki są zawarte we wzorze, ich wariancje mogą być brane za elementy diagonalne Σ LL, gdzie LL równa się przybliżonej macierzy Σ. Ostatecznie okazuje się, że obliczeniem przybliżonym staje się Ostateczna przybliżona macierz Σ gdzie Ψ i = σ ii m j=1 l 2 ij dla i = 1, 2,..., p.
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności By zastosować tę metodę do zbioru danych x 1, x 2,..., x n najpierw trzeba odjąć od nich średnią z próby x. Skupione obserwacje mają taką samą macierz kowariancji próby S jak pierwotne obserwacje. W przypadkach, w których jednostki zmiennych nie są proporcjonalne, wskazane jest pracować z ujednoliconymi zmiennymi
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności których macierz kowariancji próby (S) jest macierzą korelacji próby (R) na obserwacjach x 1, x 2,..., x n. Ujednolicanie pozwala uniknąć problemów związanych z występowaniem jednej zmiennej z dużą wariancją nadmiernie wpływającą na określenie ładunków czynnikowych. Analiza czynnikowa głównego składnika dla macierzy kowariancji próby S jest określona w odniesieniu do jej par wartości i wektorów własnych macierzy ( λ 1, ê 1 ), ( λ 2, ê 2 ),..., ( λ p, ê p ), gdzie λ 1 λ 2... λ p. Niech m < p będzie liczbą wspólnych czynników. Wtedy macierz przybliżonych ładunków czynnikowych l ij jest dana przez [ ] L = λ 1 ê 1 ; λ 2 ê 2 ;...; λ m ê m
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności Przybliżone wariancje specyficzne dostarczone są przez elementy diagonalne macierzy S L L, więc Ψ = gdzie ψ i = s ii m j=1 l2 ij ψ 1 0 0 0 ψ 2 0...... 0 0 ψ p
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności Zasoby zmienności wspólnej są zatem określone wzorem h 2 i = m j=1 l2 ij = m j=1 λ j ê 2 ij Rozważmy macierz residuum S ( L L ) + Ψ wynikającą z przybliżenia S przez rozwiązanie głównego składnika. Elementy diagonalne są równe zeru i jeśli inne element są również małe, możemy subiektywnie uznać model m-czynnikowy za stosowny.
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności Udziały pierwszych kilku czynników w wariancjach próbkowych zmiennych powinny być duże. Udział pierwszego wspólnego czynnika w wariancji próby s ii to l 2 i1. Stąd udział tego czynnika w całkowitej wariancji próby s 11 + s 22 +... + s pp jest równy l 2 11 + l 2 21 +... + l 2 p1 = ( λ 1 ê 1 ) ( λ 1 ê 1 ) = λ 1 ponieważ wektor własny macierzy ê i ma długość 1. część całkowitej wariancji próbki ze względu na j-ty czynnik dla analizy czynnikowej S i R λ j s 11 +s 22 +...+s pp i λ j p
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności Kryterium to jest często używane, jako urządzenie heurystyczne dla określenia odpowiedniej liczby wspólnych czynników. Liczba wspólnych czynników zachowanych we wzorze jest zwiększana dopóki odpowiednia proporcja całkowitej próby wariancji zostanie wyjaśniona.
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności Zmodyfikowane podejście- Rozwiązanie Głównego Czynnika Czasem rozważane jest zmodyfikowane podejście do głównego składnika. Opiszemy rozumowanie w odniesieniu do analizy czynnikowej dla R, chociaż procedura jest także odpowiednia dla S. Rozważmy dobrze określony model ρ = LL + Ψ. Wówczas: ρ ii = 1 = hi 2 + ψ i. Jeżeli udział ψ i z przekątnej jest usunięty, lub równoważnie- hi 2 = 1, to otrzymana macierz wygląda następująco: ρ Ψ = LL. Przypuśćmy teraz, że wstępne oszacowania ψi wariancji specyficznej są podane. Zastępując elementy diagonalne macierzy R przez hi 2 = 1 ψi otrzymujemy zredukowaną macierz korelacji próby.
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności R r = h 2 1 r 12 r 1p r 12 h2 2 r 2p...... r 1p r 2p hp 2 Zachodzi wówczas relacja: R r = L r L r, gdzie L r = {lij } są szacowanymi ładunkami. Metoda Głównych Składowych dla analizy czynnikowej używa szacunków: ] L r = [ λ λ 1ê 1 ; 2ê 2 ;...; λ mê m i ψ i = 1 m j=1 l 2 2 ij, h i = mj=1 l 2 ij
Krótkie przypomnienie Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności Wartość własna Mówi nam jaka część całkowitej zmienności została wyjaśniona przez główną składową. Okazuje się, ze każda kolejna główna składowa określa coraz mniejszą część wariancji więc kolejne wartości własne maleją. Suma wartości własnych jest całkowitą wariancją więc można określić jaki procent wariancji wyjaśniają poszczególne składowe. Wektor własny Przedstawia jaki wpływ mają wartości pierwotne na główną składową. Pokazuje współczynniki kombinacji liniowej, które wyznaczają główną składową.
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności Ładunki czynnikowe Również pokazują jaki mają wpływ poszczególne czynniki pierwotne na główną składową. Mówią jaką część zmiennej wariancji naszej składowej stanowią zmienne pierwotne. Naszym celem jest wyznaczenie takich ładunków, żeby składowa główna wyjaśniała maksymalną część wariancji zmiennych pierwotnych.
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności Kryterium Kaisera Polega na tym, aby odrzucić wszystkie czynniki, których wartości własne są mniejsze bądź równe 1. Test osypiska To drugi sposób na określenie, ile czynników powinniśmy pozostawić. Szukamy miejsca, gdzie występuje łagodny spadek wartości własnych i na prawo od tego miejsca najprawdopodobniej znajduje się osypisko czynnikowe i możemy na podstawie wykresu odczytać, ile zmiennych należy pozostawić.
Kod w SAS Wstęp Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności data spearman (type=corr); _type_= corr ; if _n_=1 then _type_= N ; infile cards missover; input _name_ $ c f e m d mu; lines; n 33 c 1.0 f.83 1.0 e.78.67 1.0 m.70.67.64 1.0 d.66.65.54.45 1.0 mu.63.57.51.51.40 1.0 ; proc factor data=spearman method=prin res scree; var c f e m d mu; title3 Principal Component Method ; run; proc factor data=spearman method=prin res nfact=2; title3 PC Method: Res matrix for nfact=2 ; run; proc factor data=spearman method=prin res nfact=3; title3 PC Method: Res matrix for nfact=3 ; run;
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności W procedurze PROC FACTOR używamy opcji PRINCIPAL, co zapisujemy METHOD = PRINCIPAL lub METHOD = PRIN. Możemy użyć jedną z trzech opcji wybory liczby czynników: NFACTOR=...lub NFAC=...lub N=... - tu podajemy od razu liczbę czynników, którą chcemy użyć; MINEIGE=...lub MIN=... - wybiera nam czynniki, których wartości własne większe bądź równe od wpisanej wartościdomyślnie jest to 1. PROPORTION=... lub P=... - aby wybrać wartości własne potrzebne do otrzymania zadanej proporcji całkowitej wariancji. Można również użyć opcji PRECENT =... czyli podajemy w procentach, gdzie najwyższa wartość to 100 ( w przypadku proporcji najwyższa wartość to 1)
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności Wykres osypiska wskazuje, że powinniśmy przyjąć model z jednym czynnikiem.
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności Biorąc pod uwagę również kryterium Kaisera, widzimy że tylko jedna wartość własna jest większa niż 1, zatem nasz model będzie jednoczynnikowy. Kolumna Udział pokazuje jaki udział w sumie bierze dana wartość własna, czyli w ilu procentach została wyjaśniona. Kolumna Skumulowany jest sumą udziału poprzedzających wartości własnych, aż dojdziemy do całkowitej wariancji równej 1.
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności Nasz model jest jednoczynnikowy, zatem macierz L jest wektorem postaci: L = (0.93653; 0.89396;...; 0.72070)
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności Jest to pierwsza wartość własna, która wyjaśnia zmienność całkowitej wariancji w 68, 38%. Końcowe oszacowania ładunków to wartości początkowe podniesione do kwadratu- l 2 i. Suma daje nam wariancje wyjaśnioną przez nasz czynnik.
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności Dzięki procedurze RES użytej w kodzie wyświetlna się nam macierz korelacji resztowej. Wzdłuż przekątnej znajdują się wartości 1 h 2 i, czyli nasza wariancja specyficzna lub inaczej wyjątkowość (uniquness).
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności Wartości te są obliczane według następującego wzoru:
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności Gdy zwiększamy ręcznie w kodzie liczbę ładunków to wartości takie jak: łączne końcowe oszacowanie ładunków oraz procent całej zmienności wariancji, są coraz większe. Natomiast korelacje resztowe są coraz mniejsze. Należy jednak pamiętać, że nasz model analizy czynnikowej ma sens wtedy, gdy liczba czynników jest mała w porównaniu z liczbą zmiennych wejściowych.
Metoda największej wiarygodności Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności Określenie największej wiarygodności dla ładunków czynnikowych i wariancji specyficznych możemy otrzymać, jeśli wspólne czynniki F i specyficzne czynniki ɛ mają rozkład normalny (przypomnienie: X j µ = LF j + ɛ j ) oraz X 1, X 2,..., X n są losową próbą z N p (µ, Σ). Funkcja prawdopodobieństwa przedstawia się wzorem co zależy od L i Ψ, występujące we wzorze Σ = LL + Ψ.
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności Ten wzór wciąż nie jet dobrze zdefiniowany przez wielokrotność wyboru L (dzięki transformacjom ortogonalnym). Jednoznacznego wyboru L dokonujemy przez nałożenie dodatkowego warunku: = L Ψ 1 L, gdzie jest macierzą diagonalną. W metodzie największej wiarygodności należy maksymalizować wzór funkcji prawdopodobieństwa podany powyżej. Istnieją już skuteczne programy komputerowe, które umożliwiają łatwe otrzymanie tych estymacji. Zasoby zmienności wspólnej, określone metodą największej wiarygodności, wynoszą: ĥ2 i = l 2 i1 + l 2 i2 +... + l 2 im dla i = 1, 2,..., p a więc Część całkowitej wariancji z próby ze względu na j-ty czynnik l 2 1j + l 2 2j +... + l 2 pj s 11 + s 22 +... + s pp
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności Do określenia liczby wspólnych czynników wykorzystujemy: badanie współczynnika wiarygodności (likelihood ratio test) - daje ono możliwość sprawdzenia hipotezy, że k-czynnikowy model jest właściwy, gdzie k jest znaną liczbą całkowitą. Używając tego testu można zweryfikować hipotezę zerową H 0 : Σ = LL + Ψ, Rank(L) = k kryterium informacyjne Akaike - model k-czynnikowy z k oznaczającym najmniejszą wartość AIC(k) jest uważany za najlepszy.
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności Przykład2-Analiza czynnikowa dla danych cen akcji przy użyciu metody największej wiarygodności Rozważmy ceny akcji składające się z n=100 tygodniowych stóp zwrotu. Stopy zwrotu są określone następującym wzorem: (cena zamknięcia w bieżącym tygodniu - cena zamknięcia w poprzednim tygodniu)/(cena zamknięcia w poprzednim tygodniu). Mamy pięć zmiennych(akcji): X1 = J P MORGAN X2 = CITIBANK X3 = WELLS FARGO X4 = ROYAL DUTCH SHELL X5 = EXXON MOBILE
Kod SAS Wstęp Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności data set1; infile "G:\STATYSTYKA-PREZENTACJA\stocks.dat.txt"; input x1-x5; label x1 = J P MORGAN x2 = CITIBANK x3 = WELLS FARGO x4 = ROYAL DUTCH SHELL x5 = EXXON MOBILE; run; proc factor data=set1 method=ml nfact=1 res; var X1-X5; priors smc; run;
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności Do użycia metody największej wiarygodności wykorzystujemy opcję METHOD=ML w procedurze FACTOR. Dla tego algorytmu, estymatory hi 2 muszą być podane używając opcji PRIOR=. Istnieje kilka możliwości wyboru estymatorów hi 2. Opcją domyślną jest wielokrotna korelacja kwadratowa,która jest definiowana przez procedurę PRIOR=SMC. Wyróżniamy również: PRIOR=ASMC - skorygowana wieloraka korelacja kwadratowa PRIOR=MAX - maksimum wartości bezwzględnej korelacji
Estymacja h 2 i Wstęp Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności metodą wielorakiej korelacji kwadratowej Niech R 1 = (r ij ) będzie macierzą odwrotną do macierzy korelacji R. Popularnym podejściem do estymowania Ψ i jest przyjęcie Ψ i = 1, i = 1,.., p r ii Jest to równoważne estymacji i-tego elementu h 2 i, którego estymator jest postaci ĥ 2 i = 1 Ψ i = 1 1 r ii = SMC i który jest równy współczynnikowi wielokrotnej korelacji kwadratowej między zmienną x i (i-tym elementem wektora zmiennych x) i pozostałymi p-1 elementami wektora x.
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności Macierz pseudo korelacji R a zadana równaniem R a = R Ψ, gdzie elementy na diagonali ĥ2 i zastępują hi 2, jest teraz użyta do wykonania analizy czynnikowej. W SAS, używając opcji PRIORS = SMC w procedurze PROC FACTOR estymacja zasobów wariancji wspólnej jest realizowana za pomocą metody SMC. Całkowita wariancja wspólna jest wtedy estymowana przez p i=1 SMC i.
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności Chcemy wyznaczyć najmniejszą liczbę czynników, które mogą opisać dane, za pomocą formalnych testów statystycznych oraz kryterium AIC. Hipoteza zerowa dla modelu k- czynnikowego H 0 : liczba czynników k jest wystarczająca W SASie liczbę czynników wybieramy procedurą NFACT=k lub NFACTORS=k
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności Widzimy, że dla modelu jednoczynnikowego (k = 1) p = 0.0085. Stąd wniosek, że ten model jest niewystarczający.
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności Model z k = 2 czynniki jest wystarczających, gdyż p jest dostatecznie duże i wynosi 0.4482. Dla tej wartości k, kryterium AIC osiąga swoje minimum równe -1.4016027.
Model 1- czynnikowy Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności Dla modelu jednoczynnikowego ostateczne estymatory hi 2 to wartości w kolumnie Wspólna wariancja czynnikowa. Wariancja tłumaczona pojedynczym czynnikiem (podana w tabelce Wariancja wyjaśniona przez każdy z czynników- nieważone ) to 2.33012443. Ważona suma wariancji, pokazana w kolumnie Ważona jest liczona za pomocą wzoru: 5 w i hi 2 = i=1 wynosi 4.65060640. 5 i=1 h 2 i ψ i = 5 i=1 h 2 i 1 h 2 i
Model 2- czynnikowy Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności Pierwszy czynnik wyjaśnia 2.42474652 całkowitej wariancji, a drugi 0.56672977. Łącznie dwa czynniki wyjaśniają 2.99147629 wariancji.
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności Interpretacja: Wszystkie zmienne mają ładunki dodatnie dla F 1 oraz ładunki te mają podobne (stosunkowo wysokie) wartości. Zatem czynnik F 1 przedstawia ogólne warunki ekonomiczne i może byc nazywany czynnikiem rynkowym. Drugi czynnik F 2 kontrastuje akcje bankowe z akcjami ropy naftowej- czy akcjach bankowych pojawiają się współczynniki ujemne, a przy akcjach ropy naftowej współczynniki dodatnie. Może być on nazwany czynnikiem sektorowym.
Kod SAS- kontynuacja przykładu 1. Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności data spearman (type=corr); _type_= corr ; if _n_=1 then _type_= N ; infile cards missover; input _name_ $ c f e m d mu; lines; n 33 c 1.0 f.83 1.0 e.78.67 1.0 m.70.67.64 1.0 d.66.65.54.45 1.0 mu.63.57.51.51.40 1.0 ; proc factor data=spearman method=ml res scree; var c f e m d mu; title3 Maximum Likelihood Method ; run;
Wyniki w SAS Wstęp Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności
Metoda Głównych Składowych Zmodyfikowane podejście- rozwiązanie głównych składowych Przykład1-metoda głównych składowych Metoda największej wiarygodności Przykład2 Przykład1-metoda największej wiarygodności
Założenia i cel rotacji czynników Rotacja Varimax Inne rotacje ortogonalne Jak wspomnieliśmy wcześniej, macierz ładunków ˆL nie zmienia swoich własności po wymnożeniu jej przez dowolną macierz ortogonalną. Taką transformację utożsamiać można z obrotem osi układu współrzędnych, które w naszym przypadku odpowiadają kolejnym czynnikom F 1,...F m. Z tego powodu transformację tą nazywamy rotacją czynników.
Założenia i cel rotacji czynników Rotacja Varimax Inne rotacje ortogonalne Jeśli jako ˆL oznaczymy p x m - wymiarową macierz wyestymowanych ładunków to macierz ˆL = ˆLT, gdzie TT = T T = I jest p x m - wymiarową macierzą obróconych ładunków. Równanie ˆLˆL + ˆψ = ˆLTT ˆL + ˆψ = ˆL ˆL + ˆψ. pokazuje, że macierz kowariancji (lub korelacji) nie ulega zmianie w wyniku tej transformacji. Również wariancje specyficzne ψ, wariancje wspólne ĥi 2 i macierz residuów nie zmieniają się. Dlatego z matematycznego punktu widzenia nie ma znaczenia której z macierzy, ˆL czy ˆL, użyjemy do obliczeń.
Założenia i cel rotacji czynników Rotacja Varimax Inne rotacje ortogonalne Celem rotacji czynników jest uzyskanie macierzy ˆL, która pozwoliłaby na prostą interpretację zależności poszczególnych zmiennych od czynników F 1,..., F m. Idealna jest sytuacja, w której każda ze zmiennych ma duży ładunek na tylko jednym czynniku i małe ładunki na pozostałych. Zdarza się to bardzo rzadko, ale istnieje wiele sposobów rotacji macierzy ˆL, które pomagają w otrzymaniu możliwie prostych w interpretacji wyników.
Założenia i cel rotacji czynników Rotacja Varimax Inne rotacje ortogonalne Aby zobrazować ideę rotacji posłużymy się prostym przykładem dla dwóch czynników (m=2). W tym przypadku problem można często rozwiązać graficznie: osie układu współrzędnych oznaczamy przez F 1 i F 2, a pary ładunków (l i1, l i2 ) dla i=1,..,p traktujemy jako punkty układu. Najprostszym przykładem rotacji jest obrót osi o kąt φ. Wówczas macierz obrotu T M 2x2 ma postać: [ ] cos φ sin φ T = sin φ cos φ
Przykład Wstęp Założenia i cel rotacji czynników Rotacja Varimax Inne rotacje ortogonalne Poniżej przedstawiona jest macierz korelacji wyników egzaminów z p=6 przedmiotów dla 220 studentów.
Założenia i cel rotacji czynników Rotacja Varimax Inne rotacje ortogonalne Za pomocą metody największej wiarygodności estymujemy ładunki otrzymując następujące wyniki:
Założenia i cel rotacji czynników Rotacja Varimax Inne rotacje ortogonalne Ładunki na czynniku F 1 są dodatnie na wszystkich zmiennych. Można interpretować go więc jako czynnik ogólnej inteligencji. Ładunki na czynniku F 2 są dodatnie dla przedmiotów humanistycznych, a ujemne dla matematycznych, więc można założyć, że wskazuje on na typ inteligencji (zdolności matematyczne lub humanistyczne). Rysunek na kolejnym slajdzie przedstawia graficznie umiejscowienie punktów (l i1, l i2 ) odpowiadających kolejnych zmiennym na układzie współrzędnych F 1, F 2.
Założenia i cel rotacji czynników Rotacja Varimax Inne rotacje ortogonalne Układ współrzędnych obrócono o kąt φ = 20 tak, aby oś F1 przechodziła przez punkt 4. W ten sposób uzyskaliśmy układ, w którym zmienne 1,2,3 są skupione blisko osi F2, a zmienne 4,5,6 blisko osi F1.
Założenia i cel rotacji czynników Rotacja Varimax Inne rotacje ortogonalne Możemy z tego wywnioskować, że zmienne 1,2 i 3 mają duże ładunki na F1, a zmienne 4,5 i 6 na F 2. Czynnik F 1 interpretujemy więc jako czynnik zdolności matematycznych, a F2 jako czynnik zdolności humanistycznych. Wpływ czynnika ogólnej inteligencji F 1 rozbił się więc na dwa nowe czynniki umożliwiając bardziej precyzyjną interpretację. Rezultaty otrzymane z graficznego przedstawienia problemu potwierdzić można wyliczając macierz ˆL..553.429.568.288 [ ] ˆL = ˆL.392.450 cos 20 sin 20 T =.740.273 sin 20 cos 20.724.211.595.132
Założenia i cel rotacji czynników Rotacja Varimax Inne rotacje ortogonalne
Rotacja Varimax Wstęp Założenia i cel rotacji czynników Rotacja Varimax Inne rotacje ortogonalne W bardziej złożonych przypadkach np. gdy mamy więcej niż trzy czynniki metoda graficzna jest nieskuteczna. Wtedy najczęściej stosowanym typem rotacji jest znormalizowana rotacja varimax. Procedura varimax polega na znalezieniu macierzy ortogonalnej T M mxm, która maksymalizuje wartość wyrażenia { V = m j=1 1 p p i=1 ( ) l 2 2 [ ij 1 h i p p i=1 ] } lij 2 2 h i gdzie l ij dla są elementami obróconej macierzy ładunków ˆL M pxm.
Założenia i cel rotacji czynników Rotacja Varimax Inne rotacje ortogonalne Wyrażenie V to suma liczonych kolumnowo wariancji z podniesionych do kwadratu i skalowanych wartościami h i ładunków. Maksymalizacja V to próba jak największego zróżnicowania wartości l ij dla każdego czynnika F j tak, aby możliwe było zidentyfikowanie zmiennych, na które dany czynnik wpływa w dużym stopniu i takich, na które ma tylko śladowy wpływ.
Przykład Wstęp Założenia i cel rotacji czynników Rotacja Varimax Inne rotacje ortogonalne W 1970 roku Sinha i Lee przeprowadzili badania prób ziaren pszenicy, owsa, jęczmienia i żyta pochodzących z różnych części kanadyjskiej prerii. Próby pobrane zostały w terminalach rozładunkowych Thunder Bay (Ontario)podczas rozładowywania wagonów kolejowych. Celem badania było ustalenie ewentualnych zależności między własnościami ziarna a jego zarobaczeniem pewnymi gatunkami stawonogów. Zebrano 165 próbek i nie rozróżniano ich pod względem gatunku zboża.
Założenia i cel rotacji czynników Rotacja Varimax Inne rotacje ortogonalne Zmienne środowiskowe: GRADE - określa jakość ziarna w skali od 1 (najniższa) do 6 (najwyższa) MOIST - wyrażona w procentach wilgotność ziarna DOCK - (dockage - potrącenie) mierzy ilość ziaren chwastów, zniszczonych ziaren zbóż i innych niepożądanych materii w próbie Zmienne zliczające ilość znalezionych w próbie osobników stawonogów 6 wyróżnionych gatunków: roztocza: ACAR - Acarus, Rozkruszek, CHEY - Cheyletus, GLYC - Glycychagus, LARS - Larsonemus oraz CRYP - Cryptolestes - rodzaj chrząszcza PSOC -Psocoptera, Psotniki - rząd owadów (do kilku mm długości)
Założenia i cel rotacji czynników Rotacja Varimax Inne rotacje ortogonalne Zmienne GRADE i DOCK przekształcono, jako nowe zmienne przyjmując pierwiastki kwadratowe wartości pierwotnych. 6 zmiennych określających ilość stawonogów przekształcono używając tranformacji logarytmicznej o podstawie 10. Wybrano estymację metodą głównych czynników METHOD=PRIN. Nie określamy z góry liczby czynników.
Założenia i cel rotacji czynników Rotacja Varimax Inne rotacje ortogonalne Kod w SAS
Założenia i cel rotacji czynników Rotacja Varimax Inne rotacje ortogonalne
Założenia i cel rotacji czynników Rotacja Varimax Inne rotacje ortogonalne
Założenia i cel rotacji czynników Rotacja Varimax Inne rotacje ortogonalne Na podstawie wyjściowej (nieobróconej) macierzy ˆL trudno jest znależć oczekiwane zależności między zmiennymi. Nie daje ona zadowalającego wyniku, więc konieczne jest zastosowanie rotacji. Po transformacji macierzy ˆL nowy czynnik F1 wskazuje na zależność między występowaniem roztoczy z gatunków Cheyletus i Larsonemus a wilgotnością ziarna - można wnioskować że rozwijają się one dobrze w wilgotnym środowisku. Czynnik F2 zdaje się opisywać szerzej pojętą jakość towaru: jakość ziarna GRADE i ilość odpadów DOCK. Zależność między tymi zmiennymi zdaje się logiczna. Czynnik F3 opisuje ilość stawonogów z gatunków Glycychagus i Cryptolestes. Ładunki na tych zmiennych mają przeciwne znaki, co sugeruje, że odpowiadają im skrajnie różne środowiska lub są naturalnymi wrogami.
Inne rotacje ortogonalne Założenia i cel rotacji czynników Rotacja Varimax Inne rotacje ortogonalne Poniżej prezentujemy inne powszechnie stosowane rotacje ortogonalne. Każda z nich polega na znalezieniu macierzy ortogonalnej T maksymalizującej wartość pewnego wyrażenia. surowa rotacja varimax maksymalizująca { V 2 = m 1 p ( ) [ ] } 2 p lij 2 1 p 2 p lij 2 j=1 i=1 i=1 czyli sumę liczonych po kolumnach wariancji z kwadratów ładunków. rotacja equamax maksymalizująca [ wyrażenie 1 m p ( p ) ] 2 p lij 2 j=1 lij 4 m 2p i=1 która próbuje przypisać każdej zmiennej duży ładunek na tylko jednym czynniku. i=1
Założenia i cel rotacji czynników Rotacja Varimax Inne rotacje ortogonalne rotacja quartimax maksymalizująca wartość wyrażenia ( ) 2 Q = 1 pm lij 4 1 pm lij 2 i, j czyli wariancję z kwadratów ładunków. rotacja orthomax maksymalizująca wyrażenie [ 1 m p ( p ) ] p lij 4 γ 2 p lij 2 j=1 i=1 i=1 dla dowolnie wybranego γ (0, 1) i, j
Założenia i cel rotacji czynników Rotacja Varimax Inne rotacje ortogonalne Aby zastosować wybraną metodę rotacji w SAS-ie wystarczy wykorzystać opcję ROTATE= i wpisać nazwę rotacji. Dodatkowo, dla rotacji orthomax należy określić wartość parametru gamma opcją GAMMA=.
Założenia i cel rotacji czynników Rotacja Varimax Inne rotacje ortogonalne Kod dla danych z poprzedniego przykładu
Założenia i cel rotacji czynników Rotacja Varimax Inne rotacje ortogonalne
Założenia i cel rotacji czynników Rotacja Varimax Inne rotacje ortogonalne Jeśli żadna z ortogonalnych rotacji nie da zadowalających rezultatów możemy zastosować rotację ukośną. Jej celem jest opisanie każdej ze zmiennych przy pomocy jak najmniejszej ilości czynników, w idealnym przypadku od jednego. Polega ona na takim przesunięciu osi, aby przechodziły one dokładnie przez skupiska punktów oznaczających ładunki. Osie wynikowe nie są względem siebie ortogonalne. Takie przekształcenie prowadzi do otrzymania czynników, które będą między sobą skorelowane.
Podstawowe informacje Ważona metoda najmniejszych kwadratów Metoda Regresji Krótki przykład zależności Krótki przykład tworzenia różnych wyników sumarycznych W analizie czynnikowej najczęściej skupiamy się na interpretacji wpływu poszczególnych czynników na badane zmienne. Jednak czasem aby przeprowadzić dalszą analizę na zredukowanej ilości danych potrzebujemy oszacować wartości nieobserwowalnych zmiennych F i. Te estymacje nazywamy wartościami czynnikowymi. Nie należy ich jednak rozumieć jako zwykłej estymacji nieznanych parametrów, ale raczej jako estymacje wartości na m-wymiarowych nieobserwowalnych wektorach losowych F j, j = 1,.., n.
Podstawowe informacje Ważona metoda najmniejszych kwadratów Metoda Regresji Krótki przykład zależności Krótki przykład tworzenia różnych wyników sumarycznych Oznaczenie ˆf j := estymacje wartości wektorów f j przyjętych przez zmienną F j Tak więc współrzędne wektora f j to wartości kolejnych czynników F 1,...F m przyjęte przez te zmienne dla j-tej obserwacji. Naszym zadaniem jest estymowanie wartości m-wymiarowych wektorów f j dla każdego j 1,..., n.
Podstawowe informacje Ważona metoda najmniejszych kwadratów Metoda Regresji Krótki przykład zależności Krótki przykład tworzenia różnych wyników sumarycznych Przedstawimy dwie metody estymacji wartości czynnikowych: ważoną metodę najmniejszych kwadratów i metodę regresji. W obu musimy potraktować estymowane wartości ładunków ˆl ij oraz wariancji specyficznych ˆψ i jako wartości rzeczywiste. Potrzebne nam są wartości obserwacji na poszczególnych zmiennych X 1,..., X p, które zwykle przekształcamy odejmując wartość średnią lub standaryzując je. Zwykle do obliczeń wykorzystujemy macierz obróconą ˆL zamiast macierzy ˆL. Jak wiemy mają one te same własności, więc w dalszym opisie metod użyjemy dla uproszczenia zapisu ˆL.
Ważona metoda najmniejszych kwadratów Podstawowe informacje Ważona metoda najmniejszych kwadratów Metoda Regresji Krótki przykład zależności Krótki przykład tworzenia różnych wyników sumarycznych Załóżmy, że znane są wektor średnich µ, macierz ładunków czynnikowych L i wariancje specyficzne ψ dla modelu: X µ = LF + ɛ i niech ɛ = [ɛ 1, ɛ 2,..., ɛ p ] będą błędami. Wykorzystując fakt, że wariancje specyficzne Var(ɛ i ) = ψ i nie muszą być równe, chcemy wybrać taką macierz ˆf estymującą f, aby zminimalizować sumę kwadratów błędów ważonych przez ich wariancję, czyli wyrażenie: p i=1 ɛ 2 i ψ i = ɛ ψ 1 ɛ = (x µ Lf ) ψ 1 (x µ Lf )
Podstawowe informacje Ważona metoda najmniejszych kwadratów Metoda Regresji Krótki przykład zależności Krótki przykład tworzenia różnych wyników sumarycznych Stosując ważoną metodę najmniejszych kwadratów otrzymujemy rozwiązanie: ˆf = (L ψ 1 L) 1 L ψ 1 (x µ) Podstawiając estymatory ˆL, ˆψ i ˆµ = x w miejsce odpowiednio L,ψ i µ otrzymujemy następującą estymację wektora wartości j-tego czynnika: Estymator wartości czynnikowych na j-tej obserwacji ˆf j = (ˆL ˆψ 1ˆL) 1ˆL ˆψ 1 (x j x)
Podstawowe informacje Ważona metoda najmniejszych kwadratów Metoda Regresji Krótki przykład zależności Krótki przykład tworzenia różnych wyników sumarycznych Jeśli ˆL i ˆψ były estymowane metodą największej wiarygodności to muszą one spełniać założenie o jednoznaczności wyboru macierzy L : ˆL ˆψ 1ˆL = ˆ, gdzie ˆ jest macierzą diagonalną Stąd otrzymujemy: lub dla macierzy korelacji: ˆf j = ˆ 1ˆL ˆψ 1 (x j x) ˆf j = ˆ 1 z ˆL z ˆψ 1 z z j gdzie z j = D 1/2 (x j x) i ˆρ = ˆL z ˆL z + ˆψ z
Metoda Regresji Wstęp Podstawowe informacje Ważona metoda najmniejszych kwadratów Metoda Regresji Krótki przykład zależności Krótki przykład tworzenia różnych wyników sumarycznych W Metodzie regresji ponownie startujemy od modelu wyjściowego tzn. X µ = LF + ɛ oraz zakładamy, że macierz ładunków czynnikowych L oraz macierz specyficznych wariancji Ψ są znane. Przy założeniu łącznego rozkładu normalnego czynników F i ɛ otrzymujemy, że liniowa kombinacja X µ = LF + ɛ ma rozkład: N p (0, LL + Ψ). Dodatkowo łączny rozkład X µ oraz F to N m+p (0, Σ ) gdzie: a 0 jest (m + p) x 1 wekorem 0.
Podstawowe informacje Ważona metoda najmniejszych kwadratów Metoda Regresji Krótki przykład zależności Krótki przykład tworzenia różnych wyników sumarycznych Rozkład warunkowy F x jest wielowymiarowy normalny z wartościami: Wartości L (LL + Ψ) 1 są współczynnikami w regresji czynników. Estymacja tych współczynników da nam wartości czynnikowe. Biorąc jakikolwiek wektor obserwacji x j oraz wyestymowane z Metody Największej Wiarygodności L i Ψ uzyskujemy, że j-te wartości czynnikowe wektora dane są przez:
Podstawowe informacje Ważona metoda najmniejszych kwadratów Metoda Regresji Krótki przykład zależności Krótki przykład tworzenia różnych wyników sumarycznych Możemy uprościć to wyrażenie stosując następującą równość: dzięki temu uproszczeniu możemy porównywać wartości czynnikowe uzyskane obiema metodami, tj. metodą najmniejszych kwadratów oraz regresjii. Wykorzystujemy do tego poniższy wzór: Z estymacji metodą największej wiarygodności mamy ( L Ψ 1 L) 1 = 1 oraz łatwo zauważyć, że jeżeli elementy diagonalne tej macierzy są bliskie 0 to obie metody dają bliskie sobie wartości czynnikowe.
Podstawowe informacje Ważona metoda najmniejszych kwadratów Metoda Regresji Krótki przykład zależności Krótki przykład tworzenia różnych wyników sumarycznych otrzymywane Metoda Regresji By zredukować możliwość otrzymania błędnej ilości wartościowych czynników, praktycy zamiast Σ korzystają z oryginalnej macierzy kowariancji S wtedy otrzymujemy wzór: f j = L S 1 (x j x) dla j = 1, 2,..., n lub gdy uwzględniamy macierz korelacji: f j = L zr 1 z j dla j = 1, 2,..., n dodatkowo jeżeli korzystamy z ładunków obróconych zamiast oryginalnych( L = LT ) to otrzymujemy wzór: f j = T f j dla j = 1, 2,..., n
Podstawowe informacje Ważona metoda najmniejszych kwadratów Metoda Regresji Krótki przykład zależności Krótki przykład tworzenia różnych wyników sumarycznych
Podstawowe informacje Ważona metoda najmniejszych kwadratów Metoda Regresji Krótki przykład zależności Krótki przykład tworzenia różnych wyników sumarycznych
Przepis na sukces Przykład Najważniejszym problemem w Analizie Czynnikowej jest wybór odpowiedniego m, czyli ilości wspólnych czynników. Najczęściej końcowa decyzja o tym ile ich wziąć wynika z 3 rzeczy: jaki odsetek wariancji z próbki został wyjaśniony znajomości tematu sensowności wyników Wybór rotacji oraz metody rozwiązywania jest mniej skomplikowany, tak naprawdę najbardziej satysfakcjonująca analiza to taka w której rotację wypróbowano w paru metodach i wszystkie wyniki pokrywają się ze sobą, wtedy można uznać, że wykonaliśmy dobrą robotę.
Przepis na sukces Wstęp Przepis na sukces Przykład 1 Przeprowadź Metodę Głównych Składowych. Ta metoda jest najodpowiedniejsza do pierwszych zmagań z naszymi danymi.(np. nie potrzeba założeń o nieosobliwości R i S) 1 Zwróć uwagę na podejrzane obserwację robiąc np wykresy.warto również sprawdzić czy dane nie różnią się za bardzo. 2 Spróbuj rotacji varimax. 2 Przeprowadź Metodę Największej Wiarygodności, pamiętając o rotacji varimax. 3 Porównaj wyniki obu metod. 1 Sprawdź czy grupy ładunków są takie same 2 Sporządź wykres zależności wartości czynikowych z dwóch różnych metod.
Przepis na sukces Wstęp Przepis na sukces Przykład 4 Powtórz pierwsze 3 kroki dla innego m. Sprawdź czy istotnie poprawiło to interpretację wyników. 5 Dla dużej ilości danych, podziel je na pół i przeprowadź analizę na każdej grupie oddzielnie. Porównaj wyniki między sobą oraz poszczególne z całym zbiorem.(podział grupy według czasu ujawni dodatkowo zachodzące zmiany w czasie)
Oznaczenia Wstęp Przepis na sukces Przykład Badanie dotyczyło analizy kości i czaszki kogutów. Pełen zestaw danych zawierał n=276 wymiarów kości: Głowa: { X1 = długość czaszki X 2 = szerokość czaszki Noga: { X3 = długość kości udowej X 4 = długość kości piszczelowej Skrzydło: { X5 = długość kości ramienia X 6 = długość kości łokciowej
Przepis na sukces Przykład Kod w SAS DATA set1(type=corr); INPUT TYPE $ NAME $ X1-X6; Datalines; CORR X1 1.000 0.505 0.569 0.602 0.621 0.603 CORR X2 0.505 1.000 0.422 0.467 0.482 0.450 CORR X3 0.569 0.422 1.000 0.926 0.877 0.878 CORR X4 0.602 0.467 0.926 1.000 0.874 0.894 CORR X5 0.621 0.482 0.877 0.874 1.000 0.937 CORR X6 0.603 0.450 0.878 0.894 0.937 1.000 N N 276 276 276 276 276 276 run; PROC PRINT data=set1; run; PROC FACTOR data=set1(type=corr) method=ml nfact=3 rotate=varimax res Heywood; run; PROC FACTOR data=set1(type=corr) method=prin nfact=3 rotate=varimax res Heywood; run;
Macierz korelacji Wstęp Przepis na sukces Przykład
Przepis na sukces Przykład Wyniki dla Metody Największej Wiarygodności
Przepis na sukces Przykład Wyniki dla Metody Głównych Składowych
Porównanie Wstęp Przepis na sukces Przykład
Macierze korelacji Wstęp Przepis na sukces Przykład Podzielmy teraz grupę badawczą na 2 zbiory.n 1 = 137 i n 2 = 139.Otrzymamy macierze korelacji odpowiednio:
Wyniki Wstęp Przepis na sukces Przykład