Analiza czynnikowa i wnioskowanie o strukturze macierzy kowariancji

Wielkość: px
Rozpocząć pokaz od strony:

Download "Analiza czynnikowa i wnioskowanie o strukturze macierzy kowariancji"

Transkrypt

1 i wnioskowanie o strukturze macierzy kowariancji Katarzyna Hoffmann, Magdalena Czaplińska Paulina Filipiak, Szymon Flohr Politechnika Gdańska 20 maja 2014 i wnioskowanie o strukturze macierzy kowariancji

2 Model czynnikowy Ortogonalny model czynnikowy Definicja modelu X 1-µ 1=l 11F 1+l 12F l 1mF m+ɛ 1 X 2-µ 2=l 21F 1+l 22F l 2mF m+ɛ 2... X p-µ p=l p1f 1+l p2f l pmf m+ɛ p gdzie : X - obserwowalny wektor losowy z p-elementami, µ 1,...,µ p - średnie - wartości oczekiwane, F 1,...,F m - nieobserwowalne zmienne losowe zależne liniowo od X (tzw. czynniki wspólne), ɛ 1,...,ɛ p - źródła zmienności - błędy, zależne liniowo od X ( tzw. czynniki specyficzne), l ij - czynnik ładunkowy - ładunek i-tej zmiennej na j-ty czynnik i wnioskowanie o strukturze macierzy kowariancji

3 Model czynnikowy - ciąg dalszy Macierz kowariancji Zakładamy istnienie macierzy kowariancji :Σ! (patrz : slajdy kolejne). Notacja macierzowa Zapis macierzowy przedstawia się następująco : X (px1) - µ (px1) = L (pxm) F (mx1) + ɛ (px1) gdzie : L (pxm) - macierz ładunków czynnikowych, µ (px1) - wektor średni, F (mx1) - wektor czynników wspólnych, ɛ (px1) - wektor błędów. i wnioskowanie o strukturze macierzy kowariancji

4 Model czynnikowy - ciąg dalszy Uwagi Czynniki ɛ i powiązane są z i-tą odpowiedzią X i oraz p-odchylenia X 1-µ 1,...,X p-µ p są wyrażone za pomocą p+m zmiennych losowych F 1,...,F m, ɛ 1,...,ɛ p, które są nieobserwowalne. To właśnie odróżnia modele czynnikowe od wielowymiarowych modeli regresji, w których zmienna losowa może być obserwowalna. i wnioskowanie o strukturze macierzy kowariancji

5 Ortogonalny model czynnikowy - wprowadzenie Ortogonalny model czynnikowy - uwagi Przy tak dużej ilości nieobserwowalnych wielkości bezpośrednia weryfikacja modelu czynnikowego z obserwacji X 1,..., X p jest kwestią beznadziejną, dlatego wektory F oraz ɛ zawierają dodatkowe założenia : E(F) = 0 (mx1), Cov(F) = E(FF ) = I (mxm) E(ɛ) = 0 (px1), Cov(ɛ) = E(ɛɛ ) = ψ (pxp) (macierz diagonalna) oraz Cov(ɛ,F) = E(ɛF ) = 0 (pxm) ORTOGONALNY MODEL CZYNNIKOWY Tak postawione założenia tworzą ortognalny model czynnikowy : X (px1) - µ (px1) = L (pxm) F (mx1) + ɛ (px1) i wnioskowanie o strukturze macierzy kowariancji

6 Ortogonalny model czynnikowy Macierz kowariancji dla modelu Jak wspomniano wczesniej ortogonalny model czynnikowy posiada macierz kowariancji : Σ = Cov(X) = E(X-µ)(X µ) = LL + ψ Krótkie uzasadnienie na podstawie założeń(patrz slajdy poprzednie): i wnioskowanie o strukturze macierzy kowariancji

7 Struktura kowariancji dla modelu ortogonalnego Dla modelu czynnikowego ortognalnego zachodzą : Cov(X) = LL + ψ Var(X i ) = l 2 i l 2 im + ψ i Cov(X i,x k ) = l i1 l k l im l km Z powyższego wynika : σ }{{} ii = l 2 i l 2 im + }{{} ψ }{{} i Var(X i ) tzw.communality wariancjaspecyficzna lub : h 2 i = l 2 i l 2 im σ ii = h 2 i + ψ i, gdzie σ ii = σ 2 i wnioskowanie o strukturze macierzy kowariancji

8 Struktura kowariancji dla modelu ortogonalnego - ciąg dalszy Uwagi: h 2 i - część zmienności i-tej zmiennej spowodowana m-czynnikiami wspólnymi ( common factors ) ψ i - część zmienności i-tej zmiennej spowodowana czynnikami specyficznymi ( błędami ) Dla modelu czynnikowego ortogonalnego zachodzą również: Cov(X,F) = L Cov(X i,f j ) = l ij i wnioskowanie o strukturze macierzy kowariancji

9 Struktura kowariancji dla modelu ortogonalnego - ciąg dalszy Charakterystyka struktury kowariancji Model czynnikowy zakłada że p(p + 1)/2 wariancji i kowariancji dla X może być powielone z pm czynników ładunkowych i p wariancji specyficznych ( zmienności ). Jednakże założenie to jest poprawne, gdy p jest relatywnie większe od m. Przykład I: X zawiera p=12 elementów i m=2 zmienne, wtedy 12*(12+1)/2 = 78 elementów Σ opisane jest przez 12* = 36 parametrów l ij i ψ i Przykład II: Dla m = p macierz kowariacji przedstawia się : Σ = LL + ψ, gdzie : ψ to macierz zerowa. i wnioskowanie o strukturze macierzy kowariancji

10 - wstęp Uwagi Dane mamy obserwacje x 1,...,x n dla p skorelowanych zmiennych. szuka odpowiedzi na następujące pytanie : Czy ortogonalny model czynnikowy z małą ilością czynników odpowiednio reprezentuje dane? i wnioskowanie o strukturze macierzy kowariancji

11 Metoda głównego składnika ( i głównego czynnika ) Wstęp Zakładamy rozkład spektralny macierzy kowariancji Σ dla par(λ i,e i ) gdzie : λ i - wartość własna macierzy kowariancji e i - wektor własny macierzy kowariancji λ 1... λ p 0 i wnioskowanie o strukturze macierzy kowariancji

12 Metoda głównego składnika ( i głównego czynnika ) Wstęp - ciąg dalszy Taka struktura macierzy kowariancji pasuje do modelu czynnikowego, który ma tyle samo czynników m, co zmiennych p m=p i ψ = 0. Zatem ostatecznie możemy przedstawić aproksymację: Gdzie : Macierz ładunków ma j-kolumn danych przez λ j e j i wnioskowanie o strukturze macierzy kowariancji

13 Metoda głównego składnika ( i głównego czynnika ) Wstęp - ciąg dalszy Chociaż przedstawiona analiza i rozkład macierzy Σ z analitycznego punktu widzienia są poprawne, w praktyce są mało użyteczne. Angażują taką samą ilość czynników jak liczba zmiennych, i nie pozwalają na występowanie zmienności w zakresie czynników specyficzny (blędów) - ɛ 1. Preferujemy modele, które wyjaśniają strukturę kowariancji tylko za pomocą kilku czynników wspólnych ( common factors ). Jedno z podejść do problemu : kiedy p - m wartości własne są małe, wtedy opuszczamy warunek : λ m+1e m+1e m λ pe pe p otrzymując aproksymację: i wnioskowanie o strukturze macierzy kowariancji

14 Metoda głównego składnika ( i głównego czynnika ) Dołączając do wspomnianej aproksymacji czynniki specyficzne, otrzymujemy następującą aproksymację : i wnioskowanie o strukturze macierzy kowariancji

15 Metoda głównego składnika ( i głównego czynnika ) Obserwacje - dane W celu zastosowania danych (obserwacji) x 1,...,x n zwyczajowo najpierw się centruje obserwacje poprzez odjęcie sredniej wektora próbki x. Zatem : UWAGA Tak zdefiniowane obserwacje mają macierz kowariancji S ( notabene taką samą jak oryginalne obserwacje ) i wnioskowanie o strukturze macierzy kowariancji

16 Metoda głównego składnika ( i głównego czynnika ) Standaryzacja obserwacji Zazwyczaj stosuje się standaryzacje obserwacji : Gdzie : macierz kowariacnji próbek S jest macierzą korelacji R obserwacji Katarzynax 1, Hoffmann,...,xMagdalena n Czaplińska Paulina Filipiak, Szymon Flohr i wnioskowanie o strukturze macierzy kowariancji

17 Metoda głównego składnika ( i głównego czynnika ) Ostatecznie model aproksymacji : Gdzie = oznacza przybliżenie. Przy zastosowaniu macierzy kowariacnji próbek S lub macierzy korelacji R nazywany jest rozwiązaniem składnika głównego (principal component solution ) i wnioskowanie o strukturze macierzy kowariancji

18 Rozwiązanie czynnika głównego - principal component solution Analiza głównego składnika modelu czynnikowego macierzy próbki kowariacnji S jest określona za pomocą par (wartość własna,wektor własny) : ( λ1,ê p),..., ( λp,ê p). Niech m < p będzie liczbą czynników wspólnych (common factors), wtedy macierz wyestymowanych ładunków czynnikowych wygląda następująco : i wnioskowanie o strukturze macierzy kowariancji

19 Rozwiązanie czynnika głównego - principal component solution Wyestymowane wartości wariancji specyficznej są zapewnione przez diagonalne elementy macierzy S- L L, więc : Czynniki communalities (wyestymowane) : i wnioskowanie o strukturze macierzy kowariancji

20 Rozwiązanie czynnika głównego - principal component solution Jeśli liczba czynników wspólnych nie jest zdeterminowana przez odgórnie postawione założenia, wybór liczby m czynników może bazować na na wyestymowanych wartościach własnych w taki sam sposób jak na czynnikch głównych. Rozważmy Macierz rezydualną : Diagonalne elemnety są zerami, i jeśli elementy niediagonalne są także małe, możemy subiektywnie wiąść m- czynnikowy model jako poprawny i wnioskowanie o strukturze macierzy kowariancji

21 Rozwiązanie czynnika głównego - principal component solution Idealna sytuacją przedstawiałaby się następująco - wpływ tylko kilku pierwszych czynników na wariancje próbki powiennien być duży. Wpływ kilku pierwszych 2 czynników wspólnych na wariancje próbki s ii to l i1,wtedy wpływ na całkowitą wariancje próbki ( s s pp = tr(s) ) z kilku pierwych czynników przedstawia się : i wnioskowanie o strukturze macierzy kowariancji

22 Kryterium Ortogonalny model czynnikowy W ogólności mamy : część całkowitej wariancji próbki spowodowanej j-tym czynnikiem przedstawia się : Wniosek Kryterium to określa liczbę czynników wspólnych m w modelu : liczba m użyta modelu wzrasta dopóki odpowiednia część całkowitej wariancji próbki nie zostanie wyjaśniona i wnioskowanie o strukturze macierzy kowariancji

23 Przykład Ortogonalny model czynnikowy Dane preferencji konsumentów Dane cen akcji Metoda czynnika głównego Metoda największej wiarygodności Dane cen akcji- metody największej wiarygodności Dane z Igrzysk Olimpijskich Test stosunku wiarygodności Przykład: danych preferencji konsumentów W badaniu preferencji konsumentów losowa próbka konsumentów została poproszona o ocenienie kilku atrybutów (cech) nowego produktu. Odpowiedzi, w 7-punktowej skali, zostały wprowadzone do tabeli oraz została skonstruowana macierz korelacji atrybutów. Macierz korelacji prezentuje się następująco: i wnioskowanie o strukturze macierzy kowariancji

24 Przykład Ortogonalny model czynnikowy Dane preferencji konsumentów Dane cen akcji Metoda czynnika głównego Metoda największej wiarygodności Dane cen akcji- metody największej wiarygodności Dane z Igrzysk Olimpijskich Test stosunku wiarygodności Jest jasne z zaznaczonych kółkiem wpisów w macierzy korelacji, że zmienne 1 i 3 i zmienne 2 i 5 tworzą grupy. Zmienna 4 jest bliżej do grupy (2,5) niż grupy (1,3). Podając te wyniki oraz małe liczby zmiennych, możemy oczekiwać, że oczywista liniowa zależność pomiędzy zmiennymi może być wyjaśniona w kategorii co najwyżej dwóch, trzech wspólnych czynników. Dwie pierwsze wartości własne ˆλ 1 = 2.85 i ˆλ2 = 1.81 z R są jedynymi wartościami własnymi większymi od jedności. Co więcej, m=2 wspólnych czynników stanowi skumulowaną proporcje: ˆλ 1 + ˆλ 2 p = = 0.93 z całkowitej (ustandaryzowanej) wariancji próbkowej. i wnioskowanie o strukturze macierzy kowariancji

25 Przykład Ortogonalny model czynnikowy Dane preferencji konsumentów Dane cen akcji Metoda czynnika głównego Metoda największej wiarygodności Dane cen akcji- metody największej wiarygodności Dane z Igrzysk Olimpijskich Test stosunku wiarygodności Estymowane ładunki czynników, wspólne czynniki (communalities) i swoiste (specific) wariancje są podane w Tabeli 9.1. i wnioskowanie o strukturze macierzy kowariancji

26 Przykład Ortogonalny model czynnikowy Dane preferencji konsumentów Dane cen akcji Metoda czynnika głównego Metoda największej wiarygodności Dane cen akcji- metody największej wiarygodności Dane z Igrzysk Olimpijskich Test stosunku wiarygodności Teraz: Prawie odtwarza macierz korelacji R. i wnioskowanie o strukturze macierzy kowariancji

27 Przykład Ortogonalny model czynnikowy Dane preferencji konsumentów Dane cen akcji Metoda czynnika głównego Metoda największej wiarygodności Dane cen akcji- metody największej wiarygodności Dane z Igrzysk Olimpijskich Test stosunku wiarygodności Zatem, możemy ocenić dwuczynnikowy model wraz z danymi zawartymi w tabeli 9.1 jako dobre dopasowanie do danych. Wspólne czynniki (communalities) (0.98, 0.88, 0.98, 0.89, 0.93) wykazują, że dwa czynniki stanowią znaczny procent wariancji próbki każdej zmiennej. i wnioskowanie o strukturze macierzy kowariancji

28 Przykład Ortogonalny model czynnikowy Dane preferencji konsumentów Dane cen akcji Metoda czynnika głównego Metoda największej wiarygodności Dane cen akcji- metody największej wiarygodności Dane z Igrzysk Olimpijskich Test stosunku wiarygodności Przykład: cen akcji Dane cen akcji składają się z n=103 tygodniowych stop zwrotu dla p=5 akcji. Weźmy m=1 i m=2, w prosty sposób uzyskamy wartości głównych składowych dla ortogonalnego modelu czynnikowego. Na ogół estymowane ładunki czynnikowe są wartościami współczynników składowych głównych skalowanymi przez pierwiastek kwadratowy z odpowiednich współczynników. Estymowane ładunki czynnikowe, wspólne czynniki (communalities), wariancja swoista oraz udział w całkowitej wariancji próbki są wyjaśnione przez każdy czynnik dla m=1 i m=2. Wartości czynnika są przedstawione w tabeli. i wnioskowanie o strukturze macierzy kowariancji

29 Przykład Ortogonalny model czynnikowy Dane preferencji konsumentów Dane cen akcji Metoda czynnika głównego Metoda największej wiarygodności Dane cen akcji- metody największej wiarygodności Dane z Igrzysk Olimpijskich Test stosunku wiarygodności Przykład: m = 2, h 2 1 = ( 0.437) 2 = 0.73 i wnioskowanie o strukturze macierzy kowariancji

30 Przykład Ortogonalny model czynnikowy Dane preferencji konsumentów Dane cen akcji Metoda czynnika głównego Metoda największej wiarygodności Dane cen akcji- metody największej wiarygodności Dane z Igrzysk Olimpijskich Test stosunku wiarygodności Macierz reszt odpowiadająca rozwiązaniu dla m=2 czynników ma postać: Część całkowitej wariancji wyjaśnionej za pomocą rozwiązania z dwoma czynnikami jest znacznie większa, niż w przypadku rozwiązania z jednym czynnikiem. Jednakże w przypadku m = 2, L L generuje liczby, które są na ogół większe niż korelacja próbki. Jest to w szczególności prawdziwe dla r 13 i wnioskowanie o strukturze macierzy kowariancji

31 Przykład Ortogonalny model czynnikowy Dane preferencji konsumentów Dane cen akcji Metoda czynnika głównego Metoda największej wiarygodności Dane cen akcji- metody największej wiarygodności Dane z Igrzysk Olimpijskich Test stosunku wiarygodności Wydaje się to dość oczywiste dla czynnika F 1, który przedstawia ogólne warunki ekonomiczne i można go nazwać czynnikiem rynku.wszystkie akcje mają wysokie ładunki na tym czynniku i są one prawie równe. Drugi czynnik rozróżnia akcje bankowe od akcji ropy (banki mają stosunkowo duże negatywnych ładunki, a ropa ma duże pozytywne ładunki czynnikowe).wydaje się zatem, że F 2 rozróżnia akcje w różnych branżach i może być nazwany czynnikiem gospodarczym. Podsumowując stopy zwrotu wydają się być ustalone przez ogólne warunki rynkowe i działalności, które są unikalne dla różnych gałęzi przemysłu. i wnioskowanie o strukturze macierzy kowariancji

32 Dane preferencji konsumentów Dane cen akcji Metoda czynnika głównego Metoda największej wiarygodności Dane cen akcji- metody największej wiarygodności Dane z Igrzysk Olimpijskich Test stosunku wiarygodności Zmodyfikowane podejście metoda czynnika głównego. Zmodyfikowane podejście metoda czynnika głównego. Jeżeli model czynnika ρ = LL + ψ jest poprawnie określony, wspólne m czynników powinno stanowić część elementów spoza przekątnej macierzy ρ, jak również część wspólnych czynników elementów znajdujących się na przekątnej: ρ ii = 1 = h 2 i + ψ i Jeżeli zaś udział konkretnego czynnika ψ i jest usunięty z przekątnej macierzy lub, równoznacznie, 1 zastępuje się h 2 i, wynikowa macierz ma postać ρ ψ = LL. i wnioskowanie o strukturze macierzy kowariancji

33 Dane preferencji konsumentów Dane cen akcji Metoda czynnika głównego Metoda największej wiarygodności Dane cen akcji- metody największej wiarygodności Dane z Igrzysk Olimpijskich Test stosunku wiarygodności Zmodyfikowane podejście metoda czynnika głównego. Przypuśćmy, że mamy dostęp do początkowych obliczeń szacunkowych ψi dla sprecyzowanych wariancji. Następnie zastąpmy i-ty element przekątnej macierzy R przez hi 2 = 1 ψi. Uzyskamy zredukowany fragment macierzy korelacji i wnioskowanie o strukturze macierzy kowariancji

34 Dane preferencji konsumentów Dane cen akcji Metoda czynnika głównego Metoda największej wiarygodności Dane cen akcji- metody największej wiarygodności Dane z Igrzysk Olimpijskich Test stosunku wiarygodności Zmodyfikowane podejście metoda czynnika głównego. Teraz, poza wariancją próbki, wszystkie elementy zredukowanego fragmentu macierzy korelacji R, powinny zostać zastąpione przez m wspólnych czynników. W szczególności R r jest określone jako: R r = L r L r gdzie L r = l ij są oszacowanymi ładunkami. Metoda głównego czynnika analizy czynnikowej wykorzystuje następujące estymatory: L r = [ ˆλ 1 ê 1 :... : ˆλ mê m] oraz ψ i = 1 m j=1 l 2 ij i wnioskowanie o strukturze macierzy kowariancji

35 Dane preferencji konsumentów Dane cen akcji Metoda czynnika głównego Metoda największej wiarygodności Dane cen akcji- metody największej wiarygodności Dane z Igrzysk Olimpijskich Test stosunku wiarygodności Zmodyfikowane podejście metoda czynnika głównego. Gdzie (ˆλ i, ê i ) i=1,2,...,m są największymi parami (wartość własna, wektor własny) określonymi przez R r. W rezultacie, wspólne czynniki mogą być wtedy szacowane (ponownie szacowane) przez: h 2 i = m j=1 l 2 ij Rozwiązanie matody głównego czynnika może być uzyskiwane iteracyjnie (krok po kroku) z wykorzystaniem obliczeń szacunkowych dla czynników wspólnych, które mogą stać się początkowymi oszacowaniami w następnym kroku. i wnioskowanie o strukturze macierzy kowariancji

36 Dane preferencji konsumentów Dane cen akcji Metoda czynnika głównego Metoda największej wiarygodności Dane cen akcji- metody największej wiarygodności Dane z Igrzysk Olimpijskich Test stosunku wiarygodności Zmodyfikowane podejście metoda czynnika głównego. W duchu rozwiązania głównego składnika, rozpatrywanie szacunkowych wartości własnych: ˆλ 1, ˆλ 2,..., ˆλ p pomaga ustalić liczbę wspólnych czynników, które należy zachować. Dodatkową komplikacją jest teraz to, że niektóre z wartości własnych mogą być liczbą ujemną, co jest spowodowane zastosowaniem początkowych obliczeń szacunkowych wykonanych dla czynników wspólnych. Żeby było idealnie, powinniśmy wziąć liczbę wspólnych czynników równą rzędowi zredukowanej macierzy populacji. Niestety, rząd ten nie zawsze jest dobrze określony z R r i nasz osąd jest w tej sytuacji niezbędny. i wnioskowanie o strukturze macierzy kowariancji

37 Dane preferencji konsumentów Dane cen akcji Metoda czynnika głównego Metoda największej wiarygodności Dane cen akcji- metody największej wiarygodności Dane z Igrzysk Olimpijskich Test stosunku wiarygodności Zmodyfikowane podejście metoda czynnika głównego. Chociaż jest wiele możliwości wyboru początkowych szacowań wariancji, najbardziej popularnym sposobem, który wykorzystuje macierz korelacji, jest: ψ i = 1/r ii gdzie r ii oznacza i-ty element przekątnej macierzy R 1. Początkowe oszacowania czynników wspólnych mają wówczas następującą postać: h i 2 = 1 ψ i = 1 r ii co jest równe kwadratowi współczynnika korelacji wielokrotnej między X i i pozostałymi ρ 1 zmiennymi. Związek ze współczynnikiem korelacji wielorakiej oznacza, że hi 2 może zostać wyliczony nawet gdy macierz R nie ma pełnego rzędu. Żeby rozłożyć S na czynniki, do oszacowania początkowej wartości wariancji używa się s ii, czyli elementów diagonali macierzy S 1. i wnioskowanie o strukturze macierzy kowariancji

38 Dane preferencji konsumentów Dane cen akcji Metoda czynnika głównego Metoda największej wiarygodności Dane cen akcji- metody największej wiarygodności Dane z Igrzysk Olimpijskich Test stosunku wiarygodności Zmodyfikowane podejście metoda czynnika głównego. Chociaż metoda głównej składowej dla macierzy R może być traktowana jako metoda głównego czynnika z początkowymi szacowaniami czynników wspólnych jedności lub wariancji równych zero, metody te są filozoficznie i geometrycznie różne. W praktyce jednak, jeżeli liczba zmiennych jest duża i liczba wspólnych czynników jest mała obie te metody dają porównywalne ładunki czynnika. Nie dąży się do rozwiązania metodą głównego czynnika ponieważ wiadomo, że metody rozwiązywania, które są najbardziej polecane to: metoda głównych składowych i metoda największej wiarygodności, którą omówimy jako następną. i wnioskowanie o strukturze macierzy kowariancji

39 Metoda największej wiarygodności Dane preferencji konsumentów Dane cen akcji Metoda czynnika głównego Metoda największej wiarygodności Dane cen akcji- metody największej wiarygodności Dane z Igrzysk Olimpijskich Test stosunku wiarygodności Metoda największej wiarygodności Jeżeli założymy, że czynniki wspólne F i czynniki swoiste ɛ mają rozkład normalny, wtedy możemy uzyskać estymatory największej wiarygodności z ładunków czynnikowych i swoistej wariancji. Kiedy F j i ɛ j mają łączny rozkłd normalny, obserwacje X j µ = LF j + ɛ j mają rozkład normalny oraz prawdopodobieństwo: które zależy od L i Ψ i Σ = LL + Ψ i wnioskowanie o strukturze macierzy kowariancji

40 Metoda największej wiarygodności Dane preferencji konsumentów Dane cen akcji Metoda czynnika głównego Metoda największej wiarygodności Dane cen akcji- metody największej wiarygodności Dane z Igrzysk Olimpijskich Test stosunku wiarygodności Ten model wciąż jest niezbyt dobrze zdefiniowany, z powodu mnogości wyboru macierzy L możliwej dzięki transformacjom ortogonalnym. Pożądanym jest, aby dobrze zdefiniować L poprzez wygodny obliczeniowo wyjątkowy warunek: L Ψ 1 L = - macierz diagonalna Estymacje największej wiarygodności ˆL i ˆΨ muszą być uzyskane przez numeryczną maksymalizację prawdopodobieństwa L(µ, Σ). i wnioskowanie o strukturze macierzy kowariancji

41 Metoda największej wiarygodności Dane preferencji konsumentów Dane cen akcji Metoda czynnika głównego Metoda największej wiarygodności Dane cen akcji- metody największej wiarygodności Dane z Igrzysk Olimpijskich Test stosunku wiarygodności Rezultat Niech X 1, X 2,..., X n będą losową próbą z wielowymiarowego rozkładu normalnego N p(µ, Σ), gdzie Σ = LL + Ψ jest macierzą kowariancji modelu ortogonalnego z m wspólnymi czynnikami omówionego na poprzednich slajdach. Estymatory największej wiarygodności ˆL, ˆψi ˆµ = x maksymalizują prawdopodobieństwo L(µ, Σ) wyliczone na poprzednim slajdzie z zastrzeżeniem, że ˆL ˆΨ 1 ˆL jest macierzą diagonalną. Estymacje największej wiarygodności wspólnych czynników wynoszą ĥi 2 = ˆl i ˆl im 2 dla i = 1,..., p zatem: i wnioskowanie o strukturze macierzy kowariancji

42 Dane preferencji konsumentów Dane cen akcji Metoda czynnika głównego Metoda największej wiarygodności Dane cen akcji- metody największej wiarygodności Dane z Igrzysk Olimpijskich Test stosunku wiarygodności danych dotyczących ceny akcji przy użyciu metody największej wiarygodności danych dotyczących ceny akcji przy użyciu metody największej wiarygodności Dane ceny akcji zostały ponownie przeanalizowane przy użyciu metody największej wiarygodności, zakładając model czynnika m=2. Oszacowane ładunki czynnika, czynniki wspólne, konkretne wariancje oraz stosunek wariancji całej próbki (standaryzowanej) wyjaśnionej przez każdy z czynników zostały przedstawione w tabeli: i wnioskowanie o strukturze macierzy kowariancji

43 Przykład Ortogonalny model czynnikowy Dane preferencji konsumentów Dane cen akcji Metoda czynnika głównego Metoda największej wiarygodności Dane cen akcji- metody największej wiarygodności Dane z Igrzysk Olimpijskich Test stosunku wiarygodności Odpowiednie wykresy dla m = 2, uzyskane za pomocą metody głównych składowych również są dane. Wspólne czynniki odpowiadające największemu prawdopodobieństwu rozkładu macierzy R na czynniki mają postać: ĥ 2 i = ˆl 2 i1 + ˆl 2 i2 Niech, na przykład: ĥ2 1 = = 0.58 Macierz reszt ma postać: i wnioskowanie o strukturze macierzy kowariancji

44 Przykład Ortogonalny model czynnikowy Dane preferencji konsumentów Dane cen akcji Metoda czynnika głównego Metoda największej wiarygodności Dane cen akcji- metody największej wiarygodności Dane z Igrzysk Olimpijskich Test stosunku wiarygodności Elementy macierzy R ˆLˆL ˆΨ są znacznie mniejsze niż te, które występują w macierzy reszt R, odpowiadającej rozkładowi na czynniki metodą głównych składowych. Łączny stosunek wariancji całej próbki wyjaśnionej przez czynniki jest większy dla rozkładu metodą głównych składowych niż metodą największej wiarygodności. Skupiając się na rozwiązaniu uzyskanym metodą największej wiarygodności, możemy zauważyć, że wszystkie zmienne mają dodatnie ładunki na F 1. Czynnik ten nazywamy czynnikiem rynkowym. Interpretacja drugiego czynnika nie jest tak łatwa, jak wydaje się być przy rozwiązaniu uzyskanym metodą głównych składowych. Akcje banku mają większe dodatnie ładunki, zaś akcje ropy mają nieistotne ładunki drugiego czynnika F 2. Z tej perspektywy, drugi czynnik odróżnia akcje banku od akcji ropy i może być nazywany czynnikiem gospodarczym, lub po prostu czynnikiem bankowym. i wnioskowanie o strukturze macierzy kowariancji

45 Przykład Ortogonalny model czynnikowy Dane preferencji konsumentów Dane cen akcji Metoda czynnika głównego Metoda największej wiarygodności Dane cen akcji- metody największej wiarygodności Dane z Igrzysk Olimpijskich Test stosunku wiarygodności Wzorce obciążeń początkowego czynnika rozwiązania otrzymanego metodą największej wiarygodności są ograniczone przez unikalny warunek, czyli że ˆL ˆΨ 1 ˆL jest macierzą diagonalną. Zatem użyteczne wzorce czynników często nie ujawniają się, dopóki czynniki nie zostaną obrócone. i wnioskowanie o strukturze macierzy kowariancji

46 Ortogonalny model czynnikowy Dane preferencji konsumentów Dane cen akcji Metoda czynnika głównego Metoda największej wiarygodności Dane cen akcji- metody największej wiarygodności Dane z Igrzysk Olimpijskich Test stosunku wiarygodności danych z Igrzysk Olimpijskich w dziesięcioboju Linden pierwotnie przeprowadzał analizę czynnikową badając wyniki z Igrzysk Olimpijskich w dziesięcioboju z wszystkich 160 ukończonych startów od końca II Wojny Światowej, aż do połowy lat siedemdziesiątych. Naśladując jego podejście badamy n=280 ukończonych startów od 1960 do Zarejestrowane dla każdych konkurencji sportowych wartości zostały standaryzowane i dla określonych w czasie wydarzeń znaki zmieniały się tak,że duże wyniki są pozytywne dla wszystkich konkurencji sportowych. Analizujemy również macierz korelacji, która opiera się na wszystkich 280 przypadkach postaci i wnioskowanie o strukturze macierzy kowariancji

47 cd. Ortogonalny model czynnikowy Dane preferencji konsumentów Dane cen akcji Metoda czynnika głównego Metoda największej wiarygodności Dane cen akcji- metody największej wiarygodności Dane z Igrzysk Olimpijskich Test stosunku wiarygodności Z perspektywy analizy czynnikowej głównych składowych, pierwsze cztery wartości własne 4.21, 1.39, 1.06, 0.92 z R sugerują rozwiązanie dla czynnika z m=3 lub m=4. Późniejsza interpretacja, podobnie jak oryginalna analizy Linden a, popiera wybór m=4. i wnioskowanie o strukturze macierzy kowariancji

48 cd. Ortogonalny model czynnikowy Dane preferencji konsumentów Dane cen akcji Metoda czynnika głównego Metoda największej wiarygodności Dane cen akcji- metody największej wiarygodności Dane z Igrzysk Olimpijskich Test stosunku wiarygodności W tym przypadku te dwie metody rozwiązania wygenerują bardzo różne wyniki. Rozkład na czynniki pierwsze głównej składowej dla wszystkich konkurencji sportowych poza biegiem na 1500 ma wielkości dodatnie ładunków na pierwszym czynniku. Czynnik ten może oznaczać ogólne zdolności sportowe. Czynnik 2, którego ładunek w dużej mierze zależy od biegu na 400 metrów i biegu na 1500 metrów, może być nazywany czynnikiem wytrzymałości biegu. Naszym zadaniem pozostałe czynniki nie mogą być łatwo zinterpretowane. Dla metody największej wiarygodności, pierwszy czynnik wydają się być czynnikiem ogólnych zdolności sportowych, ale ładunek próbki nie jest tak silny jak w metodzie głównych składowych. Drugi czynnik jest zasadniczo silniejszym czynnikiem, ponieważ pchnięcie kulą i dyskiem zwiększa bardzo ładunek na tym czynniku. Trzeci czynnikiem jest wytrzymałość biegu, ponieważ bieg na 400 metrów i bieg na 1500 metrów ma duży ładunek czynnikowy. Ponownie czwarty czynnik nie jest prosty do zinterpretowania, chociaż może mieć coś wspólnego z umiejętnością skoku lub wytrzymałością nóg. i wnioskowanie o strukturze macierzy kowariancji

49 cd. Ortogonalny model czynnikowy Dane preferencji konsumentów Dane cen akcji Metoda czynnika głównego Metoda największej wiarygodności Dane cen akcji- metody największej wiarygodności Dane z Igrzysk Olimpijskich Test stosunku wiarygodności Czwarty czynnik w metodzie głównych składowych wyjaśnia lepiej całkowitą wariancje próbki, ponieważ estymowane swoiste wariancje są duże w pewnych przypadkach (np. rzut oszczepem). Sugeruje to, że niektóre konkurencje sportowe mogą wymagać unikalnych lub specyficznych cech nie wymaganych w innych konkurencjach sportowych. Czwarty czynnik w metodzie największej wiarygodności wyjaśnia mniej całkowitą wariancję próbki, ale poniższe macierze reszt wskazują, że metoda największej wiarygodności estymuje ˆL i ˆΨ lepiej odtwarza R niż metoda głównych składowych estymuje L i Ψ. i wnioskowanie o strukturze macierzy kowariancji

50 cd. Ortogonalny model czynnikowy Dane preferencji konsumentów Dane cen akcji Metoda czynnika głównego Metoda największej wiarygodności Dane cen akcji- metody największej wiarygodności Dane z Igrzysk Olimpijskich Test stosunku wiarygodności Metoda głównych składowych: i wnioskowanie o strukturze macierzy kowariancji

51 cd. Ortogonalny model czynnikowy Dane preferencji konsumentów Dane cen akcji Metoda czynnika głównego Metoda największej wiarygodności Dane cen akcji- metody największej wiarygodności Dane z Igrzysk Olimpijskich Test stosunku wiarygodności Metoda największej wiarygodności: i wnioskowanie o strukturze macierzy kowariancji

52 Test stosunku wiarygodności Dane preferencji konsumentów Dane cen akcji Metoda czynnika głównego Metoda największej wiarygodności Dane cen akcji- metody największej wiarygodności Dane z Igrzysk Olimpijskich Test stosunku wiarygodności Założenie o rozkładzie normalnym populacji prowadzi bezpośrednio do testu trafności modelu. Przypuśćmy że m to liczba czynników wspólnych w modelu. W tym przypadku: Σ = LL + Ψ Testowanie trafności modelu z m czynnikami wspólnymi jest równoważne z H 0 H 0 : Σ (p p) = L (p m) L (m p) + Ψ (p p) Przeciwko H 1:Σ każda inna dodatnio określona macierz. Kiedy Σ nie ma żadnej specjalnej postaci maksimum funkcji prawdopodobieństwa jest proporcjonalne do S n n/2 e np/2 (9-34) i wnioskowanie o strukturze macierzy kowariancji

53 Test stosunku wiarygodności cd. Dane preferencji konsumentów Dane cen akcji Metoda czynnika głównego Metoda największej wiarygodności Dane cen akcji- metody największej wiarygodności Dane z Igrzysk Olimpijskich Test stosunku wiarygodności Według H 0 Σ jest ograniczona do postaci : H 0 : Σ (p p) = L (p m) L (m p) + Ψ (p p) W tym przypadku maksimum funkcji prawdopodobieństwa jest proporcjonalne do: i wnioskowanie o strukturze macierzy kowariancji

54 Test stosunku wiarygodności cd. Dane preferencji konsumentów Dane cen akcji Metoda czynnika głównego Metoda największej wiarygodności Dane cen akcji- metody największej wiarygodności Dane z Igrzysk Olimpijskich Test stosunku wiarygodności Stosując 9-34 i 9-35 przeprowadzimy test stosunku wiarygodności dla H 0: Z stopniami swobody: v v 0 = 1 2 p(p + 1) [p(m + 1) 1 2 (m 1)] = 1 2 [(p m)2 p m] i wnioskowanie o strukturze macierzy kowariancji

55 Test stosunku wiarygodności cd. Dane preferencji konsumentów Dane cen akcji Metoda czynnika głównego Metoda największej wiarygodności Dane cen akcji- metody największej wiarygodności Dane z Igrzysk Olimpijskich Test stosunku wiarygodności tr(ˆσ 1 S n) p = 0 zapewnia, że ˆΣ = ˆLˆL + ˆΨ jest największym prawdopodobieństwem estymacji z Σ = LL + Ψ. Tak więc mamy: Bartlett wykazał, że przybliżenie chi-kwadrat do rozkładu próbkowania z 2lnΛ można poprawić przez zastąpienie n w (9-38) mnożeniem przez czynnik: (n 1 (2p + 4m + 5)/6) Stosując korektę Bartlett a odrzucam H 0 na alfa poziomie istotności jeśli: i wnioskowanie o strukturze macierzy kowariancji

56 Test stosunku wiarygodności cd. Dane preferencji konsumentów Dane cen akcji Metoda czynnika głównego Metoda największej wiarygodności Dane cen akcji- metody największej wiarygodności Dane z Igrzysk Olimpijskich Test stosunku wiarygodności Zapewnia to, że n i n-p są duże. Ponieważ liczba stopni swobody 1 2 [(p m)2 p m] musi być dodatnia, w następstwie tego: W celu zastosowania testu m < 1 2 (2p + 1 8p + 1) Komentarz W realizacji testu 9-39 testujemy odpowiedniość modelu z m czynnikami wspólnymi poprzez porównywanie ogólnej wariancji ˆLˆL + ˆΨ i S n. Jeśli n jest duże i m jest małe w stosunku do p, hipoteza H 0 zwykle zostanie odrzucona, prowadzi to do utrzymania czynników wspólnych. Jednakże ˆΣ = ˆLˆL + ˆΨ może być na tyle bliska do S n tak, że dodanie większej liczby czynników nie dostarcza dodatkowej informacji, nawet jeśli te czynniki są istotne. Niektóre osądy muszą zostać dokonane przy wyborze m. i wnioskowanie o strukturze macierzy kowariancji

57 - podejście analityczne Wprowadzenie- rotacja ortogonalna Przykład rotacji czynnika Rotacja ukośna Kryterium varimax- rotacja ortogonalna Rotacja promax- rotacja ukośna Ładunki czynnika otrzymane z początkowych ładunków poprzez ortogonalną transformację, mają taką samą możliwości do otworzenia macierzy kowariancji (lub korelacji). Z algebry macierzy wiemy, że ortogonalna transformacja odpowiada niezmiennie rotacji (lub odbiciu) z osią współrzędnych. Z tego powodu ortogonalna transformacja ładunków czynnika oraz jak wynika z tego ortogonalna transformacja czynnika nazywana jest rotacją czynnika. i wnioskowanie o strukturze macierzy kowariancji

58 - podejście analityczne Wprowadzenie- rotacja ortogonalna Przykład rotacji czynnika Rotacja ukośna Kryterium varimax- rotacja ortogonalna Rotacja promax- rotacja ukośna Jeśli ˆL jest p x m macierzą estymacji ładunków czynnika otrzymaną poprzez metodę (głównych składowych, największej wiarygodności, itd.) wtedy: ˆL = ˆLT, gdzie TT = T T = I jest p x m macierzą rotacji ładunków. Ponadto estymacja macierzy kowariancji (korelacji) pozostaje bez zmian, ponieważ: ˆLˆL + ˆΨ = ˆLTT ˆL + ˆΨ = ˆL ˆL + ˆΨ i wnioskowanie o strukturze macierzy kowariancji

59 - podejście analityczne Wprowadzenie- rotacja ortogonalna Przykład rotacji czynnika Rotacja ukośna Kryterium varimax- rotacja ortogonalna Rotacja promax- rotacja ukośna Równanie to wskazuje, że macierz reszt pozostaje bez zmian. Ponadto wariancja swoista i wskutek tego wspólne czyniki są niezmienne. A zatem z matematycznego punktu widzenia nie ma znaczenia, czy uzyskano ˆL albo ˆL. Ponieważ ortogonalne ładunki mogą nie być łatwo zinterpretowane, normalną praktyką jest obrócenie ich, aż do czasu uzyskania prostszej struktury. Uzasadnieniem jest tu bardzo zbliżony przykład wyostrzania ostrości mikroskopu w celu ujrzenia szczegółów. Chcielibyśmy najlepiej zobaczyć wzór ładunków taki, że każda zmienna ładunku jest wysoka na pojedynczym czynniku i ma niewielkie umiarkowane ładunki na pozostałych czynnikach. Jednakże nie zawsze jest możliwe uzyskanie takiej prostej struktury. i wnioskowanie o strukturze macierzy kowariancji

60 - podejście analityczne Wprowadzenie- rotacja ortogonalna Przykład rotacji czynnika Rotacja ukośna Kryterium varimax- rotacja ortogonalna Rotacja promax- rotacja ukośna Będziemy koncentrować się na metodach graficznych i analitycznych do określenia rotacji ortogonalnej dla prostej struktury. Kiedy m=2 albo gdy rozważane są naraz dwa czynniki wspólne, transformacja do struktury prostej może być ustalona graficznie. Nieskorelowane czynniki wspólne są traktowane jako wektory jednostkowe prostopadłe wzdłuż osi współrzędnych. Wykres par ładunków czynnikowych (ˆl i1, ˆl i2 ) daje punkt p, gdzie każdy punkt odpowiada zmiennej. Osie współrzędnych mogą być wizualnie obracane o kąt zwany φ i nowe rotacje ładunków ˆl ij są określone zależnością: i wnioskowanie o strukturze macierzy kowariancji

61 - podejście analityczne Wprowadzenie- rotacja ortogonalna Przykład rotacji czynnika Rotacja ukośna Kryterium varimax- rotacja ortogonalna Rotacja promax- rotacja ukośna Zależność w (9-44) rzadko realizowana jest w dwuwymiarowej analizie graficznej. W tej sytuacji skupiska zmiennych często są widoczne gołym okiem i skupiska te umożliwiają wyłączenie jedego z czynników wspólnych bez konieczności sprawdzania wielkości obróconych ładunków. Z drugiej strony, dla m > 2 orientacje nie są łatwe do wyobrażenia i wielkości obróconych ładunków muszą być sprawdzone, aby znaleźć sensowną interpretację oryginalnych danych. i wnioskowanie o strukturze macierzy kowariancji

62 Ortogonalny model czynnikowy Wprowadzenie- rotacja ortogonalna Przykład rotacji czynnika Rotacja ukośna Kryterium varimax- rotacja ortogonalna Rotacja promax- rotacja ukośna Pierwsze przyjrzenie się rotacji czynnika Lawley i Maxwell zaprezentowali macierz korelacji próbki z wyników badań dla p=6 zakresów tematycznych dla n=220 studentów płci męskiej. Macierz korelacji : i wnioskowanie o strukturze macierzy kowariancji

63 Ortogonalny model czynnikowy Wprowadzenie- rotacja ortogonalna Przykład rotacji czynnika Rotacja ukośna Kryterium varimax- rotacja ortogonalna Rotacja promax- rotacja ukośna Pierwsze przyjrzenie się rotacji czynnika cd. Maksymalna wartość prawdopodobieństwa dla m = 2 czynników wspólnych daje estymacje podaną w tabeli: i wnioskowanie o strukturze macierzy kowariancji

64 Ortogonalny model czynnikowy Wprowadzenie- rotacja ortogonalna Przykład rotacji czynnika Rotacja ukośna Kryterium varimax- rotacja ortogonalna Rotacja promax- rotacja ukośna Pierwsze przyjrzenie się rotacji czynnika cd. Wszystkie zmienne mają dodatnie ładunki na pierwszym czynniku. Lawley i Maxwell sugerują, że ten czynnik odzwierciedla ogólną reakcję studentów na nauczanie i może być oznaczony jako czynnik ogólnej inteligencji. Połowa ładunków jest dodatnia, a druga połowa ujemna na drugim czynniku. Czynnik z takim wzorcem ładunków jest nazywany dwubiegunowym czynnikiem. (Przypisanie ujemnych i dodatnich biegunów jest dowolne, ponieważ znaki z ładunków na czynniku można odwrócić bez wpływu na analizę). Ten czynnik nie jest prosty do zidentyfikowania, ale ma taką własność, że ludzie którzy otrzymują ponadprzeciętne wyniki na teście werbalnym uzyskują ponadprzeciętne wyniki na tym czynniku. Osoby z ponadprzeciętnym wynikiem na teście z matematyki uzyskują wyniki poniżej przeciętnej na tym czynniku. Być może czynnik ten może być sklasyfikowany jako matematyczny-nie matematyczny czynnik. i wnioskowanie o strukturze macierzy kowariancji

65 Ortogonalny model czynnikowy Wprowadzenie- rotacja ortogonalna Przykład rotacji czynnika Rotacja ukośna Kryterium varimax- rotacja ortogonalna Rotacja promax- rotacja ukośna Pierwsze przyjrzenie się rotacji czynnika cd. Ładunki czynnikowe pary (ˆl i1, ˆl i2 ) wykreślono jako punkty w figurze 9.1. Punkty oznaczone są numerami odpowiadającym im zmiennym. Przedstawiony jest również obrót ortogonalny osi współrzędnych o kąt φ = 20. Kąt ten wybrany został w taki sposób, aby jedna z nowych osi przechodziła przez (ˆl 41, ˆl 42). Gdy tak się stanie, wszystkie punkty mieszczą się w pierwszej ćwiartce (wszystkie ładunki czynnikowe są dodatnie) i dwa odrębne skupiska zmiennych są bardziej możliwe do zaobserwowania. i wnioskowanie o strukturze macierzy kowariancji

66 Ortogonalny model czynnikowy Wprowadzenie- rotacja ortogonalna Przykład rotacji czynnika Rotacja ukośna Kryterium varimax- rotacja ortogonalna Rotacja promax- rotacja ukośna Pierwsze przyjrzenie się rotacji czynnika cd. Ładunki zmiennych z testów matematycznych są wysokie na F1 i są nieistotne na F2. Pierwszy czynnik może być nazwany czynnikiem matematycznych zdolności. Podobnie trzy zmienne testów werbalnych mają wysokie ładunki na F2 i umiarkowanie małe ładunki na F1. Drugi czynnik można być nazwany jako czynnik werbalnych umiejętności. Czynnik ogólnej inteligencji zdefiniowany początkowo jest zawarty w czynniku F1 i F2. i wnioskowanie o strukturze macierzy kowariancji

67 Ortogonalny model czynnikowy Wprowadzenie- rotacja ortogonalna Przykład rotacji czynnika Rotacja ukośna Kryterium varimax- rotacja ortogonalna Rotacja promax- rotacja ukośna Pierwsze przyjrzenie się rotacji czynnika cd. Obrócone ładunki czynnikowe otrzymane z (9-44) poprze obrót o φ = 20 i otrzymane estymacje wspólnych czynników pokazane są w tabeli 9.6. Wielkości obróconych czynników ładunkowych wzmacniają interpretację czynników sugerowaną przez Figurę 9.1 i wnioskowanie o strukturze macierzy kowariancji

68 Ortogonalny model czynnikowy Wprowadzenie- rotacja ortogonalna Przykład rotacji czynnika Rotacja ukośna Kryterium varimax- rotacja ortogonalna Rotacja promax- rotacja ukośna Pierwsze przyjrzenie się rotacji czynnika cd. Estymacje wspólnych czynników pozostają niezmienione przez ortogonalny obrót, ponieważ: ˆLˆL = ˆLTT ˆL = ˆL ˆL i wnioskowanie o strukturze macierzy kowariancji

69 Wprowadzenie- rotacja ortogonalna Przykład rotacji czynnika Rotacja ukośna Kryterium varimax- rotacja ortogonalna Rotacja promax- rotacja ukośna Rotacja ukośna Zwracamy uwagę, że figura 9.1 sugeruje rotację ukośną współrzędnych. Nowa oś powinna przechodzić przez grupę 1, 2, 3, a druga przez grupę 4, 5, 6. Rotacja ukośna jest tak nazywana, ponieważ odpowiada ona nieprawo stronnej rotacji osi współrzędnych, co prowadzi do tego, że nowe osie nie są prostopadłe. Rotacja ukośna a ortogonalna Rozważając jako wyjściową macierz korelacji między zmiennymi i stosując rotację ortogonalną, ładunki czynnikowe są to współczynniki korelacji między tymi zmiennymi a nowymi zmiennymi- wyodrębnionymi czynnikami. Jednakże czasami nawet po dokonaniu ortogonalnej transformacji na macierzy ładunków czynnikowych otrzymane wyniki mogą nadal nie być łatwe do zinterpretowania. Wtedy można zastosować rotacje ukośne prowadzące do czynników skorelowanych. Ortogonalna transformacja pozostawia czynniki nieskorelowane. i wnioskowanie o strukturze macierzy kowariancji

70 Ortogonalny model czynnikowy Wprowadzenie- rotacja ortogonalna Przykład rotacji czynnika Rotacja ukośna Kryterium varimax- rotacja ortogonalna Rotacja promax- rotacja ukośna Kryterium varimax Kaiser zasugerował środek analityczny prostej struktury zwany jako kryterium varimax (lub zwykłe varimax). Zdefiniowane l ij = ˆl ij /ĥ i obrócone zostają współczynniki, skalowane poprzez pierwiastek kwadratowy z wspólnych czynnków. Wtedy procedura varimax wybiera ortogonalną transformację T, która sprawia, że: jest tak duże jak to możliwe. i wnioskowanie o strukturze macierzy kowariancji

71 Ortogonalny model czynnikowy Wprowadzenie- rotacja ortogonalna Przykład rotacji czynnika Rotacja ukośna Kryterium varimax- rotacja ortogonalna Rotacja promax- rotacja ukośna Kryterium varimax cd. Skalowanie obróconych współczynników l ij ma efekt taki, że otrzymujemy zmienne o małych wspólnych czynnikach mających stosunkowo większą wagę przy wyznaczaniu prostej struktury. Po transformacji T jest określone, ładunki l ij są przemnożone przez ĥi więc oryginalne wspólne czynniki są zachowane. Pomimo, że (9-45) wygląda dość odpychająco ma prostą interpretację. Słownie: i wnioskowanie o strukturze macierzy kowariancji

72 Ortogonalny model czynnikowy Wprowadzenie- rotacja ortogonalna Przykład rotacji czynnika Rotacja ukośna Kryterium varimax- rotacja ortogonalna Rotacja promax- rotacja ukośna Kryterium varimax cd. W efekcie maksymalizacja V odpowiada rozłożeniu kwadratów z ładunków na czynniku. Z związku z tym mamy nadzieję na znalezienie skupisk z dużymi i niewielkimi współczynnikami w każdej kolumnie obróconej macierzy ładunków L. Istnieją algorytmy obliczeniowe w celu zmaksymalizowania V i najbardziej popularne programy komputerowe do analizy czynnikowej (np. pakiety oprogramowania statystycznego SAS, SPSS, BMDP i MINITAB) umożliwiają użyci rotacji varimax. Jak można oczekiwać rotacja varimax ładunków czynnikowych otrzymana przez inne metody rozwiązania (metoda głównych składowych, metoda największej wiarygodności) w zasadzie nie będzie się pokrywać. Również struktura obróconych ładunków może się znacznie zmienić, jeśli dodatkowo czynniki wspólne są zawarte w tej rotacji. Jeśli istnieje pojedynczy dominujący czynnik będzie on na ogół trudny do zinterpretowania przez rotację ortogonalną. i wnioskowanie o strukturze macierzy kowariancji

73 Ortogonalny model czynnikowy Wprowadzenie- rotacja ortogonalna Przykład rotacji czynnika Rotacja ukośna Kryterium varimax- rotacja ortogonalna Rotacja promax- rotacja ukośna Rotacja promax W rotacji PROMAX przyjęto, że prosta struktura otrzymana z rotacji ortogonalnej jest bliska prostej strukturze otrzymanej z rotacji ukośnej. Zaczynamy od ortogonalnie przekształconej macierzy czynników ładunkowych. Ortogonalna transformacja zazwyczaj odpowiada rotacji varimax. Zatem przyjmujemy, że rotacją czynnikową jest VARIMAX. Niech L będzie macierzą ładunków czynnikowych z rotacji varimax. Konstruujemy macierz wynikową Q = (q ij ) wymiaru p k taką, że: q ij = l m 1 ij lij gdzie m > 1, m Z. Zauważamy że q ij oraz l ij mają ten sam znak i q ij = l m ij. i wnioskowanie o strukturze macierzy kowariancji

74 Ortogonalny model czynnikowy Wprowadzenie- rotacja ortogonalna Przykład rotacji czynnika Rotacja ukośna Kryterium varimax- rotacja ortogonalna Rotacja promax- rotacja ukośna Rotacja promax-cd. Uzasadnieniem, żeby wziąć q ij w zależności od m-tej potęgi L ij jest, aby bardzo małe elementy szybko osiągnął zero. Zaproponowano, aby macierz Q była aproksymowana przez ukośną transformację macierzy L. Rotacja promax jest dana macierzą: T = U { diag(u U) 1/2} gdzie U- macierz stopnia k, U = (u 1 : u 2 :... : u k ), u j - j-ta kolumna macierzy U otrzymana w wyniku minimalizacji (q j L u j ) (q j L u j ) ze wzglądu na kolumny u j macierzy U, j = 1, 2,..., k. Wektory q j są kolumnami macierzy Q. Rozwiązania tych k problemów minimalizacji mogą być razem przedstawione jako: U = (L L ) 1 L Q i wnioskowanie o strukturze macierzy kowariancji

75 - Factor Rotation Wprowadzenie- rotacja ortogonalna Przykład rotacji czynnika Rotacja ukośna Kryterium varimax- rotacja ortogonalna Rotacja promax- rotacja ukośna Przykład Przybliżony czynnik ładunków i szczególne wariancje danych dla olimpijskiego dziesięcioboju zostały już zaprezentowane. Te wielkości były pochodnymi dla modelu 4- czynnikowego, używając obu głównych składników i maksymalnego prawdopodobieństwa rozwiązania metod. Rotacja varmiax ładunków oraz szczególne wariancje dla m=4, jest pokazana w tabeli 9.9,. Niezależnie od estymowanych ładunków, rotacja wpływa tylko na rozkład proporcji całkowitych próbek wariancji objaśnianych przez każdy czynnik. Łączna proporcja całkowitych próbek wariancji objaśnianych dla wszystkich czynników nie ulega zmianie. i wnioskowanie o strukturze macierzy kowariancji

76 Ortogonalny model czynnikowy Wprowadzenie- rotacja ortogonalna Przykład rotacji czynnika Rotacja ukośna Kryterium varimax- rotacja ortogonalna Rotacja promax- rotacja ukośna Przykład c.d. Obracany czynnik ładunków dla obu metod rozwiązań wskazuje na te same zasadnicze atrybuty, wprawdzie czynnik 1 i 2 nie są w tej samej kolejności. Widzimy, że pchnięcie kulą, dyskiem i oszczepem (kolor czerwony) skupiają się silnie na 1 czynniku. Podobnie, skok wzwyż, 110 m skok przez płotki, skok o tyczce i - w pewnej mierze - skok w dal (kolor zielony), skupiają się mocno na innym (drugim) czynniku. Bieg 100m, bieg 400 m i -ponownie w pewnej mierze- skok wzwyż (kolor niebieski) skupia się mocno na trzecim czynniku. W końcu, bieg na 1500m i bieg na 400 m skupiają się mocno na 4 czynniku (kolor fioletowy). i wnioskowanie o strukturze macierzy kowariancji

77 Ortogonalny model czynnikowy Wprowadzenie- rotacja ortogonalna Przykład rotacji czynnika Rotacja ukośna Kryterium varimax- rotacja ortogonalna Rotacja promax- rotacja ukośna Tabelka 9.9 i wnioskowanie o strukturze macierzy kowariancji

78 Wprowadzenie- rotacja ortogonalna Przykład rotacji czynnika Rotacja ukośna Kryterium varimax- rotacja ortogonalna Rotacja promax- rotacja ukośna Przykład c.d. Wykres obróconego maksymalnego prawdopodobieństwa ładunków dla czynników par (1,2) i (1,3). Punkty są ogólnie grupowane wzdłuż czynników 1) osi. Wykresy rotacyjne głównego komponentu czynników są bardzo podobne. Wykres i wnioskowanie o strukturze macierzy kowariancji

79 Ortogonalny model czynnikowy W analizie czynnikowej zainteresowanie jest rzadko skoncentrowane na parametrach w czynnikowym modelu. Jednakże, szacowane wartości wspólnych czynników nazywane są wynikami czynnika, które mogą być również wymagane., nie są estymowane z nieznanych parametrów w zwykłym sensie. Raczej, są one estymowane z wartości dla niezauważonego losowego czynnika wektorów F j, j=1,2...n. To jest, wynik czynnika, ˆf j = estymowane wartości f j osiągnięte przez F j Estymowana sytuacja jest skomplikowana przez fakt, że niezaobserwowane ilości f j i ɛ j przewyższają liczebnie obserwowane x j. i wnioskowanie o strukturze macierzy kowariancji

80 Ortogonalny model czynnikowy Opiszemy 2 z nich. Oba wyniki czynnika mają dwa wspólne elementy: 1 Traktują estymowane czynniki ładunków ê ij i specyficzną wariancję ˆψ i, jako że były prawdziwymi wartościami. 2 Angażują liniowe transformacje pierwotnych danych, być może skupione lub znormalizowane. Zwykle, estymowane obrócone ładunki, zamiast pierwotnych estymowanych ładunków, są używane do obliczania wyników czynnika. Obliczeniowe formuły, nie zmienią się kiedy rotacyjne ładunki są zamienione na nierotacyjne ładunki, więc nie będziemy rozróżniać ich pomiędzy nimi. i wnioskowanie o strukturze macierzy kowariancji

81 (The Weighted Least Squares Method) Przypuśćmy, że dla modelu czynnikowego znane są : µ wektor średnich, L macierz ładunków czynnikowych ψ specyficzne wariancje X (px1) - µ (px1) = L (pxm) F (mx1) + ɛ (px1) Dalej, zauważymy, że określone czynniki ɛ = [ɛ 1, ɛ 2,..., ɛ p] są błędami. Od Var(ɛ i ) = ψ i, i = 1, 2,..., p nie wymagamy, aby były równe, Bartlett zasugerował, że ważona metoda najmniejszych kwadratów jest używana do szacowania wartości wspólnych czynnika. Suma kwadratów błędów ważonych przez ich wariancje jest postaci: p i=1 ɛ 2 i ψ i = ɛψ 1 ɛ = (x µ Lf ) ψ 1 (x µ Lf ) i wnioskowanie o strukturze macierzy kowariancji

82 (The Weighted Least Squares Method) Bartlett proponował wybór estymatorów ˆf z f do zminimalizowania powyższej sumy. Rozwiązaniem jest ˆf = (L ψ 1 L) 1 L ψ 1 (x µ) Bierzemy estymatory ˆL, ˆψ i ˆµ = x jako prawdziwe wartości i uzyskujemy estymację wektora wartości dla j- tego czynnika ˆf j = (ˆL ˆψ 1 ˆL) 1 ˆL ˆψ 1 (x j x) Jeśli ˆL i ˆψ są określone przez metodę największej wiarygodności, wtedy te estymatory muszą spełniać, ˆL ˆψ 1 ˆL = ˆ, gdzie ˆ jest macierzą diagonalną. i wnioskowanie o strukturze macierzy kowariancji

83 (The Weighted Least Squares Method) uzyskane przez ważoną metodę najmniejszych kwadratów z estymacji metodą największej wiarygodności Stosując ważoną metodę najmniejszych kwadratów otrzymujemy: ˆf j = (ˆL ˆψ 1 1 ˆL) ˆL ˆψ 1 (x j ˆµ) = ˆ 1 ˆL ˆψ 1 (x j x), j = 1, 2,..., n lub jeśli macierz korelacji jest uwzględniona ˆf j = (ˆL z 1 ˆψ z ˆL z) 1 ˆL z ˆψ 1 z z j = ˆ 1 z ˆL z ˆψ 1 z z j, j = 1, 2,..., n gdzie z j = D 1/2 (x j x) i ˆρ = ˆL z ˆL z + ˆψ z generowane mają średnią próbki równą 0 (wektor zerowy) i zerowe kowariancje. Jeżeli obrócone ładunki ˆL = ˆLT są użyte w miejscu oryginalnych błędów w kolejnych wynikach czynnikowych ˆf j są wyrażone jako ˆf j przez ˆf j = T ˆfj, j=1,2,...,n. i wnioskowanie o strukturze macierzy kowariancji

84 c.d. są następujące: ˆf j = ( L L) 1 L (x j x) lub ˆf j = ( L z L z) 1 L z z j. dla znormalizowanych danych. Ponieważ L = [ ˆλ... 1ê 1 ˆλ ê 2 ˆλ mê m] mamy: 1 ê ˆλ 1(x j x) 1 2 ê 2(x ˆλ j x) ˆf j = 2. 1 ê m(x ˆλ j x) m Dla tych wyników czynnikowych 1 n ˆf n i=1 j = 0 (próbka średniej) i (próbka 1 n kowariancji) ˆf n 1 i=1 j ˆf j = I Widziemy, że ˆf j są niczym więcej niż pierwszymi m głównymi komponentami ocenionymi na x j. i wnioskowanie o strukturze macierzy kowariancji

85 -The Regression Method Startując ponownie z oryginalnym modelem czynnikowym X µ = LF + ɛ początkowo traktujemy ładunki macierzy L i macierz specyficznych wariancji ψ jako znane. Kiedy wspólne czynniki F i szczególne czynniki (lub błędy) ɛ mają łączny rozkład normalny ze średnimi i kowariancjami danymi przez (9-3), liniowa kombinacja X µ = LF + ɛ ma rozkłąd N p(0, LL + ψ). Ponadto, łączny rozkład (X µ) i F jest N m+p(0, ), gdzie i 0 jest (m + p)xj wektorem zerowym. Rozkład warunkowy F x jest wielowymiarowy normalny o średniej = E(F x) = L 1(x µ) = L (LL + ψ) 1 (x µ) kowariancji = Cov(F x) = I L 1 L = I L (LL + ψ) 1 L i wnioskowanie o strukturze macierzy kowariancji

86 Wartości L (LL + ψ) 1 są współczynnikami w regresji czynników. Szacunki tych współczynników produkują wyniki, które są analogiczne do oszacowań warunkowych średnich wartości w analizach regresji wielowymiarowej. W konsekwencji, zadany wektor obserwacji x j i biorąc estymatory największej wiarygodności ˆL i ˆψ otrzymujemy, że j-te wartości czynnikowe wektora dane są przez: ˆf j = ˆL ˆ 1 (x j x) = ˆL (ˆLˆL + ˆψ) 1 (x j x) j = 1, 2,..., n Obliczenie ˆf j może być uproszczone przez użycie macierzy tożsamej ˆL (mxp)(ˆlˆl + ˆψ) 1 (pxp) = (I + ˆL ˆψ 1 ˆL) 1 (mxm) ˆL (mxp) + ˆψ 1 (pxp) Tożsamość pozwala na porównanie wyników czynnika generowanego przez argument regresji z tymi generowanymi przez procedurę wagową najmniejszych kwadratów. Tymczasowo, oznaczamy przez ˆf j R i drugi przez ˆf LS j. Potem uzyskujemy ˆf LS j = (ˆL ˆψ 1 ˆL) 1 (I + ˆL ˆψ 1 ˆL)f R j = (I + (ˆL ˆψ 1 ˆL) 1 )f R j i wnioskowanie o strukturze macierzy kowariancji

87 Dla estymatorów największej wiarygodności (ˆL ˆψ 1 ˆL) 1 = ˆ 1 i jeżeli elementy tej diagonalnej macierzy są bliskie zeru, regresja i uogólniona metoda najmniejszych kwadratów da prawie takie same wyniki czynnikowe. W próbie zredukowania efektów nieprawidłowej ilości wartościowych czynników, praktycy mają tendencję do obliczania wyników czynnika przez używanie S zamiast ˆ = ˆLˆL + ˆψ. Następnie otrzymujemy Wyniki czynnika otrzymane przez regresję ˆf j = ˆL S 1 (x j x), lub jeżeli macierz korelacji jest czynnikowa j = 1, 2,..., n gdzie widzimy: ˆf j = ˆL zr 1 z j, j = 1, 2,..., n z j = D 1/2 (x j x) i ˆρ = ˆL z ˆL z + ˆψ z i wnioskowanie o strukturze macierzy kowariancji

88 Ponownie, jeżeli rotacyjne czynniki ˆL = ˆLT są użyte w miejscu oryginalnych ładunków kolejne wyniki czynnika ˆf j są powiązane z ˆf j przez ˆf j = T ˆf j j = 1, 2,..., n Miara liczbowa umowna pomiędzy czynnikiem wyników generowanych z dwóch różnych kalkulacyjnych metod jest zapewniona przez próbkę korelacji współczynników pomiędzy wynikami na tym samym czynniku. W zaprezentowanych metodach, żadna nie jest rekomendowana jako równomiernie lepsza. i wnioskowanie o strukturze macierzy kowariancji

89 Przykład Powinniśmy zilustrować obliczenia wyników czynnika przez metodę najmniejszych kwadratów i metodę regresji używając za dane -ceny giełdowe. Rozwiązaniem największej wiarygodności z R dało szacowane rotacyjne ładunki i szczególne wariancje ˆψ z = ˆL z = 0, 763 0, 024 0, 821 0, 227 0, 669 0, 104 0, 118 0, 993 0, 113 0, 675 0, , , , , 53 i wnioskowanie o strukturze macierzy kowariancji

90 Wektor znormalizowanych obserwacji z = [0, 5 1, 4 0, 2 0, 7 1, 4] Ważona metoda najmniejszych kwadratów dla czynnika 1 i 2 ˆf = (ˆL z ˆψ z 1 ˆL z ) 1 ˆL z ˆψ z 1 z = i wnioskowanie o strukturze macierzy kowariancji

91 Regresja: ˆf = ˆL z R 1 z = W tym przypadku, dwie metody produkują bardzo podobne wyniki. Wszystkie wyniki czynnika otrzymane z regresji są zilustrowane na rys. i wnioskowanie o strukturze macierzy kowariancji

92 Przykład Tworzenie prostych sumowań wyników z ładunku analizowanych grupowań. Główny składnik czynnikowej analizy danych cen giełdowych produkował oszacowane ładunki L = 0, 732 0, 437 0, 831 0, 280 0, 726 0, 374 0, 605 0, 694 0, 563 0, 719 i L = LT = 0, 852 0, 030 0, 851 0, 214 0, 813 0, 079 0, 133 0, 911 0, 084 0, 909 Dla każdego czynnika, bierzemy ładunki z największą absolutną wartością w L jako równe w skali i pomijamy mniejsze ładunki. Tak więc, tworzymy liniową kombinację : ˆf 1 = x 1 + x 2 + x 3 + x 4 + x 5 ˆf 2 = x 4 + x 5 x 1 i wnioskowanie o strukturze macierzy kowariancji

93 c.d. W praktyce, możemy standaryzować te nowe wartości. Jeżeli zamiast L, zaczniemy z rotacji ładunków varimax L, proste wyniki czynnikowe powinny być: ˆf 1 = x 1 + x 2 + x 3 ˆf 2 = x 4 + x 5 Identyfikacja wyższych ładunków i nieistotnych ładunków jest naprawdę dość subiektywna. Liniowe związki, które mają sens merytorycznie są korzystne i wnioskowanie o strukturze macierzy kowariancji

94 Perspektywy i Strategie dla Analizy czynnika Najważniejszą decyzją w badaniu czynnika analitycznego jest wybór m, ilości wspólnych czynników. Badanie dużej próbki nadaje się tylko do danych, które mają przybliżony rozkład normalny. Najczęściej, ostateczny wybór m opiera się na znajomości: jaka część wariancji próbki jest objaśniona, znajomość tematu, zasadność wyników. Wybór metody rozwiązania oraz typu rotacji jest mniej istotną decyzją. W rzeczywistości, większość zadowalających analiz czynnikowej są te, w której rotację wypróbowano w kilku metodach, a zasadniczo wszystkie wyniki potwierdzają tę samą strukturę czynnika. i wnioskowanie o strukturze macierzy kowariancji

95 Przedstawiamy najlepszą opcję: Przeprowadzić podstawową analizę składnika czynnika. Sposób ten jest szczególnie odpowiedni dla pierwszego przejścia przez dane (Nie jest wymagane, gdy R lub S jest nieosobliwa) a) Poszukaj podejrzanych obserwacji przez wykreślenie wyników czynnika. Oblicz znormalizowane wyniki dla każdej obserwacji i kwadraty odległości. b) Spróbuj rotacji varimax. Wykonać analizę maksymalnego współczynnika prawdopodobieństwa, w tym rotację varimax. Porównanie rozwiązań otrzymanych dwoma metodami. a) Czy grupy ładunków działają w ten sam sposób? b) Połącz wyniki uzyskane dla współczynnika głównych składników z wynikami z analizy prawdopodobieństwa maksymalnego. i wnioskowanie o strukturze macierzy kowariancji

96 Powtórz trzy pierwsze kroki dla innego m. Czy dodatkowe czynniki muszą przyczynić się do zrozumienia i interpretacji danych? Dla dużej ilości danych, podziel je na pół i przeprowadzić analizę czynnika na każdej części. Porównaj te dwa rezultaty ze sobą i z tymi uzyskanymi z pełnych danych. (Podział ze względu na czas, może ujawnić informację o zmianach zachodzących w czasie.) i wnioskowanie o strukturze macierzy kowariancji

97 Przykład 1 Przykład 2 Przykład 3 Przykład 4 Przykład 1 Przedstawione zostały badania ziaren pszenicy, owsa, jęczmienia i żyta pochodzących z różnych części kanadyjskiej prerii. Celem badania jest ustalenie ewentualnych zależności między własnościami ziarna a jego zarobaczeniem pewnymi gatunkami stawonogów. Zebrano 165 próbek i nie rozróżniano ich pod względem gatunku zboża. Zamiast wszystkich obserwacji, mamy daną macierz korelacji. Oznaczenie: GRADE - jakość ziarna w skali od 1 do 6 MOIST - wyrażona w procentach wilgotność ziarna DOCK - ilość ziaren chwastów, zniszczonych ziaren zbóż i innych niepożądanych materii w próbie ACAR - Acarus, Rozkruszek, CHEY - Cheyletus, GLYC - Glycychagus, LARS - Larsonemus CRYP - Cryptolestes - gatunek chrząszcza PSOC -Psocoptera, Psotniki - rząd owadów i wnioskowanie o strukturze macierzy kowariancji

98 Przykład 1 Przykład 2 Przykład 3 Przykład 4 Kod w SAS i wnioskowanie o strukturze macierzy kowariancji

99 Przykład 1 Przykład 2 Przykład 3 Przykład 4 Rezultaty PROC FACTOR Dla modelu 3-czynnikowego wartość p wynosi 0, 4062 > 0, 05 = α. Czyli 3 czynniki wystarczają dla naszych danych. i wnioskowanie o strukturze macierzy kowariancji

100 Przykład 1 Przykład 2 Przykład 3 Przykład 4 Rezultaty PROC FACTOR W tabelkach układ czynników i obrócony układ czynników kolorem zielonym zaznaczyliśmy zmienne pogrupowane w czynniki. i wnioskowanie o strukturze macierzy kowariancji

101 Przykład 1 Przykład 2 Przykład 3 Przykład 4 Przykład 2 Przeanalizujemy dane społeczno-ekonomiczne zebrane przez Harman a w 1976 (te same, które zostały poddane analizie na zajęciach z analizy głównych składowych). Mamy pięć zmiennych: całkowita populacja (Population), średnia liczba lat spędzonych w szkole (School), zatrudnienie (Employment), różnorodne profesjonalne usługi (Services), średnia wartość domu (House Value). Każda z obserwacji reprezentuje 1 z 12 obszarów spisu ludności w Los Angeles Standard Metropolitan Statistical Area. i wnioskowanie o strukturze macierzy kowariancji

102 Przykład 1 Przykład 2 Przykład 3 Przykład 4 Kod w SAS i wnioskowanie o strukturze macierzy kowariancji

103 Przykład 1 Przykład 2 Przykład 3 Przykład 4 Uzyskane rezultaty Jeżeli do danych możemy stosować model czynników wspólnych, częściowa korelacja powinna być mała w porównaniu do korelacji oryginalnej. Na przykład, częściowa korelacja pomiędzy zmiennymi School oraz House Value wynosi 0,65, czyli nieco mniej niż oryginalna korelacja (0,86). Miara Kaisera podsumowuje, dla każdej zmiennej z osobna oraz dla wszystkich wspólnie, o ile częściowa korelacja jest mniejsza niż oryginalna. Porządane są wartości tej miary na poziomie 0,8 lub 0,9, a wartości poniżej 0,5 są nieakceptowalne. i wnioskowanie o strukturze macierzy kowariancji

104 Przykład 1 Przykład 2 Przykład 3 Przykład 4 Kwadraty korelacji wielokrotnej są przedstawione jako oceny ładunków a priori w tabeli wynikowej. Opcja PRIORS=SMC zastępuje elementy przekątnej oryginalnej macierzy korelacji kwadratami korelacji wielokrotnych. Ponieważ kwadraty korelacji wielokrotnych są zazwyczaj mniejsze niż 1, uzyskaną macierz korelacji nazywamy zredukowaną. Dwie pierwsze wartości własne wyjaśniają 101, 3% wspólnej wariancji. Sugeruje to, iż możliwe jest, że nie potrzebujemy więcej niż 2 czynników wspólnych. Poniższe wykresy potwierdzają tą teorię. i wnioskowanie o strukturze macierzy kowariancji

105 Przykład 1 Przykład 2 Przykład 3 Przykład 4 i wnioskowanie o strukturze macierzy kowariancji

106 Przykład 1 Przykład 2 Przykład 3 Przykład 4 PROC FACTOR zwraca nam dwa czynniki, co potwierdza tezę o dwóch czynnikach podaną na podstawie wykresów. Końcowe oszacowania ładunków są zbliżone do ocen a priori. Korelacje resztowe (pozadiagonalne) są małe, największa wynosi 0,03. Korelacje częściowe również nie są zbyt duże. i wnioskowanie o strukturze macierzy kowariancji

107 Przykład 1 Przykład 2 Przykład 3 Przykład 4 Na wykresie widzimy, że początkowy schemat czynników ukazuje dwa wyraźne skupiska zmiennych (pierwsze - Population i Employment oraz drugie - School i HouseValue). Zmienna Services jest pomiędzy nimi, jednak bliżej drugiego skupiska. i wnioskowanie o strukturze macierzy kowariancji

108 Przykład 1 Przykład 2 Przykład 3 Przykład 4 Wyniki prerotacji Varimax Dzięki zastosowaniu opcji REORDER możemy odczytać skupiska zmiennych z tabeli Obrócony układ czynników. Pierwszy czynnik związany jest bardziej z trzema pierwszymi zmiennymi, drugi zaś z dwiema ostatnimi. Wariancja wyjaśniona przez każdy z czynników jest bardziej równomiernie rozłożona niż na początku (bez rotacji). i wnioskowanie o strukturze macierzy kowariancji

109 Przykład 1 Przykład 2 Przykład 3 Przykład 4 i wnioskowanie o strukturze macierzy kowariancji

110 Przykład 1 Przykład 2 Przykład 3 Przykład 4 Metoda rotacji Promax Czynnik 1 wyjaśnia 2,248 wariancji zmiennych z wyłączeniem wariancji zmiennych wyjaśnionych przez czynnik 2. i wnioskowanie o strukturze macierzy kowariancji

111 Przykład 1 Przykład 2 Przykład 3 Przykład 4 i wnioskowanie o strukturze macierzy kowariancji

112 Przykład 1 Przykład 2 Przykład 3 Przykład 4 Przykład 3 Dane z poprzedniego przykładu poddamy teraz analizie czynnikowej metodą największej wiarygodności. Kod w SAS i wnioskowanie o strukturze macierzy kowariancji

113 Przykład 1 Przykład 2 Przykład 3 Przykład 4 Metoda największej wiarygodności dla 1 czynnika i wnioskowanie o strukturze macierzy kowariancji

114 Przykład 1 Przykład 2 Przykład 3 Przykład 4 i wnioskowanie o strukturze macierzy kowariancji

115 Przykład 1 Przykład 2 Przykład 3 Przykład 4 Już po 3 iteracji kryterium zbieżności zostało spełnione. Patrzymy zatem na tabelkę z testami. Widzimy, że należy odrzucić obie hipotezy zerowe, ponieważ p-value jest mniejsze niż 0,05. Przechodzimy więc do sprawdzenia hipotezy o występowaniu 2 czynników. i wnioskowanie o strukturze macierzy kowariancji

116 Przykład 1 Przykład 2 Przykład 3 Przykład 4 Metoda największej wiarygodności dla 2 czynników i wnioskowanie o strukturze macierzy kowariancji

117 Przykład 1 Przykład 2 Przykład 3 Przykład 4 i wnioskowanie o strukturze macierzy kowariancji

118 Przykład 1 Przykład 2 Przykład 3 Przykład 4 i wnioskowanie o strukturze macierzy kowariancji

119 Przykład 1 Przykład 2 Przykład 3 Przykład 4 W tym przypadku, po 5 iteracji kryterium zbieżności jest spełnione, zatem możemy przejść do badania prawdziwości hipotezy, że model dwuczynnikowy jest odpowiednio dopasowany do naszych danych. Widzimy, że wartość p wynosi 0, 1382 > 0, 05 czyli nie mamy podstaw do odrzucenia hipotezy zerowej. Sprawdzimy jeszcze, jakie otrzymamy rezultaty dla 3 czynników. i wnioskowanie o strukturze macierzy kowariancji

120 Przykład 1 Przykład 2 Przykład 3 Przykład 4 Metoda największej wiarygodności dla 3 czynników i wnioskowanie o strukturze macierzy kowariancji

121 Przykład 1 Przykład 2 Przykład 3 Przykład 4 i wnioskowanie o strukturze macierzy kowariancji

122 Przykład 1 Przykład 2 Przykład 3 Przykład 4 i wnioskowanie o strukturze macierzy kowariancji

123 Przykład 1 Przykład 2 Przykład 3 Przykład 4 W przypadku n=3 SAS ostrzega, że jest zbyt wiele czynników i nie uzyskamy jednoznacznego rozwiązania. Wystąpił również błąd po 4 iteracjach: rozwiązanie zbliżone, ale nie optymalne, czyli kryterium zbieżności nie jest spełnione. Liczba stopni swobody dla testu chi-kwadrat wynosi -2, zatem nie uzyskamy wartości p. Ostrzeżenie zmień istrukcję priors oznacza, że SAS nie może wykonać analizy czynnikowej i należy zadać miejsce, od którego ma zacząć. Trzeba wówczas dopisać w kodzie PRIORS=ALL lub PRIORS=SMC. W powyższym przykładzie ani jedna ani druga metoda nie przyniosła oczekiwanych rezultatów. Podsumowanie Metoda największej wiarygodności również potwierdza, że najbardziej odpowiedni będzie model dwuczynnikowy. i wnioskowanie o strukturze macierzy kowariancji

124 Przykład 1 Przykład 2 Przykład 3 Przykład 4 Przykład 4 Dane zostały wzięte z książki Modern Factor Analysys. Mamy daną macierz korelacji, dla wyników 24 testów psychologicznych. Wykonamy analizę czynnikową w SAS Enterprise Guide. Po utworzeniu zbioru danych, klikamy: i wnioskowanie o strukturze macierzy kowariancji

125 Przykład 1 Przykład 2 Przykład 3 Przykład 4 W miejsce zmienne analizowane przenosimy zmienne test1-test24 i wnioskowanie o strukturze macierzy kowariancji

126 Przykład 1 Przykład 2 Przykład 3 Przykład 4 W metodzie wyodrębniania czynników wybieramy: analiza czynnikowa największej wiarygodności i wnioskowanie o strukturze macierzy kowariancji

127 Przykład 1 Przykład 2 Przykład 3 Przykład 4 Następnie, w menu obrót i wykresy, po prawej stronie zaznaczamy wykres osypiska wartości własnych, możemy również zmienić metodę obrotu: i wnioskowanie o strukturze macierzy kowariancji

128 Przykład 1 Przykład 2 Przykład 3 Przykład 4 W rezultatach zaznaczmy następujące wyniki i statystyki: i klikamy uruchom. i wnioskowanie o strukturze macierzy kowariancji

129 Przykład 1 Przykład 2 Przykład 3 Przykład 4 Rezultaty Z wykresu możemy odczytać, że będziemy mieli 5 czynników. i wnioskowanie o strukturze macierzy kowariancji

130 Przykład 1 Przykład 2 Przykład 3 Przykład 4 Po pięciu iteracjach kryterium zbieżności zostało spełnione, zatem z następnej tabeli odczytujemy wartość p = 0, 1139 > 0, 05, która potwierdza hipotezę zerową mówiącą o tym, że najlepszy do naszych danych jest model pięcioczynnikowy. i wnioskowanie o strukturze macierzy kowariancji

131 Przykład 1 Przykład 2 Przykład 3 Przykład 4 W powyższej tabeli zaznaczone zostały zmienne pogrupowane w każdy z czynników. Np. testy 5,9,6,7,8 są wspólnymi czynnikami, zatem można je zastąpić jedną zmienną Factor1. i wnioskowanie o strukturze macierzy kowariancji

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład XV: Zagadnienia redukcji wymiaru danych 2 lutego 2015 r. Standaryzacja danych Standaryzacja danych Własności macierzy korelacji Definicja Niech X będzie zmienną losową o skończonym drugim momencie.

Bardziej szczegółowo

Statystyka i eksploracja danych

Statystyka i eksploracja danych Wykład XII: Zagadnienia redukcji wymiaru danych 12 maja 2014 Definicja Niech X będzie zmienną losową o skończonym drugim momencie. Standaryzacją zmiennej X nazywamy zmienną losową Z = X EX Var (X ). Definicja

Bardziej szczegółowo

Zmienne zależne i niezależne

Zmienne zależne i niezależne Analiza kanoniczna Motywacja (1) 2 Często w badaniach spotykamy problemy badawcze, w których szukamy zakresu i kierunku zależności pomiędzy zbiorami zmiennych: { X i Jak oceniać takie 1, X 2,..., X p }

Bardziej szczegółowo

Wprowadzenie (1) Przedmiotem analizy czynnikowej jest badanie wewnętrznych zależności w zbiorze zmiennych. Jest to modelowanie niejawne. Oprócz zmienn

Wprowadzenie (1) Przedmiotem analizy czynnikowej jest badanie wewnętrznych zależności w zbiorze zmiennych. Jest to modelowanie niejawne. Oprócz zmienn Analiza czynnikowa Wprowadzenie (1) Przedmiotem analizy czynnikowej jest badanie wewnętrznych zależności w zbiorze zmiennych. Jest to modelowanie niejawne. Oprócz zmiennych, które są bezpośrednio obserwowalne

Bardziej szczegółowo

Analiza Składowych Głównych i Czynnikowa

Analiza Składowych Głównych i Czynnikowa Analiza Składowych Głównych i Czynnikowa Agata Weltrowska Paulina Zalewska Wydział FTiMS, 12 kwiecień 2018 Wstęp oraz cele Wprowadzenie W jednej ze swoich prac, A.E. Maxwell podaje, że analiza składowych

Bardziej szczegółowo

Analiza głównych składowych- redukcja wymiaru, wykł. 12

Analiza głównych składowych- redukcja wymiaru, wykł. 12 Analiza głównych składowych- redukcja wymiaru, wykł. 12 Joanna Jędrzejowicz Instytut Informatyki Konieczność redukcji wymiaru w eksploracji danych bazy danych spotykane w zadaniach eksploracji danych mają

Bardziej szczegółowo

Analiza składowych głównych. Wprowadzenie

Analiza składowych głównych. Wprowadzenie Wprowadzenie jest techniką redukcji wymiaru. Składowe główne zostały po raz pierwszy zaproponowane przez Pearsona(1901), a następnie rozwinięte przez Hotellinga (1933). jest zaliczana do systemów uczących

Bardziej szczegółowo

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa Spis treści Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa Romuald Kotowski Katedra Informatyki Stosowanej PJWSTK 2009 Spis treści Spis treści 1 Wstęp Bardzo często interesujący

Bardziej szczegółowo

Zadanie 1 Zakładając liniową relację między wydatkami na obuwie a dochodem oszacować MNK parametry modelu: y t. X 1 t. Tabela 1.

Zadanie 1 Zakładając liniową relację między wydatkami na obuwie a dochodem oszacować MNK parametry modelu: y t. X 1 t. Tabela 1. tel. 44 683 1 55 tel. kom. 64 566 811 e-mail: biuro@wszechwiedza.pl Zadanie 1 Zakładając liniową relację między wydatkami na obuwie a dochodem oszacować MNK parametry modelu: gdzie: y t X t y t = 1 X 1

Bardziej szczegółowo

Regresja wieloraka Ogólny problem obliczeniowy: dopasowanie linii prostej do zbioru punktów. Najprostszy przypadek - jedna zmienna zależna i jedna

Regresja wieloraka Ogólny problem obliczeniowy: dopasowanie linii prostej do zbioru punktów. Najprostszy przypadek - jedna zmienna zależna i jedna Regresja wieloraka Regresja wieloraka Ogólny problem obliczeniowy: dopasowanie linii prostej do zbioru punktów. Najprostszy przypadek - jedna zmienna zależna i jedna zmienna niezależna (można zobrazować

Bardziej szczegółowo

Współczynnik korelacji. Współczynnik korelacji jest miernikiem zależności między dwiema cechami Oznaczenie: ϱ

Współczynnik korelacji. Współczynnik korelacji jest miernikiem zależności między dwiema cechami Oznaczenie: ϱ Współczynnik korelacji Współczynnik korelacji jest miernikiem zależności między dwiema cechami Oznaczenie: ϱ Własności współczynnika korelacji 1. Współczynnik korelacji jest liczbą niemianowaną 2. ϱ 1,

Bardziej szczegółowo

PDF created with FinePrint pdffactory Pro trial version http://www.fineprint.com

PDF created with FinePrint pdffactory Pro trial version http://www.fineprint.com Analiza korelacji i regresji KORELACJA zależność liniowa Obserwujemy parę cech ilościowych (X,Y). Doświadczenie jest tak pomyślane, aby obserwowane pary cech X i Y (tzn i ta para x i i y i dla różnych

Bardziej szczegółowo

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory Dr Anna ADRIAN Paw B5, pok 407 adrian@tempus.metal.agh.edu.pl

Bardziej szczegółowo

ANALIZA CZYNNIKOWA Przykład 1

ANALIZA CZYNNIKOWA Przykład 1 ANALIZA CZYNNIKOWA... stanowi zespół metod i procedur statystycznych pozwalających na badanie wzajemnych relacji między dużą liczbą zmiennych i wykrywanie ukrytych uwarunkowań, ktore wyjaśniają ich występowanie.

Bardziej szczegółowo

KORELACJE I REGRESJA LINIOWA

KORELACJE I REGRESJA LINIOWA KORELACJE I REGRESJA LINIOWA Korelacje i regresja liniowa Analiza korelacji: Badanie, czy pomiędzy dwoma zmiennymi istnieje zależność Obie analizy się wzajemnie przeplatają Analiza regresji: Opisanie modelem

Bardziej szczegółowo

Elementy statystyki wielowymiarowej

Elementy statystyki wielowymiarowej Wnioskowanie_Statystyczne_-_wykład Spis treści 1 Elementy statystyki wielowymiarowej 1.1 Kowariancja i współczynnik korelacji 1.2 Macierz kowariancji 1.3 Dwumianowy rozkład normalny 1.4 Analiza składowych

Bardziej szczegółowo

Analiza składowych głównych

Analiza składowych głównych Analiza składowych głównych Wprowadzenie (1) W przypadku regresji naszym celem jest predykcja wartości zmiennej wyjściowej za pomocą zmiennych wejściowych, wykrycie związku między wielkościami wejściowymi

Bardziej szczegółowo

Idea. θ = θ 0, Hipoteza statystyczna Obszary krytyczne Błąd pierwszego i drugiego rodzaju p-wartość

Idea. θ = θ 0, Hipoteza statystyczna Obszary krytyczne Błąd pierwszego i drugiego rodzaju p-wartość Idea Niech θ oznacza parametr modelu statystycznego. Dotychczasowe rozważania dotyczyły metod estymacji tego parametru. Teraz zamiast szacować nieznaną wartość parametru będziemy weryfikowali hipotezę

Bardziej szczegółowo

Analiza regresji - weryfikacja założeń

Analiza regresji - weryfikacja założeń Medycyna Praktyczna - portal dla lekarzy Analiza regresji - weryfikacja założeń mgr Andrzej Stanisz z Zakładu Biostatystyki i Informatyki Medycznej Collegium Medicum UJ w Krakowie (Kierownik Zakładu: prof.

Bardziej szczegółowo

Weryfikacja hipotez statystycznych

Weryfikacja hipotez statystycznych Weryfikacja hipotez statystycznych Hipoteza Test statystyczny Poziom istotności Testy jednostronne i dwustronne Testowanie równości wariancji test F-Fishera Testowanie równości wartości średnich test t-studenta

Bardziej szczegółowo

Stosowana Analiza Regresji

Stosowana Analiza Regresji Stosowana Analiza Regresji Wykład VIII 30 Listopada 2011 1 / 18 gdzie: X : n p Q : n n R : n p Zał.: n p. X = QR, - macierz eksperymentu, - ortogonalna, - ma zera poniżej głównej diagonali. [ R1 X = Q

Bardziej szczegółowo

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów Rozdział : Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów W tym rozdziale omówione zostaną dwie najpopularniejsze metody estymacji parametrów w ekonometrycznych modelach nieliniowych,

Bardziej szczegółowo

STATYSTYKA I DOŚWIADCZALNICTWO Wykład 5

STATYSTYKA I DOŚWIADCZALNICTWO Wykład 5 STATYSTYKA I DOŚWIADCZALNICTWO Wykład 5 Analiza korelacji - współczynnik korelacji Pearsona Cel: ocena współzależności między dwiema zmiennymi ilościowymi Ocenia jedynie zależność liniową. r = cov(x,y

Bardziej szczegółowo

KADD Metoda najmniejszych kwadratów funkcje nieliniowe

KADD Metoda najmniejszych kwadratów funkcje nieliniowe Metoda najmn. kwadr. - funkcje nieliniowe Metoda najmniejszych kwadratów Funkcje nieliniowe Procedura z redukcją kroku iteracji Przykłady zastosowań Dopasowanie funkcji wykładniczej Dopasowanie funkcji

Bardziej szczegółowo

Natalia Neherbecka. 11 czerwca 2010

Natalia Neherbecka. 11 czerwca 2010 Natalia Neherbecka 11 czerwca 2010 1 1. Konsekwencje heteroskedastyczności i autokorelacji 2. Uogólniona MNK 3. Stosowalna Uogólniona MNK 4. Odporne macierze wariancji i kowariancji b 2 1. Konsekwencje

Bardziej szczegółowo

Analiza czynnikowa i wnioskowanie dla właściwości macierzy kowa

Analiza czynnikowa i wnioskowanie dla właściwości macierzy kowa Analiza czynnikowa i wnioskowanie dla właściwości macierzy kowariancji Wioleta Arym, Daria Szlagowska, Martyna Zarach, Andrzej Rebell Wydział FTiMS, Politechnika Gdańska 9 maja 2014 Początki analizy czynnikowej

Bardziej szczegółowo

Metoda największej wiarygodności

Metoda największej wiarygodności Rozdział Metoda największej wiarygodności Ogólnie w procesie estymacji na podstawie prób x i (każde x i może być wektorem) wyznaczamy parametr λ (w ogólnym przypadku również wektor) opisujący domniemany

Bardziej szczegółowo

Testowanie hipotez statystycznych

Testowanie hipotez statystycznych Agenda Instytut Matematyki Politechniki Łódzkiej 2 stycznia 2012 Agenda Agenda 1 Wprowadzenie Agenda 2 Hipoteza oraz błędy I i II rodzaju Hipoteza alternatywna Statystyka testowa Zbiór krytyczny Poziom

Bardziej szczegółowo

STATYSTYKA I DOŚWIADCZALNICTWO Wykład 7

STATYSTYKA I DOŚWIADCZALNICTWO Wykład 7 STATYSTYKA I DOŚWIADCZALNICTWO Wykład 7 Analiza korelacji - współczynnik korelacji Pearsona Cel: ocena współzależności między dwiema zmiennymi ilościowymi Ocenia jedynie zależność liniową. r = cov(x,y

Bardziej szczegółowo

ALGORYTMICZNA I STATYSTYCZNA ANALIZA DANYCH

ALGORYTMICZNA I STATYSTYCZNA ANALIZA DANYCH 1 ALGORYTMICZNA I STATYSTYCZNA ANALIZA DANYCH WFAiS UJ, Informatyka Stosowana II stopień studiów 2 Wnioskowanie statystyczne dla zmiennych numerycznych Porównywanie dwóch średnich Boot-strapping Analiza

Bardziej szczegółowo

Zaawansowane metody numeryczne

Zaawansowane metody numeryczne Wykład 10 Rozkład LU i rozwiązywanie układów równań liniowych Niech będzie dany układ równań liniowych postaci Ax = b Załóżmy, że istnieją macierze L (trójkątna dolna) i U (trójkątna górna), takie że macierz

Bardziej szczegółowo

Spis treści Wstęp Estymacja Testowanie. Efekty losowe. Bogumiła Koprowska, Elżbieta Kukla

Spis treści Wstęp Estymacja Testowanie. Efekty losowe. Bogumiła Koprowska, Elżbieta Kukla Bogumiła Koprowska Elżbieta Kukla 1 Wstęp Czym są efekty losowe? Przykłady Model mieszany 2 Estymacja Jednokierunkowa klasyfikacja (ANOVA) Metoda największej wiarogodności (ML) Metoda największej wiarogodności

Bardziej szczegółowo

Mikroekonometria 3. Mikołaj Czajkowski Wiktor Budziński

Mikroekonometria 3. Mikołaj Czajkowski Wiktor Budziński Mikroekonometria 3 Mikołaj Czajkowski Wiktor Budziński Zadanie 1. Wykorzystując dane me.hedonic.dta przygotuj model oszacowujący wartość kosztów zewnętrznych rolnictwa 1. Przeprowadź regresję objaśniającą

Bardziej szczegółowo

Wykład 4. Plan: 1. Aproksymacja rozkładu dwumianowego rozkładem normalnym. 2. Rozkłady próbkowe. 3. Centralne twierdzenie graniczne

Wykład 4. Plan: 1. Aproksymacja rozkładu dwumianowego rozkładem normalnym. 2. Rozkłady próbkowe. 3. Centralne twierdzenie graniczne Wykład 4 Plan: 1. Aproksymacja rozkładu dwumianowego rozkładem normalnym 2. Rozkłady próbkowe 3. Centralne twierdzenie graniczne Przybliżenie rozkładu dwumianowego rozkładem normalnym Niech Y ma rozkład

Bardziej szczegółowo

Estymacja punktowa i przedziałowa

Estymacja punktowa i przedziałowa Temat: Estymacja punktowa i przedziałowa Kody znaków: żółte wyróżnienie nowe pojęcie czerwony uwaga kursywa komentarz 1 Zagadnienia 1. Statystyczny opis próby. Idea estymacji punktowej pojęcie estymatora

Bardziej szczegółowo

WNIOSKOWANIE W MODELU REGRESJI LINIOWEJ

WNIOSKOWANIE W MODELU REGRESJI LINIOWEJ WNIOSKOWANIE W MODELU REGRESJI LINIOWEJ Dana jest populacja generalna, w której dwuwymiarowa cecha (zmienna losowa) (X, Y ) ma pewien dwuwymiarowy rozk lad. Miara korelacji liniowej dla zmiennych (X, Y

Bardziej szczegółowo

Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności. dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl

Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności. dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl Statystyczna teoria korelacji i regresji (1) Jest to dział statystyki zajmujący

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej

Bardziej szczegółowo

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 9 i 10 - Weryfikacja hipotez statystycznych

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 9 i 10 - Weryfikacja hipotez statystycznych WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 9 i 10 - Weryfikacja hipotez statystycznych Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 9 i 10 1 / 30 TESTOWANIE HIPOTEZ STATYSTYCZNYCH

Bardziej szczegółowo

), którą będziemy uważać za prawdziwą jeżeli okaże się, że hipoteza H 0

), którą będziemy uważać za prawdziwą jeżeli okaże się, że hipoteza H 0 Testowanie hipotez Każde przypuszczenie dotyczące nieznanego rozkładu badanej cechy nazywamy hipotezą statystyczną. Hipoteza określająca jedynie wartości nieznanych parametrów liczbowych badanej cechy

Bardziej szczegółowo

Szkice rozwiązań z R:

Szkice rozwiązań z R: Szkice rozwiązań z R: Zadanie 1. Założono doświadczenie farmakologiczne. Obserwowano przyrost wagi ciała (przyrost [gram]) przy zadanych dawkach trzech preparatów (dawka.a, dawka.b, dawka.c). Obiektami

Bardziej szczegółowo

Załóżmy, że obserwujemy nie jedną lecz dwie cechy, które oznaczymy symbolami X i Y. Wyniki obserwacji obu cech w i-tym obiekcie oznaczymy parą liczb

Załóżmy, że obserwujemy nie jedną lecz dwie cechy, które oznaczymy symbolami X i Y. Wyniki obserwacji obu cech w i-tym obiekcie oznaczymy parą liczb Współzależność Załóżmy, że obserwujemy nie jedną lecz dwie cechy, które oznaczymy symbolami X i Y. Wyniki obserwacji obu cech w i-tym obiekcie oznaczymy parą liczb (x i, y i ). Geometrycznie taką parę

Bardziej szczegółowo

b) Niech: - wśród trzech wylosowanych opakowań jest co najwyżej jedno o dawce 15 mg. Wówczas:

b) Niech: - wśród trzech wylosowanych opakowań jest co najwyżej jedno o dawce 15 mg. Wówczas: ROZWIĄZANIA I ODPOWIEDZI Zadanie A1. Można założyć, że przy losowaniu trzech kul jednocześnie kolejność ich wylosowania nie jest istotna. A więc: Ω = 20 3. a) Niech: - wśród trzech wylosowanych opakowań

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska. SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska INFORMACJE WSTĘPNE Hipotezy do uczenia się lub tworzenia

Bardziej szczegółowo

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 7 i 8 - Efektywność estymatorów, przedziały ufności

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 7 i 8 - Efektywność estymatorów, przedziały ufności WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 7 i 8 - Efektywność estymatorów, przedziały ufności Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 7 i 8 1 / 9 EFEKTYWNOŚĆ ESTYMATORÓW, próba

Bardziej szczegółowo

Prawdopodobieństwo i statystyka r.

Prawdopodobieństwo i statystyka r. Zadanie. Niech (X, Y) ) będzie dwuwymiarową zmienną losową, o wartości oczekiwanej (μ, μ, wariancji każdej ze współrzędnych równej σ oraz kowariancji równej X Y ρσ. Staramy się obserwować niezależne realizacje

Bardziej szczegółowo

REGRESJA I KORELACJA MODEL REGRESJI LINIOWEJ MODEL REGRESJI WIELORAKIEJ. Analiza regresji i korelacji

REGRESJA I KORELACJA MODEL REGRESJI LINIOWEJ MODEL REGRESJI WIELORAKIEJ. Analiza regresji i korelacji Statystyka i opracowanie danych Ćwiczenia 5 Izabela Olejarczyk - Wożeńska AGH, WIMiIP, KISIM REGRESJA I KORELACJA MODEL REGRESJI LINIOWEJ MODEL REGRESJI WIELORAKIEJ MODEL REGRESJI LINIOWEJ Analiza regresji

Bardziej szczegółowo

Wprowadzenie do analizy korelacji i regresji

Wprowadzenie do analizy korelacji i regresji Statystyka dla jakości produktów i usług Six sigma i inne strategie Wprowadzenie do analizy korelacji i regresji StatSoft Polska Wybrane zagadnienia analizy korelacji Przy analizie zjawisk i procesów stanowiących

Bardziej szczegółowo

Mikroekonometria 13. Mikołaj Czajkowski Wiktor Budziński

Mikroekonometria 13. Mikołaj Czajkowski Wiktor Budziński Mikroekonometria 13 Mikołaj Czajkowski Wiktor Budziński Endogeniczność regresja liniowa W regresji liniowej estymujemy następujące równanie: i i i Metoda Najmniejszych Kwadratów zakłada, że wszystkie zmienne

Bardziej szczegółowo

Oznacza to, że chcemy znaleźć minimum, a właściwie wartość najmniejszą funkcji

Oznacza to, że chcemy znaleźć minimum, a właściwie wartość najmniejszą funkcji Wykład 11. Metoda najmniejszych kwadratów Szukamy zależności Dane są wyniki pomiarów dwóch wielkości x i y: (x 1, y 1 ), (x 2, y 2 ),..., (x n, y n ). Przypuśćmy, że nanieśliśmy je na wykres w układzie

Bardziej szczegółowo

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar... 1. Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar... 1. Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16 Spis treści Przedmowa.......................... XI Rozdział 1. Pomiar: jednostki miar................. 1 1.1. Wielkości fizyczne i pozafizyczne.................. 1 1.2. Spójne układy miar. Układ SI i jego

Bardziej szczegółowo

Testowanie hipotez statystycznych.

Testowanie hipotez statystycznych. Bioinformatyka Wykład 9 Wrocław, 5 grudnia 2011 Temat. Test zgodności χ 2 Pearsona. Statystyka χ 2 Pearsona Rozpatrzmy ciąg niezależnych zmiennych losowych X 1,..., X n o jednakowym dyskretnym rozkładzie

Bardziej szczegółowo

REGRESJA LINIOWA Z UOGÓLNIONĄ MACIERZĄ KOWARIANCJI SKŁADNIKA LOSOWEGO. Aleksander Nosarzewski Ekonometria bayesowska, prowadzący: dr Andrzej Torój

REGRESJA LINIOWA Z UOGÓLNIONĄ MACIERZĄ KOWARIANCJI SKŁADNIKA LOSOWEGO. Aleksander Nosarzewski Ekonometria bayesowska, prowadzący: dr Andrzej Torój 1 REGRESJA LINIOWA Z UOGÓLNIONĄ MACIERZĄ KOWARIANCJI SKŁADNIKA LOSOWEGO Aleksander Nosarzewski Ekonometria bayesowska, prowadzący: dr Andrzej Torój 2 DOTYCHCZASOWE MODELE Regresja liniowa o postaci: y

Bardziej szczegółowo

Kolejna z analiz wielozmiennowych Jej celem jest eksploracja danych, poszukiwanie pewnych struktur, które mogą utworzyć wskaźniki

Kolejna z analiz wielozmiennowych Jej celem jest eksploracja danych, poszukiwanie pewnych struktur, które mogą utworzyć wskaźniki Analiza czynnikowa Kolejna z analiz wielozmiennowych Jej celem jest eksploracja danych, poszukiwanie pewnych struktur, które mogą utworzyć wskaźniki Budowa wskaźnika Indeks był banalny I miał wady: o Czy

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 9

Stanisław Cichocki. Natalia Nehrebecka. Wykład 9 Stanisław Cichocki Natalia Nehrebecka Wykład 9 1 1. Dodatkowe założenie KMRL 2. Testowanie hipotez prostych Rozkład estymatora b Testowanie hipotez prostych przy użyciu statystyki t 3. Przedziały ufności

Bardziej szczegółowo

Mikroekonometria 5. Mikołaj Czajkowski Wiktor Budziński

Mikroekonometria 5. Mikołaj Czajkowski Wiktor Budziński Mikroekonometria 5 Mikołaj Czajkowski Wiktor Budziński Zadanie 1. Wykorzystując dane me.medexp3.dta przygotuj model regresji kwantylowej 1. Przygotuj model regresji kwantylowej w którym logarytm wydatków

Bardziej szczegółowo

Modele DSGE. Jerzy Mycielski. Maj Jerzy Mycielski () Modele DSGE Maj / 11

Modele DSGE. Jerzy Mycielski. Maj Jerzy Mycielski () Modele DSGE Maj / 11 Modele DSGE Jerzy Mycielski Maj 2008 Jerzy Mycielski () Modele DSGE Maj 2008 1 / 11 Modele DSGE DSGE - Dynamiczne, stochastyczne modele równowagi ogólnej (Dynamic Stochastic General Equilibrium Model)

Bardziej szczegółowo

Matematyka ubezpieczeń majątkowych r.

Matematyka ubezpieczeń majątkowych r. Matematyka ubezpieczeń majątkowych 3..007 r. Zadanie. Każde z ryzyk pochodzących z pewnej populacji charakteryzuje się tym że przy danej wartości λ parametru ryzyka Λ rozkład wartości szkód z tego ryzyka

Bardziej szczegółowo

W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych:

W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych: W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych: Zmienne losowe skokowe (dyskretne) przyjmujące co najwyżej przeliczalnie wiele wartości Zmienne losowe ciągłe

Bardziej szczegółowo

Ćwiczenia nr 7. TEMATYKA: Krzywe Bézier a

Ćwiczenia nr 7. TEMATYKA: Krzywe Bézier a TEMATYKA: Krzywe Bézier a Ćwiczenia nr 7 DEFINICJE: Interpolacja: przybliżanie funkcji za pomocą innej funkcji, zwykle wielomianu, tak aby były sobie równe w zadanych punktach. Poniżej przykład interpolacji

Bardziej szczegółowo

METODY ROZWIĄZYWANIA RÓWNAŃ NIELINIOWYCH

METODY ROZWIĄZYWANIA RÓWNAŃ NIELINIOWYCH METODY ROZWIĄZYWANIA RÓWNAŃ NIELINIOWYCH Jednym z zastosowań metod numerycznych jest wyznaczenie pierwiastka lub pierwiastków równania nieliniowego. W tym celu stosuje się szereg metod obliczeniowych np:

Bardziej szczegółowo

Regresja wielokrotna jest metodą statystyczną, w której oceniamy wpływ wielu zmiennych niezależnych (X1, X2, X3,...) na zmienną zależną (Y).

Regresja wielokrotna jest metodą statystyczną, w której oceniamy wpływ wielu zmiennych niezależnych (X1, X2, X3,...) na zmienną zależną (Y). Statystyka i opracowanie danych Ćwiczenia 12 Izabela Olejarczyk - Wożeńska AGH, WIMiIP, KISIM REGRESJA WIELORAKA Regresja wielokrotna jest metodą statystyczną, w której oceniamy wpływ wielu zmiennych niezależnych

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA

STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA STATYSTYKA MATEMATYCZNA ZESTAW 0 (POWT. RACH. PRAWDOPODOBIEŃSTWA) ZADANIA Zadanie 0.1 Zmienna losowa X ma rozkład określony funkcją prawdopodobieństwa: x k 0 4 p k 1/3 1/6 1/ obliczyć EX, D X. (odp. 4/3;

Bardziej szczegółowo

Szczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć)

Szczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć) Szczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć) 1. Populacja generalna a losowa próba, parametr rozkładu cechy a jego ocena z losowej próby, miary opisu statystycznego

Bardziej szczegółowo

Zaawansowane metody numeryczne

Zaawansowane metody numeryczne Wykład 11 Ogólna postać metody iteracyjnej Definicja 11.1. (metoda iteracyjna rozwiązywania układów równań) Metodą iteracyjną rozwiązywania { układów równań liniowych nazywamy ciąg wektorów zdefiniowany

Bardziej szczegółowo

Ekonometria. Wprowadzenie do modelowania ekonometrycznego Estymator KMNK. Jakub Mućk. Katedra Ekonomii Ilościowej

Ekonometria. Wprowadzenie do modelowania ekonometrycznego Estymator KMNK. Jakub Mućk. Katedra Ekonomii Ilościowej Ekonometria Wprowadzenie do modelowania ekonometrycznego Estymator Jakub Mućk Katedra Ekonomii Ilościowej Jakub Mućk Ekonometria Wykład 1 Estymator 1 / 16 Agenda 1 Literatura Zaliczenie przedmiotu 2 Model

Bardziej szczegółowo

Definicja 1 Statystyką nazywamy (mierzalną) funkcję obserwowalnego wektora losowego

Definicja 1 Statystyką nazywamy (mierzalną) funkcję obserwowalnego wektora losowego Rozdział 1 Statystyki Definicja 1 Statystyką nazywamy (mierzalną) funkcję obserwowalnego wektora losowego X = (X 1,..., X n ). Uwaga 1 Statystyka jako funkcja wektora zmiennych losowych jest zmienną losową

Bardziej szczegółowo

Stanisław Cichocki. Natalia Neherebecka. Zajęcia 15-17

Stanisław Cichocki. Natalia Neherebecka. Zajęcia 15-17 Stanisław Cichocki Natalia Neherebecka Zajęcia 15-17 1 1. Binarne zmienne zależne 2. Liniowy model prawdopodobieństwa a) Interpretacja współczynników 3. Probit a) Interpretacja współczynników b) Miary

Bardziej szczegółowo

Testowanie hipotez statystycznych.

Testowanie hipotez statystycznych. Bioinformatyka Wykład 6 Wrocław, 7 listopada 2011 Temat. Weryfikacja hipotez statystycznych dotyczących proporcji. Test dla proporcji. Niech X 1,..., X n będzie próbą statystyczną z 0-1. Oznaczmy odpowiednio

Bardziej szczegółowo

Ważne rozkłady i twierdzenia c.d.

Ważne rozkłady i twierdzenia c.d. Ważne rozkłady i twierdzenia c.d. Funkcja charakterystyczna rozkładu Wielowymiarowy rozkład normalny Elipsa kowariacji Sploty rozkładów Rozkłady jednostajne Sploty z rozkładem normalnym Pobieranie próby

Bardziej szczegółowo

Statystyka. Rozkład prawdopodobieństwa Testowanie hipotez. Wykład III ( )

Statystyka. Rozkład prawdopodobieństwa Testowanie hipotez. Wykład III ( ) Statystyka Rozkład prawdopodobieństwa Testowanie hipotez Wykład III (04.01.2016) Rozkład t-studenta Rozkład T jest rozkładem pomocniczym we wnioskowaniu statystycznym; stosuje się go wyznaczenia przedziału

Bardziej szczegółowo

WYKŁAD 8 ANALIZA REGRESJI

WYKŁAD 8 ANALIZA REGRESJI WYKŁAD 8 ANALIZA REGRESJI Regresja 1. Metoda najmniejszych kwadratów-regresja prostoliniowa 2. Regresja krzywoliniowa 3. Estymacja liniowej funkcji regresji 4. Testy istotności współczynnika regresji liniowej

Bardziej szczegółowo

WYKŁAD 5 TEORIA ESTYMACJI II

WYKŁAD 5 TEORIA ESTYMACJI II WYKŁAD 5 TEORIA ESTYMACJI II Teoria estymacji (wyznaczanie przedziałów ufności, błąd badania statystycznego, poziom ufności, minimalna liczba pomiarów). PRÓBA Próba powinna być reprezentacyjna tj. jak

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 2 autorzy: A. Gonczarek, J.M. Tomczak Metody estymacji Zad. 1 Pojawianie się spamu opisane jest zmienną losową x o rozkładzie dwupunktowym

Bardziej szczegółowo

166 Wstęp do statystyki matematycznej

166 Wstęp do statystyki matematycznej 166 Wstęp do statystyki matematycznej Etap trzeci realizacji procesu analizy danych statystycznych w zasadzie powinien rozwiązać nasz zasadniczy problem związany z identyfikacją cechy populacji generalnej

Bardziej szczegółowo

Zadanie 1. Liczba szkód N w ciągu roku z pewnego ryzyka ma rozkład geometryczny: k =

Zadanie 1. Liczba szkód N w ciągu roku z pewnego ryzyka ma rozkład geometryczny: k = Matematyka ubezpieczeń majątkowych 0.0.006 r. Zadanie. Liczba szkód N w ciągu roku z pewnego ryzyka ma rozkład geometryczny: k 5 Pr( N = k) =, k = 0,,,... 6 6 Wartości kolejnych szkód Y, Y,, są i.i.d.,

Bardziej szczegółowo

POLITECHNIKA OPOLSKA

POLITECHNIKA OPOLSKA POLITECHNIKA OPOLSKA WYDZIAŁ MECHANICZNY Katedra Technologii Maszyn i Automatyzacji Produkcji Laboratorium Podstaw Inżynierii Jakości Ćwiczenie nr 4 Temat: Analiza korelacji i regresji dwóch zmiennych

Bardziej szczegółowo

Wnioskowanie statystyczne. Statystyka w 5

Wnioskowanie statystyczne. Statystyka w 5 Wnioskowanie statystyczne tatystyka w 5 Rozkłady statystyk z próby Próba losowa pobrana z populacji stanowi realizacje zmiennej losowej jak ciąg zmiennych losowych (X, X,... X ) niezależnych i mających

Bardziej szczegółowo

Statystyka matematyczna Testowanie hipotez i estymacja parametrów. Wrocław, r

Statystyka matematyczna Testowanie hipotez i estymacja parametrów. Wrocław, r Statystyka matematyczna Testowanie hipotez i estymacja parametrów Wrocław, 18.03.2016r Plan wykładu: 1. Testowanie hipotez 2. Etapy testowania hipotez 3. Błędy 4. Testowanie wielokrotne 5. Estymacja parametrów

Bardziej szczegółowo

Własności statystyczne regresji liniowej. Wykład 4

Własności statystyczne regresji liniowej. Wykład 4 Własności statystyczne regresji liniowej Wykład 4 Plan Własności zmiennych losowych Normalna regresja liniowa Własności regresji liniowej Literatura B. Hansen (2017+) Econometrics, Rozdział 5 Własności

Bardziej szczegółowo

Biostatystyka, # 3 /Weterynaria I/

Biostatystyka, # 3 /Weterynaria I/ Biostatystyka, # 3 /Weterynaria I/ dr n. mat. Zdzisław Otachel Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Głęboka 28, p. 221 bud. CIW, e-mail: zdzislaw.otachel@up.lublin.pl

Bardziej szczegółowo

Zawansowane modele wyborów dyskretnych

Zawansowane modele wyborów dyskretnych Zawansowane modele wyborów dyskretnych Jerzy Mycielski Uniwersytet Warszawski grudzien 2013 Jerzy Mycielski (Uniwersytet Warszawski) Zawansowane modele wyborów dyskretnych grudzien 2013 1 / 16 Model efektów

Bardziej szczegółowo

Estymacja parametrów rozkładu cechy

Estymacja parametrów rozkładu cechy Estymacja parametrów rozkładu cechy Estymujemy parametr θ rozkładu cechy X Próba: X 1, X 2,..., X n Estymator punktowy jest funkcją próby ˆθ = ˆθX 1, X 2,..., X n przybliżającą wartość parametru θ Przedział

Bardziej szczegółowo

Następnie przypominamy (dla części studentów wprowadzamy) podstawowe pojęcia opisujące funkcje na poziomie rysunków i objaśnień.

Następnie przypominamy (dla części studentów wprowadzamy) podstawowe pojęcia opisujące funkcje na poziomie rysunków i objaśnień. Zadanie Należy zacząć od sprawdzenia, co studenci pamiętają ze szkoły średniej na temat funkcji jednej zmiennej. Na początek można narysować kilka krzywych na tle układu współrzędnych (funkcja gładka,

Bardziej szczegółowo

( x) Równanie regresji liniowej ma postać. By obliczyć współczynniki a i b należy posłużyć się następującymi wzorami 1 : Gdzie:

( x) Równanie regresji liniowej ma postać. By obliczyć współczynniki a i b należy posłużyć się następującymi wzorami 1 : Gdzie: ma postać y = ax + b Równanie regresji liniowej By obliczyć współczynniki a i b należy posłużyć się następującymi wzorami 1 : xy b = a = b lub x Gdzie: xy = też a = x = ( b ) i to dane empiryczne, a ilość

Bardziej szczegółowo

MODELE LINIOWE. Dr Wioleta Drobik

MODELE LINIOWE. Dr Wioleta Drobik MODELE LINIOWE Dr Wioleta Drobik MODELE LINIOWE Jedna z najstarszych i najpopularniejszych metod modelowania Zależność między zbiorem zmiennych objaśniających, a zmienną ilościową nazywaną zmienną objaśnianą

Bardziej szczegółowo

Analiza korespondencji

Analiza korespondencji Analiza korespondencji Kiedy stosujemy? 2 W wielu badaniach mamy do czynienia ze zmiennymi jakościowymi (nominalne i porządkowe) typu np.: płeć, wykształcenie, status palenia. Punktem wyjścia do analizy

Bardziej szczegółowo

Wykład 10 Estymacja przedziałowa - przedziały ufności dla średn

Wykład 10 Estymacja przedziałowa - przedziały ufności dla średn Wykład 10 Estymacja przedziałowa - przedziały ufności dla średniej Wrocław, 21 grudnia 2016r Przedział ufności Niech będzie dana próba X 1, X 2,..., X n z rozkładu P θ, θ Θ. Definicja 10.1 Przedziałem

Bardziej szczegółowo

Stosowana Analiza Regresji

Stosowana Analiza Regresji prostej Stosowana Wykład I 5 Października 2011 1 / 29 prostej Przykład Dane trees - wyniki pomiarów objętości (Volume), średnicy (Girth) i wysokości (Height) pni drzew. Interesuje nas zależność (o ile

Bardziej szczegółowo

parametrów strukturalnych modelu = Y zmienna objaśniana, X 1,X 2,,X k zmienne objaśniające, k zmiennych objaśniających,

parametrów strukturalnych modelu = Y zmienna objaśniana, X 1,X 2,,X k zmienne objaśniające, k zmiennych objaśniających, 诲 瞴瞶 瞶 ƭ0 ƭ 瞰 parametrów strukturalnych modelu Y zmienna objaśniana, = + + + + + X 1,X 2,,X k zmienne objaśniające, k zmiennych objaśniających, α 0, α 1, α 2,,α k parametry strukturalne modelu, k+1 parametrów

Bardziej szczegółowo

Wykład Centralne twierdzenie graniczne. Statystyka matematyczna: Estymacja parametrów rozkładu

Wykład Centralne twierdzenie graniczne. Statystyka matematyczna: Estymacja parametrów rozkładu Wykład 11-12 Centralne twierdzenie graniczne Statystyka matematyczna: Estymacja parametrów rozkładu Centralne twierdzenie graniczne (CTG) (Central Limit Theorem - CLT) Centralne twierdzenie graniczne (Lindenberga-Levy'ego)

Bardziej szczegółowo

istocie dziedzina zajmująca się poszukiwaniem zależności na podstawie prowadzenia doświadczeń jest o wiele starsza: tak na przykład matematycy

istocie dziedzina zajmująca się poszukiwaniem zależności na podstawie prowadzenia doświadczeń jest o wiele starsza: tak na przykład matematycy MODEL REGRESJI LINIOWEJ. METODA NAJMNIEJSZYCH KWADRATÓW Analiza regresji zajmuje się badaniem zależności pomiędzy interesującymi nas wielkościami (zmiennymi), mające na celu konstrukcję modelu, który dobrze

Bardziej szczegółowo

Metody numeryczne I Równania nieliniowe

Metody numeryczne I Równania nieliniowe Metody numeryczne I Równania nieliniowe Janusz Szwabiński szwabin@ift.uni.wroc.pl Metody numeryczne I (C) 2004 Janusz Szwabiński p.1/66 Równania nieliniowe 1. Równania nieliniowe z pojedynczym pierwiastkiem

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka

Stanisław Cichocki. Natalia Nehrebecka Stanisław Cichocki Natalia Nehrebecka 1 1. Binarne zmienne zależne 2. Liniowy model prawdopodobieństwa a) Interpretacja współczynników 3. Probit a) Interpretacja współczynników b) Miary dopasowania 4.

Bardziej szczegółowo

ZJAZD 4. gdzie E(x) jest wartością oczekiwaną x

ZJAZD 4. gdzie E(x) jest wartością oczekiwaną x ZJAZD 4 KORELACJA, BADANIE NIEZALEŻNOŚCI, ANALIZA REGRESJI Analiza korelacji i regresji jest działem statystyki zajmującym się badaniem zależności i związków pomiędzy rozkładami dwu lub więcej badanych

Bardziej szczegółowo

KADD Minimalizacja funkcji

KADD Minimalizacja funkcji Minimalizacja funkcji Poszukiwanie minimum funkcji Foma kwadratowa Metody przybliżania minimum minimalizacja Minimalizacja w n wymiarach Metody poszukiwania minimum Otaczanie minimum Podział obszaru zawierającego

Bardziej szczegółowo

Aproksymacja funkcji a regresja symboliczna

Aproksymacja funkcji a regresja symboliczna Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(x), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(x), zwaną funkcją aproksymującą

Bardziej szczegółowo

Układy równań i nierówności liniowych

Układy równań i nierówności liniowych Układy równań i nierówności liniowych Wiesław Krakowiak 1 grudnia 2010 1 Układy równań liniowych DEFINICJA 11 Układem równań m liniowych o n niewiadomych X 1,, X n, nazywamy układ postaci: a 11 X 1 + +

Bardziej szczegółowo

Stanisław Cichocki. Natalia Neherbecka. Zajęcia 13

Stanisław Cichocki. Natalia Neherbecka. Zajęcia 13 Stanisław Cichocki Natalia Neherbecka Zajęcia 13 1 1. Kryteria informacyjne 2. Testowanie autokorelacji 3. Modele dynamiczne: modele o rozłożonych opóźnieniach (DL) modele autoregresyjne o rozłożonych

Bardziej szczegółowo

Kolokwium ze statystyki matematycznej

Kolokwium ze statystyki matematycznej Kolokwium ze statystyki matematycznej 28.05.2011 Zadanie 1 Niech X będzie zmienną losową z rozkładu o gęstości dla, gdzie 0 jest nieznanym parametrem. Na podstawie pojedynczej obserwacji weryfikujemy hipotezę

Bardziej szczegółowo