EKONOMERIA wykład Prof. dr hab. Eugeniusz Ganar eganar@mail.wz.uw.edu.pl
Przedziały ufności Dla paramerów srukuralnych modelu: P bˆ j S( bˆ z prawdopodobieńswem parameru b bˆ S( bˆ, ( m j j j, ( m j b j pokrywa nieznaną warość gdzie: -Sudena, ( m o warość kryyczna odczyana z rozkładu
Analiza wariancji Wariancja zmiennej Y zosaje zdekomponowana: Źródło zmienności Regresja (odchylenie regresyjne Błąd losowy (odchylenie reszowe Odchylenie całkowie Suma kwadraów odchyleń SSR SSE Liczba sopni swobody m (m SS SSR SSE Średnie kwadraowe odchylenie MSR MSE SSR SSE (m m SS ( Y Y SSR ( Yˆ Y SSE ( Y Yˆ Wedy saysyka: F MSR MSE.
Przykład ( y - produkcja ( mln zł - maeriały (mln zł - liczba zarudnionych y 0 9 3 5 4 6 7 0,6 0,5 0,9,,0, 0,9,3,5 0 8 8 9 8 7 5 4 4 Należy oszacować paramery srukuralne modelu ekonomerycznego: y = b 0 + b + b + ξ
Za pomocą meody najmniejszych kwadraów wekor paramerów liczymy jako: Przykład ( bˆ ( X X X Można zasosować skrócone obliczenia: y X X n oraz X y y y y
X X n Przykład (3 Zaem porzebne są obliczenia pomocnicze: X y y y y 0 0,6 0 6 0,36 00 6 00 00 9 0,5 8 4 0,5 64 4,5 7 8 0,9 8 7, 0,8 64 9,9 88 3, 9 9,9, 8 4,3 7 69 8 8 64 96 44 5, 7 8,4,44 49 8 05 5 4 0,9 5 4,5 0,8 5,6 70 96 6,3 4 5,,69 6 0,8 64 56 7,5 4 6,5 6 5,5 68 89 7 9 63 59, 9,8 479 3,6 780 58 y y y y
Macierze mają posać: Przykład (4 X 9 9 63 7 X 9 9,8 59, X y 3,6 63 59, 479 oraz 780 Aby odwrócić macierz X X należy obliczyć wyznacznik, kóry wynosi 50,48 oraz zasosować meodę Sarriusa. W rezulacie macierz odwrona ma posać: 7,9688 3,8636 0,5706 ( X X 3,8636,77 0,73 0,5706 0,73 0,0490
Przykład (5 Po dokonaniu obliczeń wekor paramerów ma posać: 7,9688 3,8636 0,5706 7 9,755 ˆb 3,8636,77 0,73 3,6 6,363 0,5706 0,73 0,0490 780 0,47 Model ekonomeryczny ma więc posać: y = 9,75 + 6,36-0,43 y - produkcja (mln zł - maeriały (mln zł - liczba zarudnionych
Nasępnie przechodzimy do weryfikacji modelu. Liczymy wariancję reszową: Przykład (6 ˆ y y y Xbˆ m 9,755 58 7 3,6 780 6,363 ˆ 9 3 0,47 ˆ 58 (4,045 758,4467 6 3,906 0,569 Odchylenie sandardowe resz: ˆ 0,755
Przykład (7 Jakość modelu oceniamy licząc współczynnik zbieżności: sąd: y ( y y y y Xbˆ ( y y 6 0,569 60 0,0569 czyli 5,69%. Współczynnik deerminacji wynosi: R R 0,0569 0,943 czyli 94,3%, co oznacza znakomią jakość modelu (dopasowanie do danych empirycznych.
Macierz wariancji i kowariancji ocen paramerów: S (ˆ b Pierwiaski elemenów na przekąnej o błędy szacunku paramerów a i : 0,569 S( bˆ S( bˆ S( bˆ 0 Przykład (8 S ˆ ( b ( X X 7,9688 3,8636 0,5706 0,569 0,569 0,569 7,9688,77 0,0490 3,8636,77 0,73,94,37 0,669 0,5706 0,73 0,0490
Przykład (9 Isoność saysyczną paramerów mierzymy za pomocą: bˆ j j S( bˆ j czyli: 9,75 6,36 0,43 0 4,568, 5,396,,474,353,37 0,669 Jeżeli zachodzi nierówność: o oznacza, że zmienna i przy kórej soi paramer b j isonie wpływa na zmienną objaśnianą. Z ablic rozkładu Sudena dla α = 0,05 i 9-3=6 sopni swobody α =,447 Ponieważ powyższa nierówność zachodzi, o wszyskie paramery modelu są saysycznie isone.
Przykład (0 Weryfikujemy jakość całego modelu: H : b b 0, 0 m H : przynajmniej jeden b 0. j Obliczamy saysykę: ( m F ( m ( R R (9 (3 3 0,943 0,057 49,63 Dla 3-= i 9-3=6 sopni swobody oraz α = 0,05 warość kryyczna wynosi F = 4,46. Ponieważ dobry. F F zaem wnioskujemy, że cały model jes
Przykład (Ecel Współczynniki Błąd sandardowy Sa Warość-p Dolne 95% Górne 95% Sała 9,75,7 4,586 0,004 4,548 4,956 Zmienna X 6,36,36 5,403 0,00 3,357 8,95 Zmienna X -0,43 0,67 -,473 0,048-0,8-0,004 df SS MS F Isoność F Regresja 56,594 8,97 49,856 0,000 Błąd losowy 6 3,406 0,568 Razem 8 60
Przykład (Ecel Saysyki regresji Wielokroność R 0,97 R kwadra 0,943 Dopasowany R kwadra 0,94 Błąd sandardowy 0,753 Obserwacje 9 Obserwacja Y eoreyczne Reszy 9,307 0,693 9,59-0,59 3,974-0,974 4,788 0, 5,587-0,587 6 4,7 0,773 7 3, 0,788 8 6,079-0,079 9 7,306-0,306
Założenia ( Model en wymaga spełnienia nasępujących założeń:. Model jes niezmienniczy ze względu na obserwacje: f Orzymujemy zaem model o posaci: Y f f ( X,, X m, Jes o założenie o sabilności relacji wysępującej między badanymi zjawiskami. Uchylając o założenie orzymujemy m.in. modele o zmiennych w czasie paramerach.. Posać analiyczna modelu jes liniowa względem paramerów srukuralnych i zmiennych. Wiele funkcji nieliniowych można poprzez ransformację liniową sprowadzić do posaci liniowej. f f
Założenia ( 3. Warość oczekiwana składnika losowego jes równa zeru: E(ξ Uchylenie ego założenia oznacza, że np. MNK-esymaory są obciążone. 4. Macierz X jes nielosowa, zn. jej elemeny są usalone w powarzalnych próbach. Z ego założenia oraz założenia 3 wynika, że X i są niezależne: 5. Założenie r( X m oznacza, że liczba obserwacji jes co najmniej równa liczbie szacowanych paramerów oraz nie wysępuje współliniowość w zbiorze zmiennych objaśniających. Zaem macierz X X jes nieosobliwa, isnieje więc dla niej macierz odwrona. 0 E( X ξ X E( ξ 0
Założenia (3 6. Składnik losowy jes sferyczny: E( ξξ I Założenie o mówi, że: a E( ξ dla wszyskich, co jes założeniem o sałości wariancji (składnik losowy jes homoskedasyczny, b E( q 0 dla wszyskich q(co jes założeniem o nieskorelowaniu składników losowych (nie wysępuje auokorelacja składników losowych. Niesferyczność składnika losowego oznacza uraę efekywności MNK-esymaora. 7. Składnik losowy ma -wymiarowy rozkład normalny: N( 0, Założenie o pozwala na weryfikację hipoez saysycznych. I
Analiza resz modelu Poprawnie skonsruowany model ekonomeryczny powinien charakeryzować się pewnymi pożądanymi właściwościami resz. e y yˆ Należą do nich: rozkład normalny resz, losowość resz, symeria rozkładu resz,
Rozkład resz Przeprowadzenie weryfikacji hipoez saysycznych wymaga sprawdzenia, czy składnik losowy (reszy ma rozkład normalny. Spełnienie ego założenia oznacza, że pokazane saysyki mają pożądane rozkłady, np. -Sudena, F Snedecora. Wśród esów weryfikacji normalności rozkładu składnika losowego (resz częso sosowany jes es Shapiro-Wilka (mało wrażliwy na auokorelację i heeroskedasyczność a dla dużych prób - es Jarque a-bery. Można akże zasosować inny es zgodności.
es Shapiro-Wilka Zakładamy, że dany jes ciąg resz e,,e kóry pochodzi z populacji o ciągłej dysrybuancie F(e. H H 0 :F(e :F(e (e (e gdzie Φ jes dysrybuaną rozkładu normalnego. Sprawdzianem esu Shapiro-Wilka jes saysyka: a W [ / ] a ( e( e( gdzie o współczynniki odczyane z ablic rozkładu Shapiro-Wilka. e
es Shapiro-Wilka Procedura:. Porządkujemy reszy według rosnących warości orzymując ciąg:. Obliczamy warość saysyki W. e 3. Dla przyjęego z góry poziomu isoności α (np. 0,05 i wielkości próby z ablic esu Shapiro-Wilka odczyujemy warość kryyczną. e 4. Hipoezę H0 odrzucamy, gdy zachodzi: e W W W
H H 0 :reszy e :reszy e es serii. Wyznaczonym reszom przypisujemy symbol "a", gdy e > 0 oraz "b", gdy e < 0.. Seria o ciąg symboli "a" i "b". Ich liczbę określamy jako "k". 3. Z ablic esu liczby serii dla danej liczby resz dodanich n i liczby resz ujemnych n oraz poziomu isoności α (α = 0,05 odczyuje się warość kryyczną. * k są są K losowe nielosowe 4. Jeżeli o oznacza o, że reszy są losowe, a posać analiyczna modelu zosała poprawnie dobrana. Jeżeli naomias nierówność nie jes spełniona o rozkład resz nie jes losowy, a posać modelu zosała błędnie K *
Przykład Dla modelu: y = 9,75 + 6,36-0,43 obliczono reszy: y y* e 0 9,33 0,67 9 9,54-0,54,0 -,0 3,8 0,9,6-0,6 5 4,5 0,75 4 3,3 0,77 6 6,09-0,09 7 7,3-0,3 Uzyskujemy ciąg symboli: abbabaabb
Przykład ( Ciąg symboli: abbabaabb Liczba serii wynosi k = 6. Z ablic esu liczby serii dla n = 4 i n = 5 oraz poziomu * isoności α = 0,05 odczyujemy: K. Ponieważ losowy. k K *, o uznajemy, że reszy mają charaker
es: gdzie: m - liczba resz dodanich (e > 0, - liczba obserwacji Dla 30 saysyka a ma rozkład -Sudena, a gdy > 30 - rozkład normalny. Symeria resz m m m : : 0 m H m H
Symeria resz ( Z ablic rozkładu Sudena dla α = 0,05 i n- sopni swobody znajdujemy warość kryyczną α. Jeżeli spełniona jes nierówność: o oznacza symerię resz. < α
Dla danych podanych wyżej mamy: = 9, m = 4. Wedy warość esu wynosi: Przykład m m m 4 9 4 9 9 4 9 0,36 Odczyana z ablic rozkładu Sudena warość α =,306. Zaem 0,36 <,306, czyli reszy modelu są symeryczne.
Problemy w modelach W modelach ekonomerycznym mogą wysąpić problemy: Wspóliniowość zmiennych objaśniających Heeroskedasyczność składnika losowego Auokorelacja resz modelu (dla modeli dynamicznych
Współliniowość Współliniowość zmiennych objaśniających Dokładna współliniowość zmiennych objaśniających wysępuje rzadko. Wedy r( X m i oznacza o, że nie isnieje macierz ( X X. Częsym w prakyce jes zjawisko przybliżonej współliniowości zmiennych objaśniających, kóre niesie nasępujące niekorzysne konsekwencje. a niemożliwy jes prawidłowy pomiar siły oddziaływania zmiennych objaśniających na zmienną objaśnianą, b oceny wariancji MNK-esymaora S (ˆ b są bardzo duże, c warości -saysyk dla zmiennych skorelowanych są małe, co oznacza celowość ich usunięcia z modelu. Z kolei saysyka F wskazuje na isoność modelu regresji jako całości, d oszacowania paramerów są wrażliwe na niewielkie zmiany liczby obserwacji.
Współliniowość ( Jednym z mierników sopnia współliniowości zmiennych objaśniających jes zw. współczynnik rozsiewu (mierzący wewnęrzne skorelowanie zmiennych objaśniających: de gdzie: R macierz współczynników korelacji liniowej Pearsona między zmiennymi objaśniającymi o wymiarach m m, de R wyznacznik macierzy. Warości miary należą do przedziału [0;]; de R, gdy wszyskie zmienne objaśniające są wzajemnie nieskorelowane; de R 0 gdy przynajmniej jedna zmienna jes liniową kombinacją innych zmiennych objaśniających. R
Współliniowość (3 W lieraurze za najbardziej obiekywną miarę sopnia współliniowości uznaje się indeks warunkowy (condiion inde macierzy: X * X * j. miarę: d * * ( X X ma min gdzie: ma ( min największa (najmniejsza warość * własna macierzy X * X. Zaś: gdzie: X * XP P 0 0 0 0 0 0 0 0 m m
Współliniowość (4 Warości własne (pierwiaski charakerysyczne macierzy X * X * wyznacza się z równania charakerysycznego: * de( X X Gdzie I macierz jednoskowa o wymiarach: * I 0 ( m ( m Dla zmiennych orogonalnych: d( X * X * Warości d( X * X * współliniowością. 0 wskazują na problemy związane ze
Współliniowość (5 Co zrobić aby usunąć wspóliniowość? a rozszerzyć lub skrócić zakres próby saysycznej, b usunąć z modelu zmienną lub zmienne będące przyczyną współliniowości, c zasosować meodę analizy czynnikowej lub głównych składowych w celu orzymania mniejszej liczby orogonalnych czynników. d nałożyć dodakowe warunki na paramery (np. ich suma równa się jedności. Pozwala o zmniejszyć wariancję esymaorów, e dokonać ransformacji zmiennych zwiększających ich wariancje (pierwsze różnice warości zmiennych, empa wzrosu, logarymy. W wyniku ransformacji nasępuje jednak zmiana posaci modelu.