Testowanie hipotez statystycznych związanych ą z szacowaniem i oceną ą modelu ekonometrycznego
Ze względu na jakość uzyskiwanych ocen parametrów strukturalnych modelu oraz weryfikację modelu, metoda najmniejszych kwadratów powinna być stosowana tylko wówczas, gdy są spełnione następujące założenia: Zmienna prognozowana modelu jest liniową funkcją zmiennych objaśniających oraz odchyleń losowych e t. Zmienne objaśniające modelu są wielkościami nielosowymi o ustalonych wartościach. Między zmiennymi objaśniającymi modelu nie występuje zjawisko współliniowości. Odchylenia losowe mają rozkład normalny, z wartością oczekiwaną równą zeru, oraz stałą i skończoną wariancją. Odchylenia losowe wyznaczone dla różnych wartości zmiennych objaśniających nie są ze sobą skorelowane.
Bd Badanie istotności ś i parametrów strukturalnych r
Testowanie parametrów strukturalnych testem T Studenta Badanie istotności t ś i parametrów ó strukturalnych liniowegoi modelu ekonometrycznego ma na celu sprawdzenie, czy zmienne objaśniające istotnie oddziałują na zmienną objaśnianą, czy też nie. Zakładając, że składnik losowy modelu ma rozkład normalny, weryfikuje sięę hipotezę ę o istotności każdego parametru, tj. sprawdza się, czy parametr istotnie różni się od zera. W tym celu formułuje się hipotezę zerową i alternatywną: gdzie: α i prawdziwa wartość parametru stojącego przy i-tej zmiennej objaśniającej. [ 0 ] H α : [ 0 ] 0 : i = H α i 1
Sprawdzeniem tej jhipotezy jest statystyka: t = i D a i ( a ) a i gdzie: a i wartość oceny parametru stojącego przy i-tej zmiennej objaśniającej, ją j, D(a i ) błąd oceny i-tego parametru.
Jeśli wartość statystyki t i jest większa od wartości krytycznej t α : ( t i > t α ), odczytanej z tablicy rozkładu t-studenta (w przypadku małej jpróby) lub z tablicy rozkładu normalnego (dla dużej próby), dla przyjętego poziomu istotności α oraz dla (n-m)stopni swobody, to wówczas odrzuca się hipotezę zerową H 0 na rzecz hipotezy alternatywnej H 1. Mówimy wtedy, że i-ta zmienna objaśniająca istotnie wpływa na zmienną prognozowaną. Gdy natomiast zachodzi relacja odwrotna ( t t i α ) to niema wówczas podstaw do odrzucenia hipotezy zerowej. Oznacza to, że i-ta zmienna objaśniająca, ją nieistotnie wpływa py na zmienną prognozowaną i powinna być usunięta z modelu.
PRZYKŁAD
PRZYKŁAD
Testowanie parametrów strukturalnych testem F-Fishera-SnedecoraFi Ocena istotności parametrów strukturalnych za pomocą testu F polega na tym że tu stawia się hipotezę obejmującą parametry stojące tylko przy zmiennych objaśniających: H 0 :a 1 =a 2 =...=a k =0 wobec hipotezy H 1, że co najmniej jedna z równości nie jest spełniona. Test dla hipotezy zerowej tak sformułowanej opiera się ę na statystyce F (statystyka F przy prawdziwości hipotezy ma rozkład F o k oraz n-k-1 stopniach swobody) wyrażonej wzorem: F = a T X T y u T u (1 T y) n 2 ( n k 1) k
Hipoteza zakłada więc, że wszystkie zmienne objaśniające nie oddziałują na zmienną endogeniczną, co oznacza, iż nie powinny się znaleźć wmodelu. Odrzucenie hipotezy H 0 na poziomie α następuje w sytuacji gdy F > F α (gdzie F odczytano z tablic α rozkładu F-Snedecora), co oznacza, że co najmniej jedna wzięta do modelu zmienna jest istotna.
Badanie rozkładu odchyleń losowych modelu
Badanie symetrii składnika losowego Obserwacje odchylające się in plus (in minus) od wartości modalnych powinny stanowić połowę wszystkich obserwacji. Formułujemy zatem hipotezę zerową głoszącą, że składnik resztowy ma rozkład symetryczny: y y H 0 m 1 : = n 2 wobec hipotezy alternatywnej głoszącej, ą że rozkład składnika resztowego nie jest symetryczny H 1 : m n 2 1
Statystyka służąca do weryfikacji hipotezy H 0 ma postać: t emp = m 1 n 2 m m (1 ) n n n 1 gdzie: m - liczba odchyleń dodatnich w próbie, n - liczba wszystkich odchyleń w próbie. Jeśli jej wartość jest większa od odczytanej (dla małej próby) z tablic rozkładu t-studenta dla przyjętego poziomu istotności α oraz n-1 stopni swobody lub z tablicy rozkładu normalnego (dla dużej próby), to oznacza to odrzucenie hipotezy H 0, czyli brak symetrii odchyleń losowych
Badanie losowości odchyleń losowych modelu Badanie to ma na celu weryfikację hipotezy o trafności doboru postaci analitycznej modelu. Do weryfikacji hipotezy zerowej: Wobec hipotezy alternatywnej: ( X, ) H Yˆ = f, 0 : 1 K X m ( X, ) H Yˆ f, 0 : 1 K X m można używać testu serii. W celu jego zastosowania należy uporządkować chronologicznie reszty modelu. Następnie oblicza sięę liczbęę serii s reszt modelu, tj. podciągów reszt o tym samym znaku dodatnich lub ujemnych. Z tablicy testu liczby serii dla n 1 (liczby reszt dodatnich) i n 2 (liczby reszt ujemnych) oraz dla α i α 1 2 2 (gdzie α jest przyjętym poziomem istotności) odczytuje się wartości krytyczne i. s1 s2
Jeśli relacja s1 < s < s2 jest spełniona, to wówczas uważa się, że niema podstaw do odrzucenia przypuszczenia, iż przyjęta postać analityczna modelu jest właściwa, gdy zaś powyższa relacja nie jest spełniona, odrzuca się hipotezę, co oznacza że postać analityczna modelu nie jest właściwa. ł ś
Badanie autokorelacji składnika losowego Autokorelacja składnika losowego może znacznie obniżyć efektywność estymatorów, a w związku z tym i przydatność otrzymywanych wyników do celów analizy. W literaturze podawane jest kilka przyczyn występowania autokorelacji składnika losowego: Autokorelacja może wynikać z natury zjawiska. Są to na przykład zdarzenia losowe takie jak trzęsienie ziemi, które pozostawia za sobą ślady na wiele okresów.
Niepoprawna postać funkcji modelu. Może to być związane z faktem, iż wiele zjawisk charakteryzuje się cyklicznością. W szczególności może to dotyczyć modeli gospodarki. Jeśli oszacowany model nie będzie di uwzględniał ł tego faktu, to składniki losowe sąsiednich okresów będą na siebie wpływać. Reszty natomiast układają się wtedy w serie ujemne lub dodatnie. Kolejnym źródłem jest wadliwa struktura dynamiczna modelu. Jest to sytuacja, w której w grupie zmiennych objaśniających nie zamieściliśmy opóźnionej zmiennej objaśnianej, zmiennej czasowej lub opóźnionych zmiennych niezależnych.
Bardzo istotnym powodem występowania autokorelacji jest pominięcie w modelu ważnej zmiennej objaśniającej. W takiej sytuacji reszty modelu mogą wykazywać tendencję do stałego zwiększania swojej wartości bezwzględnej. Przyczyną występowania autokorelacji mogą być operacje wykonywane na danych statystycznych, między innymi interpolacje, agregacja lub wygładzanie.
Ważnym elementem w badaniu autokorelacji jest jej właściwe wykrycie. Najpopularniejszym testem, pozwalającym na weryfikację hipotezy o występowaniu autokorelacji pierwszego rzędu jest test Durbina Watsona. Weryfikuje on hipotezę H 0 postaci: H : 0 wobec hipotezy alternatywnej H 1 : gdzie: ρτ 0 ρ τ = H1 : ρ τ - jest współczynnikiem autokorelacji reszt rzędu 0 τ
Hipoteza zerowa zakłada więc, że autokorelacja nie występuje. Sprawdzianem testu t jest statystyka: t t d n t= 2 = n ( e e ) e t e t gdzie: t= 1 e t - reszta modelu dla okresu t t - numer obserwacji n - liczba obserwacji 2 e t 1 2
Wartości statystyki należą do przedziału (0,4). Wartości d<2 świadcząi d owystępowaniu autokorelacji dodatniej, d natomiast t wartości d>2 świadczą o autokorelacji ujemnej. Ponadto w przypadku występowania autokorelacji ujemnej należy wyznaczyć ć : d : d = 1 d tablice wartości krytycznych dla przyjętego poziomu istotności podają dwie wartości krytyczne: yy dolnąą d L oraz górną d U.Jeśli α wartość d>d U to wówczas niema podstaw do odrzucenia hipotezy zerowej, a więc wnioskujemy, iż reszty modelu sąą niezależne. Jeżeli natomiast d<d L to hipotezę ę H 0 należy odrzucić na rzecz hipotezy alternatywnej H 1, wnioskując, iż występuje autokorelacja reszt modelu. Gdy spełniona jest relacja d L d d U,wówczas test nie umożliwia oceny niezależności reszt modelu. Należy wówczas zastosować inne testy statystyczne.
Badanie stałości wariancji (homoscedastyczności) składników losowych Jednym ze sposobów badania stałości wariancji składników losowych jest zweryfikowanie hipotezy o równości wariancji najczęściej dwóch skrajnych grup obserwacji (wtedy jednakże musi się dać wprowadzić naturalne uporządkowanie próby, które np. występuje w danych w postaci szeregów czasowych). Rozpatruje się takie dwa podzbiory obserwacji (próby), co do których istnieje przypuszczenie, że wariancja jest największa i najmniejsza. Niech N 1 będzie liczbą obserwacji w pierwszym podzbiorze, a N 2 w drugiej podpróbie.
Do zweryfikowania hipotezy zerowej o równości wariancji 2 2 składników losowych w obu podpróbach H 0 : σ 1 = σ 2 wobec hipotezy alternatywnej 2 2 H można wykorzystać 1 : σ 1 < σ 2 statystykę testową: 2 2 S1 S 2 F = S S 2 2 2 1 gdzie oraz są wariancjami resztowymi w regresji odpowiednio w pierwszej i drugiej podpróbie. Statystyka F ma, przy założeniu normalności składników losowych i prawdziwości H 0 rozkład F Fishera-Snedecora, zatem z tablic tego rozkładu dla przyjętego poziomu istotności α i dla N 2 Koraz N 1 K stopni swobody odczytujemy wartość krytyczną F α Jeśli to niema podstaw do odrzucenia hipotezy zerowej H 0 o jednorodności wariancji. Jeśli F > F α to H 0 należy odrzucić na rzecz hipotezy alternatywnej H 1 - wariancja składników losowych w drugiej próbie jest statystycznie istotnie większa od wariancji w pierwszym podzbiorze.
Badanie normalności rozkładu składników losowych. Do oceny, czy reszty modelu mają rozkład normalny z wartością oczekiwaną równą zeru, można przy dużej próbie użyć percentyli. W tym celu przeprowadza się standaryzację reszt według wzoru e ~ i e~ i = ei s gdzie: - i-ta standaryzowana reszta modelu - i -ta reszta modelu, - odchylenie standardowe reszt. Jeśli około 99,7% zestandaryzowanych reszt modelu ma wartość z przedziału (-3,+3), około 95% - z przedziału (-2,+2) i około 68% z przedziału (-1,+1), to uważa się, że mają one rozkład normalny. ei s, y y
W celu sprawdzenia hipotezy H 0 (o normalnym rozkładzie reszt modelu) wobec hipotezy alternatywnej H 1 (o innym rozkładzie di reszt modelu) dl) można ż w razie małej ł próby użyć ż ć testu cel Hellwiga. Określa się wówczas liczbę cel pustych k, do których nie trafia żadna ze standaryzowanych według wzoru reszt modelu, i porównuje ją z wartościami ś i krytycznymi k 1 i k 2 odczytanymi, dla przyjętego poziomu α istotności, z tablic testu cel. Jeśli nie została spełniona podwójna nierówność k 1 <k<k k 2 to wówczas odrzuca się hipotezę H 0, co oznacza, że rozkład reszt modelu nie jest normalny, w przeciwnym razie brak jest podstaw do odrzucenia hipotezy H 0.