Modelowanie ekonomiczne w zarządzaniu firmami Materiały do wykładu Dr Adam Kucharski Spis treści 1 Podstawowe pojęcia statystyczne 2 1.1 Populacja i zbiorowość................................. 2 1.2 Badanie statystyczne.................................. 3 1.3 Szeregi statystyczne.................................. 5 1.4 Standaryzacja danych................................. 5 2 Graficzna prezentacja danych 6 3 Szeregu czasowy i jego dekompozycja 8 4 Wybrane metody analizy szeregu czasowego 9 4.1 Średnia ruchoma.................................... 9 4.2 Modele trendu..................................... 13 4.3 Zmienne zero-jedynkowe................................ 17 5 Rodzaje prognoz i ich własności 21 5.1 Podstawowe pojęcia.................................. 21 5.2 Ocena jakości prognoz ex post............................. 22
1 Podstawowe pojęcia statystyczne 1.1 Populacja i zbiorowość W ramach naszego wykładu będziemy wykorzystywać wiedzę uzyskaną podczas zajęć ze Statystyki. Dlatego na początek przypomnimy sobie pojęcia poznane na tym przedmiocie. Zaczniemy od najbardziej podstawowych. Zbiorowość statystyczna zbiór osób, przedmiotów lub zjawisk podobnych do siebie, ale nie identycznych, poddanych badaniu statystycznemu. Pojedynczy element zbiorowości podlegający bezpośredniemu badaniu to jednostka statystyczna. Populacja generalna tworzą ją wszystkie elementy, będące przedmiotem badania, co do których formułujemy wnioski ogólne. Aby określić ją zgodnie z celem badania wszystkie jednostki muszą być określone pod względem: rzeczowym (co lub kogo badamy); przestrzennym (obszar objęty badaniem); czasowym (okres lub moment objęty badaniem). Populacja próbna podzbiór populacji generalnej, obejmujący elementy wybrane w określony sposób. Wyniki z jej badania uogólnia się na populację generalną. Badanie statystyczne pełne bezpośredniej obserwacji podlegają wszystkie elementy populacji generalnej. Badanie statystyczne częściowe obserwacji podlega tylko część populacji generalnej (tzw. próba). Wyróżnimy następujące rodzaje badań częściowych: reprezentacyjne; monograficzne (badany jest indywidualny przypadek np pojedynczy region bądź firma); ankietowe. Częściej wykonujemy drugi z wymienionych rodzajów badań. Dzieje się tak ponieważ zwykle nie możemy zbadać całości populacji generalnej ze względu na jej liczebność oraz/lub związane z tym koszty. Koszt przeprowadzenia badania częściowego jest niższy a samo badanie trwa krócej. Powtarzając je co jakiś czas zyskujemy szansę uaktualnienia wyników. Badania częściowe wykonujemy również wtedy, gdy jednostki statystyczne ulegają zniszczeniu w trakcie samego badania. Oba rodzaje badań obarczone są błędami, przy czym w badaniu częściowym dodatkowo pojawia się niebezpieczeństwo złego doboru struktury próby 1. Próba musi odnosić się do populacji generalnej z określoną dokładnością. Należy w tym celu spełnić dwa warunki: 1. próba musi być losowa prawdopodobieństwo znalezienia się w próbie powinno być jednakowe dla każdej jednostki; 2. próba powinna być dostatecznie liczna. W badaniach ekonomicznych występuje problem z doborem losowym, dlatego ograniczamy się do pojęcia niezależności jednostek z punktu widzenia wybranych zmiennych. Jednostki statystyczne różnią się między sobą ze względu na tzw. cechy statystyczne. Wyróżnimy następujące ich rodzaje: 1 Tą wadą często obarczone są badania oparte na sondażach telefonicznych. 2 z 24
cechy mierzalne warianty cechy wyrażone są za pomocą liczb. Dzielą się one dalej na: skokowe przyjmują skończoną lub przeliczalną liczbę wartości; ciągłe przyjmują dowolną (zależną od dokładności pomiaru) wartość z ustalonego przedziału; cechy niemierzalne warianty wyrażone są w sposób opisowy; cechy quasi-ilościowe (porządkowe) warianty są przedstawione w sposób opisowy, lecz można je uporządkować wg natężenia badanej cechy. 1.2 Badanie statystyczne Postępowanie zmierzające do udzielenia odpowiedzi na postawiony przez nas problem na podstawie materiału statystycznego oraz wykorzystujące stosowne narzędzia tworzy procedurę zwaną badaniem statystycznym. Przeprowadzając badanie tego rodzaju przechodzimy następujące etapy: 1. Przygotowanie badania: określenie celu badania; określenie zbiorowości i jednostki statystycznej; określenie charakteru badania (pełne lub częściowe); określenie sposobu pozyskiwania danych i ich źródeł; przygotowanie materiałów (formularzy, tablic roboczych itd.); przygotowanie planu finansowego; 2. Gromadzenie materiału statystycznego (obserwacja statystyczna), który może pochodzić ze źródeł: pierwotnych (dane zebrane bezpośrednio); wtórnych (dane pochodzą z wcześniejszych opracowań); 3. Grupowanie i prezentacja zebranego materiału przy pomocy tabel i wykresów; 4. Analiza wyników i wyciąganie wniosków. Jeśli chodzi o wtórne źródła danych, to bardzo popularne obecnie jest wykorzystywanie internetu. Dlatego przyjrzymy się kilku wybranym serwisom zawierającym dane statystyczne. Główny Urząd Statystyczny (www.stat.gov.pl) Strona GUS stanowi obfite źródło danych ekonomicznych, demograficznych i innych. Część z nich dostępna jest odpłatnie. Dane udostępniane są w postaci elektronicznych wersji publikacji GUS oraz pogrupowane według kategorii. Pobieżnie omówimy niektóre z nich: Ceny. Handel Znajdują się tu m.in. dane dotyczące inflacji, cen wybranych produktów czy niektóre z tablic Rocznika Statystycznego Handlu Zagranicznego. Ludność Obok elektronicznej wersji Rocznika Demograficznego znajdziemy w tym dziale tablice trwania życia czy strukturę ludności Polski z punktu widzenia różnych kryteriów. Praca. Wynagrodzenia Do pobrania udostępniono dane o pracujących, bezrobociu czy aktywności ekonomicznej ludności. Oprócz tego znajdują się tu informacje na temat wynagrodzeń klasyfikowanych według wybranych kryteriów. 3 z 24
Przemysł. Budownictwo. Środki trwałe Dział zawiera m.in. produkcję wybranych wyrobów czy dane na temat budownictwa mieszkaniowego. Rachunki narodowe Jako że rachunki narodowe są podstawą obliczania wartości PKB, właśnie tu znajdziemy dane i informacje merytoryczne związane z tą ważną kategorią ekonomiczną. Środowisko. Energia Dane dotyczące zużycia paliw i energii oraz ochrony środowiska. Warunki życia Dane na temat budżetów gospodarstw domowych, dochodów ludności itp. Opracowania zbiorcze Tutaj znajdują się odnośniki do stron związanych z publikacjami GUS. Warto zajrzeć na przykład do Biuletynu Statystycznego ukazującego się co miesiąc a zawierającego szeregi statystyczne o bardzo różnorodnej tematyce. Urząd publikuje także roczniki statystyczne z wybranych dziedzin, ale w ich przypadku musimy liczyć się z ograniczeniami ilości udostępnianych informacji. Statystyka regionalna Dział ten zawiera m.in. dane i opracowania wykonane przez Wojewódzkie Urzędy Statystyczne. Rodzaj tych danych zależy od konkretnego urzędu. Narodowy Bank Polski (www.nbp.pl) Oficjalna strona NBP zawiera szereg informacji na temat samego banku, jego polityki i wydawanych przepisów prawnych. Znajdują się tam również dane statystyczne m.in. bilans NBP, instrumenty banku centralnego, kursy walut i inne. W dziale Publikacje znajduje się Biuletyn Informacyjny NBP, zawierający wiele cennych danych na temat rynku bankowego i pieniężnego w Polsce. Oprócz tego na stronie znaleźć można analizy przygotowane przez pracowników banku. Dom Maklerski BOŚ S.A. (bossa.pl) oraz Gazeta giełdowa Parkiet (www.parkiet.com) W internecie łatwo znaleźć dane giełdowe. Wymienione powyżej strony zawierają obszerne zbiory danych tak bieżących jak i historycznych. Pobrać należy plik tekstowy przygotowany dla programu Metastock i wczytać go do arkusza kalkulacyjnego przy pomocy odpowiedniego kreatora. Izba Zarządzających Funduszami i Aktywami (www.izfa.pl) Na tej stronie znajdują się dane statystyczne, analizy ekonomiczne i inne informacje związane z funduszami inwestycyjnymi obecnymi na polskim rynku. Zgromadzone dane statystyczne (czy to ze źródeł pierwotnych, czy wtórnych) poddaje się grupowaniu, którego wyróżnimy dwa rodzaje: 1. typologiczne polegające na wyodrębnianiu grup odmiennych jakościowo np pod względem cech terytorialnych bądź rzeczowych; 2. wariancyjnie polegające na porządkowaniu jednostek i łączeniu ich w klasy o odpowiednich wartościach cechy. Jeżeli grupowanie w postaci szeregów nam nie wystarczy, dane można przedstawić przy pomocy tablic wielodzielnych, których szczególnym przypadkiem są tablice dwudzielne (korelacyjne). Oczywiście publikacje o charakterze statystycznym zostały przez autorów pogrupowane, ale niekiedy dane z naszego punktu widzenia okazują się zbyt szczegółowe. W takiej sytuacji możemy dokonać agregacji danych 2 przestrzegając jednak, aby grupować podobne warianty cechy. 2 Z działaniem tego typu mamy do czynienia na przykład tworząc szereg rozdzielczy punktowy z szeregu szczegółowego. 4 z 24
1.3 Szeregi statystyczne Dane liczbowe jakie gromadzimy podczas badania statystycznego najczęściej mają postać szeregów statystycznych. Szereg statystyczny ciąg wielkości statystycznych, uporządkowanych według określonych kryteriów. Podstawowe rodzaje szeregów statystycznych ze względu na sposób prezentacji danych: szczegółowy; rozdzielczy: punktowy; z przedziałami klasowymi. Szeregi rozdzielcze dzielą zbiorowość statystyczną na części (klasy) wg określonej cechy i podają liczebność lub częstość każdej z klas. Zazwyczaj szeregi punktowe buduje się dla cech skokowych zaś te z przedziałami klasowymi dla cech ciągłych choć jeśli liczba obserwacji w przypadku cechy skokowej jest duża również w jej wypadku sięga się po przedziały. Podstawowe rodzaje szeregów ze względu na charakter danych: czasowe; przekrojowe; przekrojowo-czasowe. Szeregi szczegółowe najlepiej nadają się do prezentowania niedużych ilości danych. Kiedy ich liczba wzrasta przechodzimy na szeregi rozdzielcze. O ile budowa szeregu punktowego nie budzi wątpliwości, to pojawiają się one już dla szeregu z przedziałami klasowymi. Tworzenie przedziałów może odbywać się w sposób intuicyjny (sama struktura szeregu sugeruje ilość i rozpiętość przedziałów) lub w oparciu o określone procedury, których szczegóły można znaleźć w literaturze. 1.4 Standaryzacja danych Cechy mierzalne podlegające obserwacji statystycznej zazwyczaj mają miano, które niekiedy utrudnia porównywanie cech ze sobą. Wyjściem w takiej sytuacji może się stać standaryzacja zmiennych. Jednym ze sposobów standaryzacji danych jest podzielenie wszystkich elementów szeregu przez jego wartość maksymalną. Ma to tę zaletę, że dane po przekształceniu zyskują stały punkt odniesienia (wartość jeden). Przykład 1 Rozpatrzmy dostępny na stronie NBP średniomiesięczny kurs euro za pierwsze osiem miesięcy 2008 roku. Tabela 1 zawiera dane przed i po standaryzacji. Postępowanie przedstawione w tabeli 1 przydaje się m.in. podczas przetwarzania danych powstających przy zliczaniu wyników pochodzących z ankiet. 5 z 24
Tabela 1: Przykład standaryzacji wykorzystującej wartość maks. Miesiąc Kurs EUR Kurs wystand. Styczeń 3,6080 1 Luty 3,5825 0,9929 Marzec 3,5374 0,9804 Kwiecień 3,4444 0,9547 Maj 3,4069 0,9443 Czerwiec 3,3760 0,9357 Lipiec 3,2600 0,9035 Sierpień 3,2884 0,9114 Średnia 3,4380 0,9529 Odch. stand. 0,1217 0,0337 źródło: obliczenia własne na podst. danych z www.nbp.pl 2 Graficzna prezentacja danych Prezentacja danych na wykresie ma wiele zalet. Pozwala na przykład ogarnąć zachowanie się dużej liczby obserwacji. Analiza wykresu pomaga ocenić własności szeregu (np. asymetrię) i dobrać stosowne narzędzia dalszej analizy. Z uwagi na to, że źródła i rodzaje danych oraz cele badań są bardzo różnorodne, istnieje ogromna mnogość rodzajów wykresów. Wymieńmy tylko niektóre: statystyczne: rozkład empiryczny; histogram; wykres ramkowy; prezentujące strukturę lub częstość: wykres kołowy (pierścieniowy); wykres kolumnowy (grupowany lub skumulowany); wykres warstwowy skumulowany; opisujące dekompozycję bądź zależność: punktowy; liniowy o skali równomiernej; liniowy o skali logarytmicznej. Tworząc wykresy warto pamiętać o następujących uwagach: 1. Wykorzystując układ współrzędnych na osi odciętych odkładamy wartości cechy, a na osi rzędnych liczbę wystąpień danego wariantu. 2. Dla szeregów czasowych oś odciętych zawiera interwały czasowe zaś oś rzędnych wielkości zjawisk w kolejnych momentach (okresach) czasu. 6 z 24
3. Skale na obu osiach są od siebie niezależne. Specyficzne typy wykresów dostępne są w programach dedykowanych konkretnym typom analiz. Nie zawsze jednak musimy instalować oprogramowanie, z którego później nie mamy zamiaru korzystać. Spore możliwości drzemią we współczesnych arkuszach kalkulacyjnych, które mają tę dodatkową zaletę, że zwykle jesteśmy z nimi oswojeni już od jakiegoś czasu. W dalszej części tekstu znajdują się liczne rysunki zawierające wykresy liniowe otrzymane właśnie przy pomocy arkusza. Ich tworzenie i edycja nie ograniczają się tylko do zmiany kolorów czy wyglądu osi. Dysponujemy także możliwością prezentacji kilku serii na jednym wykresie 3 czy dodawaniem oszacowanej linii trendu. Choć z punktu widzenia naszego wykładu dwuwymiarowe wykresy liniowe okażą się najbardziej przydatne, nie zapominamy również o innych metodach graficznej prezentacji danych. Szczególnie popularną grupę stanowią wykresy ilustrujące strukturę szeregu. Na podstawie danych opublikowanych w Małym Roczniku Statystycznym 2008 w tablicy 14 utworzony został szereg rozdzielczy z przedziałami klasowymi prezentujący strukturę maksymalnej głębokości większych jezior w Polsce. Obliczenia wykonaliśmy w arkuszu kalkulacyjnym, a następnie na ich bazie utworzyliśmy histogram znajdujący się na rysunku 1. Rysunek 1: Histogram maksymalnej głębokości większych jezior w Polsce. źródło: obliczenia własne Histogram przedstawia szereg rozdzielczy dla cechy ciągłej. Problem stwarza odpowiednie opisanie krańców przedziału na osi, ponieważ wykres typu kolumnowego (którego właśnie użyliśmy) umieszcza etykiety bezpośrednio pod wariantami zamiast przy znacznikach. Dlatego utworzyliśmy własne etykiety, które widać na rysunku 1. Znalazły się na nim wskaźniki struktury, lecz gdy liczba obserwacji jest niewielka, na wykresie umieszcza się zazwyczaj liczebności cząstkowe. 3 Nie należy jednak przesadzać. Zbyt duża ilość serii czyni wykres nieczytelnym. Czasem lepiej zrezygnować z niektórych danych lub przygotować kilka oddzielnych wykresów. 7 z 24
Podobną funkcję co histogram spełnia wykres kołowy. Warto pamiętać, że jest on szczególnie przydatny przy prezentacji wskaźników struktury cech jakościowych choć przykład na rysunku 2 bazuje na tych samych danych odnośnie głębokości jezior co poprzednio. Wykres kołowy jest Rysunek 2: Struktura maksymalnej głębokości większych jezior w Polsce. źródło: obliczenia własne wrażliwy na liczbę umieszczanych na nim kategorii. Ich zbyt duża ilość utrudnia odczytanie samego wykresu. Dlatego przed utworzeniem warto rozważyć (o ile to możliwe) agregację danych. 3 Szeregu czasowy i jego dekompozycja Szeregi czasowe zawierają obserwacje uporządkowane według czasu od najstarszej do najnowszej dostępnej. Ostatnia obserwacja zwykle nie pokrywa się z momentem przeprowadzania badania. Trudno przecież w połowie miesiąca mieć dane za te dni, które dopiero nadejdą. W konsekwencji szereg danych miesięcznych będzie spóźniony względem miesiąca, w którym właśnie wykonujemy badanie. Niezależnie od rodzaju pojedynczego okresu, szeregi czasowe podzielimy na: szeregi momentów; szeregi okresów. Mogą one być charakteryzowane przez znane ze statystyki miary przeciętne (najczęściej średnią arytmetyczną) oraz zróżnicowanie (zwykle wariancję, odchylenie standardowe, współczynnik zmienności). Należy przy tym pamiętać, że w przypadku szeregu momentów oblicza się średnią chronologiczną zgodnie ze wzorem: ȳ ch = 0,5y 1 + y 2 +... + y n 1 + 0,5y n n 1 (1) 8 z 24
Dla szeregu okresów obliczamy klasyczną wersję tej miary. Szeregi czasowe stanowią również punkt wyjścia dla (omawianych podczas zajęć ze Statystyki opisowej) miar dynamiki. Przypomnijmy, że na bazie indeksów łańcuchowych wyznaczany średnie tempo zmian zjawiska w czasie przy pomocy średniej geometrycznej: ī G = n 1 i n n 1 i n 1 n 2... i 2 1 = n 1 i n 1 (2) Znając średnią geometryczną szeregu czasowego możemy wyznaczyć średniookresowe tempo zmian. T n = ȳ ch 1 (3) Zwróćmy uwagę na to, że średnia geometryczna indeksów łańcuchowych w rzeczywistości pomija wartości zawarte między skrajnymi wyrazami. Ma to duże znaczenie przy interpretacji, ponieważ aby podtrzymać jej wiarygodność obserwacje z kolejnych okresów nie powinny się zbytnio różnić między sobą. Inny kierunek analiz to dzielenie zachowania szeregu czasowego na poszczególne składowe czyli tzw. dekompozycja. Szereg taki składa się z pewnych powtarzających się elementów, które można zdekomponować na: Tendencję rozwojową (trend) długookresową skłonność do jednokierunkowych zmian wartości zmiennej. Efekt działania stałego zestawu czynników. Stały (przeciętny) poziom zmiennej występujący w szeregu, w którym brak tendencji rozwojowej. Wartości oscylują wokół pewnego stałego poziomu. Wahania cykliczne długookresowe, rytmiczne wahania wartości zmiennej wokół trendu lub stałego poziomu. Wahania sezonowe wahania mające skłonność do powtarzania się w określonym czasie nie przekraczającym roku. Wahania przypadkowe losowe zmiany zmiennej o zróżnicowanej sile. Wymienione wyżej elementy spotykamy praktycznie w dowolnych konfiguracjach (np. małe wahania losowe, stały poziom zmiennej i wahania sezonowe dla jednego szeregu) czego ilustracją jest rysunek 3. Wahania przypadkowe można próbować eliminować, zaś trend wyodrębniać z szeregu, używając do tego celu tzw. metod wygładzania. Podzielimy je na następujące grupy: 1. metody mechaniczne (np. średnia ruchoma); 2. metody analityczne (funkcje trendu). 4 Wybrane metody analizy szeregu czasowego 4.1 Średnia ruchoma Sięgając po średnią ruchomą nie wymagamy przyjmowania zbyt wielu założeń. Ograniczamy się jedynie do określenia liczby obserwacji, na podstawie których obliczamy samą średnią. Sposoby jej wyznaczania różnią się między sobą. Jeżeli naszym celem jest jedynie wygładzenie szeregu i wyodrębnienie trendu, wówczas obliczamy tzw. średnią scentrowaną. Z kolei dla celów prognostycznych wykorzystuje się wariant wyznaczający średnią wartość dla przyszłych okresów. W 9 z 24
y t (a) y t (b) t t y t (c) y t (d) t t Rysunek 3: Przykłady dekompozycji szeregu czasowego: (a) Wahania przypadkowe i trend liniowy, (b) Wahania sezonowe addytywne i stały poziom zmiennej, (c) Duże wahania przypadkowe i stały poziom zmiennej, (d) Wahania sezonowe multiplikatywne i stały poziom zmiennej. obu przypadkach liczbę elementów branych pod uwagę przy obliczaniu średniej nazywamy stałą wygładzania (k). Średnią scentrowaną inaczej wyznacza się dla parzystej a inaczej dla nieparzystej liczby okresów. Załóżmy, że chcemy wygładzić szereg średnią o stałej wygładzania k =3. Przykładowe wartości otrzymamy stosując wzory: ȳ 2 = y 1 + y 2 + y 3 3 Z kolei dla stałej k=4 należy zastosować: ȳ 3 = 0,5y 1 + y 2 + y 3 + y 4 + 0,5y 5 4 ȳ n 1 = y n 2 + y n 1 + y n 3 ȳ n 2 = 0,5y n 4 + y n 3 + y n 2 + y n 1 + 0,5y 5 4 Przykład 2 W numerze 7/2008 Biuletynu Statystycznego sięgniemy do danych zawartych w tablicy 47, a obejmujących produkcję sprzedaną przemysłu ogółem w okresie od maja 2007 do lipca 2008. Wygładzimy szereg przy pomocy średniej ruchomej scentrowanej o k =3. Wartości powstałe po użyciu średniej ruchomej pozbawione są części wahań losowych. Jest to tzw. efekt wygładzania, który rośnie ze wzrostem stałej wygładzania. Płacimy za to utratą części obserwacji, tym większą, im silniej wygładzamy szereg. Wpływ k na wygładzenie szeregu na bazie danych z ostatniego przykładu ilustrują wykresy na rysunkach 4 i 5. 10 z 24
Tabela 2: Produkcja sprzedana przemysłu wygładzanie szeregu Okres Prod. sprzed. Średnia ruchoma Reszty [mld zł] k=3 e t 2007 V 68,2446 2007 VI 68,4607 68,2008 0,2599 2007 VII 67,8971 68,2543-0,3572 2007 VIII 68,4051 69,3520-0,9469 2007 IX 71,7537 72,8648-1,1111 2007 X 78,4355 74,9691 3,4664 2007 XI 74,7182 73,7987 0,9195 2007 XII 68,2423 71,6797-3,4374 2008 I 72,0785 71,2823 0,7962 2008 II 73,5260 73,2498 0,2762 2008 III 74,1448 74,8364-0,6916 2008 IV 76,8385 73,9981 2,8404 2008 V 71,0111 74,2796-3,2685 2008 VI 74,9892 72,9277 2,0615 2008 VII 72,7829 źródło: obliczenia własne na podst. BS GUS nr 07/2008 Rysunek 4: Produkcja sprzedana przemysłu wygładzona średnią ruchomą o k =3. źródło: BS GUS nr 07/2008 oraz obliczenia własne 11 z 24
Rysunek 5: Produkcja sprzedana przemysłu wygładzona średnią ruchomą o k =5. źródło: BS GUS nr 07/2008 oraz obliczenia własne Uśredniona wartość z oczywistych powodów odbiega od danych rzeczywistych. Dlatego obliczamy różnicę (zwaną resztą i oznaczaną symbolem e t ) między daną rzeczywistą a uśrednioną dla odpowiadających sobie okresów, co ilustruje ostatnia kolumna tabeli 2. Reszty wyznaczamy według wzoru: e t = y t ȳ (k) t (4) gdzie: y t obserwacja rzeczywista w okresie t; ȳ (k) t wartość k-okresowej średniej ruchomej w okresie t. Analiza reszt pozwala poznać własności wygładzonego szeregu. Stąd wiemy, że znaczna przewaga wartości ujemnych (dodatnich) świadczy o częstym przeszacowywaniu (niedoszacowywaniu) wyników przez wybraną metodę. Średnia ruchoma w wersji prognostycznej zachowuje wszystkie własności średniej scentrowanej. Inna jest jednak filozofia wyznaczania jej wartości. Na użytek prognozowania przyjmuje się, że wartość zmiennej prognozowanej w okresie prognozy będzie równa średniej arytmetycznej z k poprzednich wartości tej zmiennej. Dla danych z tabeli 2 obliczmy średnią ruchomą trójokresową w wariancie prognostycznym. Przykład 3 Średnia z tabeli 3 obliczana jest dla tej samej co w poprzednim przykładzie stałej wygładzania i w konsekwencji daje te same wartości. Zmienia się jednak ich sens merytoryczny. Uśredniona na podstawie kilku ostatnich obserwacji wartość staje się prognozą w okresie kolejnym. Przestaje tym samym obowiązywać zasada iż średnia musi znaleźć się w przedziale pomiędzy najmniejszym a największym wyrazem szeregu. W konsekwencji obserwujemy wyższe (co do wartości bezwzględnej) reszty. Plusem jednak takiego postępowania jest to, że możemy wyprognozować poziom zmiennej w okresie, dla którego brak danych. 12 z 24
Tabela 3: Produkcja sprzedana przemysłu prognozy Okres Prod. sprzed. Średnia ruchoma Reszty [mld zł] k=3 e t 2007 V 68,2446 2007 VI 68,4607 2007 VII 67,8971 2007 VIII 68,4051 68,2008 0,2043 2007 IX 71,7537 68,2546 3,4994 2007 X 78,4355 69,3520 9,0835 2007 XI 74,7182 72,8648 1,8534 2007 XII 68,2423 74,9691-6,7268 2008 I 72,0785 73,7987-1,7202 2008 II 73,5260 71,6797 1,8463 2008 III 74,1448 71,2823 2,8625 2008 IV 76,8385 73,2498 3,5887 2008 V 71,0111 74,8364-3,8253 2008 VI 74,9892 73,9981 0,9911 2008 VII 72,7829 74,2796-1,4967 2008 VIII 72,9277 źródło: obliczenia własne na podst. BS GUS nr 07/2008 Jak ilustruje to wykres na rysunku 6 sam efekt wygładzenia również ma inny przebieg. Nie uległa jednak zmianie reguła, w myśl której im wyższa stała wygładzania tym silniej usuwane są wahania przypadkowe. Powiemy wtedy, że słabnie wpływ wahań losowych na wartość prognozy. Z uwagi na jakość otrzymywanych prognoz, duże znaczenie ma dekompozycja szeregu czasowego. Użycie średniej ruchomej do szeregu z wyraźnym trendem liniowym doprowadza zawsze do systematycznego przeszacowywania lub niedoszacowywania prognoz. Najlepiej sprawdza się ona w szeregach o stałym poziomie zmiennej, bez wahań sezonowych. 4.2 Modele trendu Drugą grupę metod wyodrębniających elementy dekompozycji szeregu czasowego stanowią funkcje trendu. Niektóre szeregi mają skłonność do systematycznych zmian w czasie np. stale rosną lub maleją. Mówimy wówczas, że zawierają trend, który w modelach reprezentuje się przy pomocy sztucznej zmiennej. Zazwyczaj oznacza się ją symbolem t a jako wartości przyjmuje numery kolejnych okresów (t=1, 2, 3,...,n). Zmienna t wprowadzana jest jako argument funkcji matematycznej, służącej objaśnianiu zachowania się zmiennej y t zawierającej kolejne obserwacje szeregu. Najprostszą z możliwych postaci jest funkcja liniowa: y t = α + βt (5) Jej parametry znajdujemy wykorzystując metodę najmniejszych kwadratów lub stosując 13 z 24
Rysunek 6: Produkcja sprzedana przemysłu prognozowana średnią ruchomą o k =3. źródło: BS GUS nr 07/2008 oraz obliczenia własne wzory: gdzie: β = n (t t)y t t=1, α = ȳ β t (6) n (t t) 2 t=1 t = 1 n n t=1 t = n + 1 2 Przykład 4 Ponownie sięgnijmy do Biuletynu Statystycznego nr 7/2008. Wykorzystamy zawarte w tablicy 21 (Aktywa krajowe i zagraniczne) dane na temat zadłużenia netto instytucji rządowych szczebla centralnego. Wyznaczymy dla nich parametry liniowej funkcji trendu. Parametry równania linii trendu: Gotowe równanie: β = 152,652 82,5 = 1,85 α = 64,38 1,85 5,5 = 54,2 ŷ t = 54,2 + 1,85t (7) Daszek nad symbolem zmiennej objaśnianej informuje, że mamy do czynienia nie z wartością rzeczywistą a teoretyczną, wyznaczoną na podstawie równania 7. Interpretacja parametrów jest następująca: z okresu na okres zadłużenie netto instytucji centralnych wzrastało średnio o 1,85 mld zł; 14 z 24
Tabela 4: Wyznaczanie parametrów trendu liniowego Okres Zadłużenie Numer okresu [mld zł] t t t (t t)y t (t t) 2 2007 IX 58,933 1-4,5-265,199 20,25 2007 X 60,230 2-3,5-210,805 12,25 2007 XI 55,503 3-2,5-138,758 6,25 2007 XII 61,939 4-1,5-92,909 2,25 2008 I 58,961 5-0,5-29,481 0,25 2008 II 66,757 6 0,5 33,379 0,25 2008 III 68,132 7 1,5 102,198 2,25 2008 IV 67,844 8 2,5 169,610 6,25 2008 V 69,913 9 3,5 244,696 12,25 2008 VI 75,538 10 4,5 339,921 20,25 Suma 152,652 82,5 źródło: obliczenia własne na podst. BS GUS nr 07/2008 niezależny od upływu czasu, stały poziom tego zadłużenia wynosił w badanym okresie 54,2 mld zł. Rysunek 7: Zadłużenie netto instytucji centralnych a linia trendu źródło: opracowanie własne Graficzna prezentacja linii trendu znalazła się na wykresie zamieszczonym na rysunku 7. Linia trendu powstała przez podstawienie kolejnych wartości t do równania 7. Przykładowe, 15 z 24
teoretyczne wartości zadłużenia otrzymane na podstawie oszacowanego równania dla okresów 1, 5 i 10: ŷ 1 = 54,2 + 1,85 1 = 56,05 ŷ 5 = 54,2 + 1,85 5 = 63,45 ŷ 10 = 54,2 + 1,85 10 = 72,7 W podobny sposób otrzymuje się prognozy z tym, że podstawiamy za t wartości spoza okresu próby, na przykład: ŷ 11 = 54,2 + 1,85 11 = 74,55 ŷ 12 = 54,2 + 1,85 12 = 76,4 Analizując zachowanie się szeregu stwierdzamy, że liniowa postać funkcji trendu dobrze sprawdza się w tym przypadku. Dopasowanie modelu do danych rzeczywistych sprawdza się przy pomocy współczynnika determinacji (R 2 ): R 2 = n (ŷ t ȳ) 2 t=1 = 1 n (y t ȳ) 2 t=1 n t=1 e 2 t (8) n yt 2 nȳ 2 Współczynnik determinacji przyjmuje wartości z przedziału 0, 1. Im bliżej jedności, tym lepsze dopasowanie modelu do danych rzeczywistych. Wyznaczmy współczynnik R 2 dla naszego przykładu. Obliczenia pomocnicze znajdują się w tabeli 5. t=1 Tabela 5: Wyznaczanie współczynnika determinacji Numer okresu Reszty t yt 2 ŷ t e t e 2 t 1 3473,10 56,048 2,885 8,32 2 3627,65 57,899 2,331 5,43 3 3080,58 59,749-4,246 18,03 4 3836,44 61,599 0,340 0,12 5 3476,40 63,450-4,489 20,15 6 4456,50 65,300 1,457 2,12 7 4641,97 67,151 0,981 0,96 8 4602,81 69,001-1,157 1,34 9 4887,83 70,851-0,938 0,88 10 5705,99 72,702 2,836 8,04 Suma 41789,27 0 65,40 R 2 = 1 źródło: obliczenia własne 65,4 41789,27 10 (64,38) 2 = 0,812 Otrzymana wartość informuje, że model w 81,2% opisuje zachowanie szeregu co wskazuje na jego dobre dopasowanie. 16 z 24
Postać modelu może być różna, a jej wybór zależy od przesłanek dotyczących mechanizmu rozwojowego zmiennej, zazwyczaj określanego na podstawie analizy wykresu. Z uwagi na wykorzystanie sztucznej zmiennej, istnieje duża mnogość funkcji, które można dopasować do szeregu. Znalezienie pasującej funkcji trendu wymaga niekiedy sporej ilości obserwacji. Kiedy jest ich niewiele, do szeregu da się dopasować zwykle więcej niż jeden model. W takiej sytuacji wybieramy ten o najprostszej postaci analitycznej. Jako kryterium rozstrzygające o wyborze postaci funkcji używa się zazwyczaj współczynnika determinacji. Oto wybrane nieliniowe modele trendu: wykładniczy y t = e α+βt, β > 0 (9) y t = αβ t, β > 1 (10) W równaniu pierwszym β a w drugim ln β jest stopą wzrostu. wielomianowy, np. stopnia 2 y t = α 0 + α 1 t + α 2 t 2 Kolejne trzy funkcje stosuje się w sytuacji, kiedy stwierdzamy występowanie zmniejszających się przyrostów np. dla względnego nasycenia rynku z powodu pojawiających się produktów konkurencyjnych. logarytmiczny potęgowy y t = α + β ln t, β > 0 y t = αt β, 0 < β < 1 ilorazowy y t = αt β + t, α, β > 0 W przypadku malejącego przyrostu ryzyko prognozowania jest mniejsze bo zmienne zachowują się dość stabilnie. logistyczny y t = α, α > 0, δ > 0, β > 1 1 + β exp δt Funkcji logistycznej używamy kiedy zjawisko jest ograniczone do pewnej przestrzeni (np. rozwój nowych gałęzi przemysłu). Najpierw następuje szybki wzrost, potem tempo maleje do asymptoty wyznaczonej przez parametr alfa. 4.3 Zmienne zero-jedynkowe Modele trendu z uwagi na swoją elastyczność stanowią doskonałe narzędzie analizy i prognozowania. Zaczynają jednak zawodzić jeżeli problem stanowi samo zachowanie się danych. Przyjrzyjmy się sytuacji przedstawionej na rysunku 8. Jedna z obserwacji przyjęła wartość nietypowo wysoką w porównaniu z pozostałymi. Zastosowanie MNK oraz liniowej postaci funkcji trendu doprowadzi do modelu o bardzo niskim współczynniku determinacji. Winę za to ponosi jedna z obserwacji, a ponieważ ich ogólna liczba jest niewielka, nie jest możemy pozwolić sobie na rezygnację z części danych, aby ominąć problem. Jeżeli spojrzeć na to szerzej, nie powinniśmy sprawiać wrażenia zaskoczonych. Zjawiska ekonomiczne podlegają w niektórych okresach (takich jak wojny, gwałtowne recesje lub boom gospodarczy) raptownym wahaniom. Przyjmują wtedy wartości skrajnie odbiegające od okresów, 17 z 24
Y X Rysunek 8: Nietypowe zachowanie danych które w tej sytuacji można nazwać normalnymi lub typowymi. Wyróżnimy 3 grupy nietypowych zachowań: 1. obserwacje nietypowe występujące w pojedynczych, nieregularnych okresach; 2. obserwacje nietypowe trwające przez kilka okresów z rzędu; 3. obserwacje nietypowe regularnie się powtarzające. Zazwyczaj nie jesteśmy w stanie zrezygnować z danych dotyczących nietypowych okresów. Ewentualne skrócenie próby ma daleko idące konsekwencje podczas estymacji. Z drugiej strony brak kroków zaradczych oznacza modele o słabych własnościach statystycznych i merytorycznych. Jako wyjście proponuje się zastosowanie zmiennych zero-jedynkowych, zdefiniowanych następująco: { 0, dla obserwacji typowych; U t = (11) 1, dla obserwacji nietypowych. Zmienne zero-jedynkowe powstają w sztuczny sposób, zgodnie z naszymi potrzebami 4. Wprowadza się je następnie do równania i szacuje parametry w tradycyjny sposób. Mogą one wywołać zmianę parametrów w wybranych okresach. Równanie (12) prezentuje korektę wyrazu wolnego: y t = α 0 + α 1 U t + βt (12) Przykład 5 W znanym nam już numerze 7/2008 Biuletynu Statystycznego znajduje się tablica 37 zawierająca przeciętne ceny skupu ważniejszych produktów rolnych. Wykorzystamy dane na temat przeciętnej ceny 1 kg żywca bydła rzeźnego. Dane obejmowały kolejne miesiące od maja 2007 do lipca 2008. Na początek przyjrzyjmy się wykresowi wspomnianej zmiennej znajdującemu się na rysunku 9. Oszacowana funkcja trendu liniowego dla danych z rysunku 9 dała w rezultacie równanie: ŷ t = 3,89 + 0,013t R 2 = 0,373 (13) Zauważamy jednak, że w następujących okresach: IX 2007, XI 2007 i VI 2008 wystąpiły nietypowo wysokie bądź niskie (w porównaniu z resztą obserwacji) ceny skupu. Konstruujemy więc trzy zmienne zero-jedynkowe: U0907 t = { 1, dla IX 2007 0, dla pozostałych okresów U1107 t = { 1, dla XI 2007 0, dla pozostałych okresów 4 Należy jednak zachowywać umiar przy wprowadzaniu zmiennych zero-jedynkowych. Ich użycie musi być odpowiednio umotywowane. 18 z 24
Rysunek 9: Przeciętna cena skupu żywca bydła rzeźnego U0608 t = { 1, dla VI 2008 0, dla pozostałych okresów Wstawiamy je do równania, które przed oszacowaniem ma postać: Po oszacowaniu otrzymamy: y t = α 0 + α 1 U0907 t + α 2 U1107 + α 3 U0608 t + βt (14) ŷ t = 3,899 + 0,137U0907 t 0,154U1107 t + 0,14U0608 t + 0,011t R 2 = 0,855 (15) Tym co skłania nas do wyboru równania (15) jest o wiele wyższa niż w (13) wartość współczynnika determinacji. Zmienne zero-jedynkowe uruchamiają się w odpowiednich okresach i korygują wartość wyrazu wolnego. W pozostałych okresach są równe zero i nie wpływają na żaden z oszacowanych parametrów. Oddzielnego omówienia wymaga wykorzystanie sezonowych zmiennych zero-jedynkowych. Ze zjawiskiem sezonowości często spotykamy się korzystając z danych kwartalnych 5. Zakładając, że mamy do czynienia właśnie z sezonowością kwartalną zaproponujemy następujący sposób użycia zmiennych sztucznych: y t = α 0 + βt + α 1 UQ1 t + α 2 UQ2 t + α 3 UQ3 t (16) Równanie (16) stanowi rozszerzenie modelu z korektą wyrazu wolnego. Różnica polega na tym, że w tym przypadku wyraz wolny jest korygowany w każdym kwartale przez inny parametr 5 Jako przykład może posłużyć wzrost spożycia napojów gazowanych w okresie letnim. 19 z 24
(przykładowo za sezonowość w pierwszym z nich odpowiada parametr przy UQ1 t ). Powyższe zmienne mierzą odchylenie sezonowe względem wybranego (w naszym przykładzie czwartego) kwartału. Zachowanie się zmiennej y t w czwartym kwartale oddaje wyraz wolny. Cechę charakterystyczną sezonowych zmiennych zero-jedynkowych stanowi regularne powtarzanie się wartości 1 przez cały okres próby. Przykładowo dla równania (16) macierz wartości zmiennych zero-jedynkowych wyglądałaby następująco: 1 0 0 0 1 0 0 0 1 0 0 0 U = 1 0 0 0 1 0 0 0 1 0 0 0. Należy pamiętać, że aby stwierdzić występowanie sezonowości potrzebujemy dość długich szeregów. Dane zawarte w jednym numerze Biuletynu Statystycznego nie wystarczą i konieczne staje się sięgnięcie po wydania wcześniejsze. Uwaga ta ma znaczenie w kontekście następnego przykładu. Przykład 6 Na podstawie danych opublikowanych na stronie internetowej GUS zgromadziliśmy informacje na temat kwartalnej wielkości PKB Polski (Biuletyn Statystyczny od stycznia 2006 do września 2008, tablica 2). Dane objęły okres od 1 kwartału 2006 do 2 kwartału 2008. Prezentują je tabela 6 oraz wykres na rysunku 10... Tabela 6: Kwartalne PKB Polski w latach 2006-2008 Okres PKB [mld zł] Okres PKB [mld zł] 2006:01 242,7144 2007:02 282,5914 2006:02 255,1247 2007:03 290,6577 2006:03 261,5098 2007:04 332,3312 2006:04 300,8451 2008:01 295,3344 2007:01 269,6860 2008:02 309,9002 źródło: Biuletyn Statystyczny GUS Choć do dyspozycji mamy jedynie 10 obserwacji, da się zauważyć powtarzająca się w 4 kwartale wyższa wartość PKB. Ponieważ efekt sezonowy pojawia się jedynie w tym okresie, wykorzystamy tylko jedną sezonową zmienną zero-jedynkową, która w 4 kwartale przyjmie wartość 1 zaś w pozostałych 0. Dekompozycja szeregu wskazuje ponadto na występowanie trendu liniowego dlatego oszacować należy parametry modelu postaci: Po obliczeniach otrzymamy: y t = α 0 + βt + α 1 UQ4 t (17) ŷ t = 238,48 + 6,97t + 36,29UQ4 t (18) 20 z 24
Rysunek 10: Kwartalne PKB Polski w latach 2006-2008 Parametr przy zmiennej UQ4 t interpretujemy: w czwartym kwartale wartość PKB jest wyższa o 36,29 mld złotych z powodu efektów sezonowych. Zmienne zero-jedynkowe, podobnie jak zmienna t są tworzone w sposób sztuczny. Oznacza to, że z góry znamy ich wartości w okresie prognozy. W przypadku pojedynczej nieregularności prognozowana zmienna zero-jedynkowa równa się zero również w okresie prognozy. W razie stwierdzenia sezonowości zachowujemy cyklicznie powtarzającą się jedynkę. 5 Rodzaje prognoz i ich własności 5.1 Podstawowe pojęcia W prezentowanych do tej pory przykładach kilkakrotnie już wspominaliśmy o prognozowaniu, a nawet dokonywaliśmy odpowiednich obliczeń. Nie wspominaliśmy jednak o własnościach tego procesu. Prognoza odnosi się do określonego obiektu np. kraju, w którym zachodzą zjawiska dające się opisać za pomocą zmiennych (bywa, że losowych). Jakość prognozy da się zweryfikować dopiero po jej wygaśnięciu. W klasycznej logice wszystkie sądy dzielimy na prawdziwe lub fałszywe natomiast w przypadku prognozowania powiemy, że są one trafne lub nietrafne. Nieznajomość tego faktu jest częstą przyczyną nieporozumień w sytuacji niesprawdzenia się wcześniejszych przewidywań. Prognozowanie ściśle wiąże się z upływem czasu. Ze względu na horyzont czasowy, prognozy możemy podzielić na: krótkookresowe; 21 z 24
średniookresowe; długookresowe. Co nazwiemy jednak krótkim, a co długim okresem zależy od charakteru prognozowanego zjawiska. W naszym przypadku mamy do czynienia z tzw. prognozowaniem niestrukturalnym, które opiera się na szeregach czasowych. Niezależnie jednak od użytej metody, prognozy podzielimy na: ex post; ex ante. Różnicę między nimi wyjaśnia rysunek 11. przeszłość przyszłość ex post ex ante próba dziś czas Rysunek 11: Prognozy ex post a prognozy ex ante. Upraszczając sprawę: prognozy ex post wykonywane są dla dostępnych danych z przeszłości. Ich podstawowy cel to określenie, czy użyta metoda sprawdza się przed wykonaniem głównego celu badania czyli prognozy ex ante. W jej bowiem przypadku oceny jakości dokonać możemy dopiero w momencie wygaśnięcia prognozy, co jest szczególnie niewygodne w przypadku prognoz długookresowych. 5.2 Ocena jakości prognoz ex post Kwestia oceny jakości prognoz ex post ma duże znaczenie, ponieważ na jej podstawie określamy przydatność użytej metody. Naturalnym wyborem stają się reszty, które wyznaczymy bez problemu dla każdego okresu, w którym dysponujemy prognozą ex post. W przypadku funkcji trendu możemy wykorzystać oparty na nich współczynnik determinacji, ale nie jest to już możliwe kiedy obliczamy średnią ruchomą. Na szczęście istnieje grupa miar przeznaczonych specjalnie do określania poprawności użytej metody prognozowania. Zanim jednak do nich przejdziemy, omówimy kilka zagadnień dotyczących własności reszt. Wiemy już, że wykonując prognozę liczymy się z możliwością popełnienia błędu. Można go zmierzyć dopiero kiedy upłynie okres czasu, na który ustalono prognozę. Podstawową miarą oceny jest tutaj reszta z prognozy, do tej pory wyznaczana jako przyrost bezwzględny, czyli: e (1) t = y t y t (19) gdzie y t oznacza wartość prognozy otrzymaną wybraną metodą. Ma ona miano analizowanej zmiennej i nie jest z góry określona co do znaku. Do porównania kilku prognoz lepiej nadaje się reszta obliczana jako przyrost względny: e (2) t = y t y t y t (20) 22 z 24
Można ją wyrazić w procentach, a jej znak również jest dowolny. Przyjęcie wzorów (19) oraz (20) oznacza, że dla prognoz przeszacowanych reszty przyjmują wartości ujemne, a dla niedoszacowanych dodatnie. Lepsza z dwóch to ta prognoza, dla której występują mniejsze błędy. Oceniając jakość dłuższych szeregów czasowych, za lepszą uznajemy tę z metod, dla której mniejsze błędy występują pod koniec próby. Ogólnie rzecz biorąc, błędy prognoz ex post dadzą się podzielić na dwie grupy: 1. systematyczne; 2. różnokierunkowe. Różnice między nimi ilustruje rysunek 12. y t (a) y t y t y t (b) y t yt t t Rysunek 12: Rodzaje błędów w prognozie ex post: (a) systematyczne, (b) różnokierunkowe. Zarówno na podstawie wzoru (19) jak i (20) wyznacza się różne miary oceny jakości prognoz ex post, które łączy fakt uśredniania reszt z okresów objętych prognozami ex post. Jeżeli obliczymy średnią arytmetyczną reszt względnych otrzymamy średni błąd procentowy (ang. MPE): MP E = 1 S S t=1 t=1 y t y t y t (21) gdzie S oznacza liczbę okresów objętych prognozą ex post. Wartość otrzymaną ze wzoru (21) interpretujemy jako średnie przeszacowanie (lub niedoszacowanie) prognozy wyrażone w procentach. Im niższy MPE, tym lepszą otrzymaliśmy prognozę. Ponieważ średni błąd procentowy obliczamy bezpośrednio na podstawie reszt danych wzorem (20), podobnie jak one nie jest z góry określony co do znaku. Staje się więc wrażliwy na wzajemne znoszenie się reszt dodatnich z ujemnymi co sprawia problem szczególnie wtedy, kiedy zarówno dodatnie jak i ujemne reszty przyjmują duże wartości. W skrajnym wypadku może to doprowadzić do radykalnego zaniżenia wartości miary i fałszywego wyobrażenia o jakości prognozy. Wady tej pozbawiony jest średni absolutny błąd procentowy (ang. MAPE) jedna z najpopularniejszych miar tego rodzaju. Wyznaczamy go na podstawie wzoru: MAP E = 1 S y t y t S y t (22) Interpretuje się go jako średni co do wartości bezwzględnej błąd popełniany podczas prognozy. Przyjęło się traktować jako dobre takie prognozy, dla których MAPE nie przekracza 5%. 23 z 24
Wykorzystanie modułów reszt chroni nas przed przypadłością charakterystyczną dla błędów różnokierunkowych, a mianowicie kompensowaniem (znoszeniem) się reszt dodatnich i ujemnych. Przykład 7 Dla danych z poprzedniego przykładu obliczymy wartości MPE oraz MAPE. Na początek na podstawie równania (18) wyznaczymy wartości teoretyczne zmiennej objaśnianej (czyli kwartalnego PKB), następnie reszty a na końcu błędy prognozy. Obliczenia cząstkowe zawiera tabela 7. Tabela 7: Wyznaczanie wartości MPE i MAPE dla przykładu 6 y t ŷ t t ŷ t y t ŷ t y t ŷ t MP E = 1 245,4472-2,7328-0,0113 0,0113 2 252,4170 2,7077 0,0106 0,0106 3 259,3867 2,1231 0,0081 0,0081 4 302,6487-1,8036-0,0060 0,0060 5 273,3262-3,6402-0,0135 0,0135 6 280,2959 2,2955 0,0081 0,0081 7 287,2656 3,3921 0,0117 0,0117 8 330,5276 1,8036 0,0054 0,0054 9 301,2051-5,8707-0,0199 0,0199 10 308,1748 1,7254 0,0056 0,0056 0, 0012 10 y t y t Suma -0,0012 0,1002 źródło: obliczenia własne = 0, 00012 MAP E = 0, 1002 10 = 0, 01002 Na podstawie wartości MPE równej -0,012% stwierdzamy minimalne przeciętne niedoszacowanie prognoz. Niska, bo wynosząca zaledwie 1% wartość MAPE również świadczy o bardzo dobrej jakości prognoz co nie powinno dziwić w świetle wysokiej wartości współczynnika determinacji. Zwróćmy jednak uwagę na różnicę w wartościach tych miar. MAPE znacznie różni się od MPE co świadczy o istotnej kompensacji reszt dodatnich i ujemnych, będącej charakterystyczną cechą metody najmniejszych kwadratów wykorzystanej do estymacji parametrów modelu. W modelach trendu liczba okresów prognoz ex post odpowiada liczbie obserwacji, ale to raczej rzadko spotykana sytuacja. Obliczając uśrednione błędy dla prognoz ex post otrzymanych przy pomocy średniej ruchomej musimy pamiętać o tym, że liczba prognoz ex post jest mniejsza od liczby obserwacji. Różnica ta równa się przyjętej stałej wygładzania. 24 z 24