© Copyright StatSoft, Inc., 1984-2011
Przeszukaj Internetowy Podręcznik Statystyki
Analiza szeregów czasowych


W poniższych tematach dokonamy najpierw przeglądu technik wykorzystywanych przy rozpoznawaniu struktury szeregu czasowego (takich jak techniki wygładzania i dopasowania krzywej oraz autokorelacje), następnie wprowadzimy ogólną klasę modeli, które mogą być zastosowane do przedstawienia szeregów czasowych i generowania prognoz (modele autoregresyjne i modele średniej ruchomej). I wreszcie dokonamy przeglądu kilku prostych, ale powszechnie stosowanych, technik modelowania i prognozowania opartych na regresji liniowej. Więcej informacji można uzyskać klikając poniższe tematy.

 

Ogólne informacje

Poniżej dokonamy przeglądu technik, które są przydatne do analizy danych o postaci szeregów czasowych, to znaczy sekwencji pomiarów, które charakteryzują się nieprzypadkowym porządkiem. W odróżnieniu od analiz wykonywanych na próbach losowych, z którymi spotykamy się w przypadku omawiania większości innych statystyk, analiza szeregów czasowych opiera się na założeniu, że kolejne wartości w zbiorze danych reprezentują kolejne pomiary wykonane w równych odstępach czasu.

Szczegółowe rozważania na temat metod opisanych w tej części znajdują się w pracach: Andersona (1976), Boxa i Jenkinsa (1976), Kendalla (1984), Kendalla i Orda (1990), Montgomery'ego, Johnsona i Gardinera (1990), Pankratza (1983), Shumwaya (1988), Vandaele (1983), Walkera (1991) oraz Wei (1989).

 

Dwa główne cele

Analiza szeregów czasowych ma dwa główne cele: (a) wykrywanie natury zjawiska reprezentowanego przez sekwencję obserwacji i (b) prognozowanie (przewidywanie przyszłych wartości szeregu czasowego). Oba te cele wymagają zidentyfikowania i opisania, w sposób mniej lub bardziej formalny, elementów szeregu czasowego. Raz ustalony wzorzec może zostać zastosowany do innych danych (tzn. wykorzystany w teorii badanego zjawiska, np. sezonowych cen towarów). Niezależnie od trafności teoretycznego uzasadnienia postaci modelu, zawsze możemy przewidywać przyszłe wartości szeregu czasowego na drodze ekstrapolacji.
Indeks


Identyfikacja struktury szeregu czasowego Więcej informacji dotyczących autokorelacji możemy uzyskać z następujących prac: Anderson (1976), Box and Jenkins (1976), Kendall (1984), Pankratz (1983), and Vandaele (1983) oraz z następujących punktów:

Składnik systematyczny i zakłócenia losowe

Tak jak w większości innych analiz, w analizie szeregów czasowych zakłada się, że w danych można wyodrębnić składnik systematyczny oraz losowy szum (zakłócenia), który utrudnia identyfikację struktury zjawiska. Większość technik analizy szeregów czasowych wiąże się z pewnymi formami filtrowania szumu w celu uwidocznienia składnika systematycznego.

Dwa ogólne aspekty składników szeregów czasowych

Strukturę większości szeregów czasowych można opisać przy pomocy dwóch podstawowych klas składników: trendu i sezonowości. Pierwsza reprezentuje ogólny składnik liniowy lub (najczęściej) nieliniowy, który opisuje ogólny kierunek rozwoju zjawiska i nie powtarza się lub przynajmniej nie powtarza się w odcinku czasu, z którego pochodzą nasze dane (np. okres stabilizacji, po którym następuje wzrost wykładniczy). Druga może formalnie mieć podobną naturę (np. okres stabilizacji, po którym następuje wzrost wykładniczy), jednak powtarza się w systematycznych odcinkach czasu. Te dwie ogólne klasy składników szeregu czasowego mogą współwystępować w danych rzeczywistych. Na przykład, obroty przedsiębiorstwa mogą szybko rosnąć w kolejnych latach, ale mogą jednocześnie zawierać element sezonowości (np. aż 25% rocznych obrotów przypada na grudzień, a tylko 4% na sierpień).

Taka struktura szeregu została zilustrowana w "klasycznym" przykładzie, w szeregu G (Box i Jenkins, 1976, str. 531) reprezentującym miesięczne liczby (mierzone w tysiącach) pasażerów międzynarodowej linii lotniczej w kolejnych dwunastu latach od 1949 do 1960 (patrz przykładowy plik danych Series_g.sta). Gdybyśmy sporządzili wykres danych rocznych liczby pasażerów linii lotniczej, wyłoniłby się przejrzysty, prawie liniowy trend wskazujący, że linia lotnicza cieszyła się równomiernym wzrostem liczby pasażerów w badanym okresie (w przybliżeniu 4 razy więcej pasażerów podróżowało w 1960 niż w 1949). Jednocześnie dane miesięczne odpowiadają co roku prawie identycznemu wzorcowi (np. więcej osób podróżuje podczas wakacji niż w innych porach roku). Ten przykładowy plik danych ilustruje także bardzo typowy ogólny typ modelu szeregu czasowego, gdzie amplituda zmian sezonowych wzrasta wraz z ogólnym trendem (tzn. wariancja jest skorelowana ze średnią segmentów szeregu). Tego typu sezonowość nazywana jest sezonowością multiplikatywną. Względna amplituda zmian sezonowych jest tu stała w czasie, to znaczy, że wahania sezonowe są proporcjonalne do trendu.

Analiza trendu

Nie ma sprawdzonych, "automatycznych" technik identyfikacji składników trendu w danych szeregu czasowego; jeśli jednak trend jest monotoniczny (stale rosnący lub malejący), ta część analizy danych nie będzie specjalnie trudna. Jeśli szereg czasowy zawiera istotny składnik losowy, to pierwszym etapem w procesie identyfikacji trendu jest wygładzanie.

Wygładzanie. Wygładzanie wiąże się zawsze z pewnymi formami lokalnego uśredniania danych, tak że niesystematyczne składniki poszczególnych obserwacji znoszą się nawzajem. Najbardziej powszechną techniką jest wygładzanie przy pomocy średniej ruchomej, które polega na zastąpieniu każdego elementu szeregu przez zwykłą lub ważoną średnią n sąsiadujących wartości, gdzie n jest szerokością okna wygładzania (patrz Box i Jenkins, 1976; Velleman i Hoaglin, 1981). Zamiast średnich można użyć median. Podstawowa zaleta wygładzania przy pomocy mediany, w porównaniu ze średnią ruchomą, polega na tym, że wyniki są mniej obciążone przez obserwacje odstające (w ramach okna wygładzania). Zatem jeśli w danych występują obserwacje odstające (np. wynikające z błędów pomiaru), wygładzanie przy użyciu mediany daje zwykle gładsze albo przynajmniej bardziej rzetelne krzywe niż średnia ruchoma, przy tej samej szerokości okna. Główna wada wygładzania przy użyciu mediany polega na tym, że przy braku wyraźnych obserwacji odstających możemy otrzymać krzywe bardziej postrzępione niż przy średniej ruchomej; ponadto przy wygładzaniu przy użyciu mediany nie mamy możliwości stosowania wag.

W stosunkowo mniej typowych przypadkach (w danych szeregów czasowych), gdy błąd pomiarowy jest bardzo duży, można wykorzystać jedną z metod wygładzania: najmniejszych kwadratów ważonych odległościami (NKWO) lub najmniejszych kwadratów ważonych ujemnie wykładniczo (NKWW). Wszystkie te metody pozwolą odfiltrować szum i przekształcić dane w gładką krzywą, która jest względnie nieobciążona obserwacjami odstającymi (patrz odpowiednie części na temat każdej z tych metod). Szeregi czasowe charakteryzujące się względnie małą liczbą, równomiernie rozrzuconych punktów mogą być wygładzane przez funkcje sklejane trzeciego stopnia.

Dopasowanie funkcji. Wiele danych monotonicznych szeregów czasowych można z powodzeniem aproksymować przy pomocy funkcji liniowej; jeśli występuje wyraźny monotoniczny składnik nieliniowy, dane należy najpierw przekształcić w celu usunięcia nieliniowości.

Analiza sezonowości

Zmienność sezonowa (sezonowość) jest kolejnym ogólnym składnikiem modelu szeregu czasowego. Pojęcie to zostało zilustrowane na powyższym przykładzie danych o pasażerach linii lotniczej. Formalnie definiuje się ją jako zależność korelacyjną rzędu k między i-tym elementem szeregu a (ik)-tym elementem (Kendall, 1976) i mierzy przy pomocy autokorelacji (tzn. korelacji między tymi dwoma składnikami); k jest zwykle określane jako opóźnienie. Jeśli błąd pomiaru nie jest zbyt duży, sezonowość można w szeregu zidentyfikować wizualnie jako wzorzec, który powtarza się co k elementów.

Korelogram. Strukturę harmoniczną szeregu czasowego można analizować przy pomocy korelogramów. Na korelogramie (autokorelogramie) jest przedstawiona graficznie i liczbowo funkcja autokorelacji (ACF), to znaczy współczynniki autokorelacji (i ich błędy standardowe) dla kolejnych opóźnień w określonym zakresie opóźnień (np. 1 do 30). Na korelogramach zaznacza się zazwyczaj przedział wyznaczony przez dwa błędy standardowe, przy czym siła korelacji jest ważniejsza niż efektywność estymacji (patrz Podstawowe pojęcia ), gdyż najczęściej interesują nas tylko mocne (a więc wysoce istotne) autokorelacje.

Analiza korelogramów. Podczas analizowania korelogramów należy pamiętać, że autokorelacje dla kolejnych opóźnień są formalnie zależne. Rozważmy następujący przykład. Jeśli pierwszy element jest ściśle związany z drugim, a drugi z trzecim, to pierwszy element musi być także do pewnego stopnia związany z trzecim itd. Oznacza to, że struktura autokorelacji może się poważnie zmienić po wyeliminowaniu autokorelacji pierwszego rzędu (tzn. po różnicowaniu szeregu z opóźnieniem równym 1).

Autokorelacje cząstkowe. Inna użyteczna metoda badania struktury autokorelacji szeregu polega na analizie funkcji autokorelacji cząstkowych (PACF) - rozwinięcia autokorelacji, w którym została usunięta zależność od elementów pośrednich (tych wewnątrz opóźnienia). Innymi słowy autokorelacja cząstkowa jest podobna do autokorelacji, z wyjątkiem tego, że podczas jej obliczania (auto) korelacje z wszystkimi elementami w ramach opóźnienia zostają wyeliminowane (Box i Jenkins, 1976; patrz także McDowall, McCleary, Meidinger i Hay, 1980). Jeśli opóźnienie zostało określone na 1 (tzn. nie ma żadnych elementów pośrednich wewnątrz opóźnienia), to autokorelacja cząstkowa jest równoważna autokorelacji. W pewnym sensie autokorelacja cząstkowa dostarcza czystszego obrazu zależności dla poszczególnych opóźnień (nie jest uwikłana w inne zależności szeregowe).

Usuwanie zależności szeregowej. Zależność szeregową dla danego opóźnienia równego k można usunąć przez różnicowanie szeregu, to jest przekształcenie każdego i-tego elementu szeregu na jego różnicę z (i-k)-tym elementem. Są dwa główne uzasadnienia takich transformacji.

Po pierwsze, można zidentyfikować ukrytą naturę zależności sezonowych w szeregu. Pamiętajmy, że jak wspomniano w poprzednim akapicie, autokorelacje dla kolejnych opóźnień są wzajemnie zależne. Dlatego usunięcie niektórych autokorelacji zmieni inne autokorelacje, to znaczy może je wyeliminować lub może uwypuklić niektóre inne harmoniki (składniki okresowe).

Innym uzasadnieniem usuwania zależności sezonowych jest uzyskanie szeregu stacjonarnego , którego wymagają ARIMA i inne techniki.

Indeks


Wprowadzenie do metod ARIMA

Więcej informacji na temat analizy szeregów czasowych znajdziemy także:

  • Identyfikacja struktury szeregu czasowego
  • Szeregi czasowe z interwencją
  • Wyrównywanie wykładnicze
  • Dekompozycja sezonowa (Census I)
  • II Metoda korekcji sezonowej Census X-11/Y2K
  • Tabele wyników metody II Census X-11/Y2K
  • Analiza z uwzględnieniem opóźnień
  • Analiza pojedynczego widma (Fouriera)
  • Analiza widma wzajemnego
  • Podstawowa notacja i zasady
  • Szybkie przekształcenia Fouriera

    Ogólne informacje

    Procedury modelowania i prognozowania rozważane w punkcie Identyfikacja struktury szeregu czasowego wymagały wiedzy na temat matematycznego modelu procesu. Jednak w rzeczywistych badaniach struktura szeregu jest często niewyraźna, wariancja składnika losowego jest znaczna, a my mimo to potrzebujemy nie tylko odkryć ukryty wzorzec, ale także generować prognozy. Właśnie do tego służy metodologia ARIMA rozwinięta przez Boxa i Jenkinsa (1976). Zyskała sobie ona niezwykłą popularność w wielu dziedzinach, a praktyka badawcza potwierdza jej moc i elastyczność (Hoff, 1983; Pankratz, 1983; Vandaele, 1983). Mimo swych zalet i elastyczności, ARIMA jest techniką złożoną; nie jest łatwa w użyciu, wymaga dużego doświadczenia i chociaż często daje zadowalające wyniki, to zależą one w dużym stopniu od badacza (Bails i Peppers, 1982). Następne części wprowadzają podstawowe idee tej metodologii. Tym, którzy są zainteresowani krótkim, zorientowanym na zastosowania (niematematycznym) wprowadzeniem do metod ARIMA, polecamy pracę: McDowall, McCleary, Meidinger i Hay (1980).

    Dwa typowe procesy

    Proces autoregresyjny. Wiele szeregów czasowych składa się z obserwacji wzajemnie zależnych w tym sensie, że można oszacować współczynniki modelu, które opisują kolejne elementy szeregu na podstawie opóźnionych w czasie poprzednich elementów. Można to przedstawić przy pomocy równania:

    xt = + 1*x(t-1) + 2*x(t-2) + 3*x(t-3) + ... +

    Gdzie:
                     jest stałą (wyrazem wolnym), a
     1, 2, 3   są parametrami modelu autoregresyjnego.

    Wartość szeregu czasowego jest więc sumą składnika losowego () oraz kombinacji liniowej poprzednich obserwacji.

    Wymóg stacjonarności. Zauważmy, że proces autoregresyjny będzie stabilny, jeśli parametry należą do pewnego zakresu; na przykład, jeśli jest tylko jeden parametr autoregresyjny, to musi on znaleźć się w przedziale -1 < < 1. W innym razie, efekty przeszłe akumulowałyby się, a wartości kolejnych xt'-ów zmierzałyby do nieskończoności, to znaczy szereg nie byłby stacjonarny . Jeśli występuje więcej niż jeden parametr autoregresyjny, można zdefiniować podobne (ogólne) ograniczenia wartości parametrów (np. patrz Box i Jenkins, 1976; Montgomery, 1990).

    Proces średniej ruchomej. Niezależnie od procesu autoregresyjnego, każdy element szeregu może pozostawać pod wpływem realizacji składnika losowego w okresach przeszłych, który to wpływ nie może być wyjaśniony przez składnik autoregresyjny, mamy więc:

    xt = µ + t- 1*(t-1) - 2*(t-2) - 3*(t-3) - ...

    Gdzie:
     µ                jest stałą, a
     1, 2, 3  są parametrami modelu średniej ruchomej.

    Każda obserwacja składa się ze składnika losowego () oraz kombinacji liniowej składników losowych z przeszłości.

    Wymóg odwracalności. Nie wchodząc zanadto w szczegóły możemy mówić o "dualizmie" procesu średniej ruchomej i procesu autoregresyjnego (np. patrz Box i Jenkins, 1976; Montgomery, Johnson i Gardiner, 1990). Oznacza to, że powyższe równanie średniej ruchomej można zapisać w formie autoregresyjnej (nieskończonego rzędu). Podobnie jak w przypadku warunku stacjonarności, opisanego powyżej, można wykonać to tylko wtedy, gdy parametry średniej ruchomej spełniają pewne warunki, to jest, jeśli model jest odwracalny. W przeciwnym przypadku szereg nie będzie stacjonarny .

    Metodologia ARIMA

    Model autoregresyjny średniej ruchomej. Ogólny model wprowadzony przez Boxa i Jenkinsa (1976) zawiera zarówno parametry autoregresyjne, jak i średniej ruchomej oraz wprowadza do postaci modelu operator różnicowania. W szczególności, w modelu wyróżnia się trzy typy parametrów: parametry autoregresyjne (p), rząd różnicowania (d) oraz parametry średniej ruchomej (q). Wedle notacji wprowadzonej przez Boxa i Jenkinsa, modele określa się jako ARIMA (p, d, q); a więc na przykład opisanie modelu jako (0, 1, 2) oznacza, że zawiera on 0 (zero) parametrów autoregresyjnych (p) i 2 parametry średniej ruchomej (q), które zostały obliczone dla szeregu po jednokrotnym różnicowaniu.

    Identyfikacja. Jak wspomniano wcześniej, wymaga się, by wejściowy szereg dla metody ARIMA był stacjonarny , to znaczy, powinien on mieć stałą w czasie średnią, wariancję i autokorelację. Dlatego zazwyczaj szereg wymaga różnicowania aż do osiągnięcia stacjonarności (często wymaga to także przekształcenia logarytmicznego danych w celu ustabilizowania wariancji). To, ile razy szereg powinien być różnicowany, aby osiągnąć stacjonarność, wyraża parametr d (patrz poprzedni akapit). W celu określenia koniecznego poziomu różnicowania, należy przeanalizować wykres danych i autokorelogram. Istotne zmiany poziomu (silny wzrost lub spadek) wymagają zwykle różnicowania niesezonowego pierwszego rzędu (opóźnienie=1); duże zmiany nachylenia zwykle wymagają różnicowania niesezonowego drugiego rzędu. Wahania sezonowe wymagają odpowiedniego różnicowania sezonowego (patrz poniżej). Jeśli estymowane współczynniki autokorelacji opadają wolno przy dłuższych opóźnieniach, wymaga się zwykle różnicowania pierwszego rzędu. Należy jednak pamiętać, że niektóre szeregi czasowe mogą wymagać niewielkiego lub żadnego różnicowania, a szeregi zbytnio zróżnicowane dostarczają mniej stabilnych ocen współczynników.

    Na tym etapie (nazywanym zwykle fazą identyfikacji, patrz poniżej) musimy także zdecydować, ile parametrów autoregresyjnych (p) i średniej ruchomej (q) wymaga uzyskanie efektywnego, ale jednocześnie oszczędnego, modelu procesu (oszczędny oznacza, że ma najmniejszą liczbę parametrów i największą liczbę stopni swobody wśród wszystkich dopuszczalnych modeli). W praktyce bardzo rzadko liczby parametrów p lub q muszą być większe od 2 (bardziej szczegółowe zalecenia znajdują się poniżej).

    Estymacja i prognozowanie. W następnym kroku (Estymacja) estymowane są parametry (przy użyciu procedur minimalizacji funkcji, patrz poniżej; więcej informacji na temat procedur minimalizacji znajduje się w części Estymacja nieliniowa ), tak by zminimalizować sumę kwadratów reszt. Oceny parametrów są wykorzystywane na ostatnim etapie (Prognozowanie) do obliczenia nowych wartości szeregu (poza te, które są zawarte w wejściowym zbiorze danych) i przedziałów ufności dla tych wartości przewidywanych. Estymacji dokonuje się na danych przekształconych (zróżnicowanych); przed wygenerowaniem prognoz szereg wymaga odwrotnej transformacji, tak że prognozy zostają wyrażone w wartościach zgodnych z danymi wejściowymi. Własność automatycznego całkowania jest reprezentowana przez literę I w nazwie metodologii (ARIMA = Auto-Regressive Integrated Moving Average).

    Stała w modelach ARIMA. Oprócz standardowych parametrów autoregresyjnych i średniej ruchomej, modele ARIMA mogą obejmować także stałą, o czym była mowa powyżej. Interpretacja (istotnej statystycznie) stałej zależy od modelu, który szacujemy. W szczególności, (1) jeśli w modelu nie ma parametrów autoregresyjnych, to wartość oczekiwana stałej jest równa , średniej szeregu; (2) jeśli w szeregu występują parametry autoregresyjne, to stała reprezentuje wyraz wolny. Jeśli szereg został zróżnicowany, to stała reprezentuje średnią lub wyraz wolny szeregu zróżnicowanego; na przykład, jeśli szereg był zróżnicowany raz i w modelu nie ma żadnych parametrów autoregresyjnych, to stała reprezentuje średnią zróżnicowanego szeregu, a zatem współczynnik kierunkowy trendu szeregu nie zróżnicowanego.

    Identyfikacja

    Liczba parametrów modelu. Przed rozpoczęciem estymacji należy ustalić (zidentyfikować) liczbę i typ parametrów modelu ARIMA, które mają zostać oszacowane. Podstawowym narzędziem wykorzystywanym w fazie identyfikacji są wykresy szeregów, korelogramy autokorelacji (ACF) i autokorelacji cząstkowej (PACF). Decyzja nie jest łatwa, a w mniej typowych przypadkach wymaga nie tylko doświadczenia, ale i wielu eksperymentów z modelami alternatywnymi. Jednakże większość empirycznych szeregów czasowych można z powodzeniem aproksymować przy użyciu jednego z 5 podstawowych modeli, który można zidentyfikować w oparciu o kształt autokorelogramu (ACF) i autokorelogramu cząstkowego (PACF). Poniższe krótkie zestawienie opiera się na praktycznych radach Pankratza (1983); dodatkowe rady praktyczne znajdują się także w: Hoff (1983), McCleary i Hay (1980), McDowall, McCleary, Meidinger i Hay (1980) oraz Vandaele (1983). Ponadto zauważmy, że ponieważ liczba parametrów każdego rodzaju (które mają zostać oszacowane) prawie nigdy nie przekracza 2, często warto wypróbować dla tych samych danych alternatywne modele.

    1. Jeden parametr autoregresyjny (p): ACF - opada wykładniczo; PACF - maksimum przy opóźnieniu 1, brak korelacji dla innych opóźnień.
    2. Dwa parametry autoregresyjne (p): ACF - kształt sinusoidalny lub kombinacja zaników wykładniczych; PACF - duże wartości przy opóźnieniach 1 i 2, brak korelacji dla innych opóźnień.
    3. Jeden parametr średniej ruchomej (q): ACF - maksimum przy opóźnieniu 1, brak korelacji dla innych opóźnień; PACF - gaśnie wykładniczo.
    4. Dwa parametry średniej ruchomej (q): ACF - duże wartości przy opóźnieniach 1 i 2, brak korelacji dla innych opóźnień; PACF - kształt sinusoidy lub kombinacja zaników wykładniczych.
    5. Jeden parametr autoregresyjny (p) i jeden średniej ruchomej (q): ACF - opada wykładniczo począwszy od opóźnienia 1; PACF - opada wykładniczo począwszy od opóźnienia 1.
    Modele sezonowe. Multiplikatywny sezonowy model ARIMA jest uogólnieniem i rozwinięciem metody wprowadzonej w poprzednich akapitach dla szeregów, w których prawidłowości powtarzają się sezonowo w czasie. Oprócz parametrów niesezonowych, należy oszacować parametry sezonowe dla określonego opóźnienia (ustalonego w fazie identyfikacji). Podobnie jak w przypadku prostego modelu ARIMA, mamy tutaj parametry: sezonowe autoregresyjne (ps), sezonowe różnicowe (ds) oraz sezonowe średniej ruchomej (qs). Na przykład (0,1,2)(0,1,1) opisuje model, w którym nie ma parametrów autoregresyjnych, są 2 niesezonowe parametry średniej ruchomej oraz 1 sezonowy parametr średniej ruchomej, a parametry te zostały oszacowane dla szeregu po jednokrotnym różnicowaniu przy opóźnieniu równym 1 i jednokrotnym różnicowaniu sezonowym. Opóźnienie sezonowe stosowane dla parametrów sezonowych dobiera się zwykle w fazie identyfikacji.

    Ogólne zalecenia dotyczące wyboru parametrów modelu (oparte na analizie ACF i PACF) stosują się także do modeli sezonowych. Główna różnica polega na tym, że w szeregu sezonowym ACF i PACF wykazują duże wartości dla wielokrotności opóźnienia sezonowego (obok ich ogólnych prawidłowości obrazujących niesezonowe składniki szeregu).

    Estymacja parametrów

    Jest wiele różnych metod estymacji parametrów. Wszystkie powinny dawać zbliżone oceny parametrów, ale ich efektywność może być różna w przypadku konkretnego modelu. Ogólnie, w fazie estymacji parametrów wykorzystuje się algorytm minimalizacji funkcji (tzw. metoda quasi-Newtonowska; odsyłamy do rozdziału Estymacja nieliniowa ) w celu maksymalizacji wiarygodności (prawdopodobieństwa) otrzymania właśnie obserwowanego szeregu, przy danych wartościach parametrów. W praktyce wymaga to obliczenia (warunkowych) sum kwadratów (SS) reszt przy zadanych parametrach. Zaproponowano różne metody obliczania sumy kwadratów reszt: (1) przybliżona metoda największej wiarygodności według McLeoda i Salesa (1983), (2) przybliżona metoda największej wiarygodności z szacowaniem obserwacji poprzedzających [backcasting] oraz (3) dokładna metoda największej wiarygodności według Melarda (1984).

    Porównanie metod. Ogólnie, wszystkie metody powinny dostarczać bardzo podobnych ocen parametrów. Ponadto, wszystkie metody są w przybliżeniu jednakowo efektywne w przypadku większości rzeczywistych zastosowań szeregów czasowych. Jednak metoda 1 wymieniona powyżej (przybliżona największa wiarygodność, bez szacowania obserwacji poprzedzających) jest najszybsza i powinna być stosowana w szczególności dla bardzo długich szeregów czasowych (np. przy więcej niż 30,000 obserwacjach). Z kolei metoda dokładna największej wiarygodności Melarda (numer 3 powyżej) może okazać się nieefektywna w przypadku estymacji parametrów dla modeli sezonowych o długich opóźnieniach sezonowych (np. przy opóźnieniach rocznych w przypadku, gdy dysponujemy danymi dziennymi). Z drugiej strony moduł szeregów czasowych zawsze na początku wykorzystuje metodę przybliżonej największej wiarygodności w celu ustalenia początkowych ocen parametrów, które są bardzo bliskie rzeczywistym wartościom ostatecznym; zatem zazwyczaj potrzeba tylko kilku iteracji przy pomocy dokładnej metody największej wiarygodności (numer 3 powyżej), aby dokończyć estymację parametrów.

    Błędy standardowe parametrów. Dla wszystkich ocen parametrów moduł szeregów czasowych obliczy tak zwane asymptotyczne błędy standardowe. Są one obliczane z macierzy pochodnych cząstkowych drugiego rzędu, która jest aproksymowana przy pomocy różnicowania skończonego (patrz także odpowiednia część w Estymacji nieliniowej ).

    Wartość kary. Jak wspomniano powyżej, procedura estymacji wymaga, aby (warunkowe) sumy kwadratów reszt modelu ARIMA były zminimalizowane. Jeśli model nie jest odpowiedni, w iteracyjnym procesie estymacji może się zdarzyć, że oceny parametrów staną się bardzo duże i faktycznie niedopuszczalne. W takim przypadku, program przypisze sumie kwadratów bardzo dużą wartość (tak zwaną wartość kary). Zazwyczaj skłania to proces iteracyjny do przesunięcia parametrów z nieodpowiednich zakresów. Jednak w niektórych przypadkach i ta strategia się nie udaje i możemy zaobserwować na ekranie podczas procedury estymacji bardzo duże wartości dla SS w kolejnych iteracjach. W takiej sytuacji należy starannie ocenić trafność naszego modelu. Jeśli model zawiera wiele parametrów i być może składnik interwencyjny (patrz poniżej), możemy próbować powtórnie z innymi wartościami początkowymi parametrów.

    Ocena modelu

    Oceny parametrów. Moduł szeregów czasowych przytacza przybliżone wartości statystyki t, obliczone na podstawie błędów standardowych parametrów (patrz powyżej). Jeśli dany parametr nie będzie istotny, to odpowiednia zmienna może zostać w modelu pominięta, co nie wpływa poważnie na ogólne dopasowanie modelu.

    Inne kryteria jakościowe. Inną prostą i popularną miarą rzetelności modelu jest trafność prognoz generowanych na podstawie części danych, tak że prognozy mogą zostać porównane ze znanymi (pierwotnymi) obserwacjami.

    Dobry model jednak powinien nie tylko umożliwiać dostatecznie trafne prognozy, ale powinien także być możliwie nieskomplikowany, a reszty nie powinny zawierać żadnych składników systematycznych (np. korelogram reszt nie powinien ujawnić żadnych zależności szeregowych). Kontrola poprawności modelu polega na: (a) wykreśleniu reszt i poszukiwaniu trendów systematycznych oraz (b) badaniu autokorelogramu reszt (nie powinna wystąpić żadna autokorelacja reszt).

    Analiza reszt. Zasadniczy problem pojawia się, gdy reszty wykazują jakąś systematyczną prawidłowość lub autokorelację, co oznacza, że aktualnie rozważana postać modelu ARIMA jest niewłaściwa. Analiza reszt modelu ARIMA dostarcza ważnego testu modelu. Procedura estymacji zakłada, że reszty nie są skorelowane i że mają rozkład normalny.

    Ograniczenia. Metoda ARIMA nadaje się tylko do szeregu, który jest stacjonarny (tzn. jego średnia, wariancja i autokorelacja powinny być w przybliżeniu stałe w czasie) i zaleca się, aby wejściowy zbiór danych zawierał co najmniej 50 obserwacji. Zakłada się także, że wartości estymowanych parametrów są stałe dla całego szeregu.

    Szeregi ARIMA z interwencją

    Typowe pytanie badawcze w analizie szeregów czasowych brzmi, czy jakieś zewnętrzne zdarzenie wpływało na późniejsze obserwacje. Na przykład, czy wprowadzenie nowej polityki gospodarczej podniosło wydajność ekonomiczną; czy nowe prawo karne wpłynęło na późniejsze wskaźniki przestępstw itd. Ogólnie, chcielibyśmy ocenić wpływ jednego lub więcej dyskretnych zdarzeń na wartości szeregu czasowego. Ten typ analizy szeregów czasowych z interwencją jest szczegółowo opisany w: McDowall, McCleary, Meidinger i Hay (1980). Autorzy ci rozróżniają trzy główne typy możliwych zmian: (1) Nagła trwała zmiana wartości przeciętnej procesu, (2) Stopniowa (narastająca) zmiana wartości przeciętnej procesu oraz (3) Nagła i zanikająca zmiana wartości przeciętnej procesu. Patrz także:

    Indeks


    Wyrównywanie wykładnicze Patrz także:

    Ogólne informacje

    Wyrównywanie wykładnicze stało się bardzo popularne jako metoda prognozowania dla wielu typów szeregów czasowych. Metoda ta została rozwinięta niezależnie przez Browna i Holta. Brown podczas drugiej wojny światowej pracował dla Marynarki Wojennej USA, gdzie był przydzielony do opracowania systemu śledzącego cel, wykorzystywanego do lokalizacji okrętów podwodnych dla potrzeb sterowania ogniem. Później zastosował tę technikę do prognozowania popytu na części zapasowe. Opisał te pomysły w swojej książce z 1959 r. na temat sterowania zapasami. Badania Holta były finansowane przez Oddział Badawczy Marynarki Wojennej; rozwinął on niezależnie modele wyrównywania wykładniczego dla procesów stabilnych, procesów z trendami liniowymi i dla danych sezonowych.

    Gardner (1985) zaproponował jednolitą klasyfikację metod wyrównywania wykładniczego. Znakomite wprowadzenia można także znaleźć w: Makridakis, Wheelwright i McGee (1983), Makridakis i Wheelwright (1989), Montgomery, Johnson i Gardiner (1990).

    Proste wyrównywanie wykładnicze

    Prosty model szeregu czasowego polegałby na rozważeniu każdej obserwacji jako składającej się ze stałej (b) i składnika losowego (epsilon), to jest: Xt = b + t. Stała b jest względnie stabilna, to znaczy może się powoli zmieniać w czasie. Jeśli tak jest, to jeden ze sposobów wyznaczenia prawdziwej wartości b, a zatem systematycznej lub przewidywalnej części szeregu, polega na obliczeniu pewnego rodzaju średniej ruchomej, gdzie bieżącym i bezpośrednio poprzedzającym ("młodszym") obserwacjom przypisuje się większą wagę niż odpowiednim starszym obserwacjom. Proste wyrównywanie wykładnicze dokonuje takiego ważenia, gdzie starszym obserwacjom zostają przypisane wykładniczo mniejsze wagi. Wzór dla prostego wyrównywania wykładniczego wygląda następująco:

    St = *Xt + (1-)*St-1

    gdzie: Xt - oznacza zaobserwowane wartości szeregu, a St - wartości wygładzone.

    Zgodnie z rekurencyjną procedurą każda nowa wygładzona wartość jest obliczana jako średnia ważona bieżącej obserwacji i poprzedniej obserwacji wygładzonej; poprzednia wygładzona obserwacja była obliczona znów z poprzedniej wartości obserwowanej i wygładzonej wartości przed poprzednią obserwacją itd. Zatem w konsekwencji, każda wartość wygładzona jest ważoną średnią poprzednich obserwacji, przy czym wagi maleją wykładniczo w zależności od wartości parametru (alfa). Jeśli jest równa 1 (jeden), to poprzednie obserwacje są całkowicie ignorowane; jeśli jest równa 0 (zero), to bieżąca obserwacja zostaje całkowicie zignorowana, a wartość wygładzona składa się całkowicie z poprzedniej wartości wygładzonej (która z kolei jest obliczana z wygładzonej obserwacji, która jest przed nią itd.; zatem wszystkie wartości wygładzone będą równe początkowej wartości wygładzonej S0). Wartości pośrednie będą dawały pośrednie wartości wygładzane.

    Chociaż wykonano sporo badań na temat teoretycznych własności (prostego i złożonego) wyrównywania wykładniczego (np. patrz Gardner, 1985; Muth, 1960; patrz także McKenzie, 1984, 1985), to metoda ta zyskała popularność głównie z powodu swojej użyteczności jako narzędzia prognoz. Na przykład badania empiryczne wykonane przez Makridakisa i in. (1982, Makridakis, 1983), pokazały, że proste wyrównywanie wykładnicze dało najlepsze prognozy na jeden okres naprzód spośród 24 innych metod analizy szeregów czasowych i po zastosowaniu rozmaitych miar dokładności prognozy (patrz także Gross i Craig, 1974, gdzie znajdują się inne przykłady empiryczne). Zatem, bez względu na model teoretyczny procesu kryjącego się za obserwowanym szeregiem czasowym, proste Wyrównywanie wykładnicze dostarcza często całkiem trafnych prognoz.

    Wybór najlepszej wartości parametru (alfa)

    Gardner (1985) rozważa rozmaite teoretyczne i empiryczne argumenty przemawiające za wyborem konkretnej wartości parametru wyrównywania. Oczywiście zgodnie z przedstawionym wcześniej wzorem, powinna znaleźć się w przedziale od 0 (zera) do 1 (chociaż w pracy Brennera i wsp., 1968, opisano wyrównywanie dla potrzeb modelu ARIMA, w którym 0<<2). Gardner (1985) podaje, że wśród praktyków zaleca się zwykle by wartość a była mniejsza od 0,3. Jednak w studiach prowadzonych przez Makridakisa i wsp. (1982), najlepsze prognozy przynosiły często wartości powyżej 0,3. Po dokonaniu przeglądu literatury na ten temat Gardner (1985) stwierdza, że najlepiej jest oszacować optymalną wartość na podstawie danych (patrz poniżej), zamiast ją "odgadywać".

    Szacowanie najlepszej wartości na podstawie danych. W praktyce parametr wygładzania jest często wybierany przez poszukiwanie sieciowe przestrzeni parametrów; to znaczy wypróbowuje się różne rozwiązania zaczynając, na przykład, od wartości = 0,1 do = 0,9, przy przyroście 0,1. Następnie wybiera się tak, aby otrzymać najmniejszą sumę kwadratów (lub najmniejszy średni kwadrat) różnicy pomiędzy wartościami empirycznymi a wartościami prognozowanymi na jeden okres naprzód; jest to tzw. średniokwadratowy błąd ex post, w skrócie ex post MSE.

    Wskaźniki braku dopasowania

    Najprostszym sposobem oceny trafności prognoz uzyskanych przy konkretnej wartości jest wykreślenie wartości obserwowanych i prognoz na jeden krok naprzód. Wykres ten może zawierać także reszty (wyskalowane względem prawej strony osi Y), na podstawie których łatwo można zidentyfikować obszary lepszego i gorszego dopasowania.

    Wizualne sprawdzenie trafności prognoz jest często najmocniejszą metodą określenia, czy aktualny model wyrównywania wykładniczego pasuje do danych. Dodatkowo poza kryterium ex post MSE, są inne statystyczne miary błędu, które mogą zostać wykorzystane do określenia optymalnej wartości parametru (patrz Makridakis, Wheelwright i McGee, 1983):

    Błąd średni: Wartość błędu średniego (ME) jest obliczana jako prosta średnia arytmetyczna wartość błędu (średnia różnica wartości obserwowanej i prognozy na jeden okres naprzód). Oczywiście wadą tej miary jest fakt, że dodatnie i ujemne wartości błędu znoszą się nawzajem, a zatem miara ta nie jest dobrym wskaźnikiem ogólnego dopasowania.

    Średni błąd bezwzględny: Wartość średniego błędu bezwzględnego (MAE) oblicza się jako średnią wartości bezwzględnych błędu prognozy. Jeśli wartość ta równa się 0 (zero), dopasowanie (prognoza) jest doskonałe. W porównaniu do wartości błędu średniokwadratowego, ta miara dopasowania jest mniej czuła na wartości odstające, to znaczy wyjątkowo duże wartości błędu będą wpływać na wartość MAE w mniejszym stopniu niż na wartość MSE.

    Suma kwadratów reszt (SSE), wariancja składnika resztowego. Wartości te oblicza się odpowiednio jako sumę lub średnią wartości kwadratu reszt. Jest to bardzo często wykorzystywany wskaźnik braku dopasowania w statystycznych procedurach dopasowania.

    Błąd procentowy (PE). Wszystkie powyższe miary opierają się na rzeczywistej wartości błędu. Zasadne może się jednak wydać wyrażenie braku dopasowania w kategoriach względnego odchylenia prognoz na jeden krok naprzód od wartości obserwowanych, to znaczy w stosunku do wielkości wartości obserwowanych. Na przykład gdy usiłujemy przewidzieć miesięczne obroty, które mogą się poważnie wahać (np. sezonowo) z miesiąca na miesiąc, może nas zadowolić, jeśli nasze przewidywanie "trafia w cel" z około 10% dokładnością. Innymi słowy, z punktu widzenia prognoz błędy bezwzględne mogą nie być tak interesujące, jak błędy względne. Do oszacowania błędu bezwzględnego zaproponowano różne wskaźniki (patrz Makridakis, Wheelwright i McGee, 1983). Pierwszy, wartość błędu procentowego, oblicza się jako:

    PEt = 100*(Xt - Ft )/Xt

    gdzie: Xt jest wartością obserwowaną w czasie t, a Ft oznacza prognozę (wartość wygładzoną).

    Średni błąd procentowy (MPE). Wartość tę oblicza się jako średnią wartości PE.

    Średni bezwzględny błąd procentowy (MAPE). Tak jak w przypadku wartości błędu średniego (ME, patrz powyżej), średni błąd procentowy bliski 0 (zera) może być wynikiem wzajemnego znoszenia się dodatnich i ujemnych błędów procentowych. Zatem lepszą miarą względnego ogólnego dopasowania jest średni bezwzględny błąd procentowy. Ponadto miara ta jest zwykle łatwiejsza w interpretacji niż wariancja składnika resztowego. Na przykład wiedza, że przeciętna prognoza odchyla się o 5% od wartości rzeczywistych jest sama w sobie przydatnym wynikiem, podczas gdy informacja, że wariancja składnika resztowego jest równa 30,8 nie jest bezpośrednio interpretowalna.

    Automatyczne poszukiwanie najlepszej wartości parametru. Procedura minimalizacji funkcji quasi-Newtonowska (taka sama jak w modelach ARIMA ) wykorzystywana jest do minimalizacji albo błędu średniokwadratowego, albo średniego bezwzględnego błędu procentowego. W większości przypadków procedura ta jest bardziej skuteczna niż poszukiwanie sieciowe (szczególnie kiedy konieczne jest określenie więcej niż jednego parametru), a optymalną wartość można względnie szybko zidentyfikować.

    Pierwsza wygładzona wartość S0. Ostatnia kwestia, której do tej pory nie podjęliśmy, to problem wartości początkowej lub tego, jak rozpocząć proces wygładzania. Jeśli wrócimy do wzoru przedstawionego powyżej, widzimy, że aby obliczyć wartość wygładzoną (prognozę) dla pierwszej obserwacji w szeregu potrzebujemy wartości S0. W zależności od wyboru wartości (tzn. gdy jest bliska zeru), wartość początkowa procesu wyrównywania może wpłynąć na jakość prognoz dla wielu obserwacji. Tak jak w przypadku większości innych aspektów wyrównywania wykładniczego, zaleca się wybrać taką wartość początkową, która daje najlepsze prognozy. Z drugiej zaś strony, w praktyce, gdy przed rzeczywiście prognozowanymi wartościami mamy wiele poprzedzających obserwacji, wartość początkowa nie wpłynie na prognozy aż tak bardzo, ponieważ jej wpływ zanika z powodu wykładniczo malejących wag (im starsza obserwacja, tym mniejszy będzie jej wpływ na prognozę).

    Modele sezonowe i niesezonowe z trendem i bez trendu

    Powyższe rozważania dotyczące prostego wyrównywania wykładniczego wprowadziły podstawową procedurę identyfikacji parametru wygładzania i oceny dobroci dopasowania modelu. Oprócz prostego wyrównywania wykładniczego zostały rozwinięte również bardziej złożone modele przystosowane do szeregów czasowych ze składnikami sezonowymi i trendami. Ogólna idea polega na tym, że prognozy są obliczane nie tylko na podstawie kolejnych poprzednich obserwacji (jak w prostym wyrównywaniu wykładniczym), ale można także dodać niezależny trend i składnik sezonowy. Gardner (1985) rozważa różne modele w kategoriach sezonowości (brak, addytywna lub multiplikatywna) i trendu (brak, liniowy, wykładniczy lub gasnący).

    Sezonowość addytywna i multiplikatywna. Wiele empirycznych szeregów czasowych zawiera wahania sezonowe. Na przykład roczna sprzedaż zabawek osiąga prawdopodobnie szczyt w listopadzie i grudniu i być może latem (znacznie mniejszy szczyt), gdy dzieci mają wakacje. Wzorzec ten będzie się prawdopodobnie powtarzał co roku, chociaż względna wielkość wzrostu sprzedaży w grudniu może się powoli zmieniać z roku na rok. Zatem użyteczne może się okazać niezależne wygładzenie składnika sezonowego przy pomocy dodatkowego parametru, zwykle oznaczanego przez (delta). Składniki sezonowe mogą być z natury addytywne lub multiplikatywne. Na przykład w grudniu sprzedaż danej zabawki może rosnąć co roku o 1 milion dolarów. Zatem moglibyśmy dodać do naszych prognoz na każdy grudzień wielkość równą 1 milionowi dolarów (ponad odpowiednią przeciętną roczną) odpowiadającą temu składnikowi sezonowemu. W tym przypadku sezonowość jest addytywna. Alternatywnie, w grudniu sprzedaż danej zabawki może rosnąć o 40%, to znaczy o czynnik równy 1,4. Zatem gdy sprzedaż zabawki jest ogólnie niska, to bezwzględny (dolarowy) wzrost sprzedaży w grudniu będzie względnie niski (chociaż procent będzie stały); jeśli sprzedaż tej zabawki jest duża, to bezwzględny (dolarowy) wzrost sprzedaży będzie proporcjonalnie większy. I znów w tym przypadku sprzedaż rośnie w pewnej proporcji i składnik sezonowy jest tu multiplikatywny (tzn. multiplikatywny składnik sezonowy w tym przypadku wynosiłby 1,4). Na wykresach szeregów cechą wyróżniającą te dwa typy składników sezonowych jest to, że w przypadku addytywnym szereg objawia jednostajne wahania sezonowe, bez względu na ogólny poziom szeregu; w przypadku multiplikatywnym, wielkość wahań sezonowych jest zmienna w zależności od ogólnego poziomu szeregu.

    Parametr wyrównywania sezonowego . Prognozy na jeden krok naprzód oblicza się przy modelach bez trendu jako (dla modeli z trendem liniowym i wykładniczym do modelu dodaje się składnik opisujący tendencję rozwojową; patrz poniżej):

    Model addytywny:

    Prognozat = St + It-p

    Model multiplikatywny:

    Prognozat = St*It-p

    We wzorze tym, St oznacza wartość szeregu w momencie t wygładzoną wykładniczo (prosto), a It-p oznacza wygładzony czynnik sezonowy w czasie t minus p (długość okresu wahania periodycznego).Zatem w porównaniu do prostego wyrównywania wykładniczego, prognoza jest "poprawiona" przez dodanie lub pomnożenie wartości wygładzonej przez przewidywany wskaźnik sezonowości. Ten składnik sezonowy jest wyznaczony analogicznie jak wartość St z prostego wyrównywania wykładniczego:

    Model addytywny:

    It = It-p + *(1-)*et

    Model multiplikatywny:

    It = It-p + *(1-)*et/St

    Przewidywany składnik sezonowy w czasie t jest obliczany jako odpowiedni składnik sezonowy w ostatnim cyklu sezonowym plus pewna część błędu (et; wartość obserwowana minus wartość prognozowana w czasie t). Biorąc pod uwagę powyższe wzory, staje się jasne, że parametr może przybierać wartości między 0 i 1. Jeśli wynosi zero, to przewiduje się, że składnik sezonowy dla danego punktu w czasie jest identyczny jak przewidywany składnik sezonowy dla danego momentu podczas poprzedniego cyklu sezonowego, który z kolei jest przewidywany jako identyczny, jak ten z poprzedniego cyklu itd. Zatem jeśli wynosi zero, do generowania prognoz na jeden krok naprzód wykorzystuje się stały niezmienny składnik sezonowy. Jeśli parametr jest równy 1, to składnik sezonowy zostaje na każdym kroku "maksymalnie" zmodyfikowany przez odpowiedni błąd prognozy (razy 1-). W większości przypadków, jeśli w szeregu występuje sezonowość, optymalny parametr wypada gdzieś między 0 (zero) i 1 (jeden).

    Trend liniowy, wykładniczy i gasnący. Pozostając przy przykładzie z zabawkami, ich sprzedaż może przejawiać rosnący trend liniowy (np. co roku sprzedaż rośnie średnio o 1 milion dolarów), wzrost wykładniczy (np. co roku sprzedaż rośnie średnio o 30%) lub trend gasnący (w pierwszym roku sprzedaż rośnie o 1 milion dolarów; w drugim roku wzrost wynosi tylko 80% zeszłorocznego tzn. 800,000 dolarów; w następnym roku jest znowu 80% poprzedniego roku tzn. 800000 * 0,8 = 640000 dolarów; itd.). Każdy typ trendu ujawnia się w szeregu w charakterystyczny sposób; poniżej w krótkiej dyskusji na temat różnych modeli są pokazane ikony, które ilustrują ogólne schematy. Ogólnie, składnik określający trend może się powoli zmieniać w czasie i znowu może być sensowne wygładzenie składnika trendu przy pomocy oddzielnego parametru (określanego jako [gamma] dla modeli trendów liniowych i wykładniczych oraz [phi] dla modeli trendów gasnących).

    Parametry wyrównywania trendu (trend liniowy i wykładniczy) i (trend gasnący). Analogicznie do składnika sezonowego, jeśli do procesu wyrównywania wykładniczego zostanie włączony składnik trendu, to dla każdego momentu czasu zostaje obliczony niezależny składnik trendu. Zostaje on zmodyfikowany jako funkcja błędu prognozy i odpowiedniego parametru. Jeśli parametr jest równy 0 (zero), to składnik trendu jest stały dla wszystkich wartości szeregu czasowego (i dla wszystkich prognoz). Jeśli parametr jest równy 1, to składnik trendu zostaje "maksymalnie" zmodyfikowany z obserwacji na obserwację przez odpowiedni błąd prognozy. Wartości parametrów, które znajdują się pośrodku reprezentują mieszanki tych dwóch wartości skrajnych. Parametr to parametr modyfikacji trendu i określa on, jak silnie zmiany trendu wpłyną na oceny trendu dla kolejnych prognoz, to znaczy, jak szybko trend zostanie "wygaszony" lub jak szybko wzrośnie.
    Indeks


    Dekompozycja sezonowa (Census I) Patrz także: Ogólne informacje

    Załóżmy, że zanotowaliśmy miesięczne liczby pasażerów lotów międzynarodowych w okresie 12 lat (patrz Box i Jenkins, 1976). Jeśli sporządzimy wykres szeregu czasowego, będzie jasne, że (1) występuje liniowy trend rosnący liczby pasażerów oraz (2) występuje sezonowość w ramach każdego roku (tzn. najwięcej podróży ma miejsce w miesiącach letnich, a mniejszy szczyt pojawia się podczas świąt Bożego Narodzenia). Celem metody dekompozycji sezonowej jest wyodrębnienie tych składników, to znaczy dekompozycja szeregu na efekt trendu, efekty sezonowe i pozostałą zmienność. "Klasyczna" technika dekompozycji jest znana jako metoda Census I. Technika ta została opisana i omówiona szczegółowo w pracach: Makridakis, Wheelwright i McGee (1983) oraz Makridakis i Wheelwright (1989).

    Model ogólny. Ogólna idea dekompozycji sezonowej jest prosta. Mówiąc ogólnie, o szeregu czasowym takim, jak ten opisany powyżej, można powiedzieć, że składa się z czterech różnych składników: (1) składnika sezonowego (określanego jako St, gdzie t oznacza określony punkt w czasie) (2) składnika trendu (Tt), (3) składnika cyklicznego (Ct) oraz (4) składnika losowego (błędu) (It). Różnica między składnikiem cyklicznym a sezonowym polega na tym, że ten drugi pojawia się w regularnych (sezonowych) odstępach, podczas gdy czynniki cykliczne mają zwykle dłuższy czas trwania, który może być zmienny z cyklu na cykl. W metodzie Census I składniki trendu i cykliczny zostają zwyczajowo połączone w Składnik wahań długookresowych i trendu (trend-cykl, (TCt). Szczegółowa zależność funkcyjna między tymi składnikami może przybierać różne formy. Dwie najprostsze możliwości polegają na tym, że łączą się one addytywnie lub multiplikatywnie.

    Model addytywny:

    Xt = TCt + St + It

    Model multiplikatywny:

    Xt = Tt*Ct*St*It

    Xt określa tutaj wartość obserwowaną szeregu czasowego w czasie t. Mając pewną wiedzę a priori na temat cyklicznych czynników wpływających na szereg (np. cykle ekonomiczne), można wykorzystać oceny różnych składników w procesie budowy prognoz. (Jednakże metoda Wyrównywania wykładniczego , która może także obejmować składniki sezonowości i trendu, jest preferowaną techniką polecaną dla celów prognozowania).

    Sezonowość addytywna i multiplikatywna.. Rozważmy różnicę między addytywnym i multiplikatywnym składnikiem sezonowym na przykładzie: roczna sprzedaż zabawek prawdopodobnie osiągnie szczyt w listopadzie i grudniu i być może w lecie (z mniejszym szczytem), gdy dzieci mają wakacje. Taki schemat sezonowości prawdopodobnie będzie powtarzał się co roku. Składniki sezonowe mogą być z natury addytywne lub multiplikatywne. Na przykład w grudniu sprzedaż konkretnej zabawki może rosnąć co roku o 3 miliony dolarów. Zatem moglibyśmy dodać do naszych prognoz na każdy grudzień kwotę równą 3 milionom dolarów, aby uwzględnić to wahanie sezonowe. W tym przypadku sezonowość jest addytywna. Alternatywnie, w grudniu sprzedaż konkretnej zabawki może wzrosnąć o 40%, to znaczy zostać pomnożoną o czynnik równy 1.4. Zatem jeśli sprzedaż tej zabawki jest ogólnie niska, to bezwzględny (dolarowy) wzrost sprzedaży w grudniu będzie względnie mały (chociaż procent będzie stały); jeśli sprzedaż tej zabawki jest duża, to bezwzględny (dolarowy) wzrost sprzedaży będzie proporcjonalnie większy. I znów, w tym przypadku sprzedaż rośnie o pewien czynnik, a zatem składnik sezonowy jest z natury multiplikatywny (tzn. w tym przypadku multiplikatywny składnik sezonowy wyniósłby 1.4). Na wykresach szeregów można zauważyć, że w przypadku addytywnym szereg przejawia równomierne wahania sezonowe, bez względu na ogólny poziom szeregu; w przypadku multiplikatywnym, wielkość wahań sezonowych zmienia się w zależności od ogólnego poziomu zjawiska.

    Addytywny i multiplikatywny składnik długookresowy. Możemy rozwinąć poprzedni przykład w celu przedstawienia addytywnych i multiplikatywnych składników długookresowych. Zostając przy przykładzie zabawek, trend będący wynikiem mody może wywołać równomierny wzrost sprzedaży (np. ogólne nastawienie na zabawki edukacyjne). Tak jak składnik sezonowy, ten trend może być z natury addytywny (sprzedaż rośnie o 3 miliony dolarów rocznie) lub multiplikatywny (sprzedaż rośnie rocznie o 30% lub o czynnik 1.3). Dodatkowo na sprzedaż mogą wpływać składniki cykliczne; powtórzmy, składnik cykliczny różni się od składnika sezonowego tym, że ma zwykle dłuższy czas trwania i pojawia się w nieregularnych odstępach. Na przykład konkretna zabawka może mieć szczególne powodzenie w sezonie letnim (np. szczególnego rodzaju lalka, która jest związana z wejściem na ekrany ważnego filmu dla dzieci i towarzyszy jej duża kampania reklamowa). I znów, taki składnik cykliczny może oddziaływać na sprzedaż w sposób addytywny lub multiplikatywny.

    Obliczenia

    Standardowe wzory procedury dekompozycji sezonowej (Census I) przedstawione zostały w pracach: Makridakis, Wheelwright i McGee (1983) oraz Makridakis i Wheelwright (1989).

    Średnie ruchoma. Najpierw dla szeregu oblicza się średnią ruchomą o długości równej okresowi wahań. Przy parzystej długości okresu można wybrać średnią ruchomą centrowaną, do obliczania której uwzględnia się liczbę obserwacji o jeden większą od długości okresu, a wartości skrajne są brane z wagą mniejszą o połowę niż pozostałe.

    Ilorazy lub różnice. W szeregu złożonym z wartości średniej ruchomej wahania sezonowe oraz zmienność wynikająca z wahań o okresach krótszych zostaje wyeliminowana. Zatem różnice (w modelach addytywnych) lub ilorazy (w modelach multiplikatywnych) szeregu empirycznego i wygładzonego pozwalają wyodrębnić składnik sezonowy (plus składnik nieregularny). W szczególności, od szeregu obserwowanego zostaje odjęta średnia ruchoma (dla modeli addytywnych lub szereg obserwowany zostaje podzielony przez wartości średniej ruchomej (dla modeli multiplikatywnych).

    Wskaźniki sezonowe. Wskaźnik sezonowy oblicza się jako średnią (dla modeli addytywnych) lub średnią środkową (dla modeli multiplikatywnych) dla każdego punktu w sezonie.

    (Średnia środkowa zbioru wartości jest to średnia po wykluczeniu najmniejszej i największej wartości). Wynikowe wartości reprezentują (przeciętny) składnik sezonowy szeregu.

    Eliminacja wahań sezonowych. Wahania sezonowe można wyeliminować z pierwotnego szeregu przez odjęcie od niego (modele addytywne) lub podzielenie go (modele multiplikatywne) przez wskaźnik sezonowości.

    Szereg wynikowy będzie szeregiem skorygowanym sezonowo (tzn. zostanie usunięty składnik sezonowy).

    Składnik wahań długookresowych i trendu (trend-cykl). Pamiętajmy, że składnik cykliczny różni się od składnika sezonowego tym, że zwykle jest dłuższy niż jeden sezon, a różne cykle mogą mieć różną długość. Połączony składnik trendu i wahań cyklicznych może być aproksymowany przez zastosowanie do pięciowyrazowej ważonej średniej ruchomej o wagach 1, 2, 3, 2, 1 do szeregu, z którego wyeliminowano wahania sezonowe.

    Składnik losowy. Wreszcie można wyodrębnić składnik losowy (błąd) lub nieregularny przez odjęcie składnika określającego wahania długookresowe od szeregu skorygowanego sezonowo (modele addytywne) lub podzielenie szeregu skorygowanego (modele multiplikatywne) przez ten składnik.
    Indeks


    X-11II Metoda korekcji sezonowej Census X-11/Y2K

    Ogólne idee dekompozycji i korekcji sezonowej są rozważane w kontekście metody korekcji sezonowej Census I (Dekompozycja sezonowa (Census I) ). Metoda Census II (2) jest rozwinięciem i udoskonaleniem prostej metody korekcji. Przez lata w Amerykańskim Biurze Spisów Powszechnych rozwijano różne wersje metody Census II; metoda, która stała się najbardziej popularna i jest najczęściej stosowana w instytucjach rządowych i gospodarczych to tak zwany wariant X-11 metody Census II (patrz Hiskin, Young i Musgrave, 1967). Później pojęcie X-11 stało się synonimem rozwiniętej wersji metody Census II. Oprócz dokumentacji, którą można otrzymać w Biurze Spisów, szczegółowy opis metody znajduje się także w pracach: Makridakis, Wheelwright i McGee (1983) oraz Makridakis i Wheelwright (1989).

    Więcej informacji na temat tej metody znajdziemy w następujących punktach:

    Więcej informacji na temat innych metod dotyczących szeregów czasowych znajduje się w części Analiza szeregów czasowych - Indeks oraz w następujących punktach: Korekcja sezonowa: Podstawowe idee i pojęcia

    Załóżmy, że zanotowaliśmy miesięczne liczby pasażerów lotów międzynarodowych w okresie 12 lat (patrz Box i Jenkins, 1976). Jeśli wykreślimy te dane, to będzie jasne, że (1) występuje liniowy trend rosnący liczby pasażerów oraz (2) okresowe wahania w ramach każdego roku (tzn. najwięcej podróży ma miejsce w miesiącach letnich, a mniejszy szczyt pojawia się podczas świąt Bożego Narodzenia). Celem metody dekompozycji sezonowej jest wyodrębnienie tych składników, to znaczy dekompozycja szeregu na efekt trendu, efekty sezonowe i pozostałą zmienność. "Klasyczna" technika, zaprojektowana do wykonania dekompozycji, została rozwinięta w latach 20-tych i jest znana także jako metoda Census I (patrz w części Census I ). Technika ta została opisana i omówiona szczegółowo w pracach: Makridakis, Wheelwright i McGee (1983) oraz Makridakis i Wheelwright (1989).

    Ogólny model. Ogólna idea dekompozycji sezonowej jest prosta. O szeregu czasowym, takim jak ten opisany powyżej można powiedzieć, że składa się z czterech różnych składników: (1) składnika sezonowego (określanego jako St, gdzie t oznacza określony punkt w czasie), (2) składnika trendu (Tt), (3) składnika cyklicznego (Ct) oraz (4) składnika losowego, błędu lub nieregularności (It). Różnica między składnikiem cyklicznym a sezonowym polega na tym, że ten drugi pojawia się w regularnych (sezonowych) odstępach, podczas gdy czynniki cykliczne mają zwykle dłuższy, niekiedy zmieniający się okres. W metodzie Census I trend i wahania cykliczne zostają zwyczajowo połączone w Składnik wahań długookresowych i trendu (trend-cykl, TCt). Szczegółowa zależność funkcyjna między tymi składnikami może przybierać różne formy. Jednak dwie proste możliwości polegają na tym, że łączą się one addytywnie lub multiplikatywnie:

    Model addytywny:

    Xt = TCt + St + It

    Model multiplikatywny:

    Xt = Tt*Ct*St*It

    Gdzie:

    Xt reprezentuje wartość obserwowaną szeregu czasowego w czasie t.

    Przy pewnej wiedzy a priori na temat czynników cyklicznych oddziałujących na szereg (np. cykli gospodarczych), do obliczenia prognoz przyszłych obserwacji można wykorzystać estymatory różnych składników. (Jednakże na użytek prognozowania preferowana jest metoda wyrównywania wykładniczego , która może uwzględniać także występowanie sezonowości i trendu).

    Sezonowość addytywna i multiplikatywna. Rozważmy różnicę między addytywnym i multiplikatywnym składnikiem sezonowym na przykładzie: roczna sprzedaż zabawek prawdopodobnie osiągnie szczyt w listopadzie i grudniu i być może w lecie (z mniejszym szczytem), gdy dzieci mają wakacje. Taki wzorzec sezonowości prawdopodobnie będzie się powtarzał co roku. Składniki sezonowe mogą być z natury addytywne lub multiplikatywne. Na przykład w grudniu sprzedaż konkretnej zabawki może rosnąć co roku o 3 miliony dolarów. Zatem moglibyśmy dodać do naszych prognoz na każdy grudzień kwotę równą 3 milionom dolarów, aby uwzględnić to wahanie sezonowe. W tym przypadku sezonowość jest addytywna. Alternatywnie, w grudniu sprzedaż konkretnej zabawki może rosnąć o 40%, to znaczy, rosnąć o czynnik równy 1.4. Zatem jeśli sprzedaż tej zabawki jest ogólnie niska, to bezwzględny (dolarowy) wzrost sprzedaży w grudniu będzie względnie mały (chociaż procent będzie stały); jeśli sprzedaż tej zabawki jest duża, to bezwzględny (dolarowy) wzrost sprzedaży będzie proporcjonalnie większy. I znów, w tym przypadku sprzedaż rośnie o pewien czynnik, a zatem składnik sezonowy jest z natury multiplikatywny (tzn. w tym przypadku multiplikatywny wskaźnik sezonowości wyniósłby 1.4). Na wykresach szeregów cechą odróżniającą te dwa typy składników sezonowych jest to, że w przypadku addytywnym szereg przejawia równomierne wahania sezonowe, bez względu na ogólny poziom zjawiska; w przypadku multiplikatywnym, wielkość wahań sezonowych zmienia się w zależności od ogólnego poziomu szeregu.

    Addytywny i multiplikatywny składnik trend-cykl. Możemy rozwinąć poprzedni przykład w celu przedstawienia addytywnych i multiplikatywnych składników trendu-cyklu. Zostając przy przykładzie zabawek, trend będący wynikiem mody może wywołać równomierny wzrost sprzedaży (np. ogólne nastawienie na zabawki edukacyjne); tak jak składnik sezonowy, trend może być z natury addytywny (sprzedaż rośnie o 3 milionów dolarów rocznie) lub multiplikatywny (sprzedaż rośnie rocznie o 30% lub o czynnik 1.3). Dodatkowo na sprzedaż mogą wpływać składniki cykliczne; powtórzmy, składnik cykliczny różni się od składnika sezonowego tym, że ma zwykle dłuższy czas trwania i pojawia się w nieregularnych odstępach. Na przykład konkretna zabawka może mieć szczególne powodzenie w sezonie letnim (np. szczególnego rodzaju lalka, która jest związana z wejściem na ekrany ważnego filmu dla dzieci i towarzyszy jej duża kampania reklamowa). I znów, taki składnik cykliczny może oddziaływać na sprzedaż w sposób addytywny lub multiplikatywny.

    Metoda Census II

    Podstawową metodę dekompozycji i korekcji sezonowej naszkicowaną w punkcie Podstawowe idee i pojęcia można rozwinąć na kilka sposobów. W rzeczywistości, w odróżnieniu od wielu innych technik modelowania szeregów czasowych (np. modeli ARIMA ), które oparte są na pewnych modelach procesów stochastycznych, wariant X-11 metody Census II obejmuje po prostu wiele własności i udoskonaleń ad hoc, które po latach dowiodły, że dostarczają doskonałych estymatorów nadających się do zastosowania w rzeczywistym świecie (patrz Burman, 1979, Kendall i Ord, 1990, Makridakis i Wheelwright, 1989; Wallis, 1974). Niektóre ważniejsze poprawki zostały wymienione poniżej.

    Korekta uwzględniająca liczbę dni handlowych. Różne miesiące mają różną liczbę dni i różną liczbę dni handlowych. Analizując na przykład miesięczny dochód wesołego miasteczka zobaczymy, że różne liczby sobót i niedziel w różnych miesiącach z pewnością wpłyną istotnie na zmienność miesięcznych dochodów. Wariant X-11 metody Census II umożliwia użytkownikowi przetestowanie, czy taka zmienność ze względu na dni handlowe występuje w szeregu i pozwala na dokonanie odpowiedniej korekty.

    Wartości ekstremalne. Większość rzeczywistych szeregów czasowych zawiera obserwacje odstające, to znaczy ekstremalne wahania spowodowane rzadkimi zdarzeniami. Na przykład, strajk może wpłynąć na produkcję w pewnym miesiącu jednego roku. Takie ekstremalne obserwacje odstające mogą obciążać estymatory składników sezonowych i trendu. Procedura X-11 daje możliwości uporania się z wartościami ekstremalnymi przez zastosowanie "zasad kontroli statystycznej", to znaczy, wartości znajdujące się poniżej lub powyżej pewnego zakresu (wyrażonego przez wielokrotność odchylenia standardowego sigma) mogą zostać zmodyfikowane lub pominięte zanim zostaną obliczone ostateczne estymatory sezonowości.

    Poprawki wielokrotne. Poprawki ze względu na obserwacje odstające, wartości ekstremalne i różną liczbę dni handlowych mogą być stosowane więcej niż raz, w celu otrzymania coraz to lepszych estymatorów składników. Metoda X-11 stosuje serię kolejnych poprawek estymatorów, aby dojść do ostatecznej oceny trendu, wahań cyklicznych, sezonowych, sezonowych i nieregularnych oraz szeregu uwzględniającego sezonowość.

    Testy i statystyki opisowe. Oprócz estymacji głównych składników szeregu, można obliczyć rozmaite statystyki opisowe. Na przykład można przygotować tabele analizy wariancji w celu testowania istotności zmienności sezonowej i zmienności związanej z liczbą dni handlowych (patrz powyżej) w szeregu; procedura X-11 obliczy także procentową zmianę z miesiąca na miesiąc w składniku losowym i składniku trend-cykl. Gdy rośnie długość szeregu czasowego, wówczas rośnie udział wahań długookresowych w ogólnej zmienności, natomiast oczekujemy, że wahania losowe będą na tym samym poziomie. Przeciętna liczba miesięcy (lub kwartałów), w których wahania długookresowe i trend powodują zmianę poziomu szeregu równą w przybliżeniu rozmiarowi wahań losowych szeregu określana jest mianem okresu dominacji cyklicznej i wyrażana jest w miesiącach lub kwartałach (MCD lub QCD). Na przykład jeśli MCD równa się 2, to można wnioskować, że po 2 miesiącach efekt zmian długookresowych będzie większy niż wahania losowe. Te i rozmaite inne wyniki są omówione bardziej szczegółowo poniżej.

    Tabele wyników metody X-11/Y2K

    Obliczenia wykonane przy pomocy procedury X-11/Y2K najlepiej jest omówić w kontekście tworzonych tabel wyników. Proces korekcji dzieli się na siedem głównych kroków, które są zwyczajowo opisane kolejnymi literami od A do G.

    1. Korekcja wstępna (tylko korekcja sezonowa miesięczna).Przed wykonaniem jakiejkolwiek korekcji na szeregu czasowym danych miesięcznych, można dołączyć różne wstępne transformacje zdefiniowane przez użytkownika. Użytkownik może określić drugi szereg, którego wartości zostaną albo odjęte (model addytywny) od pierwotnego szeregu, albo pierwotny szereg zostanie podzielony przez te wartości (model multiplikatywny). Dla modeli multiplikatywnych można także określić wagi uwzględniające liczbę dni handlowych. Wagi te zostaną wykorzystane do skorygowania miesięcznych obserwacji w zależności od liczby odpowiednich dni handlowych reprezentowanych przez daną obserwację.
    2. Wstępna estymacja zmienności wynikającej z liczby dni handlowych (dane miesięczne) oraz wag.Na tym etapie oblicza się wstępne czynniki korekcji ze względu na liczbę dni handlowych (tylko przy danych miesięcznych) oraz wagi redukujące wpływ obserwacji ekstremalnych.
    3. Ostateczna estymacja zmienności wynikającej z liczby dni handlowych i wag nieregularnych (dane miesięczne).Korekty i wagi obliczone w punkcie B powyżej są następnie wykorzystane do wyznaczenia poprawionych ocen trendu i wahań długookresowych oraz składnika sezonowego. Te udoskonalone oceny zostają wykorzystane do obliczenia ostatecznych czynników określających zmienność wynikającą z liczby dni handlowych (tylko miesięczna X-11/Y2K) oraz wag.
    4. Ostateczna estymacja składników szeregu czasowego. Ostateczne czynniki i wagi obliczone w punkcie C powyżej wykorzystuje się do obliczenia ostatecznych ocen składników szeregu czasowego; trendu, wahań długookresowych, sezonowych oraz nieregularnych.
    5. Szereg pierwotny zmodyfikowany, sezonowo skorygowany i wahania nieregularne.Szeregi pierwotny i ostateczny skorygowany sezonowo oraz składnik nieregularny zostają zmodyfikowane ze względu na ewentualne wartości odstające. Wynikowy zmodyfikowany szereg umożliwia użytkownikowi badanie stabilności korekcji sezonowej.
    6. Okres dominacji cyklicznej (MCD, QCD), średnia ruchoma i miary opisowe.Na tym etapie zostają obliczone różne miary opisowe (patrz poniżej), które umożliwiają użytkownikowi analizowanie względnej ważności różnych składników, przeciętnych zmian z miesiąca na miesiąc (kwartału na kwartał), przeciętnej liczby kolejnych zmian w tym samym kierunku (przeciętnej liczby serii) itd.
    7. Wykresy.Wreszcie tworzymy rozmaite wykresy zestawiające wyniki. Na przykład, można wykreślić ostateczny szereg skorygowany sezonowo, w porządku chronologicznym lub dla kolejnych miesięcy (patrz poniżej).

    Szczegółowy opis wszystkich tabel wyników uzyskanych metodą X-11/Y2K

    W każdym z etapów analizy od A do G (patrz Tabele wyników metody X-11/Y2K ) tworzone są różne tabele wyników. Zwyczajowo tabele te są ponumerowane i także identyfikowane przy pomocy litery wskazującej odpowiednią część analizy. Na przykład tabela B 11 obrazuje początkowy szereg skorygowany sezonowo; C 11 to poprawiony szereg skorygowany sezonowo, a D 11 to ostateczny szereg skorygowany sezonowo. Poniżej znajduje się lista wszystkich dostępnych tabel. Tabele oznaczone gwiazdką (*) nie są dostępne (nie mają zastosowania) w analizie szeregów danych kwartalnych. (Ponadto dla korekcji kwartalnej niektóre obliczenia nieznacznie się różnią; na przykład do obliczenia wskaźników sezonowości zamiast średniej ruchomej 12-elementowej [miesięcznej] stosuje się średnią ruchomą 4-elementową [kwartalną]; wstępna ocena trendu jest obliczana przy pomocy wycentrowanej 4-wyrazowej średniej ruchomej, ostateczna ocena trendu w każdej części jest wyznaczana przy pomocy 5-wyrazowej średniej Hendersona).

    Zgodnie z konwencją metody X-11 przyjętej przez Amerykańskie Biuro Spisów Powszechnych, są oferowane trzy poziomy szczegółowości wydruku: standardowy (17 do 27 tabel), długi (27 do 39 tabel) i pełny (44 do 59 tabel). W opisie każdej poniższej tabeli, litery S, L i F zostały umieszczone za każdym tytułem, co wskazuje, które tabele zostaną wyświetlone i/lub wydrukowane przy odpowiednim ustawieniu opcji wyjścia (Dla wykresów dostępne są dwa poziomy szczegółowości: standardowy i pełny).

    Klikając poniżej nazwę tabeli uzyskamy więcej informacji na jej temat.

    *A 1. Szereg pierwotny (S)
    *A 2. Wstępne czynniki korekcji miesięcznej (S)
    *A 3. Szereg pierwotny skorygowany przez wstępne czynniki korekcji miesięcznej (S)
    *A 4. Wstępne czynniki korekcji ze względu na liczbę dni handlowych (S)
    B 1. Szereg skorygowany przez czynniki wstępne lub szereg pierwotny (S)
    B 2. Trend i wahania długookresowe (L)
    B 3. Niezmodyfikowane różnice lub ilorazy S-I (F)
    B 4. Wartości zastępcze dla ekstremalnych różnic (ilorazów) S-I (F)
    B 5. Wskaźniki sezonowości(F)
    B 6. Szereg skorygowany sezonowo (F)
    B 7. Trend i wahania długookresowe (L)
    B 8. Niezmodyfikowane różnice (ilorazy) S-I (F)
    B 9. Wartości zastępcze dla ekstremalnych różnic (ilorazów) S-I (F)
    B 10. Wskaźniki sezonowości (L)
    B 11. Szereg skorygowany sezonowo (F)
    B 12. (nie wykorzystany)
    B 13. Szeregi wahań nieregularnych (L)
    Tabele B 14 do B 16, B18 i B19: Korekcja zmienności związanej z liczbą dni handlowych. Te tabele są dostępne tylko wtedy, gdy analizujemy szeregi miesięczne. Różne miesiące zawierają różne liczby dni tygodnia (tzn. poniedziałków, wtorków itd.). W niektórych szeregach zmienność liczby dni handlowych może mieć istotny udział w wahaniach miesięcznych (np. miesięczne dochody wesołego miasteczka będą poważnie zależeć od liczby sobót i niedziel w każdym miesiącu). Użytkownik może określić początkowe wagi dla każdego dnia handlowego (patrz A 4 ), i/lub można te wagi oszacować na podstawie danych (użytkownik może także zastosować te wagi warunkowo, tzn. tylko jeśli wyjaśniają one istotną część wariancji.
    *B 14. Ekstremalne wartości nieregularne wyłączone z regresji szacującej wpływ zmienności liczby dni handlowych (L)
    * B 15. Wstępna regresja ze względu na liczbę dni handlowych (L)
    * B 16. Czynniki korekcji liczby dni handlowych wyprowadzone ze współczynników regresji (F)
    B 17. Wstępne wagi dla składnika nieregularnego (L)
    * B 18. Czynniki liczby dni handlowych wyprowadzone z połączonych wag dziennych (F)
    * B 19. Szereg pierwotny skorygowany ze względu na zmienność dni handlowych i zmienność określoną przez czynniki wstępne (F)
    C 1. Szereg pierwotny zmodyfikowany przez wstępne wagi i skorygowany ze względu na zmienność dni handlowych i zmienność określoną przez czynniki wstępne (L)
    C 2. Trend i wahania długookresowe (F)
    C 3. (nie wykorzystany)
    C 4. Zmodyfikowane różnice (ilorazy) S-I (F)
    C 5. Wskaźniki sezonowości (F)
    C 6. Szereg skorygowany sezonowo (F)
    C 7. Trend i wahania długookresowe (L)
    C 8. (nie wykorzystany)
    C 9. Zmodyfikowane różnice (ilorazy) S-I (F
    C 10. Wskaźniki sezonowości (L)
    C 11. Szereg skorygowany szeregowo (F>
    C 12. (nie wykorzystany)
    C 13. Wahania nieregularne (S)
    Tabele C 14 do C 16, C 18 i C 19: Korekcja ze względu na zmienność liczby dni handlowych. Tabele te są dostępne tylko w analizie szeregów miesięcznych i wtedy gdy zażyczymy sobie korekcji ze względu na zmienność liczby dni handlowych. W takim przypadku, czynniki korekcji liczby dni handlowych są obliczane na podstawie poprawionego skorygowanego szeregu, analogicznie do korekcji wykonanej w części B (B 14 do B 16, B 18 i B 19).
    * C 14. Ekstremalne wartości nieregularne wykluczone z regresji dni handlowych (S)
    * C 15. Ostateczna regresja ze względu na liczbę dni handlowych (S)
    * C 16. Ostateczne czynniki korekcji liczby dni handlowych wyprowadzone ze współczynników regresji (S)
    C 17. Ostateczne wagi dla składnika nieregularnego (S)
    * C 18. Ostateczne czynniki liczby dni handlowych wyprowadzone z łączonych wag dziennych (S)
    * C 19. Szereg pierwotny skorygowany ze względu na zmienność liczby dni handlowych i zmienność wynikającą z czynników wstępnych (S)
    D 1. Szereg pierwotny zmodyfikowany przez ostateczne wagi i skorygowanych ze względu na zmienność liczby dni handlowych i zmienność wynikającą z czynników wstępnych (L)
    D 2. Trend i wahania długookresowe (F)
    D 3. (nie wykorzystany)
    D 4. Zmodyfikowane różnice (ilorazy) S-I (F)
    D 5. Wskaźniki sezonowości (F)
    D 6. Szereg skorygowany sezonowo (F)
    D 7. Trend i wahania długookresowe (L)
    D 8. Ostateczne niezmodyfikowane różnice (ilorazy) S-I (S)
    D 9. Ostateczne wartości zastępcze dla ekstremalnych różnic (ilorazów) S-I (S)
    D 10. Ostateczne wskaźniki sezonowości (S)
    D 11. Ostateczny szereg skorygowany sezonowo (S)
    D 12. Ostateczny trend i wahania długookresowe (S)
    D 13. Ostateczny składnik nieregularny (S)
    E 1. Zmodyfikowany szereg pierwotny (S)
    E 2. Zmodyfikowany szereg skorygowany sezonowo (S)
    E 3. Zmodyfikowany szereg opisujący wahania nieregularne (S)
    E 4. Różnice (ilorazy) rocznych wartości ogółem (S)
    E 5. Różnice (zmiany procentowe) w szeregu pierwotnym (S)
    E 6. Różnice (zmiany procentowe) w ostatecznych szeregu skorygowanym sezonowo (S)
    F 1. Średnia ruchoma szacująca okres dominacji cyklicznej (S)
    F 2. Miary opisowe (S)
    G 1. Wykres (S)
    G 2. Wykres (S)
    G 3. Wykres (A)
    G 4. Wykres (A)
    Indeks


    Analiza z uwzględnieniem opóźnień Więcej informacji na temat innych metod dotyczących szeregów czasowych znajduje się w części Analiza szeregów czasowych - Indeks oraz w następujących punktach: Ogólny cel

    Analiza z uwzględnieniem opóźnień jest specjalistyczną techniką badania zależności między zmiennymi. Na przykład załóżmy, że produkujemy oprogramowanie komputerowe i chcemy określić zależność między liczbą otrzymanych zapytań a liczbą zamówień złożonych przez naszych klientów. Możemy te liczby rejestrować co miesiąc w okresie jednego roku, a następnie skorelować te dwie zmienne. Oczywiście zapytania poprzedzają rzeczywiste zamówienia i można oczekiwać, że liczba zamówień będzie z pewnym opóźnieniem odpowiadać liczbie zapytań. Innymi słowy wystąpi tutaj (czasowo) opóźniona korelacja między liczbą zapytań a liczbą otrzymanych zamówień

    Czasowo opóźnione korelacje występują szczególnie często w ekonometrii. Na przykład korzyści z inwestycji w środki trwałe zazwyczaj przynoszą efekty po jakimś czasie. Wyższe dochody mogą powodować zmianę w wyborze miejsca zamieszkania, jednakże zależność ta będzie opóźniona, ponieważ rezygnacja z aktualnego mieszkania, znalezienie nowego i przeprowadzka zajmują trochę czasu. Ogólnie, zależność między zgromadzeniem kapitału a wydatkami inwestycyjnymi będzie opóźniona, ponieważ wcielenie w życie decyzji inwestycyjnych zajmuje trochę czasu.

    We wszystkich tych przypadkach mamy niezależną zmienną objaśniającą, która wpływa na zmienne zależne z pewnym opóźnieniem. Opisywana metoda umożliwia analizę tych opóźnień.

    Szczegółowe rozważania na temat korelacji z uwzględnieniem opóźnień można znaleźć w tekstach ekonometrycznych, na przykład: Judge, Griffith, Hill, Luetkepohl i Lee (1985), Maddala (1977) oraz Fomby, Hill i Johnson (1984). W następnych akapitach zaprezentujemy krótki opis tych metod. Zakładamy, że Czytelnik jest zaznajomiony z pojęciem korelacji (patrz Podstawowe statystyki ), opóźnionej korelacji wzajemnej oraz podstawowymi zasadami regresji wielokrotnej (patrz Regresja wieloraka ).

    Ogólny model

    Załóżmy, że mamy zmienną zależną Y i zmienną niezależną lub objaśniającą X, które są wielokrotnie mierzone w czasie. W niektórych książkach zmienną zależną określa się jako zmienną endogeniczną, a zmienną niezależną lub objaśniającą jako zmienną egzogeniczną. Najprościej byłoby opisać związek między nimi przy pomocy prostej zależności liniowej:

    Yt = i*xt-i

    W równaniu tym, wartość zmiennej zależnej w czasie t jest wyrażona jako funkcja liniowa x mierzonego w czasie t, t-1, t-2 itd. Zatem zmienna zależna jest funkcją liniową x a x jest opóźnione o 1, 2 itd. okresy czasu. Wagi beta (bi) to parametry strukturalne modelu. Równanie to można uznać za szczególny przypadek ogólnego równania regresji liniowej (patrz wprowadzenie do regresji wielorakiej ). Jeśli wagi dla opóźnionych okresów czasu są istotne statystycznie, możemy powiedzieć, że zmienna Y zależy od odpowiednio opóźnionej zmiennej X.

    Rozkład opóźnień Almona

    Typowy problem, który często pojawia się podczas szacowania parametrów powyższego modelu wielokrotnej regresji liniowej, polega na tym, że sąsiadujące (w czasie) wartości zmiennej x są wysoce skorelowane. W skrajnych przypadkach, ich niezależny wkład w przewidywanie y może stać się na tyle redundantny, że nie można odwrócić odpowiedniej macierzy korelacji, a zatem nie można wyznaczyć wag beta. W mniej skrajnych przypadkach obliczenie wag beta i ich błędów standardowych może stać się bardzo nieprecyzyjne z powodu błędu zaokrąglenia. W kontekście regresji wielorakiej ten ogólny problem obliczeniowy jest stawiany jako zagadnienie współliniowości lub złego uwarunkowania macierzy.

    Almon (1965) zaproponował procedurę, która umożliwia zredukowanie wpływu współliniowości. Załóżmy, że wyrażamy każdą wagę w równaniu regresji liniowej w następujący sposób:

    i = 0 + 1*i + ... + q*iq

    Można wykazać, że w wielu przypadkach łatwiej jest (tzn. unikając problemu współliniowości) oszacować wartości alfa niż bezpośrednio wagi beta. Zauważmy, że przy tej metodzie precyzja ocen parametrów beta zależy od stopnia wielomianu aproksymującego.

    Błędy specyfikacji. Ogólny problem przy tej technice polega oczywiście na tym, że nie znamy a priori długości opóźnienia ani prawidłowego stopnia wielomianu. Skutki złej specyfikacji tych parametrów mogą być poważne (obciążenie estymacji). Bardziej szczegółowo kwestię tę rozważają Frost (1975), Schmidt i Waud (1973), Schmidt i Sickles (1975) oraz Trivedi i Pagan (1979).


    Analiza pojedynczego widma (Fouriera)

    Analiza widmowa służy do badania struktury harmonicznej szeregu czasowego. Celem tej analizy jest dekompozycja złożonego szeregu czasowego zawierającego składniki cykliczne na kilka podstawowych funkcji sinusoidalnych (sinus i cosinus) o określonych długościach fali. Pojęcie "widmo" jest odpowiednią metaforą natury tej analizy: załóżmy, że studiujemy wiązkę białego światła słonecznego, która wygląda na początku jak losowe (biały szum) nagromadzenie światła o różnych długościach fal. Kiedy jednak przepuścimy światło przez pryzmat, możemy odseparować różne długości fal lub składniki cykliczne, z których składa się białe światło słoneczne. Faktycznie, wykorzystując tę technikę możemy teraz zidentyfikować i wydzielić różne źródła światła. Zatem, identyfikując ważne podstawowe składniki cykliczne, dowiedzieliśmy się czegoś na temat interesującego nas zjawiska. W istocie, wykonanie analizy widma szeregu czasowego przypomina przepuszczenie szeregu przez pryzmat w celu identyfikacji długości fal i znaczenia podstawowych składników cyklicznych. W wyniku analizy można odkryć w interesującym nas szeregu czasowym kilka cyklów okresowych o różnych długościach, które na początku wyglądały na mniej lub bardziej losowy szum.

    Często przytaczanym przykładem analizy widmowej jest cykliczna natura aktywności plam słonecznych (np. patrz Bloomfield, 1976 lub Shumway, 1988). Okazuje się, że aktywność plam słonecznych ulega zmianie w cyklach 11 letnich. W literaturze, w celu zilustrowania tej techniki przytacza się także inne przykłady zjawisk astronomicznych, meteorologicznych, wahań w cenach towarów, działalności ekonomicznej itd. W odróżnieniu od modeli ARIMA lub wyrównywania wykładniczego , celem analizy widmowej jest identyfikacja wahań okresowych o różnej długości, podczas gdy w przypadku tamtych analiz okres składnika cyklicznego jest zazwyczaj znana (lub wywnioskowana) a priori, a następnie włączona do pewnego modelu teoretycznego średnich ruchomych lub autokorelacji.

    Klasyczną pozycją na temat analizy widmowej jest praca Bloomfielda (1976); można także sięgnąć do innych szczegółowych rozważań: Jenkins i Watts (1968), Brillinger (1975), Brigham (1974), Elliott i Rao (1982), Priestley (1981), Shumway (1988) lub Wei (1989).

    Więcej informacji znajduje się w części Analiza szeregów czasowych - Indeks i następujących punktach:


    Analiza widma wzajemnego

    Więcej informacji znajduje się w części Analiza szeregów czasowych - Indeks i następujących punktach:

    Ogólne informacje

    Analiza widma wzajemnego jest rozwinięciem Analizy pojedynczego widma (Fouriera) na jednoczesną analizę dwóch szeregów. W następnych akapitach zakładamy, że Czytelnik przeczytał już wprowadzenie do analizy pojedynczego widma . Szczegółowe rozważania na temat tej techniki można znaleźć w: Bloomfield (1976), Jenkins i Watts (1968), Brillinger (1975), Brigham (1974), Elliott i Rao (1982), Priestley (1981), Shumway (1988) lub Wei (1989).

    Silna okresowość danej częstotliwości. Najczęściej cytowany przykład analizy widmowej dotyczy cyklicznej natury aktywności plam na słońcu (np. patrz Bloomfield, 1976 lub Shumway, 1988). Okazuje się, że aktywność plam słonecznych zmienia się w cyklach 11 letnich. W celu zilustrowania techniki, w literaturze często wykorzystuje się inne przykłady zjawisk astronomicznych, meteorologicznych, wahań w cenach towarów, działalności gospodarczej itd.

    Celem analizy widma wzajemnego jest odkrycie korelacji między dwoma szeregami występujących w różnych częstotliwościach. Na przykład, aktywność plam słonecznych może wpływać na zjawiska atmosferyczne tu na ziemi. Jeśli tak, to gdybyśmy zarejestrowali te zjawiska (np. przeciętną roczną temperaturę) i poddali wynikowy szereg analizie widma wzajemnego łącznie z danymi na temat plam słonecznych, to moglibyśmy odkryć, że pogoda rzeczywiście koreluje z aktywnością plam słonecznych w 11-to letnim cyklu. To znaczy moglibyśmy odkryć okresowość w danych dotyczących pogody, która jest zsynchronizowana z cyklami plam słonecznych. Łatwo można sobie wyobrazić inne obszary badawcze, na których taka wiedza może okazać się bardzo użyteczna; na przykład, różne wskaźniki ekonomiczne mogą przejawiać podobne (skorelowane) zachowanie cykliczne; różne miary fizjologiczne będą prawdopodobnie przejawiać także "skoordynowane" (tzn. skorelowane) zachowanie cykliczne itd.

    Podstawowa notacja i zasady

    Prosty przykład
    Rozważmy następujące dwa szeregi z 16 wartościami:

     Zmn1Zmn2
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    1.000
    1.637
    1.148
    -.058
    -.713
    -.383
    .006
    -.483
    -1.441
    -1.637
    -.707
    .331
    .441
    -.058
    -.006
    .924
    -.058
    -.713
    -.383
    .006
    -.483
    -1.441
    -1.637
    -.707
    .331
    .441
    -.058
    -.006
    .924
    1.713
    1.365
    .266

    Na pierwszy rzut oka trudno zauważyć zależność między tymi dwoma szeregami. Jednak, jak pokazano poniżej, szeregi zostały utworzone tak, aby zawierały dwie silnie skorelowane okresowości. Poniżej znajdują się fragmenty sumarycznego arkusza wyników z analizy widma wzajemnego (oceny widma zostały wygładzone przy pomocy okna Parzena o szerokości 3).

    Niezal.(X): Zmn1
    Zal.(Y): Zmn2
     
    Częstot.
     
    Okres
    X
    Gęstość
    Y
    Gęstość
    Mieszana
    Gęstość
    Mieszana
    Kwadrat.
    Mieszana
    Amplit.
    0.000000
    .062500
    .125000
    .187500
    .250000
    .312500
    .375000
    .437500
    .500000
     
    16.00000
    8.00000
    5.33333
    4.00000
    3.20000
    2.66667
    2.28571
    2.00000
    .000000
    8.094709
    .058771
    3.617294
    .333005
    .091897
    .052575
    .040248
    .037115
    .024292
    7.798284
    .100936
    3.845154
    .278685
    .067630
    .036056
    .026633
    0.000000
    -.00000
    2.35583
    -.04755
    -2.92645
    -.26941
    -.07435
    -.04253
    -.03256
    0.00000
    0.00000
    -7.58781
    .06059
    2.31191
    .14221
    .02622
    .00930
    .00342
    0.00000
    .000000
    7.945114
    .077020
    3.729484
    .304637
    .078835
    .043539
    .032740
    0.000000

    Wyniki dla poszczególnych zmiennych

    Pełny sumaryczny arkusz wyników zawiera wszystkie statystyki widmowe obliczone dla każdej zmiennej, zgodnie z opisem w części przeglądowej Analiza pojedynczego widma (Fouriera) . Kiedy patrzymy na wyniki pokazane powyżej, widzimy, że obie zmienne przejawiają silne okresowości przy częstotliwościach 0,0625 i 0,1875.

    Periodogram mieszany, gęstość mieszana, gęstość kwadraturowa, amplituda mieszana

    Analogicznie do wyników pojedynczych zmiennych, pełny sumaryczny arkusz wyników zawiera także wartości periodogramu mieszanego. Jednakże widmo wzajemne składa się z liczb zespolonych , które mogą zostać podzielone na część rzeczywistą i urojoną. Mogą one zostać wygładzone w celu otrzymania ocen, odpowiednio, gęstości mieszanej i gęstości kwadraturowej. Przyczyny, dla których dokonujemy wygładzania ocen wstępnych oraz funkcje ważące wykorzystywane do wygładzania są omówione w części Analiza pojedynczego widma (Fouriera) . Pierwiastek kwadratowy sumy kwadratów wartości gęstości mieszanych i gęstości kwadraturowych nazywa się amplitudą mieszaną. Amplitudę mieszaną można interpretować jako miarę kowariancji między odpowiednimi składnikami okresowymi w dwóch szeregach. Zatem na podstawie wyników pokazanych w tabeli powyżej możemy wnioskować, że składniki o częstotliwościach 0,0625 i 0,1875 w obu szeregach wykazują współzmienność.

    Kwadrat koherencji, wzmocnienie i przesunięcie fazowe

    W pełnym sumarycznym arkuszu wyników mogą zostać wyświetlone także dodatkowe statystyki.

    Kwadrat koherencji. Wartości amplitudy mieszanej można zestandaryzować przez podniesienie ich do kwadratu i podzielenie przez iloczyn ocen gęstości widmowej dla obu szeregów. Wynik ten, nazywany kwadratem koherencji, można interpretować podobnie do kwadratu współczynnika korelacji (patrz Korelacja - Wprowadzenie ), to znaczy wartość koherencji jest kwadratem korelacji między składnikami cyklicznymi w dwóch szeregach dla danej częstotliwości. Jednakże wartości koherencji nie powinno się interpretować samych w sobie; na przykład, kiedy oceny gęstości widmowej w obu szeregach są bardzo małe, możemy otrzymać duże wartości koherencji (mianownik w obliczeniach wartości koherencji będzie bardzo mały), nawet jeśli nie występują silne składniki cykliczne w którymkolwiek z szeregów w danej częstotliwości.

    Wzmocnienie. Wartość wzmocnienia oblicza się przez podzielenie wartości amplitudy mieszanej przez oceny gęstości widmowej dla jednego z dwóch szeregów w analizie. Oczywiście oblicza się dwie wartości wzmocnienia, które można zinterpretować jako standardowe współczynniki regresji (uzyskane metodą najmniejszych kwadratów) dla danych częstotliwości.

    Przesunięcie fazowe. Wreszcie oblicza się oceny przesunięcia fazowego jako cotangens stosunku oceny gęstości kwadraturowej do oceny gęstości mieszanej. Oceny przesunięcia fazowego (zazwyczaj określanego grecką literą) są miarami stopnia, w jakim każdy składnik częstotliwości jednego szeregu wyprzedza drugi.

    Jak powstały dane przykładowe

    Wróćmy teraz do przykładowego zbioru danych. Duże wartości ocen gęstości widmowej dla obu szeregów oraz wartości amplitudy mieszanej przy częstotliwościach = 0,0625 i = 0,1875 sugerują występowanie dwu silnie zsynchronizowanych okresowości w obu szeregach. Istotnie, oba szeregi zostały utworzone jako:

    v1 = cos(2**.0625*(v0-1)) + .75*sin(2**.2*(v0-1))

    v2 = cos(2**.0625*(v0+2)) + .75*sin(2**.2*(v0+2))

    (gdzie v0 jest numerem wartości szeregu). Rzeczywiście, analiza pokazana w tej części przeglądowej odtworzyła bardzo dobrze okresowość wprowadzoną do danych.


    Analiza widmowa - Podstawowa notacja i zasady Więcej informacji znajduje się w części Analiza szeregów czasowych - Indeks i w następujących punktach:

    Częstotliwość i okres

    Długość fali funkcji sinus lub cosinus wyraża się standardowo w kategoriach liczby cykli na jednostkę czasu (częstotliwość), oznaczanej często grecką literą nu (; w niektórych książkach stosuje się f). Na przykład liczba listów przekazywanych przez pocztę może się charakteryzować 12 cyklami w roku. Pierwszego każdego miesiąca wysyła się dużą liczbę przesyłek (wiele rachunków ma termin płatności w pierwszym dniu miesiąca), następnie w środku miesiąca liczba przesyłek spada, by znów wzrosnąć na koniec miesiąca. Dlatego co miesiąc wahania liczby przesyłek załatwianych przez pocztę będą przechodzić pełny cykl. Zatem jeśli jednostką analizy jest rok, to równałoby się 12, ponieważ byłoby 12 cyklów w roku. Oczywiście prawdopodobnie wystąpiłyby inne cykle o innych częstotliwościach. Na przykład, mogą wystąpić cykle roczne (=1), oraz być może cykle tygodniowe (=52 tygodni w roku).

    Okres T funkcji sinus lub cosinus definiuje się jako długość czasu potrzebnego na jeden pełny cykl. Zatem jest to odwrotność częstotliwości tzn.: T = 1/. Wracając do przykładu przesyłek z poprzedniego akapitu, cykl miesięczny wyrażony w kategoriach roku byłby równy 1/12 = 0,0833. Tak więc w tym szeregu występuje okres o długości 0,0833 roku.

    Ogólny model strukturalny

    Jak wspomniano powyżej celem analizy widmowej jest dekompozycja oryginalnego szeregu na podstawowe funkcje sinus i cosinus o różnych częstotliwościach w celu wyznaczenia tych, które okazują się szczególnie silne lub ważne. Jednym ze sposobów wykonania tego byłoby przełożenie tej kwestii na problem regresji wielorakiej , gdzie zmienną zależną jest obserwowany szereg czasowy, a zmiennymi niezależnymi są funkcje sinus o wszystkich możliwych (dyskretnych) częstotliwościach. Taki liniowy model regresji wielorakiej może być zapisany jako:

    xt = a0 + [ak*cos(k*t) + bk*sin(k*t)]    (dla k = 1 do q)

    Zgodnie z powszechną notacją klasycznej analizy harmonicznej, w równaniu tym (lambda) oznacza częstotliwość wyrażoną w radianach na jednostkę czasu, to znaczy: = 2**k, gdzie jest stałą pi=3.1415... a k = k/q. Należy tutaj podkreślić, że obliczeniowy problem ciągu funkcji sinus lub cosinus może być rozważany w kategoriach wielorakiej regresji liniowej. Zauważmy, że parametry cosinusa ak i parametry sinusa bk są współczynnikami regresji, które określają stopień, w jakim odpowiednie funkcje są skorelowane z danymi. Ogółem występuje q różnych funkcji sinus i cosinus; intuicyjnie (co także jest omawiane przy regresji wielorakiej ), jest jasne, że nie możemy mieć więcej funkcji sinus i cosinus niż jest punktów danych w szeregu. Nie wchodząc w szczegóły, jeśli mamy N punktów danych w szeregu, to będziemy mieli N/2+1 funkcji cosinus i N/2-1 funkcji sinus. Innymi słowy, będziemy mieli tyle różnych fal sinusoidalnych, ile mamy punktów danych i będziemy w stanie kompletnie odtworzyć szereg w oparciu o funkcje podstawowe. (Zauważmy, że jeśli liczba obserwacji w szeregu jest nieparzysta, to ostatni punkt danych zostanie zazwyczaj pominięty; w celu zidentyfikowania funkcji sinusoidalnej, potrzebujemy przynajmniej dwóch punktów: górnej i dolnej wartości ekstremalnej).

    Podsumowując, analiza widmowa zidentyfikuje korelację funkcji sinus i cosinus o różnej częstotliwości z obserwowanymi danymi. Jeśli zostanie stwierdzona duża korelacja (duża wartość współczynnika przy sinusie lub cosinusie), można wnioskować, że w danych istnieje silna okresowość o danej częstotliwości.

    Liczby zespolone (liczby rzeczywiste i urojone). W wielu książkach na temat analizy widmowej, przedstawiony powyżej model strukturalny jest prezentowany w kategoriach liczb zespolonych, to znaczy proces estymacji parametrów opisuje się w kategoriach transformacji Fouriera szeregu na części rzeczywistą i urojoną. Liczby zespolone są zbiorem, który zawiera wszystkie liczby rzeczywiste i urojone. Liczby urojone są z definicji liczbami, które są pomnożone przez stałą i, gdzie i definiuje się jako pierwiastek kwadratowy z -1. Oczywiście pierwiastek kwadratowy z -1 nie istnieje, stąd pojęcie liczby urojonej; jednakże na liczbach urojonych można mimo to wykonywać sensowne operacje arytmetyczne (np. [i*2]^2= -4). Można wyobrazić sobie, że liczby rzeczywiste i urojone tworzą dwuwymiarową płaszczyznę, gdzie pozioma oś X reprezentuje wszystkie liczby rzeczywiste, a pionowa oś Y reprezentuje wszystkie liczby urojone. Liczby zespolone mogą być zatem przedstawione jako punkty na tej dwuwymiarowej płaszczyźnie. Na przykład, liczba zespolona 3+i*2 może być na takiej płaszczyźnie reprezentowana przez punkt o współrzędnych {3,2}. Liczby zespolone można sobie także wyobrazić jako kąty, na przykład można połączyć punkt reprezentujący liczbę zespoloną na płaszczyźnie z początkiem układu współrzędnych (liczbą zespoloną 0+i*0) i zmierzyć kąt tego wektora w stosunku do linii poziomej. Zatem można sobie wyobrazić, jak wzór dekompozycji widma pokazany powyżej, składający się z funkcji sinus i cosinus, można przeformułować w kategoriach operacji na liczbach zespolonych. Istotnie, ten sposób prowadzenia rozważań matematycznych i wymaganych obliczeń jest często bardziej elegancki i łatwiejszy do wykonania; oto dlaczego w wielu pracach preferuje się przedstawianie analizy widmowej przy pomocy liczb zespolonych.

    Prosty przykład

    Shumway (1988) prezentuje prosty przykład wyjaśniający podstawowy "mechanizm" analizy widmowej. Utwórzmy szereg o 16 wartościach zgodnie ze wzorem pokazanym niżej, a następnie zobaczmy, jak "wydobyć" zawartą w nim informację. Najpierw utwórzmy zmienną i zdefiniujmy ją jako:

    x = 1*cos(2**.0625*(v0-1)) + .75*sin(2**.2*(v0-1))

    Zmienną tę możemy utworzyć wpisując wzór jako długą etykietę zmiennej. Zmienna ta składa się z dwóch podstawowych okresowości. Pierwszej o częstotliwości =0,0625 (lub okresie 1/=16; jedna obserwacja wypełnia 1/16 pełnego cyklu, a pełny cykl kończy się co 16 obserwacji) i drugiej o częstotliwości =0,2 (lub okresie 5). Współczynnik przy cosinus (1,0) jest większy niż współczynnik przy sinus (0,75). Poniżej znajduje się sumaryczny arkusz wyników analizy widmowej utworzony w module szeregów czasowych.

     Analiza widmowa:ZMIENNA1 (shumex.sta)
    Liczba przypadków: 16
     
    t
    Często-
    tliwość
     
    Okres
    Cosinus
    Sinus
    Period-
    ogram
    0
    1
    2
    3
    4
    5
    6
    7
    8
    .0000
    .0625
    .1250
    .1875
    .2500
    .3125
    .3750
    .4375
    .5000
     
    16.00
    8.00
    5.33
    4.00
    3.20
    2.67
    2.29
    2.00
    .000
    1.006
    .033
    .374
    -.144
    -.089
    -.075
    -.070
    -.068
    0.000
    .028
    .079
    .559
    -.144
    -.060
    -.031
    -.014
    0.000
    .000
    8.095
    .059
    3.617
    .333
    .092
    .053
    .040
    .037

    Przejrzyjmy teraz kolumny. Wyraźnie widać, że największy współczynnik cosinus odpowiada częstotliwości 0,0625. Mniejszy maksymalny współczynnik przy funkcji sinus odpowiada częstotliwości 0,1875. Zatem widać, że dwie częstotliwości, które zostały wprowadzone do przykładowego zbioru danych znajdują odzwierciedlenie w naszym arkuszu wyników.

    Periodogram

    Funkcje sinus i cosinus są wzajemnie niezależne (ortogonalne); zatem w celu otrzymania periodogramu możemy zsumować kwadraty współczynników dla każdej częstotliwości. Wartości powyższego periodogramu zostały obliczone następująco:

    Pk = sinusk2 + cosinusk2 * N/2

    gdzie Pk jest wartością periodogramu przy częstotliwości k a N jest długością szeregu. Wartości periodogramu można interpretować w kategoriach wariancji (sumy kwadratów) odpowiadającej wahaniom o konkretnej częstotliwości lub okresie. Zwyczajowo wartości periodogramu zostają wykreślone względem częstotliwości lub okresów.

    Problem przeciekania

    W powyższym przykładzie do szeregu została wstawiona funkcja o częstotliwości 0,2. Jednak z powodu długości szeregu (16), żadna z częstotliwości przytoczonych w arkuszu wyników nie "trafia" dokładnie w tę częstotliwość. W praktyce zwykle w takich przypadkach wariancja właściwa odpowiedniej częstotliwości "przecieknie" do częstotliwości sąsiednich. Na przykład można odkryć duże wartości periodogramu dla dwóch sąsiednich częstotliwości, kiedy w rzeczywistości występuje tylko jedna mocna podstawowa funkcja sinus lub cosinus o częstotliwości, która wpada pomiędzy tamte, co wynika z długości szeregu. Istnieją trzy sposoby podejścia do problemu przeciekania:

    • Uzupełniając szereg można zastosować do danych precyzyjniejszy wykaz częstotliwości,
    • Przez temperowanie szeregu przed analizą można zredukować przeciekanie lub
    • Przez wygładzanie periodogramu można zidentyfikować pewne obszary częstotliwości, które mają istotny wkład w strukturę harmoniczną szeregu.
    Poniżej znajdziemy opisy poszczególnych podejść.

    Uzupełnianie szeregu czasowego

    Ponieważ wartości częstotliwości są obliczane jako N/t (liczba jednostek czasu), można po prostu uzupełnić szereg stałą (np. zerami) i tym samym wprowadzić mniejsze przyrosty wartości częstotliwości. W pewnym sensie uzupełnianie umożliwia zastosowanie do danych precyzyjniejszego zestawu częstotliwości. Gdybyśmy uzupełnili plik danych opisany w powyższym przykładzie dziesięcioma zerami, to wyniki nie zmieniłyby się, to znaczy największe szczyty periodogramu nadal pojawiałyby się przy wartościach częstotliwości najbliższych 0,0625 i 0,2. (Uzupełnianie jest także często pożądane z powodu efektywności obliczeń; patrz poniżej).

    Temperowanie

    Tak zwany proces temperowania podzielonego dzwonu cosinusoidy [split-cosine-bell tapering] jest zalecaną transformacją szeregu poprzedzającą analizę widmową. Zazwyczaj prowadzi ona do redukcji zjawiska przeciekania w periodogramie. Uzasadnienie tej transformacji zostało szczegółowo wyłożone przez Bloomfielda (1976, str. 80-94). W istocie pewna część danych (proporcja p) na początku i na końcu szeregu jest przekształcana poprzez pomnożenie przez wagi:

    wt = 0.5*{1-cos[*(t - 0.5)/m]}    (dla t=0 do m-1)
    wt = 0.5*{1-cos[*(N - t + 0.5)/m]}    (dla t=N-m do N-1)

    gdzie m zostało wybrane tak, że 2*m/N jest równe proporcji danych, które mają zostać temperowane (p).

    Okna widmowe i oceny gęstości widmowej

    W praktyce, gdy analizujemy rzeczywiste dane, zazwyczaj nie jest najważniejsze dokładne zidentyfikowanie częstotliwości szczególnych podstawowych funkcji sinus lub cosinus. Raczej z powodu tego, że wartości periodogramu podlegają znacznym wahaniom losowym, stajemy przed problemem wielu chaotycznych "pików" periodogramu. W takim przypadku chciałoby się znaleźć częstotliwości o największych gęstościach widmowych, to znaczy obszary częstotliwości składające się z wielu sąsiednich częstotliwości, które mają największy wkład w ogólną strukturę harmoniczną szeregu. Można to osiągnąć przez wygładzenie wartości periodogramu przy pomocy ważonej średniej ruchomej. Załóżmy, że okno średniej ruchomej ma szerokość m (musi to być liczba nieparzysta); poniżej przedstawiono najczęściej stosowane okna widmowe (zauważmy: p = (m-1)/2).

    Okno Daniella (lub równych wag). Okno Daniella (Daniell 1946) jest równoznaczne z prostym (równe wagi) wygładzaniem periodogramu przy pomocy średniej ruchomej, to znaczy każda ocena gęstości widmowej jest obliczana jako średnia z m/2 poprzednich i następnych wartości periodogramu.

    Okno Tukeya. W oknie Tukeya (Blackman i Tukey, 1958) lub Tukeya-Hanninga (nazwanym od Juliusa Von Hanna), dla każdej częstotliwości wagi dla ważonej średniej ruchomej wartości periodogramu oblicza się jako:

    wj = 0.5 + 0.5*cos(*j/p)    (dla j=0 do p)
    w-j = wj    (dla j 0)

    Okno Hamminga. W oknie Hamminga (nazwanym od R. W. Hamminga) lub Tukeya-Hamminga (Blackman i Tukey, 1958), dla każdej częstotliwości wagi dla ważonej średniej ruchomej wartości periodogramu oblicza się jako:

    wj = 0.54 + 0.46*cos(*j/p)    (dla j=0 do p)
    w-j = wj    (dla j 0)

    Okno Parzena. W oknie Parzena (Parzen, 1961), dla każdej częstotliwości wagi dla ważonej średniej ruchomej wartości periodogramu oblicza się jako:

    wj = 1-6*(j/p)2 + 6*(j/p)3    (dla j = 0 do p/2)
    wj = 2*(1-j/p)3    (dla j = p/2 + 1 do p)
    w-j = wj    (dla j 0)

    Okno Bartletta. W oknie Bartletta (Bartlett, 1950) wagi oblicza się jako:

    wj = 1-(j/p)    (dla j = 0 do p)
    w-j = wj    (dla j 0)

    Z wyjątkiem okna Daniella wszystkie funkcje wag przypiszą największą wagę tej obserwacji, która jest w środku okna, a coraz mniejsze wagi wartościom, które znajdują się dalej od środka. W wielu przypadkach, wszystkie te okna danych dadzą bardzo podobne wyniki.

    Przygotowanie danych do analizy

    Rozważmy teraz parę innych praktycznych kwestii analizy widma szeregu czasowego. Zazwyczaj przed przystąpieniem do analizy chcemy odjąć od szeregu średnią i wyeliminować trend (tak, aby mieć szereg stacjonarny ). W przeciwnym przypadku periodogram i gęstość widmowa będą w przeważającej części "przytłoczone" przez bardzo dużą wartość pierwszego współczynnika cosinus (dla częstotliwości 0,0). W pewnym sensie średnia jest cyklem o częstotliwości 0 (zero) na jednostkę czasu; to znaczy, jest stałą. Podobnie, mało interesuje nas trend, kiedy chcemy odkryć występujące w szeregu okresowości. Istotnie oba te potencjalnie silne efekty mogą maskować bardziej interesujące wahania okresowe, a zatem zarówno średnia jak i trend (liniowy) powinny zostać usunięte z szeregu przed przystąpieniem do analizy (domyślnie w module szeregów czasowych zostaną one usunięte). Czasami warto także przed analizą wygładzić dane w celu zmniejszenia znaczenia szumu losowego, który może zaciemniać znaczące cykle okresowe na periodogramie.

    Wyniki, gdy w szeregu nie występuje okresowość

    Co się stanie, jeśli w danych nie występują żadne cykle okresowe, to znaczy, jeśli każda obserwacja jest kompletnie niezależna od wszystkich innych obserwacji? Jeśli rozkład obserwacji jest normalny, szereg taki nazywa się także szeregiem białego szumu (podobnym do białego szumu, który słychać podczas przestrajania radia między stacjami). Wejściowy szereg białego szumu sprawi, że wartości periodogramu będą miały rozkład wykładniczy . Zatem testując rozkład wartości periodogramu względem rozkładu wykładniczego, można sprawdzić, czy szereg wejściowy różni się od białego szumu. Dodatkowo użytkownik może sobie także zażyczyć obliczenie statystyki d Kołmogorowa-Smirnowa dla jednej próby (patrz także Testy nieparametryczne i rozkłady , gdzie znajduje się więcej szczegółów).

    Test na biały szum w pewnych pasmach częstotliwości.Zauważmy, że możemy także wykreślić wartości periodogramu tylko dla określonego zakresu częstotliwości. Ponadto, jeśli na wejściu mamy dla tych częstotliwości biały szum (tzn. jeśli nie ma żadnych istotnych wahań cyklicznych o tych częstotliwościach), to rozkład wartości periodogramu powinien znów odpowiadać rozkładowi wykładniczemu .
    Indeks


    Szybkie przekształcenia Fouriera (FFT) Więcej informacji znajduje się w części Analiza szeregów czasowych - Indeks i w następujących punktach:

    Ogólne informacje

    Interpretacja wyników analizy widmowej znajduje się w punkcie Podstawowa notacja i zasady , jednakże nie opisaliśmy ich dotąd od strony obliczeniowej. Aż do połowy lat 60. standardowy sposób wykonywania dekompozycji widma polegał na bezpośrednim zastosowaniu wzorów w celu poszukiwania wartości dla parametrów przy funkcjach sinus i cosinus. Obliczenia takie wymagały przynajmniej N**2 (złożonych) operacji mnożenia. Zatem nawet przy dzisiejszych szybkich komputerach, wiele czasu zajęłoby przeanalizowanie dłuższego szeregu czasowego (np. 8000 obserwacji wymagałoby przynajmniej 64 milionów operacji mnożenia).

    Wymagany czas obliczeń uległ gwałtownej zmianie wraz z rozwojem tak zwanego algorytmu szybkiego przekształcenia Fouriera lub w skrócie FFT. W połowie lat 60. J.W. Cooley i J.W. Tukey (1965) spopularyzowali ten algorytm, który w rzeczywistości został odkryty niezależnie przez różne osoby. Wiele poprawek i udoskonaleń tego algorytmu można znaleźć w pracach Monro (1975) i Monro i Brancha (1976). Czytelnicy zainteresowani szczegółami obliczeniowymi tego algorytmu mogą odwołać się do tekstów cytowanych we wprowadzeniu. Wystarczy powiedzieć, że dzięki algorytmowi FFT czas potrzebny na wykonanie analizy widmowej jest proporcjonalny do N*log2(N).

    Jednakże wadą standardowego algorytmu FFT jest to, że liczba obserwacji w szeregu musi być równa potędze liczby 2 (tzn. 16, 64, 128, 256, ...). Zazwyczaj taki wymóg uzupełnienia szeregu, o czym była mowa powyżej, w większości przypadków nie spowoduje zmiany charakterystycznych wartości szczytowych periodogramu ani ocen gęstości widmowej. Jednakże w przypadkach, gdy jednostki czasu mają konkretne znaczenie pod względem interpretacji wyników analizy, uzupełnienie szeregu może utrudnić interpretację wyników.

    Obliczanie FFT w szeregach czasowych

    Implementacja algorytmu FFT pozwala użytkownikowi czerpać korzyści z oszczędności, jakie zapewnia ten algorytm. Na standardowych komputerach można łatwo analizować szeregi zawierające ponad 100000 przypadków. Należy jednak pamiętać o kilku sprawach, gdy analizujemy szeregi tej wielkości.

    Jak wspomniano wcześniej, standardowy (i najskuteczniejszy) algorytm FFT wymaga, aby długość szeregu wejściowego była równa potędze 2. Jeśli tak nie jest, to muszą zostać wykonane pewne dodatkowe obliczenia. Wykorzysta on proste bezpośrednie wzory obliczeniowe, pod warunkiem, że szereg wejściowy jest względnie mały, a obliczenia mogą zostać przeprowadzone w relatywnie krótkim czasie. Aby wykorzystać algorytm FFT do długich szeregów czasowych, wykorzystuje się implementację ogólnego podejścia opisanego przez Monro i Brancha (1976). Metoda ta wymaga istotnie więcej pamięci, chociaż i tak można analizować bardzo szybko szereg o sporej długości, nawet jeśli liczba obserwacji nie jest równa potędze liczby 2.

    Dla szeregów o długości nierównej potędze 2 zalecamy: jeśli szereg wejściowy jest mały lub średniej wielkości (np. ma tylko kilka tysięcy obserwacji), to nie ma się czym martwić. Analiza i tak zwykle zajmie kilka sekund. Jeśli analizujemy średnio długie i bardzo długie szeregi (np. ponad 100000 obserwacji), uzupełniamy szereg, aby długość była równa potędze 2, a następnie temperujemy szereg w czasie wstępnej analizy danych.






    © Copyright StatSoft, Inc., 1984-2011
    STATISTICA is a trademark of StatSoft, Inc.