Имя материала: Эконометрика Книга вторая Часть 4

Автор: Носко Владимир Петрович

Тема 5.2 прогнозирование по моделям ar, ma, arma, arima

 

Пусть имеем ряд наблюдений xt9 t = 1, Г. Если динамика ряда не обнаруживает систематических компонент в форме долговременного тренда или сезонности, то по этим наблюдениям можно построить коррелограмму ряда и на ее основе попытаться идентифицировать модель порождения этого ряда как:

процесс скользящего среднего МА(#);

стационарный процесс авторегрессии AR(p);

стационарный процесс ARMA(p, q).

Однако случайный процесс, порождающий ряд наблюдений, может и не быть стационарным. Например, он может содержать детерминированный и/или стохастический тренд. Первоначально подход Бокса — Дженкинса (Бокс, Дженкинс, 1974)) предлагал предварительно остационаривать ряд наблюдений и уже после этого применять процедуру идентификации модели. При этом остационаривание ряда наблюдений производится путем перехода от исходного рядах, к ряду его разностей (дифференцирование ряда):

 

Если полученный ряд все еще нестационарный, то операция дифференцирования повторяется вплоть до получения стационарного ряда.

Некоторое осложнение в применении метода Бокса — Дженкинса вызывает то обстоятельство, что при использовании этого метода возможно получение «передифференцированного» ряда, при оценивании и при использовании которого для целей прогнозирования возникают определенные технические трудности. Это происходит, например, в случае, когда ряд xt является рядом, стационарным относительно линейного тренда. В последнем случае для оста-ционаривания ряда следует вычесть из него соответствующий детерминированный тренд (разумеется, на практике производится оценивание этого тренда, и вычитается оцененный тренд). В свою очередь, если ряд имеет стохастический тренд, то вычитание из этого ряда оцененного детерминированного тренда не приводит к стационарному ряду. В связи с этим перед применением метода Бокса — Дженкинса обычно принимают решение о том, как производить остационаривание ряда: используя дифференцирование ряда или вычитая из него оцененный тренд.

Первоначально основой для принятия одного из этих двух решений являлся анализ коррелограммы ряда. Для коррелограммы интегрированного ряда характерно достаточно медленное затухание выборочной автокорреляционной функции г(к) и близкое к 1 значение этой функции на единичном запаздывании (значение г()). Однако подобный характер коррелограммы имеют и ряды с детерминированным линейным трендом, дифференцирование которых нежелательно. Поэтому в настоящее время решение принимают, основываясь на результатах проверки в отношении ряда xt гипотезы единичного корня. Некоторые статистические критерии для проверки этой гипотезы были рассмотрены во второй части учебника. Наиболее распространенным инструментом проверки гипотезы о наличии единичного корня является критерий Дики — Фуллера, предполагающий, что рассматриваемый процесс можно представить в виде процесса AR(/?):

a(L)xt =єг

Критерий Дики — Фуллера имеет варианты, описывающие различные типы поведения реализаций процесса и учитывающие значение р.

Если временной ряд обладает выраженной сезонностью, то перед применением критерия Дики — Фуллера рекомендуется провести «десезонизацию» ряда, т.е. применять этот критерий к ряду остатков, полученных при оценивании уравнения регрессии ряда на все сезонные дамми-переменные (при этом константа не включается в оцениваемое уравнение).

Если гипотеза единичного корня не отвергается, то для достижения стационарности ряда его следует продифференцировать. Если для достижения стационарности ряд xt приходится дифференцировать d раз и полученный в результате ряд оказывается стационарным типа ARMA(p, q то говорят, что ряд xt является интегрированным (проинтегрированным) рядом порядка d (1(d)), и для такого ряда используется обозначение ARIMA(/?, d, q). Чаще всего на практике приходится иметь дело с интегрированными рядами не выше второго порядка.

Критерий Дики — Фуллера можно применять и тогда, когда ряд xt описывается смешанной моделью авторегрессии — скользящего среднего. Дело в том, что если ряд наблюдений xl9 ..., хт. порождается моделью ARIMA(/?, 1, q)

с q > О, то его можно аппроксимировать моделью ARIMA(/?*, 1, 0) с р* < ъ4т и применять процедуру Дики — Фуллера к этой модели.

Пусть xt — случайный процесс, порождающий ряд наблюдений. Наблюдаются значения хп t = 1, Т7, до момента Твключительно и нужно построить прогноз значения этого ряда на следующий момент времени (Т + 1). Обозначим такой прогноз хт+цТ. Совокупность значений QT = {хп t = 1, Г} можно трактовать как информационное множество, содержащее всю имеющуюся информацию, на основании которой строится прогнозное значение, так что это прогнозное значение есть некоторая функция от Qr, хт+цТ = g(QT). Чтобы получить в такой ситуации в некотором смысле наилучший (оптимальный) прогноз, необходим критерий, на основании которого можно было бы сравнивать разные прогнозы (с различными функциями g). Для выбора такого критерия обычно используют концепцию функции потерь, состоящую в принятии соглашения о том, что ошибка в прогнозе на величину А приводит к издержкам (потерям, cost) С(А), где C(z) — некоторая функция, для которой С(0) = 0 и C(z) > О при z Ф 0. Если такая функция выбрана, то издержки прогноза хт+! | т = g(QT) равны С(ет+ J | г), где

ет+\т =хт+ ~ё(^т) —ошибка прогнозаg(Qr).

Естественный критерий выбора наилучшего точечного прогноза на момент (Т+ 1) состоит в выборе такого прогноза, для которого минимизируются ожидаемые издержки Е(С(ет+цТ)С1т). Здесь математическое ожидание соответствует условному распределению случайной величины хт+ { при использовании информационного множества Qr. Наиболее часто используется квадратичная функция потерь C(z) = bx2, b > 0. В этом случае оптимальный прогноз имеет вид:

хт+11 т — Е (хт+11 ^г)-

Если нас интересует прогноз значения ряда на момент (Т + h),h = 1,2, то оптимальный прогноз имеет вид:

хт+ит ~ Е(хт+и ^т)-Заметим, что если временной ряд порождается моделью

xt~f (0 + £t9   £t~ i-i-d-*   Е(єг) = °>   D(st) = (j2>   0 < cr2 < oo,

то тогда

E(xT+h І Пг) = E(f(T + h) + sT+h QT) = f(T + h),

т.е. оптимальный прогноз не зависит от содержания информационного множества. Разумеется, такой вывод предполагает знание точного значения/(Г+ А), тогда как на практике это значение также приходится оценивать на основе имеющейся информации, и тогда большее количество информации может улучшить качество прогноза по оцененной модели.

Предположим теперь, что имеем дело с остационаренным надлежащим образом рядом х„ и этот ряд описывается стационарной (в широком смысле) моделью AR(p), MA(q) или ARMA(p, q). Рассмотрим процедуры построения оптимальных прогнозов по таким моделям в ситуации, когда коэффициенты модели известны. Для упрощения записи будем обозначать оптимальный точечный прогноз ряда на h шагов вперед на основе информации QT = {х„ t = 1,..., Т} как fTh, а ошибку такого прогноза — как ет h.

 

Прогнозирование по модели AR(p). Если имеем временной ряд, порождаемый процессом AR(1)

xt = a0+axxt_x +єп то оптимальный точечный прогноз на один шаг вперед равен

fTX = E(xT+l j Qr) = a0 + E(axxT | Qr) + Е(єт+1 Пт) = а0+аххт. Оптимальный точечный прогноз на два шага вперед равен: fT 2 = Е(хт+21 Пт) = я0 + E(axxT+l | Qr) + Е(єт+21 Qr) =

= а0 + ахЕ(хт+1 Пт) = а0+а1(а0+а1хт) = (1 + а1)а0+ ахт. И, вообще, оптимальный точечный прогноз на h шагов вперед равен: fTt h = E(xT+h IQT) = (1 + ax + a +... + ahx~l) a0 + ahxxT. Поскольку у стационарного AR(1) процесса ax < 1, при h —> оо

 

-ax

где ju — математическое ожидание процессах,.

По той же причине

аххт -> 0 (в среднем квадратичном),

так что с увеличением h влияние значения хт на прогноз значения xT+h убывает, а само прогнозное значение приближается к математическому ожиданию процесса хг

Заметим еще, что ошибка оптимального прогноза на один шаг равна:

ет, 1 = хт+ ~ /т, 1 = £т+ •

Отсюда вытекает, что последовательность ошибок одношаговых прогнозов процесса AR(1) образует процесс белого шума.

Если имеем дело со стационарным процессом авторегрессии порядка /?, так что

х, = а0 + axxt_x +... + apxt_p + st,

то для такого процесса:

/т, і = Е (*г+11 Qr) = ао + ахЕ(хт | Пт) +... + apE(xT_p+l Пт) + Е (ет+1 Пт) = = а0+а1хт+... + архт_р+19

/Т, 2 = Е(ХТ+2 | Qr ) = а0 + *1£(*Г+1 | Qr ) + ... + ^(^Г-р+2 | Qr ) + ^(ЄТ+2 QT ) = = «о + *і/т; і + (а2*г + • • • + арХТ-р+2 )>

Л, з = Я(*т-+з | Qr ) = ао + аЕ(хт+21 Qr ) + • • • + аРЕ(хт-Р+з \&Т) + Е Отчз | Qr ) = = а0+ axfT x+a2fT2+(a3xT+...+ архт_р+3),...

Вообще, правило получения оптимального прогноза на h шагов вперед, по сути, таково.

Берется явное представление для xT+h9 т.е.

xT+h - ао + ахт+и- + ••• + apxT+h-P + ^г+л»

и все входящие в правую часть случайные величины Xj заменяются их оптимальными прогнозами. При этом если j > Т9 то ху заменяется наfT,j-T> если же j < Т9 то в правую часть подставляется значение, содержащееся в информационном множестве QT. Значение єт+И заменяется нулем. Этот алгоритм фактически является последовательной процедурой, поскольку для получения значения fTh необходимо предварительно ВЫЧИСЛИТЬfTii9fTt29 ~-9fr,h--

 

Прогнозирование по модели ma(q). Рассмотрим сначала скользящее среднее первого порядка

xt = st + bxst_x, где st — процесс белого шума с E(st) = 0.

Оптимальный прогноз на один шаг вперед равен:

fTt х = E(xj+X | Qr) = Е(єт+11QT) + ЬхЕ(єт QT) = bxsT. Ошибка этого прогноза равна:

Єт { — хт+х — fTX — £т+х,

так что и здесь последовательность ошибок одношаговых прогнозов образует процесс белого шума. Замечая, что єт = хт-х, получаем соотношение

/т, 1 = ^1 (хт ~ /т-, 1)'

дающее возможность последовательно вычислять прогнозы на один шаг вперед, начиная с некоторого начального значения f0 х. Это значение является неопределенным, из-за этого приходится ограничиваться моделями скользящего среднего, в которых влияние прошлых значений ослабевает с течением времени, так что конкретный выбор начального значения /0 х не играет существенной роли (если, конечно, значение Гне слишком мало). В модели МА(1) такое свойство имеет место при выполнении условия ЬХ < 1, а это есть условие обратимости модели, о чем говорилось во второй части учебника. Учитывая, что E{st) = О, естественно положить/0 j = 0.

Если h > 1, то оптимальный прогноз на h шагов вперед равен:

fTh = E(xT+hПТ) = E(sT+hInT) + bxE(€T+h_x ІПг) = 0.

Заметим, что если рассматривается модель с постоянной составляющей:

xt = /л + є, + bxst_x,

то оптимальный прогноз на h > 1 шагов вперед равен //, а оптимальный прогноз на один шаг вперед равен fTX = /и + Ьхєт. При этом соотношение /т, і = bx (хт -fT_ j х) заменяется на/гл = /л + Ъх (хт -fT_ ь х), и на этот раз естественно положить f0 х = /л.

Рассмотрим теперь модель МА(#):

xt=st+bxst_x+... + bqst_q.

Поскольку хт+х = єт+х + Ьхєт + ... + bgsT_g+x, оптимальный прогноз на один шаг вперед равен:

/Т, = b\£T+'- + bq£T-q+\>

и ошибка этого прогноза равна

ет, 1 = хт+1 ~/т, 1 = єт+1 •

Требующиеся для вычисления fTX значения ет, єт_д+х получаем по формуле ет = хт - /Т_Л. Неопределенность значения fox преодолевается аналогично предыдущему: значения є0, є_х, єх_ полагаются равными 0, что дает fox = 0. И опять такой выбор не будет существенно влиять на искомый прогноз, если Т достаточно велико и если для рассматриваемой модели выполнено условие обратимости.

Подобная процедура реализуется и при вычислении прогноза на h шагов вперед, где h < q. В выражении для xT+h все величины, входящие в правую часть, заменяются их оптимальными прогнозами. При этом будущие значения et заменяются нулями, а текущее (єт) и прошлые значения et оцениваются по формуле ет = хт - fT_! х с выбором начальных значений є0 = є_х = ... = = єх_д = 0, так что/0 х = 0. При h > q в выражение для xT+h входят только будущие (по отношению к моменту Т) значения ег Поэтому

E(xT+hQT) = E(eT+h) = 0 для h > q.

Если рассматривается модель с постоянной составляющей: xt=fi + et+bl€t_l+... + bqet_q9

тогда при том же выборе є0 = £_! = ... = sx_q - 0 получаем естественное начальное значение /0 х - /л.В этом случае прогноз на большее, чем q, количество шагов вперед равен /и, т.е. математическому ожиданию процесса хг

 

Прогнозирование по модели ARMA(p, q). Прогнозирование для таких моделей производится в соответствии с алгоритмами, используемыми для моделейАЯ(/?) и МА(#).

Рассмотрим простейший случай — модель ARMA(1, 1) с нулевым математическим ожиданием. Тогда

.Ху^і — ахх^   ^т+   Ь\^т ?

и оптимальный прогноз на один шаг вперед равен

fT і = аххт + bx єт,

ГДЄ Ej—Xj — fj_ j j.

Далее:

xT+2 = a{xT+l +£T+2 +Ь{єт+{,

так что fT2 = Яі/т;і> /г,з = а/т,і - аїт, и Т-Д- Иначе говоря, оптимальный прогноз здесь или экспоненциально убывает к математическому ожиданию процесса (при 0 < ах < 1), или представляет собой затухающую волну (при -1 <ах< 0).

J Замечание 5.2.1. Можно показать (см., например, (Tsay, 2005)), что для произвольного стационарного процесса ARMA(p, q) оптимальный прогноз на h шагов вперед сходится при h —> оо к математическому ожиданию этого процесса (свойство «возвращения к среднему» (mean reverting)).

Интервальные прогнозы. При использовании точечных прогнозов в реальных ситуациях может наблюдаться значительное отклонение прогнозируемых значений от наблюдаемых в действительности. В связи с этим представляет интерес построение интервальных прогнозов, обеспечивающих заданный уровень доверия.

Пусть

xt — стационарный временной ряд с нулевым математическим ожиданием, порождаемый моделью ARMA(p, q):

р ч

 

j= j=0

или в компактной форме:

a(L)xt = Ь(Ь)єг

Во второй части учебника уже отмечалось, что такой процесс можно представить в виде процесса МА(оо) — скользящего среднего бесконечного порядка:

 

j = 0

7=0

где c(z) = 2^CjZJ = ——

a(z)

c0=l.

Коэффициенты cl9 c2, ... можно найти, приравнивая коэффициенты при одинаковых степенях z в левой и правой частях соотношения a(z)c(z) = b(z).

При таком представлении процесса xt оптимальный прогноз записывается в виде:

Подпись: T+h-j

= Е

/г, a =E(XT+hQT) = E

 

^CjST+h_jQT

1<у

 

+ Е

T+h-j

 

 

; От

 

 

T+h-j •>

f=h

так что ошибка прогноза на h шагов вперед равна:

А-1

eT,h ~ XT+h ~ fr,h ~ ^ltCjST+h-j*

 

Поскольку слагаемые не коррелированы между собой и их математические ожидания равны нулю, то

ЩеТ9к) = Е(е1к) = *1\%с2г

1=0

В частности, дисперсия ошибки прогноза на один шаг вперед равна:

D(eTl) = cr2£.

Если инновации et имеют нормальные распределения, то

h-

N

у-о ;

так что

и интервальным прогнозом для xT+h с уровнем доверия (1-а) является интервал

/г+А "Z,   а ае

fh- Л

1<2

 

1         

2

> /т+h +Z,   a (J,

і»?

W=° J

Как и в случае регрессионных моделей, замена истинного неизвестного значения а2 на его оценку а2 несколько изменяет распределение. При такой замене полученный интервал является приближенным, причем получаемый интервальный прогноз оказывается оптимистическим: он недооценивает действительную изменчивость значений прогноза из-за неучета того факта, что для реальных данных истинная модель не известна, а подбирается и оценивается по этим данным, что должно приводить к ухудшению качества прогноза по сравнению с прогнозом по истинной модели. Указанное ухудшение становится несущественным при оценивании модели по большому количеству наблюдений. Разумеется, производя построение прогноза на будущее, надо всегда иметь в виду, что прогноз может иметь смысл только в предположении, что модель порождения данных не изменится на прогнозном периоде (или изменится несущественно).

Отметим некоторые общие свойства ошибок прогнозов для моделей ARM А.

1.         Ошибки одношаговых прогнозов ети ет+хх, ет+2Х, ... образуют после-

довательность не коррелированных между собой случайных величин,

тогда как ошибки прогнозов на h > 2 шагов вперед eTh, eT+xh, eT+lh, ...

в общем случае коррелированы между собой.

/7-1

2.         Из представления D(eT h) = g ]Г<^ непосредственно следует, что

7=0

D(eLh+l)>D(eLh

так что точность прогноза убывает с удалением в будущее.

3.         Если устремить h —> оо, то получим:

//-►оо

 

ПшО(е^) = а2£^-

7=0

В то же время если использовать МА(оо) представление для хп то из него следует:

 

D(xt) = E

7=0

Иначе говоря, MmD(eTh) = D(xt т.е. условная (при информации QT)

дисперсия ошибки «удаленного» прогноза близка к безусловной дисперсии самого процесса.

Прогнозирование для моделей ARIMA. Пусть х, — процесс типа ARIMA(p, d, q так что процесс yt = (1 - L)dxn полученный ^/-кратным дифференцированием процесса хп является процессом типа АЮЛА(р, q). Тогда при построении прогнозов значений ряда xt естественно использовать прогнозные значения, получаемые для стационарного процесса yt рассмотренными выше методами. Пусть f?h и f/h — прогнозы на h шагов вперед для процессов х, иуп построенные в момент Г. Тогда

/т,Н =0-^) fr,h->

где оператор L действует на индекс   так что, например, при d = 1 имеем:

fr,h ~ 0~^)/^А = /г, Л ~/г,Л-1» /т, h = /т, Л-1 + /т,И •

Таким образом, прогнозирование может осуществляться в два этапа: на первом — производится прогноз для стационарного ряда уп а на втором — находится прогноз для нестационарного ряда хг

Впрочем, можно обойтись и без двухшаговой процедуры. Пусть рассматриваемый процесс удовлетворяет соотношению

a(L)(l-L)dxt=b(L)sn

где a(L) и b(L) — многочлены степеней р и q соответственно.

Тогда A(L) = a(L)( - L)d — многочлен степени P=p + d,

A(L) = l-AlL-A2L2-...-ApLp,

р ч

х, - Z aj xt-j = Z bj et-j > v=1 >

так что

P я

 

j= j=0

и можно производить прогнозирование, используя эту модель непосредственно, как и в стационарном случае.

Дисперсия прогноза на h шагов вперед на этот раз равна:

D(eT,h) = <jYtc2j,

j=0 где Cj находятся приравниванием коэффициентов при одинаковых степенях z

00

в левой и правой частях соотношения A(z)C(z) = b(z)9 a C(z) = ^CjZJ, С0 = 1.

Затруднение, связанное с необходимостью оценивать значения єп мож-

но преодолеть, как и ранее, двумя способами. Можно положить значения

£*0,     sx_q равными нулю или использовать для их оценивания процедуру

обратного прогноза (backcasting), рассмотренную ранее в разд. 1 ч. 2. В большинстве практических ситуаций оба эти подхода дают близкие результаты. Исключениями являются случаи, когда в модели a(L)( - L)dxt = b(L)st хотя бы один из многочленов a(z) и b(z) имеет корень, близкий к границе единичного круга, или когда временной ряд рассматривается на достаточно коротком периоде.

 

Замечание 5.2.2. Прогнозы будущих значений ряда, получаемые с использованием моделей экспоненциального сглаживания, рассмотренных при изучении темы 5.1, являются одновременно оптимальными прогнозами для соответствующих моделей ARIMA. Например, прогноз по модели простого экспоненциального сглаживания соответствует оптимальному прогнозу по модели ARIMA(0, 1,1) = = IMA(1, 1).

 

Во второй части учебника с использованием пакета ЕViews были построены подходящие модели для некоторых экономических временных рядов. Теперь будем применять построенные модели для прогнозирования будущих значений соответствующих показателей.

 

ПРИМЕР 5.2.1

В задании 26 второй части учебника предлагалось подобрать стационарную модель ARMA для ряда данных о количестве произведенных всеми отделениями фирмы General Motors Corp транспортных средств (грузовиков, легковых машин и автобусов) за период с 1970 по 1990 г. (ряд Xt). Критерий Дики — Фуллера отвергает гипотезу единичного корня для этого ряда (задание 41 из второй части учебника), так что подбор модели можно производить непосредственно для ряда уровней. Коррелограмма ряда указывает на модель AR(3). Диагностика не выявляет нарушений стандартных предположений об ошибках в оцененной AR(3) модели. Незначимость коэффициента при запаздывании на две единицы времени позволяет оставить в модели только запаздывания на одну и три единицы времени; эта же редуцированная модель выбирается и при использовании критерия Шварца. Именно эту модель используем для прогнозирования значений ряда на 1991 и 1992 гг.

Средняя абсолютная процентная ошибка прогноза равна 9.1\%. При этом доля ошибки, связанная со смещением прогнозных значений относительно наблюдаемых, равна 0.999, и это хорошо видно на рис. 5.41, где приведены график ряда Xt на периоде с 1970 по 1992 г. и прогнозные значения XF этого ряда.И

 

ПРИМЕР 5.2.2

Рассмотрим квартальные данные об объеме валового национального продукта США за период с I квартала 1947 г. по IV квартал 1960 г. (рис. 5.42). Ряд имеет выраженный тренд, так что для идентификации модели порождения ряда его надо остационарить, рассматривая его как TS- или DS-ряд.

Поскольку данные квартальные, перед применением критерия Дики — Фуллера надо бы выполнить десезонизацию ряда. Однако часто бывают доступными только уже сезонно-скорректированные данные, и именно такими

являются имеющиеся у нас данные. Поэтому пропускаем эту стадию анализа и применяем критерий Дики —Фуллера к самому ряду наблюдений. На основании коррелограммы ряда разностей последний может быть идентифицирован как AR(1) — соответственно в правую часть уравнения Дики — Фуллера включаем одну запаздывающую разность. В правую часть уравнения вводим также константу и тренд. Гипотеза единичного корня отвергается, и это приводит к решению о том, что рассматриваемый ряд стационарен относительно линейного тренда. Но тогда дифференцировать ряд не надо, и следует производить оценивание ряда в уровнях. Результаты оценивания приведены в табл. 5.15.

Оцененная модель проходит диагностические тесты, поэтому используем ее для прогноза (сезонно-скорректированных) объемов GNP на 4 квартала 1961 г. При этом средняя абсолютная ошибка прогноза оказывается существенно меньшей, чем в предыдущем примере: МАРЕ = 1.197\%, хотя поведение ряда прогнозных значений оставляет желать лучшего: велики значения Bias Proportion (0.545) и Variance Proportion (0.444), а значение Covariance Pro-portion близко к нулю. Эти цифры отражает график на рис. 5.43.

Между тем естественно возникает вопрос: а что было бы, если бы последовали первоначальной методике Бокса — Дженкинса, т.е., обнаружив тренд в динамике ряда, стали бы этот ряд дифференцировать? При таком подходе получаем ряд разностей GNPDIF, график которого уже не содержит тренда (рис. 5.44).

Ряд разностей уже был идентифицирован как AR(1). Поэтому остается оценить AR(1) модель для ряда GNPDIF. Результат оценивания приведен в табл. 5.16.

 

Оценка модели для ряда разностей

Dependent Variable: GNPJDIF; Sample (adjusted): 1947:3 1960:4

Оцененная модель проходит диагностические тесты, поэтому используем ее для построения прогноза ряда GNP на 4 квартала 1961 г. Для полученного в результате прогноза МАРЕ = 1.865\% в сравнении со значением МАРЕ =1.197\% для прогноза, построенного ранее по модели для уровней, так что (с точки зрения МАРЕ) прогноз по самому ряду оказался примерно в 1.5 раза более точным. ■

 

ПРИМЕР 5.2.3

Рассмотрим данные об объемах производства тканей в Российской Федерации в период 2002—2006 гг. (месячные данные) — ряд TKANI (рис. 5.45). Тренда в поведении ряда нет, он больше похож на стационарный. Если принять эту точку зрения (применение критериев единичного корня ее подтверждает), то нет необходимости в дифференцировании ряда, и можно пытаться идентифицировать модель порождения ряда непосредственно по его коррело-грамме. На коррелограмме обращают на себя внимание пики автокорреляционной функции на лагах 12 и 24, отражающие наличие сезонности в представленных данных.

             TKANI

 

Рис. 5.45

 

Используя стандартную процедуру подбора стационарной модели ARMA к имеющимся статистическим данным, получим в качестве одного из вариантов модель AR(10) с константой и 11 сезонными дамми-переменными, из которой затем исключаются переменные со статистически незначимыми оценками коэффициентов. Результаты оценивания редуцированной модели приведены в табл. 5.17.

Используем полученную модель для построения прогнозов на 12 месяцев 2007 г. На рис. 5.46 приведены графики ряда TKANI (ряд X) и ряда его прогнозных значений (ряд XF).

            X         XF

 

Рис. 5.46

 

На этот раз значение Covariance Proportion весьма велико (0.829872), а значения Bias Proportion и Variance Proportion весьма малы (0.016586 и 0.153542, соответственно). Это говорит о хорошем согласовании поведения ряда прогнозов XF с поведением наблюдаемого ряда X на прогнозном периоде, что наглядно демонстрирует рис. 5.46.И

ПРИМЕР 5.2.4

Уровни безработицы в США в период 1987—1990 гг. (месячные данные) образуют ряд USAUNEMP, график которого показан на рис. 5.47. Обозначив для краткости Х = USAUNEMP и очистив этот ряд от сезонности (с помощью дам-ми-переменных), получим ряд XDES, для которого производим проверку гипотезы единичного корня. Гипотеза единичного корня не отвергается. Поэтому следует подбирать модель не к самому ряду Х9 а к ряду его разностей D(X). На коррелограмме этого ряда имеется значимая автокорреляция на лаге 5, поэтому в качестве первоначального варианта подбираем модель AR(5). Диагностика оцененной модели не выявляет нарушений стандартных предположений. Поэтому можно перейти к редукции оцениваемой модели, в ходе которой из ее правой части исключаются константа и составляющая AR(2). На результатах диагностики это не отражается, но в редуцированной модели все оцененные коэффициенты статистически значимы. Следовательно, можно использовать последнюю модель для прогнозирования. Построим прогноз уровней безработицы на первые 10 месяцев 1991 г. Совместный график наблюдаемых и прогнозных значений приведен на рис. 5.48. Здесь значение Covariance Proportion достаточно велико (0.582832), но велико и значение Bias Proportion (0.404464).

Интересно сравнить рассчитанные прогнозы с адаптивными прогнозами, полученными методом двойного экспоненциального сглаживания и методами Хольта — Винтерса с аддитивной и мультипликативной сезонностью (выбор параметров сглаживания оставляем компьютерной программе). На рис. 5.49 представлены для сравнения график самого ряда X и графики четырех упомянутых прогнозов.

Оба варианта метода Хольта — Винтерса дают худшие прогнозы. Двойное экспоненциальное сглаживание (прогноз по прямой) дает результаты, близкие к полученным по подобранной эконометрической модели ряда.И

 

ПРИМЕР 5.2.5

При рассмотрении примера 5.1.7 (в рамках темы 5.1) применяли процедуру простого экспоненциального сглаживания к ряду xt = Indn не задавая заранее значение параметра а, а предоставляя программе самой выбрать оптимальное значение этого параметра. Это привело к значению а = 0.914. Там же мы обратили внимание на то, что прогнозные значения xt+l на один шаг вперед оказапись практически равными текущим значениям хг Попробуем подобрать для этого ряда наблюдений модель типа ARIMA.

Гипотеза единичного корня для ряда xt не отвергается критериями Дики — Фуллера, Филлипса — Перрона и другими. В то же время гипотеза стационарности не отвергается критерием KPSS. Соответственно сделать определенный вывод о наличии или об отсутствии единичного корня здесь невозможно. Поэтому имеет смысл попробовать произвести построение прогнозов на основе как подобранной стационарной модели, так и подобранной Л^-модели.

Подбор ^-модели приводит к модели случайного блуждания xt = xt_x + єп но для такой модели оптимальный прогноз на любое количество шагов вперед (в том числе и на один шаг вперед), сделанный в момент Т и использующий информационное множество Qr, совпадает со значением ряда в момент Т. Именно это мы и наблюдали в примере 5.1.7.

Если подбирать стационарную модель в уровнях, то после исключения переменных со статистически незначимыми оценками коэффициентов получим результаты, приведенные в табл. 5.18. Имеем модель, практически не отличающуюся от случайного блуждания.■

 

В примере 5.2.5 оказалось невозможным сделать определенный вывод о наличии или об отсутствии единичного корня в отношении рассматриваемого ряда. Как лучше проводить прогнозирование в таких случаях? Отметим лишь некоторые исследования, проводившиеся в этом направлении.

В работе (Campbell, Perron, 1991) моделировались стационарные ряды, близкие к интегрированным, затем производился подбор TS- и ^-моделей по смоделированным данным, и по этим моделям строились прогнозы поведения рядов на 1 и 20 шагов вперед. Альтернативные модели сравнивались по величине среднеквадратической ошибки прогноза. Полученные результаты говорили о том, что стационарные ряды, близкие к интегрированным, лучше прогнозировать, (ошибочно) считая их интегрированными.

В работе (Clements, Hendry, 2000) предпринято исследование качества прогнозов по DS- и Г5-моделям в зависимости от того, соответствует ли используемая для прогнозирования статистическая модель (SM) истинному процессу порождения данных (DGP — data generating process). Статистическое моделирование приводит к следующим результатам.

Изменение DGP в направлении «другой» модели (DS или TS) может приводить при небольших значениях Т к тому, что прогнозы по статистической модели, соответствующей DGP (т.е. по «своей» модели), оказываются менее точными. Это особенно важно для практических ситуаций, в которых различение между TS- и ^-моделью бывает довольно затруднительным.

В работе (Diebold, Kilian, 2000) проводится систематическое исследование того, до какой степени предварительное тестирование на наличие единичного корня влияет на качество прогноза при различных степенях инерционности процесса, различных горизонтах прогнозирования и различных объемах выборок. Внимание концентрируется на случае одномерного процесса авторегрессии с трендом и высокой инерционностью, особенно интересном для экономики и финансов. Под инерционностью (persistence) процесса понимается сохранение влияния реализованного значения инновации в момент t на последующие значения ряда. Для невзрывного AR(1) процесса

xt = pxt_x + sn 0<р<1,

степень инерционности возрастает при увеличении значения р от 0 до 1. При р = 0 инерционность отсутствует вовсе. При 0 < р < 1 влияние реализованного значения инновации в момент t на последующие значения ряда убывает с продвижением в будущее. При р = 1 (случайное блуждание) влияние реализованного значения инновации в момент t на последующие значения ряда сохраняется неизменным.

В работе исследуется AR(1) процесс с трендом, представляемый в компонентной форме как сумма линейного тренда Г, и процесса AR(1):

yt=Tt+xn

где Tt = а + bt,   xt = pxt_x + st.

Процесс параметризуется в соответствии с квартальными данными о послевоенном реальном ВНП в США: авторы полагают а = 7, Ъ - 0.0065 и а = 0.0099. Рассматриваются значения р є {0.5, 0.9, 0.97, 0.99, 1} и Т є {25, 30:10:80; 100:20:180; 200:40:1000}, включающие подходящие степени инерционности и объемы выборок для годовых, квартальных, месячных, недельных и дневных данных.

Сравниваются три модели прогнозов: AR(1) в уровнях с линейным детерминированным трендом (L — для «уровней»), случайное блуждание со сносом (D — для «разностей») и модель, предлагаемая предварительными тестами Дикки — Фуллера, использующими 5\%-е критические значения для конечных выборок (Р — для «претестовых» моделей). Общей задачей является предсказание уровней рядов на горизонтах А от 1 до 100 периодов вперед. В качестве характеристики прогноза каждой модели берется безусловная среднеквадратическая ошибка прогноза (PMSE), вычисляемая по 20 000 реализаций алгоритма Монте-Карло. Для каждого значения р вычисляются отношения PMSE(D)/PMSE(L), PMSE(D)/PMSE(P) и PMSE(P)/PMSE(L) для всех комбинаций значений h и Т. Ниже приведены результаты, полученные для различных пар моделей, между которыми производится выбор:

D&L (модель в разностях или модель в уровнях). В этой связке полученные результаты указывают на предпочтительность дифференцирования в случаях, когда размер выборки небольшой или умеренный, а процесс имеет высокую инерционность, и на предпочтительность модели в уровнях в случае малоинерционных процессов или при больших выборках в случае высокоинерционного процесса.

D&P (модель в разностях или модель, рекомендуемая на основании результатов предварительного тестирования на наличие/отсутствие единичного корня). В этой связке отношение PMSE(D)/PMSE(P) либо близко к 1, либо превосходит 1, так что использование претеста предпочтительнее, чем безоглядное дифференцирование. Это означает, что при построении моделей с целью прогнозирования не рекомендуется следовать стратегии Бокса — Дженкинса непременного дифференцирования ряда для достижения стационарности.

L&P (модель в уровнях или модель, рекомендуемая на основании результатов предварительного тестирования на наличие/отсутствие единичного корня). В этой связке отношение PMSE(P)IPMSE(L) не везде меньше 1, однако преимущество претестового подхода проявляется на большей части пространства эксперимента. Это также ставит под сомнение опирающуюся на асимптотические результаты стратегию непременного построения прогнозируемых моделей в уровнях.

Далее были дополнительно смоделированы ряды, имитирующие:

ВНП на душу населения США — годовые данные;

реальный ВНП США — квартальные данные;

индекс промышленного производства США — месячные данные;

индекс Доу — Джонса — дневные данные.

Поскольку предварительное тестирование явно лучше, чем обязательное дифференцирование, упор делается на сравнении метода предварительного тестирования (метод Р) и метода обязательного использования модели в уровнях (метод L). Предложенные рекомендации:

для годовых данных (Т = 40 - 160 и h = 1 - 100) — использовать предварительное тестирование при наличии не более 70 годовых данных, а для большего количества наблюдений — при очень высокой инерционности ряда;

для квартальных данных (Т = 80 - 200 и А = 1 - 16) — использовать предварительное тестирование для процессов с корнями 0.97 и выше и метод L при меньших значениях корней;

для месячных данных (Т = 240 - 480 и h = 1 - 48) — предварительное тестирование имеет смысл только для процессов с корнями, равными 0.99 или выше. Во всех других случаях метод L предпочтительнее;

• для дневных данных (Т = 360 - 720 и h = 1 - 90) — предварительное тестирование имеет смысл, только если ряд в высшей степени инерционен, а именно имеет значения корней 0.99 и выше. В противном случае следует предпочесть метод L.

Указанные рекомендации могут показаться порочным кругом, поскольку они предполагают знание корня DGP. На практике точечные OLS-оценш корней макроэкономических рядов обычно превышают 0.97 для годовых данных, превышают 0.99 для квартальных данных и значительно превышают 0.99 для дневных данных. Более того, наличие смещения ОХ^-оценок при малых выборках если и приводит, то только к недооценке истинных значений корней. Отсюда можно сделать вывод, что фактически предварительное тестирование рекомендуется при проведении реального прогнозирования макроэкономических рядов, имеющих трендовое поведение.

у/ Замечание 5.2.3. При сравнении TS- и ^-моделей авторы указанных выше работ не занимались уточнением спецификации этих моделей в направлении исключения из них переменных со статистически незначимыми коэффициентами. И это имеет некоторую аргументацию.

Если анализируется качество прогнозов на один шаг вперед, то оцененная полная модель, обладая наименьшей остаточной суммой квадратов по сравнению с оцененными редуцированными моделями, полученными на ее основе, имеет наилучшие показатели качества одношаговых прогнозов в пределах периода, на котором эта модель оценивалась, по крайней мере, в отношении RMSE. В то же время (см., например, работу (Энтов и др., 2002)), указанное преимущество полной модели никак не гарантирует того, что полная модель обязательно даст лучшее качество одношаговых прогнозов при выходе за пределы интервала, на котором модель оценивалась. Однако (см. ту же работу) и выбор по информационному критерию Шварца не гарантирует того, что в рамках DS- или Г^-моделей выбранная по этим критериям из нескольких вариантов модель обязательно даст лучшие результаты прогнозов за пределами интервала, по которому эти модели оценивались. Выбор для сравнения качества прогнозов именно «полных» TS- и Л£-моделей оправдан лишь с точки зрения определенности выбора модели.

J Замечание 5.2.4. В практической работе при поступлении свежих данных приходится решать вопрос о том, как производить прогнозирование на будущий период: с учетом всех имеющихся на данный момент данных (включая вновь поступившие) или со сдвигом выборки (добавлением в нее «самого свежего» значения и отбрасыванием «самого старого» по времени значения). В первом случае говорят о рекурсивном методе (recursive forecast), а во втором — о методе скользящего окна (rolling forecast). В рекурсивном методе пред-прогнозный период увеличивается по мере увеличения данных. В методе скользящего окна длина предпрогнозного периода постоянна; при получении новых статистических данных старые данные исключаются, что приводит к появлению некоторого подобия окна, через которое просматриваются данные и которое последовательно смещается вперед по оси времени.

При применении рекурсивного метода не происходит потери информации. Однако в периоды экономической неустойчивости и кризисов важно быстро адаптировать модель к изменившимся условиям, и с этой точки зрения предпочтительнее выглядит метод скользящего окна. В то же время использование «слишком узкого» окна, включающего мало наблюдений, приводит к некачественному оцениванию параметров модели, что, в свою очередь, может приводить к неудовлетворительным прогнозам. Вопрос о выборе между указанными двумя методами рассматривался многими авторами. Мы отметим здесь лишь работу (Энтов и др., 2002), в которой подобное исследование проводилось на примере нескольких макроэкономических рядов Российской Федерации.

 

Сравнение качества прогнозов, полученных по различным моделям

Пусть

хи, х2„ t = 1, ..., h — прогнозные значения временного ряда хп полученные на основе моделей 1 и 2; g(xn xit) — функция потерь,

g(xnxit) = g(eit

где eit — ошибка прогноза, eit = х, - х/7, / = 1, 2.

Чтобы определить, предсказывает ли одна из моделей лучше другой, можно проверить нулевую гипотезу об отсутствии различий между прогнозными свойствами двух моделей Я0: E[g(eu)] = E[g(e2t)] против альтернативной гипотезы НА: E[g(eu)] Ф E[g(e2t)]. Диболд и Мариано (Diebold, Mariano, 1995) предложили проверять эквивалентную Н0 гипотезу о равенстве нулю среднего уровня разности между функциями потерь сравниваемых моделей:

H0:E(dt) = 0,  где  dt = g(eu)-g(e2t). Предположим, что последовательность dt стационарна и представима в фор-

00 00

ме процесса скользящего среднего dt = // + X^/6W' где ^° = Х|^/|<00'

d = — S]dn a2 = у0 + lSyd(k) — долговременная дисперсия2 ряда dn у(к) =

Тогда1 при h -> оо выполняется соотношение Jh(d - /и)—^—>N(09cr2)9 где

= Cov(dn dt_k) — автоковариации этого ряда. При этом

 

-^ЛҐ(ОЛ),

так что для проверки гипотезы E(dt) = 0 можно использовать статистику Диболда — Мариано (DM—Diebold-Mariano statistics):

 

DM =

Подпись:
где <т2 — состоятельная оценка долговременной дисперсии.

Статистика Диболда — Мариано представляет собой /-статистику для проверки гипотезы Н0: /и = 0 в статистической модели dt = /и + ип t = 1, 2, h, с коррекцией стандартной ошибки оценки параметра для учета автокоррели-рованности ряда dr Для практического ее применения следует использовать критические значения, определяемые по таблице стандартного нормального распределения. Разумеется, ориентироваться на результаты проверки нулевой гипотезы здесь можно только в асимптотическом плане, т.е. для достаточно длинных последовательностей прогнозов.

 

Разложение Бевериджа — Нельсона

В теме 1.1 этого раздела уже говорилось о некоторых возможных разложениях (декомпозициях) временного ряда на несколько компонент. Еще одно разложение можно получить, предполагая, что рассматриваемый ряд xt принадлежит классу ARIMA(p, 1, q).

Пусть ряд xt порождается моделью ARIMA(0, 1,1):

Axt = a + £t +yst_x,

t = l 2,...,

1          См. (Андерсон Г., 1976, гл. 7).

2          Определение долговременной дисперсии ряда было дано в разд. 10 ч. 2 учебника. Там же рассматривался вопрос о состоятельном оценивании долговременной дисперсии.

где st ~ i.i.d. случайные величины.

Для простоты пусть х0 = 0, є0 = 0. Тогда

xt = а + xt_x + st + yst_x =а + (а + xt_2 + ям 4-yst_2) + st + yst_x = t        t- t = at + Ya£i+YlLsj =at + ( + Y)Yssi-y£t'

i=        j= i=

Обозначив

DTt=at9   STt=( + y)£sn Ct=-ysn 1=1

получим представление ряда xt в виде:

xt =DTt+STt+Ct =DTt+Zn

где DTt— детерминированный тренд в х,;

Zt — стохастическая компонента ряда, являющаяся суммой двух компонент: стохастического тренда STt и циклической компоненты Сг

Циклическая компонента представляет собой стационарный случайный процесс с нулевым средним. Стохастический тренд включает все случайные шоки (инновации) от єх до єп которые имеют перманентное влияние на уровень хг Сумма xtp = DTt + STt представляет итоговый тренд и является перманентной компонентой (permanent component) ряда хп а С, — транзитивной компонентой (transitive component) этого ряда, так что

X,   — X,    ~~ С; j •

Перманентную компоненту можно представить в виде:

t t-

xf =at + ( + y)YJsl=a + a(t-) + ( + y)Y,£i+( + y)£t = /=і /=і

= а + х?_х+( + у)єп

т.е. перманентная компонента представляет собой случайное блуждание со сносом.

Сгенерируем реализацию процесса ARIMA(0, 1, 1), полагая а = 0.01, у- 0.3 и €t ~ lid. tV(0, 0.052). Тогда перманентная компонента суть случайное блуждание с параметром сноса а - 0.01 и инновациями 1.3^, а транзитивная компонента равна -0.3єг Сгенерированная реализация и ее компоненты представлены на рис. 5.50.

Декомпозиция Z, = STt + С, стохастической компоненты ряда на стохастический тренд STt и циклическую компоненту С„ полученная выше, может быть обобщена на любую модель типа ARIMA(p, 1, q). Беверидж и Нельсон (Beveridge, Nelson, 1981) показали, что каждый такой ряд можно представить

в виде суммы стохастического тренда и стационарной компоненты. Такое представление и называется разложением (декомпозицией) Бевериджа — Нельсона.

Пусть стохастическая компонента ряда порождается моделью

A(L)Zt=B(L)sn   t = 1,2,...,

где A(L) и B(L) — полиномы порядков р и q соответственно, причем полином A(L) имеет единичный корень, так что A(L) = (1 - L)A*(L), и все корни полинома A*(L) лежат за пределами единичного круга на комплексной плоскости.

Тогда

(-L)AL)Zt =А (L)(-L)Zt=A (L)AZn

и для ряда первых разностей стохастической компоненты выполняется соотношение

A*(L)AZt =B(L)sr

Отсюда получаем:

bZ,=ALyxB{L)st =¥{L)E,=(y,() + (-L)¥L))st,

где ¥L) = (-L)-\¥(L)-¥()).

Применяя к обеим частям последнего соотношения оператор (1 - L)~ приходим к представлению

При выводе этого представления предполагается, что Z0 = 0 и є0 = 0. В противном случае (если порождение ряда начинается в момент t = 1) надо учесть еще и начальные значения:

Z, = zo +         +y/L)st -y/*(L)s0.

/=і

 

Передифференцированные одномерные временные ряды

В литературе по временным рядам часто присутствует предостережение о возможном получении в результате дифференцирования передифференцированного ряда (overdifferenced series). Такая ситуация возникает, например, если берутся разности ряда, который уже является стационарным.

Известно, что многие представляющие интерес модели стационарных случайных процессов обладают представлением Вольда в виде скользящего среднего (MAR — moving average representation), но также известно, что многие представляющие интерес модели стационарных случайных процессов не имеют авторегрессионного представления (ARR — autoregressive representation).

Пусть стационарный процесс xt с нулевым математическим ожиданием имеет представление Вольда

xt -st + bxst_x +b2st_2 +--- = ( + bxL + b2l} +...)єп

00

где Y,bj <0°-

7=1

Если с ростом j коэффициенты bj достаточно быстро убывают по абсолютной величине, то процесс х, можно аппроксимировать процессом скользящего среднего конечного (хотя, может, и достаточно большого) порядка q:

xt =st +bxst_x +--- + bqst_q =( + bxL + -- + bqLq)st =b(L)sn где b(L) = ^bjLJ.

7=1

При этом если все q корней уравнения b(z) = 0 лежат вне единичного круга И < 1 (условие обратимости), то существует эквивалентное представление МА(д) процесса xt в виде процесса авторегрессии бесконечного порядка AR(oo):

00

Xt=Y;dJXt-j+St> 7=1

ИЛИ

d(L)xt =єп

где

d(L) = -±djV и ±d)«*.

y=i       b(L) J=X

Отсюда вытекает, что при выполнении условия обратимости стационарный процесс МА(д) можно аппроксимировать процессом авторегрессии AR(p):

р

 

(быть может, достаточно высокого порядка р). Прогноз значения хт+х по наблюдениям хх, х2, ..., хт определяется в таком случае как условное ожидаемое значение хт+х для аппроксимирующей модели AR(7):

т

Е(хт+Х хт, хт_х,..., хх) = ^ dj xT+l_j

У=і

и является линейной проекцией случайной величины хт+х на линейное подпространство случайных величин, порожденное случайными величинами

ХХ , Х2 9  . . Xj-.

В качестве примера рассмотрим процесс МА(1)

xt=st + bxst_x = (l + bxL)sn С5-1)

где €t ~ i.i.d., с нулевым средним и конечной дисперсией.

Этот процесс стационарный, и его представление Вольда и есть уравнение (5.1). Если ЬХ < 1, то существует авторегрессионное представление (ARR) ряда xt в виде:

00

xt=Y,djXt_j+sr

7 = 1

Коэффициенты dl9 d2, ... можно найти, обращая оператор (1 + bxL)

(+bxLyx xt = єп

так что

(-bxL + bxL2x           )xt =єп

откуда

xt = 1 + bxxt_x -bxxt_2 + ••• + £,. При bx < 1 коэффициенты

dj=(-l)J+lbi

быстро убывают по абсолютной величине, что дает возможность аппроксимировать обратимый МА(1) процесс процессом авторегрессии не очень высокого порядка.

Рассмотрим, однако, процесс

X, =£t-€t_Y =(l~L)£n

который получается в результате дифференцирования процесса белого шума:

х, = Аєг

Поскольку у этого процесса Ьх = -1, то в качестве наивного «кандидата» на ARR в этом случае хотелось бы взять процесс AR(oo) с dj = -1. Но тогда

00

^dj = оо, и авторегрессионное представление для ряда х, не определено.

7=1

Если все же использовать в качестве наивного прогноза значение, соответствующее dj = -1, т.е.

т т

^     XT+-j = —2 XT+-j ~ ~(Х + Х2          *~ ХТ )

7=1 7=1

(заметим, что правая часть равна є0 - єт)9 то такой прогноз не будет оптимальным. Ошибка этого прогноза равна:

ХТ+ ~ К~(Х + Х2   ХГ )] = (ЄТ+ ~~ ЄТ )        0    ЄТ ) = ^ Г+1 ~ ^0'

а дисперсия ошибки прогноза равна

D(sT+x-s0) = 2cr29

что примерно в 2 раза больше, чем у оптимального прогноза. Сам оптимальный прогноз является линейной проекцией случайной величины хт+х на линейное подпространство случайных величин, порожденное случайными величинами Xi, х2, ..., хг, а эта проекция в данном случае равна1:

"Ху ~~           Xy_j "I-          Ху_2 "т~ * * * ~Ь Xj

ҐТ-      Т-2        Т-3    I Л

Т

Т + 2

Дисперсия ошибки оптимального прогноза равна <т2 ——j- и стремится к а2 при Т—>оо.

Мы предположили, что знаем значение коэффициента Ьх и оно равно Z?! = -1. В реальных ситуациях значение Ьх неизвестно и необходимо оценивать его по наблюдениям х{9 х2, хг. Рассмотрим, какие особенности возникают здесь в случае Ьх=-.

1 См. (Hamilton, 1994, Chapter 4).

Смоделируем для этого реализацию стандартного гауссовского белого шума єХ9 sl9     б"50 и по этой реализации построим ряд х, = et - st_x (t = 2, 50).

Заметим, что если дисперсия первого ряда оценивается по выборке как (1.01)2, то дисперсия продифференцированного ряда оценивается как (1.49)2.

Коррелограмма продифференцированного ряда явно указывает на его МА(1) характер.

Близкое к граничному (-0.5) значение автокорреляции на лаге 1 указывает на близость коэффициента Ьх к значению -1.

Оценивание МА(1) модели с приравниванием «начального» значения єх нулю дает результаты, приведенные в табл. 5.19. Оценка коэффициента Ьх существенно отличается от значения -1.

Таблица 5.19

Оценка модели с приравниванием г, = 0

Sample (adjusted): 2 50; Included observations: 49 after adjusting endpoints; Convergence achieved after 6 iterations', Backcast: OFF

 

Переменная

Коэффициент

Стандартная ошибка

/-статистика

Р-значение

MA(1)

-0.844299

0.078206

-10.79589

0.0000

R-squared

0.411521

Mean dependent var

-0.048304

Adjusted R-squared

0.411521

S.D. dependent var

1.490832

Страница: | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 |