Имя материала: Эконометрика Книга первая Часть 2

Автор: Носко Владимир Петрович

Часть 2 регрессионный анализ временных рядов раздел 7 стационарные временные ряды. модели arma тема 7.1 стационарные модели arma

 

Общие понятия

Под временным рядом (time series) в экономике понимается ряд значений некоторой переменной, измеренных в последовательные моменты времени. Для многих рядов измерения производятся через равные промежутки времени (годовые, квартальные, недельные, дневные данные). Если принять длину такого промежутка за единицу времени (год, квартал, неделя, день), то можно считать, что последовательные наблюдения х{9 хп переменной jc произведены в моменты t = 1, п. Впрочем, для некоторых экономических и финансовых показателей производить измерения через равные промежутки времени не удается. Например, значения биржевых индексов на момент закрытия фиксируются только в те дни, когда биржа работает. В последнем случае наблюдения xl9 хп соответствуют п последовательным рабочим дням биржи.

В начальном курсе математической статистики базовым понятием является случайная выборка (random sample). Мы имеем п наблюдений значений некоторого признака (фактора, характеристики) X и предполагаем, что эти значения xX9xl9 хп случайным образом выбраны из некоторой (теоретически бесконечной) совокупности, называемой генеральной совокупностью (generalpopulation), так что хХ9 х2, хп являются реализациями независимых (в совокупности) случайных величин Xl9 Xl9 Хп9 которые имеют одинаковое распределение вероятностей (одинаковый закон распределения), характеризующееся функцией распределения F(x) = Р(Х < х)9 -со < х < оо. При этом говорят о случайной выборке из распределения F (точнее, из распределения, имеющего функцию распределения F).

Если F — непрерывное распределение, то для него определена функция

х

плотности вероятности р(х)9 F(x) - jp(x)dx. В этом случае для любых а и Ъ9

-00

-оо < а9 b < оо, Р(а <X<b) = F(b) - F(a)9 причем знаки неравенств могут быть здесь как строгими, так и нестрогими.

Основная отличительная особенность статистического анализа временных рядов состоит в том, что наблюдаемая последовательность наблюдений хХ9 ...,х„ рассматривается как реализация последовательности, вообще говоря, статистически зависимых случайных величин Xl9 Хп9 имеющих некоторое совместное распределение с функцией распределения

F(yl9v29...9vH) = P{xl<vl9X2<v29...9Xn<v„}.

Будем рассматривать в основном временные ряды, у которых совместное распределение случайных величин ХХ9 Хп имеет совместную плотность распределения р(хх,х„)9 так что

 

F(vX9v29...9vn)= j* j*... jp(xl9 x29...9x„)dxldx2—dx„.

-00 -00 -00

Пусть функция распределения F(vX9 v2,vn) известна (задана). Тогда

для каждого момента t9t-9п9 становится известной одномерная функция распределения

Ft(vt) = P{Xt<vt}9

например, Fx(vx) = F(vX9 оо, со);

для каждой пары моментов tl9 tl9 1 < tx < t2 < n9 становится известной двумерная функция распределения

Fh,t2(vh9vt2)9 = P{Xh<vh9Xt2<vt2}9

например, Fx2(vX9 v2) = F(vX9 v2, оо,со);

для каждого набора моментов tl9 tl9    tm9m <п9 <tx <t2< ... <tm<n9 становится известной w-мерная функция распределения

Fh. ь-^ ^ vv - vJ = PiXH <\^t2<vti9 ...,Xtm<vtm}9 например, FU29 _m(vX9 v2,.., vm) = P{XX <vl9X2< v2, ...9Xm < vm9 qo, oo}.

Если совместное распределение случайных величин ХХ9 Хп имеет совместную плотность распределения р(хХ9 хп)9 то соответственно для каждого набора моментов tl9 tl9 tm9 т < п9 1 < tx < t2 < ... <tm <п9 становится известнойpt ^ t (xt 9 xt2, ...9xt) — совместная плотность распределения случайных величин Xt, X,,Xt .

Последовательность случайных величин Хи Хп образует случайный процесс Xt с дискретным временем {discrete-time stochastic process, discrete-time random process) в качестве альтернативы случайному процессу с непрерывным временем. Поскольку в данном учебнике будут рассматриваться только такие случайные процессы, о последовательности случайных величин Xl9 ...,Хп будем говорить просто как о случайном процессе.

Если

F(vl,v2,...,vn) = p{Xl<vl}-P{X2<v2}-P{X„<vn} = fF(vl),

п

p(xl9...9xn) = Y[p(xt),

t=

то ряд Xl9 Хп представляет случайную выборку (random sample) из распределения, имеющего функцию распределения F(x) и функцию плотности р(х). В связи с этим одним из элементов предварительного анализа случайных рядов является проверка гипотезы случайности (гипотезы случайной выборки) (randomness test):

Н0 : наблюдаемая последовательность xl9 х2, хп является реализацией случайной выборки из некоторого распределения.

Если эта гипотеза не отвергается, то для статистического анализа такой последовательности не требуется каких-либо специальных методов, предназначенных для последовательностей со статистически зависимыми между собой элементами. Описание некоторых статистических критериев для проверки гипотезы случайности приводится в Приложении П-7.

Чтобы сделать задачу статистического анализа временных рядов доступной для практического решения, приходится так или иначе ограничивать класс рассматриваемых моделей временных рядов, вводя те или иные предположения относительно структуры случайного процесса Xt9 порождающего наблюдаемый временной ряд, и структуры его вероятностных характеристик. Одно из таких ограничений предполагает стационарность случайного процесса Х„ порождающего наблюдаемый временной ряд.

Случайный процесс Xt9 порождающий наблюдаемый временной ряд xt9 t~9 п9 называется строго стационарным (strictly stationary) или стационарным в узком смысле (strict-sense stationary), если для любого т (т < п) совместное распределение вероятностей случайных величин^,    Xt такое

же, как и для Xh + Т9 Xt +т9 при любых tx < t2 < ... <tm и т9 таких, что 1 < tl9 tl9 ...9tm<n и 1 <t{ + г, ...,tm + т<п

Другими словами, свойства строго стационарного случайного процесса не изменяются при изменении начала отсчета времени. В частности, при т - 1 из предположения о строгой стационарности случайного процесса Xt следует, что закон распределения вероятностей случайной величины Xt не зависит от t9 а значит, не зависят от t и все его основные числовые характеристики (если, конечно, они существуют), в том числе математическое ожидание E(Xt) = ju и дисперсия D(Xt) = а1.

Значение /и определяет постоянный уровень, относительно которого колеблется анализируемый временной ряд хп а постоянная а характеризует размах этих колебаний.

При проведении теоретического анализа процессов, порождающих временные ряды, удобно предполагать (и мы будем это делать), что значение п может быть сколь угодно большим, так что случайные величины Xt определены для всех t = 1,2,и что для любого т и любого набора 1 < tx < t2 < ... < tm < оо задано совместное распределение вероятностей случайных величин Xt 9 —>Xtm, что определяет случайный процесс Xt как бесконечную случайную последовательность Хх, Х2,...

Более того, часто удобно предполагать, что процесс Xt может начинаться в «бесконечном прошлом», так что t = 0, ±1, ±2, и тогда должны быть заданы совместные распределения вероятностей случайных величин Xt 9 Xt

для любого т и любого набора моментов -со < tx < t2 < ... < tm < со.

Как уже говорилось, одно из главных отличий последовательности наблюдений, образующих временной ряд, заключается в том, что порождающие этот ряд случайные величины являются, вообще говоря, статистически взаимозависимыми. Степень тесноты статистической связи между случайными величинами Xt и Xt + T может быть измерена парным коэффициентом корреляции

Подпись:
где

Cov(Xt,Xl+T) = E[(Xt-Е(Х,))(Х1+Т-Е{Х1+Т))

Заметим, что ковариация Cov(Xt9Xt+T) случайных величин^ nXt+T полностью определяется совместным (двумерным) распределением этих случайных величин. В случае строгой стационарности случайного процесса Xt это распределение не зависит от t и является функцией только от г. Соответственно если случайный процесс^ строго стационарный, то значение Cov(Xt9Xt+T) не

зависит от t и является функцией только от г. Будем использовать для него обозначение у(г):

y(r) = Cov(XnXt+r).

В частности,

D(Xt) = Cov(Xt,X,)^y(0).

Соответственно для стационарного случайного процесса и значение коэффициента корреляции Corr(Xt, Xt+T) зависит только от г. Будем использовать для него обозначение р(т):

р(т) = Согг(ХпХ,+т) = ^

у(0)

В частности, р(0) = 1.

Практическая проверка строгой стационарности процесса Xt на основании наблюдения значений хх, хп затруднительна. В связи с этим под стационарным случайным процессом на практике часто подразумевают случайный процесс Xt, у которого

 

D(Xt) = a2;

Cov(Xt, Xt+T) = у(т) для любых / иг.

Случайный процесс, для которого выполнены эти три условия, называют стационарным в широком смысле (wide-sense stationary), слабо стационарным (weak-sense stationary, weakly stationary), стационарным второго порядка (second-order stationary) или ковариационно стационарным (co-variance-stationary).

Если случайный процесс является стационарным в широком смысле, то он необязательно является строго стационарным. Возможны ситуации, когда указанные три условия выполняются, но, например, E(Xf) зависит от /.

В то же время и строго стационарный случайный процесс может не быть стационарным в широком смысле просто потому, что у него могут не существовать математическое ожидание и/или дисперсия. Примером служит случайная выборка из распределения Коши, являющегося частным случаем распределения Стьюдента, а именно распределением Стьюдента с одной степенью свободы. Функция плотности этого распределения имеет вид:

1

р(х) = —         —, -00<*<00.

я( + х1)

У случайной величины X, имеющей такое распределение, математическое ожидание не существует. Это вытекает из расходимости интеграла

Подпись: 1 °°г   | jc |fI jc 1 p(x)dx = — [ —

dx,

 

В дальнейшем часто будем говорить о тех или иных свойствах наблюдаемого временного ряда xt, подразумевая под этим свойства случайного процесса Хп порождающего наблюдаемый ряд. В частности, говоря о стационарности ряда xt, будем иметь в виду стационарность случайного процесса Хг

Ряд xt называется гауссовским (соответственно порождающий этот ряд случайный процесс Xt называется гауссовским — Gaussian process), если для каждого т и для каждого набора tl9 t29 tm совместное распределение случайных величин Xt 9 —,Xtm является w-мерным нормальным распределением.

Для гауссовского процесса понятия стационарности в узком и в широком смыслах совпадают.

В дальнейшем, говоря о стационарности некоторого ряда xt9 если не оговаривается противное, будем иметь в виду, что этот ряд (точнее, порождающий его случайный процесс X,) стационарен в широком смысле.

Итак, пусть xt — стационарный ряд с

ад) s ц\% D(Xt) = а2ир(т) = Corr(Xt9 Xt+T).

Поскольку в данном случае коэффициент р(т) измеряет корреляцию между членами одного и того же временного ряда (внутри этого ряда), его принято называть коэффициентом автокорреляции (или просто автокорреляцией — autocorrelation). По той же причине о ковариации y(f) = Cov(Xt9 Xt+T) говорят как об автоковариации (autocovariance). При анализе изменения величины р(т) в зависимости от значения г принято говорить об автокорреляционной функции р(т) (autocorrelation function — ACF). Автокорреляционная функция безразмерна, т.е. не зависит от масштаба измерения анализируемого временного ряда. Ее значения могут изменяться в пределах от -1 до +1, при этом р(0) = 1. Кроме того, из стационарности ряда xt следует, что р(т) = р(-т). Поэтому при анализе поведения автокорреляционных функций обычно ограничиваются рассмотрением только неотрицательных значений т.

График зависимости р(т) от т = 1,2, ... часто называют коррелограммой (correlogram). Его можно использовать для характеризации некоторых свойств механизма, порождающего временной ряд. Для дальнейшего заметим: если xt — стационарный временной ряд и с — некоторая постоянная, то временные ряды xt и (xt + с) имеют одинаковые коррелограммы.

Если предположить, что временной ряд описывается моделью стационарного гауссовского процесса, то полное описание совместного распределения случайных величин ХХ9     Хп требует задания (п + 1) параметров: ju9 у(0)9

у()9у(п - 1) (или ju9 у(0)9 р()9р(п - 1)). Это намного меньше, чем без требования стационарности, но все же больше, чем количество наблюдений. В связи с этим даже для стационарных гауссовских временных рядов приходится производить дальнейшее упрощение модели с тем, чтобы ограничить количество параметров, подлежащих оцениванию по имеющимся наблюдениям. Рассмотрим некоторые простые по структуре модели временных рядов, которые в то же время полезны для описания эволюции во времени многих реальных экономических показателей.

Процесс белого шума

Процессом белого шума (white noise process) или просто белым шумом (white noise) называют стационарный случайный процесс Хп t = 0, ±1, ±2, для которого

E(Xt) = 09D(Xt)=a2>0

и

р(т) = 0 при т*0.

Последнее означает, что при t Ф s случайные величины Xt nXs9 соответствующие наблюдениям процесса белого шума в моменты t и s, некоррелированны. Если ряд xt гауссовский, отсюда вытекает независимость случайных величин Xt и Xs при t Ф s9 при этом для каждого m и для каждого набора tu t29 tm случайные величины Xt, Xt взаимно независимы и имеют одинаковое нормальное распределение N(0, сг2), образуя случайную выборку из этого распределения. Такой ряд называют гауссовским белым шумом (Gaussian white noise process).

В общем случае даже если для каждого m и для каждого набора tl9t2, ...9tm случайные величины Xti, Xtm взаимно независимы и имеют одинаковое распределение, это еще не означает, что Xt — процесс белого шума, так как случайная величина Хг может просто не иметь математического ожидания и/или дисперсии (в качестве примера опять можно указать на распределение Коши).

Временной ряд, соответствующий процессу белого шума, ведет себя крайне нерегулярным образом из-за некоррелированности при t Ф s случайных величин Xt и Xs. Это иллюстрирует график смоделированной реализации гаус-совского процесса белого шума (NOISE) с D(Xt) = 0.04 (рис. 7.1)1.

В связи с этим процесс белого шума не годится для непосредственного моделирования эволюции большинства временных рядов, встречающихся в экономике. В то же время, как увидим ниже, такой процесс является базой для построения реалистичных моделей временных рядов, порождающих более гладкие траектории ряда. В связи с частым использованием процесса белого шума в дальнейшем изложении будем отличать этот процесс от других моделей временных рядов, употребляя для него обозначение 6Г

В качестве примера ряда, траектория которого похожа на реализацию процесса белого шума, можно привести ряд, образованный значениями темпов изменения (прироста) индекса Доу — Джонса в течение 1984 г. (дневные данные). График этого ряда показан на рис. 7.2.

 

Здесь и далее для моделирования и статистического анализа реализаций временных рядов используется пакет программ статистического анализа EViews (Econometric Views).

Заметим, однако, что здесь наблюдается некоторая асимметрия распределения вероятностей значений xt (скошенность этого распределения в сторону положительных значений), что исключает описание модели этого ряда как гауссовского белого шума.

 

Процесс авторегрессии

Одной из широко используемых моделей временных рядов является процесс авторегрессии (autoregressive process). В простейшей форме модель авторегрессии описывает механизм порождения ряда следующим образом (процесс авторегрессии первого порядка — first-order autoregressive process, AR(1)):

Xt =aXt_{ +et,   t = l,...,n9

l — процесс белого шума, имеющий нулевое математическое ожида-

где

г2.

НИЄ И ДИСПерСИЮ <7/ ,

х0 — некоторая случайная величина; а Ф 0— некоторый постоянный коэффициент.

При этом

E(Xt) = aE(Xt_x)9

так что рассматриваемый процесс может быть стационарным только при E(Xt) = О для всех t = О, 1,п. Далее,

Xt -aXt_x +st =a(aXt_2 +st_x) + €t =a2Xt_2 +ast_x +st = ...= = a* X0 + а'~1єх + а'~2є2 + ... + £,,

Xt_x = aXt_2 + €t_x = af~lX0 + а'~2єх + а'~3є2 +... + st_{,

Xt_2 = aXt_3 + et_2 = ar~2    + at~3€l + я'~4£2 +... + st_2,

 

= я X0 + ex.

Если случайная величина X0 не коррелирована со случайными величинами

Єх, ТО

Ол<*0, *,) = <), Cov(X1,^2) = 0,      Cov(Xt_29st_x) = 0, Cov(Xt_X9et) = 09

и

,2

D(Xt) = D(a X,.! + et) = я z£>(*,-i) + £>(*,),   f = 1,..., n. Предполагая, наконец, что

D(Xt) = a2x для всех t = 0, 1,и,

находим:

2        2   2 2 =flf ^ +0>

Последнее может выполняться только при условии а2 < 1, т.е. |я| < 1. При

этом получаем выражение для сгх2:

2 ^

х~-а2-

= Cov(a\% + а'-1*, + o'_2f2 +... + єх, а'+ТХ0 + а'+г~1є1 + а,+г~2є2 + ... + є,+т) =

Что касается автоковариаций и автокорреляций, то Cov(Xt,Xl+T) =

LQ~TL4      О J ~г ы      о 2 т- • • • т О j

 

= о2'+г£)(Х0)+аг(И-«2+...+«2('_1))о-£2=ог

т.е. при сделанных предположениях автоковариации и автокорреляции зависят только от того, насколько разнесены по времени соответствующие наблюдения.

Таким образом, механизм порождения последовательных наблюдений, заданный соотношениями

Xt = aXt_x +et9   f = 1,я, порождает стационарный временной ряд, если

|я|<1;

случайная величина Х0 не коррелирована со случайными величинами

£i ^2' *••' ^и'

ВД) = 0;

с1

D(X0) = ^

-az

При этом Corr(Xn Xt+T) = р(т) = ат.

Рассмотренная модель порождает (при указанных условиях) стационарный ряд, имеющий нулевое математическое ожидание. Однако ее можно легко распространить и на временные ряды yt с ненулевым математическим ожиданием E(Yt) = /и, полагая, что указанная модель относится к центрированному ряду Xt = Yt - ju:

Yt-ju = a(Yt_x -ju) + st9   t = l9...9n9

так что

Yt = aYt_x+S + єп   t = l9w,

где 5-/и( - a).

Поэтому без ограничения общности в текущем рассмотрении можно обойтись моделями авторегрессии, порождающими стационарный процесс с нулевым средним.

Продолжая рассмотрение ранее определенного процесса Xt (с нулевым математическим ожиданием), заметим, что для него

у() = E(XtXt_x) = E[(aXt_x + *,) JTM] = ау(0)9

так что

 

у(0)

и при значениях а > О, близких к 1, между соседними наблюдениями имеется сильная положительная корреляция, что обеспечивает более гладкий характер поведения траекторий ряда по сравнению с процессом белого шума. При а < О процесс авторегрессии, напротив, имеет менее гладкие реализации, поскольку в этом случае проявляется тенденция чередования знаков последова

тельных наблюдений. Приведенные графики демонстрируют поведение смоделированных реализаций временных рядов, порожденных моделями авторегрессии Xt = aXt_x +stc а2 = 0.2 при а = 0.8 (рис. 7.3) и а = -0.8 (рис. 7.4).

Теперь необходимо обратить внимание на следующее важное обстоятельство. На практике стартовое значение Х0 = дс0, на основе которого в соответствии с соотношением Xt - aXt_x + st получаются последующие значения ряда х„ может относиться к концу предыдущего периода, на котором — просто в силу других экономических условий — эволюция соответствующего экономического показателя следует иной модели, например, модели Xt = aXt_ х + et с другими значениями а и <т2. Более того, статистические данные о поведении ряда до момента t - 0 могут отсутствовать вовсе, так что значение х0 является просто некоторой наблюдаемой числовой величиной. В обоих случаях ряд Xt уже не будет стационарным даже при а < 1. Рассмотрим подробнее характеристики и поведение ряда в таких ситуациях.

Если не конкретизировать модель, в соответствии с которой порождались наблюдения до момента t = 1, то значение х0 можно рассматривать как фиксированное. При этом имеем:

Xt =а'Х0+а'~1єх + а'~2є2 + ... + £,, E(Xt) = а'х0 + af~xE(sx) + а'~2Е(є2) + ...+ E(st ) = а'х0,

nrv   ( 2(r-i) .   2(t-2) .     . A  2   -a2t   2     &l       a1* 2

1-а       1-а 1-а

Cov(Xt,Xl+T) = Cov(X, -a'x0, Xt+r -a'+Tx0) =

= аТ(1 + а2+... + а2і'-1))(72є=аТ(1-а2')-^Т,

1-а

так что и математическое ожидание, и дисперсия случайной величины Хп а также ковариации Cov(Xn Xt+T) зависят от t.

Будем считать, что указанный механизм порождения случайных величин Xt действует для всех /=1,2,...

Если а < 1, то при t -> оо получим

2 2

ВД)->0,   ВД)-*-^,   Cov(XnXt+T) = aT-^j, 1-а 1-а

т.е. при t -> оо значения математического ожидания и дисперсии случайной величины Хп а также автоковариации Cov(Xn Xt + T) стабилизируются, приближаясь к своим предельным значениям.

С этой точки зрения условие а < 1 можно трактовать как условие стабильности ряда, порождаемого моделью Xt = aXt_x + et при фиксированном значении Х0 = х0. Наряду с только что исследованным случайным процессом Хп

t-

Х,=а'х0 + ^акє,_к, Н<1,

к = 0

рассмотрим случайный процесс^, определяемый соотношением

 

Xt = ^akst_k,   / = 1,2,...

к = 0

Имеем:

Xt-Xt=-a'x0 + ^акє,_к;

k=t

при t —» оо

агх.

►О   и Е

k=t

k = t

Таким образом, случайный процесс Xt является предельным для Xt процесс Xt «выходит на режим» Xt при t —> оо. При этом «выход на режим» Xt происходит тем быстрее, чем ближе Х0 и а к 0.

Проиллюстрируем сказанное с помощью смоделированных реализаций ряда хп порожденных моделью Xt = aXt_ { + et с оє = 0.2 и разными значениями коэффициента а и стартового значения х0 (рис. 7.5—7.8).

Для процесса Xt имеем

Е(Х,) = Е

=2у*(*,-*) = о,

к = 0

к = 0

(

D(Xt) = D

^ = 0    )    к = 0          к = 0 [~а

 

Подпись: t+T-k к = 0 JCov(X„Xt+t) = E

IА-* І IА

U = 0

- а

E«2t^)=«r

к = 0

1-а2

таким образом Xt — стационарный случайный процесс (в широком смысле). Кроме того,

~       1 00

 

так что

 

к = 0

т.е. Xt удовлетворяет соотношению

Xt = aXt_x + et.

Поскольку et не входит в правую часть выражений для Xt_x, Xt_29 ... , случайная величина et не коррелирована с Xt_x,Xt_2, ... В итоге получаем, что Xt — стационарный процесс авторегрессии первого порядка, и фактически именно этот процесс имеется в виду, когда речь идет о стационарном процессе авторегрессии первого порядка.

Таким образом, говоря, что процесс Xt является стационарным процессом авторегрессии первого порядка, подразумеваем, что процесс Xt начинается в «бесконечном» прошлом, так что соотношение Xt = aXt_x + st (с а < 1) выполняется не только для t = 1, 2,но и для t = 0, -1, -2,... Но тогда из этого соотношения получаем

Xt -aXt_x + et =a(aXt_2 + st_x) + st = ...=

= а'Х0 + а'~1єх + а'~2є2 +... + et=et+ aet_x +... + а'~2є2 + а*~хєх + а'Х0 =

= et + ast_x +... + а'~2є2 + аг~хєх + а* (а Х_х + є0) =

00

= et + aet_x +... + а'~2є2 + а'~1єх + а'є0 + at+lX_x =... = ^ akst_k,

k = 0

именно так и определялся процесс Xt, оказавшийся стационарным.

Рассмотренную модель Xt = aXt_ х + st называют процессом авторегрессии первого порядка. Процесс авторегрессии порядка р (pth-order autoregressive process — AR(/?)) определяется соотношениями

Xt = axXt,x + a2Xt_2 +... + apXt_p +st, ap*0, где st — процесс белого шума с D(st) = a2.

При этом будем предполагать, что Cov(Xt_s, st) = 0 для всех s > 0. В таком случае говорят, что случайные величины st образуют инновационную (обновляющую) последовательность (innovation sequence), а случайная величина st называется инновацией (innovation) для наблюдения в момент t. Такая терминология объясняется тем, что наблюдаемое значение ряда в момент t получается здесь как линейная комбинация р предшествующих значений этого ряда плюс не коррелированная с этими предшествующими значениями случайная составляющая st, отражающая обновленную информацию (скажем, о состоянии экономики) на момент t, влияющую на наблюдаемое значение Хг

При рассмотрении процессов авторегрессии и некоторых других моделей удобно использовать оператор запаздывания l (lag operator), который воздействует на временной ряд и определяется соотношением

LXt =Xt_x.

В некоторых руководствах его называют оператором обратного сдвига

(backshift operator).

Нетрудно проверить, что оператор запаздывания обладает теми же алгебраическими свойствами, что и оператор умножения. Поэтому для простоты можно говорить не о применении оператора L к последовательности Хп

t = 0, ±1, ±2, а об умножении L тХг Соответственно если оператор запаздывания применяется к раз, это обозначается Lk. В результате получаем

LkXt =Xt_k.

Единичный оператор будет выражен при этом как Z,0, так что

L Xf — 1 • Xf — Xf, а обратный к L оператор — как L~l:

L lXt =Xt+l.

Более подробно о свойствах оператора запаздывания говорится, например, в работе (Канторович, 2002).

Используя оператор Lk, выражение

alXt_l+a2Xt_2+... + apXt_p

можно записать в виде:

axLXt + a2L2Xt +... + apLpXt =(a{L + a2L2 +... + apLp ) Xt, а соотношение, определяющее процесс авторегрессии р-то порядка, в виде:

a(L)Xt =єп

где

a(L) = -(axL + a2L2 +... + apLp).

 

Условие стационарности процесса авторегрессии р-го порядка

 

Для того чтобы процесс авторегрессии р-го порядка a(L)Xt = єх был стационарным, необходимо1 и достаточно, чтобы все (вещественные и комплексные) корни алгебраического уравнения a(z) = 0 (обратное характеристическое уравнение) лежали вне единичного круга z\<* на комплексной плоскости.

1 Если et не являются инновациями, то это условие не является необходимым для стационарности процесса, определяемого соотношением a(L) Xt = єt (см. задание 9 к разд. 7).

 

В частности, для процесса AR(1) имеем a(z) = 1 - az, уравнение a(z) = 0 имеет корень z = 1/а, и условие стационарности z > 1 равносильно уже знакомому нам условию | а | < 1.

При выполнении условия стационарности решение уравнения a(L)Xt - st можно представить (см., например, (Hamilton, 1994, р. 58—59)) в виде:

1 00 '   a{L) '   іґо 1 ' 1

оо

где b0 = 1, Y}bj' l<00-

7 = 0

Отсюда, в частности, следует

Е(Х,) = Е[ tbjs,) = ±bjE{s_j) = 0.

V7' = 0            j 7=0

Стационарный процесс AR(p) с ненулевым математическим ожиданием /л удовлетворяет соотношению

a(L)(Xt -//)= еп   или  a(L)Xt = S + st,

где

S = a(L)Ju = ju(l-al -а2 -...-ap) = jua(1). При этом решение уравнения a(L)(Xt - ju) = st имеет вид:

1 00

 

Таким образом, если стационарный процесс AR(p) задан в виде a(L)Xt = S+ єп то надо помнить о том, что математическое ожидание этого процесса равно не 5, а

=          д         

(1-ах- а2-...- ар)

Конечно, если S = 0, то и /и = 0. Заметим, что сумма коэффициентов здесь не может равняться 1, иначе процесс будет нестационарным. Для процесса AR(1) имеем a(L) = 1 - ah, и если а < 1, то

Xt- ju = —-—et - (1 + ah + a21} +...)et=et+ ast_x + a2st_2 +... 1-aL

Из последнего выражения видно, что

p(k) = Corr(XnXt+k) = ak,   к = 0,1,2,...

При 0 < а < 1 коррелограмма (график функции р(к) для к = 1,2, ...) отражает показательное убывание корреляций с возрастанием интервала между наблюдениями, при -1 < а < 0 коррелограмма имеет характер затухающей косинусоиды.

Коррелограммы стационарного процесса AR(1) при а = 0.8 и а = -0.8 приведены соответственно на рис. 7.9 и 7.10.

Коррелограмма процесса AR(p) при р > 1 имеет более сложную форму, зависящую от расположения (на комплексной плоскости) корней уравнения a(z) = 0. Однако для больших значений к автокорреляция р(к) хорошо

аппроксимируется значением Авк (где в = —^— и zmin — наименьший по абсо-

^min

лютной величине корень уравнения a(z) = 0), если этот корень является вещественным и положительным, или заключена в интервале ±|^4#*| в противном случае. Здесь А > 0 — некоторая постоянная, определяемая коэффициентами аи а2,а .

Как отмечалось ранее, если Xt — стационарный временной ряд и с — некоторая постоянная, то временные ряды Xt и (Xt + с) имеют одинаковые кор-релограммы. Воспользуемся этим свойством для вывода одного полезного соотношения, связывающего автокорреляции процесса AR(p). При выводе этого соотношения в силу указанного свойства можно рассматривать процесс Xt с нулевым математическим ожиданием.

Если умножить на Xt_k (к > 0) обе части соотношения

Xt = axXt_x + a2Xt_2 +... + apXt_p + et,

определяющего процесс AR(p) с нулевым математическим ожиданием, то получим

XtXt-k =aXt-Xt.k +a2Xt_2Xt_k +... + apXt_pXt_k +etXt_k. Возьмем от обеих частей математическое ожидание: Е(х,х,-к) = °E(Xt-iXt-k ) + a2E(Xt-2X,-k ) + ••• + арЕ{Х,_рХ,_к) + Е{є,Х,_к). Заметим, что

E(stXt_h) = 0 (поскольку et — инновация), y(s) = Cov(XtXt_s) = E(XtXt_s) (поскольку E(Xt) = 0),

тогда имеем

у(к) = аху(к-1) + а2у(к-2) + ... + ару(к-р), к>0.

Разделив обе части последнего выражения на у(0)9 придем к системе уравнений Юла—Уокера (Yule-Walker equations):

р(к) = ахр(к -1) + а2р(к - 2) +... + арр(к - р),   к> 0.

Эта система позволяет последовательно находить значения автокорреляций и дает возможность, используя первые р уравнений, выразить коэффициенты aj через значения первых р автокорреляций, что можно непосредственно использовать при подборе модели авторегрессии к реальным статистическим данным (об этом см. ниже).

 

ПРИМЕР 7.1.1

Рассмотрим процесс авторегрессии AR(2):

Xt = 4.375 +0.25 *м -0.125Х,_2 +*,. Уравнение a(z) = 0 принимает в этом случае вид:

l-0.25z + 0.125z2 =0, или  z2-2z + 8 = 0,

И ИМееТ КОрНИ Z, 2 = 1 ± /       Оба корня по абсолютной величине больше 1,

так что процесс стационарный. Математическое ожидание этого процесса равно:

S 4.375 И~ -ах-а2 ~ 1-0.25 + 0.125 " '

так что траектории этого процесса флуктуируют вокруг уровня 5.

Для построения коррелограммы воспользуемся уравнениями Юла — Уокера. В нашем случае р = 2, так что

р(к) = 0.25 р(к -1) - 0.125 р(к - 2),   к> 0.

По определению р(0) = 1. Для р() имеем

р() = 0.25р(0) - 0.125 р(-) = 0.25 - 0.125р(1),

откуда находим

р()=   025   =- = 0.222. 1 + 0.125 9

Далее последовательно находим

р(2) = 0.25р(1) -0.125 р(0) = 0.25 • 0.222 -0.125 = -0.069, р(3) = -0.045,   р(4) = -0.003,   р(5) = -0.005 и т.д.

Корреляции даже между соседними наблюдениями очень малы, поэтому можно ожидать, что поведение траекторий такого ряда не очень существенно отличается от поведения реализаций процесса белого шума. Теоретическая коррелограмма рассматриваемого процесса и смоделированная реализация этого процесса показаны на рис. 7.11 и 7.12 соответственно.■

 

Процесс скользящего среднего

Еще одной простой моделью порождения временного ряда является процесс скользящего среднего порядка q (qth-order moving average process — MA(q)). Согласно этой модели

Xt=€t+ bxst_x + b2et_2 +... + bq£t_q, bq*0,

где et — процесс белого шума с D(st) = <тє2.

Такой процесе имеет нулевое математическое ожидание. Модель можно обобщить до процесса, имеющего ненулевое математическое ожидание р, полагая

X,-р = е,+ bxst_x + b2st_2 +... + bq8t_q,

т.е.

Xt=p + st+ bxst_x + b2st_2 +... + bqst_q.

При q = 0 и ju = 0 получим процесс белого шума. Если q = 0, то

Xt= ju + st+ bst_x — скользящее среднее первого порядка (МА(1)). В последнем случае

D(Xt) = (1 + Ъ2) а],   Е [(Xt - p)(Xt_x -ju)] = bа],

Е[{Х,-М){Х,_к-//)] = 0, к>, так что процесс Xt является стационарным с

Е(Х,) = М,  D(Xt) = (l + b2)cT2,

у(к) =

Ъа], О,

к>.

к = 0, к = 1, к>,

{ + Ь2)а2е,  к = 0, к = 1.

Автокорреляции этого процесса равны

 

р(к) = <

l + b2 о ,

т.е. коррелограмма процесса имеет весьма специфический вид. Коррелированными оказываются только соседние наблюдения. Корреляция между ними положительна, если Ъ > О, и отрицательна при Ъ < 0. Соответственно процесс МА(1) с Ь > 0 имеет более гладкие по сравнению с белым шумом реализации, а процесс МА(1) с Ъ < 0 — менее гладкие по сравнению с белым шумом реализации. Заметим, что для любого процесса МА(1)

Р(У)\< 0-5,

т.е. корреляционная связь между соседними наблюдениями довольно слабая, тогда как у процесса AR(1) такая связь может быть сколь угодно сильной (при значениях а, близких к 1).

Модель МА(д) кратко можно записать в виде:

Xt-ju = b(L)et,

0<k<q, k>q.

где b(L)=l+bxL +... + bqL*. Для нее

 

r(k) = E[(Xt-ju)(Xt_k-//)] = ■

j=o 0,

Подпись: Таким образом, MA(q) является стационарным процессом с математическим ожиданием ju, дисперсией

и автокорреляциями

a2x=(l + b2+... + b2)a2

 

 

р(к) =

q-k

 

            ,   k = 0,l,...,q,

lb]

7=0

о ,

к = q +1, q + 2,...

Здесь статистическая связь между наблюдениями сохраняется в течение q единиц времени (т.е. «длительность памяти» процесса равна q).

 

ПРИМЕР 7.1.2

Рассмотрим три процесса:

а) процесс МА(1) с Ъ = 0.8 и E(Xt) = 6, т.е. Xt=6 + et +0.8sM ;

Подпись: 1 + 0.82для него р(1) =

0.8

= 0.488;

б) процесс МА(1) с Ь = -0.8 и E(Xt) = 6 — для него имеем

р(1) = -^- = -0.488. 1 + 0.82

Коррелограммы этих двух процессов приведены на рис. 7.13 и 7.14.

Смоделированные реализации этих двух процессов с a2 = 1 показаны на рис. 7.15 и 7.16;

Р

1.0 0.8 0.6 0.4 0.2 0

-0.2 -0.4 Н -0.6

Ь=0Я

 

і

 

-і          1          1          1          1          1          1          1          1          1—

123456789 10

Рис. 7.13

в) процесс MA(2)Xt = 5 + et- 0.15st_x + 0.125^_2 — для него имеем b0bx+bxb2 _ -0.75-0.75-0.125

ь20+ь2+ь22

ЬІ+ЬЇ+ЬЇ     1 + 0.752 +0.1252

,(2) = М?5 Н 1.578

Коррелограмма и смоделированная реализация этого процесса приведены на рис. 7.17 и 7.18.И

Если влияние прошлых событий ослабевает с течением времени показательным образом, так что bj = aJ, 0 < а < 1, то искусственное предположение о том, что ряд st начинается в «бесконечном прошлом», приводит к модели скользящего среднего бесконечного порядка МА(оо):

оо

 

7 = 0

где

6(£) = 1 + |>у1у и £|6,|<оо.

Ранее было показано, что такое же представление допускает стационарный процесс авторегрессии первого порядка AR(1):

Xt -aXt_x +єп |я|<1,

т.е. в рассматриваемом случае процесс МА(оо) эквивалентен процессу AR(1). Вообще, всякий стационарный процесс AR(p), задаваемый соотношением

a(L)(Xt-ju) = sn a(L) = l-(axL + a2L2 + ... + apLp),

где et — инновации, можно представить в форме процесса МА(оо):

Xt = ju + c(L)st,

где

00        | 00

 

(См., например, (Hamilton, 1994, section 3.4)).

В связи с последним обстоятельством, естественно, возникает следующий вопрос. Если оказывается возможным обратить авторегрессионное представление a(L)(Xt - ju) = st стационарного процесса Хп получая представление этого процесса в виде скользящего среднего бесконечного порядка, то можно ли аналогичным образом обратить МА-представление Xt - ju= b(L)st стационарного процесса Хп получая при этом его авторегрессионное представление?

Если процесс Xt имеет МА(д)-представление

ч

Xt-ti = b{L)st = Yj>jet-j> 6о=1>

7=0

то положительный ответ на поставленный вопрос будет в случае, когда выполнено условие обратимости (invertibility condition):

все корни алгебраического уравнения b(z) = 0 лежат вне единичного круга z < 1 на комплексной плоскости.

При выполнении этого условия для процесса Xt существует авторегрессионное представление

d(L)(Xt-fi) = et,

где

 

7 = 1    bL) 7=1

так что

ґ

l-^djti (Xt-M) = £„

Т.е.

(X, -//) = </, (Х,ч -M) + d2 (Х,_2 ■■■+€,.

(По поводу абсолютной суммируемости коэффициентов dj см., например, (Pollock, 1999).)

Для процесса скользящего среднего первого порядках, = ju + є, + Ьє,_1 условие обратимости принимает вид: Ь < 1, поэтому рассмотренные в пунктах а) и б) примера 7.1.2 МА(1 ^представления обратимы. Для процесса скользящего среднего второго порядка, рассмотренного в пункте в) того же примера, уравнение b(z) = 0 принимает вид:

l-0.75z + 0.125z2 =0.

Корни этого уравнения (2 и 4) находятся за пределами единичного круга, так что рассмотренное МА(2)-представление также обратимо.

Соответственно, например, в первом случае на основании МА( ^-представления X, = 6 + є, + 0.8г,_, получаем

Подпись: 1 + 0.8Lb(L) = 1 + 0.81,   X,-6 = (1 + 0.81)*,,

1

(Х,-Є) = є„

(1-0.8L + 0.82Z,2       )(X, -6)= є,,

(X, - 6) = 0.8(X,_, - 6)- 0.82(X,_2 -6) + — + e„

X, = 6(1 -0.8 + 0.82 -• • •) + 0.8X,4 -0.82X,_2 +••• + *,= 6   + 0.8XM-0.82X,_2 +■•• + £,.

1 + 0.8

Что получается, если в МА( 1 )-представлении Xt = /и + є, + b є,_, имеем | b > 1 ? В такой ситуации

1

1

= b

i+If

 

где F = L 1 — оператор прямого сдвига, FX, =Х,+ j, так что

 

6 ,

1_IF + _LF2_ 1 F3+.

1 + -F   (ЛГ,+1-//) = -

 

111 N

-у")-т(Хг+2 -М) + Т2(Х1+з -M)-zj{Xt+i -ju) + boo

 

(X,+1 -/i) = \{Xt+1 -m)- 4-(*,+3 -/0 + 7F(^r+4 "m) — • + be,,

DO 0

Xt+=m

1 1   1 1

1    + —-+•••

b   b b

 

do d

Х,,л —

+ b   b           b b

Иначе говоря, в данном случае значение Xt определяется не через прошлые, а через будущие значения Xt+k9 £=1,2,...

 

Смешанный процесс авторегрессии — скользящего среднего (процесс авторегрессии с остатками в виде скользящего среднего)

Процесс Xt с нулевым математическим ожиданием, принадлежащий классу смешанных процессов авторегрессии — скользящего среднего, характеризуется порядками р и q его AR и МА составляющих и обозначается как процесс ARMA(p, q) (autoregressive moving average, mixed autoregressive moving average). Более точно, процесс Xt с нулевым математическим ожиданием принадлежит классу ARMA(/?, q если

Р я

xt = HaJxt-j + HbJ£t-j> аР*°>

у=1 /=0

где et — инновации, образующие процесс белого шума с D(st) = сг2, и b0 = 1. В операторной форме последнее соотношение имеет вид:

a(L)Xt=b(L)sn

где a(L) и A(Z) имеют тот же вид, что и в определенных ранее моделях AR(p) и MA(q). При этом для определенности обычно предполагается, что многочлены a(L) и b(L) не имеют общих корней (см. Замечания 7.1.2—7.1.4).

Если процесс имеет постоянное математическое ожидание //, то он принадлежит классу ARMA(/?, q) при следующем условии:

Х,-М = £а;(Хм-М)+^8^.

 

Отметим следующие свойства ARMA(/?, q) процесса Xt с E(Xt) = /л (см., например, {Hamilton, 1994, р. 59—61)):

• если все корни алгебраического уравнения a(z) = 0 лежат вне единичного круга z < 1 на комплексной плоскости, то Xt — стационарный процесс и существует эквивалентный ему процесс МА(оо) 7 = 0 у=0

где

 

7 = 0

• если все корни уравнения b(z) = 0 лежат вне единичного круга z < 1 (условие обратимости), то существует эквивалентное представление процесса Xt в виде процесса авторегрессии бесконечного порядка AR(oo)

oo

Xt-fu = Y<dj(Xt-j-H) + £t> или d(L)(Xt-/u) = sn

7 = 1

где

dM-i-£V#|-

 

Отсюда вытекает, что стационарный процесс ARMA(p, q) можно аппроксимировать процессом скользящего среднего достаточно высокого порядка, а при выполнении условия обратимости его можно также аппроксимировать процессом авторегрессии достаточно высокого порядка.

Специфику формы коррелограммы процесса ARMA(p, q) в общем случае указать труднее, чем для моделей AR(p) и MA(q). Отметим только, что для значений к > р коррелограмма процесса a(L)Xt = b(L)st выглядит так же, как и коррелограмма процесса авторегрессии a(L)Xt = єг Так, для процесса ARMA(1, 1)

р(к) = ах р{к -1) для к = 2, 3,

как и у процессаX, = aXt_x + єг При этом, однако, р() Ф ах.

Предпосылкой для обоснования использования моделей ARMA является следующий факт. Если ARMA(p1? qx) ряд Xt и ARMA(p2, q2) ряд Yt статистически независимы между собой и Z, = Xt + Yt, то типичным является положение, когда Z, является ARMA(p, q) рядом, у которого

P=P+Pl,

q=P+qi, если P+qi>p2 + q,

q=Pi + q, если p2 + q\>p+q2.

Возможны также ситуации, когда значения р и q оказываются меньше указанных значений. (Такие ситуации возникают в случаях, когда многочлены ax(z) и aY(z)9 соответствующие авторегрессионным частям процессов^ и Yn имеют общие корни.)

В частном случае, когда оба ряда имеют тип AR(1), но с различными параметрами, их сумма имеет тип ARMA(2, 1).

В экономике многие временные ряды являются агрегированными. Из указанного выше факта следует, что если каждая из компонент отвечает простой модели AR, то при независимости этих компонент их сумма будет ARMA процессом. Такого же рода процесс получим, если часть компонент имеет тип AR, а остальные компоненты — тип МА. Единственным исключением является случай, когда все компоненты являются МА процессами — здесь получаем МА процесс.

Предположим, наконец, что истинный экономический ряд отвечает AR(p) модели, но значения этого ряда измеряются со случайными ошибками, образующими процесс белого шума, т.е. МА(0). Тогда наблюдаемый ряд имеет тип ARMA(p, р).

 

Замечание 7.1.1. Как было сказано выше, стационарный ARMA(^?, q) процесс Xt можно представить в виде процесса скользящего среднего бесконечного порядка, а если этот процесс удовлетворяет условию обратимости, то его можно представить и в виде процесса авторегрессии бесконечного порядка. Соответственно такой процесс можно аппроксимировать как стационарным процессом AR(p) достаточно высокого порядка, так и процессом скользящего среднего MA(q) достаточно высокого порядка.

Таким образом, в практических задачах можно было бы и вовсе обойтись без использования моделей ARMA, ограничиваясь либо AR, либо МА моделями. При этом, однако, количество коэффициентов, подлежащих оцениванию, может оказаться слишком большим (что снижает точность оценивания) и даже превосходить количество имеющихся наблюдений. В этом смысле модели ARMA могут быть более экономными (more parsimonious models).

 

J Замечание 7.1.2. С вопросом о выборе более экономной модели связана и так называемая проблема общих множителей (common factor problem). Поясним, что при этом имеется в виду, на следующем примере. Рассмотрим модель ARMA(2, 2):

7-2 •

Xt = 13Xt_{ - 0AXt_2 +st- 0.3sM - OAs,

С использованием оператора запаздывания эта модель записывается в виде:

a(L)X,=b(L)et

где

a(L) = b(L) =

1.3L + 0AL2 =(1-0.8L)(1-0.5L), 0.31 - OAL = (1 - 0.8I)(1 + 0.5L).

Таким образом, многочлены a(L) и b(L) имеют общий множитель (1-0.81)и

(1 - 0.81)(1 - 0.5ВД = (1 - 0.8L)(1 + 0.5L)sr

Сократив обе части последнего уравнения на этот общий множитель, получим

(1 -0.5ВД = (1 +0.5Ь)єп

т.е.

Xt = 0.5Xt_x + є, + 0.5є,_х.

Для процесса^, получается представление в виде модели ARMA(1, 1), которая более экономна по сравнению с моделью ARMA(2, 2).

 

Наличие общих множителей у многочленов a(L) и в представлении a(L)Xt = b(L)st модели ARM А значительно затрудняет оценивание коэффициентов такой модели. Несколько забегая вперед, проиллюстрируем (табл. 7.1) это результатами оценивания коэффициентов модели

Xt = axXt_x + a2Xt_2 +st+ bxst_x + b2st_2

по смоделированной реализации (длины 100) модели

Xt =l.3Xt_x -0AXt_2 +et -0.3et_x -0Ast_2.

Полученные оценки всех 4 коэффициентов не имеют ничего общего с коэффициентами модели, порождавшей наблюдения. Все эти оценки статистически незначимы. В то же время если оценивать не модель ARMA(2, 2), а модель ARMA(1, 1), то результаты получаются другими (табл. 7.2).

Полученные оценки коэффициентов имеют высокую статистическую значимость и весьма близки к значениям коэффициентов ARMA(1, ^-представления модели, порождавшей данные.

 

уҐ Замечание 7.1.3. Пусть Xt — процесс типа ARMA(p, q), a{L)Xt = - b(L)sr Выше отмечалось, что если все корни алгебраического уравнения a(z) = 0 лежат вне единичного круга |z| < 1 на комплексной плоскости, то Xt — стационарный процесс. Но такой процесс может быть стационарным и в случае, когда уравнение a(z) = 0 имеет корень z с z = 1. Поясним это следующим простым примером.

Пусть Xt = єг Этот процесс стационарный. Рассмотрим разность: Xt = Xt_x:

Xt -Xt_x - st- et_v

Последнее выражение записывается в виде:

(l-L)Xt=(l-L)sn

т.е. a(L)Xt = Ь(Ь)єп где a(L) = 1 - L и b(L) - 1 - L. Иными словами, для процесса Jf, получили ARMA(1, 1) представление

Xt -Xt_x + 6t - £t_x,

для которого уравнение a(z) = О имеет корень z = 1.

J Замечание 7.1.4. В общем случае, если у ARMA(p, q) процесса Xt9 a(L)Xt - b(L)et9 многочлены a(z) и b(z) не имеют общих корней, условие нахождения всех корней уравнения a(z) = О вне единичного круга z < 1 является необходимым и достаточным для стационарности процесса Хг

J Замечание 7.1.5. Представить в виде процесса скользящего среднего бесконечного порядка можно не только стационарный процесс Xt типа ARMA(p, q), но фактически и любой стационарный процесс, встречающийся на практике. Это вытекает из так называемого разложения Вольда (Wold's decomposition). Вольд в работе (Wold, 1938) показал, что любой стационарный в широком смысле процесс Xt с нулевым математическим ожиданием может быть представлен в виде:

оо

х< = TicJet-j+z"

7=0

00

где с0 = 1и ]Гсу2 <00, 7 = о

st — процесс белого шума;

Z, — стационарный случайный процесс с нулевым математическим ожиданием, Cov(Zt, st_j) = О для всех j, и значение Z, можно сколь угодно точно предсказать на основании линейной функции от прошлых значений процесса^ Xt_x,Xt_2,...

Тем самым стационарный процесс Xt представляется в виде суммы двух компонент: линейно недетерминированной (linearly indeter-

00

ministic) компоненты ^с-є( . и линейно детерминированной (line-

7 = 0

arly deterministic) компоненты Zt. Если вторая компонента в разложении Вольда отсутствует, т.е. Z, = 0, то процессе, называется чисто линейно недетерминированным (purely linearly indeter minis tic).

 

Таким образом, если стационарный случайный процесс с нулевым математическим ожиданием является чисто линейно недетерминированным, то он представим в виде процесса скользящего среднего бесконечного порядка

00 00

xt = Zc; *w где со = 1 и £с2 < оо.

7=0 у=0

В качестве тривиального примера линейно детерминированного стационарного процесса с нулевым средним можно указать на модель случайного уровня:

Xt — Х0, t = 1,2,

где Х0 — случайная величина, имеющая нулевое математическое ожидание и конечную дисперсию.

В практических исследованиях обычно сразу предполагают отсутствие линейно детерминированной компоненты.

 

Модели ARMA, учитывающие наличие сезонности

Если наблюдаемый временной ряд обладает выраженной сезонностью, то модель ARMA, соответствующая этому ряду, должна содержать составляющие, обеспечивающие проявление сезонности в порождаемой этой моделью последовательности наблюдений.

Для квартальных данных чисто сезонными являются стационарные модели сезонной авторегрессии первого порядка (SAR(l) —first order seasonal autor egress ion)

Xt=aAXt_4+st,  a4 |<1,

и сезонного скользящего среднего первого порядка (SMA(l) —first order seasonal moving average)

Xt=st+b4st_4.

В первой модели

p(k) = akJA для к - Am, m-0, 1,2, p(k) - 0     для остальных к > 0. Во второй модели

р(0) = 1,   р(4) = Ь4,

р(к) = 0     для остальных к > 0.

Смоделированные реализации модели SAR(l) с а4 = 0.8 и модели SMA(l) с Ь4 = 0.8 приведены соответственно на рис. 7.19 и 7.20.

Комбинации несезонных и сезонных изменений реализуются, например, в моделях ARMA((1, 4), 1):

Xt = axXt_x + a4Xt_4 +st+bx st_x

hARMA(1,(1,4)):

Xt = axXt_x +st+bx st_x + b4st_4.

Следующие два графика показывают поведение смоделированных реали-

2          1 1

заций таких рядов при ах = —, а4 =~"^"> *4 = ~ в первой модели (рис. 7.21) и при ах - 0.4, Ъх = 0.3, Ь4 = 0.8 во второй модели (рис. 7.22).

Заметим, что для первой модели уравнение a(z) = 0 принимает вид:

l--z +—z4=0, т.е. z4-32z + 48 = 0; 3 48

корни этого уравнения zx = 2, z2 = 2, z3 =-2 +/л/8, z4 = -2 - / л/8 лежат вне единичного круга, что обеспечивает стационарность рассматриваемого процесса. Во второй модели уравнение a(z) = 0 принимает вид:

1 -0.4г = 0;

корень этого уравнения z = 2.5 > 1, так что и эта модель стационарна.

Кроме рассмотренных примеров аддитивных сезонных моделей, употребляются также мультипликативные спецификации, например:

(1 - ах L)Xt = (1 + Ъх L)(l + b4L4)e, {-axL)(-a4LA)Xt=( + bxL)st.

Первая дает

Xt = axXt_x +st+

Страница: | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 |