Имя материала: Эконометрика

Автор: Кремер Н.Ш.

7.9. устранение автокорреляции. идентификация временного ряда

 

Одной из причин автокорреляции ошибок регрессии является наличие «скрытых» регрессоров, влияние которых в результате проявляется через случайный член. Выявление этих «скрытых» регрессоров часто позволяет получить регрессионную модель без автокорреляции.

Наиболее часто «скрытыми» регрессорами оказываются лаго-вые объясняемые переменные (см. § 6.5). В случае временного ряда вполне естественно предположить, что значения объясняемых переменных зависят не только от включенных уже регрессоров, но и от предыдущих значений объясняемой переменной. Рассмотренные тесты показывают, что это почти всегда имеет место в случае автокорреляции.

Другой механизм образования автокорреляции следующий.

Случайные возмущения представляют собой белый шум но на результат наблюдения yt влияет не только величина и но (хотя обычно и в меньшей степени) несколько предыдущих величин ^-1,..., \%-рл

Например, рассматривая модель формирования курса ценной бумаги А9 мы можем считать, что кроме временной тенденции на курс еще влияет конъюнктура рынка, которую в момент времени t можно считать случайной величиной с нулевым средним и некоторой дисперсией. Будем предполагать, что величины независимы. Естественно ожидать, что на формирование курса в момент времени t будет оказывать влияние в первую очередь конъюнктура ^ и (в меньшей степени) конъюнктуры в дни предыдущих торгов      и т. д.

Наиболее распространенным приемом устранения автокорреляции во временных рядах является подбор соответствующей модели — авторегрессионной AR(p), скользящей средней MA{q) или авторегрессионной модели скользящей средней ARMA(p,q) (см. § 6.5) для случайных возмущений регрессии.

В число регрессоров в моделях временных рядов могут быть включены и константа, и временной тренд, и какие-либо другие объясняющие переменные. Ошибки регрессии могут коррелировать между собой, однако, мы предполагаем, что остатки регрессии образуют стационарный временной ряд.

Идентификацией временного ряда мы будем называть построение для ряда остатков адекватной ARMA-модели, т. е. такой ЛЛМ/4-модели, в которой остатки представляют собой белый шум, а все регрессоры значимы. Такое представление, как правило, не единственное, например, один и тот же ряд может быть идентифицирован И С ПОМОЩЬЮ А&-МОДЄЛИ, И С ПОМОЩЬЮ М4-МОДЄЛИ. В

этом случае выбирается наиболее простая модель.

Как подбирать для данного временного ряда модель ARMA? Безусловно, разумен (и часто применяется на практике) метод элементарного подбора — пробуются различные модели; при этом начинается поиск с самых простых моделей, которые постепенно усложняются, пока не будет достигнута идентификация.

Полезную информацию можно получить с помощью выборочных автокорреляционной и частной автокорреляционной функций. В самом деле, вспомним, что выборочная частная автокорреляционная функция гчаст(р) есть оценка параметра рр в авторегрессионной модели р-то порядка. Отсюда делаем вывод:

Если все значения выборочной частной автокорреляционной функции порядка выше р незначимо отличаются от нуля, временной ряд следует идентифицировать с помощью модели, порядок авторегрессии которой не выше р.

Теперь рассмотрим модель скользящей средней

У і = Є/ + УіЄ/-1 + Y2S/-2 + - + Iq^t-q •

Из того, что величины єг при различных / не коррелируют, следует, что величины yt и yt-x могут коррелировать только при x<q. Таким образом, если все значения выборочной автокорреляционной функции порядка выше q незначимо отличаются от нуля, временной ряд следует идентифицировать с помощью модели скользящей средней, порядок которой не выше q.

Типичные примеры коррелограмм временных рядов, идентифицируемых с помощью модели ARMA, изображены на рис. 7.7 (AR(l)) и 7.8 (МА(1)).

 

r(t)f

'част(^)'

 

 

~щ       ►

т О Рис. 7.7

'част (^У

 

Рис. 7.8

Вернемся к примеру формирования курса ценной бумаги А. Приведенные в § 7.8 значения автокорреляционной и частной автокорреляционной функций указывают на то, что модель ARMA остатков регрессии имеет порядок заведомо не выше второго.

Оценим ряд остатков с помощью Л/?(1)-модели. Получим следующее уравнение:

et = 0,5е/_1; d = 1,86. (0,08)

Полученное значение d-статистики Дарбина—Уотсона достаточно близко к двум, гипотеза об отсутствии автокорреляции принимается. Тест Льюинга—Бокса также подтверждает гипотезу о равенстве нулю автокорреляционной функции всех порядков. Таким образом, достигнута идентификация ряда остатков с помощью модели AR(l).

Проведем теперь оценку модели МА(). Уравнение получается следующим:

ё,=$,-0,515$м; <*=1,87.

И в этом случае как значение статистики Дарбина—Уотсона, так и тест Льюинга—Бокса подтверждают гипотезу об отсутствии автокорреляции, т. е. ряд остатков исходной модели может быть идентифицирован и с помощью модели МА(). Причем сравнение полученных результатов показывает, что качество идентификации практически одинаково (возможно, модель AR (1) несколько предпочтительнее в силу того, что значение функции правдоподобия чуть выше: InjL=—504 для модели AR и InjL=—508 для модели МА. Впрочем, различие это несущественно).

Практически полное совпадение результатов идентификации может иметь и экономическое обоснование. Так, например, естественно считать, что конъюнктура рынка в момент предыдущих торгов — это в основном курс ценной бумаги А на этих торгах.

Если удастся построить ARMA-модєль для ряда остатков, то можно получить эффективные оценки параметра р, а также несмещенные и состоятельные оценки дисперсий р с помощью обобщенного метода наименьших квадратов. Мы рассмотрим эту процедуру на простейшей (и в то же время наиболее часто встречающейся) авторегрессионной модели первого порядка.

 

Страница: | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 | 38 | 39 | 40 | 41 | 42 | 43 | 44 | 45 | 46 | 47 | 48 | 49 | 50 | 51 | 52 | 53 | 54 | 55 | 56 | 57 | 58 | 59 | 60 | 61 | 62 | 63 | 64 | 65 | 66 | 67 | 68 | 69 | 70 | 71 | 72 | 73 | 74 | 75 | 76 | 77 | 78 | 79 | 80 | 81 | 82 | 83 | 84 | 85 | 86 | 87 | 88 | 89 |