Имя материала: Эконометрика

Автор: Кремер Н.Ш.

8.3. оценивание моделей с распределенными лагами. обычный метод наименьших квадратов

 

Как мы уже отмечали, в моделях временных рядов часто значения объясняемых переменных зависят от их значений в предыдущие моменты времени.

Авторегрессионной моделью с распределенными лагами порядков р и q (или моделью ADL (р, q) называется модель1 вида

 

yt = а + Ро*, + РЛ-1 + ». + $p*t-P + YiJ>,-i + - + УчУі-g + *t •   (8-14)

При этом, вообще говоря, имеет место корреляция между yt-x И

Именно такого вида модели имеют наибольшее практическое значение, и именно такого вида механизм возникновения корреляции между регрессорами и ошибками регрессии наиболее часто встречается в экономических приложениях. На практике чаще всего возникают модели ADL порядка (0,1), т. е. модели вида2

yt = а + $xt + yyt_x + є, (8.15)

с ошибками регрессии гь подчиняющимися авторегрессионному процессу первого порядка AR(l) или закону скользящей средней первого порядка МА(1):

є, =рє,-і+5,; (8.16) e,=S,+p£,-i. (8.17)

В обоих случаях — независимые, одинаково распределенные случайные величины с нулевыми математическими ожиданиями и дисперсиями а2 (белый шум).

В дальнейшем мы будем иметь дело почти исключительно с моделями вида (8.15).

Рассмотрим сначала результат применения к модели (8.14) обычного метода наименьших квадратов. Начнем с модели (8.15). Предположим сначала для простоты, что регрессор Хв уравнении (8.15) отсутствует, т. е. лаговая переменная j^-i является единственной объясняющей переменной, и модель имеет вид:

Уг = УУі-і + Et (8.18)

1          «ADL» — от английских слов «autogressive distributed lags». Следует отметить, что наряду с авторегрессионной моделью ADL{p,q) в эконометрике используется и «обычная» регрессионная модель с распределенными лагами р-го порядка (или модель DL(p))

yt =а + родс/+рідс/_і+р2дс/-2+». + Р/7^-іР+Є/ •

2          При записи модели ADL(Q,) удобнее коэффициент ро обозначать просто р.

е/=ре/.1+^/. (8.19)

Тогда оценка у, полученная обычным методом наименьших квадратов, имеет вид:

п п

у = ^    = p+-L . (8.20)

1>*2-і 2>м (=i (=i

Напомним, что все ряды  предполагаются стационарными,

т. е. имеют место равенства:

 

£>(є,_,)=я(є(), Cov(jv,, є,_,) = Cov{y,, є,). (8.21)

Таким образом, оценка у (8.20) при увеличении объема выборки сходится по вероятности к величине вида

Со^цеО

 

Найдем величину (8.22) в явном виде. Взяв дисперсии от обеих частей равенств (8.18) и (8.19) и используя (8.21), получим:

D(el) = -^-.      (8.23)

1-р2

D{yt) = fD{yt) + 2tCovG>,_, , є,)+D{et).      (8.24)

Далее:

Cov(y,, є,) = YCov(y,_,, є,)+Z)(s,),  (8.25)

Cov(y,_i, e,) = Cov(y,_i, рєм + є,) = pCov(y,_,, Є,_, ) =

= pCov(j>,,£()

(8.26)

Исключая Cov(yt, є,) из равенств (8.25), (8.26), получим, используя (8.23):

CovGv,, є,) = j           Й         ч • (8.27)

(1 - р2) (1 - ур)

Подставляя выражение (8.23) в (8.24), получаем с учетом (8.27):

Подставляя (8.27), (8.28) в (8.22), получаем, что предел по вероятности оценки (8.20) равен

Y + P 1 + YP*

Очевидно, что несостоятельность оценки (8.20) тем больше, чем сильнее автокорреляция ошибок £. На практике, однако, часто выполняется условие р«у. В этом случае предел оценки наименьших квадратов будет близок к истинному значению параметра, хотя и не равен ему.

Приведенные здесь выкладки можно почти дословно повторить и в том случае, если в модели присутствует объясняющая переменная X, не коррелирующая с ошибками регрессии. Приведем их окончательный результат. Оценка (8.20) сходится по вероятности к величине вида

Y +

a2p(l-y2)       

р2/)(хО(1-р2)(1-Ур)+а2(1 + Ур)

Если условие р«у не выполняется, обычный метод наименьших квадратов может давать существенное отклонение от истинного результата даже на выборках большого объема.

Аналогичные выкладки можно проделать и для моделей (8.15), (8,16). Приведем конечный результат. При увеличении объема выборки оценка параметра у сходится по вероятности к величине

pa2(l-Y2)        (8 29)

p2Z)(x,) + a2(l + 2yp + p2)'

 

8.4. Оценивание моделей с распределенными лагами. Нелинейный метод наименьших квадратов

Рассмотрим модель (8.15) и запишем уравнение модели в момент времени t — 1

yt-i = a + рх,_! + yyt_2 + є,_!. (8.30)

Подставим выражение (8.30) в (8.15). Получим:

уг = а(1 + у)+ рх, + Рух,.! + y2yt-2 + zt +      • (8.31)

Далее запишем уравнение (8.15) в момент времени t—2 и подставим полученное значение yt-2 в (8.31). Продолжая этот процесс до бесконечности, получим:

yt = -^- + fo +РІЛЧ-* + |>Ч-* • (8.32)

1-у       к= к=о

Модель (8.32) называется моделью с распределением Койка лаговых объясняющих переменных. Ее еще иногда называют моделью с геометрическим распределением, имея в виду, что коэффициенты при лаговых переменных образуют геометрическую прогрессию со знаменателем уі (напомним, что уі<1). Преобразование модели (8.15) к виду (8.32) называется обратным преобразованием Койка.

Заметим, что переменные X не коррелируют с ошибками є, так что, применив обратное преобразование Койка, мы решили проблему коррелированное™ регрессоров со случайными членами. Однако применение обычного метода наименьших квадратов к модели (8.32) оказывается на практике невозможным иЗ-за бесконечно большого количества регрессоров. Разумеется, в силу того, что коэффициенты входящего в модель ряда убывают в геометрической прогрессии, и, стало быть, сам ряд быстро сходится, можно было бы ограничиться сравнительно небольшим числом лагов. Однако и в этом случае мы столкнулись бы по крайней мере с двумя трудно решаемыми проблемами. Во-первых, возникла бы сильная мультиколлинеарность, так как естественно ожидать, что лаговые переменные сильно коррелированы. Во-вторых, уравнение оказалось бы неидентифицируе-мым. В модели на самом деле присутствует всего четыре параметра. Между тем как, взяв всего лишь три лага, мы бы получили оценки пяти параметров.

Уравнение (8.32) может быть оценено с помощью процедуры, которая называется нелинейным методом наименьших квадратов. Опишем эту процедуру.

1. С достаточно мелким шагом (например, 0,01) перебираются все значения у из возможной области значений этого параметра (если никакой априорной информации не имеется, то эта область — интервал (0, 1). Получается последовательность значений у(а

2. Для каждого значения уа) вычисляется значение

Предел суммирования К выбирается так, что дальнейшие члены ряда вносят в его сумму незначительный вклад (очевидно, чем меньше выбранное значение y(fl), тем меньше членов ряда приходится учитывать).

3. Для каждого № методом наименьших квадратов оценивается уравнение

о ( а) yt=OL + \$Xt +Ut.

(8.33)

4.         Выбирается то уравнение (8.33), которое обеспечивает

наибольший коэффициент детерминации R2. Соответствующее

значение у<в> принимается за оценку параметра у. Вычисляются

оценки а, р.

5.         Оценки исходных параметров находятся следующим образом:

&! =a(l-y), pi =ру.

Процедура нелинейного метода наименьших квадратов реализована в большинстве компьютерных пакетов.

Обратим внимание на то, что хотя с помощью обратного преобразования Койка устранена коррелированность регрессоров с ошибками, но автокорреляция ошибок приобретает сложную структуру, и устранение ее может оказаться практически невозможным. Так что хотя получаемые таким образом оценки оказываются состоятельными, они обладают всеми теми недостатками, о которых подробно говорилось в гл.7.

 

Страница: | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 | 38 | 39 | 40 | 41 | 42 | 43 | 44 | 45 | 46 | 47 | 48 | 49 | 50 | 51 | 52 | 53 | 54 | 55 | 56 | 57 | 58 | 59 | 60 | 61 | 62 | 63 | 64 | 65 | 66 | 67 | 68 | 69 | 70 | 71 | 72 | 73 | 74 | 75 | 76 | 77 | 78 | 79 | 80 | 81 | 82 | 83 | 84 | 85 | 86 | 87 | 88 | 89 |