Имя материала: Эконометрика

Автор: Кремер Н.Ш.

10.1. выбор одной из двух классических моделей. теоретические аспекты

В этом параграфе мы рассмотрим проблемы спецификации классической модели, удовлетворяющей предпосылкам 1—6 (см. § 4.2). Соответствующая задача может быть сформулирована следующим образом. Пусть регрессоры разделены на две группы — X и Z, причем регрессоры X являются важными, и параметры при них требуется оценить с максимально возможной точностью, между тем, как регрессоры Z представляют значительно меньший интерес, и оценки соответствующих им параметров сами по себе для нас не важны. Следует выбрать одну из моделей:

Y=X$ + Zy + є; У=*р + є.

(ЮЛ) (Ю.2)

 

Модель (10.1) при решении задачи спецификации называют «длинной», а модель (10.2) — «короткой». При этом истинное значение коэффициента р в обеих моделях одно и то же. Именно этот параметр нам и требуется оценить.

Для того, чтобы сделать выбор между моделями (10.1) и (10.2), прежде всего надо определить критерии предпочтения. Таких критериев может быть два.

1. В случае равенства коэффициентов у нулю истинное значение параметра р одно и то же, но значения оценок Ь, полученных с помощью метода наименьших квадратов из моделей (10.1), (10.2) будут различными. Следует предпочесть ту оценку, которая «ближе» к истинному значению. Такой характеристикой «близости» является средний квадрат отклонения

ц(А) = Л/[(А-Р)(А-Р)'].

Заметим, что ju представляет собой квадратную матрицу порядка где р — число регрессоров X. (Напомним (см. § 11.8), что квадратная матрица А называется «большей», чем квадратная матрица Д если их разность А—В есть положительно определенная матрица.)

Таким образом, из двух моделей (10.1), (10.2) следует выбрать ту, для которой получается оценка р с меньшей величиной ju.

2. Пусть уп+1 — прогнозное значение, которое получается из модели для еще не наблюдаемых значений регрессоров. Величина ЩУп+ ~ Уп+)2 может рассматриваться как средняя ошибка прогноза. Следует выбрать ту модель, для которой эта ошибка меньше.

Можно показать, что критерии 1 и 2 (т.е. выбор модели по минимуму ц(6)или М(уп+Х -уп+)2)равносильны. Их условия записываются с помощью одного и того же соотношения, полученного Я. Магнусом в работе [20]. В настоящей главе мы приведем соответствующие результаты в несколько упрощенной форме.

Пусть b, g — оценки параметров р и у , полученные с помощью метода наименьших квадратов из модели (10.1); р2 — оценка р из модели (10.2). Применение обычных формул (4.8) дает следующий вид этих оценок:

Ъх = (X'MzX)~lX'MzY; g={Z'MxZTlZ'MxY b2 = (Х'Х)~ХХ\%

(10.3) (Ю.4) (10.5)

где Мх, Mz — матрицы вида:

Мх = Е - X (Х'Х)~ХХ, Mz= Е - Z(Z Z)~XZ' (10.6)

(E — единичная матрица). Отметим, что матрицы Мх, Mz являются ыдемпотентнымы (см. § 11.8). Имеет место соотношение

(X'MZX)-]XX-(ХХ)~ХХ Z (Z'MXZ)-]Z'X= Е,

в справедливости которого легко убедиться непосредственно. Используя это соотношение, равенство (10.3) можно переписать в виде:

bi =(Х'Х)~ХХ Y~ (X'X)-XZ'(Z'MXZ)-XZ'MXY, т. е. (см. (10.4)):

bx=b2- (ХХ)~Х XZg. (10.7)

Обозначим (Х'Х)~Х(ХZ) = bzx. (Заметим, что вид матрицы bzx такой же, как у оценки параметра эконометрической модели. При этом, однако, формально bzx нельзя назвать оценкой, так как величины X, Z — н е с л у ч а й н ы е.)

Перепишем равенство (10.7) в виде:

b2 = bl + bzxg. (10.8)

Приведем теперь (опуская промежуточные вычисления) формулы для вычисления ковариационных матриц оценок b, b2, g

Covfo) = а2 [{Х'Х) -1 + (Х'Х)-1 X'Z(Z'MX Z)_1 Z'X(X'X)-] ];

Cov(g)=o2(Z'MxZ)-1; (10.9) Cov(ft2) = a2(Araf)"1,

где a2 — дисперсия є,-.

Используя формулы (10.9), получаем:

Cov(6j) = Cov(Z>2)+4;c(Cov (g)b'zx. (10.10)

Проанализируем полученные результаты (10.8) и (10.10). В силу выполнения условий классической модели опенка Ь в любом случае является несмещенной (и при у = 0, и при у ф 0). Между тем равенство (10.8) показывает, что если истинное значение у не равно нулю, оценка bi является смещенной со смещением bzxy . При этом явный вид смещения указывает на то, что оно будет положительным, если Z «одинаково направлены» по отношению к X и Z, и отрицательно в противоположном случае.

В то же время равенство (10.10) означает, что оценка Ь в любом случае имеет большую ковариацию, чем оценка Ь^. Из формул (10.8)—(10.10) получаем:

и(*і)-ц(^=*«®*«, (10.11)

где

0 = Cov(g)- уу'. (10.12)

Таким образом, мы можем сделать вывод:

Если матрица (10.12) является положительно определенной, т. е. имеет только положительные собственные значения, то модель (10.2) лучше оценивает параметр (3, даже если на самом деле верна модель (10.1).

Если матрица (10.12) имеет как положительные, так и отрицательные собственные значения, то вопрос не решается столь однозначно. Возможно, в этом случае имеет смысл предпочесть короткую модель (10.2), если след матрицы (10.12) положителен.

Обратимся теперь к критерию минимальности ошибки прогноза. Пусть имеется наблюдение хп+1, т. е. (хп+, zn+) в случае

модели (10.1) и хп+ в случае модели (10.2). Прогнозные значения в этих случаях равны:

У = *п+Ь + zn+ g (10.13)

У2= *п+ h- (10.14)

Заметим, что случайная величина (10.13) имеет то же математическое ожидание, что и наблюдаемое значение случайной величины уп+. Непосредственные вычисления дают следующие значения для средних ошибок прогноза:

Щуі -Уп+)2 = °2 + с2хп+х{Х'ХТхх'п+х + vCov(g)v', ШУ2 -Уп+)2 = °2+ G2xn+](X'X)-lx'n+i +vyy'V,

где v = xn+zx - Zn+m Следовательно,

Щуі -Уп+)2~М(у2 -jb+i) = v0v (10.15)

где 0 — матрица (10.12).

Таким образом, и здесь положительная определенность матрицы (10.12) означает большую предпочтительность короткой модели (10.2) — даже, если истинное значение параметра у не равно нулю. Если же матрица (10.12) имеет как положительные, так и отрицательные собственные значения, то можно выбрать «короткую» модель (10.2), если положителен след матрицы (10.12).

Можно показать, что матрица вида (10.12) является положительно определенной в том и только том случае, если выполняется условие:

e = y'(Cov(g))-1y < 1. (10.16)

Таким образом, модель (10.2) оказывается с математической точки зрения предпочтительней модели (10.1), если выполняется условие (10.16).

 

Страница: | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 | 38 | 39 | 40 | 41 | 42 | 43 | 44 | 45 | 46 | 47 | 48 | 49 | 50 | 51 | 52 | 53 | 54 | 55 | 56 | 57 | 58 | 59 | 60 | 61 | 62 | 63 | 64 | 65 | 66 | 67 | 68 | 69 | 70 | 71 | 72 | 73 | 74 | 75 | 76 | 77 | 78 | 79 | 80 | 81 | 82 | 83 | 84 | 85 | 86 | 87 | 88 | 89 |