Имя материала: Эконометрика

Автор: Кремер Н.Ш.

9.2. косвенный метод наименьших квадратов

1 В матрице-столбце X единица означает фиктивную переменную, умножаемую на свободные члены уравнений системы.

В основе предлагаемого метода лежит простая идея. Поскольку препятствием к применению метода наименьших квадратов является коррелированность эндогенных переменных со случайными членами, следует разрешить систему уравнений относительно У, так, чтобы в правых частях уравнений оставались только экзогенные переменные X. Очевидно, что для уравнений (9.3), (9.4) это всегда можно сделать. Затем применить обычный метод наименьших квадратов к полученным уравнениям и получить оценки некоторых выражений от исходных параметров, из которых потом найти оценки и самих параметров.

Такая процедура называется косвенным методом наименьших квадратов. Продемонстрируем его на примере системы (9.3)—(9.4).

Разрешая уравнения (9.3)—(9.4) относительно Yx, Y^ запишем уравнения в виде:

Yx = ax+bxXx+cxX2+vx, Y2 =а2 +b2X х+с2Х2+v2,

 

(9.5)

где

(9.6)

 

ах = — , а2 = —           , Ьх =  ; Ь2=-

I-Y1Y2            I-Y1Y2            I-Y1Y2 I-Y1Y2

Y1P2       п       Р2        л, _ Yi£2+£i   л, _У2Єі+є2

С9 —    ;    Vi —            ; V9--

I-Y1Y2            I-Y1Y2            I-Y1Y2 I-Y1Y2

(индекс t для простоты опущен).

Для дальнейшего упрощения будем считать, что переменные Y отцентрированы, т. е. а = 0. (При практическом применении метода это абсолютно несущественно.) Применив к (9.5) обычный метод наименьших квадратов, получим оценки параметров Ь, с.

г __(X2X2){XlYl)-{XlX2)(X2Y])

(XlXl)(X2X2)-(XlX2)

. _{XlX]){X2Y])-(XlX2)(XlYl)

(xlxl)(x2x2)-(xlx2)2

^ _ (X2X2)(X]Y2)-(XlX2)(X2Y2)

(x]x])(x2x2)-(xlx2)2

ё _(X[Xl)(X2Y2)-(XlX2)(X[Y2)

(x{xx){x2x2)-(xxx2)2

 

(9.7)

где      ) =        (щ) = ±у1іУ!; , (х^) = ±хиУіі ,

xtb xtp Уїь Угі — значения переменных Xh Хр Yh Yj.

Между тем равенства (9.6) позволяют однозначно выразить исходные параметры а, р, у через я, Ъ, с.

 

~ _Ъхс2-Ъ2сх   ~ _bxc2-b2cx

Pi -        Л       ' Р2"

(9.8)

с2 Ъх С Ъх

Таким образом, используя (9.6), получаем:

(9.9)

- _ (XXYX){X2Y2)-(X2YX)(XXY2) Pl (XxXx)(X2Y2)-(XxX2)(XxY2y В _ (^YX)(X2Y2)-(X2YX)(XXY2) Р2 (X2X2)(XxYx)-(XxX2)(X2Yxy

_(XXXX)(X2YX)-(XXX2)(XXYX) Yl (XxXx)(X2Y2)-(XxX2){XxY2y . (X2X2)(XXY2)~(XXX2)(X2Y2) Ъ (X2X2)(X2Yx)-(XxX2)(X2Yxy

 

Оценки (9.8) называются оценками косвенного метода наймень-mux квадратов. В отличие от оценок прямого применения метода наименьших квадратов оценки (9.9) состоятельны.

Рассмотрим пример исследования системы (9.3)—(9.4). Пусть имеются данные по п = 200 наблюдениям переменных.

На рис. 9.1 приведены гистограммы и основные числовые характеристики соответствующих выборок.

Series: X1

 

Sample 1 200

 

Observations 200

Mean

5,019551

Median

4,967329

Maximum

6,715498

Minimum

3,589654

Std. Dev.

0,611454

Skewness

-0,001757

Kurtosis

2,589694

Jarque-Bera

1,403028

Probability

0,495834

Подпись:
Подпись:

Series: X2

 

Sample 1 200

 

Observations 200

 

Mean

12,00998

Median

11,98016

Maximum

13,12772

Minimum

10,95409

Std. Dev.

0,403707

Skewness

0,111117

Kurtosis

2,590569

Jarque-Bera

1,808515

Probability

0,404842

4121

Ml

1000 1200 1400 1600 1800 2000 2200 2400

 

Series: Y1

 

Sample 1 200

 

Observations 200

Mean

1712,685

Median

1708,201

Maximum

2545,273

Minimum

896,9183

Std. Dev.

346,7838

Skewness

-0,088008

Kurtosis

2,486183

Jarque-Bera

2,458246

Probability

0,292549

 

Подпись:  600    800    1000   1200   1400   1600 1800

 

Series: Y2

 

Sample 1 200

 

Observations 200

 

Mean

1255,944

Median

1257,273

Maximum

1916,141

Minimum

583,9797

Std. Dev.

279,9589

Skewness

0,092848

Kurtosis

2,482940

Jarque-Bera

2,515282

Probability

0,284324

г

Рис.9.1

Применим сначала обычный метод наименьших квадратов. Получим следующие результаты:

ух = 3153,451 +15,73х, - l,2y2 ;d = l ,894, R2 = 0,9999; (5,127)  (0,687) (0,001)

у2 = 2606,23 +12,88х2 -0,83^; d = 1,893, R2 = 0,9999. (1,75)  (0,581) (0,001)

В обоих случаях мы имеем практически стопроцентную подгонку: коэффициент детерминации равен единице с точностью до четвертого знака. Однако, как мы знаем, полученные оценки несостоятельны, и, следовательно, их значения могут заметно отклоняться от истинных значений параметров.

Применим теперь косвенный метод наименьших квадратов: оценим регрессионную зависимость Yt по Х и Х2

ух = 2242,1 Ъ5 + 471,19хх - 241,07х2 ;d = l ,96, R2 = 0,778,

(361,2)    (19,04) (28,83) у2 = 727,7 -376,37*! + 201,29х2 ;d = l ,96, R2 = 0,769,

(297,35) (15,67)    (23,74) , Таким образом, получаем:

Ъх = 471,19; С = -241,07; Ь2 = -376,37; с2 = 201,29;    (9 щ ах = 2242,755; а2 = 727,7,

откуда, используя (9.8), получаем:

а! = 3114,286; а2 = 2519,134; рх = 20,43; р2 = 8,73;    (9 ^ У! = -1,198; Y2 = -0,8.

Как видно, полученные таким образом оценки заметно отличаются от полученных прямым методом наименьших квадратов.

 

Страница: | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 | 38 | 39 | 40 | 41 | 42 | 43 | 44 | 45 | 46 | 47 | 48 | 49 | 50 | 51 | 52 | 53 | 54 | 55 | 56 | 57 | 58 | 59 | 60 | 61 | 62 | 63 | 64 | 65 | 66 | 67 | 68 | 69 | 70 | 71 | 72 | 73 | 74 | 75 | 76 | 77 | 78 | 79 | 80 | 81 | 82 | 83 | 84 | 85 | 86 | 87 | 88 | 89 |