Имя материала: Эконометрика.Конспект лекций

Автор: Ангелина Витальевна Яковлева

1. доступный обобщенный метод наименьших квадратов

Главное отличие доступного обобщенного метода наименьших квадратов от обобщенного метода состоит в оценке ковариационной матрицы случайных ошибок Q обобщенной регрессионной модели. В случае автокоррелированности остатков регрессионной модели для определения оценок неизвестных коэффициентов используется именно доступный обобщенный метод наименьших квадратов (ДОМНК или FGLS).

Оценки неизвестных коэффициентов обобщенной регрессионной модели находятся с помощью FGLS по формуле:

где Q — оценка матрицы ковариаций случайных ошибок обобщенной регрессии.

Оценивание матрицы ковариаций случайных ошибок в модели с автокоррелированными, но гомоскедастичными остатками рассмотрим на примере модели парной регрессии:

У, =00 +K1xt +Є,.

Исходя из предположения, что остатки данной регрессионной модели подчиняются авторегрессионному процессу первого порядка, исходную модель можно представить следующим образом:

yt = 00 +01 xt +p£t-i + vt, £t =pt-i + vt,

гдеp — коэффициент автокорреляции, | p | < 1;

vt — независимые, одинаково распределенные случайные величины с нулевым математическим ожиданием и дисперсией(?2(г;).

Математическое ожидание случайной ошибки регрессионного уравнения равно нулю:

E (є, )= E (pet-, + Vt )= pE (et-,)+ E (vt )= 0. Предположим, что дисперсия случайной ошибки регрессии определяется как:

 

* (є)=

Рассчитаем ковариацию между двумя случайными регрессионными ошибками є2 и єх.

 

cov (є2є1) = Е(є2 X є1) = Е((рє2 + v2 )х є1 )=

= Е(рє,2 )+Е(v2Єl ) = PG-(P.

 

Рассчитаем ковариацию между следующими случайными регрессионными ошибками є3 и є1:

 

cov (єзєі)=Е(єз хєі)=Е((рє2 +v3) хєі) = = Е((р(рє,      ) + v3 )хє,) =р2Е(є,2) +рЕ^є ) +Е(vзЄl) =

=   2 Gv,) P 1-p2-

 

Дальнейший процесс расчета ковариаций продолжается для всех случайных ошибок обобщенного регрессионного уравнения по тому же принципу.

Тогда корреляционную матрицу остатков обобщенной линейной регрессионной модели можно представить:

Подпись: Р

G2 (v,) 1-р2

1

р

Р

1

Р Р

„Т-1

Vpt-1 рТ-2 рТ-3

 

Величина G2(vt) является дисперсией случайной ошибки регрессионного уравнения. Ее выборочную оценку вычисляют по формуле:

 

ТТ

Ъ2> Z(y< - * )2

S2(vt) = - ' '

T-h       T-h

 

где T — объем выборочной совокупности;

h — число оцениваемых по выборке параметров.

Если остатки регрессионной модели являются величинами независимыми (неавтокоррелированными), но гетероскедастич-ными, имеет смысл применение взвешенного метода наименьших квадратов (ВМНК или WLS).

Суть взвешенного метода наименьших квадратов состоит в том, что остаткам обобщенной регрессионной модели придаются определенные веса, которые равны обратным величинам соответствующих дисперсий G2 (є, ). На практике значения дисперсий являются величинами неизвестными, но существует предположение, что они пропорциональны значениям факторных переменных x Это свойство используется для вычисления наиболее подходящих весов.

Ковариационная матрица случайных ошибок может определяться исходя из предположения о пропорциональности величины G2 (є ) факторному признаку xt

x, =yxG (є),

 

где у — ошибка высказанного предположения или некоторая поправка.

Матрицу ковариаций случайных ошибок регрессии можно представить в виде:

 

 

1 2

 

x,

0

t

2

Y

 

 

2

0

x,

t

2

 

Y

0

0

V

 

 

Y

 

x2

 

00

 

0 Ї 0

Существует вероятность, что оценки неизвестных коэффициентов, полученные доступным обобщенным или взвешенным методом наименьших квадратов, не будут удовлетворять основным статистическим свойствам: несмещенности, состоятельности и эффективности. Все зависит от точности оценки матрицы ковариаций случайных ошибок регрессии Q .

 

Страница: | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 | 38 | 39 | 40 | 41 | 42 | 43 | 44 | 45 | 46 | 47 | 48 | 49 | 50 | 51 | 52 | 53 | 54 | 55 | 56 | 57 | 58 | 59 | 60 | 61 | 62 | 63 | 64 | 65 | 66 | 67 | 68 | 69 | 70 | 71 | 72 | 73 | 74 | 75 | 76 | 77 |