Имя материала: Введение в эконометрику

Автор: Кристофер Доугерти

Доказательство несостоятельности

 

Доказательство справедливости выражения (8.12) не содержит ничего такого, что было бы нам неизвестно, и оно не особенно длинно, поэтому и приводится в данной книге. Если, однако, оно покажется трудным, можно пропустить его и перейти к следующему разделу.

Так как х и и не являются независимо распределенными величинами, не существует простого способа описать результирующее поведение отношения Cov (х, u)/Var (х) в малых выборках. Нельзя даже получить выражение для его математического ожидания. Самое большее, что можно сделать, — это предсказать его поведение в том случае, если бы выборка была очень большой. Это отношение стремилось бы к теоретической ковариации между х и и, деленной на теоретическую дисперсию х. Мы рассмотрим этот вопрос отдельно.

Пользуясь определениями х и и, а также правилами вычисления ковариации, можно получить разложение их выборочной ковариации:

Cov (х, и) = Cov {(z + w),(v - Pw)} =

= Cov (z, v) + Cov (vv, v) - Cov (z, M - Cov (w, pw). (8.13)

Выборочные дисперсии и ковариации с ростом объема выборки стремятся к своим теоретическим аналогам, если последние существуют. В нашем случае как pop. cov (z, v), так и pop. cov (z, pw) равны нулю. Предположим, что связь между v и w отсутствует, так что pop. cov (w, v) равна нулю. Тогда остается член -pop. cov (w, pw), представляющий собой -р pop. cov (w, w) или -p pop. var (w). Следовательно, теоретическая ковариация между х и и равна ~Paw2.

Теперь мы рассмотрим Var(x): она равна Var w). Поэтому, используя правила вычисления дисперсий, имеем:

Var (х) = Var (z + w) = Var (z) + Var (w) + 2 Cov (z, и>). (8.14)

В предположении, что z и w распределены независимо, получим, что pop. cov (z, w) равна нулю, a Var (х) будет в больших выборках стремиться к

Сопоставляя эти два результата, можно показать, что Cov (х, w)/Var(x) в больших выборках стремится к —Ра 2/(а2 + а2); поэтому ввиду (8.2) b стремится к

' ,2

Подпись: 2 Р- (8.15)

 

Если выразить это, используя показатели сходимости по вероятности, то можно записать:

.....   Q   pIim{Cov(x, и)}   0 -ра2

phm(Z0 = Р +      *     ' Д / = Р +  2     2-        (8 16)

phm{Var(x)     а^+а^ *вло'

 

Ошибки измерения зависимой переменной

Ошибки измерения зависимой переменной не имеют столь большого значения. На практике их можно считать составляющими случайного члена. Они нежелательны, так как все, что увеличивает «уровень шума» в модели, приводит к уменьшению точности оценок коэффициентов регрессии; тем не менее, они не вызывают смещения этих оценок.

Предположим, что истинное значение зависимой переменной равно q и истинная зависимость имеет вид:

? = oc + px + v, (8.17)

где v — случайный член. Если yt — это измеренное значение зависимой переменной в 1-м наблюдении и г, — ошибка измерения, то

Уі = Я, + гг (8.18)

Следовательно, зависимость между наблюдаемым значением зависимой переменной и х представляется выражением:

j;-r = a + pjc + v, (8.19)

которое может быть переписано как

j; = a + px + w, (8.20)

где и — составная случайная переменная (v +г).

Единственное отличие этой модели от обычной заключается в том, что случайный член в уравнении (8.20) имеет две составляющие: первоначальный случайный член и ошибку измерения^. Важно, что здесь нет воздействия на объясняющую переменную х. Следовательно, если переменная х является неслучайной или если она распределяется независимо от и, то МНК по-прежнему будет давать несмещенные оценки.

 

Дисперсия Var(x), не стремящаяся к конечному пределу при увеличении объема выборки

Если с ростом объема выборки Var (х) неограниченно увеличивается, то в обсуждение последствий включения в объясняющую переменную ошибок измерения требуется внести поправку. Мы видели, что для любой конечной выборки

 

Р          VarU) + Var(w) + 2Cov(*,w) (И-^1)

Можно показать, что при разумных предположениях, когда Var (z) увеличивается, все другие составляющие ошибки становятся пренебрежимо малыми по сравнению с Var (г), и, следовательно, при росте объема выборки ошибка будет стремиться к нулю. Другими словами, влияние ошибок измерения становится пренебрежимо малым в больших выборках, в результате чего оказывается, что МНК приводит к состоятельным оценкам. Тем не менее в малых выборках они будут смещенными.

Более важное предположение состоит в том, что переменная w действительно гомоскедастична. Это значит, что о2 постоянна; следовательно, мы предполагаем, что дисперсия ошибки измерения не увеличивается по мере ростах. Если же это не так, то наши рассуждения и выкладки становятся некорректными.

 

Упражнения

В некоторой отрасли промышленности фирмы определяют соотношение между запасами готовой продукции (У) и ожидаемыми годовыми объемами продаж (Xе) в соответствии с линейной зависимостью:

Y=a + $Xe.

Фактические объемы продаж отличаются от ожидаемых на случайную величину и, которая распределена с нулевым математическим ожиданием и постоянной дисперсией:

Х= Xе + и.

При этом распределение и независимо от Xе.

В распоряжении исследователя имеются данные об К и Х(но не об X*), полученные по результатам перекрестной выборки для фирм в стране. Опишите проблемы, с которыми придется иметь дело в случае использования обычного МНК при построении регрессионной зависимости У от Хи оценивании аир.

В аналогичной отрасли промышленности фирмы связывают предполагаемые запасы готовой продукции (Y*) с ожидаемыми годовыми объемами продаж (Xе), используя линейную зависимость:

Г + а + р*<.

Фактические объемы продаж X отличаются от ожидаемых на случайную величину и, которая распределена с нулевым математическим ожиданием и постоянной дисперсией:

Х=Хе + и.

Величина и распределена независимо от Xе. Так как непредусмотренные объемы продаж приводят к уменьшению запасов, фактические запасы Y выражаются в виде:

Y= Y*-u.

В распоряжении исследователя имеются данные по У и X перекрестной выборки фирм в масштабе страны (но нет данных по Y* и Xе). Опишите проблемы, с которыми придется столкнуться в этом случае, если для оценивания а и (3 при построении регрессионной зависимости Кот А'используется обычный МНК.

 

Страница: | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 | 38 | 39 | 40 | 41 | 42 | 43 | 44 | 45 | 46 | 47 | 48 | 49 | 50 | 51 | 52 | 53 | 54 | 55 | 56 | 57 | 58 | 59 | 60 | 61 | 62 | 63 | 64 | 65 | 66 | 67 | 68 | 69 | 70 | 71 | 72 | 73 | 74 | 75 | 76 | 77 | 78 | 79 | 80 | 81 | 82 | 83 | 84 | 85 | 86 | 87 | 88 | 89 | 90 | 91 | 92 | 93 | 94 | 95 | 96 | 97 | 98 | 99 | 100 | 101 | 102 | 103 | 104 |