Имя материала: Введение в эконометрику

Автор: Кристофер Доугерти

8.1. стохастические объясняющие переменные

До сих пор мы считали, что объясняющие переменные в регрессионной модели являются нестохастическими. Это означает, что если бы нам пришлось повторить регрессионный анализ с новой выборкой, то значения объясняющих переменных остались бы неизменными. При этом значения зависимой переменной изменились бы, потому что новая выборка содержала бы новую совокупность значений случайного члена.

Такое допущение может показаться странным. На практике в эконометрике мы оцениваем параметры модели регрессии только один раз. Редко бывает возможность повторить расчет с теми же или с другими значениями объясняющих переменных. Единственным общим исключением являются эксперименты лабораторного типа, основанные на использовании метода Монте-Карло.

Причина выдвижения данного предположения была технической и заключалась в упрощении анализа свойств оценок регрессии. Например, мы видели, что в модели парной регрессии

у = а + $х + и (8.1)

оценка МНК коэффициента наклона может быть представлена в виде разложения:

,   Cov(x, у)       Cov(x, и)

Var(x)  ~Р+ Var(x) ' <8'2)

Теперь если х — нестохастическая переменная, то Var (х) также является нестохастической величиной, и математическое ожидание ошибки может быть записано как Е[Со (х, a)]/Var (х). Кроме того, если переменная х неслучайна, то Е[Со (х, и)] = 0. Поэтому доказательство того, что Ъ — несмещенная оценка р, не вызвало затруднений. Хотя доказательство не было представлено, предположение о нестохастичности использовалось и при получении выражения для стандартной ошибки коэффициента. Кроме того, оно используется в теореме Гаусса—Маркова, доказывающей, что если удовлетворены условия Гаусса—Маркова, то оценки МНК эффективны.

В экономической практике предположение о нестохастичности часто оказывается весьма нереалистичным. Обычно обнаруживается, что объясняющие переменные модели сами были определены из других экономических зависимостей. Как мы увидим в главе 11, часто желательно рассматривать не одну зависимость изолированно, а целую систему зависимостей, действующих одновременно.

Мы изучим три типа моделей со стохастическими объясняющими переменными, классифицируемых в соответствии с тем, какова связь между распределениями этих переменных и распределением случайного члена. Все они имеют важное практическое значение.

В моделях первого типа объясняющие переменные распределены независимо от случайного члена.

В моделях второго типа объясняющие переменные и случайный член не являются независимыми, но их значения в каждый момент времени некоррелированы (т. е. текущие значения объясняющих переменных не коррелируют с текущим значением случайного члена).

В моделях третьего типа значения объясняющих переменных и случайного члена коррелируют в каждый момент времени.

Прежде чем начать рассмотрение указанных типов моделей, необходимо прояснить вопрос, о котором нередко забывают, — о дисперсиях и ковариаци-ях объясняющих переменных в больших выборках. Обычно предполагается, что они стремятся к конечным пределам. Для упрощения мы примем здесь сильную форму этого допущения, заключающуюся в том, что объясняющие переменные могут рассматриваться как особый вид случайных переменных, для которых выборочные значения извлекаются (не обязательно независимо) из генеральных совокупностей с конечными средними, дисперсиями и ковариация-ми.

Справедливости ради следует отметить, что, по-видимому, мотивация для этого предположения — прежде всего практическая, так как это делает несложным определение поведения оценки в больших выборках. Действительно, это предположение является целесообразным, если вы имеете дело со статистическими данными, относящимися к различным отраслям экономики, и наблюдения берутся (случайно или в рамках схемы расслоенной выборки) из данной генеральной совокупности. Это предположение может быть также обоснованным в том случае, когда вы имеете дело с данными временного ряда, сформированными стационарным процессом, т. е. таким, в котором распределение хне зависит от времени. Уравнение (7.21) является примером стационарного процесса при выполнении условия устойчивости — 1 < р < 1.

Тем не менее во многих моделях, особенно в тех, где используются данные временных рядов, это предположение не является целесообразным. Весьма очевидно, что когда модель включает переменные с трендом, имеет смысл считать, что Var(x) неограниченно увеличивается по мере расширения периода выборки. Примером являются функции спроса, которым в этой книге уделяется особое внимание. Поэтому мы будем рассматривать также и эту альтернативу. Анализ ограничим рассмотрением модели парной регрессии (8.1), но результаты легко распространяются и на случай множественной регрессии.

 

Случай, когда распределение х имеет конечное математическое ожидание и конечную дисперсию

Сначала рассмотрим случай, когдах извлекается из генеральной совокупности с конечными математическим ожиданием и дисперсией, обозначаемой а2.

 

а) х и и независимо распределены

Если х и и распределяются независимо друг от друга, то обычный МНК сохраняет все свои важные свойства. Сюда относятся несмещенность, эффективность и состоятельность. Кроме того, критическая статистика может использоваться, как обычно, при условии, что распределение х не зависит от параметров а, р или аа. Мы покажем, что выполняются условия несмещенности и состоятельности, а соблюдение требования эффективности примем на веру.

 

Несмещенность

Если л: — стохастическая переменная, то Var (х) не может рассматриваться как скаляр, поэтому мы не можем переписать E[Cov(x, «)/Var(x)] как £[Cov (х, #)]/Var (х). Следовательно, обычное доказательство несмещенности здесь не проходит. Однако мы можем найти другой способ разложения ошибки:

1

Соу(х,и) _ п Var(x)

Var(x)

 

=41

/     - л

Xj - х ,Var(x)J

 

(щ -м) = -]£ /(x/)(w, - u n

 

(8.3)

где /(*,)*= (*/-*)/Var(x).

Далее, если x и u распределены независимо, то также независимо будут распределены f(x) и и. Следовательно, используя одно из свойств независимости (см. Обзор), получаем:

£[/(*,)(«, -«)] = Е[/(х,)Щи, -й] = £[/(*,)]хО,

(8.4)

так как            согласно предположению, равно нулю в каждом наблюдении.

Следовательно, если мы берем математическое ожидание обеих частей уравнения (8.3), то правая часть приводится к виду: (1/л), умноженное на сумму п членов, каждый из которых равен нулю. Следовательно, математическое ожидание ошибки равно нулю.

 

Состоятельность

 

Показать состоятельность также легко, если х имеет конечную теоретическую дисперсию cj2. Мы знаем, что в общем случае plim (А/В) равен plim (А)/ plim (В), где А и В — произвольные случайные величины, у которых plim (А) и plim (В) существуют и plim (В) не равен нулю (см. Обзор; plim означает предельное значение при увеличении объема выборки). Мы также знаем, что plim Cov (х, и) равен pop. cov (х, и), которая равна нулю, если х и и независимо распределены. Следовательно,

..  ,   0   plimCov(x,w)   0    0 0 р mVar(jc) а2

 

б) х и и одномоментно некоррелированы

Классический пример (единственный, который мы здесь рассмотрим), когда объясняющая переменная и случайный член одномоментно некоррелированы, заключается в использовании лаговой зависимой переменной в качестве одной из объясняющих переменных. Если мы имеем модель

З^а + Рл + р^+н,, (8.6)

то yt_{ находится непосредственно под воздействием и косвенно — под влиянием всех предшествующих значений случайного члена. Следовательно, одна из объясняющих переменных в этой модели не имеет независимого от случайного члена распределения, и МНК не дает несмещенных оценок. Тем не менее несмотря на то, что приведенное выше доказательство несмещенности становится некорректным, доказательство состоятельности остается справедливым; если ум и ut некоррелированы, то можно показать, что plim Cov (у,_р uf) равен нулю. Таким образом, МНК сохраняет желательные свойства в больших выборках, хотя в малых это не обязательно так.

 

в) х и и одномоментно коррелированы

Если х и и одномоментно коррелированы, то Cov (х, и) не будет стремиться к нулю даже в больших выборках, и оценка, полученная обычным МНК, является как смещенной, так и несостоятельной. Смещение в большой выборке равно пределу по вероятности Cov (х, u)/g 2.

Var (x) неограниченно возрастает

 

При разумных предпосылках представленные выше выводы, за одним исключением, остаются неизменными и в случае, когда взамен применявшегося ранее делается предположение о том, что по мере увеличения объема выборки Var (х) неограниченно растет. Основное отличие состоит в том, что, даже когда значения х и и коррелированы в каждый данный момент времени, МНК может обеспечивать состоятельность получаемых оценок. Если Cov (х, и) имеет конечный предел, a Var (х) увеличивается неограниченно, то ошибка в оценке (3 будет в больших выборках исчезать. С другой стороны, если Cov (х, и) не имеет конечного предела, то, очевидно, мало что можно сказать при отсутствии дополнительной информации. В этом случае возникает также проблема интерпретации проверок статистической значимости. Наиболее легкое решение состоит в том, чтобы трактовать их как условные, взятые при фактических выборочных значениях объясняющих переменных.

Мы не будем рассматривать здесь отдельно модель с независимо распределенной стохастической объясняющей переменной. Достаточно сказать, что большинство предыдущих примеров и упражнений в книге, вероятно, в большей мере соответствуют этой модели, чем первоначальной модели с нестохастической объясняющей переменной. Модели с лаговыми зависимыми переменными будут рассматриваться в главе 10. Оставшаяся часть главы 8 и вся глава 11 будут посвящены двум важным случаям, когда х и к в каждый отдельный момент коррелированы: когда данные подвержены воздействию ошибок измерения (глава 8) и когда осуществляется оценка параметров уравнения, входящего в состав системы одновременных зависимостей (глава 11). В обоих этих случаях если мы хотим получить состоятельные оценки, то должны найти какую-либо альтернативу методу наименьших квадратов.

 

Страница: | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 | 38 | 39 | 40 | 41 | 42 | 43 | 44 | 45 | 46 | 47 | 48 | 49 | 50 | 51 | 52 | 53 | 54 | 55 | 56 | 57 | 58 | 59 | 60 | 61 | 62 | 63 | 64 | 65 | 66 | 67 | 68 | 69 | 70 | 71 | 72 | 73 | 74 | 75 | 76 | 77 | 78 | 79 | 80 | 81 | 82 | 83 | 84 | 85 | 86 | 87 | 88 | 89 | 90 | 91 | 92 | 93 | 94 | 95 | 96 | 97 | 98 | 99 | 100 | 101 | 102 | 103 | 104 |