Имя материала: Введение в эконометрику

Автор: Кристофер Доугерти

7.7. что можно сделать в отношении автокорреляции?

Возможно, вам удастся устранить автокорреляцию путем определения ответственного за нее фактора или факторов и соответствующего расширения уравнения регрессии. Когда такое возможно, это может оказаться наилучшим решением. Пример приводится в упражнении 10.4.

В других случаях процедура, которую следует принять, будет зависеть от характера зависимости между значениями случайного члена. В литературе наибольшее внимание уделяется так называемой авторегрессионной схеме первого порядка (7.21), так как она интуитивно правдоподобна, но для того, чтобы было целесообразным ее использование в более сложных моделях, оснований обычно не хватает. Вместе с тем если наблюдения проводятся ежеквартально или ежемесячно, могут оказаться более подходящими другие модели, но мы не будем их здесь рассматривать.

Если бы уравнение (7.21) было правильной спецификацией для измерения величины случайного члена, то вы могли бы полностью устранить автокорреляцию, если бы знали величину р. Это будет продемонстрировано на примере уравнения регрессии, включающего только одну объясняющую переменную, однако при большем их числе действует тот же принцип.

Предположим, что истинная модель задается выражением (7.20), так что наблюдения / и / — 1 формируются как

у, = а + рх, + и,; (7.23)

 

j,_i=« + P*/-i+«W (7-24)

Теперь вычтем из обеих частей уравнения (7.23) умноженное на р соотношение (7.24) и получим:

 

y,-W,-i = а(1-р) + Р(х,-рх,_,) + w,-pw,_,. (7.25)

 

Обозначим у{ = yt -pj>,_i, х, = х, - pxt_{ и qt = 1-р. Тогда формулу (7.25) можно переписать как

у, = aqt + рх, + щ - put_{. (7.26)

Вместе с тем из уравнения (7.21) имеем к, — put_{ = є,. Таким образом, формула (7.26) принимает вид:

у, =agt +рх; +£,. (7.27)

Мы предположили, что р известно. Тогда можно вычислить величины у/, Зс; и qt (последняя одинакова для всех наблюдений) для наблюдений, включающих от 2 до Г исходных данных. Если теперь оценить регрессию между yt, xt и qt (заметим, что в уравнение не должна включаться постоянная), то будут получены оценки а и р, не связанные с проблемой автокорреляции, поскольку, согласно предположению, значения є не зависят друг от друга.

Остается, однако, небольшая проблема. Если в выборке нет данных, предшествующих первому наблюдению, то мы не сможем вычислить уі и хх и потеряем первое наблюдение. Число степеней свободы уменьшается на единицу, и это вызовет потерю эффективности, которая может в небольших выборках перевесить повышение эффективности от устранения автокорреляции.

Эту проблему, к счастью, можно довольно легко обойти, пользуясь так называемой поправкой Прайса—Уинстена (Prais, Winsten, 1954). Случайный член є, согласно определению, не зависит от значения и в любом предшествующем наблюдении. В частности, все величины є2, ...,егне зависят от и{. Следовательно, если при устранении автокорреляции все другие наблюдения преобразуются, то не требуется преобразовывать первое наблюдение. Можно сохранить его,

включив в новую схему, полагая, что у{ = у{, qx = 1, хх = хх.

Мы можем таким способом спасти первое наблюдение, но здесь есть небольшая проблема, которую требуется решить. Если р велико, то первое наблюдение будет оказывать непропорционально большое воздействие на оценки, исчисленные по уравнению регрессии. Чтобы нейтрализовать этот эффект, уменьшим вес данного наблюдения умножением его на величину yj - р2, полагая

У = ^1-р2У], хх = yjl-p2xl и <7] = Vі ~Р2- Причина выбора такого столь необычного веса объясняется в приложении 7.4.

Конечно, на практике величина р неизвестна, его оценка получается одновременно с оценками аир. Имеется несколько стандартных способов такого оценивания, и, вероятно, один или нескольких таких способов могут быть реализованы в имеющемся у вас регрессионном пакете.

Метод Кокрана—Оркатта представляет собой итеративный процесс, включающий следующие этапы.

Оценивается регрессия (7,20) с исходными непреобразованными данными.

Вычисляются остатки.

Оценивается регрессионная зависимость et от соответствующая формуле (7.21), и коэффициент при et_{ представляет собой оценку р.

С этой оценкой р уравнение (7.20) преобразуется в (7.27), оценивание которого позволяет получись пересмотренные оценки аир.

Повторно вычисляются остатки, и процесс возвращается к этапу 3.

Чередование этапов пересмотра оценок а и р и оценки р продолжается до тех пор, пока не будет получена требуемая точность сходимости, т. е. до тех пор, пока оценки на последнем и предпоследнем циклах не совпадут с заданной степенью точности.

Метод Хилдрета—Лу, также широко применяемый в регрессионных пакетах, основан на тех же самых принципах, но использует другой алгоритм вычислений. Здесь регрессия (7.27) оценивается для каждого значения р из определенного диапазона с заданным шагом внутри его. (Например, исследователь может задать диапазон от р = -1,00 до р = 1,00 с шагом 0,01.) Значение, которое дает минимальную стандартную ошибку для преобразованного уравнения, принимается в качестве оценки р, а коэффициенты регрессии определяются при оценивании уравнения (7.27) с использованием этого значения.

Когда статистика Дарбина—Уотсона указывает на очень тесную положительную автокорреляцию, можно применить упрощенную процедуру, заключающуюся в предположении, что р= 1. Тогда уравнение (7.25) принимает вид:

у, - у,-х = Р (х, - х,_х) + «,-«,-,. (7.28)

Другими словами, оценивается регрессионная зависимость разности значений у в последовательных наблюдениях от разности значений х. Она известна как уравнение регрессии первых разностей и часто записывается в виде:

Ау,= рАхг + u-ur_v (7.29)

Так как фактическое (неизвестное) значение р, вероятно, будет меньшим единицы, эта процедура, по-видимому, компенсирует автокорреляцию с некоторым избытком. Можно показать, что теоретическая корреляция между последовательными значениями (ut — ut_x) равна —(1 — р)/2. Чем ближе р к единице, тем эта корреляция меньше и, следовательно, тем более вероятно улучшение результатов.

Примеры использования метода первых разностей можно найти в литературе до конца 1970-х гг., но в современных исследованиях он обычно не применяется. До относительно недавнего времени привлекала присущая ему простота вычислений, но теперь, когда итеративные процессы благодаря разработке более мощных и быстродействующих компьютеров связаны с меньшими затратами времени и стали менее дорогостоящими, этот метод считается устаревшим.

 

 

Таблица 7.4

Метод

Доход

 

Цена

 

 

 

 

 

Эластичность

со.

Эластичность

со.

р

со.

d

R2

МНК

0,637

0,026

-0,476

0,121

0,63

0,987

СО— PW

0,651

0,034

-0,578

0,130

0,67

0,16

1.74

0,999

В табл. 7.4 представлены результаты построения логарифмических регрессий между расходами на питание (у), личным доходом (х) и ценой (р) с использованием данных для США (1959—1983 гг.), приведенных в табл. Б.1 и Б.2; применялись обычный метод наименьших квадратов и метод Кокрана—Оркатта с поправкой Прайса—Уинстена (СО—PW). Так как регрессии являются логарифмическими, коэффициенты при у и р следует интерпретировать как показатели эластичности.

Для регрессии по МНК J-статистика указывает на положительную автокорреляцию, статистически значимую при уровне значимости в 1\% и выше; эта гипотеза подтверждается значимостью оценки р в регрессии Кокрана—Оркатта. Приведем пример ситуации, в которой часто возникает недоразумение. Напомним, что стандартная ошибка представляет собой оценку стандартного отклонения рассматриваемого коэффициента (это анализируется в разделах 3.1 и 3.5). Предположим, что мы оценили регрессию и статистика Дарбина—Уотсона (d) указывает на тесную положительную автокорреляцию. Предположим также, что рассчитанная стандартная ошибка данного коэффициента составляет 0,40. По причине автокорреляции стандартная ошибка представляет собой смещенную оценку истинного стандартного отклонения. Последнее могло быть значительно выше, например 0,90. При оценивании регрессии с использованием СО—PW или другого подобного метода истинное стандартное отклонение с повышением эффективности должно снизиться. Для определенности предположим, что оно снижается с 0,90 до 0,70. Стандартная ошибка в этой регрессии должна представлять собой приблизительно несмещенную оценку стандартного отклонения. Предположим, что она составляет 0,68. Часто бывает так, что студент делает вывод о том, что регрессия СО—PW менее эффективна, чем первоначальная, потому что рассчитанная стандартная ошибка возросла с 0,40 до 0,68, Это, конечно, неверно, поскольку оценка 0,40 неверна, и сравнение не имеет смысла. Такая ситуация отражена в табл. 7.5.

 

Таблица 7.5

 

Пер вона чальная

Регрессия

 

регрессия

CO-PW

Стандартное отклонение (истинное)

0,90

0,70

Стандартная ошибка (рассчитанная)

0,40

0,68

В рассматриваемом случае представляется, что стандартные ошибки эластичности спроса по доходу и цене в регрессии по обычному МНК ниже, чем в регрессии по СО—PW; может показаться, что МНК более эффективен. Однако по указанным выше причинам это, вероятно, является не более чем иллюзией. Этот вопрос более подробно рассматривается в приложении 7.1, где дается также общая сравнительная оценка МНК и СО—PW.

 

Упражнения

 

7.8. Ваш регрессионный пакет, скорее всего, включает один или несколько методов, применяемых в случае автокорреляции. Используйте такой метод для оценивания измененного варианта функции спроса, если статистика Дарбина—Уотсона в упражнении 7.6 указала на наличие автокорреляции. Сравните пересмотренные оценки коэффициентов и стандартные ошибки с предшествующими и дайте соответствующие комментарии.

7.9. Студент (назовем его А) получил 30 наблюдений по двум переменным (у и х). Ему сообщили, что у линейно зависит от х и от случайного члена и:

у, = а + рх, + и„

и ему поручено получить оценку р. Истинное значение Р, не известное студенту, составляет 5. Студент предпринимает следующее:

Использовав обычный метод наименьших квадратов, он получает оценку Р, равную 4,64. Стандартная ошибка составляет 1,30; статистика Дарбина—Уотсона (d) равна 0,70.

Затем студент получает информацию о том, что случайный член подвергается воздействию автокорреляции первого порядка, определяемой выражением:

и, = 0,70^_, + е„

1. Объясните, почему студенты, должно быть, не удовлетворены результатами эксперимента 1.

где є, удовлетворяет обычным условиям Гаусса—Маркова и нормально распределено. Студент определяет, что Yt = yt — 0,70д>,_! и Xt = х — 0,70х,_, оценивает регрессию между Yt и Хп получая оценку 5,14 для Р со стандартной ошибкой 0,75 и'статистику Дарбина—Уотсона 1,91. Девять других студентов (В, С,     J) выполняют такие же эксперименты с наблюдениями величины у, полученными по такой же модели и при тех же значениях х, но с другими случайными числами для є,. Результаты приводятся в таблице.

Объясните, почему студенты провели эксперимент 2, когда стал известен характер автокорреляции.

Сравните результаты экспериментов. (Сначала посмотрите на коэффициенты и затем — на стандартные ошибки.)

 

Страница: | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 | 38 | 39 | 40 | 41 | 42 | 43 | 44 | 45 | 46 | 47 | 48 | 49 | 50 | 51 | 52 | 53 | 54 | 55 | 56 | 57 | 58 | 59 | 60 | 61 | 62 | 63 | 64 | 65 | 66 | 67 | 68 | 69 | 70 | 71 | 72 | 73 | 74 | 75 | 76 | 77 | 78 | 79 | 80 | 81 | 82 | 83 | 84 | 85 | 86 | 87 | 88 | 89 | 90 | 91 | 92 | 93 | 94 | 95 | 96 | 97 | 98 | 99 | 100 | 101 | 102 | 103 | 104 |