Имя материала: Институт экономики переходного периода

Автор: Носко Владимир Петрович

2.7. проверка статистических гипотез о значениях коэффициентов

В только что рассмотренном примере мы построили 95\% — доверительный интервал для параметра в 2 в виде

в 2   " 10.975 (15)        < в 2 <в 2 + 10.975 (15) ,

т. е.     

1-0.0075 <6>2 < 0.2580 .1

Существенно, что при любом истинном значении параметра 0 2 вероятность накрытия этого значения построенным доверительным интервалом равна 0.95.

Рассмотрим значение 0 2 = 1; построенный интервал его не накрывает. Однако если 0 2 действительно равняется 1, то вероятность такого ненакрытия равна 1 - 0.95 = 0.05. Таким образом, факт ненакрытия значения 0 2 = 1 построенным интервалом представляет (в случае, когда в2 -1) осуществление

довольно редкого события, имеющего малую вероятность 0.05, и это дает нам основания сомневаться в том, что в действительности 0 2 = 1.

То же самое относится и к любому другому фиксированному значению 0 2, не принадлежащему указанному 95\% -доверительному интервалу: предположение о том, что в действительности 0 2 = 0 00, представляется маловероятным.

Подобного рода предположения называют в этом контексте статистическими гипотезами (statistical hypothesis). О проверяемой гипотезе говорят как об исходной — «нулевой» (maintained, null) гипотезе

и обозначают такую гипотезу символом Н0, так что в последнем случае мы имеем дело с гипотезой

#0 : ^2 - 0 0

В соответствии со сказанным выше, такую гипотезу естественно отвергать (отклонять), если значение 0 0 не принадлежит 95\%-доверительному интервалу для02, т. е. интервалу

[-0.0075, 0.2580] .

Вспоминая, как этот интервал строился, мы замечаем, что в°2 не принадлежит этому интервалу тогда и только тогда, когда

^ 12.975 (15) ,

& 2 ~в 2

 

т. е. когда наблюдаемое значение отношения

& 2 ~в 2

 

«слишком велико» по абсолютной величине. Последнее означает «слишком большое» отклонение оценки в 2 от гипотетического значения в 2 параметра в 2, в сравнении с оценкой s~   значения ^d(6 2 j корня из дисперсии оценки этого

параметра. Итак, если

& 2 ~в 2

^ 12.975 (15) ,

 

мы отвергаем гипотезу H2 : в 2 =01. Однако выполнение этого неравенства для некоторого значения в 2 вовсе не означает, что гипотеза И0:в 2 = в°2 обязательно не верна. Если в действительности в 2 = в 22, то все же имеется вероятность

1 - 2.95 = 2.25 того, что это неравенство будет выполнено.

В последнем случае, в соответствии с выбранным правилом, мы все же отвергнем гипотезу H2 , допустив при этом «ошибку 1-го рода». Такая ошибка происходит в среднем в 5 случаях из ста.

Если бы мы выбрали произвольный доверительный уровень 1 - а, то тогда мы отвергали бы гипотезу H0:в 2 = в!°

& 2 ~@2

при выполнении неравенства > ^ (15)

и ошибка 1-го рода происходила в среднем в 100а случаев из 100. Точнее, вероятность ошибки 1-го рода была бы равна а:

Р{  H0 отвергается |   H0 верна } = а .

Само правило решения вопроса об отклонении или неотклонении статистической гипотезы H0 называется статистическим критерием проверки гипотезы Щ, а выбранное при формулировании этого правила значение а называется уровнем значимости критерия.

Выбор большего или меньшего значения а определяется степенью значимости для исследователя исходной гипотезы H0 . Скажем, выбор между значениями а - 0.05 и а - 0.01 в пользу а - 0.01 означает, что исследователь заранее настроен в пользу гипотезы H0 и ему требуются очень весомые аргументы, свидетельствующие против этой гипотезы, чтобы все же отказаться от нее. Выбор же в пользу уровня значимости а - 0.05 означает, что исследователь не столь сильно отстаивает гипотезу H0 и готов отказаться от нее и при менее убедительной аргументации против этой гипотезы.

Всякий статистический критерий основывается на использовании той или иной статистики (статистики критерия), т. е. случайной величины, значения которой могут быть вычислены  (по крайней мере, теоретически) на основании имеющихся статистических данных и распределение которой известно (хотя бы приближенно).

В нашем примере критерий проверки гипотезы H0:в 2 = в ї! основывался на использовании t-статистики

 

'

значение которой можно вычислить по данным наблюдений, поскольку в 0 — известное (заданное) число, а в 2 и

вычисляются на основании данных наблюдений.

Каждому статистическому критерию соответствует критическое множество R значений статистики критерия, при которых гипотеза H0 отвергается в соответствии с принятым правилом. В нашем примере таковым является множество значений указанной t -статистики, превышающих по абсолютной величине значение t „ (15) .

1 2

Итак, статистический критерий определяется заданием

статистической гипотезы Н0;

уровня значимости а;

статистики критерия;

критического множества R.

Можно подумать, что пункты b) и d) дублируют друг друга, поскольку в нашем примере критическое множество R однозначно определяется по заданному уровню значимости а. Однако, как мы увидим в дальнейшем, одному и тому же уровню значимости можно сопоставить различные критические множества, что дает возможность выбирать множество R наиболее рациональным образом, в зависимости от выбора гипотезы H0 (выбор наиболее мощного критерия).

Компьютерные пакеты программ статистического

анализа данных первоочередное внимание уделяют проверке

гипотезы       

|#о : в і = °1

в рамках нормальной модели множественной линейной

регрессии      

 

с є i ~ і. і. d. n(o,<j2 ). Эта гипотеза соответствует предположению исследователя о том, что j -я объясняющая переменная не имеет существенного значения с точки зрения объяснения изменчивости значений объясняемой переменной y, так что она может быть исключена из модели.

Для соответствующего критерия

H° : в j = °;

уровень значимости а по умолчанию обычно выбирается равным °.°5;

статистика критерия имеет вид

если гипотеза H° : в j = 0 верна, то эта статистика имеет t - распределение Стьюдента с п - p степенями свободы,

 

— ~ t{n -p),

sh

в связи с чем ее обычно называют (-статистикой (t-statistic) или

t-отношением (t-ratio);

d) критическое множество имеет вид

 

Подпись:
При этом, в распечатках результатов регрессионного анализа (т. е. статистического анализа модели линейной регрессии) сообщаются:

значение оценки в j параметра в j в графе Коэффициенты (Coefficient);

значение s~  знаменателя t-статистики в графе Стандарт-

ная ошибка (Std. Error);

• значение отношения

 

в графе t-статистика (t-

statistic).

Кроме того, сообщается также вероятность того, что случайная величина, имеющая распределение Стьюдента с n — p степенями свободы, примет

значение, не меньшее по абсолютной величине, чем наблю-

денное значение

в

■А,

в графе Р-значение (P-value

или Probability).

В отношении полученного при анализе Р-значения возможны следующие варианты.

Если указываемое Р-значение меньше выбранного уровня значимости а, то это равносильно тому, что значение t-

статистики в .js-e попало в область отвержения гипотезы Н0,

т. е.

^ ijse. > t1_.«(n - p) . В этом случае гипотеза Н0 отверга-

ется.

Если указываемое Р-значение больше выбранного уровня значимости а, то это равносильно тому, что значение tстатистики в jjsg   не попало в область отвержения гипотезы

H0:6 j = 0 , т. е.   6 j jsg < tx_ a(n -p) .В этом случае гипотеза

H0 не отвергается.

Если (в пределах округления) указываемое Р-значение равно выбранному уровню значимости а , то в отношении гипотезы H0: в j = 0 можно принять любое из двух возможных

решений.

В случае, когда гипотеза H0: в j = 0 отвергается (вариант 1),   говорят,   что   параметре j   статистически значим

(statistically significant); это соответствует признанию того, что наличие j-й объясняющей переменной в правой части модели существенно для объяснения наблюдаемой изменчивости объясняемой переменной.

Напротив, в случае, когда гипотеза H0: в j = 0 не отвергается (вариант 2), говорят, что параметр в j статистически

незначим (statistically unsignificant). В этом случае в рамках используемого статистического критерия мы не получаем убедительных аргументов против предположения о том, что в j = 0. Это соответствует признанию того, что наличие j-й

объясняющей переменной в правой части модели не существенно для объяснения наблюдаемой изменчивости объясняемой переменной, а следовательно, можно обойтись и без включения этой переменной в модель регрессии.

Впрочем, выводы о статистической значимости (или незначимости) того или иного параметра модели зависят от выбранного уровня значимости а : решение в пользу статистической значимости параметра может измениться на противоположное при уменьшении а , а решение в пользу статистическои незначимости параметра может измениться на противоположное при уменьшении значения а .

Пример. В уже рассматривавшемся выше примере с уровнями безработицы в США получаем в распечатке R2 = 0.212375 и следующую таблицу:

Переменная Коэф-т

2.294

Ст. ошибка t-статист. 0.410 5.589

Р-знач.

0.0001

ZVET

0.125

0.062

2.011

0.0626

Соответственно, при выборе уровня значимости а = 0.05 коэффициент при переменной ZVET признается статистически незначимым (P -значение больше уровня значимости). Однако, если выбрать а = 0.10, то P -значение меньше уровня значимости, и коэффициент при переменной ZVET придется признать статистически значимым.

Пример. При исследовании зависимости спроса на куриные яйца от цены (данные были приведены ранее) получаем в распечатке R1 = 0.513548 и следующую таблицу:

Переменная

Коэф-т

Ст. ошибка

t-статист.

Р-знач.

1

21.100

2.304

9.158

0.0000

CENA

-18.559

5.010

-3.705

0.0026

Здесь коэффициент при объясняющей переменной CENA статистически значим даже при выборе а = 0.01, так что цена является существенной объясняющей переменной.

Пример. Регрессионный анализ потребления свинины на душу населения США в зависимости от оптовых цен на свинину (данные были приведены ранее) дает значения R1 = 0.054483 и

Переменная

Коэф-т

Ст. ошибка

t-статист.

Р-знач.

1

77.484

13.921

5.566

0.0001

Цена

-24.775

29.794

-0.832

0.4219

В этом примере коэффициент при переменной Цена оказывается статистически незначимым при любом разумном выборе уровня значимости а {а = 0.01, а = 0.05, а = 0.10).

Замечание. Мы уже отмечали ранее возможность ложной корреляции между двумя переменными и, соответственно, возможность ложного использования одной из переменных в качестве объясняющей для описания изменчивости другой переменной. Проиллюстрируем такую ситуацию на основе рассмотренных нами методов регрессионного анализа.

Пример. В числе прочих подобных примеров мы получили модель линейной связи между мировым рекордом по прыжкам в высоту с шестом среди мужчин (Н, в см) исум-марным производством электроэнергии в США (E, в млрд. квт-час). Мы уже указывали на высокое значение коэффициента детерминации для этой модели: R2 = 0.900. Теперь мы можем привести результаты регрессионного анализа:

Переменная

Коэф-т

Ст. ошибка

t-статист.

Р-знач.

1

-2625.497

420.840

-6.234

0.0000

H

7.131

0.841

8.483

0.0000

Формально, переменная Н признается существенной для объяснения изменчивости переменной E, так что здесь мы сталкиваемся с ложной (паразитной) регрессией переменной E на переменную Н, обусловленной наличием выраженного (линейного) тренда обеих переменных во времени.

Страница: | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 |