Имя материала: Эконометрика для начинающих (Дополнительные главы)

Автор: Носко Владимир Петрович

1.4. интерпретация коэффициентов

Поскольку модели логит, пробит и гомпит являются нелинейными моделями, то оцененные коэффициенты в этих моделях имеют интерпретацию, отличающуюся от интерпретации коэффициентов в линейной модели.

Все эти модели имеют вид

У, = G        + ^ + врхір )+є, = G (xT6>),  i = 1,n ; при этом

P{yt = 1 xt }= E( yxt) = G(xTd).

Пусть  k -я объясняющая переменная является непрерывной переменной.  Тогда предельный эффект (marginal effect) этой переменной определяется как производная dP{y, = 1 хг} dG(xTte)

 

и, в отличие от линейной модели, этот эффект зависит от значений объясняющих переменных для   i -го  субъекта   X' = (xi1,..., xip ) .

Малое изменение Axik k -й объясняющей переменной приводит (при неизменных значениях остальных объясняющих переменных) к изменению вероятности P{yt = 1 xi} на величину, приближенно равную

 

-ч                  Ж           -ч "

dXft ^ik

Заметим, что поскольку модель нелинейна, при интерпретации значений предельного эффекта надо иметь в виду отклик интересующей нас вероятности именно на малые приращения объясняющей переменной.

В случае, когда сама объясняющая переменная принимает только два значения 0 и 1 (дамми-переменная - dummy variable), указывающие на наличие (1) или отсутствие (0) у субъекта определенного признака, "малые" изменения переменной, о которых говорилось выше, попросту невозможны. В этом случае "предельный эффект" определяют просто как разность

Pjy, = 1 x*, d = l}- Pyl = 1 x*,d = 0},

где d обозначает рассматриваемую дамми-переменную, а x* -вектор значений остальных объясняющих переменных.

В пробит-модели P[y, = 1 x, }= Ф{хт1в)= Ф(хл +... + 6pxip). Малое изменение Axjk   к -й объясняющей переменной приводит здесь   (при   неизменных   значениях   остальных объясняющих переменных) к изменению вероятности Pyt = 1 xt} на величину, приближенно равную

P{      її   }   ЭФ(^1 x,1 +L + evxv) л ( т )о л

 

1        -t1 /2

где    <р( z) =  .    e     -      функция   плотности стандартного

нормального распределения N (0,1), математическое ожидание которого равно нулю, а дисперсия равна единице. Предельный эффект к -й объясняющей переменной равен p(xT) вк (а не вк - как в линейной модели).

В     логит-модели     P[yi = 1 xt }= a(xJo) = л(в1 xi1 +... + 0pxip)

малое изменение Axik к -й объясняющей переменной приводит (при неизменных значениях остальных объясняющих переменных) к изменению вероятности р{уі = 1 xi} на величину, приближенно равную

 

dxik dxik

Учитывая явный вид функции A(z), находим отсюда: ДР[у, = 1 xi }= JA(xf     - A(xf в)) вк } Axik .

Выражение, заключенное в фигурные скобки, представляет предельный эффект для к -й объясняющей переменной в логит-модели.

Заметим теперь следующее. Пусть p = Р( A) - вероятность

некоторого события A, 0 < p < 1. Отношение                   часто называют

1-p

шансами  (осіск)  этого события.  Например,  если   p = 2/3, то

p     2/3   0 ,

                     = = 2 , и шансы за то, что событие A произойдет, против

1 - p   1 /3

того, что это событие не произойдет, равны 2:1 ("два к одному", или

p

"в 2 раза выше"). Логарифм отношения                 называют логитом

1-p

 

(logit),  logit(p) = ln    . Если logit(p) = 0, то p = 1 - p = 0.5 , т.е.

11 - p J

шансы для события A равны "50 на 50". Если logit(p)> 0, то больше шансов, что событие A произойдет. Если logit(p)< 0 , то больше шансов, что событие A не произойдет.

Пусть       теперь       p = Pyt = 1 xi}. В

теперь       p = Py t = 1 x{].       В логит-модели

 

p = Mxtв)=-—v7 Л, 1 -p=~і  гттп, так что logit(p) = x

1 + expx в)   1 + exp(x. в)

т.е. логит-модель линейна в отношении логита. Отсюда вытекает, что изменение значения к -й объясняющей переменной на величину Axjk приводит (при неизменных значениях остальных объясняющих

 

переменных) к изменению значения ln                  на вкAx к, что при

11 - p J

малых значениях Axk  означает изменение значения отношения

p

                      приблизительно на 100 вкAxк процентов. Иначе говоря, при

1-p

этом шансы за то, что y i = 1, против того, что y i = 0, возрастают приблизительно на 100 • вк Axк процентов.

 

Страница: | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 | 38 |