Случай «смещения ослабления» может быть более четко представлен, если мы рассмотрим «пробитную» модель, но результат переносится и на логистическую регрессию.
Под моделями условной вероятности (модели логистики (логит), «пробит» и «линейная вероятность») мы можем постулировать модель скрытой (ненаблюдаемой) линейной регрессии:
Y*= Xβ+ ты
где - непрерывная ненаблюдаемая переменная (а - матрица регрессора). Предполагается, что погрешность не зависит от регрессоров и соответствует распределению, плотность которого симметрична относительно нуля , и в нашем случае стандартное нормальное распределение . X F U ( u ) = Φ ( u )Y*ИксFU( и ) = Ф ( и )
Мы предполагаем, что то, что мы наблюдаем, то есть двоичная переменная , является функцией-индикатором ненаблюдаемой :y ∗YY*
Y= 1еслиY*> 0 ,Y= 0еслиY*≤ 0
Затем мы спрашиваем "какова вероятность того, что примет значение учетом регрессоров?" (т.е. мы смотрим на условную вероятность). Это1Y1
P(y=1∣X)=P(y∗>0∣X)=P(Xβ+u>0∣X)=P(u>−Xβ∣X)=1−Φ(−Xβ)=Φ(Xβ)
последнее равенство обусловлено «отражающим» свойством стандартной кумулятивной функции распределения, которая исходит из симметрии функции плотности около нуля. Обратите внимание, что, хотя мы и предположили, что не зависит от , необходимо кондиционирование на , чтобы рассматривать величину как неслучайную.X X X βuXXXβ
Если предположить, что , то мы получим теоретическую модельXβ=b0+b1X1+b2X2
P(y=1∣X)=Φ(b0+b1X1+b2X2)(1)
Пусть теперь не зависит от и ошибочно исключен из спецификации базовой регрессии. Итак, мы указываемX 1X2X1
y∗=b0+b1X1+ϵ
Предположим далее, что также является нормальной случайной величиной . Но это означает, что
X2X2∼N(μ2,σ22)
ϵ=u+b2X2∼N(b2μ2,1+b22σ22)
из-за замыкания при сложении нормального распределения (и предположения о независимости). Применяя ту же логику, что и раньше, здесь мы имеем
P(y=1∣X1)=P(y∗>0∣X1)=P(b0+b1X1+ϵ>0∣X1)=P(ϵ>−b0−b1X1∣X1)
Стандартизация переменной мы имеемϵ
P(y=1∣X1)=1−P⎛⎝⎜ϵ−b2μ21+b22σ22−−−−−−−√≤−(b0+b2μ2)1+b22σ22−−−−−−−√−b11+b22σ22−−−−−−−√X1∣X1⎞⎠⎟
⇒P(y=1∣X1)=Φ⎛⎝⎜(b0+b2μ2)1+b22σ22−−−−−−−√+b11+b22σ22−−−−−−−√X1⎞⎠⎟(2)
и можно сравнить модели и .(1)(2)
Приведенное выше теоретическое выражение говорит нам, где собирается сходиться наша оценка максимального правдоподобия , поскольку она остается последовательной оценкой, в том смысле, что она будет сходиться к теоретической величине, которая действительно существует в модели (и, конечно, не в ощущение, что он найдет «правду» в любом случае)b1
b^1→pb11+b22σ22−−−−−−−√⟹|b^1|<|b1|
что является результатом «смещения к нулю».
Мы использовали пробитную модель, а не логит (логистическая регрессия), потому что только при нормальных условиях мы можем получить распределение . Логистическое распределение не закрыто при добавлении. Это означает, что если мы опускаем соответствующую переменную в логистической регрессии, мы также создаем неправильную спецификацию распределения, поскольку термин ошибки (который теперь включает пропущенную переменную) больше не следует за логистическим распределением. Но это не меняет результат смещения (см. Сноску 6 в статье, на которую ссылается OP).ϵ