Комментарий в другом вопросе вызвал сомнения в важности условия , утверждая, что его можно исправить, добавив постоянный член в спецификацию регрессии, и поэтому «его можно легко игнорировать».E(u∣X)=0
Это не так. Включение постоянного члена в регрессию будет поглощать, возможно, ненулевое условное среднее значение члена ошибки, если мы предположим, что это условное среднее уже является постоянной величиной, а не функцией регрессоров . Это важнейшее предположение, которое должно быть сделано независимо от того, включаем ли мы постоянный термин или нет:
E(u∣X)=const.
Если это так, то ненулевое среднее становится помехой, которую мы можем просто решить, включив постоянный член.
Но если это не выполняется (т. Е. Если условное среднее не является нулевой или ненулевой константой ), включение постоянного члена не решает проблему: то, что он будет «поглощать» в этом случае, является величиной это зависит от конкретной выборки и реализации регрессоров. На самом деле неизвестный коэффициент, связанный с рядом единиц, на самом деле не постоянный, а переменный, зависящий от регрессоров через непостоянное условное среднее значение члена ошибки.
Что это значит?
Для упрощения предположим простейший случай, когда ( i индексирует наблюдения), но E ( u i ∣ x i ) = h ( x i ) . То есть, термин ошибки является средне-независимым от регрессоров, кроме его современных (в XE(ui∣X−i)=0iE(ui∣xi)=h(xi)X мы не включаем ряд единиц).
Предположим, что мы указываем регрессию с включением постоянного члена (регрессора из ряда единиц).
y=a+Xβ+ε
и компактная запись
y=Zγ+ε
где , Z = [ 1 : X ] , γ = ( , & beta ; ) ' , ε = U - .a=(a,a,a...)′Z=[1:X]γ=(a,β)′ε=u−a
Тогда оценщик OLS будет
γ^=γ+(Z′Z)−1Z′ε
Для непредвзятости нам нужно . НоE[ε∣Z]=0
E[εi∣xi]=E[ui−a∣xi]=h(xi)−a
ih(xi) не является постоянной функцией. Так
E[ε∣Z]≠0⟹E(γ^)≠γ
и
E(ui∣xi)=h(xi)≠h(xj)=E(uj∣xj), then even if we include a constant term in the regression, the OLS estimator will not be unbiased, meaning also that the Gauss-Markov result on efficiency, is lost.
Moreover, the error term ε has a different mean for each i, and so also a different variance (i.e. it is conditionally heteroskedastic). So its distribution conditional on the regressors differs across the observations i.
But this means that even if the error term ui is assumed normal, then the distribution of the sampling error γ^−γ will be normal but not zero-mean mormal, and with unknown bias. And the variance will differ.
So
If E(ui∣xi)=h(xi)≠h(xj)=E(uj∣xj), then even if we include a constant term in the regression, Hypothesis testing is no longer valid.
In other words, "finite-sample" properties are all gone.
We are left only with the option to resort to asymptotically valid inference, for which we will have to make additional assumptions.
So simply put, Strict Exogeneity cannot be "easily ignored".