Условная средняя независимость подразумевает объективность и непротиворечивость оценки МНК.


10

Рассмотрим следующую модель множественной регрессии:

(1)Y=Xβ+Zδ+U.

Здесь Y - вектор столбца n×1 ; Матрица X a n×(k+1) ; β a (k+1)×1 вектор-столбец; Матрица Z a n×l ; δl×1 вектор - столбец; и U - член ошибки, вектор столбца n×1 .


ВОПРОС

Мой преподаватель, учебник Введение в эконометрику, 3-е изд. Джеймсом Х. Стоком и Марком У. Уотсоном, с. 281, и Эконометрика: обзорная сессия экзамена Хонор (PDF) , с. 7, выразил мне следующее.

  1. Если мы предположим, что называется условной средней независимостью , что по определению означает, что
    (2)E(U|X,Z)=E(U|Z),
  2. и если предположение наименьших квадратов выполнено, за исключением условного предположения среднего нуля E(U|X,Z)=0 (поэтому мы предполагаем, что E(U|X,Z)=E(U|Z)0 ) (см. 1- 3 ниже),

  3. Затем, МНК - оценка β из р в ( 1 ) остается беспристрастным и последовательным, при этом более слабом наборе допущений.β^β(1)

Как мне доказать это предложение? Т.е. из вышеприведенных 1 и 2 следует, что оценка OLS для β дает нам объективную и непротиворечивую оценку для β ? Есть ли исследовательская статья, подтверждающая это предложение?


КОММЕНТАРИЙ

Простейший случай дается при рассмотрении модели линейной регрессии

Yi=β0+β1Xi+β2Zi+ui,i=1,2,,n,
и доказатьчто МНК оценки β 1 из & beta ; 1 является несмещеннойесли Е ( U я | Х я , Z я ) = Е ( U я | Z я ) для каждого I .β^1β1E(ui|Xi,Zi)=E(ui|Zi)i

ДОКАЗАТЕЛЬСТВО БЕЗОПАСНОСТИ, СЧИТАЯ, ЧТО Ui И Zi СОВМЕСТНО НОРМАЛЬНО РАСПРЕДЕЛЕНЫ

Определите V=UE(U|X,Z) , тогда U=V+E(U|X,Z) и

(*)E(V|X,Z)=0.
Таким образом, (1) можно переписать в виде
(3)Y=Xβ+Zδ+E(U|X,Z)+V.
К(2)тогда следуетчто
(4)Y=Xβ+Zδ+E(U|Z)+V.
Теперь, посколькуUiиZiсовместно распределены нормально, теория нормальных распределений, ср. Вывод условных распределений многомерного нормального распределенияговорит о том, что (действительно, нам не нужно предполагать совместную нормальность, а только это тождество)
(**)E(U|Z)=Zγ
для некоторогоlпо1векторуγ0.

Теперь (4) становится

(5)Y=Xβ+Z(δ+γ)+V.
Для модели (5) все предположения о наименьших квадратах выполнены, так как член ошибки V удовлетворяет условию условного среднего нуля. Это означает , что МНК оценки & beta ; из β будет несмещенной, если мы пусть ρ = δ + γ , и пусть W = ( X , Z ) будетβ^βρ=δ+γW=(X,Z)n от(k+1)+l матрицасоставленная изX иZ , то МНК оценкаβ в(5) задаетсяучетом
(β^T,ρ^T)T=(WTW)1WTY=(WTW)1WT(W(βT,ρT)T+V)=(βT,ρT)T+(WTW)1WTV

и , таким образом ,

E((β^T,ρ^T)T|W)=(βT,ρT)T+(WTW)1WsTE(V|W)=(βT,ρT)T+(WTW)1WT0=(βT,ρT)T,
где вторая строка следует из(). Таким образом , β является условно несмещенной оценкойртак как МНК оценкиприведенной для модели(1)coinicides с учетомчто для модели(5). Теперь, по закону полного математического ожидания E ( β )β^β(1)(5)
E(β^)=E(E(β^|W))=E(β)=β,
итаким образом , β является несмещенной оценкой дляр.β^β

(Можно отметить , что E(ρ^)=ρ=δ+γδ ; , так что коэффициент на Z не обязательно несмещенный.)

Однако в приведенном выше частном случае предполагается, что Ui и Zi совместно распределены нормально, как я могу доказать утверждение без этого предположения?

Предполагая, что E(U|Z)=Zγ всегда достаточно, конечно (ср. () ), но я должен вывести результат, используя только (2) и предположение о наименьших квадратах, исключая условие условного среднего нуля (см. ниже).

ОТНОСИТЕЛЬНО ПОСТОЯННОСТИ

Я думаю , можно также видеть , что оценка β соответствует для р , заметив , что в регрессионной модели ( 5 ) все наименьших квадратов предположения удовлетворены, в том числе и в предположении , что (новый) термин ошибка V удовлетворяет Условный Mean Нулевой предположение ( ср. ( ) и см. ниже).β^β(5)V()

Позже я могу добавить доказательство согласованности, основанное на серии упражнений в разделе Введение в эконометрику, 3-е изд. Джеймсом Х. Стоком и Марком У. Уотсоном, гл. 18. Однако это доказательство довольно длинное. Но дело здесь в том, что приведенное в упражнениях доказательство предполагает () , поэтому мне все еще интересно, действительно ли предположение (2) достаточным.

SUBQUERY 1

В Введение в эконометрику, 3-е изд. Джеймсом Х. Стоком и Марком У. Уотсоном, как говорят, на с. 300, что предположение () можно «ослабить», используя теорию нелинейной регрессии. Что они могут или могут иметь в виду под этим?

НАИМЕНОВАНИЕ КРУПНЕЙШИХ КВАДРАТОВ

Здесь я исключаю предположение условного среднего нуля, что E(U|X,Z)=0 поскольку утверждение, которое мы здесь пытаемся доказать, допускает случаи, когда E(U|X,Z)0 . Они являются , например , случаи , когда Z коррелирует с U . Ср Эконометрика: обзорная сессия экзамена Хонор (PDF) , с. 7.

Предположение наименьших квадратов следующее.

  1. Объединенные распределения (Yi,Xi,Zi) , i=1,2,,n, являются iid, где Yi - это i й элемент в Y и где Xi и Zi - это i : го векторов - строк в X и Z .

  2. Большие выбросы маловероятно, то есть для каждого i , Xi,Zi и Ui имею конечные четвертые моменты, где Ui это i : й элемент в U .

  3. (X,Z) имеет полный ранг столбца (т. Е. Нет совершенной мультиколлинеарности; это обеспечивает обратимостьWTW ).

  4. ( Допущения расширенного наименьших квадратов : хотя я не думаю, что это необходимо (и мне сказали, что это не так), мы можем также предположить гомоскедастичность, т.е. Var(Ui|Xi,Zi)=σU2 для каждого i , и что заданное условное распределение Ui(Xi,Zi) является нормальным для каждого i (т.е. мы имеем нормальные ошибки.))

ПРИМЕЧАНИЕ ПО ТЕРМИНОЛОГИИ

В (1) предположение условного среднего нуля является предположением, что E(U|X,Z)=0 . Условное предположение о средней независимости, однако, является предположением, что E(U|X,Z)=E(U|Z) .

Эта терминология используется, например, в Введение в эконометрику, 3-е изд. Джеймсом Х. Стоком и Марком У. Уотсоном, с. 281; и эконометрический анализ данных поперечного сечения и панелей, 1-е изд. Джеффри М. Вулдридж, р. 607. См. Также Условные ограничения независимости: тестирование и оценка для подобных обсуждений.

ДОПОЛНИТЕЛЬНЫЕ МЫСЛИ И ПОДПИСЬ 2

Я думаю, что вопреки Джеймсу Х. Стоку и Марку У. Уотсону, условная средняя независимость не обеспечивает объективную оценку OLS для β . Это связано с тем, что E(U|Z) может принимать нелинейные формы, такие как E(U|Z)=p(Z) где p(Z) - многочлен от Z , или E(U|Z)=exp(Zγ) где γэто какой-то параметр, который еще предстоит оценить (здесь я использую матричную экспоненту ), а затем, я думаю, нужно применить нелинейную регрессию , что обычно оставляет нам смещенные оценки. Кроме того, оценка OLS в (1) для β может даже не совпадать с оценкой OLS для β в (4) если E(U|Z) принимает определенные нелинейные формы. (Психологически я также чувствую, что утверждение, сделанное в книге Stock & Watson, слишком хорошо, чтобы быть правдой.)

Таким образом, дополнительный вопрос состоит в том, есть ли какой-нибудь контрпример к предположению, что условная независимость среднего значения приводит к объективной оценке OLS?

SUBQUERY 3

В « Безвредной эконометрике» Angrist & Pischke утверждает в подразделе 3.3, с. 68--91, что при условной независимости (CI), т. Е. Y не зависит от X заданном W (что, я полагаю, является более сильным условием, чем условное предположение о средней независимости, приведенное выше), существует тесная связь между совпадающими оценками влияние X на Y и коэффициентов на X в регрессии Y на X и W что мотивирует это при CI оценкой коэффициента OLS в X в (1) менее предвзятым, чем если бы CI не держался (все остальное равно).

Теперь, можно ли как-то использовать эту идею для ответа на мой главный вопрос здесь?


@ Сиань Что ты имеешь в виду? Это определение условной средней независимости, данное в моем учебнике: Если мы в линейной регрессии имеем E ( u i | X i , Z i ) = E ( u i | Z i ) , то мы говорим, что имеем условную среднюю независимость. Я просто думал, что мой способ написания более общий. Yi=β0+β1Xi+β2Zi+uiE(ui|Xi,Zi)=E(ui|Zi)
Элиас

@ Xi'an Как бы вы определили «условная независимость $ ce» в этом случае? На мой взгляд, «условная независимость» - это понятие, отличное от «условно-независимой независимости». Они могут или не могут быть концептуально связаны.
Элиас

@ Сиань Вот так я понимаю концепции: условная независимость - это просто , а условная средняя независимость - E ( A | B , C ) = E ( A | C ) . P(AB|C)=P(A|C)P(B|C)E(A|B,C)=E(A|C)
Элиас

Где Сиань комментарий?
Майкл Р. Черник

@MichaelChernick Его комментарий был первым. Я думаю, он, должно быть, удалил это. Насколько я помню, он сказал, что не означает условной независимости, и я ответил. E(U|X,Z)=E(U|Z)
Элиас

Ответы:


4

Это ложь. Как вы заметили, если вы внимательно прочитаете Сток и Уотсона, они на самом деле не подтверждают утверждение, что OLS является беспристрастным для при условно средней независимости. Они подтверждают гораздо более слабое утверждение, что OLS несмещен для β, если E ( u | x , z ) = z γ . Затем они говорят что-то неопределенное о нелинейных наименьших квадратах.ββE(u|x,z)=zγ

Ваше уравнение (4) содержит то, что вам нужно, чтобы убедиться, что утверждение неверно. Оценка уравнения (4) по OLS при исключении переменной приводит к смещению пропущенных переменных. Как вы, вероятно, помните, член смещения из пропущенных переменных (когда пропущенная переменная имеет коэффициент 1) управляется коэффициентами из следующей вспомогательной регрессии: E ( u | z ) = x α 1 + z α 2 + ν . смещение в исходной регрессии для β является α 1E(u|x,z)

E(u|z)=xα1+zα2+ν
βα1из этой регрессии, и смещение на является α 2 . Если x коррелируется с E ( u | z ) , после линейного управления для z , α 1 будет отличным от нуля, а коэффициент OLS будет смещен.γα2xE(u|z)zα1

Вот пример, чтобы доказать свою точку зрения:

ξF(),ζG(),νH()all independentz=ξx=z2+ζu=z+z2E(z+z2)+ν

Глядя на формулу для , ясно, что E ( u | x , z ) = E ( u | z ) = z + z 2 - E ( z + z 2 ) Глядя на вспомогательную регрессию, ясно, что ( при отсутствии некоторого случайного выбора F , G , H ) α 1 не будет нулевым.uE(u|x,z)=E(u|z)=z+z2E(z+z2)F,G,Hα1

Вот очень простой пример, в Rкотором демонстрируется точка:

set.seed(12344321)
z <- runif(n=100000,min=0,max=10)
x <- z^2 + runif(n=100000,min=0,max=20)
u <- z + z^2 - mean(z+z^2) + rnorm(n=100000,mean=0,sd=20)
y <- x + z + u

summary(lm(y~x+z))

# auxiliary regression
summary(lm(z+z^2~x+z))

Обратите внимание, что первая регрессия дает вам коэффициент по который смещен на 0,63, отражая тот факт, что x «имеет некоторое z 2 в нем», как и E ( u | z ) . Также обратите внимание, что вспомогательная регрессия дает оценку смещения около 0,63.xxz2E(u|z)

Итак, о чем говорят Сток и Уотсон (и ваш лектор)? Вернемся к вашему уравнению (4):

y=xβ+zγ+E(u|z)+v

Важно отметить, что пропущенная переменная является только функцией . Кажется, что если бы мы могли действительно хорошо контролировать z , этого было бы достаточно, чтобы очистить смещение от регрессии, даже если x может коррелировать с u .zzxu

Предположим, что мы оценили приведенное ниже уравнение, используя либо непараметрический метод для оценки функции либо используя правильную функциональную форму f ( z ) = z γ + E ( u | z ) . Если бы мы использовали правильную функциональную форму, мы оценили бы ее нелинейными наименьшими квадратами (объясняя загадочный комментарий о NLS): y = x β + f ( z ) + v Это дало бы нам непротиворечивую оценку для βf()f(z)=zγ+E(u|z)

y=xβ+f(z)+v
β потому что больше нет проблемы с пропущенными переменными.

В качестве альтернативы, если бы у нас было достаточно данных, мы могли бы пройти «весь путь» в контроле за . Мы могли бы посмотреть на подмножество данных, где z = 1 , и просто выполнить регрессию: y = x β + v. Это дало бы несмещенные, согласованные оценки для β, за исключением, конечно, перехвата, который был бы загрязнен f ( 1 ) . Очевидно, что вы также можете получить (другую) непротиворечивую, несмещенную оценку, запустив эту регрессию только для точек данных, для которых z = 2 . И еще один для точек, где z = 3zz=1

y=xβ+v
βf(1)z=2z=3, И т.д. Тогда у вас будет куча хороших оценщиков, из которых вы сможете сделать отличную оценку, скажем, усредняя их все как-нибудь.

Эта последняя мысль является источником вдохновения для сопоставления оценок. Поскольку у нас обычно недостаточно данных, чтобы буквально выполнить регрессию только для или даже для пар точек, где z идентично, вместо этого мы запускаем регрессию для точек, где z «достаточно близко» к идентичности.z=1zz


3

(4)

Y=Xβ+Zδ+(E(U|Z)+V)

MZ=IZ(ZZ)1ZMZZ=0

По «разделенным результатам регрессии» мы имеем

β^OLSβ=(XMZX)1XMZZδ+(XMZX)1XMZE(UZ)+(XMZX)1XMZV

Первый член справа уже равен нулю. Принимая ожидаемое значение повсюду, а затем применяя свойство tower для условного ожидания, третий член также будет равен нулю (используя условную независимость среднего значения в более слабой форме). Но это настолько далеко, что это более слабое предположение берет нас, потому что мы останемся с

E(β^OLS)β=E[(XMZX)1XMZE(UZ)]

E(UZ)ZMZZ
β

E(UX,Z)=E(UZ)=Zγ

UZ

β^OLS


MZMZ

1
ZZ
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.