Полезность теоремы Фриша-Во


15

Я должен преподавать теорему Фриша Во в эконометрике, которую я не изучал.

Я понял математику, стоящую за этим, и я надеюсь, что идея «коэффициент, который вы получаете для определенного коэффициента из множественной линейной модели, равен коэффициенту простой регрессионной модели, если вы« исключаете »влияние других регрессоров». Так что теоретическая идея довольно крутая. (Если я полностью не понял, я приветствую исправление)

Но есть ли у него классические / практические применения?

РЕДАКТИРОВАТЬ : я принял ответ, но все еще готов иметь новые, которые приносят другие примеры / приложения.



1
Во введении Дугерти к эконометрике упоминается еще один пример использования теоремы Фриша-Во-Ловелла. В первые дни эконометрического анализа временных рядов в моделях, где переменные имели детерминированные временные тренды, было достаточно детерминировать их все перед регрессией. Но с помощью FWL вы получаете те же коэффициенты, просто включив тренд времени в качестве регрессора, и, кроме того, это дает «правильные» стандартные ошибки, поскольку оно подтверждает, что 1 df, таким образом, был использован.
Серебряная рыба

1
Догерти предупреждает против процедуры, так что в этом отношении это не очень хороший пример, хотя и поучительный. Экономические переменные часто представляются скорее стационарными, а не трендовыми, поэтому попытка такого тренд-тренда не работает и может привести к ложным регрессам.
Серебряная рыба

1
@Silverfish: FWL - это чисто алгебраический метод, поэтому вопрос о том, является ли извлечение детерминированного тренда «правильным» с учетом лежащего в основе DGP, без сомнения, важен, но не относится к FWL, поэтому в этом смысле ваш пример является совершенно верным для ОП задают вопрос о двух способах получения точечных оценок.
Кристоф Ханк

2
Я использовал эту взаимосвязь во многих постах, в основном для концептуальных целей и для предоставления интересных примеров явлений регрессии. См., В частности , stats.stackexchange.com/a/46508 , stats.stackexchange.com/a/113207 и stats.stackexchange.com/a/71257 .
whuber

Ответы:


14

Рассмотрим модель данных панели с фиксированными эффектами, также известную как модель фиктивных переменных с наименьшими квадратами (LSDV).

bLSDV может быть вычислено путем непосредственного применения OLS к модели

y=Xβ+Dα+ϵ,
гдеD представляет собойматрицуNT×N манекенов иα представляет индивидуальные фиксированные эффекты.

Другой способ вычисления bLSDV состоит в том, чтобы применить так называемое внутри-преобразование к обычной модели, чтобы получить ее унизительную версию, то есть

M[D]y=M[D]Xβ+M[D]ϵ.
Здесь M[D]=ID(DD)1D , матрица остаточного создателя регрессии наD .

По теореме Фриш-Уо-Ловелл, два эквивалентны, так как FWL говорит , что вы можете вычислить подмножество регрессии коэффициентов регрессии β^ ) по

  1. регрессируя y на других регрессорах (здесь, D ), сохраняя остатки (здесь, укороченные по времени y или M[D]y , потому что регрессия на константе просто унижает переменные), тогда
  2. регрессия X на D и сохранение остатков M[D]X , и
  3. регрессируют невязки друг на друга, M[D]y на M[D]X .

Вторая версия гораздо более широко используется, потому что типичные наборы данных панели могут иметь тысячи единиц панели N , так что при первом подходе вам потребуется запустить регрессию с тысячами регрессоров, что не является хорошей идеей в численном отношении даже в наши дни при быстром компьютеры, поскольку вычисление обратного значения (D:X)(D:X) было бы очень дорогим, тогда как затрачиваемое на время y и X имеет небольшую стоимость.


Большое спасибо, это именно тот ответ, который я искал, хотя я немного продвинулся в его использовании. Так что ваш ответ мне подходит, но я был бы рад, если бы у меня были другие, должен ли я принять ваш?
Энтони Мартин

Если бы это помогло, было бы уместно сделать это. Но принятие уменьшит ваши шансы получить лучшие ответы, поэтому вы можете подождать, прежде чем принять этот. Награда еще больше увеличит ваши шансы получить больше ответов - учитывая, что на CV недостаточно пользователей, которые регулярно отвечают на вопросы, учитывая количество вопросов, даже один единственный ответ может заставить других активных пользователей прийти к выводу, что вопросы решены. (Я опубликовал несколько более простой ответ ниже.)
Кристоф Ханк

7

Вот упрощенная версия моего первого ответа, который, на мой взгляд, менее актуален, но, возможно, легче «продать» для использования в классе.

Регрессии и у я - ˉ у = К Е J = 2 β J ( х я J - ˉ х J ) + ~ ε я даю одинаковым β J , J = 2 , ... ,

yi=β1+j=2Kβjxij+ϵi
yiy¯=j=2Kβj(xijx¯j)+ϵ~i
β^j . Это можно увидеть следующим образом: возьмем x 1 = 1 : = ( 1 , , 1 ) и, следовательно, M 1 = I - 1 ( 11 ) - 1 1 = I - 1 1j=2,,Kx1=1:=(1,,1) так что M1xj=xj-1n-11xj=xj-1 ˉ x j=:xj- ˉ x j. Следовательно, остатки регрессии переменных на константе,M1xj, являются просто униженными переменными (та же логика, конечно, применима кyi).
M1=I1(11)11=I11n,
M1xj=xj1n11xj=xj1x¯j=:xjx¯j.
M1xjyi

4

Вот еще один, более косвенный, но я считаю интересным, а именно связь между различными подходами к вычислению частичного коэффициента автокорреляции стационарного временного ряда.

Определение 1

Y^tμ=α1(m)(Yt1μ)+α2(m)(Yt2μ)++αm(m)(Ytmμ)
mαm(m)

mYtYt1,,Ytm+1ρmYtYtm

αj(m)ZtXt

E[Xt(ZtXtα(m))]=0
α(m)
α(m)=[E(XtXt)]1E[XtZt]
Zt=Ytμ
Xt=[(Yt1μ),(Yt2μ),,(Ytmμ)]
we have
E(XtXt)=(γ0γ1γm1γ1γ0γm2γm1γm2γ0)
Also,
E(XtZt)=(γ1γm)
Hence,
α(m)=(γ0γ1γm1γ1γ0γm2γm1γm2γ0)1(γ1γm)
The mth partial correlation then is the last element of the vector α(m).

So, we sort of run a multiple regression and find one coefficient of interest while controlling for the others.

Definition 2

The mth partial correlation is the correlation of the prediction error of Yt+m predicted with Yt1,,Ytm+1 with the prediction error of Yt predicted with Yt1,,Ytm+1.

So, we sort of first control for the intermediate lags and then compute the correlation of the residuals.

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.