Другие несмещенные оценки, чем СИНИЙ (решение OLS) для линейных моделей


15

Для линейной модели решение OLS обеспечивает наилучшую линейную несмещенную оценку параметров.

Конечно, мы можем обменять смещение на более низкую дисперсию, например, на регрессию гребня. Но мой вопрос касается отсутствия предвзятости. Существуют ли какие-либо другие оценщики, которые обычно используются, которые являются несмещенными, но с большей дисперсией, чем оценочные параметры OLS?

Если бы у меня был огромный набор данных, я, конечно, мог бы отбирать его, оценивать параметры с меньшим количеством данных и увеличивать дисперсию. Я предполагаю, что это может быть гипотетически полезно.

Это скорее риторический вопрос, потому что, когда я прочитал об СИНИХ оценках, худшая альтернатива не предоставляется. Я предполагаю, что предоставление худших альтернатив может также помочь людям лучше понять силу СИНИХ оценок.


Как насчет оценки максимального правдоподобия? Например, если вы думаете, что ваши данные выбираются из распределения с параметром относительно низких степеней свободы ( t ( 3 ) или t ( 4 ) могут быть характерны для финансовой прибыли), оценка максимального правдоподобия не будет совпадать с OLS, но я предполагаю это все равно будет беспристрастным. tt(3)t(4)
Ричард Харди

2
Соответствующий: andrewgelman.com/2015/05/11/…
kjetil b halvorsen

1
@RichardHardy, я также попробовал MLE с ожидаемыми результатами.
Кристоф Ханк

Ответы:


19

Один пример, который приходит на ум, - это некоторая оценка GLS, которая взвешивает наблюдения по-разному, хотя это не является необходимым, когда соблюдаются предположения Гаусса-Маркова (что статистику, возможно, не известно, что дело обстоит так, и, следовательно, применимо, все еще применяется GLS).

Рассмотрим случай регрессии yi , i=1,,n на константу для иллюстрации (легко обобщается на общие оценки GLS). Здесь {yi} предполагается случайной выборкой из совокупности со средним значением μ и дисперсией σ2 .

Тогда мы знаем , что МНК только β = ˉ у , выборочное среднее. Для того, чтобы подчеркнуть , что каждый пункт наблюдения взвешенных с весом 1 / п , написать это как β = п Е я = 1 1β^=y¯1/n

β^=i=1n1nyi.
Хорошо известночтоVar(β^)=σ2/n.

Теперь рассмотрим другую оценку, которую можно записать в виде

β~=i=1nwiyi,
где веса таковы, что iwi=1 . Это гарантирует , что оценка является несмещенной, а
E(i=1nwiyi)=i=1nwiE(yi)=i=1nwiμ=μ.
Его дисперсия будет превышать дисперсию OLS, если толькоwi=1/nдля всехi(в этом случае она, конечно, уменьшится до OLS), что, например, можно показать с помощью лагранжиана:

L=V(β~)λ(iwi1)=iwi2σ2λ(iwi1),
wi2σ2wiλ=0iL/λ=0Σявеся-1знак равно0λвесязнак равновесJвесязнак равно1/N

Вот графическая иллюстрация из небольшого моделирования, созданного с помощью кода ниже:

YяIn log(s) : NaNs produced

введите описание изображения здесь

весязнак равно(1±ε)/N

То, что последние три опережают решение OLS, не сразу подразумевается свойством BLUE (по крайней мере, не для меня), так как не очевидно, являются ли они линейными оценщиками (и я не знаю, являются ли MLE и Huber несмещенными).

library(MASS)
n <- 100      
reps <- 1e6

epsilon <- 0.5
w <- c(rep((1+epsilon)/n,n/2),rep((1-epsilon)/n,n/2))

ols <- weightedestimator <- lad <- mle.t4 <- huberest <- rep(NA,reps)

for (i in 1:reps)
{
  y <- rnorm(n)
  ols[i] <- mean(y)
  weightedestimator[i] <- crossprod(w,y)  
  lad[i] <- median(y)   
  mle.t4[i] <- fitdistr(y, "t", df=4)$estimate[1]
  huberest[i] <- huber(y)$mu
}

plot(density(ols), col="purple", lwd=3, main="Kernel-estimate of density of OLS and other estimators",xlab="")
lines(density(weightedestimator), col="lightblue2", lwd=3)     
lines(density(lad), col="salmon", lwd=3)     
lines(density(mle.t4), col="green", lwd=3)
lines(density(huberest), col="#949413", lwd=3)
abline(v=0,lty=2)
legend('topright', c("OLS","weighted","median", "MLE t, 4 df", "Huber"), col=c("purple","lightblue","salmon","green", "#949413"), lwd=3)

2
Ухоженная! Я думаю, что это очень простой иллюстративный пример, немного более общий, чем тот, который я придумал. Когда люди узнают об оценщиках в частой среде, я чувствую, что такого рода примеры часто отсутствуют, они действительно помогают вам лучше понять концепцию.
Gumeo

4
Wзнак равноΣязнак равно1Nвес(ея)еявесвес(0)знак равно0

1
@kjetilbhalvorsen, я теперь также включаю оценку Хубера, которая на самом деле довольно хорошо.
Кристоф Ханк
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.