В моделях Normal и Binomial всегда задняя дисперсия меньше предыдущей дисперсии?


10

Или какие условия это гарантируют? В целом (и не только для нормальных и биномиальных моделей) я полагаю, что главная причина, которая нарушила это утверждение, состоит в том, что существует несоответствие между моделью выборки и предыдущей, но что еще? Я начинаю с этой темы, поэтому я очень ценю простые примеры

Ответы:


9

Поскольку апостериорная и априорная дисперсии на удовлетворяют (причем X обозначает выборку) var ( θ ) = E [ var ( θ | X ) ] + var ( E [ θ | X ] ), предполагая, что все величины существуют, можно ожидать, что апостериорные дисперсия должна быть меньше в среднем (в X ). Это, в частности, тот случай, когда задняя дисперсия постоянна по XθИкс

вар(θ)знак равноЕ[вар(θ|Икс)]+вар(Е[θ|Икс])
ИксИкс, Но, как показывает другой ответ, могут быть реализации задней дисперсии, которые больше, так как результат остается только в ожидании.

По словам Эндрю Гельмана,

Мы рассмотрим это в главе 2 « Байесовского анализа данных» , я думаю, в паре проблем с домашней работой. Короткий ответ заключается в том, что, как ожидается, дисперсия апостериорных уменьшается по мере получения дополнительной информации, но, в зависимости от модели, в отдельных случаях дисперсия может увеличиваться. Для некоторых моделей, таких как нормальная и биномиальная, задняя дисперсия может только уменьшаться. Но рассмотрим t-модель с низкими степенями свободы (которую можно интерпретировать как смесь нормалей с общим средним и различными дисперсиями). Если вы наблюдаете экстремальное значение, это свидетельствует о том, что дисперсия высока, и ваша задняя дисперсия действительно может возрасти.


@ Сиань, не могли бы вы взглянуть на мой «ответ», который, кажется, противоречит вашему? Если Гельман и вы скажете что-нибудь о байесовской статистике, я гораздо больше склонен доверять вам, чем себе ...
Кристоф Ханк

1
Нет конфликта между нашими ответами. В BDA есть даже упражнение, которое соответствует вашему примеру, то есть найти данные, которые устанавливают, что задняя дисперсия бета больше, чем предыдущая дисперсия.
Сиань

Интересным последующим вопросом будет: каковы условия, которые гарантируют сходимость дисперсии к 0 при увеличении размера выборки.
Жюльен

8

Это будет больше вопрос к @ Сиань, чем ответ.

В(θ|Y)знак равноα1β1(α1+β1)2(α1+β1+1)знак равно(α0+К)(N-К+β0)(α0+N+β0)2(α0+N+β0+1),
NКα0,β0
В(θ)знак равноα0β0(α0+β0)2(α0+β0+1)
n <- 10         
k <- 1
alpha0 <- 100
beta0 <- 20

theta <- seq(0.01,0.99,by=0.005)
likelihood <- theta^k*(1-theta)^(n-k) 
prior <- function(theta,alpha0,beta0) return(dbeta(theta,alpha0,beta0))
posterior <- dbeta(theta,alpha0+k,beta0+n-k)

plot(theta,likelihood,type="l",ylab="density",col="lightblue",lwd=2)

likelihood_scaled <- dbeta(theta,k+1,n-k+1)
plot(theta,likelihood_scaled,type="l",ylim=c(0,max(c(likelihood_scaled,posterior,prior(theta,alpha0,beta0)))),ylab="density",col="lightblue",lwd=2)
lines(theta,prior(theta,alpha0,beta0),lty=2,col="gold",lwd=2)
lines(theta,posterior,lty=3,col="darkgreen",lwd=2)
legend("top",c("Likelihood","Prior","Posterior"),lty=c(1,2,3),lwd=2,col=c("lightblue","gold","darkgreen"))

 > (postvariance <- (alpha0+k)*(n-k+beta0)/((alpha0+n+beta0)^2*(alpha0+n+beta0+1)))
[1] 0.001323005
> (priorvariance <- (alpha0*beta0)/((alpha0+beta0)^2*(alpha0+beta0+1)))
[1] 0.001147842

Следовательно, этот пример предлагает большую апостериорную дисперсию в биномиальной модели.

Конечно, это не ожидаемая задняя дисперсия. В этом ли несоответствие?

Соответствующий показатель

введите описание изображения здесь


4
Прекрасная иллюстрация. И нет никакого различия между фактами, что реализованная апостериорная дисперсия больше, чем предыдущая дисперсия, и что ожидание меньше.
Сиань

1
Я предоставил ссылку на этот ответ как отличный пример того, что также обсуждалось здесь. Этот результат (эта разница иногда увеличивается при сборе данных) распространяется на энтропию.
Дон Словик
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.