Задний очень отличается от предыдущего и вероятности


21

Если априор и вероятность сильно отличаются друг от друга, то иногда возникает ситуация, когда апостериор не похож ни на один из них. Посмотрите, например, эту картинку, которая использует нормальные распределения.

Заднее Поведение

Хотя это математически правильно, это, похоже, не соответствует моей интуиции - если данные не соответствуют моим убеждениям или данным, я бы не ожидал, что ни один из диапазонов не будет успешным, и не ожидал бы, что сплошная апостериора превысит весь диапазон или, возможно, бимодальное распределение вокруг априорной вероятности (я не уверен, что имеет более логичный смысл). Я, конечно, не ожидал бы жесткой апостериорности вокруг диапазона, который не соответствует ни моим предыдущим убеждениям, ни данным. Я понимаю, что по мере того, как будет собираться больше данных, апостериорные будут двигаться к вероятности, но в этой ситуации это кажется нелогичным.

Мой вопрос: как моё понимание этой ситуации некорректно (или неверно). Является ли задняя часть «правильной» функцией для этой ситуации. А если нет, как еще это может быть смоделировано?

Для полноты картины приоритет задается как а вероятность - как .N(μ=1.5,σ=0.4)N(μ=6.1,σ=0.4)

РЕДАКТИРОВАТЬ: Глядя на некоторые из ответов, я чувствую, что я не очень хорошо объяснил ситуацию. Моя точка зрения заключалась в том, что байесовский анализ, по-видимому, дает неинтуитивный результат с учетом допущений в модели. Я надеялся, что апостериор каким-то образом будет «учитывать», возможно, плохие модельные решения, что, если подумать, определенно не так. Я остановлюсь на этом в своем ответе.


2
Тогда это просто означает, что вы не можете предполагать нормальность апостериорного. Если вы предполагаете, что апостериор нормальный, то это действительно будет правильно.
PascalVKooten

Я не делал никаких предположений по поводу апостериорных, только априорных и вероятностных. И в любом случае форма распределения здесь неактуальна - я мог бы нарисовать их вручную, и последовал бы тот же апостериор.
Ронан Дейли

Я просто говорю, что вы отбросили бы свою веру в этот апостериор, если не считаете, что апостериор может быть нормальным. Учитывая нормальные априорные и нормальные данные, нормальный апостериор действительно будет таким. Возможно, представьте небольшие данные, что-то подобное может действительно произойти в реальности.
PascalVKooten

1
Это правильная цифра? Кажется, что вероятность до должна быть очень близка к 0, так как они никогда не пересекаются. У меня проблемы с просмотром, как ваш апостериор может заглянуть туда, поскольку вес предыдущего очень близок к 0. Я что-то пропустил? ×
Лука,

1
@ Luca Вы забываете о повторной нормализации. Произведение априора и вероятности близко к нулю, да - но когда вы повторно нормализуете его, чтобы он снова интегрировался в 1, это становится неактуальным.
Пэт

Ответы:


5

Да, такая ситуация может возникнуть и является особенностью ваших предположений моделирования, в частности нормальности в предыдущей модели и модели выборки (вероятности). Если бы вместо этого вы выбрали распределение Коши для своего предыдущего, апостериор будет выглядеть совсем иначе.

prior = function(x) dcauchy(x, 1.5, 0.4)
like = function(x) dnorm(x,6.1,.4)

# Posterior
propto = function(x) prior(x)*like(x)
d = integrate(propto, -Inf, Inf)
post = function(x) propto(x)/d$value

# Plot
par(mar=c(0,0,0,0)+.1, lwd=2)
curve(like, 0, 8, col="red", axes=F, frame=T)
curve(prior, add=TRUE, col="blue")
curve(post, add=TRUE, col="seagreen")
legend("bottomleft", c("Prior","Likelihood","Posterior"), col=c("blue","red","seagreen"), lty=1, bg="white")

Коши до, нормальная модель выборки


Спасибо за ваш ответ @jaradniemi, вы думаете, что предшествующий Коши всегда будет избегать конкретной ситуации, приведенной в вопросе?
Ронан Дейли

1
Да. Как правило, тяжелые хвостики позволяют более легко превзойти данные.
Jaradniemi

2
Джарадниеми, это может быть так, но если вы говорите, что не хотите, чтобы ваш предшествующий влиял на задний план, почему вы выбираете информативный априор в первую очередь? Кажется, вы предлагаете выбрать Коши, потому что это выглядит информативно, но на самом деле это не так.
Флориан Хартиг

1
Если априор и правдоподобие совпадают, то вы получаете желаемое увеличение точности от предшествующего до последующего, и, таким образом, предшествующий является информативным. Но выбор высокохвостого априора позволяет легко превзойти предшественника, когда оба не согласны.
Джарадниеми

2

Я несколько не согласен с ответами, данными до сих пор - в этой ситуации нет ничего странного. В любом случае, вероятность асимптотически нормальна, и нормальный априор вовсе не редкость. Если вы соедините их вместе с тем фактом, что априор и вероятность не дают одинакового ответа, у нас возникает ситуация, о которой мы здесь говорим. Я изобразил это ниже с кодом от jaradniemi.

Мы упоминаем в 1, что нормальным выводом такого наблюдения было бы то, что либо а) модель является структурно неправильной б) данные неверны в) предварительные данные неверны. Но наверняка что-то не так, и вы также увидите это, если будете делать некоторые апостериорные проверки, которые вам все равно следует делать.

1 Хартиг, Ф .; Дайк, Дж .; Hickler, T .; Хиггинс, СИ; О'Хара, РБ; Scheiter, S. & Huth, A. (2012) Соединение динамических моделей растительности с данными - обратная перспектива. J. Biogeogr., 39, 2240-2252. http://onlinelibrary.wiley.com/doi/10.1111/j.1365-2699.2012.02745.x/abstract

prior = function(x) dnorm(x,1,.3)
like = function(x) dnorm(x,-1,.3)

# Posterior
propto = function(x) prior(x)*like(x)
d = integrate(propto, -Inf, Inf)
post = function(x) propto(x)/d$value

# Plot
par(mar=c(0,0,0,0)+.1, lwd=2)
curve(like, -2, 2, col="red", axes=F, frame=T, ylim = c(0,2))
curve(prior, add=TRUE, col="blue")
curve(post, add=TRUE, col="seagreen")
legend("bottomleft", c("Prior","Likelihood","Posterior"), col=c("blue","red","seagreen"), lty=1, bg="white")

введите описание изображения здесь


2

Я чувствую, что ответ, который я искал, когда дело дошло до этого вопроса, лучше всего резюмировал Лесаффр и Лоусон в Байесовской биостатистике

1σ2=w0+w1
μσ

Это обобщает для меня и в общих чертах обрисовывается в других ответах, что случай моделирования нормальных приоров с нормальной вероятностью может привести к ситуации, когда апостериум будет более точным, чем оба. Это нелогично, но является особым следствием моделирования этих элементов таким образом.


Это обобщается в более высоком измерении с матрицей Фишера. Гессиан логарифмической вероятности апостериорного распределения вблизи его пика представляет собой сумму обратных и вероятностных обратных ковариаций. Обратной величиной этой суммы является ковариация апостериорного. Поскольку добавляются две положительные (полу) определенные матрицы (обратные ковариации), математически гарантируется, что точность апостериора будет превышать точность предыдущего или вероятностного распределений вероятности. Это универсальный результат в байесовских рамках.
T3am5hark

2

X1X0μN(1.6,0.42)X1N(μ,0.42)X1X10.42+0.42=0.562ϕ((6.11.6)/0.56)=9.31016μ

X0N(μ,0.42)X0X0X1|X1X0|>6.11.6

X0X1


1

Подумав немного об этом, я пришел к выводу, что при плохих модельных допущениях апостериор может быть результатом, который не согласуется ни с предыдущими убеждениями, ни с вероятностью. Отсюда естественный результат является задним это не , в общем, к концу анализа. Если это случай, когда апостериор должен приблизительно соответствовать данным или что он должен быть диффузным между предыдущим и вероятностью (в данном случае), то это должно быть проверено после факта, вероятно, с помощью апостериорно-прогнозирующей проверки или чего-то еще аналогичный. Казалось бы, для включения этого в модель требуется способность определять вероятности вероятностных утверждений, что я не считаю возможным.


да, я согласен, см. мой более подробный ответ
Флориан Хартиг

0

Я думаю, что это действительно очень интересный вопрос. Выспавшись на нем, я думаю, что у меня есть удар в ответ. Ключевой вопрос заключается в следующем:

  • Вы рассматривали вероятность как гауссовский pdf. Но это не распределение вероятностей - это вероятность! Более того, вы не четко обозначили свою ось. Эти вещи в совокупности запутали все, что следует.

μσP(μ|μ,σ)μσP(X|μ,σ)XP(μ|X,σ,μ,σ)μ

μP(X|μ)

P(μ|μ,σ)=exp((μμ)22σ2)12πσ2

P(X|μ,σ)=i=1Nexp((xiμ)22σ2)12πσ2

σ2=σ2/Nσ2NX

Итак, априор и вероятность одинаково информативны. Почему не задний бимодальный? Это из-за ваших предположений моделирования. Вы неявно предполагали нормальное распределение в способе, которым оно установлено (нормальное предшествующее, нормальное правдоподобие), и это ограничивает апостериорный, чтобы дать унимодальный ответ. Это просто свойство нормальных дистрибутивов, которые вы включили в проблему, используя их. Другая модель не обязательно сделала бы это. У меня есть ощущение (хотя сейчас у меня нет доказательств), что распределение Коши может иметь мультимодальную вероятность, и, следовательно, мультимодальную апостериорность.

Итак, мы должны быть унимодальными, а предварительная информация столь же информативна, как и вероятность. При этих ограничениях наиболее разумная оценка начинает звучать как точка, находящаяся непосредственно между вероятностью и предыдущим, поскольку у нас нет разумного способа определить, во что верить. Но почему задняя часть становится плотнее?

σμσσσμ

(Способ визуализации может состоять в том, чтобы представить оценку среднего значения гауссиана с известной дисперсией, используя только две точки выборки. Если две точки выборки разделены на гораздо большую величину, чем ширина гауссианы (т.е. в хвостах), то это убедительное доказательство того, что среднее значение фактически лежит между ними. Сдвиг среднего значения от этой позиции приведет к экспоненциальному снижению вероятности того или иного образца.)

Таким образом, ситуация, которую вы описали, немного странная, и, используя модель, которая у вас есть, вы включили некоторые предположения (например, унимодальность) в проблему, о которой вы даже не подозревали. Но в остальном вывод верен.


μσσμ
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.