«Забывчивость» настоятеля в байесовской обстановке?


9

Хорошо известно, что по мере того, как у вас появляется больше доказательств (скажем, в виде большего для iid примеров), байесовский априор «забывается», и на большинство выводов влияют доказательства (или вероятность).нNN

Это легко увидеть для различных конкретных случаев (например, Бернулли с бета-версией или других примеров), но есть ли способ увидеть это в общем случае с Икс1,...,ИксN~п(Икс|μ) и какой-нибудь предшествующий п(μ) ?

РЕДАКТИРОВАТЬ: Я предполагаю, что это не может быть показано в общем случае для любого априора (например, априор точечной массы будет держать заднюю точку точечной массы). Но, возможно, существуют определенные условия, при которых априор забыт.

Вот вид «пути», о котором я думаю, чтобы показать что-то подобное:

Предположим, что пространство параметров равно , и пусть и - два априора, которые помещают ненулевую вероятностную массу на все . Итак, два апостериорных вычисления для каждого предыдущего значения составляют:Θq ( θ ) Θп(θ)Q(θ)Θ

п(θ|Икс1,...,ИксN)знак равноΠяп(Икся|θ)п(θ)θΠяп(Икся|θ)п(θ)dθ

и

Q(θ|Икс1,...,ИксN)знак равноΠяп(Икся|θ)Q(θ)θΠяп(Икся|θ)Q(θ)dθ

Если вы разделите на (постеры), то получите:дпQ

p(θ|x1,,xn)/q(θ|x1,,xN)знак равноп(θ)θΠяп(Икся|θ)Q(θ)dθQ(θ)θΠяп(Икся|θ)п(θ)dθ

Теперь я хотел бы изучить вышеуказанный термин, так как N переходит в . В идеале это будет 1 для определенной θ которая «имеет смысл» или какое-то другое хорошее поведение, но я не могу понять, как что-то показать там.


1
Для некоторой интуиции обратите внимание, что вероятность масштабируется в зависимости от размера выборки, в то время как предыдущая - нет.
Макро

@ Макро, спасибо, у меня тоже была эта интуиция, но я не мог продвинуть ее дальше. Смотрите мои правки выше.
bayesianOrFrequentist

В первых нескольких главах учебника Гоша и Рамамурти Байесовская непараметрика раскрывает то, о чем вы говорите (сначала в параметрической, а затем непараметрической); он доступен через Springer онлайн бесплатно, если вы находитесь в соответствующем учреждении. Существует несколько способов формализовать асимптотически отсутствие зависимости от предшествующего, но, конечно, есть несколько условий регулярности.
парень

Обратите внимание, что апостериорное соотношение просто пропорционально предыдущему отношению, поэтому отношение ни вероятности, ни фактических данных не влияет на это.
Вероятность

Ответы:


3

Просто грубый, но, надеюсь, интуитивно понятный ответ.

  1. Посмотрите на это с точки зрения пространства журнала: где - константа, которая зависит от данных, но не от параметра, и где ваши вероятности предполагают наличие наблюдений. Следовательно, просто сконцентрируйтесь на части, которая определяет форму вашего апостериора, а именно на C n > 0 S n = - log P ( θ ) - n i = 1 log P (

    -журналп(θ|Икс1,...,ИксN)знак равно-журналп(θ)-Σязнак равно1Nжурналп(Икся|θ)-СN
    СN>0
    SNзнак равно-журналп(θ)-Σязнак равно1Nжурналп(Икся|θ)
  2. Предположим , что существует такое , что . Это разумно для дискретных распределений.D>0-журналп(θ)D

  3. Поскольку условия все положительные, «будет» расти (я пропускаю технические детали здесь). Но вклад предшествующего ограничен . Следовательно, доля, внесенная предшествующим фактором, которая составляет самое большее , монотонно уменьшается с каждым дополнительным наблюдением.SNDD/SN

Строгие доказательства, конечно, сталкиваются с техническими сложностями (и они могут быть очень сложными), но установка выше ИМХО является самой основной частью.


0

Я несколько озадачен тем, что должны означать утверждения «предшествующее забыто» и «на большинство выводов влияют доказательства». Я предполагаю, что вы имеете в виду, что по мере увеличения объема данных (последовательность) оценщика (ов) приближается к истинному значению параметра независимо от нашего предыдущего.

Предполагая некоторые условия регулярности формы апостериорного распределения, оценки Байеса являются последовательными и асимптотически несмещенными (см. Gelman et al, глава 4 ). Это означает, что при увеличении размера выборки оценка Байеса приближается к истинному значению параметра. Согласованность означает, что оценщик Байеса сходится по вероятности к истинному значению параметра, а асимптотическая беспристрастность означает, что, предполагая, что является истинным значением параметра,θ0

Е[θ^|θ0]-θ0Вaр(θ^)п0

Сходимость не зависит от конкретной формы априора, а зависит только от того, что апостериорное распределение, полученное из априора и вероятность, удовлетворяют условиям регулярности.

Самое важное условие регулярности, упомянутое в Gelman et al., Состоит в том, что вероятность быть непрерывной функцией параметра, а истинное значение параметра находится внутри пространства параметров. Также, как вы заметили, апостериор должен быть ненулевым в открытой окрестности истинного значения истинного значения параметра. Обычно ваш предшествующий уровень должен быть ненулевым во всем пространстве параметров.


спасибо, очень проницательный Я действительно надеялся на результат, который даже не имел бы отношения к «истинному» значению параметра. Просто показывая, что технически, поскольку у вас есть больше доказательств, апостериор, который вы получите, будет таким же, независимо от того, с чего вы начали. Я собираюсь внести некоторые изменения, чтобы отразить это.
bayesianOrFrequentist

@bayesianOrFrequentist Взгляните на так называемую байесовскую центральную предельную теорему .
Стефан Лоран
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.