Ответы:
(Несколько удивительно читать предыдущие ответы, которые фокусируются на потенциальной неправильности апостериорного, когда предшествующий является правильным, поскольку, насколько я могу судить, вопрос в том, должен ли апостериор быть правильным ( т. е. интегрируемо в единицу) быть надлежащим (т. е. приемлемым для байесовского вывода) апостериорным.)
В статистике Байесовской, заднее распределение имеет быть распределение вероятностей, из которого можно вывести такие моменты задней средней и вероятностные утверждения, такие как покрытие вероятного региона, . Если заднийπ ( θ | x )
На самом деле, (1) должно выполняться для всех в пространстве выборки, а не только для наблюдаемого , иначе выбор предыдущего будет зависеть от данных . Это означает, что априоры, такие как априор Холдейна, , для вероятности биномиальной или отрицательной биномиальной переменной X не могут использоваться, поскольку апостериор не является определено для х = 0 . p X x = 0
Я знаю одно исключение, когда можно рассматривать «неправильных постеров»: оно найдено в «Искусстве увеличения данных» Дэвида ван Дейка и Сяо-Ли Мена. Неправильная мера находится над так называемым рабочим параметром , так что наблюдение производится маргиналом расширенного распределения а Ван Дайк и Мэн задают неправильный предшествующий для этого рабочего параметра чтобы ускорить моделирование (которое остается четко определенным как плотность вероятности) MCMC.f ( x | θ ) = ∫ T ( x aug ) = x f ( x aug | θ , α ) p ( α ) α π ( θ | x )
С другой стороны, в некоторой степени связанный с ответом eretmochelys , а именно с точки зрения байесовской теории принятия решений , установка, в которой (1) происходит, все еще может быть приемлемой, если она приводит к оптимальным решениям. А именно, если - это функция потерь, оценивающая влияние использования решения , оптимальное байесовское решение при предшествующем задается как и все, что имеет значение, это то, что этот интеграл не везде (в ) бесконечен. Является ли (1) верным для получения
Заднее распределение не обязательно должно быть правильным, даже если предшествующее является правильным. Например, предположим, что имеет гамма-априор с формой 0.25 (что является правильным), и мы моделируем нашу точку отсчета как полученную из гауссовского распределения со средним нулем и дисперсией . Предположим, что наблюдается равным нулю. Тогда вероятность пропорциональна , что делает апостериорное распределение для несоответствующим, поскольку оно пропорционально . Эта проблема возникает из-за дурацкой природы непрерывных переменных.
Определение набора мы имеем P r ( X ∈ фиктивные данные ) = ∫ фиктивные данные ∫ f ( x ∣ θ )
На словах: вероятность предшествующего прогнозирования тех значений выборки, которые делают апостериорный неправильный, равна нулю.
Мораль истории: остерегайтесь нулевых множеств, они могут кусаться, как бы невероятно это ни было.
PS Как отметил профессор Роберт в комментариях, это рассуждение разрушается, если предшествующее является неправильным.
Любое «распределение» должно суммироваться (или интегрироваться) в 1. Я могу привести несколько примеров, когда можно работать с ненормализованными дистрибутивами, но мне неудобно когда-либо называть что-либо, что ограничивает что-либо, кроме 1, «распределением».