@ Тристан: Надеюсь, вы не возражаете против моей доработки вашего ответа, так как я работаю над тем, как сделать общую мысль максимально прозрачной.
Для меня основнойПонимание статистики - это концептуализация повторяющихся наблюдений, которые варьируются - как генерируемые моделью, генерирующей вероятности, такой как Normal (mu, sigma). В начале 1800-х годов модели, генерирующие вероятность, развлекали, как правило, только из-за ошибок измерения с ролью параметров, таких как mu и sigma и априоры для них. Частые подходы принимали параметры как фиксированные и неизвестные, и поэтому модели, генерирующие вероятность, включали только возможные наблюдения. Байесовские подходы (с соответствующими априорами) имеют модели, генерирующие вероятность как для возможных неизвестных параметров, так и для возможных наблюдений. Эти совместные модели, генерирующие вероятности, всесторонне учитывают все - если быть более общими - возможные неизвестные (например, параметры) и известные (например, наблюдения). Как и в ссылке от Рубина, которую вы дали,
На самом деле это было очень четко изображено Гальтоном в двухэтапном квинкунсе в конце 1800-х годов. См. Рисунок 5> Стиглер, Стивен М. 2010. Дарвин, Гальтон и статистическая
просветление. Журнал Королевского статистического общества: серия A
173 (3): 469-482 . ,
Это эквивалентно, но, возможно, более прозрачно, что
задний = предыдущий (возможные неизвестные | возможные известные = известные)
чем задний ~ предыдущий (возможные неизвестные) * p (возможные известные = известные | возможные неизвестные)
Ничего особенного в пропущенных значениях в первом случае нет, поскольку в модель вероятности, генерирующую пропущенные значения, добавляются возможные неизвестные, а пропущенные значения рассматриваются как один из возможных известных (т. Е. Отсутствует третье наблюдение).
В последнее время приближенные байесовские вычисления (ABC) серьезно восприняли этот конструктивный двухэтапный подход к моделированию, когда p (возможные известные = известные | возможные неизвестные) не может быть определено. Но даже тогда, когда это может быть разработано, и задний, легко доступный из выборки MCMC (или даже когда задний непосредственно доступен из-за предшествующего сопряжения), не следует упускать из виду мнение Рубина об этой двухэтапной конструкции выборки, обеспечивающей более легкое понимание.
Например, я уверен, что он поймал бы то, что @Zen сделал здесь Bayesians: рабы функции вероятности? потому что нужно было бы нарисовать возможный неизвестный c из предыдущего (первый этап), а затем нарисовать возможный известный (данные), учитывая, что c (второй этап) не был бы случайным поколением, так как p (возможные известные | c) не было бы вероятности, за исключением одного и только одного c.
От @Zen «К сожалению, в общем, это не является достоверным описанием статистической модели. Проблема в том, что по определениюеИкся∣ C(⋅ | с ) должна быть плотность вероятности для почти каждого возможного значениясчто, в общем-то, явно ложно ».