Это повторяющийся вопрос (см. Этот пост , этот пост и этот пост ), но у меня другое вращение.
Предположим, у меня есть набор сэмплов из стандартного сэмплера MCMC. Для каждого образца я знаю значение вероятности записи в журнал и предшествующего . Если это помогает, я также знаю значение вероятности записи в журнал для каждой точки данных, (эта информация помогает в некоторых методах, таких как WAIC и PSIS-LOO).
Я хочу получить (грубую) оценку предельной вероятности, только с имеющимися у меня выборками, и, возможно, с некоторыми другими оценками функций (но без повторного запуска специальной MCMC).
Прежде всего, давайте очистим таблицу. Все мы знаем, что оценка гармоник - худшая оценка за всю историю . Давайте двигаться дальше. Если вы делаете выборку Гиббса с априорами и постерами в закрытой форме, вы можете использовать метод Чиба ; но я не уверен, как обобщать за пределами этих случаев. Существуют также методы, которые требуют, чтобы вы изменили процедуру выборки (например, с помощью закаленных постеров ), но меня это здесь не интересует.
Подход, о котором я думаю, состоит в аппроксимации базового распределения параметрической (или непараметрической) формой , а затем в определении задачи нормализации как одномерной задачи оптимизации (т. которая минимизирует некоторую ошибку между и , вычислено по образцам). В простейшем случае, предположим, что апостериор является грубо многомерной нормалью, я могу подогнать как многовариантную нормаль и получить что-то похожее на приближение Лапласа (возможно, я хотел бы использовать несколько дополнительных функций для уточнения положения режим). Тем не менее, я мог бы использовать какболее гибкое семейство, такое как вариационная смесь многомерных распределений.
Я ценю, что этот метод работает, только если - разумное приближение к , но любая причина или предостерегающий рассказ о том, почему было бы очень неразумно сделай это? Любое чтение, которое вы бы порекомендовали?
В полностью непараметрическом подходе используется некоторое непараметрическое семейство, такое как гауссовский процесс (GP), для аппроксимации (или некоторого другого его нелинейного преобразования, такого как как квадратный корень), и байесовская квадратура для неявной интеграции по основной цели (см. здесь и здесь ). Это представляется интересным альтернативным подходом, но аналогичным по духу (также обратите внимание, что в моем случае ВОП были бы громоздкими).