Почему существуют рекомендации против использования Jeffreys или энтропийных априоров для сэмплеров MCMC?


11

На своей вики-странице разработчики Стэна заявляют:

Некоторые принципы нам не нравятся: инвариантность, Джеффрис, энтропия

Вместо этого я вижу много нормальных рекомендаций по распространению. До сих пор я использовал байесовские методы, которые не основывались на выборке, и был отчасти рад, что понял, почему был хорошим выбором для биномиальных вероятностей.θ~Бета(αзнак равно12,βзнак равно12)


1
Общий комментарий: в документации по программному обеспечению не всегда приводятся статистические аргументы в пользу того, что программное обеспечение делает и чего не делает. Это верно для большинства пакетов R, на которые я смотрел, и я не удивлен, услышав то же самое о Стэне. Эндрю Гельман, очевидно, плодовитый автор.
Ник Кокс

1
Далее общий комментарий: я не нахожу этот вопрос очень удовлетворяющим, отчасти потому, что он касается конкретных людей. Если живые авторы не объясняют где-либо и не проявляют здесь активности, отправьте им электронное письмо с просьбой. Более удовлетворительно спрашивать об относительных достоинствах различных подходов. Иногда справедливо сказать, что вы всегда можете использовать различное программное обеспечение, если вы обнаружите, что чего-то не хватает, в том числе написать свое. Нераскрытие: никогда не использовал Стэн.
Ник Кокс

@NickCox Я не думаю, что этот вопрос выиграл бы от анонимизации, потому что (1) важен контекст программного обеспечения для выборки (2) у меня сложилось впечатление, что отказ от приоров Джеффриса достаточно необычен, и на него стоит обратить внимание что известный источник делает это утверждение. (3) Я не думаю, что цитировать кого-то в вопросе противоречиво.
wirrbel

1
Энди написал «Некоторые принципы, которые нам не нравятся: инвариантность, Джеффрис, энтропия», но чтобы понять, почему вы должны посмотреть в его книге
Бен Гудрич,

1
Кроме того, эта статья содержит самые последние размышления о приорах среди трех разработчиков Stan.
Бен Гудрич

Ответы:


13

Это, конечно, разнообразная группа людей с разными мнениями, которые собираются вместе и пишут вики. Подводя итог, я знаю / понимаю с некоторыми комментариями:

  • Выбор вашего предыдущего на основе вычислительных удобств является недостаточным обоснованием. Например, использование бета-версии (1/2, 1/2) исключительно потому, что она позволяет выполнять сопряженное обновление, не является хорошей идеей. Конечно, как только вы придете к выводу, что он обладает хорошими свойствами для типа проблемы, над которой вы работаете, это нормально, и вы могли бы также сделать выбор, который делает реализацию легкой. Существует множество примеров, когда удобный выбор по умолчанию оказывается проблематичным (см. Gamna (0,001, 0,001) до того, как включить выборку Гиббса).

  • С Stan - в отличие от WinBUGS или JAGS - нет особого преимущества для (условно) сопряженных априорных элементов. Так что вы можете просто игнорировать вычислительный аспект. Не совсем, хотя, потому что с очень тяжелыми хвостовыми априорами (или неправильными априорами) и данными, которые плохо идентифицируют параметры, вы сталкиваетесь с проблемами (на самом деле это не специфическая проблема Стэна, но Стэн довольно хорошо выявляет эти проблемы и предупреждает пользователя вместо того, чтобы счастливо отбирать пробы).

  • Априоры Джеффриса и других «малоинформативных» данных иногда могут быть неправильными или слишком сложными для понимания в больших измерениях (не говоря уже о том, чтобы их выводить) и с редкими данными. Может быть, это слишком часто приводило к тому, что авторам было неудобно с ними сталкиваться. Как только вы работаете в чем-то, вы учитесь больше и чувствуете себя комфортно, поэтому время от времени меняются мнения.

  • В разреженных настройках данных предшествующее действительно имеет значение, и если вы можете указать, что абсолютно неправдоподобные значения для параметра неправдоподобны, это очень помогает. Это мотивирует идею слабоинформативных априоров - не совсем информативных априоров, но тех, которые в наибольшей степени поддерживают правдоподобные ценности.

  • На самом деле, вы могли бы задаться вопросом, зачем беспокоиться о неинформативных априорах, если у нас много данных, которые действительно хорошо идентифицируют параметры (можно просто использовать максимальную вероятность). Конечно, есть множество причин (избегание патологий, получение «реальной формы» постеров и т. Д.), Но в ситуациях с «большим количеством данных», похоже, нет реального аргумента против слабоинформативных априоров.

  • Возможно, немного странно, что N (0, 1) является удивительно приличным априором для коэффициента в логистике, пуассоновской или кокс-регрессии для многих приложений. Например, это очень приблизительно распределение наблюдаемых эффектов лечения во многих клинических испытаниях.

Спасибо за подробный ответ. Полагаю, мое удивление не столько в сопряженности (потому что, если я правильно понимаю, приоры Джеффриса не обязательно должны быть сопряженными, они просто должны быть инвариантными при репараметризации). Так что я бы полностью понял совет против сопряженных приоров.
wirrbel

Я думаю, что беспокойство с Джеффрисом априором в основном связано с тем, что это какой-то высокомерный априор, который, возможно, не является надлежащим априором и может иметь некоторое влияние на ваш вывод, который вы не полностью понимаете. Я думаю, что это в основном касается разреженных данных, хотя, возможно, кто-то может указать на пример с разреженными данными, где возникают некоторые проблемы (я не знаю ни о каких). Плюс к предыдущему Джеффрису и различным другим «неинформативным» вариантам, есть неудобство того, чтобы его получить.
Бьорн

8

Они не дают никакого научного / математического обоснования для этого. Большинство разработчиков не работают с такими видами априоров, и они предпочитают использовать более прагматичные / эвристические априоры, такие как обычные априоры с большими отклонениями (которые могут быть информативными в некоторых случаях). Тем не менее, немного странно, что они рады использовать ПК-приоры, основанные на энтропии (расхождение KL), после того, как они начали работать над этой темой.

гaммa(0,001,0,001)


Не могли бы вы предоставить информативную гиперссылку / источник по заявлению Гельмана.
Джим

@Jim Конечно, это бумага: projecteuclid.org/euclid.ba/1340371048
До
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.