Я бы порекомендовал использовать «Бета-распределение второго рода» (бета-версия 2 ) для слегка информативного распределения и использовать сопряженное обратное гамма-распределение, если у вас есть сильные предварительные убеждения. Причина, по которой я это говорю, заключается в том, что сопряженный априор не является устойчивым в том смысле, что, если априор и данные конфликтуют, априор оказывает неограниченное влияние на апостериорное распределение. Такое поведение я бы назвал «догматическим», и оно не оправдано мягкой предшествующей информацией.
Свойство, которое определяет устойчивость, является поведением хвоста предшествующего и вероятностного. Очень хорошая статья с изложением технических деталей здесь . Например, вероятность может быть выбрана (скажем, t-распределение) так, что в качестве наблюдения (т.е. становится произвольно большим) она отбрасывается из анализа параметра местоположения (во многом так же, как вы делать интуитивно с таким наблюдением). Скорость «отбрасывания» зависит от того, насколько тяжелы хвосты распределения.yi→∞
Некоторые слайды, которые показывают применение в контексте иерархического моделирования, можно найти здесь (показывает математическую форму дистрибутива Beta 2 ), со статьей здесь .
Если вы не находитесь в контексте иерархического моделирования, то я бы предложил сравнить апостериорные (или любые другие результаты, которые вы создаете), но используйте ранее значение Джеффриса для параметра масштаба, который задается как . Это может быть создано как пределплотностиBeta2, таккак оба его параметра сходятся к нулю. Для приближения вы можете использовать небольшие значения. Но я бы попытался выработать решениеаналитически,если это вообще возможно (и если не полное аналитическое решение, получить аналитическое решение настолько далеко, насколько это возможно), потому что вы не только сэкономите себе некоторое вычислительное время, но вы Также, вероятно,лучше понять,что происходит в вашей модели.p(σ)∝1σ
Другой альтернативой является указание вашей предыдущей информации в виде ограничений (среднее значение равно , дисперсия равно V , IQR равно I Q R и т. Д. Со значениями M , V , I Q R, указанными вами самостоятельно), и затем используйте максимальное распределение энтропии (найдите любую работу Эдвина Джейнса или Ларри Бретторста, чтобы найти хорошее объяснение того, что такое максимальная энтропия и чем она не является) относительно «инвариантной меры» Джеффриса m ( σ ) = 1MVIQRM,V,IQR . m(σ)=1σ
MaxEnt - это версия Rolls Royce, в то время как Beta 2 - скорее версия седана. Причина этого заключается в том, что распределение MaxEnt «предполагает наименьшее» в зависимости от ограничений, которые вы на него наложили (например, отсутствие ограничений означает, что вы просто получите Jeffreys ранее), тогда как дистрибутив Beta 2 может содержать некоторые «скрытые» функции, которые может или не может быть желательным в вашем конкретном случае (например, если предыдущая информация является более надежной, чем данные, то бета-версия 2 является плохой).
Другим приятным свойством распределения MaxEnt является то, что если в механизме генерации данных не действуют неопределенные ограничения, то распределение MaxEnt в подавляющем большинстве случаев является наиболее вероятным распределением, которое вы увидите (мы говорим о вероятностях, превышающих миллиарды и триллионы к одному). Следовательно, если распределение, которое вы видите, не является MaxEnt, то, скорее всего, существуют дополнительные ограничения, которые вы не указали, действующие для истинного процесса, и наблюдаемые значения могут дать представление о том, каким может быть это ограничение.