Ответы:
Позвольте мне завершить ответ дзен. Мне не очень нравится понятие «представление невежества». Важной вещью является не Джефрис до, а Джеффрис зад . Эта апостериорная задача призвана максимально полно отразить информацию о параметрах, представленных данными. Свойство инвариантности естественно требуется для двух следующих пунктов. Рассмотрим, например, биномиальную модель с неизвестным параметром пропорции и параметром шансов ψ = θ .
Апостериорный Джеффрис на отражает как можно лучше информацию о θ, приведенную данными. Между θ и ψ существует взаимно-однозначное соответствие . Затем, преобразование аппроксимации Джеффри на θ в апостериорный на ψ (с помощью обычной формулы изменения переменных) должно дать распределение, максимально отражающее информацию о ψ . Таким образом, это распределение должно быть задним числом Джеффриса около ψ . Это свойство инвариантности.
Важным моментом при подведении итогов статистического анализа является научное общение . Представьте, что вы даете Джеффриса на научному коллеге. Но он / она интересуется ψ, а не θ . Тогда это не проблема со свойством инвариантности: он / она просто должен применить формулу изменения переменных.
Предположим, что вы и ваш друг анализируете один и тот же набор данных, используя обычную модель. Вы принимаете обычную параметризацию нормальной модели, используя среднее значение и дисперсию в качестве параметров, но ваш друг предпочитает параметризовать нормальную модель с коэффициентом вариации и точностью в качестве параметров (что совершенно «допустимо»). Если вы оба используете приоры Джеффриса, ваше апостериорное распределение будет апостериорным распределением вашего друга, должным образом трансформированным из его параметризации в ваше. Именно в этом смысле априор Джеффриса «инвариантен»
(Кстати, «инвариант» - это ужасное слово; мы на самом деле имеем в виду, что оно «ковариантно» в том же смысле тензорного исчисления / дифференциальной геометрии, но, конечно, этот термин уже имеет хорошо установленное вероятностное значение, поэтому мы не можем его использовать.)
Почему это свойство согласованности желательно? Потому что, если у априора Джеффриса есть хоть какой-то шанс представить невежество о значении параметров в абсолютном смысле (на самом деле это не так, но по другим причинам, не связанным с «инвариантностью»), а не незнание относительно конкретной параметризации модели, это должно быть так, что независимо от того, с какими параметризациями мы произвольно решили начать, наши потомки должны «совпадать» после преобразования.
Сам Джеффрис регулярно нарушал это свойство «инвариантности», когда строил свои приоры.
В этой статье есть несколько интересных дискуссий по этому и смежным вопросам.
Чтобы добавить некоторые цитаты к великому ответу Дзен: по словам Джейнса, настоятель Джеффриса является примером принципа групп трансформации, который вытекает из принципа безразличия:
тогда мы могли бы создать новую проблему, в которой наш уровень знаний будет таким же, но в котором мы назначаем разные вероятности ...
Теперь, чтобы ответить на ваш вопрос: «Почему вы не хотите, чтобы предыдущий изменялся при смене переменных?»
По мнению Джейнса, параметризация - это другой вид произвольной метки, и нельзя «путем простого обмена метками создать новую проблему, в которой наш уровень знаний такой же, но в котором мы назначаем разные вероятности». »
Джеффрис до этого бесполезен . Это потому что:
Просто не используйте это.