Я публикую «ответ» на вопрос, который я задал здесь две недели назад: почему полезен Джефрис? Это действительно был вопрос (и я тоже не имел права публиковать комментарии в то время), поэтому я надеюсь, что это нормально:
В приведенной выше ссылке обсуждается, что интересная особенность априорной теории Джеффриса состоит в том, что при повторной параметризации модели результирующее апостериорное распределение дает апостериорные вероятности, которые подчиняются ограничениям, налагаемым преобразованием. Скажем, как описано там, при переходе от вероятности успеха & в примере бета-Бернулли шансов , это должно быть так , что задняя удовлетворяет условию .
Я хотел создать числовой пример инвариантности Джеффриса для преобразования в шансы и, что более интересно, отсутствие других априорных значений (скажем, Haldane, одинаковых или произвольных).
Теперь, если апостериор для вероятности успеха - бета (для любой предыдущей беты, а не только для Джеффриса), апостериор шансов следует бета-распределению второго рода (см. Википедия) с теми же параметрами . Затем, как показано в приведенном ниже числовом примере, неудивительно (по крайней мере для меня), что существует инвариантность для любого выбора бета-версии (игра с alpha0_U
и beta0_U
), а не только для Джеффриса, ср. вывод программы.
library(GB2)
# has the Beta density of the 2nd kind, the distribution of theta/(1-theta) if theta~Beta(alpha,beta)
theta_1 = 2/3 # a numerical example as in the above post
theta_2 = 1/3
odds_1 = theta_1/(1-theta_1) # the corresponding odds
odds_2 = theta_2/(1-theta_2)
n = 10 # some data
k = 4
alpha0_J = 1/2 # Jeffreys prior for the Beta-Bernoulli case
beta0_J = 1/2
alpha1_J = alpha0_J + k # the corresponding parameters of the posterior
beta1_J = beta0_J + n - k
alpha0_U = 0 # some other prior
beta0_U = 0
alpha1_U = alpha0_U + k # resulting posterior parameters for the other prior
beta1_U = beta0_U + n - k
# posterior probability that theta is between theta_1 and theta_2:
pbeta(theta_1,alpha1_J,beta1_J) - pbeta(theta_2,alpha1_J,beta1_J)
# the same for the corresponding odds, based on the beta distribution of the second kind
pgb2(odds_1, 1, 1,alpha1_J,beta1_J) - pgb2(odds_2, 1, 1,alpha1_J,beta1_J)
# same for the other prior and resulting posterior
pbeta(theta_1,alpha1_U,beta1_U) - pbeta(theta_2,alpha1_U,beta1_U)
pgb2(odds_1, 1, 1,alpha1_U,beta1_U) - pgb2(odds_2, 1, 1,alpha1_U,beta1_U)
Это подводит меня к следующим вопросам:
- Я делаю ошибку?
- Если нет, то есть ли такой результат, как отсутствие недостатка инвариантности в сопряженных семьях или что-то в этом роде? (Быстрая проверка заставляет меня заподозрить, что я, например, не смог бы обеспечить отсутствие инвариантности в нормальном нормальном случае.)
- Вы знаете (предпочтительно простой) пример , в котором мы сделать получаем отсутствие инвариантности?