Я пытаюсь подобрать иерархическую модель, используя jags и пакет rjags. Моя переменная результата - у, которая представляет собой последовательность испытаний Бернулли. У меня есть 38 человек, которые выступают в двух категориях: P и M. На основании моего анализа, у каждого выступающего есть вероятность успеха в категории P из и вероятность успеха в категории M из . Я также предполагаю, что есть некоторый гиперпараметр на уровне сообщества для P и M: и .θ p × θ mμ m
Итак, для каждого докладчика: и где и управляют тем, насколько является распределение вокруг и .θ м ~ б е т в ( μ м × κ м , ( 1 - μ м ) × κ м ) каппа р κ m μ p μ m
Также , .μ m ∼ b e t a ( A m , B m )
Вот моя модель зазубрин:
model{
## y = N bernoulli trials
## Each speaker has a theta value for each category
for(i in 1:length(y)){
y[i] ~ dbern( theta[ speaker[i],category[i]])
}
## Category P has theta Ptheta
## Category M has theta Ptheta * Mtheta
## No observed data for pure Mtheta
##
## Kp and Km represent how similar speakers are to each other
## for Ptheta and Mtheta
for(j in 1:max(speaker)){
theta[j,1] ~ dbeta(Pmu*Kp, (1-Pmu)*Kp)
catM[j] ~ dbeta(Mmu*Km, (1-Mmu)*Km)
theta[j,2] <- theta[j,1] * catM[j]
}
## Priors for Pmu and Mmu
Pmu ~ dbeta(Ap,Bp)
Mmu ~ dbeta(Am,Bm)
## Priors for Kp and Km
Kp ~ dgamma(1,1/50)
Km ~ dgamma(1,1/50)
## Hyperpriors for Pmu and Mmu
Ap ~ dgamma(1,1/50)
Bp ~ dgamma(1,1/50)
Am ~ dgamma(1,1/50)
Bm ~ dgamma(1,1/50)
}
У меня проблема в том, что когда я запускаю эту модель с 5000 итерациями для адаптации, затем беру 1000 выборок Mmu
и Km
сходимся к отдельным значениям. Я работал с четырьмя цепочками, и каждая цепочка не имеет одинакового значения, но внутри каждой цепочки есть только одно значение.
Я довольно новичок в подборе иерархических моделей с использованием методов MCMC, поэтому мне интересно, насколько это плохо. Должен ли я принять это как знак того, что эта модель безнадежно подходит, что что-то не так с моими приоры, или это нормально?
Редактировать: В случае, если это имеет значение, значение для к оно сходилось (усреднено по цепочкам), было 0,91, а - 1,78κ м