Вопрос, который вы задаете, отличается от «диагностики сходимости». Допустим, вы выполнили всю диагностику конвергенции (выберите свою любимую (ые)) и теперь готовы начать отбор проб сзади.
Существует два варианта с точки зрения эффективного размера выборки (ESS), вы можете выбрать одномерный ESS или многовариантный ESS. Однофакторный ESS обеспечит эффективный размер выборки для каждого параметра в отдельности, а консервативные методы требуют, чтобы вы выбирали наименьшую оценку. Этот метод игнорирует все взаимные корреляции между компонентами. Это, вероятно, то, что большинство людей использовали некоторое время
Недавно было представлено многомерное определение ESS. Многомерный ESS возвращает одно число для эффективного размера выборки для количеств, которые вы хотите оценить; и делает это путем учета всех взаимных корреляций в процессе. Лично я предпочитаю многомерный ESS. Предположим, вас интересует вектор средних значений апостериорного распределения. MESS определяется следующим образом:
mESS = n ( | Λ |p
Вот
mESS=n(|Λ||Σ|)1/p.
- - ковариационная структура апостериора (также асимптотическая ковариация в CLT, если у вас были независимые выборки)Λ
- ΣΛ
- p
- |⋅|
ΛΣmultiESS
Эта недавняя статья содержит теоретически обоснованную нижнюю границу количества необходимых эффективных образцов. Перед симуляцией нужно определиться
- ϵϵ
- α
- p
mESS≥22/pπ(pΓ(p/2))2/pχ21−α,pϵ2,
Γ(⋅)minESS
p=2095%ϵ=.05
> minESS(p = 20, alpha = .05, eps = .05)
[1] 8716
Это верно для любой проблемы (в условиях регулярности). Способ, которым этот метод адаптируется от проблемы к проблеме, состоит в том, что медленное перемешивание цепей Маркова занимает больше времени, чтобы достичь этой нижней границы, поскольку mESS будет меньше. Так что теперь вы можете пару раз multiESS
проверить, достигла ли ваша цепь Маркова этой границы; если не пойти и взять больше образцов.