Гарантирует ли алгоритм выборки Гиббса детальный баланс?


17

У меня есть высший авторитет 1, что выборка Гиббса является частным случаем алгоритма Метрополиса-Гастингса для выборки Маркова с цепочкой Монте-Карло. Алгоритм MH всегда дает вероятность перехода с подробным свойством баланса; Я думаю, что Гиббс тоже должен. Так где же в следующем простом случае я ошибся?

Для целевого распределения π(x,y) по двум дискретным (для простоты) переменным полные условные распределения:

q1(x;y)=π(x,y)zπ(z,y)q2(y;x)=π(x,y)zπ(x,z)

Как я понимаю выборка Гиббса, вероятность перехода можно записать так:

Prob{(y1,y2)(x1,x2)}=q1(x1;y2)q2(x2;x1)

Вопрос в том, действительно ли но самое близкое, что я могу получить, это π ( y 1 , y 2 ) P r o b { ( y 1 , y 2 )

π(y1,y2)Prob{(y1,y2)(x1,x2)}=?π(x1,x2)Prob{(x1,x2)(y1,y2)},
Это немного отличается и не предполагает детального баланса. Спасибо за любые мысли!
π(y1,y2)Prob{(y1,y2)(x1,x2)}=π(y1,y2)q2(x2;x1)q1(x1;y2)=π(x1,x2)zπ(x1,z)π(x1,y2)zπ(z,y2)π(y1,y2)=π(x1,x2)q2(y2;x1)q1(y1;y2)

Ответы:


15

Вы попытались показать подробный баланс для цепи Маркова, который получен, рассматривая один переход цепи Маркова как «цикл Гиббса», где вы выбираете каждый компонент по очереди из его условного распределения. Для этой цепочки подробный баланс не выполняется. Дело скорее в том, что каждая выборка конкретного компонента из его условного распределения является переходом, который удовлетворяет детальному балансу. Было бы точнее сказать, что выборка Гиббса является частным случаем слегка обобщенного Метрополиса-Гастингса, когда вы чередуете несколько разных предложений. Более подробная информация приведена ниже.

Разметки не удовлетворяют подробному балансу

X1,X2

X2=0X2=1X1=01313X1=1013
X1(0,0)(1,1)(0,0)(1,0)(1,1)(0,0)14

Однако эта цепочка все еще имеет стационарное распределение, которое является правильным. Подробный баланс является достаточным, но не обязательным условием для достижения целевого распределения.

Компонентные ходы удовлетворяют подробному балансу

(x1,x2)(y1,y2)x2y2x2=y2

π(x1,x2)Prob((x1,x2)(y1,x2))=π(x1,x2)p(y1X2=x2)=π(x1,x2)π(y1,x2)zπ(z,x2)=π(y1,x2)π(x1,x2)zπ(z,x2)=π(y1,x2)p(x1X2=x2)=π(y1,x2)Prob((y1,x2)(x1,x2)).

How the component-wise moves are Metropolis-Hastings moves?

Sampling from the first component, our proposal distribution is the conditional distribution. (For all other components, we propose the current values with probability 1). Considering a move from (x1,x2) to (y1,y2), the ratio of target probabilities is

π(y1,x2)π(x1,x2).
But the ratio of proposal probabilities is
Prob((y1,x2)(x1,x2))Prob((x1,x2)(y1,x2))=π(x1,x2)zπ(z,x2)π(y1,x2)zπ(z,x2)=π(x1,x2)π(y1,x2).
So, the ratio of target probabilities and the ratio of proposal probabilities are reciprocals, and thus the acceptance probability will be 1. In this sense, each of the moves in the Gibbs sampler are special cases of Metropolis-Hastings moves. However, the overall algorithm viewed in this light is a slight generalization of the typically presented Metropolis-Hastings algorithm in that you have alternate between different proposal distributions (one for each component of the target variable).

Great answer, thanks (minor edit: y_2 -> x_2 in your third section). When calling the Gibbs sweep one step, is the existence of the stationary distribution (along with irreducibility and recurrence) a sufficient condition for convergence to the stationary distribution from any initial state?
Ian

3
The Gibbs sampler is a composition of Metropolis-Hastings moves with acceptance probability 1. Each move is reversible but the composition is not, unless the order of the steps is random.
Xi'an
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.