Вопросы с тегом «gibbs»

Сэмплер Гиббса - это простая форма моделирования цепи Маркова Монте-Карло, широко используемая в байесовской статистике, основанная на выборке из полных условных распределений для каждой переменной или группы переменных. Название происходит от метода, впервые использованного при моделировании изображений случайными полями Гиббса Джеманом и Джеманом (1984).

4
OpenBugs против JAGS
Я собираюсь опробовать среду стиля BUGS для оценки байесовских моделей. Есть ли какие-то важные преимущества при выборе между OpenBugs или JAGS? Может ли один заменить другой в обозримом будущем? Я буду использовать выбранный Gibbs Sampler с R. У меня пока нет конкретного приложения, но я решаю, что ему ввести и …
41 r  software  bugs  jags  gibbs 

1
В чем разница между метрополисом Гастингсом, Гиббсом, Важностью и Отбором?
Я пытался изучить методы MCMC и наткнулся на выборку Metropolis Hastings, Gibbs, Важность и Отклонение. Хотя некоторые из этих различий очевидны, т. Е. То, как Гиббс является особым случаем Метрополиса Гастингса, когда у нас есть полные условия, другие менее очевидны, например, когда мы хотим использовать MH в семплере Гиббса и …

3
Хорошие учебные пособия по гиббсу
Я хочу узнать, как работает выборка Гиббса, и я ищу хорошую базовую и промежуточную статью. У меня есть опыт работы в области компьютерных наук и базовые статистические знания. Кто-нибудь прочитал хороший материал вокруг? где ты это узнал? Благодарность
29 references  gibbs 

1
Каковы некоторые известные улучшения по сравнению с алгоритмами MCMC из учебников, которые люди используют для байесовского вывода?
Когда я кодирую симуляцию Монте-Карло для какой-то проблемы, и модель достаточно проста, я использую очень простую выборку из учебника Гиббса. Когда невозможно использовать выборку Гиббса, я пишу учебник «Метрополис-Гастингс», который я выучил много лет назад. Единственная мысль, которую я ему даю, - это выбор прыгающего распределения или его параметров. Я …

2
Выборка Гиббса по сравнению с общим MH-MCMC
Я только что прочитал о выборке Гиббса и алгоритме Метрополиса Гастингса и у меня есть пара вопросов. Насколько я понимаю, в случае выборки Гиббса, если у нас большая многомерная задача, мы выбираем из условного распределения, то есть выбираем одну переменную, сохраняя все остальные фиксированными, тогда как в MH мы выбираем …

1
Когда можно использовать выборку Гиббса вместо Метрополис-Гастингс?
Существуют различные виды алгоритмов MCMC: Метрополис-Гастингс Gibbs Важность / отклонение выборки (связано). Зачем использовать выборку Гиббса вместо Метрополис-Гастингс? Я подозреваю, что бывают случаи, когда при выборке Гиббса можно сделать вывод лучше, чем при работе с Метрополис-Гастингс, но я не совсем уверен в деталях.

1
Гарантирует ли алгоритм выборки Гиббса детальный баланс?
У меня есть высший авторитет 1, что выборка Гиббса является частным случаем алгоритма Метрополиса-Гастингса для выборки Маркова с цепочкой Монте-Карло. Алгоритм MH всегда дает вероятность перехода с подробным свойством баланса; Я думаю, что Гиббс тоже должен. Так где же в следующем простом случае я ошибся? Для целевого распределения π(x,y)π(x,y)\pi(x, y) …
17 mcmc  gibbs 

1
Стан
Я просматривал документацию Стэна, которую можно скачать отсюда . Я был особенно заинтересован в их реализации диагностики Гельмана-Рубина. Оригинальная статья Gelman & Rubin (1992) определяет потенциальный коэффициент уменьшения масштаба (PSRF) следующим образом: Пусть быть я й пробы цепь Маркова, и пусть будет в целом M независимые цепи выборочные. Пусть ˉ …

2
Откуда берутся полные условия в выборке Гиббса?
Алгоритмы MCMC, такие как выборка Метрополиса-Гастингса и Гиббса, являются способами отбора из совместных задних распределений. Я думаю, что понимаю и могу реализовать мегаполисную поспешность довольно легко - вы просто каким-то образом выбираете отправные точки и «ходите по пространству параметров» случайным образом, руководствуясь апостериорной плотностью и плотностью предложений. Выборка Гиббса кажется …
15 bayesian  mcmc  gibbs 

1
Предельная вероятность из вывода Гиббса
Я воспроизводлю результаты с нуля в разделе 4.2.1 Предельная вероятность из вывода Гиббса Сиддхартха Чиб Журнал Американской Статистической Ассоциации, Vol. 90, No. 432. (Dec., 1995), pp. 1313-1321. Это смесь модели нормалей с известным числом компонентов. f ( x ∣ w , μ , σ 2 ) = n ∏ i …

1
Почему избыточное среднее значение параметризации ускоряет Гиббс MCMC?
В книге Gelman & Hill (2007) (Анализ данных с использованием регрессионных и многоуровневых / иерархических моделей) авторы утверждают, что включение избыточных средних параметров может помочь ускорить MCMC. Данный пример - это не вложенная модель "симулятора полета" (уравнение 13.9): YяγJδК∼ N( μ + γj [ i ]+ δк [ я ], …

2
Является ли выборка Гиббса методом MCMC?
Насколько я понимаю, это так (по крайней мере, так определяет это Википедия ). Но я нашел это утверждение Эфрона * (выделение добавлено): Марковская цепь Монте-Карло (MCMC) - это большая история успеха современной байесовской статистики. MCMC и его родственный метод «выборка Гиббса» позволяют проводить численный расчет апостериорных распределений в ситуациях, слишком …
11 mcmc  gibbs 

1
Как проверить, не является ли кросс-ковариационная матрица ненулевой?
Предпосылки моего исследования : В выборках Гиббса , где мы образец (переменные интересы) и из и соответственно, где и являются - мерными случайными векторами. Мы знаем, что процесс обычно делится на два этапа:XXXYYYP(X|Y)P(X|Y)P(X|Y)P(Y|X)P(Y|X)P(Y|X)XXXYYYkkk Период выгорания, где мы отбрасываем все образцы. Обозначим образцы как и .X1∼XtX1∼XtX_1\sim X_tY1∼YtY1∼YtY_1\sim Y_t Период после прожигания, …

1
Как получить выборку Гиббса?
Я на самом деле стесняюсь спросить об этом, потому что боюсь, что меня будут перенаправлять на другие вопросы или на Википедию о выборке Гиббса, но у меня нет ощущения, что они описывают то, что под рукой. При заданной условной вероятности : p(x|y)p(x|y)p(x|y)p(x|y)x=x0x=x1y=y01434y=y12646p(x|y)y=y0y=y1x=x01426x=x13446 \begin{array}{c|c|c} p(x|y) & y = y_0 & y …
11 sampling  mcmc  gibbs 

1
Байесовское моделирование с использованием многомерного нормального с ковариатным
Предположим, у вас есть объясняющая переменная Х =(Х( с1) , … , X( сN) )Иксзнак равно(Икс(s1),...,Икс(sN)){\bf{X}} = \left(X(s_{1}),\ldots,X(s_{n})\right) где sss представляет данную координату. У вас также есть переменная ответа Y =(Y( с1) , … , Y( сN) )Yзнак равно(Y(s1),...,Y(sN)){\bf{Y}} = \left(Y(s_{1}),\ldots,Y(s_{n})\right) . Теперь мы можем объединить обе переменные как: W …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.