Вопросы с тегом «metropolis-hastings»

Особый тип алгоритма Монте-Карло цепи Маркова (MCMC), используемый для моделирования сложных распределений вероятностей. Он подтвержден теорией цепей Маркова и предлагает широкий спектр возможных реализаций.

1
В чем разница между метрополисом Гастингсом, Гиббсом, Важностью и Отбором?
Я пытался изучить методы MCMC и наткнулся на выборку Metropolis Hastings, Gibbs, Важность и Отклонение. Хотя некоторые из этих различий очевидны, т. Е. То, как Гиббс является особым случаем Метрополиса Гастингса, когда у нас есть полные условия, другие менее очевидны, например, когда мы хотим использовать MH в семплере Гиббса и …

1
Каковы некоторые известные улучшения по сравнению с алгоритмами MCMC из учебников, которые люди используют для байесовского вывода?
Когда я кодирую симуляцию Монте-Карло для какой-то проблемы, и модель достаточно проста, я использую очень простую выборку из учебника Гиббса. Когда невозможно использовать выборку Гиббса, я пишу учебник «Метрополис-Гастингс», который я выучил много лет назад. Единственная мысль, которую я ему даю, - это выбор прыгающего распределения или его параметров. Я …

1
Можно ли доверять адаптивному MCMC?
Я читаю об адаптивном MCMC (см., Например, главу 4 « Справочника цепи Маркова Монте-Карло» , изд. Brooks et al., 2011; а также Andrieu & Thoms, 2008 ). Основной результат Roberts and Rosenthal (2007) состоит в том, что если схема адаптации удовлетворяет исчезающему условию адаптации (плюс некоторая другая техническая специфика), адаптивный …

2
Выборка Гиббса по сравнению с общим MH-MCMC
Я только что прочитал о выборке Гиббса и алгоритме Метрополиса Гастингса и у меня есть пара вопросов. Насколько я понимаю, в случае выборки Гиббса, если у нас большая многомерная задача, мы выбираем из условного распределения, то есть выбираем одну переменную, сохраняя все остальные фиксированными, тогда как в MH мы выбираем …

4
Алгоритмы Метрополис-Гастингс, используемые на практике
Сегодня я читал блог Кристиана Роберта, и мне очень понравился новый алгоритм Метрополиса-Гастингса, который он обсуждал. Это казалось простым и легким в реализации. Всякий раз, когда я кодирую MCMC, я склонен придерживаться очень простых алгоритмов MH, таких как независимые движения или случайные обходы в логарифмическом масштабе. Какие алгоритмы MH люди …

1
Когда можно использовать выборку Гиббса вместо Метрополис-Гастингс?
Существуют различные виды алгоритмов MCMC: Метрополис-Гастингс Gibbs Важность / отклонение выборки (связано). Зачем использовать выборку Гиббса вместо Метрополис-Гастингс? Я подозреваю, что бывают случаи, когда при выборке Гиббса можно сделать вывод лучше, чем при работе с Метрополис-Гастингс, но я не совсем уверен в деталях.

1
Интеграция Метрополис-Гастингс - почему не работает моя стратегия?
Предположим, у меня есть функция которую я хочу интегрировать Конечно, предполагая, что стремится к нулю в конечных точках, нет сбоев, хорошая функция. Один из способов , который я теребил является использование алгоритма Метрополиса-Гастингса , чтобы создать список образцов от распределения пропорционально к , который отсутствует константа нормировки который я назову …

1
Стан
Я просматривал документацию Стэна, которую можно скачать отсюда . Я был особенно заинтересован в их реализации диагностики Гельмана-Рубина. Оригинальная статья Gelman & Rubin (1992) определяет потенциальный коэффициент уменьшения масштаба (PSRF) следующим образом: Пусть быть я й пробы цепь Маркова, и пусть будет в целом M независимые цепи выборочные. Пусть ˉ …

2
Путать с вариациями MCMC Метрополис-Гастингс: Случайное прохождение, Неслучайное прохождение, Независимое, Метрополис
За последние несколько недель я пытался понять MCMC и алгоритм (ы) Метрополис-Гастингс. Каждый раз, когда я думаю, что понимаю это, я понимаю, что я неправ. Большинство примеров кода, которые я нахожу онлайн, реализуют то, что не согласуется с описанием. то есть: они говорят, что они реализуют Метрополис-Гастингс, но на самом …

4
Могу ли я изменить распределение предложений в MH MCMC с произвольным обходом, не затрагивая марковианство?
Случайная прогулка Метрополис-Хаситингс с симметричным предложением q(x|y)=g(|y−x|)q(x|y)=g(|y−x|)q(x|y)= g(|y-x|) обладает свойством вероятности принятия P(accept y)=min{1,f(y)/f(x)}P(accept y)=min{1,f(y)/f(x)}P(accept\ y) = \min\{1, f(y)/f(x)\} не зависит от предложения g(⋅)g(⋅)g(\cdot) . Означает ли это, что я могу изменить g(⋅)g(⋅)g(\cdot) как функцию предыдущей производительности цепочки, не влияя на марковитость цепочки? Особый интерес для меня представляет корректировка масштабирования …

1
Понимание Metropolis-Hastings с асимметричным распределением предложений
Я пытался понять алгоритм Метрополиса-Гастингса, чтобы написать код для оценки параметров модели (т.е. е( х ) = а * хе(Икс)знак равноa*Иксf(x)=a*x ). Согласно библиографии алгоритм Метрополиса-Гастингса имеет следующие этапы: Сгенерировать YT∼ д( у| ИксT)YT~Q(Y|ИксT)Y_t \sim q(y|x^t) Икст + 1= { YT,ИксT,с вероятностьюρ ( хT, YT) ,с вероятностью1 - ρ ( …

1
Понимание MCMC и алгоритма Метрополис-Гастингс
В последние несколько дней я пытался понять, как работает Марковская цепь Монте-Карло (MCMC). В частности, я пытался понять и реализовать алгоритм Метрополис-Гастингс. Пока я думаю, что у меня есть общее представление об алгоритме, но есть пара вещей, которые мне еще не ясны. Я хочу использовать MCMC для подгонки некоторых моделей …

1
MCMC с алгоритмом Метрополис-Гастингс: выбор предложения
Мне нужно сделать симуляцию, чтобы оценить интеграл от трехпараметрической функции, скажем, , которая имеет очень сложную формулу. Предлагается использовать метод MCMC для его вычисления и реализации алгоритма Метрополиса-Гастингса для генерации значений, распределенных как , и было предложено использовать 3-х переменную нормаль в качестве распределения предложения. Читая некоторые примеры об этом, …

1
R / mgcv: Почему тензорные продукты te () и ti () производят разные поверхности?
mgcvПакет Rимеет две функции для установки взаимодействия Тензор продукта: te()и ti(). Я понимаю основное разделение труда между ними (подгонка нелинейного взаимодействия против разложения этого взаимодействия на основные эффекты и взаимодействие). Чего я не понимаю, так это почему te(x1, x2)и ti(x1) + ti(x2) + ti(x1, x2)может дать (немного) разные результаты. MWE …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 


Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.