Да. В отличие от того, что говорится в других ответах, «типичные» методы машинного обучения, такие как непараметрические и (глубокие) нейронные сети, могут помочь в создании лучших сэмплеров MCMC.
Целью MCMC является отбор образцов из (ненормализованного) целевого распределения . Полученные выборки используются для аппроксимации f и в основном позволяют вычислять ожидания функций при f (т. Е. Многомерных интегралов) и, в частности, свойств f (например, моментов).е( х )еее
Выборка обычно требует большого количества оценок и, возможно, его градиента, для таких методов, как гамильтонов Монте-Карло (HMC). Если оценка f является дорогостоящей или градиент недоступен, иногда можно создать менее дорогую суррогатную функцию, которая может помочь в проведении выборки и оценивается вместо f (таким образом, что все еще сохраняется свойства MCMC).еее
Например, в основной статье ( Rasmussen 2003 ) предлагается использовать гауссовские процессы (аппроксимация непараметрической функции) для построения аппроксимации для и выполнения HMC для суррогатной функции только с шагом принятия / отклонения HMC на основе f . Это уменьшает количество оценок исходного f и позволяет выполнять MCMC для PDF-файлов, которые в противном случае были бы слишком дорогими для оценки.журналеее
Идея использования суррогатов для ускорения MCMC много раз исследовалась в последние несколько лет, в основном путем попытки разных способов создать суррогатную функцию и эффективно / адаптивно комбинировать ее с различными методами MCMC (и таким образом, чтобы сохранить «правильность». 'отбора проб MCMC). Что касается вашего вопроса, то в этих двух совсем недавних статьях для построения суррогатной функции используются передовые методы машинного обучения - случайные сети ( Zhang et al. 2015 ) или адаптивно изученные экспоненциальные функции ядра ( Strathmann et al. 2015 ).
HMC не единственная форма MCMC, которая может извлечь выгоду из суррогатов. Например, Nishiara et al. (2014) построение аппроксимации целевой плотности путем подгонки многомерного распределения Стьюдента к многоцепочечному состоянию ансамблевого сэмплера и использования его для выполнения обобщенной формы выборки эллиптических срезов .T
Это только примеры. В целом, ряд различных методов ML (главным образом в области аппроксимации функций и оценки плотности) может использоваться для извлечения информации, которая может повысить эффективность пробоотборников MCMC. Их фактическая полезность - например, измеряемая количеством «эффективных независимых выборок в секунду» - зависит от того, является ли дорогостоящим или несколько сложным для вычисления; Кроме того, многие из этих методов могут потребовать настройки собственных или дополнительных знаний, что ограничивает их применимость.е
Ссылки:
Расмуссен, Карл Эдвард. «Гауссовские процессы для ускорения гибридной Монте-Карло для дорогих байесовских интегралов». Байесовская статистика 7. 2003.
Чжан, Чэн, Бабак Шахбаба и Хункай Чжао. «Гамильтоново ускорение Монте-Карло с использованием суррогатных функций со случайными основаниями». Препринт arXiv arXiv: 1506.05555 (2015).
Стратманн, Хейко и др. «Безградиентный гамильтониан Монте-Карло с эффективными семействами экспоненциальных ядер». Достижения в нейронных системах обработки информации. 2015.
Нишихара, Роберт, Иэн Мюррей и Райан П. Адамс. «Параллельный MCMC с обобщенной выборкой эллиптических срезов». Журнал исследований машинного обучения 15.1 (2014): 2087-2112.