Вопросы с тегом «variational-bayes»

Вариационные байесовские методы аппроксимируют неразрешимые интегралы, найденные в байесовском выводе и машинном обучении. В первую очередь, эти методы служат одной из двух целей: аппроксимация апостериорного распределения или ограничение предельной вероятности наблюдаемых данных.


1
Вариационный вывод по сравнению с MCMC: когда выбрать один из других?
Я думаю, что я получил общее представление о VI и MCMC, включая различные разновидности MCMC, такие как выборка Гиббса, Metropolis Hastings и т. Д. Эта статья представляет собой прекрасное изложение обоих методов. У меня есть следующие вопросы: Если я хочу сделать байесовский вывод, почему я выбрал бы один метод вместо …

1
Связь между вариационным байесовским и ЭМ
Я где-то читал, что вариационный метод Байеса является обобщением алгоритма EM. Действительно, итерационные части алгоритмов очень похожи. Чтобы проверить, является ли алгоритм EM специальной версией Вариационного Байеса, я попробовал следующее: YYY - данные, - коллекция скрытых переменных, а - параметры. В вариационном байесовском преобразовании мы можем сделать такое приближение, что …

2
Как оценить потери KLD и потери реконструкции в вариационном авто-кодировщике
почти во всех примерах кода, которые я видел в VAE, функции потерь определяются следующим образом (это код с тензорным потоком, но я видел похожее для theano, torch и т. д. Это также для коннета, но это также не слишком актуально) , только влияет на оси, суммы принимаются): # latent space …

1
Что такое вариационные автоэнкодеры и для каких задач обучения они используются?
Согласно этому и этому ответу, автоэнкодеры кажутся техникой, которая использует нейронные сети для уменьшения размеров. Я хотел бы дополнительно знать, что такое вариационный автоэнкодер (его основные отличия / преимущества по сравнению с «традиционными» автоэнкодерами), а также каковы основные задачи обучения, для которых используются эти алгоритмы.

4
Когда я должен использовать вариационный авто-кодер, а не авто-кодер?
Я понимаю основную структуру вариационного автоэнкодера и нормального (детерминированного) автоэнкодера и математическую схему, стоящую за ними, но когда и почему я предпочел бы один тип автоэнкодера другому? Все, о чем я могу думать, - это предварительное распределение скрытых переменных вариационного автоэнкодера, которое позволяет нам выбирать скрытые переменные и затем создавать …

1
Какова «мощность» модели машинного обучения?
Я изучаю этот урок по вариационным автоэнкодерам Карла Доерша . На второй странице говорится: Одним из наиболее популярных таких фреймворков является Variational Autoencoder [1, 3], предмет данного руководства. Предположения этой модели являются слабыми, и обучение происходит быстро с помощью обратного распространения. VAE действительно делают приближение, но ошибка, вносимая этим приближением, …

3
Что значит численное интегрирование слишком дорого?
Я читаю о байесовском умозаключении и натолкнулся на фразу «численная интеграция предельной вероятности слишком дорога» У меня нет опыта в математике, и мне было интересно, что именно здесь означает дорогой ? Это просто с точки зрения вычислительной мощности или есть что-то большее.

1
Вариационный вывод, дивергенция KL требует истинного
По моему (очень скромному) пониманию вариационного вывода, каждый пытается приблизить неизвестное распределение , найдя распределение q, которое оптимизирует следующее:pppqqq KL(p||q)=∑xp(x)logp(x)q(x)KL(p||q)=∑xp(x)logp(x)q(x)KL (p||q) = \sum\limits_{x} p(x)log \frac {p(x)}{q(x)} Всякий раз, когда я вкладываю время в понимание вариационного вывода, я продолжаю придерживаться этой формулы и не могу не чувствовать, что упускаю суть. Кажется, …

1
В чем разница между VAE и стохастическим обратным распространением для моделей с глубокой генерацией?
В чем разница между авто-кодированием вариационного байесовского алгоритма и стохастическим обратным распространением для моделей с глубокой генерацией ? Приводит ли вывод в обоих методах к тем же результатам? Я не знаю каких-либо явных сравнений между этими двумя методами, несмотря на то, что обе группы авторов цитируют друг друга.

2
К.Л. Потеря с единицей Гаусса
Я внедрял VAE и заметил в Интернете две разные реализации упрощенной однофакторной гауссовой дивергенции KL. Исходная дивергенция, здесь, выглядит следующим образом: Если мы предположим, что наша единица является т.е. и \ sigma_2 = 1 , это упрощается до KL_ {loss} = - \ log (\ sigma_1) + \ frac {\ …

1
Вариационный Байес в сочетании с Монте-Карло
Я читаю вариационный байесовский алгоритм, и, насколько я понимаю, все сводится к мысли, что вы приближаете (где z - скрытые переменные вашей модели и x наблюдаемые данные) с функцией q ( z ) , делая предположение, что q факторизуется как q i ( z i ), где z i является …

2
Оценка неопределенности в задачах многомерного вывода без выборки?
Я работаю над проблемой многомерного вывода (около 2000 параметров модели), для которой мы можем надежно выполнить оценку MAP, найдя глобальный максимум логарифмического аппроксимации, используя комбинацию градиентной оптимизации и генетического алгоритма. Я очень хотел бы иметь возможность сделать некоторую оценку неопределенности параметров модели в дополнение к нахождению оценки MAP. Мы можем …

2
Применение стохастического вариационного вывода к байесовской смеси Гаусса
Я пытаюсь реализовать модель гауссовой смеси со стохастическим вариационным выводом, следуя этой статье . Это программа гауссовой смеси. Согласно статье, полный алгоритм стохастического вариационного вывода: И я все еще очень запутался в методе масштабирования до GMM. Во-первых, я думал, что локальный вариационный параметр - это просто а все остальные - …
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.