Вопросы с тегом «bayesian»

Байесовский вывод - это метод статистического вывода, основанный на обработке параметров модели как случайных величин и применении теоремы Байеса для вывода субъективных вероятностных утверждений о параметрах или гипотезах, обусловленных наблюдаемым набором данных.

3
Настройка гиперпараметров: случайный поиск и байесовская оптимизация
Итак, мы знаем, что случайный поиск работает лучше, чем поиск по сетке, но более поздним подходом является байесовская оптимизация (с использованием гауссовских процессов). Я посмотрел сравнение между ними и ничего не нашел. Я знаю, что в cs231n Стэнфорда они упоминают только случайный поиск, но, возможно, они хотели, чтобы все было …

5
Учебник по байесовской эконометрике
Я ищу теоретически строгий учебник по байесовской эконометрике, предполагающий глубокое понимание экономистической эконометрики. Я хотел бы предложить одну работу за ответ, чтобы рекомендации могли быть оценены по отдельности.

2
Чеканка монет, процессы принятия решений и ценность информации
Представьте себе следующую схему: у вас есть 2 монеты, монета A, которая гарантированно будет честной, и монета B, которая может быть или не быть честной. Вас просят сделать 100 монетных бросков, и ваша цель - максимизировать количество голов . Ваша предварительная информация о монете B состоит в том, что она …

1
Существует ли байесовская интерпретация для REML?
Доступна ли байесовская интерпретация REML? На мой взгляд, REML имеет сильное сходство с так называемыми эмпирическими процедурами байесовской оценки, и мне интересно, была ли продемонстрирована какая-то асимптотическая эквивалентность (скажем, при некотором подходящем классе приоров). Как эмпирические байесовские, так и REML выглядят как «скомпрометированные» подходы к оценке, предпринятые, например, с учетом …

1
Байесовское лассо против шипа и плиты
Вопрос: Каковы преимущества / недостатки использования одного перед другим для выбора переменных? Предположим , у меня есть вероятность: , где можно поместить либо один из настоятелей: ш я ~ л & delta ; 0 + ( 1 - л ) N ( 0 , 100 )y∼N(Xw,σ2I)y∼N(Xw,σ2I)y\sim\mathcal{N}(Xw,\sigma^2I) Или: ш я ~ …

2
Как Наивный Байес работает с непрерывными переменными?
Насколько я понимаю (очень базовое), Наивный Байес оценивает вероятности, основываясь на частотах классов каждой функции в обучающих данных. Но как рассчитать частоту непрерывных переменных? И когда вы делаете прогноз, как он классифицирует новое наблюдение, которое может не иметь одинаковых значений любого наблюдения в обучающем наборе? Использует ли он какую-то меру …

6
MLE против MAP оценки, когда использовать какой?
MLE = оценка максимального правдоподобия MAP = максимум апостериорный MLE интуитивно понятен / наивен в том смысле, что он начинается только с вероятности наблюдения с учетом параметра (то есть функции правдоподобия) и пытается найти параметр, наилучшим образом соответствующий наблюдению . Но это не принимать во внимание предшествующее знание. MAP кажется …

4
Подходят ли методы, основанные на MCMC, когда доступна максимальная апостериорная оценка?
Я заметил, что во многих практических применениях методы, основанные на MCMC, используются для оценки параметра, даже если апостериорный является аналитическим (например, потому что приоры были сопряженными). Для меня имеет смысл использовать MAP-оценки, а не MCMC-оценки. Может ли кто-нибудь указать, почему MCMC все еще является подходящим методом при наличии аналитического апостериора?

2
Что такое байесовское глубокое обучение?
Что такое байесовское глубокое обучение и как оно относится к традиционной байесовской статистике и традиционному глубокому обучению? Каковы основные понятия и математика? Могу ли я сказать, что это просто непараметрическая байесовская статистика? Каковы его основные работы, а также его текущие основные разработки и приложения? PS: Bayesian Deep Learning привлекает большое …

3
Выполнение MCMC: используйте jags / stan или реализуйте это самостоятельно
Я новичок в исследованиях Байесовской статистики. Я слышал от исследователей, что байесовские исследователи лучше внедряют MCMC, а не используют такие инструменты, как JAGS / Stan. Могу ли я спросить, в чем состоит преимущество реализации алгоритма MCMC самостоятельно (на «не совсем быстрых» языках, таких как R), кроме как для целей обучения?
13 bayesian  mcmc 

2
Создание байесовского априора по частому результату
Как можно превратить частый результат в байесовский априор? Рассмотрим следующий довольно общий сценарий: в прошлом проводился эксперимент и измерялся результат по некоторому параметру . Анализ был сделан с использованием методологии частых исследований. В результатах указан доверительный интервал для ϕ .ϕϕ\phiϕϕ\phi Сейчас я провожу новый эксперимент, в котором я хочу измерить …

1
Указание априора для размера эффекта в мета-анализе
Мой вопрос касается настоятели о размерах эффекта, в моем проекте мера Коэна . При чтении литературы кажется, что часто используются расплывчатые приоры, как, например, в хорошо известном примере иерархического байесовского мета-анализа в восьми школах. В примере с восемью школами я видел неопределенный априор, использованный для оценки mu, такой как μ …

1
Теорема Байеса с кратными условиями
Я не понимаю, как это уравнение было получено. P(I|M1∩M2)≤P(I)P(I′)⋅P(M1|I)P(M2|I)P(M1|I′)P(M2|I′)P(I|M1∩M2)≤P(I)P(I′)⋅P(M1|I)P(M2|I)P(M1|I′)P(M2|I′)P(I|M_{1}\cap M_{2}) \leq \frac{P(I)}{P(I')}\cdot \frac{P(M_{1}|I)P(M_{2}|I)}{P(M_{1}|I')P(M_{2}|I')} Это уравнение было взято из статьи «Испытание по вероятности», где случай О.Дж. Симпсона был приведен в качестве примера задачи. Обвиняемый находится под следствием за двойное убийство, и против него представлены два доказательства. M1M1M_{1} - это случай, когда …

1
Параметры против скрытых переменных
Я спрашивал об этом раньше и действительно пытался определить, что делает параметр модели, а что скрытой переменной. Итак, глядя на различные темы по этой теме на этом сайте, основное различие выглядит следующим образом: Скрытые переменные не наблюдаются, но имеют связанное с ними распределение вероятностей, так как они являются переменными, а …

1
Существует ли сопряженный априор для распределения Лапласа?
Существует ли сопряженный априор для распределения Лапласа ? Если нет, то есть ли известное выражение в замкнутой форме, аппроксимирующее апостериорный для параметров распределения Лапласа? Я довольно много гуглил, но безуспешно, поэтому мое текущее предположение - «нет» в ответах на вопросы выше ...

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.