Вопросы с тегом «bayesian»

Байесовский вывод - это метод статистического вывода, основанный на обработке параметров модели как случайных величин и применении теоремы Байеса для вывода субъективных вероятностных утверждений о параметрах или гипотезах, обусловленных наблюдаемым набором данных.

1
Соотношение вероятностей и соотношение PDF-файлов
Я использую Байес для решения проблемы кластеризации. После выполнения некоторых вычислений у меня возникает необходимость получить соотношение двух вероятностей: п( А ) / П( Б )P(A)/P(B)P(A)/P(B) чтобы иметь возможность получить . Эти вероятности получены путем интегрирования двух разных 2D многомерных KDE, как объяснено в этом ответе :п( H| Г)P(H|D)P(H|D) P …

1
Пример строгого неравенства фон Неймана
Пусть обозначает байесовский риск оценки относительно априора , пусть обозначает множество всех априоров в пространстве параметров , а обозначает множество все (возможно, рандомизированные) правила принятия решений.δ π Π Θ Δr(π,δ)r(π,δ)r(\pi, \delta)δδ\deltaππ\piΠΠ\PiΘΘ\ThetaΔΔ\Delta Статистическая интерпретация минимаксного неравенства Джона фон Неймана гласит, что supπ∈Πinfδ∈Δr(π,δ)≤infδ∈Δsupπ∈Πr(π,δ),supπ∈Πinfδ∈Δr(π,δ)≤infδ∈Δsupπ∈Πr(π,δ), \sup_{\pi\in\Pi} \inf_{\delta\in\Delta} r(\pi, \delta) \leq \inf_{\delta\in\Delta}\sup_{\pi\in\Pi} r(\pi, \delta), со …

1
Критерии выбора «лучшей» модели в скрытой марковской модели
У меня есть набор данных временного ряда, к которому я пытаюсь подогнать скрытую марковскую модель (HMM), чтобы оценить количество скрытых состояний в данных. Мой псевдокод для этого следующий: for( i in 2 : max_number_of_states ){ ... calculate HMM with i states ... optimal_number_of_states = "model with smallest BIC" ... } …

1
Вывод байесовской сети с использованием pymc (путаница для начинающих)
В настоящее время я прохожу курс PGM Дафни Коллер на Coursera. При этом мы обычно моделируем байесовскую сеть как причинно-следственный ориентированный график переменных, которые являются частью наблюдаемых данных. Но в учебниках и примерах PyMC я обычно вижу, что он не совсем смоделирован так же, как PGM, или, по крайней мере, …

1
иерархические байесовские модели против эмпирических байесовских
Считаете ли вы, что HBM против EB - это две альтернативы, в которых гиперпараметры «в игре» отбираются / оцениваются / и т.д.? Существует очевидная связь между этими двумя. Считаете ли вы HBM более "полностью байесовским", чем EB? Есть ли место, где я могу увидеть разницу между тем, чтобы быть «полностью …

5
Байесовцы когда-либо утверждают, что есть случаи, в которых их подход обобщает / совпадает с подходом, основанным на частоте?
Неужели байесовцы когда-либо утверждают, что их подход обобщает подход, основанный на частоте, потому что можно использовать неинформативные априорные значения и, следовательно, можно восстановить типичную структуру модели частых лиц? Кто-нибудь может направить меня туда, где я могу прочитать об этом аргументе, если он действительно используется? РЕДАКТИРОВАТЬ: Этот вопрос, возможно, сформулирован не …

6
Если вы используете точечную оценку, которая максимизирует
Если кто-то сказал «Этот метод использует MLE точечную оценку для параметра, который максимизирует , поэтому он частый; и, кроме того, он не байесовский».P ( x | θ )P(x|θ)\mathrm{P}(x|\theta) Вы бы согласились? Обновление на фоне : я недавно прочитал газету, которая утверждает, что часто. Я не согласен с их утверждением, в …

1
Есть ли связь между эмпирическим байесовским эффектом и случайными эффектами?
Недавно мне довелось прочитать об эмпирическом байесовском опыте (Casella, 1985, Введение в эмпирический анализ байесовских данных), и это выглядело как модель случайных эффектов; в том, что оба имеют оценки, уменьшенные до глобального среднего. Но я не прочитал это полностью ... Есть ли у кого-нибудь понимание сходства и различий между ними?

1
Какой смысл в неинформативных априорах?
Почему даже есть неинформативные приоры? Они не предоставляют информацию о . Так зачем их использовать? Почему бы не использовать только информационные приоры? Например, предположим, что θ ∈ [ 0 , 1 ] . Тогда является ли θ ∼ U ( 0 , 1 ) неинформативным априорным для θ ?θθ\thetaθ∈[0,1]θ∈[0,1] \theta …

2
Когда использовать бутстрап против байесовской техники?
У меня довольно сложная проблема анализа решений, связанная с проверкой надежности, и логический подход (для меня), похоже, предполагает использование MCMC для поддержки байесовского анализа. Тем не менее, было высказано предположение, что было бы более целесообразно использовать подход начальной загрузки. Может ли кто-нибудь предложить ссылку (или три), которые могут поддержать использование …

2
Иерархическая байесовская модель (?)
Приносим свои извинения за убийство статистического языка :). Я нашел здесь пару вопросов, связанных с рекламой и рейтингом кликов. Но никто из них не очень помог мне с моим пониманием моей иерархической ситуации. Есть связанный вопрос Являются ли эти эквивалентные представления одной и той же иерархической байесовской модели? , но …

1
Шаги, чтобы выяснить апостериорное распределение, когда может быть достаточно просто иметь аналитическую форму?
Это также спросили в вычислительной науке. Я пытаюсь вычислить байесовскую оценку некоторых коэффициентов для авторегрессии с 11 выборками данных: Yi=μ+α⋅Yi−1+ϵiYi=μ+α⋅Yi−1+ϵi Y_{i} = \mu + \alpha\cdot{}Y_{i-1} + \epsilon_{i} гдеϵiϵi\epsilon_{i} является гауссовым со средним 0 и дисперсиейσ2eσe2\sigma_{e}^{2} априорное распределение на векторе(μ,α)t(μ,α)t(\mu, \alpha)^{t} является гауссовым со средним(0,0)(0,0)(0,0) и диагональной ковариационной матрицы с диагональными …

2
Что я должен знать о разработке хорошего гибридного / гамильтонова алгоритма Монте-Карло?
Я разрабатываю алгоритм выборки Гибридного Монте-Карло для PyMC , и я стараюсь сделать его максимально беспроблемным и общим, поэтому я ищу хороший совет по разработке алгоритма HMC. Я прочитал главу обзора Рэдфорда и Beskos et. В недавней статье al. об оптимальной (размер шага) настройке HMC я собрал следующие советы: Переменные …

2
Как параметризовать отношение двух нормально распределенных переменных или обратное к одной?
Проблема: я параметризирую распределения для использования в качестве априоров и данных в байесовском метаанализе. Данные представлены в литературе как сводная статистика, почти исключительно предполагаемая нормально распределенной (хотя ни одна из переменных не может быть <0, некоторые являются отношениями, некоторые являются массовыми и т. Д.). Я столкнулся с двумя случаями, для …

2
В байесовском умозаключении почему некоторые термины исключены из апостериорного предиктивного?
В сопряженном байесовском анализе гауссовского распределения Кевина Мерфи он пишет, что апостериорное предиктивное распределение p(x∣D)=∫p(x∣θ)p(θ∣D)dθp(x∣D)=∫p(x∣θ)p(θ∣D)dθ p(x \mid D) = \int p(x \mid \theta) p(\theta \mid D) d \theta где DDD - данные, к которым подходит модель, а xxx - невидимые данные. Я не понимаю, почему зависимость от DDD исчезает в …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.