Вопросы с тегом «bayesian»

Байесовский вывод - это метод статистического вывода, основанный на обработке параметров модели как случайных величин и применении теоремы Байеса для вывода субъективных вероятностных утверждений о параметрах или гипотезах, обусловленных наблюдаемым набором данных.

3
Понимание теории d-разделения в причинных байесовских сетях
Я пытаюсь понять логику d-разделения в каузальных байесовских сетях. Я знаю, как работает алгоритм, но я не совсем понимаю, почему «поток информации» работает так, как указано в алгоритме. Например, на графике выше, давайте подумаем, что нам дан только X, и никакой другой переменной не наблюдалось. Затем по правилам d-разделения поток …

2
Плоские, сопряженные и гиперприоры. Кто они такие?
В настоящее время я читаю о байесовских методах в вычислительной молекулярной эволюции Янга. В разделе 5.2 говорится о приорах, в частности неинформативных / плоских / расплывчатых / диффузных, сопряженных и гиперприорных. Возможно, это требует чрезмерного упрощения, но может ли кто-нибудь объяснить просто разницу между этими типами приоров и как это …
15 bayesian  prior 

2
Оценка ковариационного апостериорного распределения многомерного гауссова
Мне нужно «изучить» распределение двумерного гауссиана с несколькими выборками, но хорошая гипотеза о предыдущем распределении, поэтому я хотел бы использовать байесовский подход. Я определил свой предыдущий: P(μ)∼N(μ0,Σ0)P(μ)∼N(μ0,Σ0) \mathbf{P}(\mathbf{\mu}) \sim \mathcal{N}(\mathbf{\mu_0},\mathbf{\Sigma_0}) μ0=[00] Σ0=[160027]μ0=[00] Σ0=[160027] \mathbf{\mu_0} = \begin{bmatrix} 0 \\ 0 \end{bmatrix} \ \ \ \mathbf{\Sigma_0} = \begin{bmatrix} 16 & 0 \\ …

2
Что такое «метод передачи сообщений»?
У меня есть смутное представление о том, что такое метод передачи сообщений: алгоритм, который строит аппроксимацию к распределению путем итеративного построения аппроксимаций каждого из факторов распределения, условных для всех аппроксимаций всех других факторов. Я полагаю, что оба являются примерами вариационной передачи сообщений и распространения ожиданий . Что алгоритм передачи сообщений …

2
Связь между байесовской статистикой и генеративным моделированием
Может ли кто-нибудь отослать меня к хорошей справке, которая объясняет связь между байесовской статистикой и методами генеративного моделирования? Почему мы обычно используем генеративные модели с байесовскими методами? Почему особенно привлекательно использовать байесовскую статистику в случае отсутствия полных данных, если вообще? Обратите внимание, что я пришел из более ориентированного на машинное …

4
Доверительные интервалы для параметров регрессии: байесовский или классический
Учитывая два массива x и y длиной n, я подгоняю модель y = a + b * x и хочу рассчитать 95% доверительный интервал для наклона. Это (b - дельта, b + дельта), где b находится обычным образом и delta = qt(0.975,df=n-2)*se.slope и se.slope - стандартная ошибка на склоне. Один …

2
Откуда берутся полные условия в выборке Гиббса?
Алгоритмы MCMC, такие как выборка Метрополиса-Гастингса и Гиббса, являются способами отбора из совместных задних распределений. Я думаю, что понимаю и могу реализовать мегаполисную поспешность довольно легко - вы просто каким-то образом выбираете отправные точки и «ходите по пространству параметров» случайным образом, руководствуясь апостериорной плотностью и плотностью предложений. Выборка Гиббса кажется …
15 bayesian  mcmc  gibbs 

2
Существует ли стандартный метод для решения проблемы переключения меток при оценке MCMC моделей смесей?
Переключение меток (т. Е. Апостериорное распределение инвариантно к переключению меток компонентов) является проблемной проблемой при использовании MCMC для оценки моделей смесей. Существует ли стандартная (как в общепринятой) методология для решения этой проблемы? Если стандартного подхода не существует, каковы плюсы и минусы ведущих подходов к решению проблемы переключения меток?
15 bayesian  mcmc  mixture 

2
Нормализующая константа в теореме Байеса
Я читал , что в правиле Байеса, знаменатель изPr(data)Pr(data)\Pr(\textrm{data}) Pr(parameters∣data)=Pr(data∣parameters)Pr(parameters)Pr(data)Pr(parameters∣data)=Pr(data∣parameters)Pr(parameters)Pr(data)\Pr(\text{parameters} \mid \text{data}) = \frac{\Pr(\textrm{data} \mid \textrm{parameters}) \Pr(\text{parameters})}{\Pr(\text{data})} называется нормализующей константой . Что именно это? Какова его цель? Почему это выглядит как Pr(data)Pr(data)\Pr(data) ? Почему это не зависит от параметров?

5
Есть ли вероятность больше, чем байесовский?
Будучи студентом-физиком, я читал лекцию «Почему я байесовский», наверное, полдюжины раз. Это всегда одно и то же - ведущий самодовольно объясняет, как байесовская интерпретация превосходит частую интерпретацию, предположительно используемую массами. Они упоминают правило Байеса, маргинализацию, приоры и постеры. Какая настоящая история? Существует ли законная область применимости для статистики частых пользователей? …

1
Какой метод множественного сравнения использовать для модели lmer: lsmeans или glht?
Я анализирую набор данных, используя модель смешанных эффектов с одним фиксированным эффектом (условием) и двумя случайными эффектами (участник из-за дизайна объекта и пары). Модель была сгенерирована с lme4пакетом: exp.model<-lmer(outcome~condition+(1|participant)+(1|pair),data=exp). Затем я выполнил тест отношения правдоподобия этой модели по сравнению с моделью без фиксированного эффекта (условия) и получил значительную разницу. В …

2
Что хорошего хорошего распределения степеней свободы в распределении?
Я хочу использовать при распределении для моделирования доходности активов с коротким интервалом в байесовской модели. Я хотел бы оценить обе степени свободы (наряду с другими параметрами в моей модели) для распределения. Я знаю, что доходность активов совершенно ненормальная, но я не знаю слишком много за этим. Что является подходящим, слегка …

3
Когда доверительный интервал «имеет смысл», а соответствующий достоверный интервал - нет?
Часто бывает так, что доверительный интервал с охватом 95% очень похож на вероятный интервал, который содержит 95% апостериорной плотности. Это происходит, когда предшествующий является однородным или почти однородным в последнем случае. Таким образом, доверительный интервал часто можно использовать для аппроксимации вероятного интервала и наоборот. Важно отметить, что из этого можно …

1
Гамильтониан Монте-Карло для чайников
Не могли бы вы дать пошаговое объяснение манекенам, как работает гамильтониан Монте-Карло? PS: я уже читал ответы здесь, гамильтониан Монте-Карло , и здесь, гамильтониан Монте-Карло против последовательного Монте-Карло , и здесь, гамильтониан Монте-Карло: как понять предложение Метрополиса-Гастинга? и они не обращаются к этому поэтапно.
14 bayesian  hmc 

4
Вероятность того, что нулевая гипотеза верна
Таким образом, это может быть общий вопрос, но я никогда не нашел удовлетворительного ответа. Как вы определяете вероятность того, что нулевая гипотеза верна (или ложна)? Допустим, вы даете студентам две разные версии теста и хотите узнать, были ли версии эквивалентны. Вы выполняете t-тест, и он дает значение р .02. Какая …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.