Вопросы с тегом «bayesian»

Байесовский вывод - это метод статистического вывода, основанный на обработке параметров модели как случайных величин и применении теоремы Байеса для вывода субъективных вероятностных утверждений о параметрах или гипотезах, обусловленных наблюдаемым набором данных.

1
Гамильтониан Монте-Карло и пространства с дискретными параметрами
Я только начал строить модели в Стэн ; Чтобы познакомиться с этим инструментом, я прорабатываю некоторые из упражнений в Байесовском анализе данных (2-е изд.). В Waterbuck упражнение предполагает , что данные , с ( N , & thetas ; ) неизвестной. Поскольку гамильтониан Монте-Карло не допускает дискретных параметров, я объявил …

2
Эффективный размер выборки для последующего вывода из выборки MCMC
При получении образцов MCMC для определения конкретного параметра, каковы хорошие ориентиры для минимального количества эффективных образцов, к которым следует стремиться? И меняется ли этот совет по мере того, как модель становится более или менее сложной?

1
Помогите мне понять в байесовском GLM
Я пытаюсь запустить байесовский логит на данных здесь . Я использую bayesglm()в armпакете в R. Кодирование достаточно просто: df = read.csv("http://dl.dropbox.com/u/1791181/bayesglm.csv", header=T) library(arm) model = bayesglm(PASS ~ SEX + HIGH, family=binomial(link="logit"), data=df) summary(model) дает следующий вывод: Coefficients: Estimate Std. Error z value Pr(>|z|) (Intercept) 0.10381 0.10240 1.014 0.311 SEXMale 0.02408 …
13 r  bayesian  p-value 

2
Почему проблема беспорядка неразрешима для больших выборок?
Предположим, у нас есть множество точек y={y1,y2,…,yN}y={y1,y2,…,yN}\mathbf{y} = \{y_1, y_2, \ldots, y_N \} . Каждая точка yiyiy_i генерируется с использованием распределения p(yi|x)=12N(x,1)+12N(0,10).p(yi|x)=12N(x,1)+12N(0,10). p(y_i| x) = \frac12 \mathcal{N}(x, 1) + \frac12 \mathcal{N}(0, 10). Чтобы получить апостериор дляxxxмы пишем p(x|y)∝p(y|x)p(x)=p(x)∏i=1Np(yi|x).p(x|y)∝p(y|x)p(x)=p(x)∏i=1Np(yi|x). p(x| \mathbf{y}) \propto p(\mathbf{y}| x) p(x) = p(x) \prod_{i = 1}^N p(y_i …

1
Регуляризованная байесовская логистическая регрессия в JAGS
Есть несколько математических работ, описывающих байесовское лассо, но я хочу протестировать правильный код JAGS, который я могу использовать. Может ли кто-нибудь опубликовать пример кода BUGS / JAGS, который реализует регуляризованную логистическую регрессию? Любая схема (L1, L2, Elasticnet) была бы отличной, но Лассо предпочтительнее. Мне также интересно, есть ли интересные альтернативные …

4
Существуют ли учебные пособия по Байесовской теории вероятностей или графические модели на примере?
Я видел ссылки на изучение байесовской теории вероятностей в R, и мне было интересно, есть ли еще что-то подобное, возможно, конкретно в Python? Направлены на изучение байесовской теории вероятностей, умозаключений, оценки максимального правдоподобия, графических моделей и тому подобного?

5
R только альтернативы ошибок [закрыт]
Закрыто. Этот вопрос не по теме . В настоящее время он не принимает ответы. Хотите улучшить этот вопрос? Обновите вопрос, чтобы он соответствовал теме перекрестной проверки. Закрыто 12 месяцев назад . Я слежу за курсом по байесовской статистике с использованием BUGS и R. Теперь я уже знаю BUGS, это здорово, …
13 r  bayesian  bugs 

1
Предоставляют ли отношения правдоподобия и сравнения байесовской модели превосходные и достаточные альтернативы проверке нулевой гипотезы?
В ответ на растущее число статистиков и исследователей, которые критикуют полезность тестирования нулевых гипотез (NHT) для науки в качестве совокупного усилия, Целевая группа Американской психологической ассоциации по статистическому выводу избежала прямого запрета на NHT, но вместо этого предположила, что исследователи сообщить размеры эффекта в дополнение к значениям р, полученным из …

1
Могу ли я полуавтоматизировать диагностику сходимости MCMC для установки длины выгорания?
Я хотел бы автоматизировать выбор выгорания для цепочки MCMC, например, удалив первые n строк на основе диагностики сходимости. В какой степени этот шаг можно безопасно автоматизировать? Даже если я все еще дважды проверю автокорреляцию, трассировку mcmc и pdf, было бы неплохо автоматизировать выбор длины записи. Мой вопрос общий, но было …
13 r  bayesian  mcmc 

3
Понимание MCMC: какой будет альтернатива?
Изучение байесовской статистики в первый раз; как угол к пониманию MCMC я задавался вопросом: делает ли он что-то, что принципиально не может быть сделано по-другому, или это просто делает что-то гораздо более эффективное, чем альтернативы? В качестве иллюстрации предположим, что мы пытаемся вычислить вероятность наших параметров с учетом данных учетом …
13 bayesian  mcmc 

1
Почему наивный байесовский классификатор оптимален для проигрыша 0-1?
Наивный байесовский классификатор - это классификатор, который назначает элементы xxx классу CCC на основе максимизации апостериорного P(C|x)P(C|x)P(C|x) для членства в классе и предполагает, что характеристики элементов независимы. Потеря 0-1 - это потеря, которая присваивает любой ошибочной классификации потерю «1», а потерю «0» - любой правильной классификации. Я часто читаю (1), …

1
Как найти 95% вероятный интервал?
Я пытаюсь вычислить 95% вероятный интервал следующего апостериорного распределения. Я не смог найти функцию в R для нее, но правильный ли подход ниже? x <- seq(0.4,12,0.4) px <- c(0,0, 0, 0, 0, 0, 0.0002, 0.0037, 0.018, 0.06, 0.22 ,0.43, 0.64,0.7579, 0.7870, 0.72, 0.555, 0.37, 0.24, 0.11, 0.07, 0.02, 0.009, 0.005, …

2
Ковариационные функции или ядра - что это такое?
Я довольно новичок в области гауссовских процессов и того, как они применяются в машинном обучении. Я продолжаю читать и слышать о ковариационных функциях, являющихся главной привлекательностью этих методов. Так может ли кто-нибудь объяснить интуитивно, что происходит в этих ковариационных функциях? В противном случае, если бы вы могли указать на конкретное …

1
Предельная вероятность из вывода Гиббса
Я воспроизводлю результаты с нуля в разделе 4.2.1 Предельная вероятность из вывода Гиббса Сиддхартха Чиб Журнал Американской Статистической Ассоциации, Vol. 90, No. 432. (Dec., 1995), pp. 1313-1321. Это смесь модели нормалей с известным числом компонентов. f ( x ∣ w , μ , σ 2 ) = n ∏ i …

2
Зачем использовать бета-распределение по параметру Бернулли для иерархической логистической регрессии?
В настоящее время я читаю превосходную книгу Крушке «Анализ байесовских данных». Однако глава об иерархической логистической регрессии (глава 20) несколько сбивает с толку. Рисунок 20.2 описывает иерархическую логистическую регрессию, где параметр Бернулли определяется как линейная функция на коэффициентах, преобразованных через сигмовидную функцию. Похоже, именно таким образом иерархическая логистическая регрессия представлена …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.