Вопросы с тегом «bayesian»

Байесовский вывод - это метод статистического вывода, основанный на обработке параметров модели как случайных величин и применении теоремы Байеса для вывода субъективных вероятностных утверждений о параметрах или гипотезах, обусловленных наблюдаемым набором данных.

2
Каково теоретико-обоснованное обоснование байесовских интервалов вероятности?
(Чтобы понять, почему я написал это, проверьте комментарии ниже моего ответа на этот вопрос .) Ошибки типа III и теория статистических решений Правильный ответ на неправильный вопрос иногда называют ошибкой типа III. Теория статистических решений - это формализация принятия решений в условиях неопределенности; это обеспечивает концептуальную структуру, которая может помочь …

1
Статья о неправильном использовании статистического метода в NYTimes
Я имею в виду эту статью: http://www.nytimes.com/2011/01/11/science/11esp.html Рассмотрим следующий эксперимент. Предположим, есть основания полагать, что монета была слегка утяжелена по отношению к головам. В тесте монета выпадает в голову 527 раз из 1000. Является ли это значительным доказательством того, что монета взвешена? Классический анализ говорит да. При честной монете шансы …

4
Каковы правильные значения для точности и отзыва в крайних случаях?
Точность определяется как: p = true positives / (true positives + false positives) Является ли это исправить , что, как true positivesи false positivesподход 0, точность приближается к 1? Тот же вопрос для отзыва: r = true positives / (true positives + false negatives) В настоящее время я выполняю статистический …
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 

2
Байесовское мышление о переоснащении
Я посвятил много времени разработке методов и программного обеспечения для проверки прогностических моделей в традиционной статистической области. Внедряя больше байесовских идей в практику и обучая, я вижу некоторые ключевые отличия, которые следует принять Во-первых, байесовское прогнозирующее моделирование требует от аналитика тщательно продумать предыдущие распределения, которые могут быть адаптированы к возможностям-кандидатам, …

2
Что является / является неявным приоритетом в статистике частых посещений?
Я слышал, что Джейнс утверждает, что часто работающие работают с «неявным априором». Каковы или являются эти неявные приоры? Означает ли это, что модели для частых - все это особые случаи байесовских моделей, которые ждут своего появления?

3
Почему нормализующий фактор требуется в теореме Байеса?
Теорема Байеса имеет вид P(model|data)=P(model)×P(data|model)P(data)P(model|data)=P(model)×P(data|model)P(data) P(\textrm{model}|\textrm{data}) = \frac{P(\textrm{model}) \times P(\textrm{data}|\textrm{model})}{P(\textrm{data})} Это все хорошо. Но я где-то читал: По сути, P (данные) - это не что иное, как нормализующая константа, то есть константа, которая заставляет апостериорную плотность интегрироваться в единицу. Мы знаем, что0≤P(model)≤10≤P(model)≤10 \leq P(\textrm{model}) \leq 1 и . 0 ≤ …

3
Гентлеровский подход к байесовской статистике
Недавно я начал читать «Введение в байесовскую статистику», 2-е издание, Bolstad. У меня был вводный класс статистики, который охватывал в основном статистические тесты, и я почти прошел класс регрессионного анализа. Какие еще книги я могу использовать, чтобы дополнить мое понимание этой? Я прошел через первые 100-125 страниц. После этого книга …

1
Когда можно использовать выборку Гиббса вместо Метрополис-Гастингс?
Существуют различные виды алгоритмов MCMC: Метрополис-Гастингс Gibbs Важность / отклонение выборки (связано). Зачем использовать выборку Гиббса вместо Метрополис-Гастингс? Я подозреваю, что бывают случаи, когда при выборке Гиббса можно сделать вывод лучше, чем при работе с Метрополис-Гастингс, но я не совсем уверен в деталях.

1
Антоним дисперсии
Есть ли слово, которое означает «обратная дисперсия»? То есть, если имеет высокую дисперсию, то X имеет низкую … ? Не заинтересованы в близком антониме (например, «соглашение» или «сходство»), но конкретно означают 1 / σ 2 ?XXXXXX……\dots1/σ21/σ21/\sigma^2

2
Как применить теорему Байеса к поиску потерянного в море рыбака
В статье «Постоянно обновляемые шансы» упоминается история рыбака из Лонг-Айленда, который буквально обязан своей жизнью Байесовской статистике. Вот короткая версия: Посреди ночи на лодке два рыбака. Пока один спит, другой падает в океан. Лодка продолжает троллить на автопилоте всю ночь, пока первый парень, наконец, не проснется и не оповестит береговую …

4
Нужен ли анализ мощности в байесовской статистике?
В последнее время я изучаю байесовский подход к классической статистике. После прочтения о байесовском факторе мне стало интересно, необходим ли анализ мощности в этом виде статистики. Моя главная причина удивления - это фактор Байеса, который на самом деле просто выглядит как отношение правдоподобия. Как только это становится 25: 1, кажется, …

2
Устойчивость перекрестной проверки в байесовских моделях
Я подгоняю байесовский HLM в JAGS, используя перекрестную проверку в k-кратном порядке (k = 5). Я хотел бы знать, стабильны ли оценки параметра во всех сгибах. Какой лучший способ сделать это?ββ\beta Одна из идей состоит в том, чтобы найти различия исходных текстов и посмотреть, находится ли 0 в 95% -ном …

1
Какие алгоритмы / методы MCMC используются для дискретных параметров?
Я знаю достаточно много о подборе непрерывных параметров, особенно градиентных методов, но не много о подборе дискретных параметров. Каковы обычно используемые алгоритмы / методы MCMC для подгонки дискретных параметров? Существуют ли алгоритмы, которые являются достаточно общими и достаточно мощными? Существуют ли алгоритмы, которые хорошо справляются с проклятием размерности? Например, я …
19 bayesian  mcmc 

3
Является ли байесовская статистика подлинным улучшением по сравнению с традиционной (частой) статистикой поведенческих исследований?
Во время участия в конференциях сторонники байесовской статистики немного подталкивали к оценке результатов экспериментов. Он хвалится как более чувствительный, уместный и избирательный по отношению к подлинным результатам (меньше ложных срабатываний), чем статистика по частоте. Я немного изучил эту тему, и до сих пор меня не убеждают преимущества использования байесовской статистики. …

5
Что на практике означает «вероятность определяется только с точностью до мультипликативной константы пропорциональности»?
Я читаю статью, в которой авторы ведут от обсуждения оценки максимального правдоподобия к теореме Байеса, якобы в качестве введения для начинающих. Как пример вероятности, они начинаются с биномиального распределения: p(x|n,θ)=(nx)θx(1−θ)n−xp(x|n,θ)=(nx)θx(1−θ)n−xp(x|n,\theta) = \binom{n}{x}\theta^x(1-\theta)^{n-x} а затем войти обе стороны ℓ(θ|x,n)=xln(θ)+(n−x)ln(1−θ)ℓ(θ|x,n)=xln⁡(θ)+(n−x)ln⁡(1−θ)\ell(\theta|x, n) = x \ln (\theta) + (n-x)\ln (1-\theta) с обоснованием того, что: …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.