Вопросы с тегом «bayesian»

Байесовский вывод - это метод статистического вывода, основанный на обработке параметров модели как случайных величин и применении теоремы Байеса для вывода субъективных вероятностных утверждений о параметрах или гипотезах, обусловленных наблюдаемым набором данных.

7
Сколько заплатить? Практическая проблема
Это не вопрос домашнего труда, а реальная проблема, с которой сталкивается наша компания. Совсем недавно (2 дня назад) мы заказали у дилера 10000 этикеток. Дилер - независимый человек. Он получает этикетки, изготовленные извне, и компания производит оплату дилеру. Каждый лейбл стоил компании ровно 1 доллар. Вчера дилер пришел с этикетками, …

8
Что является хорошим, убедительным примером, в котором p-значения полезны?
Мой вопрос в названии говорит сам за себя, но я хотел бы дать ему некоторый контекст. Ранее на этой неделе ASA опубликовала заявление « о p-значениях: контекст, процесс и цель », в котором изложены различные распространенные заблуждения о p-значении и содержится настоятельная рекомендация не использовать его без контекста и обдумывания …

9
Список ситуаций, в которых байесовский подход проще, практичнее или удобнее
В статистике было много споров между байесовцами и частыми лицами. Я обычно нахожу это довольно отталкивающим (хотя я думаю, что это утихло). С другой стороны, я встречал несколько человек, которые придерживаются совершенно прагматичного взгляда на проблему, говоря, что иногда удобнее проводить анализ часто, а иногда проще проводить байесовский анализ. Я …

8
Байесовцы: рабы с вероятностной функцией?
В своей книге «Вся статистика» профессор Ларри Вассерман приводит следующий пример (11.10, стр. 188). Предположим , что мы имеем плотность такой , что , где является известным (неотрицательное интегрируемой) функции и нормализация постоянной является неизвестной .еffе( х ) = сграмм( х )f(x)=cg(x)f(x)=c\,g(x)c > 0граммggс > 0c>0c>0 Нас интересуют те случаи, …

5
Почему Джефрис полезен ранее?
Я понимаю, что априор Джеффриса инвариантен при повторной параметризации. Однако я не понимаю, почему это свойство желательно. Почему вы не хотите, чтобы предыдущий изменялся при смене переменных?
61 bayesian  prior 

6
Куда делись частые-байесовские дебаты?
Мир статистики был разделен между частыми лицами и байесовцами. В наши дни кажется, что все делают немного и того, и другого. Как это может быть? Если разные подходы подходят для разных задач, почему отцы-основатели статистики не видели этого? В качестве альтернативы, дебаты были выиграны частыми лицами и истинные субъективные байесовцы …

2
Байесовская регрессия: как это делается по сравнению со стандартной регрессией?
У меня есть несколько вопросов о байесовской регрессии: Дана стандартная регрессия при . Если я хочу изменить это в байесовскую регрессию, нужно ли мне предварительные распределения для β 0 и β 1 (или это не работает таким образом)?Y= β0+ β1х + εy=β0+β1x+εy = \beta_0 + \beta_1 x + \varepsilonβ0β0\beta_0β1β1\beta_1 В …

10
Кто частые?
У нас уже была ветка, спрашивающая, кто такие байесовцы, и одна, спрашивающая, являются ли частые лица байесовскими , но не было ветки, спрашивающей, кто такие частые ? Этот вопрос был задан @whuber в качестве комментария к этой теме, и он требует ответа. Существуют ли они (есть ли самоидентифицированные частисты)? Может …

5
Примеры байесовского и частотного подхода, дающего разные ответы
Примечание: Я нахожусь в курсе философских различий между Байесом и частотной статистикой. Например, «какова вероятность того, что монета на столе - это головы» не имеет смысла в статистике частых случаев, поскольку у нее уже есть приземленные головы или хвосты - в этом нет ничего вероятностного. Таким образом, вопрос не имеет …

2
В чем разница между фильтром частиц (последовательным методом Монте-Карло) и фильтром Калмана?
Фильтр частиц и фильтр Калмана является рекурсивным байесовскими . Я часто сталкиваюсь с фильтрами Калмана в своей области, но очень редко вижу использование фильтра частиц. Когда один будет использоваться над другим?


6
Байесовский учебник статистики
Я пытаюсь набрать скорость в байесовской статистике. У меня есть немного истории статистики (STAT 101), но не слишком много - я думаю, что могу понять предшествующую, заднюю и вероятность: D. Я пока не хочу читать байесовский учебник. Я предпочел бы читать из источника (веб-сайт), который быстро нарастит меня. Что - …

2
Почему байесовский не может посмотреть на остатки?
В статье «Дискуссия: должны ли экологи стать байесовцами?» Брайан Деннис дает удивительно сбалансированный и позитивный взгляд на байесовскую статистику, когда его цель, похоже, состоит в том, чтобы предупредить людей об этом. Тем не менее, в одном абзаце, без каких-либо ссылок или оправданий, он говорит: Понимаете, байесовцам не разрешено смотреть на …

2
Что говорит обратная ковариационная матрица о данных? (Наглядно)
Меня интересует природа Σ−1Σ−1\Sigma^{-1} . Кто-нибудь может сказать что-то интуитивное о том, «Что Σ−1Σ−1\Sigma^{-1} говорит о данных?» Редактировать: Спасибо за ответы Пройдя несколько отличных курсов, я бы хотел добавить несколько моментов: Это мера информации, т. Е. xTΣ−1xxTΣ−1xx^T\Sigma^{-1}x это количество информации по направлению xxx . Двойственность: Поскольку положительно определен, как и …

3
Интерпретация логарифмически преобразованного предиктора и / или ответа
Мне интересно, имеет ли это значение при интерпретации того, являются ли логически преобразованными только зависимые, как зависимые, так и независимые, или только независимые переменные. Рассмотрим случай log(DV) = Intercept + B1*IV + Error Я могу интерпретировать IV как процентное увеличение, но как это меняется, когда у меня есть log(DV) = …
46 regression  data-transformation  interpretation  regression-coefficients  logarithm  r  dataset  stata  hypothesis-testing  contingency-tables  hypothesis-testing  statistical-significance  standard-deviation  unbiased-estimator  t-distribution  r  functional-data-analysis  maximum-likelihood  bootstrap  regression  change-point  regression  sas  hypothesis-testing  bayesian  randomness  predictive-models  nonparametric  terminology  parametric  correlation  effect-size  loess  mean  pdf  quantile-function  bioinformatics  regression  terminology  r-squared  pdf  maximum  multivariate-analysis  references  data-visualization  r  pca  r  mixed-model  lme4-nlme  distributions  probability  bayesian  prior  anova  chi-squared  binomial  generalized-linear-model  anova  repeated-measures  t-test  post-hoc  clustering  variance  probability  hypothesis-testing  references  binomial  profile-likelihood  self-study  excel  data-transformation  skewness  distributions  statistical-significance  econometrics  spatial  r  regression  anova  spss  linear-model 

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.