Вопросы с тегом «bayesian»

Байесовский вывод - это метод статистического вывода, основанный на обработке параметров модели как случайных величин и применении теоремы Байеса для вывода субъективных вероятностных утверждений о параметрах или гипотезах, обусловленных наблюдаемым набором данных.

2
Какие вещи я могу предсказать с помощью наивного байесовского классификатора?
Я новичок в статистике (прошел только один курс колледжа), но у меня есть опыт программирования. Я только начал играть с библиотекой байесовских классификаторов для Ruby, и я ищу идеи для вещей для анализа. Прямо сейчас я возиться с категоризацией Tweet, но у вас есть какие-нибудь идеи? Что еще более важно, …

2
Почему существуют рекомендации против использования Jeffreys или энтропийных априоров для сэмплеров MCMC?
На своей вики-странице разработчики Стэна заявляют: Некоторые принципы нам не нравятся: инвариантность, Джеффрис, энтропия Вместо этого я вижу много нормальных рекомендаций по распространению. До сих пор я использовал байесовские методы, которые не основывались на выборке, и был отчасти рад, что понял, почему был хорошим выбором для биномиальных вероятностей.θ ∼ бета …
11 bayesian  mcmc  prior  pymc  stan 

1
R / mgcv: Почему тензорные продукты te () и ti () производят разные поверхности?
mgcvПакет Rимеет две функции для установки взаимодействия Тензор продукта: te()и ti(). Я понимаю основное разделение труда между ними (подгонка нелинейного взаимодействия против разложения этого взаимодействия на основные эффекты и взаимодействие). Чего я не понимаю, так это почему te(x1, x2)и ti(x1) + ti(x2) + ti(x1, x2)может дать (немного) разные результаты. MWE …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

5
Интерпретация теоремы Байеса применительно к положительным результатам маммографии
Я пытаюсь обернуть голову вокруг результата теоремы Байеса, примененного к классическому примеру маммографии, с идеальным поворотом маммограммы. Это, Заболеваемость раком:.01.01.01 Вероятность положительной маммографии у пациента с раком:111 Вероятность положительной маммографии, учитывая, что пациент не имеет рака:.01.01.01 Байес: P (рак | маммография +) =1⋅.01(1⋅.01)+(.091⋅.99)1⋅.01(1⋅.01)+(.091⋅.99)\dfrac {1 \cdot .01}{(1 \cdot .01) + (.091 …

1
Когда нельзя распределить выборку по частоте в байесовской апостериорной системе в условиях регрессии?
Мои актуальные вопросы приведены в двух последних абзацах, но для их мотивации: Если я пытаюсь оценить среднее значение случайной величины, которая следует за нормальным распределением с известной дисперсией, я прочитал, что если поставить перед средним равномерное значение, получится апостериорное распределение, пропорциональное функции правдоподобия. В этих ситуациях байесовский доверительный интервал полностью …

2
Почему апостериорная плотность пропорциональна функции вероятности, умноженной на предыдущую плотность?
Согласно теореме Байеса, . Но согласно моему эконометрическому тексту говорится, что . Почему это так? Я не понимаю, почему игнорируется.P(y|θ)P(θ)=P(θ|y)P(y)P(y|θ)P(θ)=P(θ|y)P(y)P(y|\theta)P(\theta) = P(\theta|y)P(y)P(θ|y)∝P(y|θ)P(θ)P(θ|y)∝P(y|θ)P(θ)P(\theta|y) \propto P(y|\theta)P(\theta)P(y)P(y)P(y)


1
Почему люди используют термин «вес доказательств» и чем он отличается от «точечной взаимной информации»?
Здесь «вес доказательств» (WOE) - это общий термин в опубликованной научной и политической литературе, чаще всего встречающийся в контексте оценки риска, определяемый как: w(e:h)=logp(e|h)p(e|h¯¯¯)вес(е:час)знак равножурнал⁡п(е|час)п(е|час¯)w(e : h) = \log\frac{p(e|h)}{p(e|\overline{h})} где - доказательство, h - гипотеза.eеehчасh Теперь я хочу знать, в чем главное отличие PMI (точечная взаимная информация). pmi(e,h)=logp(e,h)p(e)∗p(h)pmi(e,h)=log⁡p(e,h)p(e)∗p(h)pmi(e,h)=\log\frac{p(e,h)}{p(e)*p(h)}

1
Что означает термин «редкий априорный» (FBProphet Paper)?
Читая статью «Прогнозирование в масштабе» (инструмент прогнозирования FBProphet, см. Https://peerj.com/preprints/3190.pdf ), я натолкнулся на термин «разреженный априор». Авторы объясняют, что они использовали такой «разреженный априор» при моделировании вектора отклонений скорости δδ\mathbf{\delta} от некоторой скалярной скорости Кkk , которая является модельным параметром в модели логистического роста. Поскольку они утверждают, что δJ∼ …

2
Распределение предложений для обобщенного нормального распределения
Я моделирую рассредоточение завода, используя обобщенное нормальное распределение ( запись в Википедии ), которое имеет функцию плотности вероятности: b2aΓ(1/b)e−(da)bb2aΓ(1/b)e−(da)b \frac{b}{2a\Gamma(1/b)} e^{-(\frac{d}{a})^b} где - пройденное расстояние, - параметр масштаба, а - параметр формы. Среднее пройденное расстояние определяется стандартным отклонением этого распределения:dddбaaabbb a2Γ(3/b)Γ(1/b)−−−−−−−−√a2Γ(3/b)Γ(1/b) \sqrt{\frac{a^2 \Gamma(3/b)}{\Gamma(1/b)}} Это удобно, потому что учитывает экспоненциальную форму, …

3
MAP является решением
Я столкнулся с этими слайдами (слайд № 16 и № 17) на одном из онлайн-курсов. Преподаватель пытался объяснить, как максимальная апостериорная оценка (MAP) на самом деле является решением L(θ)=I[θ≠θ∗]L(θ)=I[θ≠θ∗]L(\theta) = \mathcal{I}[\theta \ne \theta^{*}] , где - истинный параметр.θ∗θ∗\theta^{*} Может кто-нибудь объяснить, пожалуйста, как это следует? Изменить: Добавлены слайды, если ссылка …

6
Простые примеры из реальной жизни для обучения байесовской статистике?
Я хотел бы найти несколько «реальных примеров» для преподавания байесовской статистики. Байесовская статистика позволяет формально включить предыдущие знания в анализ. Я хотел бы привести студентам несколько простых примеров из реальной жизни, в которых исследователи включили в свой анализ предшествующие знания, чтобы студенты могли лучше понять мотивацию, по которой можно в …

7
Является ли чувствительность или специфичность функцией распространенности?
Стандартное обучение говорит, что чувствительность и специфичность являются свойствами теста и не зависят от распространенности. Но разве это не предположение? Принципы внутренней медицины Харрисона 19-е издание говорит Давно утверждается, что чувствительность и специфичность являются независимыми от распространенности параметрами точности теста, и многие тексты все еще делают это утверждение. Это статистически …


1
Существует ли реализованный пробоотборник Монте-Карло / MCMC, который может работать с изолированными локальными максимумами апостериорного распределения?
В настоящее время я использую байесовский подход для оценки параметров модели, состоящей из нескольких ODE. Поскольку у меня есть 15 параметров для оценки, мое пространство выборки является 15-мерным, и в моем поиске апостериорного распределения, по-видимому, имеется много локальных максимумов, которые очень изолированы большими областями с очень низкой вероятностью. Это приводит …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.