Вопросы с тегом «bayesian»

Байесовский вывод - это метод статистического вывода, основанный на обработке параметров модели как случайных величин и применении теоремы Байеса для вывода субъективных вероятностных утверждений о параметрах или гипотезах, обусловленных наблюдаемым набором данных.


3
Оценка параметра равномерного распределения: неправильный априор?
У нас есть N выборок из равномерного распределения где неизвестно. Оцените из данных.XiXiX_iθ θ[0,θ][0,θ][0,\theta]θθ\thetaθθ\theta Итак, правило Байеса ... f(θ|Xi)=f(Xi|θ)f(θ)f(Xi)f(θ|Xi)=f(Xi|θ)f(θ)f(Xi)f(\theta | {X_i}) = \frac{f({X_i}|\theta)f(\theta)}{f({X_i})} и вероятность: 0≤Xi≤θif(Xi|θ)=∏Ni=11θf(Xi|θ)=∏i=1N1θf({X_i}|\theta) = \prod_{i=1}^N \frac{1}{\theta} (редактировать: когда для всех и 0 в противном случае - спасибо whuber)0≤Xi≤θ0≤Xi≤θ0 \le X_i \le \thetaiii но без какой-либо другой информации …

3
Упражнение 2.2 «Элементы статистического обучения»
Учебник сначала генерирует некоторые 2-классовые данные через: который дает: и тогда он спрашивает: Я пытаюсь решить эту проблему, сначала смоделировав это с помощью этой графической модели: где - метка, - индекс выбранного среднего значения , а - точка данных. Это дастccch(1≤h≤10)h(1≤h≤10)h\,(1\le h \le 10)mchmhcm_h^cxxx Pr(x∣mch)=Pr(mch∣h,c=blue)=Pr(mch∣h,c=orange)=Pr(h)=Pr(c)=N(mch,I/5)N((1,0)T,I)N((0,1)T,I)11012Pr(x∣mhc)=N(mhc,I/5)Pr(mhc∣h,c=blue)=N((1,0)T,I)Pr(mhc∣h,c=orange)=N((0,1)T,I)Pr(h)=110Pr(c)=12 \begin{align*} \Pr(x\mid m_h^c) =& \mathcal{N}(m_h^c,\mathbf{I}/5)\\ …

2
Соответствует ли это единственное значение тому распределению?
это похоже на очень наивный вопрос, но мне трудно увидеть ответ. У меня есть один набор из 30 значений. Самостоятельно я получил 31-е значение. Нулевая гипотеза состоит в том, что 31-е значение является частью одного и того же распределения. Альтернатива в том, что это другое. Я хочу какую-то p-величину или …

4
Модель истории дискретного времени (выживания) в R
Я пытаюсь вписать модель с дискретным временем в R, но я не уверен, как это сделать. Я читал, что вы можете организовать зависимую переменную в разных строках, по одной для каждого временного наблюдения, и использовать glmфункцию со ссылкой logit или cloglog. В этом смысле, у меня есть три колонки: ID, …
10 r  survival  pca  sas  matlab  neural-networks  r  logistic  spatial  spatial-interaction-model  r  time-series  econometrics  var  statistical-significance  t-test  cross-validation  sample-size  r  regression  optimization  least-squares  constrained-regression  nonparametric  ordinal-data  wilcoxon-signed-rank  references  neural-networks  jags  bugs  hierarchical-bayesian  gaussian-mixture  r  regression  svm  predictive-models  libsvm  scikit-learn  probability  self-study  stata  sample-size  spss  wilcoxon-mann-whitney  survey  ordinal-data  likert  group-differences  r  regression  anova  mathematical-statistics  normal-distribution  random-generation  truncation  repeated-measures  variance  variability  distributions  random-generation  uniform  regression  r  generalized-linear-model  goodness-of-fit  data-visualization  r  time-series  arima  autoregressive  confidence-interval  r  time-series  arima  autocorrelation  seasonality  hypothesis-testing  bayesian  frequentist  uninformative-prior  correlation  matlab  cross-correlation 

3
Winbugs и другие MCMC без информации для предварительного распространения
Что происходит, когда у вас нет представления о распределении параметров? Какой подход мы должны использовать? В большинстве случаев мы стремимся недооценивать, влияет ли определенная переменная на наличие / отсутствие определенного вида, и принимается или нет переменная в соответствии с важностью переменной. Это означает, что в большинстве случаев мы не думаем …
10 r  bayesian  mcmc  bugs  winbugs 

5
Можно ли сначала подгонять байесовскую модель, а затем начинать ослаблять приоры?
При выполнении частых статистических заданий существует длинный список больших запретов, например, просмотр результатов статистических тестов перед принятием решения о сборе дополнительных данных. В общем, мне интересно, есть ли подобный список исключений для методологий, используемых в байесовской статистике, и, в частности, является ли следующее одним из них. Недавно я понял, что …

1
Как получить прогноз для конкретной переменной в WinBUGS?
Я новый пользователь WinBUGS и у меня есть один вопрос для вашей помощи. После запуска следующего кода я получил параметры beta0сквозного beta4(статистика, плотность), но я не знаю, как получить прогноз последнего значения h, которое я установил NAдля моделирования в коде. Кто-нибудь может дать мне подсказку? Любой совет будет принята с …

1
R линейная регрессия категориальной переменной «скрытое» значение
Это всего лишь пример, с которым я сталкивался несколько раз, поэтому у меня нет примеров данных. Запуск модели линейной регрессии в R: a.lm = lm(Y ~ x1 + x2) x1является непрерывной переменной x2является категориальным и имеет три значения, например, «Низкий», «Средний» и «Высокий». Однако вывод, заданный R, будет выглядеть примерно …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

4
Учитывая цепочку 10D MCMC, как я могу определить ее апостериорные моды в R?
Вопрос: С 10-мерной цепочкой MCMC, скажем, я готов передать вам матрицу розыгрышей: 100 000 итераций (строк) по 10 параметрам (столбцам), как лучше всего определить апостериорные моды? Я особенно обеспокоен несколькими режимами. Фон:Я считаю себя статистически подкованным статистиком, но когда коллега задал мне этот вопрос, мне стало стыдно, что я не …

1
Почему байесовский апостериор концентрируется вокруг минимизатора расхождения KL?
Рассмотрим Байеса задней . Асимптотически его максимум возникает при оценке MLE , которая просто максимизирует вероятность .θ∣Xθ∣X\theta\mid Xθ^θ^\hat \thetaargminθfθ(X)argminθfθ(X)\operatorname{argmin}_\theta\, f_\theta(X) Все эти концепции - байесовские априоры, максимизирующие вероятность - звучат сверхпринципно и вовсе не произвольно. Там не журнал в поле зрения. Тем не менее, MLE минимизирует расхождение KL между реальным …

2
Оценка неопределенности в задачах многомерного вывода без выборки?
Я работаю над проблемой многомерного вывода (около 2000 параметров модели), для которой мы можем надежно выполнить оценку MAP, найдя глобальный максимум логарифмического аппроксимации, используя комбинацию градиентной оптимизации и генетического алгоритма. Я очень хотел бы иметь возможность сделать некоторую оценку неопределенности параметров модели в дополнение к нахождению оценки MAP. Мы можем …

3
Требует ли оценка Байеса, что истинный параметр является возможным изменением предыдущего?
Это может быть немного философским вопросом, но здесь мы идем: В теории принятия решений риск оценки Байеса для определен относительно предыдущего распределения на .thetas∈thetasлthetasθ^(x)θ^(x)\hat\theta(x)θ∈Θθ∈Θ\theta\in\Thetaππ\piΘΘ\Theta Теперь, с одной стороны, чтобы истинное сгенерировало данные (то есть "существует"), должно быть возможным изменением в , например иметь ненулевую вероятность, ненулевую плотность и т. Д …

2
Как байесовская достаточность связана с достаточной частотой?
Простейшее определение достаточной статистики в частой перспективе дано здесь, в Википедии . Однако недавно я наткнулся на книгу Байеса с определением . В ссылке указано, что оба они эквивалентны, но я не понимаю, как это сделать. Также на той же странице в разделе «Другие типы достаточности» указано, что оба определения …

2
Правда ли, что байесовцам не нужны тестовые наборы?
Недавно я смотрел этот доклад Эрика Дж. Ма и проверил его запись в блоге , где он цитирует Рэдфорда Нила, что байесовские модели не подходят больше (но они могут соответствовать ), и при их использовании нам не нужны тестовые наборы для их проверки (для Мне кажется, что цитаты говорят скорее …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.