Вопросы с тегом «prior»

В байесовской статистике предварительное распределение формализует информацию или знания (часто субъективные), доступные до просмотра выборки, в форме распределения вероятностей. Распределение с большим разбросом используется, когда мало известно о параметре (ах), в то время как более узкое предварительное распределение представляет большую степень информации.

2
Какие предыдущие распределения можно / нужно использовать для дисперсии в иерархической байесовской модели, когда средняя дисперсия представляет интерес?
В своей широко цитируемой статье априорные распределения для параметров дисперсии в иерархических моделях (916 цитата на Google Scholar) Гельман предлагает, что хорошими неинформативными априорными распределениями для дисперсии в иерархической байесовской модели являются равномерное распределение и половинное распределение. Если я правильно понимаю, это работает хорошо, когда параметр местоположения (например, среднее значение) …

3
Как выбрать приоритет в оценке байесовских параметров
Я знаю 3 метода оценки параметров, ML, MAP и байесовский подход. А для MAP и байесовского подхода нам нужно выбирать априоры для параметров, верно? Скажем, у меня есть эта модель , в которой α , β являются параметрами, чтобы выполнить оценку с использованием MAP или байесовского алгоритма, я прочитал в …

2
Хребетная регрессия - байесовская интерпретация
Я слышал, что регрессия гребня может быть получена как среднее значение апостериорного распределения, если адекватно выбран априор. Является ли интуиция тем, что ограничения, установленные ранее для коэффициентов регрессии (например, стандартные нормальные распределения около 0), идентичны / заменяют штраф, установленный для квадрата размера коэффициентов? Должен ли априор быть гауссовым, чтобы эта …

3
Почему никто не использует байесовский полиномиальный наивный байесовский классификатор?
Таким образом, в (неконтролируемом) текстовом моделировании скрытое распределение Дирихле (LDA) является байесовской версией вероятностного скрытого семантического анализа (PLSA). По сути, LDA = PLSA + Dirichlet перед его параметрами. Насколько я понимаю, LDA теперь является эталонным алгоритмом и реализован в различных пакетах, в то время как PLSA больше не следует использовать. …

1
Какова интуиция за сменными образцами при нулевой гипотезе?
Тесты перестановки (также называемые тестом рандомизации, тестом повторной рандомизации или точным тестом) очень полезны и оказываются полезными, когда предположение о нормальном распределении, требуемое, например, t-testне выполняется, и когда преобразование значений путем ранжирования непараметрическое тестирование, как, Mann-Whitney-U-testможет привести к потере большего количества информации. Тем не менее, одно и только одно предположение …
15 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 

2
Плоские, сопряженные и гиперприоры. Кто они такие?
В настоящее время я читаю о байесовских методах в вычислительной молекулярной эволюции Янга. В разделе 5.2 говорится о приорах, в частности неинформативных / плоских / расплывчатых / диффузных, сопряженных и гиперприорных. Возможно, это требует чрезмерного упрощения, но может ли кто-нибудь объяснить просто разницу между этими типами приоров и как это …
15 bayesian  prior 

2
Что хорошего хорошего распределения степеней свободы в распределении?
Я хочу использовать при распределении для моделирования доходности активов с коротким интервалом в байесовской модели. Я хотел бы оценить обе степени свободы (наряду с другими параметрами в моей модели) для распределения. Я знаю, что доходность активов совершенно ненормальная, но я не знаю слишком много за этим. Что является подходящим, слегка …

1
Джеффрис априор для нескольких параметров
В некоторых случаях предварительная оценка Джеффриса для полной многомерной модели обычно считается неадекватной, например, в случае: (где ε ∼ N ( 0 , σ 2 ) , где μ и σ неизвестны), где предпочтительным является следующий априор (для полного предшествующего Джеффриса π ( μ , σ ) ∝ σ - …

2
Параметры без определенных априоров в Stan
Я только начал учиться использовать Стэн и rstan. Если я не всегда был озадачен тем, как работают JAGS / BUGS, я думал, что вы всегда должны были определять какое-то предварительное распределение для каждого параметра в модели, из которой нужно извлечь. Похоже, что вам не нужно делать это в Stan на …

2
Создание байесовского априора по частому результату
Как можно превратить частый результат в байесовский априор? Рассмотрим следующий довольно общий сценарий: в прошлом проводился эксперимент и измерялся результат по некоторому параметру . Анализ был сделан с использованием методологии частых исследований. В результатах указан доверительный интервал для ϕ .ϕϕ\phiϕϕ\phi Сейчас я провожу новый эксперимент, в котором я хочу измерить …

2
Вы наблюдаете k голов из n бросков. Честная ли монета?
Мне задали этот вопрос с в интервью. Есть ли «правильный» ответ?(n,k)=(400,220)(n,k)=(400,220)(n, k) = (400, 220) Предположим, что броски одинаковы, а вероятность голов составляет p=0.5p=0.5p=0.5 . Распределение числа голов в 400 бросках должно быть близко к нормальному (200, 10 ^ 2), так что 220 голов - это 2 стандартных отклонения от …

1
Когда мне следует беспокоиться о парадоксе Джеффриса-Линдли в выборе байесовской модели?
Я рассматриваю большое (но конечное) пространство моделей различной сложности, которые я исследую с помощью RJMCMC . Приоритет вектора параметров для каждой модели достаточно информативен. В каких случаях (если таковые имеются) я должен беспокоиться о парадоксе Джеффриса-Линдли в пользу более простых моделей, когда одна из более сложных моделей будет более подходящей? …

3
Джефрис Приор для нормального распределения с неизвестным средним и дисперсией
Я читаю о предыдущих распределениях и вычислял Джеффриса для выборки нормально распределенных случайных величин с неизвестным средним и неизвестной дисперсией. Согласно моим расчетам, для Джеффриса справедливо следующее: Здесь - информационная матрица Фишера.яp ( μ , σ2) = dэ т ( я)-----√= де т ( 1 / σ2001 / ( 2 …

2
Может ли надлежащая априорная и возведенная в степень вероятность привести к неправильной апостериорной?
(Этот вопрос навеян этот комментарий от Сианя .) Хорошо известно, что если предварительное распределение π(θ)π(θ)\pi(\theta) является правильным и вероятность L(θ|x)L(θ|x)L(\theta | x) хорошо определена, то апостериорное распределение π(θ|x)∝π(θ)L(θ|x)π(θ|x)∝π(θ)L(θ|x)\pi(\theta|x)\propto \pi(\theta) L(\theta|x) почти наверняка. В некоторых случаях мы используем вместо этого умеренную или возведенную в степень вероятность, приводящую к псевдо-задней π~(θ|x)∝π(θ)L(θ|x)απ~(θ|x)∝π(θ)L(θ|x)α\tilde\pi(\theta|x)\propto \pi(\theta) …

1
Используют ли статистики предыдущие работы Джеффри в реальной прикладной работе?
Когда я узнал о предшествующей работе Джеффриса в моем классе по статистическому выводу для выпускников, мои профессора сделали его звучащим так, как будто это было интересно в основном по историческим причинам, а не потому, что кто-либо когда-либо использовал его. Затем, когда я взяла байесовский анализ данных, нас никогда не просили …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.