Вопросы с тегом «prior»

В байесовской статистике предварительное распределение формализует информацию или знания (часто субъективные), доступные до просмотра выборки, в форме распределения вероятностей. Распределение с большим разбросом используется, когда мало известно о параметре (ах), в то время как более узкое предварительное распределение представляет большую степень информации.

1
Нег Бином и Приор Джеффриса
Я пытаюсь получить априор Джеффриса для отрицательного биномиального распределения. Я не вижу, где я иду не так, поэтому, если кто-то может помочь указать на это, это будет оценено. Итак, ситуация такова: я должен сравнить предыдущие распределения, полученные с использованием бинома и отрицательного бинома, где (в обоих случаях) есть испытаний и …

2
Что такое «Информация о подразделении до»?
Я читал Wagenmakers (2007) Практическое решение широко распространенной проблемы значений p . Я заинтригован преобразованием значений BIC в байесовские факторы и вероятности. Тем не менее, до сих пор у меня нет четкого представления о том, что такое информация о единицах ранее . Я был бы благодарен за объяснение с изображениями …

2
Почему существуют рекомендации против использования Jeffreys или энтропийных априоров для сэмплеров MCMC?
На своей вики-странице разработчики Стэна заявляют: Некоторые принципы нам не нравятся: инвариантность, Джеффрис, энтропия Вместо этого я вижу много нормальных рекомендаций по распространению. До сих пор я использовал байесовские методы, которые не основывались на выборке, и был отчасти рад, что понял, почему был хорошим выбором для биномиальных вероятностей.θ ∼ бета …
11 bayesian  mcmc  prior  pymc  stan 

1
Почему LKJcorr является хорошим приоритетом для корреляционной матрицы?
Я читаю главу 13 «Приключения в ковариации» в ( превосходной ) книге Ричарда Мак-Элирея « Статистическое переосмысление », где он представляет следующую иерархическую модель: ( Rэто корреляционная матрица) Автор объясняет, что LKJcorrэто слабоинформативный априор, который работает как регуляризирующий априор для корреляционной матрицы. Но почему это так? Какие характеристики у LKJcorrраспределения …


1
Байесовские факторы с неподходящими априорами
У меня есть вопрос относительно сравнения моделей с использованием байесовских факторов. Во многих случаях статистики заинтересованы в использовании байесовского подхода с неподходящими априорами (например, с некоторыми априорами Джеффриса и эталонными априорами). Мой вопрос заключается в том, что в тех случаях, когда апостериорное распределение параметров модели четко определено, допустимо ли сравнивать …

3
Выявление приоры ... с деньгами!
Предположим , у меня есть «экспертов», из которых я хотел бы, чтобы вызвать предварительное распределение по некоторой переменной X . Я хотел бы мотивировать их реальными деньгами . Идея состоит в том, чтобы выявить априоры, наблюдать n реализаций случайной величины X , а затем разделить некоторый заранее определенный «кошелек» среди …
10 bayesian  prior 


3
Требует ли оценка Байеса, что истинный параметр является возможным изменением предыдущего?
Это может быть немного философским вопросом, но здесь мы идем: В теории принятия решений риск оценки Байеса для определен относительно предыдущего распределения на .thetas∈thetasлthetasθ^(x)θ^(x)\hat\theta(x)θ∈Θθ∈Θ\theta\in\Thetaππ\piΘΘ\Theta Теперь, с одной стороны, чтобы истинное сгенерировало данные (то есть "существует"), должно быть возможным изменением в , например иметь ненулевую вероятность, ненулевую плотность и т. Д …

1
Какая модель глубокого обучения может классифицировать категории, которые не являются взаимоисключающими
Примеры: у меня есть предложение в должностной инструкции: «Старший инженер Java в Великобритании». Я хочу использовать модель глубокого обучения, чтобы предсказать ее как 2 категории: English и IT jobs. Если я использую традиционную классификационную модель, она может предсказать только 1 метку с softmaxфункцией на последнем слое. Таким образом, я могу …
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 

1
Как формализовать предыдущее распределение вероятностей? Есть ли практические правила или советы, которые следует использовать?
Хотя мне нравится думать, что я хорошо понимаю концепцию предварительной информации в байесовском статистическом анализе и принятии решений, у меня часто возникают проблемы с нахождением головы вокруг ее применения. Я имею в виду пару ситуаций, которые иллюстрируют мою борьбу, и я чувствую, что они не были должным образом рассмотрены в …

1
Выбор приоров на основе погрешности измерения
Как вы рассчитываете соответствующий априор, если у вас есть ошибка измерения прибора? Этот абзац взят из книги Кресси «Статистика пространственно-временных данных»: Часто бывает так, что имеется некоторая предварительная информация, касающаяся дисперсии ошибки измерения, что позволяет указать довольно информативную модель параметров. Например, если мы предполагаем условно независимые ошибки измерения, например, , …

2
«Забывчивость» настоятеля в байесовской обстановке?
Хорошо известно, что по мере того, как у вас появляется больше доказательств (скажем, в виде большего для iid примеров), байесовский априор «забывается», и на большинство выводов влияют доказательства (или вероятность).нNNnNNn Это легко увидеть для различных конкретных случаев (например, Бернулли с бета-версией или других примеров), но есть ли способ увидеть это …
9 bayesian  prior 

2
Разрешить данным диктовать приоры, а затем запустить модель, используя эти приоры? (например, управляемые данными априоры из одного и того же набора данных)
Насколько я понимаю, мы не должны позволять тому же набору данных, который мы анализируем, управлять / определять, как выглядят предыдущие распределения в байесовском анализе. В частности, неуместно определять предыдущие распределения для байесовского анализа, основанные на сводной статистике из того же набора данных, который вы затем будете использовать приоры, чтобы помочь …
9 bayesian  prior 
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.