Вопросы с тегом «bayesian»

Байесовский вывод - это метод статистического вывода, основанный на обработке параметров модели как случайных величин и применении теоремы Байеса для вывода субъективных вероятностных утверждений о параметрах или гипотезах, обусловленных наблюдаемым набором данных.

3
Каковы некоторые иллюстративные применения эмпирической вероятности?
Я слышал об эмпирической вероятности Оуэна, но до недавнего времени не обращал на это внимания, пока не наткнулся на интересную статью ( Mengersen et al. 2012 ). В моих попытках понять это я выяснил, что вероятность наблюдаемых данных представляется в виде L = ∏япя= ∏яп( Xя= х ) = ∏яп( …

1
Вычисление повторяемости эффектов по модели Лмера
Я только что наткнулся на эту статью , в которой описывается, как вычислить повторяемость (или надежность, или внутриклассовую корреляцию) измерения с помощью моделирования смешанных эффектов. Код R будет: #fit the model fit = lmer(dv~(1|unit),data=my_data) #obtain the variance estimates vc = VarCorr(fit) residual_var = attr(vc,'sc')^2 intercept_var = attr(vc$id,'stddev')[1]^2 #compute the unadjusted …
28 mixed-model  reliability  intraclass-correlation  repeatability  spss  factor-analysis  survey  modeling  cross-validation  error  curve-fitting  mediation  correlation  clustering  sampling  machine-learning  probability  classification  metric  r  project-management  optimization  svm  python  dataset  quality-control  checking  clustering  distributions  anova  factor-analysis  exponential  poisson-distribution  generalized-linear-model  deviance  machine-learning  k-nearest-neighbour  r  hypothesis-testing  t-test  r  variance  levenes-test  bayesian  software  bayesian-network  regression  repeated-measures  least-squares  change-scores  variance  chi-squared  variance  nonlinear-regression  regression-coefficients  multiple-comparisons  p-value  r  statistical-significance  excel  sampling  sample  r  distributions  interpretation  goodness-of-fit  normality-assumption  probability  self-study  distributions  references  theory  time-series  clustering  econometrics  binomial  hypothesis-testing  variance  t-test  paired-comparisons  statistical-significance  ab-test  r  references  hypothesis-testing  t-test  normality-assumption  wilcoxon-mann-whitney  central-limit-theorem  t-test  data-visualization  interactive-visualization  goodness-of-fit 


4
Какие факторы делают задние распределения трудно поддающимися лечению?
В байесовской статистике часто упоминается, что апостериорное распределение трудноразрешимо, и поэтому необходимо применять приблизительный вывод. Какие факторы вызывают эту неразрешимость?

3
Почему приоры Джеффриса считаются неинформативными?
Рассмотрим ранее Джеффриса, где , где - информация Фишера.p(θ)∝|i(θ)|−−−−√p(θ)∝|i(θ)|p(\theta) \propto \sqrt{|i(\theta)|}iii Я продолжаю видеть, что этот априор упоминается как неинформативный априор, но я никогда не видел аргумента, почему он неинформативен. В конце концов, это не постоянный априор, поэтому должен быть какой-то другой аргумент. Я понимаю, что это не зависит от …
27 bayesian  prior 

5
Является ли расплывчатый априор таким же, как неинформативный априор?
Это вопрос о терминологии. Является ли «неопределенный априор» таким же, как неинформативный априор, или есть какая-то разница между ними? У меня сложилось впечатление, что они одинаковы (глядя нечетко и неинформативно), но я не уверен.

2
Почему штраф Лассо эквивалентен двойному экспоненциальному (Лапласу) ранее?
В ряде ссылок я читал, что оценка Лассо для вектора параметра регрессии эквивалентна апостериорной моде в которой предыдущее распределение для каждого является двойным экспоненциальным распределением (также известным как распределение Лапласа).BBBBBBBiBiB_i Я пытался доказать это, кто-то может конкретизировать детали?

2
Что именно представляет собой альфа в распределении Дирихле?
Я довольно новичок в байесовской статистике, и я наткнулся на исправленную меру корреляции SparCC , которая использует процесс Дирихле в бэкэнде своего алгоритма. Я пытался пройтись по алгоритму шаг за шагом, чтобы действительно понять, что происходит, но я не уверен, что именно делает alphaпараметр вектора в распределении Дирихле и как …

3
Каково байесовское обоснование для анализа привилегий, проведенного раньше, чем другие анализы?
Предпосылки и эмпирический пример У меня есть два исследования; Я провел эксперимент (исследование 1), а затем повторил его (исследование 2). В исследовании 1 я обнаружил взаимодействие между двумя переменными; в исследовании 2 это взаимодействие было в том же направлении, но не значительным. Вот краткое изложение модели исследования 1: Coefficients: Estimate …
26 bayesian 

1
Связь между вариационным байесовским и ЭМ
Я где-то читал, что вариационный метод Байеса является обобщением алгоритма EM. Действительно, итерационные части алгоритмов очень похожи. Чтобы проверить, является ли алгоритм EM специальной версией Вариационного Байеса, я попробовал следующее: YYY - данные, - коллекция скрытых переменных, а - параметры. В вариационном байесовском преобразовании мы можем сделать такое приближение, что …

5
Запись в Википедии о вероятности кажется неоднозначной
У меня есть простой вопрос относительно «условной вероятности» и «вероятности». (Я уже рассмотрел этот вопрос здесь, но безрезультатно.) Это начинается со страницы Википедии о вероятности . Они говорят это: Вероятность набора значений параметров, & θθ\theta , учитывая исходы xxx , равна вероятности наблюдаемых результатов этих данных тех значения параметров, то …

3
Становятся ли байесовские априорные значения несущественными при большом размере выборки?
Выполняя байесовский вывод, мы действуем путем максимизации нашей функции правдоподобия в сочетании с имеющимися у нас априорами в отношении параметров. Поскольку логарифмическая правдоподобность более удобна, мы эффективно максимизируем используя MCMC или другим способом, который генерирует апостериорные распределения (используя pdf для каждый параметр предшествует и вероятность каждой точки данных).∑ln(prior)+∑ln(likelihood)∑ln⁡(prior)+∑ln⁡(likelihood)\sum \ln (\text{prior}) …
26 bayesian  prior 

7
Объединение вероятностей / информации из разных источников
Допустим, у меня есть три независимых источника, и каждый из них делает прогнозы погоды на завтра. Первый говорит, что вероятность дождя завтра равна 0, затем второй говорит, что вероятность равна 1, и, наконец, последний говорит, что вероятность составляет 50%. Я хотел бы знать общую вероятность, учитывая эту информацию. Если применить …

1
Эквивалентность наименьших квадратов и MLE в гауссовой модели
Я новичок в машинном обучении и пытаюсь научиться этому сам. Недавно я читал некоторые конспекты лекций и у меня возник основной вопрос. Слайд 13 говорит, что «Оценка по методу наименьших квадратов такая же, как и оценка максимального правдоподобия по гауссовой модели». Кажется, это что-то простое, но я не могу этого …

2
Правда ли, что байесовские методы не подходят больше?
Правда ли, что байесовские методы не подходят больше? (Я видел некоторые документы и учебные пособия, делающие это утверждение) Например, если мы применяем гауссовский процесс к MNIST (классификация рукописных цифр), но показываем только одну выборку, будет ли он возвращаться к предыдущему распределению для любых входных данных, отличных от этой одной выборки, …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.