Вопросы с тегом «frequentist»

В частом подходе к выводу статистические процедуры оцениваются по их эффективности в течение гипотетического длительного повторения процесса, который, как считается, породил данные.

6
Байесовский против частых интерпретаций вероятности
Может ли кто-нибудь дать краткое изложение различий между байесовским и частотным подходом к вероятности? Из того, что я понимаю: Представление «частые лица» состоит в том, что данные представляют собой воспроизводимую случайную выборку (случайную переменную) с определенной частотой / вероятностью (которая определяется как относительная частота события, когда число испытаний приближается к …

5
Работают ли работающие статистики о разнице между частыми и байесовскими выводами?
Как аутсайдер, кажется, что есть два конкурирующих взгляда на то, как следует выполнять статистический вывод. Являются ли эти два разных метода приемлемыми для работающих статистиков? Является ли выбор одного более важным философским вопросом? Или текущая ситуация считается проблематичной и предпринимаются попытки каким-то образом объединить различные подходы?

5
Думайте как байесовский, проверяйте как частый человек: что это значит?
Я смотрю на слайды лекций по курсу науки о данных, которые можно найти здесь: https://github.com/cs109/2015/blob/master/Lectures/01-Introduction.pdf Я, к сожалению, не вижу видео для этой лекции, и в какой-то момент на слайде у докладчика есть следующий текст: Некоторые ключевые принципы Думай как байесовский, проверяй как частый (примирение) Кто-нибудь знает, что это на …

8
Должен ли я учить байесовской или частой статистике в первую очередь?
Я помогаю своим мальчикам, которые в настоящее время учатся в старших классах, разбираться в статистике, и я собираюсь начать с нескольких простых примеров, не забывая о проблесках теории. Моя цель состояла бы в том, чтобы дать им наиболее интуитивный, но в то же время инструментальный подход к изучению статистики с …

5
Что доверительные интервалы говорят о точности (если что-нибудь)?
Морей и др. (2015) утверждают, что доверительные интервалы вводят в заблуждение, и существует много предубеждений, связанных с их пониманием. Среди прочего, они описывают ошибку точности следующим образом: Ошибка точности Ширина доверительного интервала указывает на точность наших знаний о параметре. Узкие доверительные интервалы показывают точное знание, в то время как большие …

5
Как работать с иерархическими / вложенными данными в машинном обучении
Я объясню мою проблему на примере. Предположим, вы хотите предсказать доход человека с учетом некоторых атрибутов: {Возраст, Пол, Страна, Регион, Город}. У вас есть тренировочный набор данных, как так train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", "M","F","M","F", "F","F","F","M")), Income=c(31,42,71,65, 50,51,101,38, 47,50,55,23)) train …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 


3
Есть ли разница между частотой и байесовской оценкой правдоподобия?
Некоторые источники говорят, что функция правдоподобия не является условной вероятностью, некоторые говорят, что это так. Это очень смущает меня. Согласно большинству источников, которые я видел, вероятность распределения с параметром должна быть произведением функции вероятности массы, учитывая выборок :θθ\thetax innnxixix_i L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(\theta) = L(x_1,x_2,...,x_n;\theta) = \prod_{i=1}^n p(x_i;\theta) Например, в логистической регрессии мы …

4
Каковы правильные значения для точности и отзыва в крайних случаях?
Точность определяется как: p = true positives / (true positives + false positives) Является ли это исправить , что, как true positivesи false positivesподход 0, точность приближается к 1? Тот же вопрос для отзыва: r = true positives / (true positives + false negatives) В настоящее время я выполняю статистический …
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 

5
Когда вы можете использовать критерии на основе данных для определения регрессионной модели?
Я слышал, что когда многие спецификации регрессионных моделей (скажем, в OLS) рассматриваются как возможности для набора данных, это вызывает многочисленные проблемы сравнения, а значения p и доверительные интервалы перестают быть надежными. Одним из крайних примеров этого является ступенчатая регрессия. Когда я могу использовать сами данные, чтобы помочь определить модель, и …

2
Что является / является неявным приоритетом в статистике частых посещений?
Я слышал, что Джейнс утверждает, что часто работающие работают с «неявным априором». Каковы или являются эти неявные приоры? Означает ли это, что модели для частых - все это особые случаи байесовских моделей, которые ждут своего появления?

2
Почему оценка максимального правдоподобия считается частой техникой
Статистика для меня - это синоним попытки принять решение, подходящее для всех возможных выборок. Т.е., правило принятия решений для частых всегда должно пытаться свести к минимуму частый риск, который зависит от функции потерь и истинного состояния природы :L θ 0δδ\deltaLLLθ0θ0\theta_0 Rfreq=Eθ0(L(θ0,δ(Y))Rfreq=Eθ0(L(θ0,δ(Y))R_\mathrm{freq}=\mathbb{E}_{\theta_0}(L(\theta_0,\delta(Y)) Как оценка максимального правдоподобия связана с частым риском? Учитывая, …

2
Если принцип правдоподобия вступает в противоречие с вероятностной вероятностью, тогда отбрасываем ли мы один из них?
В комментарии, недавно размещенном здесь, один комментатор указал на блог Ларри Вассермана, который указывает (без каких-либо источников), что частые выводы противоречат принципу вероятности. Принцип правдоподобия просто говорит о том, что эксперименты, дающие сходные функции правдоподобия, должны давать аналогичные выводы. Две части к этому вопросу: Какие части, вкус или школа частых …

3
Является ли байесовская статистика подлинным улучшением по сравнению с традиционной (частой) статистикой поведенческих исследований?
Во время участия в конференциях сторонники байесовской статистики немного подталкивали к оценке результатов экспериментов. Он хвалится как более чувствительный, уместный и избирательный по отношению к подлинным результатам (меньше ложных срабатываний), чем статистика по частоте. Я немного изучил эту тему, и до сих пор меня не убеждают преимущества использования байесовской статистики. …

4
Когда байесовские методы предпочтительнее, чем Frequentist?
Я действительно хочу узнать о методах Байеса, поэтому я пытался немного научить себя. Тем не менее, мне трудно понять, когда использование байесовских методов дает преимущество перед методами Frequentist. Например: я видел в литературе немного о том, как некоторые используют информативные приоры, в то время как другие используют неинформативные априорные. Но …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.