Вопросы с тегом «normality-assumption»

Многие статистические методы предполагают, что данные обычно распределяются. Используйте этот тег для вопросов о допущении и проверке нормальности или о нормальности как * свойство *. Используйте [normal-distribution] для вопросов о нормальном распределении как таковом.

2
Можем ли мы увидеть форму нормальной кривой где-нибудь в природе?
Я не хочу знать, имеют ли некоторые явления в природе нормальное распределение, но можем ли мы где-нибудь увидеть форму нормальной кривой, как мы можем видеть это, например, в рамке Гальтона. Смотрите эту фигуру из Википедии. Обратите внимание, что многие математические формы или кривые непосредственно видны в природе, например, золотая середина …

4
Трансформация для увеличения эксцесса и асимметрии нормального течения
Я работаю над алгоритмом, который основан на том факте, что наблюдения s обычно распределяются, и я хотел бы проверить надежность алгоритма в этом предположении эмпирически.YYY Чтобы сделать это, я искал последовательность преобразований , которые постепенно разрушают нормальности . Например, если нормальны, они имеют асимметрию и kurtosis , и было бы …

4
Каковы правильные значения для точности и отзыва в крайних случаях?
Точность определяется как: p = true positives / (true positives + false positives) Является ли это исправить , что, как true positivesи false positivesподход 0, точность приближается к 1? Тот же вопрос для отзыва: r = true positives / (true positives + false negatives) В настоящее время я выполняю статистический …
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 

3
Пример распределения, где большой размер выборки необходим для центральной предельной теоремы
Некоторые книги утверждают , образец размер размер 30 или выше , необходимо для центральной предельной теоремы , чтобы дать хорошее приближение для X¯X¯\bar{X} . Я знаю, что этого недостаточно для всех дистрибутивов. Я хотел бы увидеть некоторые примеры распределений, где даже при большом размере выборки (возможно, 100 или 1000 или …

2
Как проверить различия между двумя групповыми средствами, когда данные обычно не распределяются?
Я исключу все биологические детали и эксперименты и укажу только проблему и то, что я сделал статистически. Я хотел бы знать, если это правильно, и если нет, как действовать. Если данные (или мое объяснение) недостаточно ясны, я постараюсь объяснить лучше, отредактировав. Предположим, у меня есть две группы / наблюдения, X …

4
Что является основанием для определения выброса по Боксу и Вискеру?
Стандартным определением выброса для графика Бокса и Вискера являются точки вне диапазона , где I Q R = Q 3 - Q 1, а Q 1 - первый квартиль и Q 3 - третий квартиль данных.{Q1−1.5IQR,Q3+1.5IQR}{Q1−1.5IQR,Q3+1.5IQR}\left\{Q1-1.5IQR,Q3+1.5IQR\right\}IQR=Q3−Q1IQR=Q3−Q1IQR= Q3-Q1Q1Q1Q1Q3Q3Q3 На чем основано это определение? При большом количестве точек даже совершенно нормальное распределение …

1
Почему мы предполагаем, что ошибка обычно распространяется?
Интересно, почему мы используем предположение Гаусса при моделировании ошибки. В курсе ML Стэнфорда профессор Нг описывает его в основном двумя способами: Это математически удобно. (Это связано с подходом наименьших квадратов и легко решается псевдообратным) Из-за центральной предельной теоремы мы можем предположить, что на процесс влияют многие основные факты, и сумма …

2
Почему F-критерий так чувствителен к предположению о нормальности?
Почему F- критерий для различия в разнице так чувствителен к предположению о нормальном распределении, даже для большого NNN ? Я пытался искать в Интернете и посещал библиотеку, но ни один из них не дал хороших ответов. Это говорит о том, что тест очень чувствителен к нарушению предположения о нормальном распределении, …

5
Как распределение выборки означает, что выборка приближается к средней численности населения?
Я пытаюсь изучать статистику, потому что я нахожу, что она настолько распространена, что запрещает мне изучать некоторые вещи, если я не понимаю ее должным образом. У меня возникли проблемы с пониманием этого понятия выборочного распределения средних значений. Я не могу понять, как некоторые книги и сайты объясняют это. Я думаю, …

2
Повторные измерения ANOVA: каково предположение о нормальности?
Меня смущает предположение о нормальности при повторных измерениях ANOVA. В частности, мне интересно, какие именно нормы должны быть соблюдены. Читая литературу и ответы на резюме, я натолкнулся на три разные формулировки этого предположения. Зависимая переменная внутри каждого (повторного) условия должна распределяться нормально. Часто утверждается, что у RANOVA те же предположения, …

1
R: проверить нормальность остатков линейной модели - какие остатки использовать
Я хотел бы сделать W-тест Шапиро Уилка и тест Колмогорова-Смирнова на невязках линейной модели, чтобы проверить на нормальность. Мне было просто интересно, какие остатки следует использовать для этого - необработанные остатки, остатки Пирсона, студентизированные остатки или стандартизированные остатки? Для теста W Шапиро-Уилка кажется, что результаты для неочищенных и остатков Пирсона …

1
Пакет GBM против Карет с использованием GBM
Я занимался настройкой модели caret, но затем перезапустил модель, используя gbmпакет. Насколько я понимаю, caretпакет использует gbmи вывод должен быть одинаковым. Тем не менее, только быстрый запуск теста data(iris)показывает несоответствие в модели около 5% с использованием RMSE и R ^ 2 в качестве метрики оценки. Я хочу найти оптимальную производительность …

2
Отклонение от нормального предположения в ANOVA: куртоз или асимметрия важнее?
Прикладные линейные статистические модели Kutner et al. утверждает следующее относительно отклонений от предположения нормальности моделей ANOVA: Куртоз распределения ошибок (более или менее достигший максимума, чем нормальное распределение) является более важным, чем асимметрия распределения с точки зрения влияния на выводы . Я немного озадачен этим утверждением и не смог найти никакой …

1
Почему бы не всегда использовать загрузочные CI?
Мне было интересно, как загрузочные CI (и BCa в barticular) работают на нормально распределенных данных. Похоже, что было проделано много работы по изучению их производительности в различных типах дистрибутивов, но ничего не удалось найти в нормально распределенных данных. Поскольку кажется очевидным, что изучать в первую очередь, я полагаю, что бумаги …

5
Как выполнить вменение значений в очень большом количестве точек данных?
У меня очень большой набор данных и около 5% случайных значений отсутствуют. Эти переменные связаны друг с другом. В следующем примере набор данных R - просто игрушечный пример с фиктивными коррелированными данными. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), ncol = 10000) colnames(xmat) <- …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.