Вопросы с тегом «residuals»

Остатки модели - это фактические значения за вычетом прогнозных значений. Многие статистические модели делают предположения об ошибке, которая оценивается по остаткам.

3
Средняя квадратическая ошибка и остаточная сумма квадратов
Глядя на определения Википедии: Средняя квадратическая ошибка (MSE) Остаточная сумма квадратов (RSS) Мне кажется, что MSE = 1NRSS = 1N∑ ( фя- уя)2MSE=1NRSS=1N∑(fi−yi)2\text{MSE} = \frac{1}{N} \text{RSS} = \frac{1}{N} \sum (f_i -y_i)^2 где - это количество выборок, а - наша оценка .NNNеяfif_iYяyiy_i Тем не менее, ни одна из статей Википедии не …
31 residuals  mse 

2
Необработанные остатки по сравнению со стандартизованными остатками по сравнению со студентизированными остатками - что использовать, когда?
Это похоже на похожий вопрос и не получил много ответов. Пропуская такие тесты, как D Кука, и просто рассматривая остатки как группу, мне интересно, как другие используют остатки при оценке пригодности. Я использую сырые остатки: в QQ-сюжете, для оценки нормальности на диаграмме рассеяния сравнению с остатками для проверки глазного яблока …

1
Могут ли степени свободы быть нецелым числом?
Когда я использую GAM, он дает мне остаточный DF, (последняя строка в коде). Что это значит? Выходя за рамки примера GAM, в общем, может ли число степеней свободы быть нецелым числом?26,626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

3
Что я должен проверить на нормальность: необработанные данные или остатки?
Я узнал, что должен проверять нормальность не на необработанных данных, а на их остатках. Должен ли я рассчитать невязки, а затем пройти тест Шапиро – Вилка? Рассчитываются остатки как: ?Xi−meanXi−meanX_i - \text{mean} Пожалуйста, посмотрите этот предыдущий вопрос для моих данных и дизайна.

5
Какова ожидаемая корреляция между остаточной и зависимой переменной?
При множественной линейной регрессии я могу понять, что корреляции между остатком и предикторами равны нулю, но какова ожидаемая корреляция между остатком и переменной критерия? Должно ли оно быть нулевым или сильно коррелированным? Что это значит?

2
Диагностика для обобщенных линейных (смешанных) моделей (особенно остатков)
В настоящее время я пытаюсь найти подходящую модель для сложных данных подсчета (зависимая переменная). Я пробовал различные модели (модели смешанных эффектов необходимы для моего вида данных), такие как lmerи lme4(с лог-преобразованием), а также обобщенные линейные модели смешанных эффектов с различными семействами, такими как гауссовский или отрицательный бином. Тем не менее, …

5
Допущения о линейных моделях и что делать, если остатки не распределены нормально
Я немного запутался в предположениях о линейной регрессии. До сих пор я проверял: все объясняющие переменные линейно коррелировали с переменной отклика. (Это было так) была какая-то коллинеарность среди объясняющих переменных. (была небольшая коллинеарность). расстояния Кука точек данных моей модели ниже 1 (в этом случае все расстояния ниже 0,4, поэтому нет …

2
Почему нормальность остатков «едва важна вообще» для оценки линии регрессии?
Гельман и Хилл (2006) пишут на стр. 46, что: Предположение регрессии, которое обычно наименее важно, состоит в том, что ошибки обычно распределяются. Фактически, для оценки линии регрессии (по сравнению с прогнозированием отдельных точек данных) предположение о нормальности едва ли вообще важно. Таким образом, в отличие от многих учебников по регрессии, …

1
Остаточная диагностика в регрессионных моделях на основе MCMC
Недавно я приступил к подгонке регрессионно-смешанных моделей в байесовской структуре, используя алгоритм MCMC (функция MCMCglmm в R на самом деле). Я полагаю, что я понял, как диагностировать сходимость процесса оценки (след, график Гьюке, автокорреляция, апостериорное распределение ...). Одна из вещей, которая поражает меня в байесовской структуре, - это то, что …

2
В простой линейной регрессии, откуда берется формула для дисперсии остатков?
Согласно тексту, который я использую, формула для дисперсии остатка определяется как:ithithi^{th} σ2(1−1n−(xi−x¯¯¯)2Sxx)σ2(1−1n−(xi−x¯)2Sxx)\sigma^2\left ( 1-\frac{1}{n}-\frac{(x_{i}-\overline{x})^2}{S_{xx}} \right ) Я нахожу это трудно поверить , так как остаточная разница между наблюдаемым значением и подогнанной значения; если бы вычислить дисперсию разницы, по крайней мере я бы ожидал некоторых «плюсов» в результирующем выражении. Любая помощь …

2
Как работают узкие места в нейронных сетях?
Мы определяем архитектуру узких мест как тип, найденный в статье ResNet, где [два конвексных слоя 3x3] заменяются на [один конв 1x1, один конв 3x3 и еще один слой конвекс 1x1]. Я понимаю, что конвексные слои 1x1 используются как форма уменьшения размеров (и восстановления), что объясняется в другом посте . Однако …

1
Сэндвич оценщик интуиции
Википедия и виньетка R-сэндвич-пакетов дают хорошую информацию о допущениях, подтверждающих стандартные ошибки коэффициента OLS, и математических основах сэндвич-оценок. Мне все еще неясно, как решается проблема гетероскедастичности остатков, возможно потому, что я не совсем понимаю стандартную оценку дисперсии коэффициентов OLS. Какова интуиция за сэндвич-оценщиком?

2
Остаточные графики: почему график в зависимости от установленных значений, а не наблюдаемых значений
В контексте регрессии OLS я понимаю, что остаточный график (в сравнении с установленными значениями) обычно рассматривается для проверки на постоянную дисперсию и оценки спецификации модели. Почему остатки отображаются в зависимости от подгонки, а не от значений ? Как информация отличается от этих двух графиков?YYY Я работаю над моделью, которая произвела …


4
Как оценить подгонку биномиального GLMM с lme4 (> 1,0)?
У меня есть GLMM с биномиальным распределением и функцией logit link, и у меня есть ощущение, что важный аспект данных недостаточно хорошо представлен в модели. Чтобы проверить это, я хотел бы знать, хорошо ли данные описываются линейной функцией на шкале логита. Следовательно, я хотел бы знать, хорошо ли ведут себя …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.