Вопросы с тегом «residuals»

Остатки модели - это фактические значения за вычетом прогнозных значений. Многие статистические модели делают предположения об ошибке, которая оценивается по остаткам.

1
Какой тип анализа остатков после подгонки вы используете?
При проведении множественной линейной регрессии OLS, вместо того, чтобы вычерчивать невязки относительно подгоночных значений, я строю (внутренние) вычеркнутые невязки против подгоночных значений (то же самое для ковариат). Эти остатки определены как: e∗i=eis2(1−hii)−−−−−−−−−√ei∗=eis2(1−hii)\begin{equation} e^*_i = \frac{e_i}{\sqrt{s^2 (1-h_{ii})}} \end{equation} где - остаток, а - диагональные элементы шляпной матрицы. Чтобы получить эти изученные …

2
Почему мы используем остатки для проверки предположений об ошибках в регрессии?
Предположим, что у нас есть модель .Yя= β0+ β1Икся 1+ β2Икся 2+ ⋯ + βКИкся к+ ϵяYязнак равноβ0+β1Икся1+β2Икся2+⋯+βКИксяК+εяY_i = \beta_0 + \beta_1X_{i1} + \beta_2X_{i2} + \dots + \beta_kX_{ik} + \epsilon_i Регрессия имеет ряд допущений, например, что ошибки должны обычно распределяться со средним нулем и постоянной дисперсией. Меня учили проверять эти …

1
Разница между выбросами и выбросами
Я наткнулся на термин inlier в показателе LOF (Local Outlier Factor), я знаком с термином выбросов (ну в основном лжи - экземпляры, которые не ведут себя как остальные экземпляры). Что означает «Inliers» в контексте обнаружения аномалий? и как это связано с (отличными от) выбросами?

1
Является ли стандартизированные остатки v / s стандартизированных остатков в модели ЛМ
Являются ли «изученные остатки» и «стандартизированные остатки» одинаковыми в регрессионных моделях? Я построил модель линейной регрессии в R и хотел построить график Studentized Остатки v / s, подобранные значения, но не нашел автоматизированный способ сделать это в R. Предположим, у меня есть модель library(MASS) lm.fit <- lm(Boston$medv~(Boston$lstat)) затем использование plot(lm.fit)не …

3
Начальная загрузка остатков: я делаю это правильно?
Прежде всего: Из того, что я понял, остатки начальной загрузки работают следующим образом: Подгоните модель к данным Рассчитать остатки Пересчитайте остатки и добавьте их к 1. Подгоните модель к новому набору данных из 3. Повторите nвремя, но всегда добавляйте пересчитанные остатки к подгонке от 1. Пока это правильно? Я хочу …

2
Отклонение влево относительно симметричного распределения наблюдается
Это довольно сложно описать, но я постараюсь сделать мою проблему понятной. Итак, сначала вы должны знать, что я до сих пор делал очень простую линейную регрессию. Прежде чем я оценил коэффициент, я наблюдал распределение моего . Тяжело уклонено. После того, как я оценил модель, я был вполне уверен, что наблюдал …

3
Регрессия остатков логистической регрессии на других регрессорах
С помощью регрессии OLS, применяемой к непрерывному отклику, можно построить уравнение множественной регрессии, последовательно выполняя регрессии остатков в каждом ковариате. У меня вопрос, есть ли способ сделать это с помощью логистической регрессии через остатки логистической регрессии ? Pr(Y=1|x,z)Pr(Y=1|x,z)\Pr(Y = 1 | x, z)xxxR1R1R_1R1R1R_1zzz

4
Можно ли разложить подогнанные остатки на отклонения и отклонения после подгонки линейной модели?
Я хотел бы классифицировать точки данных как нуждающиеся в более сложной модели или не требующие более сложной модели. Мое текущее мышление состоит в том, чтобы подогнать все данные к простой линейной модели и наблюдать размер остатков, чтобы сделать эту классификацию. Затем я немного прочитал о влиянии смещения и дисперсии на …

2
Как остатки связаны с основными нарушениями?
В методе наименьших квадратов мы хотим оценить неизвестные параметры в модели: YJ= α + βИксJ+ εJ( j = 1 ... n )YJзнак равноα+βИксJ+εJ(Jзнак равно1 ...N)Y_j = \alpha + \beta x_j + \varepsilon_j \enspace (j=1...n) Как только мы это сделаем (для некоторых наблюдаемых значений), мы получим подогнанную линию регрессии: YJ= α^+ …

2
Почему остатки Пирсона из отрицательной биномиальной регрессии меньше, чем из пуассоновской регрессии?
У меня есть эти данные: set.seed(1) predictor <- rnorm(20) set.seed(1) counts <- c(sample(1:1000, 20)) df <- data.frame(counts, predictor) Я провел пуассоновскую регрессию poisson_counts <- glm(counts ~ predictor, data = df, family = "poisson") И отрицательная биноминальная регрессия: require(MASS) nb_counts <- glm.nb(counts ~ predictor, data = df) Затем я рассчитал для …

1
Почему корреляция остатков не имеет значения при тестировании на нормальность?
Когда (то есть Y происходит из модели линейной регрессии), ε ∼ N ( 0 , σ 2 I )Y= A X+ εY=AX+εY = AX + \varepsilonYYY И в этом случае невязок е 1 , ... , е п коррелируют и ненезависимыми. Но когда мы делаем регрессионную диагностику и хотим проверить …

2
Корреляция между категориями между категориальными номинальными переменными
У меня есть набор данных с двумя категориальными номинальными переменными (обе с 5 категориями). Я хотел бы знать, если (и как) я могу определить потенциальные корреляции между категориями из этих двух переменных. Другими словами, показывают ли, например, результаты категории в переменной 1 сильную корреляцию с определенной категорией j в переменной …

4
Когда использовать непараметрическую регрессию?
Я использую PROC GLM в SAS, чтобы соответствовать уравнению регрессии следующего вида Y=b0+b1X1+b2X2+b3X3+b4tY=b0+b1X1+b2X2+b3X3+b4t Y = b_0 + b_1X_1 + b_2X_2 + b_3X_3 + b_4t График QQ результирующих остатков указывает на отклонение от нормы. Любое преобразование бесполезно для нормализации остатков.YYY На этом этапе я могу безопасно переключиться на непараметрические методы, такие …

1
Как понять стандартизированный остаток в регрессионном анализе?
Согласно регрессионному анализу на примере , остаток представляет собой разницу между откликом и прогнозируемым значением, тогда говорят, что каждый остаток имеет различную дисперсию, поэтому нам нужно рассмотреть стандартизированные остатки. Но дисперсия относится к группе значений, как одно значение может иметь дисперсию?

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.