Отношения между и : ; & epsiε^ε
ε^= ( Я- H) ε
где , матрица шляпы, является .X ( X T X ) - 1 X TЧАСИкс( ХTИкс)- 1ИксT
То есть - это линейная комбинация всех ошибок, но обычно большая часть веса приходится на ую.яε^яя
Вот пример использования cars
набора данных в R. Рассмотрим точку, отмеченную фиолетовым:
Давайте назовем это пунктом . Остаток, , где для других ошибок находится в области -0,02:ε я ≈ 0,98 ε я + Σ J ≠ я ж J ε J ш Jяε^я≈ 0,98 εя+ ∑J ≠ явесJεJвесJ
Мы можем переписать это как:
ε^я≈ 0,98 εя+ ηя
или в более общем плане
ε^я= ( 1 - чя я) εя+ ηя
где является -й диагональный элемент . Точно так же, выше - это .чася яяЧАСвесJчася ж
Если ошибки имеют значение то в этом примере взвешенная сумма этих других ошибок будет иметь стандартное отклонение, соответствующее примерно 1/7 влияния ошибки го наблюдения на ее остаток ,N( 0 , σ2)я
То есть, в регрессиях с хорошим поведением остатки в большинстве случаев можно рассматривать как умеренно шумную оценку ненаблюдаемого члена ошибки. По мере того, как мы рассматриваем точки дальше от центра, все работает несколько менее красиво (остаток становится менее взвешенным для ошибки, а веса для других ошибок становятся менее равномерными).
Со многими параметрами, или с , не так хорошо распределенными, остатки могут быть намного меньше как ошибки. Вы можете попробовать несколько примеров.Икс