Почему остатки в линейной регрессии всегда суммируются до нуля, когда включен перехват?


14

Я беру курс по моделям регрессии, и одно из свойств, предусмотренных для линейной регрессии, заключается в том, что при включении перехвата остатки всегда суммируются до нуля.

Кто-нибудь может дать хорошее объяснение, почему это так?


3
Вы могли бы сначала подумать о тесно связанном, но более простом вопросе о том, почему в одномерной выборке остатки, которые вы получаете, вычитая среднее значение выборки из каждого значения, также суммируют до 0. (Попробуйте, если можете, следовать алгебре.)
Glen_b - Восстановите Монику

3
Как только вы осознаете, что «сумма к нулю» означает «ортогональный одной из объясняющих переменных», ответ становится геометрически очевидным.
whuber

Ответы:


18

Это следует непосредственно из нормальных уравнений, то есть уравнений, которые решает оценщик OLS,

X(yXb)e=0

Вектор внутри скобок - это, конечно, остаточный вектор или проекция на ортогональное дополнение пространства столбцов , если вам нравится линейная алгебра. Теперь включение вектора единиц в матрицу , которая, кстати, не обязательно должна быть в первом столбце, как это обычно делается, приводит к х хyXX

1e=0i=1nei=0

В задаче с двумя переменными это еще проще увидеть, поскольку минимизация суммы квадратов невязок приводит нас к

i=1n(yiabxi)=0

когда мы берем производную по пересечению. Отсюда мы приступаем к получению знакомой оценки

a=y¯bx¯

где снова мы видим, что построение наших оценок накладывает это условие.


17

В случае, если вы ищете довольно интуитивное объяснение.

В некотором смысле модель линейной регрессии - не что иное, как причудливое среднее. Чтобы найти среднее арифметическое по некоторым значениям , мы находим значение, которое является мерой центральности в том смысле, что сумма всех отклонений (где каждое отклонение определяется как ) справа от среднего значения равны сумме всех отклонений слева от этого среднего. Нет никакой внутренней причины, почему эта мера хороша, не говоря уже о лучшем способе описания среднего значения выборки, но она, безусловно, интуитивно понятна и практична. Важным моментом является то, что, определяя таким образом среднее арифметическое, из этого обязательно следует, что, как только мы построим среднее арифметическое, все отклонения от этого среднего значения должны быть равны нулю по определению!x¯x1,x2,,xnui=xix¯

В линейной регрессии это ничем не отличается. Мы подходите линии таким образом, чтобы сумма всех различий между нашими подобранными значениями (которые находятся на линии регрессии) и фактических значений, которые выше линии в точности равна сумме всех различий между линией регрессии и все значения ниже линия. Опять же, нет никакой внутренней причины, почему это лучший способ построить подгонку, но она проста и интуитивно привлекательна. Как и в случае среднего арифметического: при построении подобранных значений таким образом, по построению обязательно следует, что все отклонения от этой линии должны суммироваться до нуля, иначе это просто не будет повторением OLS.


2
+1 за простой, простой и интуитивно понятный ответ!

Отличное объяснение, но я не уверен: «Опять же, нет никакой внутренней причины, почему это лучший способ построить подгонку, но она проста и интуитивно привлекательна». это точно. Из теоремы Гаусса-Маркова хорошо известно, что оценки МНК являются СИНИМИ: наилучшие (с минимальной дисперсией) линейные несмещенные оценки (при условии, что предположения выполнены). Часто наши интуитивные «чувства» по поводу того, что является привлекательным / разумным, также подтверждаются математически, как в данном случае.
Мэг

3

Когда перехват включен в множественную линейную регрессию, В регрессии наименьших квадратов сумма квадратов ошибок сведена к минимуму. Возьмите частичное производная от SSE по отношению к и установка его в ноль.

y^i=β0+β1xi,1+β2xi,2++βpxi,p
I
SSE=i=1n(ei)2=i=1n(yiyi^)2=i=1n(yiβ0β1xi,1β2xi,2βpxi,p)2
β0
SSEβ0=i=1n2(yiβ0β1xi,1β2xi,2βpxi,p)1(1)=2i=1nei=0
Следовательно, остатки всегда суммируются до нуля, когда перехват включен в линейную регрессию.


1

Ключевое наблюдение состоит в том, что, поскольку модель имеет точку пересечения, , который является первым столбцом проектной матрицы , можно записать как где - вектор столбца со всеми нулями, кроме первого компонента. Также обратите внимание, что в матричной записи сумма остатков равна всего .1X

1=Xe,
e1T(yy^)

Следовательно,

1T(yy^)=1T(IH)y=eTXT(IX(XTX)1XT)y=eT(XTXTX(XTX)1XT)y=eT(XTXT)y=0.


0

Простой вывод с использованием матричной алгебры:

e можно записать как1Te

потом

1Te=1T(Mxy) где - ортогональная матрица. Поскольку является симметричным, мы можем переставить так, чтобы MxMx(Mx1)Ty

который равен нулю, если и ортогональны, что имеет место, если матрица регрессоров содержит (действительно, вектор ). 1 х 1Mx1x1


Я не думаю, что это правильно.
Майкл Р. Черник,

Если ты объяснишь почему, тогда я буду рад чему-то научиться
Мино

0
  1. ei=yi[1,X][a,b]=yiXba=via
  2. ddaei2ei1=via=0 soa^=1nvi
  3. ei=ivia=ivinnivi=0

..

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.