В случае простой линейной регрессии вы можете получить оценку наименьших квадратов , что вам не нужно знать чтобы оценитьβ 1 = Σ ( х я - ˉ х ) ( у я - ˉ у )β 0 β 1
Предположим, у меня есть , как мне получить без оценки ? или это невозможно?β 1 β 2
В случае простой линейной регрессии вы можете получить оценку наименьших квадратов , что вам не нужно знать чтобы оценитьβ 1 = Σ ( х я - ˉ х ) ( у я - ˉ у )β 0 β 1
Предположим, у меня есть , как мне получить без оценки ? или это невозможно?β 1 β 2
Ответы:
Вывод в матричной записи
Начиная с , что на самом деле так же, как
все это сводится к minimzing :
Таким образом, минимизация дает нам:
e ′ e = ( y - X b ) ′ ( y - X b )
е ' е = у ' у - 2 б ' X ' у + б ' Х ' Х Ь
Последнее математическое условие, условие второго порядка для минимума требует, чтобы матрица была положительно определенной. Это требование выполняется, если имеет полный ранг.X
Более точный вывод, который проходит через все этапы в большей глубине, можно найти в http://economictheoryblog.com/2015/02/19/ols_estimator/
*
быть +
? Кроме того, не должно ли быть вместо чтобы размеры соответствовали? б N
Можно оценить только один коэффициент в множественной регрессии без оценки других.
Оценка получается путем удаления эффектов от других переменных и последующей регрессии остатков отношению к остаткам . Это объясняется и иллюстрируется. Как именно один контролирует другие переменные? и Как нормализовать (а) коэффициент регрессии? , Прелесть этого подхода в том, что он не требует исчисления, линейной алгебры, может быть визуализирован с использованием только двумерной геометрии, численно стабилен и использует только одну фундаментальную идею множественной регрессии: идею исключения (или «контроля за»). ) влияние одной переменной.x 2 y x 1
В данном случае множественная регрессия может быть выполнена с использованием трех обычных шагов регрессии:
Регресс на (без постоянного члена!). Пусть подгонка будет . Оценка: Поэтому остатки Геометрически, - это то, что осталось от после вычитания его проекции на .x 2 y = α y , 2 x 2 + δ α y , 2 = ∑ i y i x 2 iδ=y-αy,2x2. δух2
Регресс на (без постоянного члена). Пусть подгонка будет . Оценка составляетОстатки:Геометрически, - это то, что осталось от после вычитания его проекции на .
Регресс on (без постоянного члена). Это оценкаПодгонка будет . Геометрически, является компонентом (который представляет с ) в направлении (который представляет с ).
Обратите внимание, что не был оценен. Его легко можно восстановить из того, что было получено до сих пор (точно так же, как в обычном регрессионном случае легко получить из оценки наклона ). являются остатки для двухмерного регрессии на и .
Сильна параллель с обычной регрессией: шаги (1) и (2) являются аналогами вычитания средних в обычной формуле. Если вы позволите быть вектором единиц, вы фактически восстановите обычную формулу.
Это обобщает очевидным образом регрессию с более чем двумя переменными: для оценки , регрессии и отдельно для всех остальных переменных, а затем регрессии их остатков друг против друга. В этот момент ни один из других коэффициентов в множественной регрессии еще не был оценен.
Обычная оценка наименьших квадратов является линейной функцией переменной отклика . Проще говоря, оценка OLS коэффициентов, , может быть записана с использованием только зависимой переменной ( ) и независимых переменных ( ').
Чтобы объяснить этот факт для общей регрессионной модели, вам необходимо понять небольшую линейную алгебру. Предположим, вы хотите оценить коэффициенты в модели множественной регрессии,
где для . Матрица проектирования представляет собой матрицу где каждый столбец содержит наблюдений зависимой переменной . Вы можете найти много объяснений и выкладок здесь формул используются для расчета оценки коэффициентов , чтоя = 1 , . , , , n X n × k n k t h X k
предполагая, что существует обратное . Расчетные коэффициенты являются функциями данных, а не других расчетных коэффициентов.
Небольшое небольшое замечание о теории и практике. Математически можно оценить по следующей формуле:
где - исходные входные данные, а - переменная, которую мы хотим оценить. Это следует из минимизации ошибки. Я докажу это, прежде чем высказать небольшое практическое замечание.
Пусть - ошибка, которую линейная регрессия совершает в точке . Затем:
Общая квадратичная ошибка, которую мы делаем сейчас:
Поскольку у нас есть линейная модель, мы знаем, что:
Который может быть переписан в матричной записи как:
Мы знаем это
Мы хотим минимизировать общую квадратную ошибку, чтобы следующее выражение было как можно меньше
Это равно:
Переписывание может показаться запутанным, но это следует из линейной алгебры. Обратите внимание, что матрицы ведут себя подобно переменным, когда мы умножаем их в некоторых отношениях.
Мы хотим найти значения , чтобы это выражение было как можно меньше. Нам нужно будет дифференцировать и установить производную равной нулю. Здесь мы используем цепное правило.
Это дает:
Так, что в конечном итоге:
Математически мы, кажется, нашли решение. Однако есть одна проблема, которая заключается в том, что очень трудно вычислить, если матрица очень очень большая. Это может привести к проблемам с числовой точностью. Другой способ найти оптимальные значения для в этой ситуации - использовать метод градиентного спуска. Функция, которую мы хотим оптимизировать, является неограниченной и выпуклой, поэтому мы также будем использовать метод градиента на практике, если это будет необходимо.
Простой вывод можно сделать, просто используя геометрическую интерпретацию LR.
Линейный регрессионный можно интерпретировать как проекции на колонку пространства . Таким образом, ошибка, ортогонален к колонке пространства .
Следовательно, внутреннее произведение между и ошибкой должно быть 0, т.е.
Что подразумевает это,
.
Теперь то же самое можно сделать:
(1) Проецирование на (ошибка ), ,
(2) Проецирование на (ошибка ), ,
и наконец,
(3) Проецирование на ,