Да, ковариационная матрица всех переменных - объяснительная и ответная - содержит информацию, необходимую для нахождения всех коэффициентов, при условии, что в модель включен член пересечения (постоянный). (Хотя ковариации не дают информации о постоянном члене, его можно найти из данных.)
Анализ
Пусть данные для пояснительных переменных быть расположены как - мерные векторы - столбцы и переменной отклика быть вектор - столбец , считается реализация случайной величины . Обычные наименьшие квадраты оценивают коэффициентов в моделих 1 , х 2 , ... , х р у Y βNИкс1, х2, … , ХпYYβ^
E(Y)=α+Xβ
получены путем сборки векторов столбцов в массив и решения системы линейных уравненийX 0 = ( 1 , 1 , … , 1 ) ′ , X 1 , … , X p n × p + 1 Xp+1X0=(1,1,…,1)′,X1,…,Xpn×p+1X
X′Xβ^=X′y.
Это эквивалентно системе
1nX′Xβ^=1nX′y.
Устранение Гаусса решит эту систему. Это происходит путем присоединения матрицы и -вектора в массив и сокращение строки. 1p+1×p+1p+111nX′Xp+1p+1×p+2A1nX′yp+1×p+2A
Первым шагом будет проверка . Обнаружив, что это ненулевое значение, он начинает вычитать соответствующие кратные значения первой строки из оставшихся строк, чтобы обнулить оставшиеся записи в его первом столбце. Эти множители будут а число, вычтенное из записи будет равно . Это просто формула для ковариации и . Кроме того, число, оставленное в позиции равноA11n(X′X)11=1nX′0X0=1AAi+1,j+1=X ′ i Xj ¯ X i ¯1nX′0Xi=X¯¯¯¯iAi+1,j+1=X′iXjXiXji+1,p+21X¯¯¯¯iX¯¯¯¯jXiXji+1,p+2 Xiy1nX′iy−Xi¯¯¯¯¯¯y¯¯¯, ковариация с .Xiy
Таким образом, после первого шага исключения Гаусса система сводится к решению
Cβ^=(Cov(Xi,y))′
и, разумеется, поскольку все коэффициенты являются ковариациями, это решение можно найти из ковариационной матрицы всех переменных.
(Когда обратимо, решение можно записать как . Приведенные в этом вопросе формулы являются частными случаями этого, когда и Написание таких формул в явном виде будет становиться все более и более сложным по мере роста Кроме того, они уступают численным вычислениям, которые лучше всего выполнять путем решения системы уравнений, а не путем инвертирования матрицы )C - 1 ( Cov ( X i , y ) ) ′ p = 1 p = 2 p CCC−1(Cov(Xi,y))′p=1p=2pC
Постоянный член будет разницей между средним значением и средними значениями, предсказанными на основе оценок, .Й βyXβ^
пример
Для иллюстрации следующий R
код создает некоторые данные, вычисляет их ковариации и получает оценки коэффициента наименьших квадратов исключительно из этой информации. Он сравнивает их с оценками, полученными из оценки методом наименьших квадратов lm
.
#
# 1. Generate some data.
#
n <- 10 # Data set size
p <- 2 # Number of regressors
set.seed(17)
z <- matrix(rnorm(n*(p+1)), nrow=n, dimnames=list(NULL, paste0("x", 1:(p+1))))
y <- z[, p+1]
x <- z[, -(p+1), drop=FALSE];
#
# 2. Find the OLS coefficients from the covariances only.
#
a <- cov(x)
b <- cov(x,y)
beta.hat <- solve(a, b)[, 1] # Coefficients from the covariance matrix
#
# 2a. Find the intercept from the means and coefficients.
#
y.bar <- mean(y)
x.bar <- colMeans(x)
intercept <- y.bar - x.bar %*% beta.hat
Выходные данные показывают соответствие между двумя методами:
(rbind(`From covariances` = c(`(Intercept)`=intercept, beta.hat),
`From data via OLS` = coef(lm(y ~ x))))
(Intercept) x1 x2
From covariances 0.946155 -0.424551 -1.006675
From data via OLS 0.946155 -0.424551 -1.006675