Коэффициент множественной линейной регрессии и частичная корреляция напрямую связаны и имеют одинаковое значение (значение p). Частичное r - это еще один способ стандартизации коэффициента, наряду с коэффициентом бета (стандартизированный коэффициент регрессии) . Итак, если зависимой переменной является а независимыми являются и то у х 1 х 21YИкс1Икс2
Бета:βИкс1= гYИкс1- рYИкс2рИкс1Икс21 - р2Икс1Икс2
Частичное р:рYИкс1, Икс2= гYИкс1- рYИкс2рИкс1Икс2( 1 - р2YИкс2) ( 1 - р2Икс1Икс2)----------------√
Вы видите , что числители те же , которые говорят , что обе формулы измеряют один и тот же уникальный эффект от . Я попытаюсь объяснить, как две формулы структурно идентичны, и как они не являются.Икс1
Предположим, что вы z-стандартизировали (среднее значение 0, дисперсия 1) все три переменные. Числитель тогда равен ковариации между двумя видами остатков : (a) остатки, оставшиеся при прогнозировании по [стандарт обеих переменных], и (b) остатки, оставшиеся при прогнозировании по [стандарт обеих переменных]. Кроме того, дисперсия остатков (a) равна ; дисперсия остатков (b) равна .х 2 х 1 х 2 1 - г 2 у х 2 1 - г 2 х 1 х 2YИкс2Икс1Икс21 - р2YИкс21 - р2Икс1Икс2
Формула для частичной корреляции тогда ясно представляется формулой простого Пирсона , который вычисляется в данном случае между остатками (a) и остатками (b): мы знаем, что Pearson - это ковариация, деленная на знаменатель, который является средним геометрическим значением две разные дисперсии.ррр
Стандартизированный коэффициент бета структурно похож на Пирсона , только в том, что знаменатель является средним геометрическим отклонением от самого себя . Дисперсия остатков (а) не учитывалась; его заменили вторым подсчетом дисперсии остатков (б). Таким образом, бета - это ковариация двух остатков относительно дисперсии одного из них (в частности, одного, относящегося к интересующему предиктору, ). Хотя частичная корреляция, как уже отмечалось, это та же самая ковариация относительно их гибридной дисперсии. Оба типа коэффициентов являются способами стандартизировать эффект в среде других предикторов.х 1 х 1рИкс1Икс1
Некоторые численные последствия разницы. Если R-квадрат множественной регрессии по и окажется равным 1, то обе частичные корреляции предикторов с зависимым также будут равны 1 абсолютному значению (но бета-версии обычно не будут равны 1). В самом деле, как было сказано ранее, является корреляцией между остатками и остатками . Если то, что не является пределах является в точности тем , что не является пределах то внутри нет ничего, что не было бы ни них 1 х 2 г у х 1 . x 2 x 2 y x 2 x 1 y x 1 x 2 x 2 y 1 - r 2 y x 2 x 1 1 - r 2 x 1 x 2YИкс1Икс2рYИкс1, Икс2y <- x2
x1 <- x2
Икс2Y Икс2Икс1YИкс1Икс2 : полная подгонка Каково бы ни было количество необъяснимой (по ) части, оставшейся в ( ), если она относительно высоко захвачена независимой частью ( ), будет высоким. , с другой стороны, будет высоким только при условии, что захваченная необъяснимая часть сама по себе является значительной частью .Икс2Y1 - р2YИкс2Икс11 - р2Икс1Икс2 β х 1 у урYИкс1, Икс2βИкс1YY
Из приведенных выше формул можно получить (и перейти от регрессии с двумя предикторами к регрессии с произвольным числом предикторов ) формулу преобразования между бета-версией и соответствующим частичным r:Икс1, х2, х3, . , ,
рYИкс1, Икс= βИкс1вар ( еИкс1← Х)вар ( еY← Х)----------√,
где обозначает коллекцию всех предикторов, кроме текущего ( ); - это остатки от регрессии на , а - остатки от регрессии на , переменные в обеих этих регрессиях вводят их стандартизированно .x 1 e y ← X yИксИкс1еY← ХYe x 1 ← X x 1 XИксеИкс1← ХИкс1Икс
Примечание: если нам нужно вычислить частичные корреляции с каждым предиктором мы обычно не будем использовать эту формулу, требующую двух дополнительных регрессий. Скорее, будут выполнены операции развертки (часто используемые в пошаговых алгоритмах и алгоритмах регрессии всех подмножеств) или будет вычислена матрица корреляции антиизображений.хYИкс
β x 1 = b x 1 σ x 11 bββИкс1= бИкс1σИкс1σY - это отношение между необработанным и стандартизированными коэффициентами в регрессии с перехватом.бβ