Чем коэффициент корреляции отличается от наклона регрессии?


69

Я ожидал бы, что коэффициент корреляции будет таким же, как у регрессионного наклона (бета), однако, только сравнив их, они различаются. Чем они отличаются - какую информацию они дают?


3
если они нормализованы, они одинаковы. но подумайте о том, что произойдет, когда вы меняете единицы ...
Николя

Я думаю, что лучший результат ответов на этот Q (и, возможно, даже мой A к нему, где я показываю, что коэффициент корреляции можно рассматривать как абсолютное значение среднего геометрического двух наклонов, которые мы получаем, если мы регрессировать у на х и х на у соответственно) также актуальны здесь
statmerkur

Ответы:


82

Предполагая, что вы говорите о простой регрессионной модели оцененной по методу наименьших квадратов, мы знаем из википедии, что Поэтому они совпадают, только когда . То есть они совпадают только тогда, когда две переменные находятся в одном масштабе, в некотором смысле. Наиболее распространенный способ достижения этого - стандартизация, как указано @gung. β = с о г ( У я , Х я ) S D ( Y я )

Yi=α+βXi+εi
SD(Yi)=SD(Xi)
β^=cor(Yi,Xi)SD(Yi)SD(Xi)
SD(Yi)=SD(Xi)

Эти два, в некотором смысле, дают вам одну и ту же информацию - каждый из них говорит вам о силе линейных отношений между и . Но каждый из них дает вам отличную информацию (за исключением, конечно, когда они абсолютно одинаковы):Y яXiYi

  • Корреляция дает вам ограниченное измерение, которое можно интерпретировать независимо от масштаба двух переменных. Чем ближе расчетная корреляция к , тем ближе они к идеальным линейным отношениям . Склон регрессии, в отдельности, не говорит вам эту информацию.±1

  • Наклон регрессии дает полезную величину, интерпретируемую как предполагаемое изменение ожидаемого значения для данного значения . В частности, сообщает вам об изменении ожидаемого значения соответствующего увеличению на 1 единицу . Эта информация не может быть выведена из одного коэффициента корреляции.Х я β Y я X яYiXiβ^YiXi


Как следствие этого ответа, обратите внимание, что регрессия x против y не является обратной регрессией y против x!
Агиненский

23

С помощью простой линейной регрессии (т.е. только 1 ковариат), наклон такой же , как Пирсона , если обе переменные были стандартизированы первым. (Для получения дополнительной информации вы можете найти мой ответ здесь полезно.) Когда вы делаете множественную регрессию, это может быть более сложным из - за и т.д. rβ1r


14

Коэффициент корреляции измеряет «плотность» линейных отношений между двумя переменными и ограничен от -1 до 1 включительно. Корреляции, близкие к нулю, не представляют линейной связи между переменными, тогда как корреляции, близкие к -1 или +1, указывают на сильную линейную связь. Интуитивно понятно, что чем проще вам провести линию наилучшего соответствия на диаграмме рассеяния, тем более они коррелированы.

В откосах регрессия измеряет «крутизна» линейной связи между двумя переменными и могут принимать любое значение от до . Наклоны около нуля означают, что переменная отклика (Y) изменяется медленно по мере изменения переменной предиктора (X). Наклоны, которые находятся дальше от нуля (либо в отрицательном, либо в положительном направлении), означают, что ответ меняется быстрее при изменении предиктора. Интуитивно понятно, что если вы проведете линию наилучшего соответствия через диаграмму рассеяния, чем она круче, тем дальше ваш уклон от нуля.+ +

Поэтому коэффициент корреляции и наклон регрессии ДОЛЖНЫ иметь один и тот же знак (+ или -), но почти никогда не будут иметь одинакового значения.

Для простоты этот ответ предполагает простую линейную регрессию.


Вы указываете, что бета может быть в , но разве нет индивидуальной привязки к бете, подразумеваемой отношением дисперсии x и y? inf,inf
Матифу

1

Коэффициент корреляции Пирсона безразмерен и масштабируется от -1 до 1 независимо от размера и масштаба входных переменных.

Если (например) вы вводите массу в граммах или килограммах, это не имеет значения для значения , тогда как это будет иметь огромное значение для градиента / наклона (который имеет размерность и масштабируется соответственно ... аналогично, он не будет иметь значения для если шкала будет изменена каким-либо образом, включая использование фунтов или тонн).rr

Простая демонстрация (извинения за использование Python!):

import numpy as np
x = [10, 20, 30, 40]
y = [3, 5, 10, 11]
np.corrcoef(x,y)[0][1]
x = [1, 2, 3, 4]
np.corrcoef(x,y)[0][1]

показывает, что хотя наклон был увеличен в 10 раз.r=0.969363

Я должен признаться, что это хитрый трюк, когда масштабируется между -1 и 1 (один из тех случаев, когда числитель никогда не может иметь абсолютное значение больше знаменателя).r

Как @Macro подробно описал выше, наклон , поэтому вы правы в интуитивном понимании того, что Пирсона относится к наклону, но только если отрегулировано в соответствии с до стандартных отклонений (что эффективно восстанавливает размеры и масштабы!).b=r(σyσx)r

Сначала я подумал, что странно, что формула, кажется, предлагает свободно подобранную линию (низкий ), приводит к более низкому градиенту; затем я построил пример и понял, что при заданном градиенте изменение «рыхлости» приводит к уменьшению но это компенсируется пропорциональным увеличением .rrσy

На графике ниже представлены четыре набора данных :x,y

  1. результаты (поэтому градиент , , , ) ... обратите внимание, чтоy=3xb=3r=1σx=2.89σy=8.66σyσx=3
  2. то же самое, но изменяемое случайным числом, с , , , из которого мы можем вычислитьr=0.2447σx=2.89σy=34.69b=2.94
  3. y=15x (поэтому и , , )b=15r=1σx=0.58σy=8.66
  4. так же, как (2), но с уменьшенным диапазоном так что (и все же , , ) xb=14.70r=0.2447σx=0.58σy=34.69корреляция и градиент

Можно видеть, что дисперсия влияет на не обязательно влияя на , и единицы измерения могут влиять на масштаб и, следовательно, не влияя наrbbr

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.