Аналогия корреляции Пирсона для 3 переменных


17

Меня интересует, является ли "корреляция" трех переменных чем-то, и если что, что бы это было?

Коэффициент корреляции моментов произведения Пирсона

E{(XμX)(YμY)}Var(X)Var(Y)

Теперь вопрос для 3 переменных:

E{(XμX)(YμY)(ZμZ)}Var(X)Var(Y)Var(Z)

что-нибудь?

В R это выглядит как нечто интерпретируемое:

> a <- rnorm(100); b <- rnorm(100); c <- rnorm(100)
> mean((a-mean(a)) * (b-mean(b)) * (c-mean(c))) / (sd(a) * sd(b) * sd(c))
[1] -0.3476942

Мы обычно смотрим на корреляцию между 2 переменными при фиксированном значении третьей переменной. Может кто-нибудь уточнить?


2
1) В вашей двумерной формуле Пирсона, если «E» (означает в вашем коде) подразумевает деление на n, то st. отклонения также должны основываться на n (не n-1). 2) Пусть все три переменные будут одной и той же переменной. В этом случае мы ожидаем, что корреляция будет 1 (как в двумерном случае), но увы ...
ttnphns

Для тривариатного нормального распределения оно равно нулю, независимо от того, каковы корреляции.
Рэй Купман

1
Я действительно думаю, что название выиграло бы от изменения на «Аналогия корреляции Пирсона для 3 переменных» или подобного - это сделало бы ссылки здесь более информативными
Silverfish

1
@ Серебряная рыба, я согласен! Я обновил название, спасибо.
PascalVKooten

Ответы:


12

Это является действительно что - то. Чтобы выяснить это, нам нужно изучить то, что мы знаем о самой корреляции.

  1. Корреляционная матрица векторнозначной случайной величины являются ковариационной матрицей, или просто «дисперсии» стандартизированной версии X . Таким образом, каждый X i заменяется своей измененной версией, измененной в масштабе.X=(X1,X2,,Xp)XXi

  2. Ковариация и X j является ожиданием произведения их центрированных версий. То есть, записывая X i = X i - E [ X i ] и X j = X j - E [ X j ] , мы имеемXiXjXi=XiE[Xi]Xj=XjE[Xj]

    Cov(Xi,Xj)=E[XiXj].
  3. Дисперсия , которую я напишу Var ( X ) , не является одним числом. Это массив значений Var ( X ) i j = Cov ( X i , X j ) .XVar(X)

    Var(X)ij=Cov(Xi,Xj).
  4. Способ думать о ковариации для намеченного обобщения состоит в том, чтобы считать это тензор . Это означает, что это целый набор величин , проиндексированных i и j в диапазоне от 1 до p , значения которых изменяются особенно простым предсказуемым образом, когда X подвергается линейному преобразованию. В частности, пусть Y = ( Y 1 , Y 2 , , Y q ) будет другой векторной случайной величиной, определенной какvijij1pXY=(Y1,Y2,,Yq)

    Yi=j=1paijXj.

    Константы (iиj-индексы-jне является степенью) образуютмассивq×pA=(aaijijjq×p,j=1,,pиi=1,,q. Линейность ожидания подразумеваетA=(aij)j=1,,pi=1,,q

    Var(Y)ij=aikajlVar(X)kl.

    В матричной записи

    Var(Y)=AVar(X)A.
  5. Все компоненты самом деле являются одномерными дисперсиями из-за поляризационной идентичностиVar(X)

    4Cov(Xi,Xj)=Var(Xi+Xj)Var(XiXj).

    Это говорит нам о том, что если вы понимаете дисперсии одномерных случайных величин, вы уже понимаете ковариации двумерных переменных: они являются «просто» линейными комбинациями дисперсий.


Выражение в вопросе совершенно аналогично: переменные были стандартизированы, как в ( 1 ) . Мы можем понять, что это представляет, рассматривая, что это означает для любой переменной, стандартизированной или нет. Мы заменили бы каждый X i его центрированной версией, как в ( 2 ) , и сформировали бы величины, имеющие три индекса,Xi(1)Xi(2)

μ3(X)ijk=E[XiXjXk].

Это центральные (многомерные) моменты степени 3 . Как и в , они образуют тензор: когда Y = A X , то(4)Y=AX

μ3(Y)ijk=l,m,nailajmaknμ3(X)lmn.

Индексы в этой тройной сумме варьируются по всем комбинациям целых чисел от до p .1p

Аналог поляризационной идентичности

24μ3(X)ijk=μ3(Xi+Xj+Xk)μ3(XiXj+Xk)μ3(Xi+XjXk)+μ3(XiXjXk).

С правой стороны, относится к (одномерному) центральному третьему моменту: ожидаемое значение куба центрированной переменной. Когда переменные стандартизированы, этот момент обычно называют асимметричным . Соответственно, мы можем думать о ц 3 ( X ) как являющийся многомерный перекос из X . Это тензор ранга три (то есть с тремя индексами), значения которого являются линейными комбинациями асимметрии различных сумм и разностей X i . Если бы мы должны были искать интерпретации, то мы думаем об этих компонентах в качестве средств измерения в рμ3μ3(X)XXipРазмеры независимо от того, измеряется асимметрия в одном измерении. Во многих случаях,

  • Первые моменты измеряют местоположение распределения;

  • Вторые моменты (матрица дисперсии-ковариации) измеряют ее разброс ;

  • Стандартизированные вторые моменты (корреляции) показывают, как разброс изменяется в мерном пространстве; иp

  • Стандартизированные третий и четвертый моменты взяты, чтобы измерить форму распределения относительно его распространения.

μ3


Ссылка

Алан Стюарт и Дж. Кит Орд, Продвинутая теория статистики Кендалла, пятое издание, том 1: теория распределения ; Глава 3, Моменты и кумулянты . Издательство Оксфордского университета (1987).


Appendix: Proof of the Polarization Identity

Let x1,,xn be algebraic variables. There are 2n ways to add and subtract all n of them. When we raise each of these sums-and-differences to the nth power, pick a suitable sign for each of those results, and add them up, we will get a multiple of x1x2xn.

More formally, let S={1,1}n be the set of all n-tuples of ±1, so that any element sS is a vector s=(s1,s2,,sn) whose coefficients are all ±1. The claim is

(1)2nn!x1x2xn=sSs1s2sn(s1x1+s2x2++snxn)n.

Indeed, the Multinomial Theorem states that the coefficient of the monomial x1i1x2i2xnin (where the ij are nonnegative integers summing to n) in the expansion of any term on the right hand side is

(ni1,i2,,in)s1i1s2i2snin.

In the sum (1), the coefficients involving x1i1 appear in pairs where one of each pair involves the case s1=1, with coefficient proportional to s1 times s1i1, equal to 1, and the other of each pair involves the case s1=1, with coefficient proportional to 1 times (1)i1, equal to (1)i1+1. They cancel in the sum whenever i1+1 is odd. The same argument applies to i2,,in. Consequently, the only monomials that occur with nonzero coefficients must have odd powers of all the xi. The only such monomial is x1x2xn. It appears with coefficient (n1,1,,1)=n! in all 2n terms of the sum. Consequently its coefficient is 2nn!, QED.

We need take only half of each pair associated with x1: that is, we can restrict the right hand side of (1) to the terms with s1=1 and halve the coefficient on the left hand side to 2n1n! . That gives precisely the two versions of the Polarization Identity quoted in this answer for the cases n=2 and n=3: 2212!=4 and 2313!=24.

Of course the Polarization Identity for algebraic variables immediately implies it for random variables: let each xi be a random variable Xi. Take expectations of both sides. The result follows by linearity of expectation.


Well done on explaining so far! Multivariate skewness kind of makes sense. Could you perhaps add an example that would show the importance of this multivariate skewness? Either as an issue in a statistical models, or perhaps more interesting, what real life case would be subject to multivariate skewness :)?
PascalVKooten

3

Hmmm. If we run...

a <- rnorm(100);
b <- rnorm(100);
c <- rnorm(100)
mean((a-mean(a))*(b-mean(b))*(c-mean(c)))/
  (sd(a) * sd(b) * sd(c))

it does seem to center on 0 (I haven't done a real simulation), but as @ttnphns alludes, running this (all variables the same)

a <- rnorm(100)
mean((a-mean(a))*(a-mean(a))*(a-mean(a)))/
  (sd(a) * sd(a) * sd(a))

also seems to center on 0, which certainly makes me wonder what use this could be.


2
The nonsense apparently comes from the fact that sd or variance is a function of squaring, as is covariance. But with 3 variables, cubing occurs in the numerator while denominator remains based on originally squared terms
ttnphns

2
Is that the root of it (pun intended)? Numerator and denominator have the same dimensions and units, which cancel, so that alone doesn't make the measure poorly formed.
Ник Кокс

3
@Nick That's right. This is simply one of the multivariate central third moments. It is one component of a rank-three tensor giving the full set of third moments (which is closely related to the order-3 component of the multivariate cumulant generating function). In conjunction with the other components it could be of some use in describing asymmetries (higher-dimensional "skewness") in the distribution. It's not what anyone would call a "correlation," though: almost by definition, a correlation is a second-order property of the standardized variable.
whuber

1

If You need to calculate "correlation" between three or more variables, you could not use Pearson, as in this case it will be different for different order of variables have a look here. If you are interesting in linear dependency, or how well they are fitted by 3D line, you may use PCA, obtain explained variance for first PC, permute your data and find probability, that this value may be to to random reasons. I've discuss something similar here (see Technical details below).

Matlab code

% Simulate our experimental data
x=normrnd(0,1,100,1);
y=2*x.*normrnd(1,0.1,100,1);
z=(-3*x+1.5*y).*normrnd(1,2,100,1);
% perform pca
[loadings, scores,variance]=pca([x,y,z]);
% Observed Explained Variance for first principal component
OEV1=variance(1)/sum(variance)
% perform permutations
permOEV1=[];
for iPermutation=1:1000
    permX=datasample(x,numel(x),'replace',false);
    permY=datasample(y,numel(y),'replace',false);
    permZ=datasample(z,numel(z),'replace',false);
    [loadings, scores,variance]=pca([permX,permY,permZ]);
    permOEV1(end+1)=variance(1)/sum(variance);
end

% Calculate p-value
p_value=sum(permOEV1>=OEV1)/(numel(permOEV1)+1)
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.