Это является действительно что - то. Чтобы выяснить это, нам нужно изучить то, что мы знаем о самой корреляции.
Корреляционная матрица векторнозначной случайной величины являются ковариационной матрицей, или просто «дисперсии» стандартизированной версии X . Таким образом, каждый X i заменяется своей измененной версией, измененной в масштабе.X=(X1,X2,…,Xp)XXi
Ковариация и X j является ожиданием произведения их центрированных версий. То есть, записывая X ′ i = X i - E [ X i ] и X ′ j = X j - E [ X j ] , мы имеемXiXjX′i=Xi−E[Xi]X′j=Xj−E[Xj]
Cov(Xi,Xj)=E[X′iX′j].
Дисперсия , которую я напишу Var ( X ) , не является одним числом. Это массив значений Var ( X ) i j = Cov ( X i , X j ) .XVar(X)
Var(X)ij=Cov(Xi,Xj).
Способ думать о ковариации для намеченного обобщения состоит в том, чтобы считать это тензор . Это означает, что это целый набор величин , проиндексированных i и j в диапазоне от 1 до p , значения которых изменяются особенно простым предсказуемым образом, когда X подвергается линейному преобразованию. В частности, пусть Y = ( Y 1 , Y 2 , … , Y q ) будет другой векторной случайной величиной, определенной какvijij1pXY=(Y1,Y2,…,Yq)
Yi=∑j=1pajiXj.
Константы (iиj-индексы-jне является степенью) образуютмассивq×pA=(aajiijjq×p,j=1,…,pиi=1,…,q. Линейность ожидания подразумеваетA=(aji)j=1,…,pi=1,…,q
Var(Y)ij=∑akialjVar(X)kl.
В матричной записи
Var(Y)=AVar(X)A′.
Все компоненты самом деле являются одномерными дисперсиями из-за поляризационной идентичностиVar(X)
4Cov(Xi,Xj)=Var(Xi+Xj)−Var(Xi−Xj).
Это говорит нам о том, что если вы понимаете дисперсии одномерных случайных величин, вы уже понимаете ковариации двумерных переменных: они являются «просто» линейными комбинациями дисперсий.
Выражение в вопросе совершенно аналогично: переменные были стандартизированы, как в ( 1 ) . Мы можем понять, что это представляет, рассматривая, что это означает для любой переменной, стандартизированной или нет. Мы заменили бы каждый X i его центрированной версией, как в ( 2 ) , и сформировали бы величины, имеющие три индекса,Xi(1)Xi(2)
μ3(X)ijk=E[X′iX′jX′k].
Это центральные (многомерные) моменты степени 3 . Как и в , они образуют тензор: когда Y = A X , то(4)Y=AX
μ3(Y)ijk=∑l,m,naliamjankμ3(X)lmn.
Индексы в этой тройной сумме варьируются по всем комбинациям целых чисел от до p .1p
Аналог поляризационной идентичности
24μ3(X)ijk=μ3(Xi+Xj+Xk)−μ3(Xi−Xj+Xk)−μ3(Xi+Xj−Xk)+μ3(Xi−Xj−Xk).
С правой стороны, относится к (одномерному) центральному третьему моменту: ожидаемое значение куба центрированной переменной. Когда переменные стандартизированы, этот момент обычно называют асимметричным . Соответственно, мы можем думать о ц 3 ( X ) как являющийся многомерный перекос из X . Это тензор ранга три (то есть с тремя индексами), значения которого являются линейными комбинациями асимметрии различных сумм и разностей X i . Если бы мы должны были искать интерпретации, то мы думаем об этих компонентах в качестве средств измерения в рμ3μ3(X)XXipРазмеры независимо от того, измеряется асимметрия в одном измерении. Во многих случаях,
Первые моменты измеряют местоположение распределения;
Вторые моменты (матрица дисперсии-ковариации) измеряют ее разброс ;
Стандартизированные вторые моменты (корреляции) показывают, как разброс изменяется в мерном пространстве; иp
Стандартизированные третий и четвертый моменты взяты, чтобы измерить форму распределения относительно его распространения.
μ3
Ссылка
Алан Стюарт и Дж. Кит Орд, Продвинутая теория статистики Кендалла, пятое издание, том 1: теория распределения ; Глава 3, Моменты и кумулянты . Издательство Оксфордского университета (1987).
Appendix: Proof of the Polarization Identity
Let x1,…,xn be algebraic variables. There are 2n ways to add and subtract all n of them. When we raise each of these sums-and-differences to the nth power, pick a suitable sign for each of those results, and add them up, we will get a multiple of x1x2⋯xn.
More formally, let S={1,−1}n be the set of all n-tuples of ±1, so that any element s∈S is a vector s=(s1,s2,…,sn) whose coefficients are all ±1. The claim is
2nn!x1x2⋯xn=∑s∈Ss1s2⋯sn(s1x1+s2x2+⋯+snxn)n.(1)
Indeed, the Multinomial Theorem states that the coefficient of the monomial xi11xi22⋯xinn (where the ij are nonnegative integers summing to n) in the expansion of any term on the right hand side is
(ni1,i2,…,in)si11si22⋯sinn.
In the sum (1), the coefficients involving xi11 appear in pairs where one of each pair involves the case s1=1, with coefficient proportional to s1 times si11, equal to 1, and the other of each pair involves the case s1=−1, with coefficient proportional to −1 times (−1)i1, equal to (−1)i1+1. They cancel in the sum whenever i1+1 is odd. The same argument applies to i2,…,in. Consequently, the only monomials that occur with nonzero coefficients must have odd powers of all the xi. The only such monomial is x1x2⋯xn. It appears with coefficient (n1,1,…,1)=n! in all 2n terms of the sum. Consequently its coefficient is 2nn!, QED.
We need take only half of each pair associated with x1: that is, we can restrict the right hand side of (1) to the terms with s1=1 and halve the coefficient on the left hand side to 2n−1n! . That gives precisely the two versions of the Polarization Identity quoted in this answer for the cases n=2 and n=3: 22−12!=4 and 23−13!=24.
Of course the Polarization Identity for algebraic variables immediately implies it for random variables: let each xi be a random variable Xi. Take expectations of both sides. The result follows by linearity of expectation.