И корреляция, и ковариация измеряют линейную связь между двумя заданными переменными, и она не обязана обнаруживать какую-либо другую форму ассоциации.
Таким образом, эти две переменные могут быть связаны несколькими другими нелинейными способами, и ковариация (и, следовательно, корреляция) не может отличить от независимого случая.
Как очень дидактические, искусственный и не реалистичный пример, можно считать X такое , что P(X=x)=1/3 для x=−1,0,1 , а также рассмотреть Y=X2 . Обратите внимание, что они не только связаны, но и являются функцией другого. Тем не менее, их ковариация равна 0, поскольку их ассоциация ортогональна той ассоциации, которую может обнаружить ковариация.
РЕДАКТИРОВАТЬ
Действительно, как указывал @whuber, приведенный выше оригинальный ответ был фактически комментарием о том, что утверждение не является универсально верным, если обе переменные не обязательно являются дихотомическими. Виноват!
Итак, давайте посчитаем. (Местный эквивалент Барни Стинсона "Оденься!")
Частный случай
Если и и Y были дихотомическими, то можно предположить без ограничения общности, что оба принимают только значения 0 и 1 с произвольными вероятностями p , q и r, заданными как
P ( X = 1 ) = p ∈ [ 0 , 1 ] P ( Y = 1 ) = q ∈ [ 0 , 1 ] P ( X = 1 , YXY01pqr
которые характеризуют полностью совместное распределениеXиY. Принимая подсказку @ DilipSarwate, обратите внимание, что этих трех значений достаточно для определения совместного распределения(X,Y), поскольку
P ( X = 0 , Y = 1 )
P(X=1)=p∈[0,1]P(Y=1)=q∈[0,1]P(X=1,Y=1)=r∈[0,1],
XY(X,Y)
(На заметку, конечно,
rобязан соблюдать оба
p-r∈[0,1],
q-r∈[0,1]и
1-p-q-r∈[P(X=0,Y=1)P(X=1,Y=0)P(X=0,Y=0)=P(Y=1)−P(X=1,Y=1)=q−r=P(X=1)−P(X=1,Y=1)=p−r=1−P(X=0,Y=1)−P(X=1,Y=0)−P(X=1,Y=1)=1−(q−r)−(p−r)−r=1−p−q−r.
rp−r∈[0,1]q−r∈[0,1] за пределами
r ∈ [ 0 , 1 ] , то есть
r ∈ [ 0 , min ( p , q , 1 - p - q ) ] .)
1−p−q−r∈[0,1]r∈[0,1]r∈[0,min(p,q,1−p−q)]
Обратите внимание, что может быть равно произведению p ⋅ q = P ( X = 1 ) P ( Y = 1 ) , что сделает X и Y независимыми, поскольку
P ( X = 0 , Y = 0 )r=P(X=1,Y=1)p⋅q=P(X=1)P(Y=1)XY
P(X=0,Y=0)P(X=1,Y=0)P(X=0,Y=1)=1−p−q−pq=(1−p)(1−q)=P(X=0)P(Y=0)=p−pq=p(1−q)=P(X=1)P(Y=0)=q−pq=(1−p)q=P(X=0)P(Y=1).
Yes, r might be equal to pq, BUT it can be different, as long as it respects the boundaries above.
Well, from the above joint distribution, we would have
E(X)E(Y)E(XY)Cov(X,Y)=0⋅P(X=0)+1⋅P(X=1)=P(X=1)=p=0⋅P(Y=0)+1⋅P(Y=1)=P(Y=1)=q=0⋅P(XY=0)+1⋅P(XY=1)=P(XY=1)=P(X=1,Y=1)=r=E(XY)−E(X)E(Y)=r−pq
XY Cov(X,Y)=0XYP(X=1,Y=1)=P(X=1)P(Y=1), which is to say r=pq. Therefore, Cov(X,Y)=r−pq=0; and, on the other hand, if Cov(X,Y)=0, then r−pq=0, which is to say r=pq. Therefore, X and Y are independent.
General Case
About the without loss of generality clause above, if X and Y were distributed otherwise, let's say, for a<b and c<d,
P(X=b)=pP(Y=d)=qP(X=b,Y=d)=r
then
X′ and
Y′ given by
X′=X−ab−aandY′=Y−cd−c
would be distributed just as characterized above, since
X=a⇔X′=0,X=b⇔X′=1,Y=c⇔Y′=0andY=d⇔Y′=1.
So
X and
Y are independent
if and only if X′ and
Y′ are independent.
Also, we would have
E(X′)E(Y′)E(X′Y′)Cov(X′,Y′)=E(X−ab−a)=E(X)−ab−a=E(Y−cd−c)=E(Y)−cd−c=E(X−ab−aY−cd−c)=E[(X−a)(Y−c)](b−a)(d−c)=E(XY−Xc−aY+ac)(b−a)(d−c)=E(XY)−cE(X)−aE(Y)+ac(b−a)(d−c)=E(X′Y′)−E(X′)E(Y′)=E(XY)−cE(X)−aE(Y)+ac(b−a)(d−c)−E(X)−ab−aE(Y)−cd−c=[E(XY)−cE(X)−aE(Y)+ac]−[E(X)−a][E(Y)−c](b−a)(d−c)=[E(XY)−cE(X)−aE(Y)+ac]−[E(X)E(Y)−cE(X)−aE(Y)+ac](b−a)(d−c)=E(XY)−E(X)E(Y)(b−a)(d−c)=1(b−a)(d−c)Cov(X,Y).
So
Cov(X,Y)=0 if and only Cov(X′,Y′)=0.
=D