Означает ли ковариация, равная нулю, независимость для двоичных случайных величин?


14

Если и - две случайные величины, которые могут принимать только два возможных состояния, как я могу показать, что подразумевает независимость? Этот вид противоречит тому, что я узнал в тот день, что не подразумевает независимость ...XYCov(X,Y)=0Cov(X,Y)=0

Подсказка говорит, что нужно начинать с и как возможных состояний и обобщать оттуда. И я могу сделать это и показать , но это не означает независимость ???10E(XY)=E(X)E(Y)

Вид путать, как это сделать математически, я думаю.


Это не совсем так, как подсказывает заголовок вашего вопроса ..
Майкл Р. Черник

5
Утверждение, которое вы пытаетесь доказать, действительно верно. Если X и Y являются случайными величинами Бернулли параметрами p 1p1 и p2 соответственно, то E[X]=p1 и E[Y]=p2 . Итак, cov(X,Y)=E[XY]E[X]E[Y] равно 0только тогда , когда E[XY]=P{X=1,Y=1} равна p1p2=P{X=1}P{Y=1} , показывающий , что {X=1} и {Y=1} являются независимые события . Это стандартный результат, если A и Bявляются парой независимых событий, то же самое происходит с независимыми событиями A,Bc и Ac,B и Ac,Bc , то есть X и Y являются независимыми случайными величинами. Теперь обобщите.
Дилип

Ответы:


23

Для двоичных переменных их ожидаемое значение равно вероятности того, что они равны единице. Следовательно,

E(XY)=P(XY=1)=P(X=1Y=1)E(X)=P(X=1)E(Y)=P(Y=1)

Если два имеют нулевую ковариацию, это означает, что E(XY)=E(X)E(Y) , что означает

P(X=1Y=1)=P(X=1)P(Y=1)

Тривиально также увидеть, как все другие совместные вероятности умножаются, используя основные правила о независимых событиях (т. Е. Если A и B независимы, то их дополнения независимы и т. Д.), Что означает, что объединенная функция массы факторизуется, что является определением двух случайных величин, являющихся независимыми.


2
Краткий и элегантный. Классный! +1 = D
Марсело Вентура

9

И корреляция, и ковариация измеряют линейную связь между двумя заданными переменными, и она не обязана обнаруживать какую-либо другую форму ассоциации.

Таким образом, эти две переменные могут быть связаны несколькими другими нелинейными способами, и ковариация (и, следовательно, корреляция) не может отличить от независимого случая.

Как очень дидактические, искусственный и не реалистичный пример, можно считать X такое , что P(X=x)=1/3 для x=1,0,1 , а также рассмотреть Y=X2 . Обратите внимание, что они не только связаны, но и являются функцией другого. Тем не менее, их ковариация равна 0, поскольку их ассоциация ортогональна той ассоциации, которую может обнаружить ковариация.

РЕДАКТИРОВАТЬ

Действительно, как указывал @whuber, приведенный выше оригинальный ответ был фактически комментарием о том, что утверждение не является универсально верным, если обе переменные не обязательно являются дихотомическими. Виноват!

Итак, давайте посчитаем. (Местный эквивалент Барни Стинсона "Оденься!")

Частный случай

Если и и Y были дихотомическими, то можно предположить без ограничения общности, что оба принимают только значения 0 и 1 с произвольными вероятностями p , q и r, заданными как P ( X = 1 ) = p [ 0 , 1 ] P ( Y = 1 ) = q [ 0 , 1 ] P ( X = 1 , YXY01pqr которые характеризуют полностью совместное распределениеXиY. Принимая подсказку @ DilipSarwate, обратите внимание, что этих трех значений достаточно для определения совместного распределения(X,Y), поскольку P ( X = 0 , Y = 1 )

P(X=1)=p[0,1]P(Y=1)=q[0,1]P(X=1,Y=1)=r[0,1],
XY(X,Y) (На заметку, конечно,rобязан соблюдать обаp-r[0,1],q-r[0,1]и1-p-q-r[
P(X=0,Y=1)=P(Y=1)P(X=1,Y=1)=qrP(X=1,Y=0)=P(X=1)P(X=1,Y=1)=prP(X=0,Y=0)=1P(X=0,Y=1)P(X=1,Y=0)P(X=1,Y=1)=1(qr)(pr)r=1pqr.
rpr[0,1]qr[0,1] за пределами r [ 0 , 1 ] , то есть r [ 0 , min ( p , q , 1 - p - q ) ] .)1pqr[0,1]r[0,1]r[0,min(p,q,1pq)]

Обратите внимание, что может быть равно произведению p q = P ( X = 1 ) P ( Y = 1 ) , что сделает X и Y независимыми, поскольку P ( X = 0 , Y = 0 )r=P(X=1,Y=1)pq=P(X=1)P(Y=1)XY

P(X=0,Y=0)=1pqpq=(1p)(1q)=P(X=0)P(Y=0)P(X=1,Y=0)=ppq=p(1q)=P(X=1)P(Y=0)P(X=0,Y=1)=qpq=(1p)q=P(X=0)P(Y=1).

Yes, r might be equal to pq, BUT it can be different, as long as it respects the boundaries above.

Well, from the above joint distribution, we would have

E(X)=0P(X=0)+1P(X=1)=P(X=1)=pE(Y)=0P(Y=0)+1P(Y=1)=P(Y=1)=qE(XY)=0P(XY=0)+1P(XY=1)=P(XY=1)=P(X=1,Y=1)=rCov(X,Y)=E(XY)E(X)E(Y)=rpq

XY Cov(X,Y)=0XYP(X=1,Y=1)=P(X=1)P(Y=1), which is to say r=pq. Therefore, Cov(X,Y)=rpq=0; and, on the other hand, if Cov(X,Y)=0, then rpq=0, which is to say r=pq. Therefore, X and Y are independent.

General Case

About the without loss of generality clause above, if X and Y were distributed otherwise, let's say, for a<b and c<d,

P(X=b)=pP(Y=d)=qP(X=b,Y=d)=r
then X and Y given by
X=XabaandY=Ycdc
would be distributed just as characterized above, since
X=aX=0,X=bX=1,Y=cY=0andY=dY=1.
So X and Y are independent if and only if X and Y are independent.

Also, we would have

E(X)=E(Xaba)=E(X)abaE(Y)=E(Ycdc)=E(Y)cdcE(XY)=E(XabaYcdc)=E[(Xa)(Yc)](ba)(dc)=E(XYXcaY+ac)(ba)(dc)=E(XY)cE(X)aE(Y)+ac(ba)(dc)Cov(X,Y)=E(XY)E(X)E(Y)=E(XY)cE(X)aE(Y)+ac(ba)(dc)E(X)abaE(Y)cdc=[E(XY)cE(X)aE(Y)+ac][E(X)a][E(Y)c](ba)(dc)=[E(XY)cE(X)aE(Y)+ac][E(X)E(Y)cE(X)aE(Y)+ac](ba)(dc)=E(XY)E(X)E(Y)(ba)(dc)=1(ba)(dc)Cov(X,Y).
So Cov(X,Y)=0 if and only Cov(X,Y)=0.

=D


1
I recycled that answer from this post.
Marcelo Ventura

Verbatim cut and paste from your other post. Love it. +1
gammer

2
The problem with copy-and-paste is that your answer no longer seems to address the question: it is merely a comment on the question. It would be better, then, to post a comment with a link to your other answer.
whuber

2
How is thus an answer to the question asked?
Dilip Sarwate

1
Your edits still don't answer the question, at least not at the level the question is asked. You write "Notice that r  not necessarily equal to the product pq. That exceptional situation corresponds to the case of independence between X and Y." which is a perfectly true statement but only for the cognoscenti because for the hoi polloi, independence requires not just that
(1)P(X=1,Y=1)=P(X=1)P(Y=1)
but also
(2)P(X=u,Y=v)=P(X=u)P(Y=v), u.v{0,1}.
Yes, (1)(2) as the cognoscenti know; for lesser mortals, a proof that (1)(2) is helpful.
Dilip Sarwate

3

IN GENERAL:

The criterion for independence is F(x,y)=FX(x)FY(y). Or

(1)fX,Y(x,y)=fX(x)fY(y)

"If two variables are independent, their covariance is 0. But, having a covariance of 0 does not imply the variables are independent."

This is nicely explained by Macro here, and in the Wikipedia entry for independence.

independencezero cov, yet

zero covindependence.

Great example: XN(0,1), and Y=X2. Covariance is zero (and E(XY)=0, which is the criterion for orthogonality), yet they are dependent. Credit goes to this post.


IN PARTICULAR (OP problem):

These are Bernoulli rv's, X and Y with probability of success Pr(X=1), and Pr(Y=1).

cov(X,Y)=E[XY]E[X]E[Y]=Pr(X=1Y=1)Pr(X=1)Pr(Y=1)Pr(X=1,Y=1)=Pr(X=1)Pr(Y=1).

This is equivalent to the condition for independence in Eq. (1).


():

E[XY]=domain X, YPr(X=xY=y)xy=0 iff x×y0Pr(X=1Y=1).

(): by LOTUS.


As pointed out below, the argument is incomplete without what Dilip Sarwate had pointed out in his comments shortly after the OP appeared. After searching around, I found this proof of the missing part here:

If events A and B are independent, then events Ac and B are independent, and events Ac and Bc are also independent.

Proof By definition,

A and B are independent P(AB)=P(A)P(B).

But B=(AB)+(AcB), so P(B)=P(AB)+P(AcB), which yields:

P(AcB)=P(B)P(AB)=P(B)P(A)P(B)=P(B)[1P(A)]=P(B)P(Ac).

Repeat the argument for the events Ac and Bc, this time starting from the statement that Ac and B are independent and taking the complement of B.

Similarly. A and Bc are independent events.

So, we have shown already that

Pr(X=1,Y=1)=Pr(X=1)Pr(Y=1)
and the above shows that this implies that
Pr(X=i,Y=j)=Pr(X=i)Pr(Y=j),  i,j{0,1}
that is, the joint pmf factors into the product of marginal pmfs everywhere, not just at (1,1). Hence, uncorrelated Bernoulli random variables X and Y are also independent random variables.

2
Actually that's not an equivalent condition to Eq (1). All you showed was that fX,Y(1,1)=fX(1)fY(1)
gammer

Please consider replacing that image with your own equations, preferably ones that don't use overbars to denote complements. The overbars in the image are very hard to see.
Dilip Sarwate

@DilipSarwate No problem. Is it better, now?
Antoni Parellada

1
Thanks. Also, note that strictly speaking, you also need to show that A and Bc are independent events since the factorization of the joint pdf into the product of the marginal pmts must hold at all four points. Perhaps adding the sentence "Similarly. A and Bc are independent events" right after the proof that Ac and B are independent events will work.
Dilip Sarwate

@DilipSarwate Thank you very much for your help getting it right. The proof as it was before all the editing seemed self-explanatory, because of all the inherent symmetry, but it clearly couldn't be taken for granted. I am very appreciative of your assistance.
Antoni Parellada
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.