Для каких распределений некоррелированность подразумевает независимость?


11

Проверенное временем напоминание в статистике «некоррелированность не означает независимость». Обычно это напоминание дополняется психологически успокаивающим (и с научной точки зрения правильным) утверждением «когда, тем не менее, две переменные совместно распределены нормально , тогда некоррелированность подразумевает независимость».

Я могу увеличить количество счастливых исключений с одного до двух: когда две переменные распределены по Бернулли , опять же, некоррелированность подразумевает независимость. Если и Y два Bermoulli с.в., Х ~ В ( д х ) ,XY , для которого мы имеем P ( X = 1 ) = E ( X ) = q x , и аналогично для Y их ковариация равнаXB(qx),YB(qy)P(X=1)=E(X)=qxY

Cov(X,Y)=E(XY)E(X)E(Y)=SXYp(x,y)xyqxqy

=P(X=1,Y=1)qxqy=P(X=1Y=1)P(Y=1)qxqy

=(P(X=1Y=1)qx)qy

Для некоррелированности мы требуем, чтобы ковариация была равна нулю, поэтому

Cov(X,Y)=0P(X=1Y=1)=P(X=1)

P(X=1,Y=1)=P(X=1)P(Y=1)

это условие, которое также необходимо для того, чтобы переменные были независимыми.

Поэтому мой вопрос: знаете ли вы какие-либо другие распределения (непрерывные или дискретные), для которых некоррелированность подразумевает независимость?

Значение: предположим, что две случайные величины имеют предельные распределения, которые принадлежат одному и тому же распределению (возможно, с разными значениями для параметров распределения), но, скажем, с той же поддержкой, например. две экспоненты, две треугольники и т. д. Все ли решения уравнения Cov ( X , Y ) = 0 таковы, что они также подразумевают независимость в силу формы / свойств участвующих функций распределения? Так обстоит дело с нормальными маргиналами (учитывая также, что они имеют двумерное нормальное распределение), а также с маргинальными частями Бернулли - есть ли другие случаи?X,YCov(X,Y)=0

Мотивация здесь заключается в том, что обычно легче проверить, равна ли ковариация нулю, по сравнению с проверкой, имеет ли место независимость. Так что, если, учитывая теоретическое распределение, проверяя ковариацию, вы также проверяете независимость (как в случае с Бернулли или обычным случаем), тогда это было бы полезно знать.
Если нам дают две выборки из двух rv, которые имеют нормальные маргиналы, мы знаем, что если мы можем статистически сделать вывод из выборок, что их ковариация равна нулю, мы также можем сказать, что они независимы (но только потому, что они имеют нормальные маргиналы). Было бы полезно узнать, можем ли мы заключить аналогичным образом в тех случаях, когда два rv имели маргиналы, которые принадлежали некоторому другому распределению.


Логично, что здесь нет никаких сомнений: возьмите любую пару независимых переменных в качестве распределения. Независимо от того, связаны они или нет, они независимы от указа ! Вы действительно должны быть более точными в том, что вы подразумеваете под «распространением» и какие ответы вы найдете полезными.
whuber

@whuber Я не понимаю твой комментарий. Я начинаю с некоррелированности и спрашиваю: «Могу ли я доказать, что они некоррелированы, когда это означает, что они также независимы»? Поскольку два результата, изложенные в этом вопросе, зависят от того, имеет ли р.в. конкретное распределение (нормальное или Бернулли), я спрашиваю: «Существует ли какое-либо другое известное распределение, для которого, если за ним следуют две переменные, этот результат имеет место»?
Алекос Пападопулос

3
Возьмем любые две независимые переменные и пусть F будет их распределением. F - правильный ответ на ваш вопрос. Обратите внимание, что вы просите доказать условное условие, которое по определению истинно всякий раз, когда следствие истинно, независимо от того, каким может быть значение истинности его предшественника. Таким образом, по основным правилам логики все распределения независимых переменных являются ответами на ваш вопрос. X,YFF
whuber

@ Whuber, вы, очевидно, правы. Я добавил текст, связанный с мотивацией для этого вопроса, который, я надеюсь, прояснит мою мотивацию.
Алекос Пападопулос

2
С какой информацией вы начинаете принимать решение? Из формулировки вашего примера кажется, что вам дается предельный pdf для каждой переменной и информация о том, что каждая пара переменных не коррелирована. Затем вы решаете, являются ли они также независимыми. Это точно?
вероятностная

Ответы:


9

«Тем не менее, если две переменные нормально распределены, то некоррелированность подразумевает независимость» - очень распространенная ошибка .

Это применимо только в том случае, если они совместно распространяются нормально.

Контрпример, который я видел чаще всего, это обычный и независимый Радемахер Y (так что это 1 или -1 с вероятностью 0,5 каждый); тогда Z = X Y также является нормальным (ясно из рассмотрения его функции распределения), Cov ( X , Z ) = 0 (здесь проблема состоит в том, чтобы показать E ( X Z ) = 0, например, путем итерации ожидания по Y и отметив, что X Z является X 2XN(0,1)YZ=XYCov(X,Z)=0E(XZ)=0YXZX2или с вероятностью 0,5 каждый) и ясно, что переменные являются зависимыми (например, если я знаю X > 2, то либо Z > 2, либо Z < - 2 , поэтому информация о X дает мне информацию о Z ). X2X>2Z>2Z<2XZ

Также следует иметь в виду, что предельные распределения не определяют однозначно совместное распределение. Возьмем любые два реальных RV и Y с маргинальными CDF F X ( x ) и G Y ( y ) . Тогда для любого α < 1 функция:XYFX(x)граммY(Y)α<1

ЧАСИкс,Y(Икс,Y)знак равноFИкс(Икс)граммY(Y)(1+α(1-FИкс(Икс))(1-FY(Y)))

будет двумерным CDF. (Чтобы получить маргинальное значение из H X , Y ( x , y ) возьмите предел по мере того, как y уходит в бесконечность, где F Y ( y ) = 1. Обратно для Y. ) Очевидно, выбирая различные значения из α вы можете получить различные совместные распределения!FИкс(Икс)ЧАСИкс,Y(Икс,Y)YFY(Y)знак равно1Yα


Верно. Я забыл о "совместном".
Алекос Пападопулос

1
@Alecos Так как маргинальные распределения не определяют совместное распределение в целом (просто отредактировал мой ответ, чтобы прояснить это), где это оставляет ваш вопрос?
Серебряная рыба

1
@ Алекос Я думаю, что теперь я лучше понимаю суть вопроса: учитывая два маргинальных распределения, существует бесконечный набор возможных совместных распределений. При каких обстоятельствах введение условия нулевой ковариации оставляет нам только одно из этих совместных распределений, все еще возможное, а именно то, в котором случайные величины независимы?
Серебряная рыба

1
MИкс,Y(s,T)MИкс(s)знак равноMИкс,Y(s,0)MY(T)знак равноMИкс,Y(0,T)2sTMИкс,Y(s,T)|sзнак равно0,Tзнак равно0знак равноsMИкс,Y(s,T)|sзнак равно0,Tзнак равно0TMИкс,Y(s,T)|sзнак равно0,Tзнак равно0MИкс,Y(s,T)знак равноMИкс,Y(s,0)MИкс,Y(0,T)

2
@Silverman Я бы проверил концепцию суб-независимости , en.wikipedia.org/wiki/Subindependence , чтобы посмотреть, можно ли сформулировать эту проблему в терминах функций, генерирующих моменты.
Алекос Пападопулос
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.