Если две случайные величины и некоррелированы, можем ли мы также знать, что и некоррелированы? Моя гипотеза - да.Y X 2 Y
E [ X Y ] = E [ X ] E [ Y ] некоррелированный означает или
Означает ли это также следующее?
Если две случайные величины и некоррелированы, можем ли мы также знать, что и некоррелированы? Моя гипотеза - да.Y X 2 Y
E [ X Y ] = E [ X ] E [ Y ] некоррелированный означает или
Означает ли это также следующее?
Ответы:
Нет. Контрпример:
Пусть равномерно распределено на , .[ - 1 , 1 ] Y = X 2
Тогда а также ( - нечетная функция), поэтому некоррелированы.E [ X Y ] = E [ X 3 ] = 0 X 3 X , Y
Но
Последнее неравенство следует из неравенства Дженсена. Это также следует из того факта, что поскольку не является константой.X
Проблема с вашими рассуждениями в том, что может зависеть от y и наоборот, поэтому ваше предпоследнее равенство неверно.
Даже если , не только возможно, что X 2 и Y коррелированы, но они могут даже быть идеально коррелированными, с Corr ( X 2 , Y ) = 1 :
> x <- c(-1,0,1); y <- c(1,0,1)
> cor(x,y)
[1] 0
> cor(x^2,y)
[1] 1
Или :
> x <- c(-1,0,1); y <- c(-1,0,-1)
> cor(x,y)
[1] 0
> cor(x^2,y)
[1] -1
Если вы не можете прочитать R-код , первый пример эквивалентен рассмотрению двух случайных величин и Y с совместным распределением, так что ( X , Y ) с равной вероятностью будет ( - 1 , 1 ) , ( 0 , 0 ) или ( 1 , 1 ) . В совершенно отрицательно коррелированном примере ( X , Y ) с равной вероятностью будет ( - 1 , - 1). , ( 0 , 0 ) или ( 1 , - 1 ) .
Тем не менее, мы также можем построить и Y так , чтобы Corr ( X 2 , Y ) = 0 , поэтому возможны все крайности:
> x <- c(-1,-1,0,1,1); y <- c(1,-1,0,1,-1)
> cor(x,y)
[1] 0
> cor(x^2,y)
[1] 0