Почему знаменатель оценки ковариации не должен быть n-2, а не n-1?


36

Знаменатель (несмещенной) оценки дисперсии равен поскольку имеется наблюдений и оценивается только один параметр.n1n

V(X)=i=1n(XiX¯)2n1

Кроме того, мне интересно, почему знаменатель ковариации не должен быть когда оцениваются два параметра?n2

Cov(X,Y)=i=1n(XiX¯)(YiY¯)n1

15
Если вы сделали это, вы бы два противоречащих друг другу определений дисперсии: одна будет первая формула , а другой будет вторая формула применяется при . Y=X
whuber

3
Среднее / многомерное среднее (ожидание) - это один, а не 2 параметра.
ttnphns

14
@ttnphns Это не так: двумерное среднее, очевидно, имеет два параметра, поскольку для его выражения требуется два действительных числа. (Действительно, это единственный параметр вектора , но это говорит только о том, что он имеет два компонента.) Это явно проявляется в степенях свободы для t-тестов с объединенной дисперсией, например, где вычитается 2 , а не 1 . Что интересно в этом вопросе, так это то, как он показывает, насколько расплывчато, неуклюже и потенциально вводит в заблуждение общее «объяснение» того, что мы вычитаем 1 из n потому что один параметр был оценен.
whuber

@whuber, Вы правы в этом. Если бы это было только (независимые наблюдения), что имеет значение, мы бы не потратили больше df в многомерных тестах, чем в одномерных. n
ttnphns

3
@whuber: Я бы сказал, что это показывает, что то, что считается «параметром», зависит от ситуации. В этом случае дисперсия вычисляется по наблюдениям,n поэтому каждое наблюдение - или общее среднее - можно рассматривать как один параметр, даже если это многовариантное среднее, как сказал ttnphns. Однако в других случаях, когда, например, тест рассматривает линейные комбинации измерений, каждое измерение каждого наблюдения становится «параметром». Вы правы, что это сложная проблема.
говорит амеба: восстанови Монику

Ответы:


31

Ковариации - это дисперсии.

Так как по поляризационной идентичности

Cov(X,Y)=Var(X+Y2)Var(XY2),

знаменатели должны быть одинаковыми.


20

Особый случай должен дать вам интуицию; подумайте о следующем:

Cov^(X,X)=V^(X)

Вы счастливы, что последний из-за поправки Бесселя.i=1n(XiX¯)2n1

Но заменив на X в ^ С о об ( X , Y ) для бывшей дает Е п я = 1 ( X я - ¯ X ) ( X я - ¯ X )YXCov^(X,Y) , так что вы думаете, что лучше всего заполнить пробел?i=1n(XiX¯)(XiX¯)mystery denominator


1
ХОРОШО. Но ОП может спросить: «Почему считать, что cov (X, X) и cov (X, Y) находятся в одной строке логики? Почему вы заменяете Y на X в cov () легкомысленно? Может быть, cov (X, Y) это другая ситуация? " Вы не предотвратили это, хотя ответ (высоко одобренный) должен иметь, по моему
мнению

7

Быстрый и грязный ответ ... Давайте сначала рассмотрим ; если бы у вас было n наблюдений с известным ожидаемым значением E ( X ) = 0, вы бы использовали 1var(X)n E(X)=0 для оценки дисперсии.1ni=1nXi2

Ожидаемое значение неизвестно, вы можете преобразовать свои наблюдений в n - 1 наблюдений с известным ожидаемым значением, взяв A i = X i - X 1 для i = 2 , , n . Вы получите формулу с n - 1 в знаменателе - однако A i не являются независимыми, и вам придется принять это во внимание; в конце вы найдете обычную формулу.nn1Ai=XiX1i=2,,nn1Ai

Теперь для ковариации вы можете использовать ту же идею: если бы ожидаемое значение было ( 0 , 0 ) , у вас было бы 1(X,Y)(0,0) в формуле. Вычитая(X1,Y1) извсех других наблюдаемых значений, вы получаетеn-1наблюдений с известным ожидаемым значением ... и11n(X1,Y1)n1 в формуле - еще раз, это вводит некоторую зависимость для учета.1n1

PS Простой способ сделать это - выбрать ортонормированный базис из , то есть n - 1 векторов c 1 , , c n - 1R n, таких, что(1,,1)n1c1,,cn1Rn

  • для всех я ,jcij2=1i
  • для всех я ,jcij=0i
  • для всех я 1я 2 .jci1jci2j=0i1i2

Затем вы можете определить переменные A i = j c i j X j и B i = j c i j Y j . ( Я , Б я ) независимы, имеют ожидаемое значение ( 0 , 0 ) , и имеют одинаковую дисперсию / ковариации , чем исходных переменных.n1Ai=jcijXjBi=jcijYj(Ai,Bi)(0,0)

Все дело в том, что если вы хотите избавиться от неизвестного ожидания, вы отбрасываете одно (и только одно) наблюдение. Это работает одинаково для обоих случаев.


6

Вот доказательство того, что ковариационная оценка выборки p-вариатора со знаменателем - несмещенная оценка ковариационной матрицы:1n1

.x=(x1,...,xp)

Σ=E((xμ)(xμ))

S=1n(xix¯)(xix¯)

Показать: E(S)=n1nΣ

Доказательство: S=1nxixix¯x¯

Следующий:

(1) E(xixi)=Σ+μμ

(2) E(x¯x¯)=1nΣ+μμ

Therefore: E(S)=Σ+μμ(1nΣ+μμ)=n1nΣ

And so Su=nn1S, with the final denominator 1n1, is unbiased. The off-diagonal elements of Su are your individual sample covariances.

Additional remarks:

  1. The n draws are independent. This is used in (2) to calculate the covariance of the sample mean.

  2. Step (1) and (2) use the fact that Cov(x)=E[xx]μμ

  3. Step (2) uses the fact that Cov(x¯)=1nΣ


The difficulty being in step 2 ! :)
Elvis

@Elvis It's messy. One needs to apply the rule Cov(X+Y,Z)=Cov(X,Z) + Cov(Y,Z) and recognize that the different draws are independent. Then it's basically summing up the covariance n times and scaling it down by 1/n²
statchrist

4

I guess one way to build intuition behind using 'n-1' and not 'n-2' is - that for calculating co-variance we do not need to de-mean both X and Y, but either of the two, i.e.


Could you elaborate on how this bears on the question of what denominator to use? The algebraic relation in evidence derives from the fact that the residuals relative to the mean sum to zero, but otherwise is silent about which denominator is relevant.
whuber

5
I came here because I had the same question as the OP. I think this answer gets at the nub of the point @whuber pointed out above: that the rule of thumb is that df ~= n - (parameters estimated) can be "vague, unrigorous, and potentially misleading." This points out the fact that though it looks like you need to estimate two parameters (xbar and ybar), you really only estimate one (xbar or ybar). Since the df should be the same in both cases, it must be the lower of the two. I think that is the intent here.
mpettis

1

1) Start df=2n.

2) Sample covariance is proportional to Σi=1n(XiX¯)(YiY¯). Lose two df; one from X¯, one from Y¯ resulting in df=2(n1).

3) However, Σi=1n(XiX¯)(YiY¯) only contains n separate terms, one from each product. When two numbers are multiplied together the independent information from each separate number disappears.

As a trite example, consider that

24=124=212=38=46=64=83=122=241,

and that does not include irrationals and fractions, e.g. 24=2626, so that when we multiply two number series together and examine their product, all we see are the df=n1 from one number series, as we have lost half of the original information, that is, what those two numbers were before the pair-wise grouping into one number (i.e., multiplication) was performed.

In other words, without loss of generality we can write

(XiX¯)(YiY¯)=ziz¯ for some zi and z¯,

i.e., zi=XiYiX¯YiXiY¯, and, z¯=X¯Y¯. From the z's, which then clearly have df=n1, the covariance formula becomes

Σi=1nziz¯n1=

Σi=1n[(XiX¯)(YiY¯)]n1=

1n1Σi=1n(XiX¯)(YiY¯).

Thus, the answer to the question is that the df are halved by grouping.


@whuber How on earth did I get the same thing posted twice and deleted once? What gives? Can we get rid of one of them? For future reference, is there any way to permanently delete such duplicates? I have a few hanging around and it's annoying.
Carl

As far as I can tell, you reposted your answer from the duplicate to here. (Nobody else has the power to post answers in your name.) The system strongly discourages posting identical answers in multiple threads, so when I saw that, it convinced me these two threads are perfect duplicates and I "merged" them. This is a procedure that moves all comments and answers from the source thread to the target thread. I then deleted your duplicate post here in the target thread. It will remain permanently deleted, but will be visible to you as well as to people of sufficiently high reputation.
whuber

@whuber I didn't know what happens in a merge, that a merge was taking place or what many of the rules are, despite looking things up constantly. It takes time to learn, be patient, BTW, would you consider taking stats.stackexchange.com/questions/251700/… off of Hold?
Carl
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.