Знаменатель (несмещенной) оценки дисперсии равен поскольку имеется наблюдений и оценивается только один параметр.
Кроме того, мне интересно, почему знаменатель ковариации не должен быть когда оцениваются два параметра?
Знаменатель (несмещенной) оценки дисперсии равен поскольку имеется наблюдений и оценивается только один параметр.
Кроме того, мне интересно, почему знаменатель ковариации не должен быть когда оцениваются два параметра?
Ответы:
Ковариации - это дисперсии.
Так как по поляризационной идентичности
знаменатели должны быть одинаковыми.
Особый случай должен дать вам интуицию; подумайте о следующем:
Вы счастливы, что последний из-за поправки Бесселя.
Но заменив на X в ^ С о об ( X , Y ) для бывшей дает Е п я = 1 ( X я - ¯ X ) ( X я - ¯ X ) , так что вы думаете, что лучше всего заполнить пробел?
Быстрый и грязный ответ ... Давайте сначала рассмотрим ; если бы у вас было n наблюдений с известным ожидаемым значением E ( X ) = 0, вы бы использовали 1 для оценки дисперсии.
Ожидаемое значение неизвестно, вы можете преобразовать свои наблюдений в n - 1 наблюдений с известным ожидаемым значением, взяв A i = X i - X 1 для i = 2 , … , n . Вы получите формулу с n - 1 в знаменателе - однако A i не являются независимыми, и вам придется принять это во внимание; в конце вы найдете обычную формулу.
Теперь для ковариации вы можете использовать ту же идею: если бы ожидаемое значение было ( 0 , 0 ) , у вас было бы 1 в формуле. Вычитая(X1,Y1) извсех других наблюдаемых значений, вы получаетеn-1наблюдений с известным ожидаемым значением ... и1 в формуле - еще раз, это вводит некоторую зависимость для учета.
PS Простой способ сделать это - выбрать ортонормированный базис из , то есть n - 1 векторов c 1 , … , c n - 1 ∈ R n, таких, что
Затем вы можете определить переменные A i = ∑ j c i j X j и B i = ∑ j c i j Y j . ( Я , Б я ) независимы, имеют ожидаемое значение ( 0 , 0 ) , и имеют одинаковую дисперсию / ковариации , чем исходных переменных.
Все дело в том, что если вы хотите избавиться от неизвестного ожидания, вы отбрасываете одно (и только одно) наблюдение. Это работает одинаково для обоих случаев.
Вот доказательство того, что ковариационная оценка выборки p-вариатора со знаменателем - несмещенная оценка ковариационной матрицы:
.
Показать:
Доказательство:
Следующий:
(1)
(2)
Therefore:
And so , with the final denominator , is unbiased. The off-diagonal elements of are your individual sample covariances.
Additional remarks:
The n draws are independent. This is used in (2) to calculate the covariance of the sample mean.
Step (1) and (2) use the fact that
Step (2) uses the fact that
I guess one way to build intuition behind using 'n-1' and not 'n-2' is - that for calculating co-variance we do not need to de-mean both X and Y, but either of the two, i.e.
1) Start .
2) Sample covariance is proportional to . Lose two ; one from , one from resulting in .
3) However, only contains separate terms, one from each product. When two numbers are multiplied together the independent information from each separate number disappears.
As a trite example, consider that
,
and that does not include irrationals and fractions, e.g. , so that when we multiply two number series together and examine their product, all we see are the from one number series, as we have lost half of the original information, that is, what those two numbers were before the pair-wise grouping into one number (i.e., multiplication) was performed.
In other words, without loss of generality we can write
for some and ,
i.e., , and, . From the 's, which then clearly have , the covariance formula becomes
.
Thus, the answer to the question is that the are halved by grouping.
Hold
?