Какова интуиция, лежащая в основе определения полноты в статистике как невозможности сформировать из нее несмещенную оценку


21

В классической статистике есть определение, что статистика T набора данных определена как полная для параметра которого невозможно сформировать несмещенную оценку из нее нетривиально. То есть, единственный способ иметь для всех , чтобы иметь быть почти наверняка.y1,,ynθ0Eh(T(y))=0θh0

Есть ли за этим интуиция? Похоже, это довольно механический способ определения этого, я знаю, что об этом уже спрашивали, но мне было интересно, если бы была очень простая для понимания интуиция, которая позволила бы начинающим студентам легче переваривать материал.


2
Это очень хороший вопрос, мне пришлось самому в него вникнуть. Оказывается, причина того, что это такое механическое определение и не кажется интуитивно значимым для обычного практикующего, такого как я, состоит в том, что оно в основном используется для доказательства фундаментального вклада в математическую статистику. В частности, мой короткий поиск показал, что для выполнения теоремы Лемана-Шеффе и теоремы Басу требуется полнота статистики. Это вклад середины 1950-х годов. Я не могу предложить вам интуитивно понятное объяснение - но если вы действительно хотите его создать, может быть, доказательство ассоциируется
Иеремия К

Ответы:


18

Я постараюсь добавить к другому ответу. Во-первых, полнота - это техническое условие, которое в основном оправдывается теоремами, в которых оно используется. Итак, давайте начнем с некоторых связанных понятий и теорем, где они происходят.

Пусть X=(X1,X2,,Xn) представляет вектор данных iid, который мы моделируем как имеющий распределение f(x;θ),θΘ где параметр θ управляющий данными, неизвестен. T=T(X) является достаточным , если условное распределение XT не зависит от параметра & θ . V=V(X) являетсявспомогательным,если распределениеV не зависит отθ (в пределах семействаf(x;θ) ). U=U(X) являетсянесмещенной оценкой нуля,если его ожидание равно нулю, независимо отθ . S=S(X) -полная статистика,если любой несмещенный оценщик нуля, основанный наS , тождественно равен нулю, то есть еслиEg(S)=0(for all θ) тогдаg(S)=0 ae (для всехθ ).

Теперь предположим, что у вас есть две разные несмещенные оценки θ основанные на достаточной статистике T , g1(T),g2(T) . То есть в символах

Eg1(T)=θ,Eg2(T)=θ
иP(g1(T)g2(T))>0(для всехθ). Тогдаg1(T)g2(T)является несмещенной оценкой нуля, которая не тождественно равна нулю, доказывая, чтоTне является полным. Таким образом, полнота достаточной статистикиTдает нам то, что существует только одна единственная несмещенная оценкаθна основании T . Это уже очень близко к теореме Лемана – Шеффе.

Давайте посмотрим на некоторые примеры. Предположим, что X1,,Xn теперь одинаковы на интервале (θ,θ+1) . Мы можем показать, что ( X(1)<X(2)<<X(n) - статистика порядка) пара (X(1),X(n)) достаточна, но не полна, потому что разница X(n)X(1) является вспомогательным, мы можем вычислить его ожидание, пусть оно будетc(которое является функциейтолькоотn), и тогдаX(n)X(1)cбудет несмещенной оценкой нуля который не тождественно равен нулю. Таким образом, наша достаточная статистика в этом случае не является полной и достаточной. И мы можем видеть, что это значит: существуют функции достаточной статистики, которые не информативны относительноθ(в контексте модели). Это не может произойти с полной достаточной статистикой; это в некотором смысле максимально информативно, поскольку никакие его функции неинформативны. С другой стороны, если есть некоторая функция минимально достаточной статистики, которая имеет нулевое ожидание, которое можно рассматривать как шумовой член , слагаемые возмущения / шума в моделях имеют нулевое ожидание. Таким образом, мы могли бы сказать, что неполная достаточная статистика содержит некоторый шум .

Look again at the range R=X(n)X(1) in this example. Since its distribution does not depend on θ, it doesn't by itself alone contain any information about θ. But, together with the sufficient statistic, it does! How? Look at the case where R=1 is observed.Then, in the context of our (known to be true) model, we have perfect knowledge of θ! Namely, we can say with certainty that θ=X(1). You can check that any other value for θ then leads to either X(1) or X(n) being an impossible observation, under the assumed model. On the other hand, if we observe R=0.1, then the range of possible values for θ is rather large (exercise ...).

In this sense, the ancillary statistic R does contain some information about the precision with which we can estimate θ based on this data and model. In this example, and others, the ancillary statistic R "takes over the role of the sample size". Usually, confidence intervals and such needs the sample size n, but in this example, we can make a conditional confidence interval this is computed using only R, not n (exercise.) This was an idea of Fisher, that inference should be conditional on some ancillary statistic.

Теперь теорема Басу: если T вполне достаточно, то он не зависит от какой-либо вспомогательной статистики. То есть вывод, основанный на полной достаточной статистике, проще, поскольку нам не нужно рассматривать условный вывод. Обусловливание статистикой, которая не зависит от T , конечно, ничего не меняет.

Тогда, последний пример, чтобы дать больше интуиции. Измените наш пример равномерного распределения на равномерное распределение на интервале (θ1,θ2)θ1<θ2 ). В этом случае статистика (X(1),X(n)) является полной и достаточной. Что изменилось? Мы можем видеть, что полнота действительно свойство модели. In the former case, we had a restricted parameter space. This restriction destroyed completeness by introducing relationships on the order statistics. By removing this restriction we got completeness! So, in a sense, lack of completeness means that the parameter space is not big enough, and by enlarging it we can hope to restore completeness (and thus, easier inference).

Some other examples where lack of completeness is caused by restrictions on the parameter space,

  • see my answer to: What kind of information is Fisher information?

  • Let X1,,Xn be iid Cauchy(θ,σ) (a location-scale model). Then the order statistics in sufficient but not complete. But now enlarge this model to a fully nonparametric model, still iid but from some completely unspecified distribution F. Then the order statistics is sufficient and complete.

  • For exponential families with canonical parameter space (that is, as large as possible) the minimal sufficient statistic is also complete. But in many cases, introducing restrictions on the parameter space, as with curved exponential families, destroys completeness.

A very relevant paper is An Interpretation of Completeness and Basu's Theorem.


7

Some intuition may be available from the theory of best (minimum variance) unbiased estimators.

If EθW=τ(θ) then W is a best unbiased estimator of τ(θ) iff W is uncorrelated with all unbiased estimators of zero.

Proof: Let W be an unbiased estimator uncorrelated with all unbiased estimators of zero. Let W be another estimator such that EθW=EθW=τ(θ). Write W=W+(WW). By assumption, VarθW=VarθW+Varθ(WW). Hence, for any W, VarθWVarθW.

Now assume that W is a best unbiased estimator. Let there be some other estimator U with EθU=0. ϕa:=W+aU is also unbiased for τ(θ). We have

Varθϕa:=VarθW+2aCovθ(W,U)+a2VarθU.
If there were a θ0Θ such that Covθ0(W,U)<0, we would obtain Varθϕa<VarθW for a(0,2Covθ0(W,U)/Varθ0U). W could then not be the best unbiased estimator. QED

Intuitively, the result says that if an estimator is optimal, it must not be possible to improve it by just adding some noise to it, in the sense of combining it with an estimator that is just zero on average (being an unbiased estimator of zero).

Unfortunately, it is difficult to characterize all unbiased estimators of zero. The situation becomes much simpler if zero itself is the only unbiased estimator of zero, as any statistic W satisfies Covθ(W,0)=0. Completeness describes such a situation.

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.