Я пытаюсь доказать, что наблюдаемая информационная матрица, оцененная по слабо непротиворечивой оценке максимального правдоподобия (MLE), является слабо непротиворечивой оценкой ожидаемой информационной матрицы. Это широко цитируемый результат, но никто не дает ссылку или доказательство (я исчерпал, я думаю, первые 20 страниц результатов Google и мои учебники статистики)!
Используя слабо согласованную последовательность MLE, я могу использовать слабый закон больших чисел (WLLN) и теорему о непрерывном отображении, чтобы получить желаемый результат. Однако я считаю, что теорема о непрерывном отображении не может быть использована. Вместо этого я думаю, что нужно использовать единый закон больших чисел (ULLN). Кто-нибудь знает ссылку, которая имеет доказательство этого? У меня есть попытка ULLN, но пока я ее опущу для краткости.
Я прошу прощения за длину этого вопроса, но обозначения должны быть введены. Обозначения как следующие (мое доказательство в конце).
Предположим, что у нас есть выборка случайных величин { Y 1 , … , Y N }
I ( θ ) = - E θ [ H θ ( log f ( ˜ Y | θ ) ]
где H θ
I N ( θ ) = N ∑ i = 1 I y i ( θ ) ,
где I y i = - E θ [ H θ ( log f ( Y i | θ ) ]
J ( θ ) = - H θ ( log f ( y | θ )
(некоторые люди требуют матрица оценивается в & thetas , но некоторые этого не делают). Выборочная наблюдаемая информационная матрица имеет вид;
J N ( θ ) = ∑ N i = 1 J y i ( θ )
где J y i ( θ ) = - H θ ( log f ( y i | θ )
I can prove convergence in probability of the estimator N−1JN(θ)
Now (JN(θ))rs=−∑Ni=1(Hθ(logf(Yi|θ))rs
Any help on this would be greatly appreciated.