Зачем нам нужна оценка, чтобы быть последовательной?


15

Я думаю, я уже понял математическое определение непротиворечивой оценки. Поправьте меня если я ошибаюсь:

Wn - непротиворечивая оценка для if \ forall \ epsilon> 0θϵ>0

limnP(|Wnθ|>ϵ)=0,θΘ

Где Θ - Параметрическое Пространство. Но я хочу понять, что оценка должна быть последовательной. Почему оценка, которая не соответствует, плоха? Не могли бы вы привести несколько примеров?

Я принимаю симуляции в R или Python.


3
Непоследовательная оценка не всегда плохая. Возьмите, например, противоречивую, но непредвзятую оценку. См. Статью Википедии о согласованном оценщике en.wikipedia.org/wiki/Consistent_estimator , в частности раздел о предвзятости и согласованности
compbiostats

Согласованность - это, грубо говоря, оптимальное асимптотическое поведение оценщика. Мы выбираем оценщик, который в конечном итоге приближается к истинному значению . Поскольку это всего лишь сходимость по вероятности, эта ветка может быть полезна: stats.stackexchange.com/questions/134701/… . θ
StubbornAtom

@StubbornAtom, я бы осторожно назвал такой непротиворечивый оценщик «оптимальным», так как этот термин обычно зарезервирован для оценщиков, которые также, в некотором смысле, эффективны.
Кристоф Ханк

Ответы:


22

Если оценка не согласована, она не будет сходиться к истинному значению вероятности . Другими словами, всегда существует вероятность того, что ваш оценщик и истинное значение будут иметь различие, независимо от того, сколько точек данных у вас есть. Это на самом деле плохо, потому что даже если собрать огромное количество данных, ваша оценка будет всегда иметь положительную вероятность быть некоторые ϵ>0 отличается от истинного значения. Практически, вы можете рассматривать эту ситуацию так, как будто вы используете оценщик такого количества, что даже обследование всего населения вместо небольшой выборки не поможет вам.


21

Рассмотрим n=10000 наблюдений из стандартного распределения Коши, которое совпадает с t-распределением Стьюдента с 1 степенью свободы. Хвосты этого распределения достаточно тяжелые, что не имеет значения; распределение сосредоточено в его медианеη=0.

Последовательность выборки означает AJзнак равно1JΣязнак равно1JИксяне согласуется для центра распределения Коши. Грубо говоря, трудность состоит в том, что очень экстремальные наблюденияИкся(положительные или отрицательные) происходят с достаточной регулярностью, так что уAJнет шансовсходиться кηзнак равно0.(AJне просто медленно сходятся, они не не сходятся. РаспределениеAJснова стандартно по Коши [доказательство].)

Напротив, на любом одном этапе непрерывного процесса выборки около половины наблюдений Икся будут лежать по обе стороны от η, так что последовательность ЧАСJ выборочных медиан действительно сходится к η,

Это отсутствие сходимости AJ и сходимости ЧАСJ иллюстрируется следующим моделированием.

set.seed(2019)  # for reproducibility
n = 10000;  x = rt(n, 1);  j = 1:n
a = cumsum(x)/j
h = numeric(n)
for (i in 1:n) {
  h[i] = median(x[1:i])  } 
par(mfrow=c(1,2))
 plot(j,a, type="l", ylim=c(-5,5), lwd=2,
    main="Trace of Sample Mean")
  abline(h=0, col="green2")
  k = j[abs(x)>1000] 
  abline(v=k, col="red", lty="dotted")
 plot(j,h, type="l", ylim=c(-5,5), lwd=2,
     main="Trace of Sample Median")
  abline(h=0, col="green2") 
par(mfrow=c(1,1))

введите описание изображения здесь

Вот список шагов, на которых |Xi|>1000. Вы можете увидеть влияние некоторых из этих экстремальных наблюдений на скользящие средние на графике слева (у вертикальных красных пунктирных линий).

k = j[abs(x)>1000]
rbind(k, round(x[k]))
   [,1] [,2] [,3]  [,4] [,5]  [,6]   [,7]  [,8]
k   291  898 1293  1602 2547  5472   6079  9158
  -5440 2502 5421 -2231 1635 -2644 -10194 -3137

Согласованность важного в оценке: при выборке из популяции Коши среднее значение выборки из n=10000 наблюдений не лучше для оценки центраη чем одно наблюдение. Напротив, согласованная медиана выборки сходится кη, поэтому более крупные выборки дают лучшие оценки.


1
Немного выделяюсь, но ваша симуляция иллюстрирует неспособность выборочного значения почти наверняка, не по вероятности, сходиться к центру Коши (сильная или слабая согласованность).
Алешинг

9

Действительно простой пример того, почему важно думать о согласованности, которая, я думаю, не привлекает достаточного внимания, - это упрощенная модель.

В качестве теоретического примера, предположим, что вы хотите подогнать модель линейной регрессии к некоторым данным, в которой истинные эффекты были на самом деле нелинейными. Тогда ваши прогнозы не могут быть последовательными для истинного среднего значения для всех комбинаций ковариат, в то время как более гибкие могут это сделать. Другими словами, упрощенная модель будет иметь недостатки, которые нельзя преодолеть, используя больше данных.


yi=y^i+e^i

8

@BruceET уже дал отличный технический ответ, но я хотел бы добавить пункт о толковании всего этого, хотя.

Одним из фундаментальных понятий в статистике является то, что с увеличением размера нашей выборки мы можем сделать более точные выводы о нашем основном распределении. Вы можете думать об этом как о том, что взятие большого количества выборок устраняет случайный джиттер в данных, поэтому мы получаем лучшее представление о базовой структуре.

(Икся)яN Е[Икс1]<

1NΣКзнак равно1NИксКЕ[Икс]   в качестве

Теперь требовать, чтобы оценщик был непротиворечивым, означает, что он также следует этому правилу: поскольку его работа заключается в оценке неизвестного параметра, мы хотели бы, чтобы он сходился к этому параметру (читай: оцените этот параметр произвольно хорошо) в качестве нашей выборки размер стремится к бесконечности.

Уравнение

ИтNп(|WN-θ|>ε)знак равно0,ε>0 θ Θ

WNθ

[θ-ε,θ+ε]θ

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.