Примеры, где метод моментов может превзойти максимальную вероятность в маленьких выборках?


57

Оценки максимального правдоподобия (MLE) асимптотически эффективны; мы видим практический результат в том, что они часто работают лучше, чем оценки методом моментов (MoM) (когда они различаются), даже при небольших размерах выборки

Здесь «лучше чем» означает то, что обычно имеет меньшую дисперсию, когда оба несмещены, и, как правило, меньше среднеквадратичная ошибка (MSE) в более общем смысле.

Однако возникает вопрос:

Есть ли случаи, когда МЗ может побить MLE - скажем, на MSE - в небольших выборках?

(где это не какая-то странная / вырожденная ситуация - то есть, учитывая, что условия для ML существуют / асимптотически эффективны)

Тогда последующим вопросом будет «насколько большим может быть маленький?». - то есть, если есть примеры, есть ли такие, которые все еще сохраняются при относительно больших размерах выборки, возможно, даже при всех конечных размерах выборки?

[Я могу найти пример смещенной оценки, которая может побить ML в конечных выборках, но это не MoM.]


Примечание добавлено ретроспективно: мой фокус здесь в первую очередь на одномерном случае (именно отсюда и происходит мое любопытство). Я не хочу исключать многовариантные случаи, но я также не хочу особенно углубляться в расширенные обсуждения оценки Джеймса-Стейна.


Нет проблем; это случается со всеми нами и со мной чаще, чем с вами. Наверное, мне следовало бы это правильно указать в названии, но это было уже довольно долго.
Glen_b

@cardinal Теперь я уточнил критерии.
Glen_b

3
Существуют и другие способы, с помощью которых метод моментов может «превзойти» максимальную вероятность. Например, в задачах оценки нормальной смеси MLE, как известно, трудно вычислить, в то время как MoM нет.
vqv

@vqv Конечно, в этом смысле MoM может быть предпочтительнее.
Glen_b

2
Так как я склонен симпатизировать плебеям, я сообщаю, что в выборке из iid Uniforms оценка MoM для имеет то же значение MSE, что и для патриция (MLE), если размер выборки равен , или ... Но, увы, для больших размеров выборки патриций снова θ 1 2U(0,θ)θ12
отстаивает

Ответы:


36

Это может считаться ... обманом, но оценщик OLS является оценщиком MoM. Рассмотрим стандартную спецификацию линейной регрессии (с стохастическими регрессорами, поэтому величины зависят от матрицы регрессоров) и выборку размера . Обозначим OLS-оценку дисперсии ошибки. Это непредвзято такн с 2 σ 2Kns2σ2

MSE(s2)=Var(s2)=2σ4nK

Теперь рассмотрим MLE . этоσ2

σ^ML2=nKns2
Это предвзято. Его MSE

MSE(σ^ML2)=Var(σ^ML2)+[E(σ^ML2)σ2]2
Выражая MLE в терминах OLS и используя выражение для дисперсии оценки OLS, мы получаем

МСЕ( σ 2 M L )=2(п-K)+K2

MSE(σ^ML2)=(nKn)22σ4nK+(Kn)2σ4
MSE(σ^ML2)=2(nK)+K2n2σ4

Мы хотим условия (если они существуют), при которых

MSE(σ^ML2)>MSE(s2)2(nK)+K2n2>2nK

2 n 2 - 4 n K + 2 K 2 + n K 2 - K 3 > 2 n 2 - 4 n + 2 K + n K - K 2 > 0 K 2 - (

2(nK)2+K2(nK)>2n2
2n24nK+2K2+nK2K3>2n2
Упрощая, мы получаем ли для этого квадратичного в получить отрицательные значения? Нам нужен его дискриминант, чтобы быть позитивным. У нас есть что на этот раз является еще одним квадратичным, по . Этот дискриминант является поэтому чтобы принять во внимание тот факт, что является целым числом. Если
4n+2K+nKK2>0K2(n+2)K+4n<0
K
ΔK=(n+2)216n=n2+4n+416n=n212n+4
n
Δn=12242=816
n1,n2=12±8162=6±42n1,n2={1,12}
nnвнутри этого интервала мы имеем, что и квадратик в всегда принимает положительные значения, поэтому мы не можем получить требуемое неравенство. Итак: нам нужен размер выборки больше 12.ΔK<0K

Учитывая это, корни для квадратичногоK

K1,K2=(n+2)±n212n+42=n2+1±(n2)2+13n

В целом: для образца размером и число регрессоров такое , что мы имеем Для Например, если то обнаруживается, что число регрессоров должно быть чтобы неравенство сохранялось. Интересно, что для небольшого числа регрессоров MLE лучше в смысле MSE.n>12KK1<K<K2

MSE(σ^ML2)>MSE(s2)
n=505<K<47

ADDENDUM
Уравнение для корней квадратичного можно записатьK

55

K1,K2=(n2+1)±(n2+1)24n
что, на мой взгляд, означает, что нижний корень всегда будет будет (принимая во внимание ограничение "целочисленного значения"), поэтому MLE будет эффективен по MSE, когда регрессоры до для любого (конечного) размера выборки.55

1
E(uuX)=σ2E(uuX)σ2

1
nnKE[Xk(YXβ)]=0E[(YXβ)2]=σ2nв знаменателе.
парень

2
nKn

1
@guy (ПРОДОЛЖЕНИЕ). Итак, вы говорите, что оценщик MoM дисперсии ошибок в этом случае является оценщиком максимального правдоподобия, и поэтому полученный мной результат сравнивает не MoM с ML, а ML с OLS (последний является категорией сам по себе). .. да, можно утверждать, что это (также) так.
Алекос Пападопулос

1
eE(e2)=nknσ2σ2s2

17

«В этой статье мы рассмотрим новую параметризацию двухпараметрического обратного гауссовского распределения. Найдем оценки параметров обратного гауссовского распределения методом моментов и методом максимального правдоподобия. Затем сравним эффективность Оценки для двух методов основаны на их смещении и среднеквадратичной ошибке (MSE). Для этого мы фиксируем значения параметров, запускаем симуляции и сообщаем MSE и смещение для оценок, полученных обоими методами. Вывод таков: когда размеры выборки равны 10, метод моментов, как правило, более эффективен, чем метод максимального правдоподобия для оценки обоих параметров (лямбда и тета) .... " подробнее

В настоящее время нельзя (или не следует) доверять всему опубликованному, но последняя страница газеты выглядит многообещающей. Я надеюсь, что это адрес вашей заметки добавлен ретроспективно.


1
θ

Хорошая находка! Даже если результаты не совпадают, приятно видеть где-то явно заявленную претензию.
Бен Огорек

Статья, на которую я ссылался в своем ответе, была взята из тезиса магистратуры, который полностью доступен здесь: digi.library.tu.ac.th/thesis/st/0415. См., Например, раздел 5.2 для соответствующего утверждения. Шесть человек, включая профессора, подписали этот результат.
Спящий режим

14

В соответствии с моделированием, проведенным Хоскингом и Уоллисом (1987) в «Оценке параметров и квантилей для обобщенного распределения Парето», параметры двухпараметрического обобщенного распределения Парето задаются в формате cdf.

G(y)={1(1+ξyβ)1ξξ01exp(yβ)ξ=0

или плотность

g(y)={1β(1+ξyβ)11ξξ01βexp(yβ)ξ=0

являются более надежными, если они оцениваются с помощью MOM, а не ML. Это верно для образцов размером до 500. Оценки MOM даны

β^=y¯y2¯2(y2¯(y¯)2)

а также

ξ^=12(y¯)22(y2¯(y¯)2)

с участием

y2¯=1ni=1nyi2

Бумага содержит довольно много опечаток (по крайней мере, моя версия делает). Приведенные выше результаты для оценок MOM были любезно предоставлены "heropup" в этой теме .


Спасибо за это. Это один из самых простых примеров того, что я искал до сих пор.
Glen_b

13

Я нашел один:

Для асимметричного экспоненциального распределения мощности

f(x)=ασΓ(1α)κ1+κ2exp(κασα[(xθ)+]α1κασα[(xθ)]α),α,σ,κ>0, and x,θR

θσ

Delicado and Goria (2008)
. Небольшое сравнение методов максимальной вероятности, моментов и L-моментов для асимметричного экспоненциального распределения мощности,
Журнал «Компьютерная статистика и анализ данных»,
том 52, выпуск 3, январь, стр. 1661-1673.

(также см. http://www-eio.upc.es/~delicado/my-public-files/LmomAEP.pdf )


13

Метод моментов (MM) может превзойти подход максимального правдоподобия (ML), когда можно указать только некоторые моменты совокупности. Если распределение плохо определено, оценки ML не будут согласованы.

Предполагая конечные моменты и внутренние наблюдения, ММ может предоставить хорошие оценки с хорошими асимптотическими свойствами.

X1,,XnXff:RR+νk=Rxkf(x)dxkν4

Xk¯=1ni=1nXikν8<

n(X4¯ν4)dN(0,ν8ν42),
d

n(X4¯ν4)X8¯X4¯2dN(0,1)
X8¯X4¯2Pν8ν42

ν4f

Симуляционное исследование:

Патриота и др. (2009) провели ряд имитационных исследований, чтобы проверить частоту отклонения проверок гипотез в модели ошибок в переменных. Результаты свидетельствуют о том, что подход ММ дает частоту ошибок по нулевой гипотезе ближе к номинальному уровню, чем уровень ML для небольших выборок.

Историческая справка:

Метод моментов был предложен К. Пирсоном в 1894 г. «Вклад в математическую теорию эволюции». Метод максимального правдоподобия был предложен Р. А. Фишером в 1922 г. «О математических основах теоретической статистики». Обе статьи опубликованы в «Философских трудах» Лондонского королевского общества, серия А.

Ссылка:

Фишер, Р. А. (1922). О математических основах теоретической статистики, Философские труды Лондонского королевского общества, серия А, 222, 309-368.

Патриота, AG, Bolfarine, H, де Кастро, M (2009). Модель гетероскедастических структурных ошибок в переменных с ошибкой уравнения, Статистическая методология 6 (4), 408-423 ( pdf )

Пирсон, К (1894). Вклад в математическую теорию эволюции, Философские труды Лондонского королевского общества, Серия А, 185, 71-110.


1
Ваш ответ звучит как потенциально интересный. Вы можете расширить это немного? Я не уверен, что вижу.
Glen_b

@Glen_b, пожалуйста, проверьте, поможет ли вам мое последнее добавление.
Александр Патриота

Спасибо за это; Я верю, что вижу, к чему ты клонишь.
Glen_b

Хорошо, это общий комментарий, но я думаю, что он отвечает на ваш вопрос. Если вы предоставляете полную информацию о поведении данных, вполне естественно, что подход ML превосходит подход MM. В статье [1] мы проводим некоторые имитационные исследования, чтобы проверить частоту отклонения проверки гипотез в модели с ошибками в переменных. Результаты свидетельствуют о том, что подход ММ дает частоту ошибок по нулевой гипотезе ближе к номинальному уровню, чем уровень ML для небольших выборок. [1] ime.usp.br/~patriota/STAMET-D-08-00113-revised-v2.pdf
Александр Патриота

Это нетипичный пример метода моментов (MoM). MoM обычно используется в задачах параметрической оценки, где существует строго определенное параметрическое семейство распределений. С другой стороны, здесь вы можете определить непараметрическую оценку максимального правдоподобия. Эмпирическая функция распределения, скажем, F-шляпа, является непараметрической оценкой максимального правдоподобия неизвестной функции распределения F. Учитывая, что 4-й момент является функционалом от F, непараметрическая MLE 4-го момента является 4-м моментом F-шляпы. , Это так же, как образец 4-го момента.
vqv

5

Дополнительные источники в пользу MOM:

Hong, HP и W.E. 2014. Анализ экстремальных снеговых нагрузок для Канады с использованием записей о глубине снега . Природные опасности 73 (2): 355-371.

Использование MML может дать нереалистичные прогнозы, если размер выборки невелик (Hosking et al. 1985; Martin and Stedinger 2000).


Мартинс, Е.С. и Дж. Р. Стедингер. 2000. Обобщенные квантильные оценки экстремальных значений максимального правдоподобия для гидрологических данных . Исследование водных ресурсов 36 (3): 737-744.

Абстрактные:

Трехпараметрическое обобщенное экстремальное распределение (GEV) нашло широкое применение для описания ежегодных паводков, осадков, скорости ветра, высоты волн, глубины снега и других максимумов. Предыдущие исследования показывают, что параметры оценки максимального правдоподобия (MLE) для малых выборок нестабильны и рекомендуют оценки L-моментов. Более поздние исследования показывают, что метод квантильных оценок моментов имеет на -0,25 <κ <0,30 меньшую среднеквадратичную ошибку, чем L-моменты и MLE. Изучение поведения MLE в малых выборках показывает, что могут быть получены абсурдные значения параметра формы GEV κ. Использование байесовского предварительного распределения для ограничения значений к статистически / физически обоснованному диапазону в обобщенном анализе максимального правдоподобия (GML) устраняет эту проблему.

В разделах «Введение» и «Обзор литературы» приводятся дополнительные документы, в которых делается вывод, что MOM в некоторых случаях превосходит MLE (опять же моделирование экстремальных значений), например

Hosking et al. [1985a] показывают, что оценки параметров MLE для малых выборок очень нестабильны, и рекомендуют оценки, основанные на вероятностном взвешенном моменте (PWM), которые эквивалентны оценкам L-моментов [Hosking, 1990]. [...]

Hosking et al. [1985a] показали, что вероятностно-взвешенные моменты (PM) или эквивалентные L-моменты (LM) оценки для распределения GEV лучше, чем оценки максимального правдоподобия (MLE) с точки зрения смещения и дисперсии для размеров выборки, варьирующихся от 15 до 100. Совсем недавно Madsen et al. [1997a] показали, что квантильные оценки метода моментов (MOM) имеют меньшую RMSE (среднеквадратичное значение ror) для -0,25 <K <0,30, чем LM и MLE при оценке 100-летнего события для размеров выборки 10-50 , MLE предпочтительны только тогда, когда K> 0,3 и размеры выборки скромны (n> = 50).

K (каппа) является параметром формы GEV.

документы, которые появляются в кавычках:

Хоскинг Дж., Уоллис Дж., Вуд Э. (1985) Оценка обобщенного экстремального распределения методом взвешенных по вероятности моментов . Technometrics 27: 251–261.

Madsen, H., PF Rasmussen и D. Rosbjerg (1997) Сравнение методов годовых максимальных рядов и рядов частичной продолжительности для моделирования экстремальных гидрологических явлений , 1, Моделирование на месте, Water Resour. Res., 33 (4), 747-758.

Хоскинг, JRM, L-моменты: анализ и оценка распределений с использованием линейных комбинаций статистики порядка , JR Stat. Soc., Ser. В, 52, 105-124, 1990.


Кроме того, у меня есть тот же опыт, что и в предыдущих работах, в случае моделирования экстремальных событий с малым и средним размером выборки (<50-100, что типично), MLE может дать нереальные результаты, моделирование показывает, что MOM более устойчив и имеет меньше RMSE.


3

В процессе ответа на это: Оценка параметров для бинома я наткнулся на эту статью:

Инграм Олкин, А. Джон Петкау, Джеймс В. Зидек: Сравнение N оценок для биномиального распределения. Яса 1981.

NBin(N,p)p


Одна вещь, которая очень хороша в этом примере, это то, что очень просто передать ситуацию - многие люди знакомы с биномом (по крайней мере, в концепции, если не всегда с именем).
Glen_b
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.