Оценки максимального правдоподобия для усеченного распределения


28

Рассмотрим независимых выборок S, полученных из случайной величины X, которая, как предполагается, следует усеченному распределению (например, усеченному нормальному распределению ) известных (конечных) минимальных и максимальных значений a и b, но неизвестных параметров μ и σ 2 . Если Х следовали неусеченной распределение, максимального правдоподобия оценок ц и σ 2 для ц , и сг 2 из S будет выборочное среднее μNSXabμσ2Xμ^σ^2μσ2Sи дисперсия выборки сг 2=1μ^=1NiSi. Однако для усеченного распределения выборочная дисперсия, определенная таким образом, ограничена(b-a)2,поэтому она не всегда является последовательной оценкой: дляσ2>(b-a)2она не может сходиться по вероятности кσ2какNуходит в бесконечность. Таким образом, кажетсячто М и σ 2не являются оценками максимального правдоподобия изцσ^2=1Ni(Siμ^)2(ba)2σ2>(ba)2σ2Nμ^σ^2μи для усеченного распределения. Конечно, этого следует ожидать, поскольку параметры μ и σ 2 усеченного нормального распределения не являются его средним значением и дисперсией.σ2μσ2

Итак, каковы оценки максимального правдоподобия параметров и σ усеченного распределения известных минимальных и максимальных значений?μσ


Вы уверены в своем анализе? Я думаю, что вы делаете неверное предположение: для усеченной ситуации MLE для больше не является выборочной дисперсией (и, как правило, MLE для µ больше не является средним для выборки)! σ2μ
whuber

whuber: я знаю, это как раз мой вопрос: каковы MLE и μ в усеченном случае? Добавив предложение, чтобы настаивать на этом. σ2μ
a3nm

1
Нет закрытого решения. Все, что вы можете сделать, это минимизировать вероятность регистрации. Но это качественно не отличается от многих других моделей, таких как логистическая регрессия, которые также не имеют решения в замкнутой форме.
whuber

whuber: Если это правда, это довольно обидно. Есть ли у вас ссылки на отсутствие закрытых решений? Существуют ли оценки в замкнутой форме, которые не имеют максимальной вероятности, но, по крайней мере, последовательны (и необязательно объективны?).
a3nm

1
@whuber: Можете ли вы хотя бы упростить выборки до достаточной статистики, чтобы минимизация была быстрой?
Нил Дж

Ответы:


29

Рассмотрим любое семейство масштабов местоположения, определяемое «стандартным» распределением ,F

ΩF={F(μ,σ):xF(xμσ)σ>0}.

Предполагая, что дифференцируемо, мы легко находим, что PDF-файлы 1F.1σf((xμ)/σ)dx

Усечение этих дистрибутивов для ограничения их поддержки между и b , a < b , означает, что файлы PDF заменяются наaba<b

f(μ,σ;a,b)(x)=f(xμσ)dxσC(μ,σ,a,b),axb

xC(μ,σ,a,b)=F(μ,σ)(b)F(μ,σ)(a)f(μ,σ;a,b)C1xi

Λ(μ,σ)=i[logf(xiμσ)logσlogC(μ,σ,a,b)].

σ=0

0=Λμ=i[fμ(xiμσ)f(xiμσ)Cμ(μ,σ,a,b)C(μ,σ,a,b)]0=Λσ=i[fσ(xiμσ)σ2f(xiμσ)1σCσ(μ,σ,a,b)C(μ,σ,a,b)]

abnCμ(μ,σ,a,b)/C(μ,σ,a,b)A(μ,σ)nCσ(μ,σ,a,b)/C(μ,σ,a,b)B(μ,σ)

A(μ,σ)=ifμ(xiμσ)f(xiμσ)σ2B(μ,σ)nσ=ifσ(xiμσ)f(xiμσ)

Сравнивая их с ситуацией отсутствия усечения, видно, что

  • Любой достаточной статистики для исходной задачи достаточно для усеченной задачи (потому что правые части не изменились).

  • ABμσ

C(μ,σ,a,b)


fμfσCμCσx[a,b]

1
Cμ=μC(μ,σ,a,b)

Кроме того, поскольку ваш ответ более общий, чем я ожидал, я отредактировал свой вопрос, чтобы меньше настаивать на случае нормальных распределений. Еще раз спасибо за ваши усилия.
a3nm

1
Это было легче объяснить на этом уровне общности по сравнению с фокусировкой на нормальных распределениях! Вычисление производных и показ точной формы CDF - это ненужные отвлекающие факторы (хотя они полезны, когда вы начинаете фактически кодировать численное решение).
whuber

1
Спасибо за исправление! Вы пропустили один из них; Можете ли вы просмотреть мои изменения?
2013 года
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.