[Я думаю, что это может быть примером ситуации, обсуждаемой в вашем вопросе.]
Есть многочисленные примеры противоречивых оценок ML. Несоответствие обычно наблюдается с рядом слегка усложненных проблем со смешиванием и проблем с цензурой.
[Непротиворечивость теста в основном заключается только в том, что мощность теста для (фиксированной) ложной гипотезы увеличивается до единицы как .]n→∞
Рэдфорд Нил приводит пример в своей записи в блоге 2008-08-09 « Непоследовательная оценка максимального правдоподобия:« обычный »пример» . Это предполагает оценку параметра в:θ
X | θ ∼ (1/2)N(0,1) + (1/2)N(θ,exp(−1/θ2)2)
(Нил использует там, где у меня есть ), где оценка ML для будет стремиться к как (и действительно, вероятность может быть намного выше в пике около 0, чем при истинном значении для довольно скромной выборки) размеры). Тем не менее это тот случай, когда есть вершина около истинного значения , она просто меньше, чем около 0.θ θ 0 n → ∞ θtθθ0n→∞θ
Представьте теперь два случая, относящихся к этой ситуации:
a) выполнение теста отношения правдоподобия против альтернативного ;H 1 : θ < θ 0H0:θ=θ0H1:θ<θ0
б) выполнение теста отношения правдоподобия против альтернативного .H 1 : θ ≠ θ 0H0:θ=θ0H1:θ≠θ0
В случае (a) представьте, что истина (так что альтернатива истинна, а - это другая сторона истинной ). Тогда, несмотря на то, что вероятность, очень близкая к 0, превысит вероятность в , вероятность в тем не менее, превышает вероятность в даже в небольших выборках, и отношение будет продолжать расти с ростом , таким образом, чтобы вероятность отклонения в тесте отношения правдоподобия была равна 1. 0 θ θ θ θ 0 n → ∞θ<θ00θθθθ0n→∞
Действительно, даже в случае (b), пока является фиксированным и ограниченным от , также должен быть случай, когда отношение правдоподобия будет расти таким образом, чтобы сделать вероятность отклонения в тесте отношения правдоподобия также подход 1. 0θ00
Так что это может показаться примером противоречивой оценки ML, где мощность LRT должна, тем не менее, перейти к 1 (кроме случаев, когда ).θ0=0
[Обратите внимание, что в этом нет ничего такого, чего бы не было в ответе Уубера, который, я думаю, является примером ясности и намного проще для понимания разницы между последовательностью теста и непротиворечивостью оценки. Тот факт, что противоречивая оценка в конкретном примере не была ML, на самом деле не имеет значения, поскольку понимание этой разницы - и привнесение противоречивой оценки, которая является конкретно ML - как я пытался сделать здесь, - на самом деле не меняет объяснение любым существенным способом. Единственный реальный смысл приведенного здесь примера состоит в том, что я думаю, что он решает вашу проблему с использованием оценщика ML.]