Если кто-то сказал
«Этот метод использует MLE точечную оценку для параметра, который максимизирует , поэтому он частый; и, кроме того, он не байесовский».
Вы бы согласились?
- Обновление на фоне : я недавно прочитал газету, которая утверждает, что часто. Я не согласен с их утверждением, в лучшем случае я чувствую, что это неоднозначно. В документе явно не упоминается ни MLE (или MAP , в этом отношении). Они просто берут балльную оценку, и они просто поступают так, как если бы эта балльная оценка была верной. Они непровести анализ распределения выборки по этой оценке или что-то в этом роде; модель довольно сложна, и поэтому такой анализ, вероятно, невозможен. Они ни в коем случае не используют слово «задний». Они просто принимают эту точную оценку за чистую монету и переходят к своей основной теме - выводу недостающих данных. Я не думаю, что в их подходе есть что-то, что подсказывает их философию. Возможно, они намеревались быть частыми (потому что чувствуют себя обязанными носить свою философию на рукаве), но их реальный подход довольно прост / удобен / ленив / неоднозначен. Теперь я склонен сказать, что в основе исследования нет философии; вместо этого я думаю, что их отношение было более прагматичным или удобным
«Я наблюдал за данными и хочу оценить некоторые отсутствующие данные, . Существует параметр который контролирует отношения между и . Меня не волнует кроме как для достижения цели Если у меня есть оценка для , это облегчит прогнозирование по . Я выберу точечную оценку потому что это удобно, в частности я выберу который максимизирует . "г & thetas ; г х & thetas ; & thetas ; г х & thetas ; & thetas ; Р ( х | & thetas ; )
В байесовских методах роли данных и параметров несколько противоположны. В частности, теперь мы приводим условия к наблюдаемым данным и переходим к выводам о значении параметра. Это требует предварительного.
Пока все хорошо, но где MLE (максимальная оценка правдоподобия) вписывается во все это? У меня складывается впечатление, что многие люди считают, что это часто (или, точнее, не байесовски). Но я чувствую, что это байесовский метод, потому что он включает в себя получение данных наблюдений, а затем нахождение параметра, который максимизирует . MLE неявно использует единый априор и обусловливает данные и максимизирует . Справедливо ли сказать, что MLE выглядит как Frequentist и Bayesian? Или каждый простой инструмент должен попадать точно в одну из этих двух категорий?P ( p a r a m e t e r | d a t a )
MLE является последовательным, но я чувствую, что последовательность может быть представлена как байесовская идея. Для произвольно больших выборок оценка сходится к правильному ответу. Утверждение «оценка будет равна истинному значению» справедливо для всех значений параметра. Интересно то, что это утверждение также верно, если вы включите наблюдаемые данные, сделав их байесовскими. Это интересное замечание справедливо для MLE, но не для объективной оценки.
Вот почему я чувствую, что MLE - это «самый байесовский» из методов, которые могут быть описаны как Frequentist.
В любом случае, большинство свойств Frequentist (например, беспристрастность) применимы во всех случаях, включая конечные размеры выборки. Тот факт, что согласованность имеет место только в невозможном сценарии (бесконечная выборка в одном эксперименте), предполагает, что согласованность не является таким полезным свойством.
Учитывая реалистичную (то есть конечную) выборку, есть ли свойство Frequentist, справедливое для MLE? Если нет, то MLE на самом деле не частый.