Каков метод моментов?
В Википедии есть хорошая статья об этом.
https://en.m.wikipedia.org/wiki/Method_of_moments_(statistics)
Это означает, что вы оцениваете параметры популяции, выбирая параметры таким образом, чтобы распределение популяции имело моменты, которые эквивалентны наблюдаемым моментам в выборке.
Чем он отличается от MLE?
Оценка максимального правдоподобия минимизирует функцию правдоподобия. В некоторых случаях этот минимум иногда можно выразить в терминах установки параметров популяции, равных параметрам выборки.
Например, при оценке среднего параметра распределения и использовании MLE мы часто используем . Однако это не всегда должно быть так (см .: https://stats.stackexchange.com/a/317631/164061, хотя в приведенном здесь примере распределение Пуассона, оценка MLE и MoM совпадают, и То же самое верно и для многих других). Например, решение MLE для оценки в нормальном распределении журнала :μ=x¯μ
μ=1/n∑ln(xi)=ln(x)¯¯¯¯¯¯¯¯¯¯¯
В то время как решение MoM решает
exp(μ+12σ2)=x¯
ведущий к
μ=ln(x¯)−12σ2
Таким образом, MoM - это практический способ оценки параметров, который часто приводит к тому же результату, что и MLE (поскольку моменты выборки часто совпадают с моментами совокупности, например, среднее значение выборки распределено вокруг среднего значения совокупности, и до некоторого фактора / смещения, это работает очень хорошо). MLE имеет более прочную теоретическую основу и, например, позволяет оценивать ошибки, используя матрицу Фишера (или ее оценки), и это гораздо более естественный подход в случае проблем регрессии (я не пробовал, но я предполагаю, что МО для решения параметров в простой линейной регрессиине работает легко и может дать плохие результаты. В ответе superpronker кажется, что это делается путем некоторой минимизации функции. Для MLE эта минимизация выражает более высокую вероятность, но мне интересно, представляет ли она такую же вещь для MoM).