Я сам сейчас занимаюсь этим вопросом. Вот результат, который может быть полезным. Рассмотрим линейную модель
y=Xβ+ϵ,ϵ∼N(0,σ2)
где и & beta ; и σ 2 являются параметры , представляющие интерес. Совместная вероятностьy∈Rn,β∈Rp,βσ2
L(β,σ2)=(2πσ2)−n/2exp(−||y−Xβ||22σ2)
Оптимизация совместной вероятности доходности
β^=X+y
σ^2=1n||r||2
где представляет собой Псевдообратный X и г = у - Х β является нужным остаточный вектор. Отметим , что в σ 2 мы имеем 1 / п вместо привычных степенями свободы корректируется соотношение 1 / ( п - р ) . Известно, что эта оценка смещена в случае конечной выборки.X+Xr=y−Xβ^σ^21/n1/(n−p)
Теперь предположим, что вместо оптимизации как и σ 2 мы интегрируем β out и оцениваем σ 2 из полученной интегрированной вероятности:βσ2βσ2
σ^2=maxσ2∫RpL(β,σ2)dβ
Используя элементарную линейную алгебру и гауссову интегральную формулу, вы можете показать, что
σ^2=1n−p||r||2
Это имеет поправку на степени свободы, которая делает его беспристрастным и в целом предпочтительным по сравнению с совместной оценкой ОД.
Из этого результата можно было бы спросить, есть ли что-то по преимуществу в интегрированной вероятности, но я не знаю каких-либо общих результатов, которые отвечают на этот вопрос. Похоже, консенсус заключается в том, что интегрированный ML лучше учитывает неопределенность в большинстве проблем оценки. В частности, если вы оцениваете величину, которая зависит от других оценок параметров (даже неявно), то интеграция по другим параметрам будет лучше учитывать их неопределенности.