Байесовский подход имеет практические преимущества. Это помогает с оценкой, часто являющейся обязательной. И это позволяет создавать новые семейства моделей и помогает в построении более сложных (иерархических, многоуровневых) моделей.
Например, в смешанных моделях (включая случайные эффекты с параметрами дисперсии) можно получить более точные оценки, если параметры дисперсии оцениваются путем маргинализации по параметрам более низкого уровня (коэффициенты модели; это называется REML ). Байесовский подход делает это естественно. С этими моделями, даже с REML, оценки максимальной вероятности (ML) параметров дисперсии часто равны нулю или смещены вниз. Правильный априор для параметров дисперсии помогает.
Даже если используется точечная оценка ( MAP , максимум апостериори), приоры меняют семейство моделей. Линейная регрессия с большим набором несколько коллинеарных переменных неустойчива. Регуляризация L2 используется как исправление, но она интерпретируется как байесовская модель с гауссовой (неинформативной) предварительной оценкой и MAP. (Регуляризация L1 - это другой априор и дает разные результаты. На самом деле, здесь априор может быть несколько информативным, но он касается коллективных свойств параметров, а не одного параметра.)
Таким образом, есть некоторые общие и относительно простые модели, где для достижения цели необходим байесовский подход!
Еще более предпочтительны более сложные модели, такие как скрытое распределение Дирихле (LDA), используемое в машинном обучении. А некоторые модели по своей природе являются байесовскими, например, основанные на процессах Дирихле .