Таким образом, в (неконтролируемом) текстовом моделировании скрытое распределение Дирихле (LDA) является байесовской версией вероятностного скрытого семантического анализа (PLSA). По сути, LDA = PLSA + Dirichlet перед его параметрами. Насколько я понимаю, LDA теперь является эталонным алгоритмом и реализован в различных пакетах, в то время как PLSA больше не следует использовать.
Но в (контролируемой) текстовой категоризации мы могли бы сделать то же самое для полиномиального наивного байесовского классификатора и поставить Дирихле перед параметрами. Но я не думаю, что когда-либо видел, чтобы кто-то делал это, и версия «точечной оценки» многочленного Наивного Байеса, кажется, является версией, реализованной в большинстве пакетов. Есть ли причина для этого?