В этом популярном вопросе ответ с высоким голосом разделяет MLE и Baum Welch в подгонке HMM.
Для задачи обучения мы можем использовать следующие 3 алгоритма: MLE (оценка максимального правдоподобия), обучение Витерби (НЕ путать с декодированием Витерби), Baum Welch = алгоритм прямого и обратного хода
НО в википедии написано
Алгоритм Баума – Уэлча использует хорошо известный EM-алгоритм для нахождения оценки максимального правдоподобия параметров.
Итак, какова связь между MLE и алгоритмом Баума – Уэлча?
Моя попытка: цель алгоритма Баума-Уэлча - максимизировать вероятность, но он использует специализированный алгоритм (EM) для решения оптимизации. Мы все еще можем максимизировать вероятность, используя другие методы, такие как градиент приличный. Вот почему ответ делают два алгоритма раздельными.
Я прав и может кто-нибудь помочь мне уточнить?