Ни объединение, ни выполнение каждой итерации обучения с другой последовательностью не является правильным решением. Правильный подход требует некоторого объяснения:
Обычно тренируют НММ, используя алгоритм EM, Это состоит из нескольких итераций. Каждая итерация имеет один шаг «оценки» и один шаг «максимизации». На шаге «максимизировать» вы выровняете каждый вектор наблюдения x с состоянием s в вашей модели, так что некоторая мера правдоподобия будет максимизирована. На шаге «оценка» для каждого состояния s вы оцениваете (a) параметры статистической модели для векторов x, выровненных по s, и (b) вероятности перехода состояний. В следующей итерации шаг максимизации выполняется снова с обновленными статистическими моделями и т. Д. Процесс повторяется заданное количество раз или когда мера вероятности перестает значительно расти (т. Е. Модель сходится к устойчивому решению). Наконец, (по крайней мере, в распознавании речи) HMM обычно имеет назначенное «начало»
Итак, если у вас есть несколько обучающих последовательностей, на шаге оценки вы должны выполнить каждую последовательность так, чтобы ее начальный вектор наблюдений совпадал с начальным состоянием. Таким образом, статистика по этому начальному состоянию собирается из первых наблюдений по всем вашим последовательностям наблюдений, и в целом векторы наблюдений выровнены по наиболее вероятным состояниям в каждой последовательности. Вы сделаете шаг максимизации (и будущие итерации) только после того, как все последовательности будут предоставлены для обучения. На следующей итерации вы будете делать то же самое.
Выравнивая начало каждой последовательности наблюдения с начальным состоянием, вы избегаете проблемы конкатенации последовательностей, когда вы неправильно моделировали бы переходы между концом одной последовательности и началом следующей. И используя все последовательности на каждой итерации, вы избегаете предоставления разных последовательностей на каждой итерации, что, как отметил респондент, не гарантирует конвергенцию.