Итак, я пытаюсь построить алгоритм Баума-Уэлча, чтобы маркировать части речи для практики. Однако я запутался в использовании скрытой марковской модели по сравнению с марковской моделью. Так как кажется, что вы теряете контекст, переходя из состояния в состояние. Поскольку вывод последнего состояния не учитывается при переходе к следующему состоянию. Просто для экономии памяти?
edit: добавлен пример для ясности
Например, если два состояния, A и B, выводят 0 или 1, будет 4 перехода состояния и 2 возможности наблюдения для каждого состояния, которые можно превратить в 8 переходов, если вы смешаете каждую пару входящих переходов с вероятностями наблюдения ее состояния. . Но я зависаю, почему бы изначально не обучить машину с четырьмя состояниями {(A,1),(B,1),(A,2),(B,2)} с 16 переходами. Я новичок в nlp, поэтому мне интересно, не знаю ли я о какой-то алгоритмической избыточности, которую трудно увидеть без сложной математики.
Поскольку кажется, что теряется информация о том, какими будут переходы, когда последний A был 1 против 2. Но мне интересно, может ли алгоритмам обучения не понадобиться эта информация.
https://en.wikipedia.org/wiki/Baum%E2%80%93Welch_algorithm
Спасибо за информацию.