Чтобы ответить на ваш вопрос: вы можете использовать плотность сглаживания. Но ты не обязан. В ответе Ярле Туфто есть разложение, которое вы используете. Но есть и другие.
Использование рекурсий Кальмана
Здесь вы оцениваете вероятность как
f(y1,…,yn)=f(y1)∏i=2nf(yi|y1,…,yi−1).
Однако средние значения и дисперсии не всегда полностью определяют распределения вероятностей в целом. Ниже приводится разложение, которое вы используете для перехода от фильтрации распределений к условным вероятностям :f(xi−1|y1,…,yi−1)f(yi|y1,…,yi−1)
f(yi|y1,…,yi−1)=∬f(yi|xi)f(xi|xi−1)f(xi−1|y1,…,yi−1)dxidxi−1.(1)
Здесь - плотность перехода состояний ... часть модели, а - плотность наблюдений ... снова часть модели. В своем вопросе вы пишете их как и соответственно. Это то же самое.f(xi|xi−1)f(yi|xi)xt+1=Fxt+vt+1yt=Hxt+Azt+wt
Когда вы получаете распределение прогноза состояния на шаг впереди, это вычисляет . Когда вы интегрируете снова, вы получаете (1) полностью. Вы напишите эту плотность полностью в своем вопросе, и это то же самое.∫f(xi|xi−1)f(xi−1|y1,…,yi−1)dxi−1
Здесь вы используете только разложения вероятностных распределений и предположения о модели. Этот расчет вероятности является точным расчетом. Там нет ничего дискреционного, что вы можете использовать, чтобы сделать это лучше или хуже.
Использование алгоритма EM
Насколько мне известно, нет другого способа оценить вероятность непосредственно в такого рода модели пространства состояний. Тем не менее, вы все равно можете сделать оценку максимального правдоподобия, оценив другую функцию: вы можете использовать алгоритм EM. На шаге ожидания (E-шаг) вы должны вычислить
Здесь
∫f(x1,…,xn|y1,…yn)logf(y1,…,yn,x1,…,xn)dx1:n=Esmooth[logf(y1,…,yn,x1,…,xn)].
f(y1,…,yn,x1,…,xn)это вероятность «полных данных», и вы берете ожидание логарифма этого относительно плотности сглаживания суставов. Часто случается так, что, поскольку вы берете журнал полной вероятности данных, термины разбиваются на суммы, а из-за линейности оператора ожидания вы берете ожидания в отношении предельных распределений сглаживания ( Вы упоминаете в своем вопросе).
Другие вещи
В некоторых местах я читал, что EM - это «более стабильный» способ максимизировать вероятность, но я никогда не видел, чтобы этот аргумент был аргументирован, и я не видел, чтобы это слово «стабильный» было определено вообще, но я также не использовал действительно изучил это дальше. Ни один из этих алгоритмов не обходит локальное / глобальное испытание максимумов. Лично я склонен использовать Кальмана чаще всего просто по привычке.
Это правда, что сглаженные оценки состояния обычно имеют меньшую дисперсию, чем фильтрация, поэтому я полагаю, что вы правы, если у вас есть некоторая интуиция, но вы на самом деле не используете состояния. Вероятность, которую вы пытаетесь максимизировать, не зависит от состояний.