Сначала вы должны изучить более простые в кодировании модели пространства состояний и фильтрацию в закрытой форме (т. Е. Фильтры Калмана, скрытые марковские модели). Мэтью Ганн прав, что с простыми понятиями вы можете удивительно далеко уйти, но, по моему скромному мнению, вы должны сделать это промежуточной целью, потому что:
1.) Условно говоря, в моделях пространства состояний больше движущихся частей. Когда вы изучаете SSM или скрытые марковские модели, есть много обозначений. Это означает, что в вашей рабочей памяти есть больше вещей, которые вы можете проверять. Лично, когда я впервые узнал о фильтрах Калмана и линейно-гауссовых SSM, я в основном думал: «Это все только свойства многомерных нормальных векторов… Я просто должен отслеживать, какая матрица есть какая». Кроме того, если вы переключаетесь между книгами, они часто меняют нотацию.
Впоследствии я подумал об этом, как «ах, это все просто правило Байеса в каждый момент времени». Когда вы думаете об этом таким образом, вы понимаете, почему сопряженные семейства хороши, как в случае фильтра Калмана. Когда вы кодируете скрытую марковскую модель с ее дискретным пространством состояний, вы понимаете, почему вам не нужно вычислять вероятность, а фильтрация / сглаживание просты. (Я думаю, что я отклоняюсь от обычного хммм жаргона здесь.)
2.) Сокращение ваших зубов при кодировании многих из них поможет вам понять, насколько общим является определение модели пространства состояний. Довольно скоро вы будете записывать модели, которые хотите использовать, и в то же время понимаете, почему не можете. Сначала вы увидите, что просто не можете записать это в одной из этих двух форм, к которым вы привыкли. Когда вы думаете об этом немного больше, вы записываете правило Байеса и видите, что проблема заключается в вашей неспособности вычислить некоторую вероятность для данных.
Таким образом, вы в конечном итоге не сможете рассчитать эти апостериорные распределения (сглаживание или фильтрация распределений состояний). Чтобы позаботиться об этом, существует множество приблизительных фильтров. Фильтрация частиц - только один из них. Основной вывод фильтрации частиц: вы моделируете из этих распределений, потому что не можете их рассчитать.
Как вы симулируете? Большинство алгоритмов являются лишь одним из вариантов выборки по важности. Но и здесь все усложняется. Я рекомендую этот учебный документ от Doucet и Johansen ( http://www.cs.ubc.ca/~arnaud/doucet_johansen_tutorialPF.pdf ). Если вы поймете, как работает фильтрация закрытых форм, они представят общую идею выборки по важности, затем общую идею метода Монте-Карло, а затем покажут вам, как использовать эти две вещи, чтобы начать работу с хорошим примером финансового временного ряда. ИМХО, это лучшее руководство по фильтрации частиц, с которым я когда-либо сталкивался.
В дополнение к добавлению двух новых идей к миксу (выборка по важности и метод Монте-Карло) теперь есть еще несколько обозначений. Некоторые плотности, из которых вы сейчас отбираете образцы; некоторые вы оцениваете, и когда вы оцениваете их, вы оцениваете по образцам. В результате, после того как вы все это закодируете, получаются взвешенные образцы, которые считаются частицами. Они меняются после каждого нового наблюдения. Было бы очень трудно поднять все это сразу. Я думаю, что это процесс.
Я извиняюсь, если я выгляжу как загадочный, или волнистый. Это всего лишь график моего личного знакомства с предметом. Пост Мэтью Ганна, вероятно, более прямо отвечает на ваш вопрос. Я просто подумал, что я бы выбросил этот ответ.