Инкрементная Гауссова регрессия процесса


11

Я хочу реализовать постепенную гауссовскую регрессию процесса, используя скользящее окно над точками данных, которое приходит один за другим через поток.

Пусть обозначает размерность входного пространства. Итак, каждая точка данных имеет количество элементов.dxid

Пусть будет размером скользящего окна.n

Чтобы делать предсказания, мне нужно вычислить обратную матрицу грамм , где а k - квадрат экспоненциального ядра.KKij=k(xi,xj)

Чтобы избежать увеличения K с каждой новой точкой данных, я подумал, что могу удалить самую старую точку данных перед добавлением новых точек, и таким образом я предотвращаю рост грамм. Например, пусть где - ковариация весов, а - неявная функция отображения, подразумеваемая квадратом экспоненциального ядра.K=ϕ(X)TΣϕ(X)Σϕ

Теперь пусть ] и , где «ы имеют от матриц столбцов.X=[xtn+1|xtn+2|...|xtXnew=[xtn+2|...|xt|xt+1]xd1

Мне нужен эффективный способ , чтобы найти потенциально с помощью . Это не похоже на обратную задачу об обновленной матрице ранга 1, которая может быть эффективно решена с помощью формулы Шермана-Моррисона.Knew1K

Ответы:


8

Для этого было несколько рекурсивных алгоритмов. Вы должны взглянуть на алгоритм рекурсивного наименьших квадратов (KRLS) ядра и связанные с ним алгоритмы онлайн-GP.


Спасибо большое за эти отличные ссылки!
bfaskiplar

-1

Поэтапная оценка моделей ГП хорошо изучена в литературе. Основная идея заключается в том, чтобы вместо того, чтобы обусловливать все новые наблюдения, которые вы хотите предсказать, ставить точку на шаг впереди и делать это многократно. Это становится как-то близко к фильтрации Калмана.


Этот ответ был бы лучше, если бы он цитировал книгу, статью или другое научное издание.
Sycorax сообщает восстановить Monica
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.