Майндональд описывает последовательный метод, основанный на вращениях Гивенса . (Вращение Гивенса - это ортогональное преобразование двух векторов, которое обнуляет данную запись в одном из векторов.) На предыдущем шаге вы разложили матрицу проекта в треугольную матрицу через ортогональное преобразование так что . (Получить результаты регрессии быстро и просто из треугольной матрицы.) Присоединив новую строку ниже , вы эффективно расширяете ненулевой строкой тоже скажиT Q Q X = ( T , 0 ) ′ v X ( T , 0 ) ′ t T T t T QXTQQX=(T,0)′vX(T,0)′t, Задача состоит в том, чтобы обнулить эту строку, сохраняя записи в позиции диагонали . Последовательность вращений Гивенса делает это: вращение с первой строкой обнуляет первый элемент ; затем вращение со второй строкой обнуляет второй элемент и так далее. Эффект заключается в предварительном умножении серией вращений, что не меняет ее ортогональности.TTtTQ
Когда матрица проектирования имеет столбцы (что имеет место при регрессии на переменных плюс константа), необходимое количество вращений не превышает и каждый поворот меняет два вектора. Память, необходимая для составляет . Таким образом, этот алгоритм имеет вычислительную стоимость как во времени, так и в пространстве.p p + 1 p + 1 T O ( ( p + 1 ) 2 ) O ( ( p + 1 ) 2 )p+1pp+1p+1TO((p+1)2)O((p+1)2)
Подобный подход позволяет определить влияние регрессии на удаление строки. Майндональд дает формулы; как и Белсли, Кух и Уэльс . Таким образом, если вы ищете движущееся окно для регрессии, вы можете сохранить данные для окна в круговом буфере, примыкая к новому элементу данных и отбрасывая старый при каждом обновлении. Это удваивает время обновления и требует дополнительной памяти для окна шириной . Похоже, что будет аналогом параметра влияния.k 1 / kO(k(p+1))k1/k
Для экспоненциального затухания, я думаю (умозрительно), что вы могли бы адаптировать этот подход к взвешенным наименьшим квадратам, придавая каждому новому значению вес, больший 1. Не должно быть необходимости поддерживать буфер предыдущих значений или удалять любые старые данные.
Рекомендации
JH Maindonald, Статистические вычисления. J. Wiley & Sons, 1984. Глава 4.
Д. А. Белсли, Е. Кух, Р. Уэлш. Регрессионная диагностика: идентификация влиятельных данных и источников коллинеарности. J. Wiley & Sons, 1980.