Отвечая на вопрос 1.
Chen & Chan "Выбор подмножества ARMA с помощью адаптивного лассо" (2011) * использует обходной путь, чтобы избежать требующей вычисления максимальной оценки вероятности. Ссылаясь на бумагу, они
Предложите найти оптимальную модель ARMA для подмножества путем подгонки адаптивной регрессии Лассо временных рядов к своим собственным лагам и остаткам, полученным при подгонке длинной авторегрессии к y t s. <...> [Под] условиями умеренной регулярности, предлагаемый метод достигает свойств оракула, а именно, он идентифицирует правильную модель ARMA подмножества с вероятностью, стремящейся к единице, когда размер выборки увеличивается до бесконечности, и <...> Оценки ненулевых коэффициентов асимптотически нормальны, а предельное распределение такое же, как и при нулевых коэффициентах, которые известны априори.YTYT
При желании они предлагают оценку максимального правдоподобия и диагностику модели для выбранных подмножеств ARMA-моделей.
Wilms et al. «Разреженная идентификация и оценка многомерных векторных авторегрессионных скользящих средних» (2017) делают даже больше, чем я просил. Вместо одномерной модели ARIMA они используют вектор ARMA (VARMA) в больших измерениях и используют штраф для оценки и выбора порядка запаздывания. Они представляют алгоритм оценки и развивают некоторые асимптотические результаты.L1
В частности, они используют двухэтапную процедуру. Рассмотрим модель VARMA
которую необходимо оценить, но порядки запаздывания p и q неизвестны.
YT= ∑l = 1пΦLYт - л+ ∑м = 1QΘмεт - м+ εT
пQ
На этапе 1 они аппроксимируют модель VARMA с помощью модели VAR высокого порядка и оценивают ее, используя иерархический оценщик VAR, который накладывает основанное на лагах иерархическое наказание за лассо группы на параметры авторегрессии.
(Порядок задержки устанавливается равным . Уравнения модели оцениваются совместно и норма ошибок Фробениуса| | у - у | | F 2 сведенминимуму с иерархическим групповой Lasso штрафом на коэффициентах регрессии).
Они получают невязки е :=у - у , которые будут использоватьсякачестве прокси для истинных ошибок в стадии 2.T 1,5 т--√⌋| | Y- у^| |F2
ε^: = y- у^
На этапе 2, они оценивают модель VARX , где Х представляет собой лаг остатков со стадии 1. То есть, они Minic модель VARMA , но использование оценками остатков вместо истинных ошибок, что позволяет применятьтот же оценщик (иерархической группы-лассо) снова так жекак в стадии 1
( р и д
YT= ∑l = 1п^ΦLYт - л+ ∑м = 1Q^Θмε^т - м+ тыT,
п^Q^установлены на .)T 1,5 т--√⌋
Подход Wilms et al. будет реализован в R пакет «Bigtime» .
Ссылки
- Chen, K. & Chan, KS (2011). Подмножество выбора ARMA с помощью адаптивного лассо. Статистика и ее интерфейс , 4 (2), 197-205.
- Wilms, I., Basu, S., Bien, J. & Matteson, DS (2017). Разреженная идентификация и оценка многомерных векторных авторегрессионных скользящих средних. Препринт arXiv arXiv: 1707.09208.
* Спасибо @hejseb за ссылку.