Пространственное представление состояний ARMA (p, q) из Гамильтона


11

Я читал главу 13 Гамильтона, и у него есть следующее представление пространства состояний для ARMA (p, q). Пусть Затем процесс ARMA (p, q) выглядит следующим образом: \ begin {align} y_t - \ mu & = \ phi_1 (y_ {t-1} - \ mu) + \ phi_2 (y_ {t-2} - \ mu) + ... + \ phi_3 (y_ {t-3} - \ mu) \\ & + \ epsilon_t + \ theta_1 \ epsilon_ {t-1} +. .. + \ theta_ {r-1} \ epsilon_ {t-r + 1}. \ end {align} Затем он определяет уравнение состояния следующим образом:r=max(p,q+1)

ytμ=ϕ1(yt1μ)+ϕ2(yt2μ)+...+ϕ3(yt3μ)+ϵt+θ1ϵt1+...+θr1ϵtr+1.

ξt+1=[ϕ1ϕ2ϕr1ϕr1000000010]ξt+[ϵt+100]

и уравнение наблюдения как:

yt=μ+[1θ1θ2θr1]ξt.

Я не понимаю, что такое ξt в этом случае. Потому что в его представлении AR (p) это [ytμyt1μytp+1μ] и в своем представлении MA (1) это [ϵtϵt1] .

Может ли кто-нибудь объяснить мне это немного лучше?

Ответы:


10

Гамильтон показывает, что это правильное представление в книге, но подход может показаться немного нелогичным. Поэтому позвольте мне сначала дать высокоуровневый ответ, который мотивирует его выбор моделирования, а затем немного уточнить его вывод.

Мотивация :

Как станет ясно из прочтения главы 13, существует много способов написания динамической модели в форме пространства состояний. Поэтому мы должны спросить, почему Гамильтон выбрал именно это представление. Причина в том, что это представление сохраняет размерность вектора состояния низкой. Интуитивно, вы могли бы подумать (или, по крайней мере, я бы), что вектор состояния для ARMA ( , ) должен быть как минимум размерностью . В конце концов, просто наблюдая, скажем, , мы не можем вывести значение . Тем не менее он показывает, что мы можем определить представление пространства состояний умным способом, который оставляет вектор состояния размерности не болееq p + q y t - 1 ϵ t - 1 r = max { p , q + 1 } p qpqp+qyt1ϵt1r=max{p,q+1}, Я полагаю, что поддержание низкой размерности состояния может быть важным для вычислительной реализации. Оказывается, его представление в пространстве состояний также предлагает хорошую интерпретацию процесса ARMA: ненаблюдаемое состояние - это AR ( ), а часть MA ( ) возникает из-за ошибки измерения.pq

Вывод :

Теперь для вывода. Во-первых, обратите внимание, что, используя обозначение оператора задержки, ARMA (p, q) определяется как: где мы позволяем для , и для и мы опускаем поскольку равно по крайней мере . Поэтому все, что нам нужно показать, это то, что его уравнения состояния и наблюдения подразумевают приведенное выше уравнение. Пусть вектор состояния будет Теперь рассмотрим уравнение состояния. Вы можете проверить, что уравнения от доϕ j = 0 j > p θ j = 0 j > q θ r r q + 1

(1ϕ1LϕrLr)(ytμ)=(1+θ1L++θr1Lr1)ϵt
ϕj=0j>pθj=0j>qθrrq+1 2г ξ I , т £ , я - 1 , т + 1 ξ г , т т+1 £ , я , т + 1 £ , 1 , t + 1 = ϕ 1 ξ 1 ,
ξt={ξ1,t,ξ2,t,,ξr,t}
2rпросто переместите записи в один период вперед и в векторе состояний в момент времени . Поэтому первое уравнение, определяющее является релевантным. это: Поскольку второй элемент является первым элементом , а третий элемент является первый элементξi,tξi1,t+1ξr,tt+1ξi,t+1ξ t ξ t - 1 ξ t ξ t - 2 ( 1 - ϕ 1 L - - ϕ r L r ) ξ 1 , t + 1 = ϵ t + 1 y t
ξ1,t+1=ϕ1ξ1,t+ϕ2ξ2,t++ϕrξr,t+ϵt+1
ξtξt1ξtξt2и так далее, мы можем переписать это, используя обозначение оператора отставания и переместив многочлен отставания в левую часть (уравнение 13.1.24 в H.): Таким образом, скрытое состояние следует за процессом авторегрессии. Аналогично, уравнение наблюдения имеет вид или это не очень похоже на ARMA, но теперь приходит хорошая часть: умножьте последнее уравнение на :
(1ϕ1LϕrLr)ξ1,t+1=ϵt+1
y t - μ = ( 1 + θ 1 L + + θ r - 1 L r - 1 ) ξ 1 , т ( 1 - ϕ 1 л -
yt=μ+ξ1,t+θ1ξ2,t++θr1ξr1,t
ytμ=(1+θ1L++θr1Lr1)ξ1,t
( 1 - ϕ 1 L - - ϕ r L r ) ( y t - μ ) = ( 1 + θ 1 L + + θ r - 1 L r - 1 ) ( 1 - ϕ 1 L - - ϕ r L r ) y(1ϕ1LϕrLr) ( 1 - ϕ 1 L - - ϕ r L r ) ξ 1 , t = ϵ t ( 1 - ϕ 1 L - - ϕ r L r ) ( y t - μ ) = ( 1 + θ 1 L + + Θ r - 1 L r - 1 )
(1ϕ1LϕrLr)(ytμ)=(1+θ1L++θr1Lr1)(1ϕ1LϕrLr)yt
Но из уравнения состояния (с отставанием на один период) мы имеем ! Таким образом, вышесказанное эквивалентно это именно то, что нам нужно было показать! Таким образом, система наблюдения за состоянием правильно представляет ARMA (p, q). Я действительно перефразировал Гамильтона, но я надеюсь, что это все равно полезно.(1ϕ1LϕrLr)ξ1,t=ϵt
(1ϕ1LϕrLr)(ytμ)=(1+θ1L++θr1Lr1)ϵt

Я не полностью продан на интерпретации государства, все же. Когда вы пишете первую строку уравнения перехода состояний, оно выглядит как уравнение, которое конфликтует с предполагаемой моделью. Также мне кажется странным, что вы предполагаете, что наблюдаемые данные в то же время скрыты / скрыты.
Тейлор

Вы правы, состояние действительно не совпадает с . Спасибо за указание на это. Я исправил это, теперь должно быть хорошо. Кстати, в общем, мы могли наблюдать переменные в векторе состояния, например, пример AR (p). Там скрытая переменная может рассматриваться как значение следующего периода, . ytyt+1
Матиас

Спасибо! Но я все еще не понял, что такое в этом представлении пространства состояний. Например, его определение в уравнениях 13.1.15 и 13.1.14 для процессов AR (p) и MA (1). Моя путаница в том, что если я поставлю это в matlab, какие числа я получу в ? ξξξ
Dleal

Что сбивает с толку, так это то, что моделирование пространства состояний связано со скрытым состоянием, тогда как в процессах ARMA мы не думаем о переменных как скрытых. Представление в пространстве состояний и методы фильтрации (Калмана) мотивируются фильтрацией ненаблюдаемого состояния. Для процессов ARMA мы просто используем формулировку моделей пространства состояний, чтобы мы могли оценить параметры с помощью фильтра Калмана. Таким образом, мы несколько произвольно определяем скрытое состояние в 13.1.4 как наблюдение следующего периода, в то время как в 13.1.22 состояние является новой переменной, которая не появляется в исходной модели. yt+1
Матиас

Чтобы ответить на ваш вопрос о Matlab: если вы начинаете с ARMA (p, q), не является переменной, которая появляется в этой модели. Однако представление пространства состояний фактически предлагает иную интерпретацию ARMA (p, q): скрытое состояние может быть той переменной, которая вас интересует, и структура MA (q) возникает из-за ошибки измерения. Вы можете записать AR (1) и добавить немного белого шума, чтобы увидеть, что возникает структура ARMA. ξ
Матиас

8

Это то же самое, что и выше, но я подумал, что смогу дать более короткий и краткий ответ. Опять же, это представление Гамильтона для причинного процесса ARMA ( , ), где . Это число будет измерением вектора состояния , и необходимо сделать количество строк в состояние совпадает с количеством столбцов матрицы наблюдения. Это означает, что мы также должны устанавливать коэффициенты равными нулю, когда индекс слишком велик.pqr=max(p,q+1)r(ξt,ξt1,,ξtr+1)

  1. Уравнение наблюдения

ϕ(B)(ytμ)=θ(B)ϵt(causality)(ytμ)=ϕ1(B)θ(B)ϵtyt=μ+ϕ1(B)θ(B)ϵtyt=μ+θ(B)ϕ1(B)ϵt(letting ξt=ϕ1(B)ϵt)yt=μ+θ(B)ξt(this is where we need r)yt=μ+[1θ1θ2θr1][ξtξt1ξtr+1]the state vector+0.
  1. Государственное уравнение

ξt=ϕ1(B)ϵtϕ(B)ξt=ϵt(1ϕ1BϕrBr)ξt=ϵtξt=ϕ1ξt1++ϕrξtr+ϵt[ξtξt1ξt2ξtr+1]=[ϕ1ϕ2ϕ3ϕr1000010000010][ξt1ξt2ξtr]+[ϵt00].

1
Это, наконец, дает понять, откуда берутся эти уравнения состояния. Я думаю, что формулировать это как дидактически намного лучше, чем просто давать те случайные уравнения с пометкой, что это получается правильно.
Алекс

@ CowboyTrader Да, все верно. По крайней мере, для этого представления ARMA. Есть и другие.
Тейлор

@CowboyTrader нет, но я бы сказал, что это разумное чувство, потому что литература по моделям пространства состояний смещена в сторону фильтрации. Существуют уравнения рекурсивного предсказания для линейных моделей пространства состояний Гаусса, но вы получаете фильтрацию как дополнительный бонус.
Тейлор

@CowboyTrader не стесняйтесь, присылайте мне по электронной почте. Я знаю, что не всем нравятся расширенные обсуждения в комментариях, так что это может быть легче сделать.
Тейлор

Я вижу, что это доказано, но не могли бы вы помочь дать некоторую интуицию? Каковы переменные состояния, что такое вектор состояния t = 0?
Фрэнк
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.