Является ли AR (1) марковским процессом?


13

Является ли процесс AR (1) таким, как yt=ρyt1+εt марковским процессом?

Если это так, то VAR (1) является векторной версией марковского процесса?

Ответы:


18

Имеет место следующий результат: если являются независимыми, принимая значения в E и f 1 , f 2 , являются функциями f n : F × E F, то с X n, рекурсивно определенным какϵ1,ϵ2,Ef1,f2,fn:F×EFXn

Xn=fn(Xn1,ϵn),X0=x0F

процесс в F является марковским процессом, начинающимся с x 0 . Процесс занимает много времени однородным , если Е «ы одинаково распределены и все е(Xn)n0Fx0ϵf функции идентичны.

AR (1) и VAR (1) - оба процесса, данные в этой форме с

fn(x,ϵ)=ρx+ϵ.

Таким образом, они являются однородными марковскими процессами, если ϵ ; «s являются н.о.р.

Технически пространства и F нуждаются в измеримой структуре, а f- функции должны быть измеримыми. Весьма интересно , что обратное утверждение справедливо , если пространство F является борелевским пространством . Для любого марковского процесса ( X n ) n 0 в борелевском пространстве F имеются одинаковые случайные величины ϵ 1 , ϵ 2 , в [ 0 , 1 ] и функции f n : F ×EFfF(Xn)n0Fϵ1,ϵ2,[0,1] такое, что с вероятностью один X n = f n ( X n - 1 , ϵ n ) . См. Предложение 8.6 в Калленберге,Основы современной вероятности.fn:F×[0,1]F

Xn=fn(Xn1,ϵn).

6

Процесс является процессом AR (1), еслиXt

Xt=c+φXt1+εt

где ошибки, iid. Процесс имеет свойство Маркова, еслиεt

P(Xt=xt|entire history of the process)=P(Xt=xt|Xt1=xt1)

Из первого уравнения распределение вероятности явно зависит только от X t - 1 , поэтому да, процесс AR (1) является марковским процессом.XtXt1


3
-1, по той же причине, что и для другого автора. Ответ подразумевает, что легко проверить цитируемое свойство Маркова. Это не так, если не продемонстрировано иное. Отметим также, что процессы AR (1) могут быть определены с не являющимся iid, так что это также следует учитывать. εt
mpiktas

1
Основная проблема заключается в том, что мы можем легко написать и тогда из последнего предложения следует, что P ( X t = x t | вся история ) = P ( X t = x t | X t - 2 = x t - 2 )Xt=c+ϕc+ϕ2Xt2+ϕεt1+εtP(Xt=xt|entire history)=P(Xt=xt|Xt2=xt2),
mpiktas

Что ж, марковские процессы действительно зависят от когда вы также не обусловили X t - 1 . Я предполагаю, что более формальный аргумент предполагал бы, что вы обусловливаете последовательно (т.е. вы не включаете X t - 2, если вы уже не обусловили X t - 1 ). Xt2Xt1Xt2Xt1
Макро

и то, что вы там написали, зависит от и X t - 1 (через погрешность ε t - 1 ). Суть в том, что совместная вероятность может быть легко записана как произведение условных правдоподобий, которые требуют только обусловленности в предыдущий момент времени. Через избыточность параметров вы можете сделать так, чтобы распределение X t зависело от X t - 2, но, как только вы подготовили X t - 1Xt2Xt1εt1XtXt2Xt1Это явно не так. (ps я использовал стандартное определение процесса AR (1) для книги временных рядов Шамвея и Стоффера)
Macro

Заметьте, я не говорю, что ответ неверный. Я просто придираюсь к деталям, то есть, что второе равенство интуитивно очевидно, но если вы хотите доказать это формально, это не так просто, ИМХО.
mpiktas

2

Что такое марковский процесс? (слабо говоря) Стохастический процесс - марковский процесс первого порядка, если условие

P[X(t)=x(t)|X(0)=x(0),...,X(t1)=x(t1)]=P[X(t)=x(t)|X(t1)=x(t1)]

holds. Since next value (i.e. distribution of next value) of AR(1) process only depends on current process value and does not depend on the rest history, it is a Markov process. When we observe the state of autoregressive process, the past history (or observations) do not supply any additional information. So, this implies that probability distribution of next value is not affected (is independent on) by our information about the past.

The same holds for VAR(1) being first order multivariate Markov process.


Hm, if εt are not iid, I do not think it holds. Also you did not give a proof, only cited the Markov property.
mpiktas

I thought that Markov Process refers to the continuous case. Usual AR time series are discrete, so it should correspond to a Markov Chain instead of a Markov Process.
joint_p

So we observe state of autoregressive process, Xt. The past history is Xt1,Xt2,.... This does not supply any additional information?
mpiktas

@joint_p, the terminology is not completely consistent in the literature. Historically, as I see it, the usage of "chain" instead of "process" was typically a reference to the state space of the process being discrete but occasionally also time being discrete. Today many use "chain" to refer to discrete time but allowing for a general state space, as in Markov Chain Monte Carlo. However, using "process" is also correct.
NRH

1
-1, since the proof of Markovian property is not given. Also the hand waving argument is not consistent with formula given. current state = t, past means t1,t2,..., next means t+1, but the formula does not involve t+1.
mpiktas
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.