Чтобы сразу перейти к заключению, «импульс» не меняет того факта, что нормальное распределение является асимптотическим приближением распределения случайного блуждания, но дисперсия изменяется от до n p / ( 1 - р ) . Это может быть получено из относительно элементарных соображений в этом частном случае. Скажем, не очень сложно обобщить приведенные ниже аргументы в CLT для цепей Маркова с конечным пространством состояний, но самая большая проблема на самом деле - это вычисление дисперсии. Для конкретной проблемы это может4np(1−p)np/(1−p)быть рассчитанным, и, надеюсь, приведенные ниже аргументы могут убедить читателя, что это правильная дисперсия.
Используя понимание, которое кардинал предоставляет в комментарии, случайное блуждание задается как
где X k ∈ { - 1 , 1 }, а X k образуют цепь Маркова с матрицей вероятности перехода
( р 1 - р 1 - р р ) .
Для асимптотических соображений, когда n → ∞, начальное распределение X 1 не играет никакой роли, поэтому давайте исправим
Sn=∑k=1nXk
Xk∈{−1,1}Xk(p1−p1−pp).
n→∞X1 ради следующего аргумента, и предположим также, что
0 < p < 1 . Отличная техника - разложить цепь Маркова на независимые циклы. Пусть
σ 1 обозначает первый раз, после времени 1, что цепь Маркова возвращается к 1. То есть, если
X 2 = 1, то
σ 1 = 2 , а если
X 2 = X 3 = - 1 и
X 4 = 1, то
σ 1 = 4X1=10<p<1σ1X2=1σ1=2X2=X3=−1X4=1σ1=4, В общем, пусть
обозначает время
i -го возврата 1, а
τ i = σ i - σ i - 1 обозначает времена
взаимного возврата (при
σ 0 = 1 ). С этими определениями мы имеем
σiiτi=σi−σi−1σ0=1
- С , то
S σ п = Х 1 + п Σ я = 1 U я .Ui=∑σik=σi−1+1Xk
Sσn=X1+∑i=1nUi.
- Поскольку принимает значение - 1 для k = σ i - 1 + 1 , … , σ i - 1 и X σ i = 1, считается, что
U i = 2 - τ i .Xk−1k=σi−1+1,…,σi−1Xσi=1
Ui=2−τi.
- Время взаимного возврата, , для цепи Маркова идентифицировано (формально благодаря сильному свойству Маркова), и в этом случае среднее значение E ( τ i ) = 2 и дисперсия V ( τ i ) = 2 pτiE(τi)=2 . Ниже указано, как рассчитать среднее значение и дисперсию.V(τi)=2p1−p
- Обычный CLT для переменных iid приводит к тому, что
Sσn∼asympN(0,2np1−p).
- σn=1+∑ni=1τi∼2n
Sn∼asympN(0,np1−p).
τ1P(τ1=1)=pm≥2P(τ1=m)=(1−p)2pm−2X1−pZ=1(τ1=1) then 1+X(1−Z) has the same distribution as τ1, and it is easy to compute the mean and variance for this latter representation.