Обобщение закона повторных ожиданий


43

Я недавно столкнулся с этой личностью:

E[E(Y|X,Z)|X]=E[Y|X]

Я, конечно, знаком с более простой версией этого правила, а именно, что но я не смог найти оправдания для его обобщение.E[E(Y|X)]=E(Y)

Я был бы признателен, если бы кто-то мог указать мне на не очень техническую ссылку на этот факт или, что еще лучше, если бы кто-то мог выложить простое доказательство этого важного результата.


2
Если бы сам был обусловлен каким-то , разве это не выпало бы точно из более простой версии? yx
Мердад

Ответы:


36

НЕФОРМАЛЬНОЕ ЛЕЧЕНИЕ

Мы должны помнить, что обозначение, в котором мы приводим случайные переменные, является неточным, хотя и экономичным, как обозначение. В действительности мы обусловливаем сигма-алгебру, которую генерируют эти случайные величины. Другими словами, означает . Это замечание может показаться неуместным в «Неформальной обработке», но оно напоминает нам, что наши кондиционирующие сущности являются коллекциями наборов (и когда мы обусловливаем одно значение, тогда это одноэлементный набор). И что содержат эти наборы? Они содержат информацию , с которой возможными значениями случайной величины предоставить нам о том, что может произойти с реализацией .E [ Y σ ( X ) ] X Y σ ( X ) σ ( X , Z ) Y σ ( X , Z ) σ ( X ) σ ( X ) I x σ ( X , Z ) я х зE[YX]E[Yσ(X)]XY
Внедрение концепции информации позволяет нам думать (и использовать) закон повторяющихся ожиданий (иногда называемый «свойством башни») очень интуитивным способом:
сигма-алгебра, порожденная двумя случайными переменными, по крайней мере как большой, который генерируется одной случайной величиной: в правильном теоретико-множественном смысле. Таким образом, информация о содержащаяся в , по крайней мере так же велика, как соответствующая информация в . Теперь, как примечание для обозначения, установите и . Тогда LHS уравнения, на которое мы смотрим, можно записатьσ(X)σ(X,Z)Yσ(X,Z)σ(X)
σ(X)Ixσ(X,Z)Ixz

Y I x z

E[E(Y|Ixz)|Ix]
устной форме описываем вышеприведенное выражение: «каково ожидание {ожидаемого значения данной информации } при условии , что мы располагаем информацией толькоYIxzIx

Можем ли мы как-то «учесть» ? Нет, мы знаем только . Но если мы используем то, что имеем (поскольку мы обязаны выражением, которое мы хотим разрешить), то мы, по сути, говорим о под оператором ожиданий, т.е. мы говорим « », не более - мы только что исчерпали нашу информацию. I x Y E ( Y I x )IxzIxYE(YIx)

Следовательно,

E[E(Y|Ixz)|Ix]=E(Y|Ix)

Если кто-то еще этого не сделает, я вернусь на официальное лечение.

(Немного больше) ФОРМАЛЬНОЕ ЛЕЧЕНИЕ

Давайте посмотрим, как две очень важные книги теории вероятностей, «Вероятность и мера» П. Биллингсли (3d ed.-1995) и Д. Уильямс «Вероятность с Мартингейлом» (1991), рассматривают вопрос доказательства «закона повторных ожиданий»:
Биллингсли посвящает ровно три строки доказательству. Уильямс, и я цитирую, говорит

«(Собственность Башни) является практически непосредственной от определения условного ожидания».

Это одна строка текста. Доказательство Биллингсли не менее непрозрачно.

Они, конечно, правы: это важное и очень интуитивное свойство условного ожидания происходит по существу непосредственно (и почти сразу) из его определения - единственная проблема, я подозреваю, что это определение обычно не преподается или, по крайней мере, не выделяется, вне вероятности или измерить теоретические круги. Но чтобы показать (почти) три строки, которые выполняет закон повторных ожиданий, нам нужно определить условное ожидание, или, скорее, его определяющее свойство .

Пусть вероятностное пространство и интегрируемая случайная величина . Пусть является суб - алгебра , . Тогда существует функция которая -измерима, интегрируема и (это определяющее свойство)Y G σ F GF W G(Ω,F,P)YGσFGFWG

E(W1G)=E(Y1G)GG[1]

где является функцией индикатора множества . Мы говорим, что является («версией») условного ожидания заданного , и мы пишем критическая деталь, которую следует здесь отметить, заключается в том, что условное ожидание имеет такое же значение , как ожидается делает, а не только по всей , но в каждом подмножестве из . G W Y G W = E ( Y G )1GGWYGY G G GW=E(YG)a.s.
YGGG

(Сейчас я попытаюсь представить, как свойство Tower вытекает из определения условного ожидания).

G σ HG G HG G W H U = E ( W H )W является -измеримой случайной величиной. Рассмотрим теперь некоторые суб- - алгебра, скажем . Тогда . Таким образом, аналогично предыдущему, мы имеем условное ожидание заданное , скажем, оно характеризуется GσHGGHGGWHU=E(WH)a.s.

E(U1G)=E(W1G)GH[2]

Поскольку , уравнения и дают намHG[1][2]

E(U1G)=E(Y1G)GH[3]

Но это определяющее свойство условного ожидания данного . YHТаким образом, мы имеем право написать Так мы также по построению , мы только что доказали свойство Tower или общая форма закона повторных ожиданий - в восемь строк.U=E(YH)a.s.
U=E(WH)=E(E[YG]H)


6
(+1) Это полезный способ описать абстрактную и сложную концепцию. Я полагаю, однако, что фраза «... не больше ...» должна быть «не меньше». Более того, этот раздел можно сделать более понятным, удалив негативы и используя параллельную конструкцию, как в «Сигма-алгебре, сгенерированной двумя переменными, по крайней мере, столько же, сколько сгенерированной одной случайной переменной ... Так что информация о содержала в по крайней мере так же велика, как соответствующая информация в . " Yσ(X,Z)σ(X)
whuber

Спасибо вам обоим, cc @whuber. Это очень полезная теорема.
JohnK

@ whuber Спасибо, что заметили это, и за предложение.
Алекос Пападопулос

24

Я понимаю условное ожидание и учу своих учеников следующим образом:

условное ожидание - это снимок, сделанный камерой с разрешениемE[Y|σ(X)]σ(X)

Как упоминал Алекос Пападопулос, обозначение является более точным, чем . Вдоль линии камеры можно рассматривать как исходный объект, например, пейзаж, пейзаж. - это снимок, сделанный камерой с разрешением . Ожидание является оператором усреднения (оператор «размывания»?). Сценарий может содержать много материала, но снимок, сделанный вами с помощью камеры с низким разрешением, несомненно, уберет некоторые детали, например, в небе может быть НЛО, который может быть виден невооруженным глазом, но это не так. появляются на вашей фотографии, сделанные (iphone 3?)E[Y|σ(X)]E[Y|X]YE[Y|σ(X,Z)]σ(X,Z)

Если разрешение настолько высокое, что , тогда эта картинка способна уловить каждую деталь реального пейзажа. В этом случае мы имеем .σ(X,Z)=σ(Y)E[Y|σ(Y)]=Y

Теперь можно рассматривать как: использование другой камеры с разрешением (например, iphone 1), которое меньше, чем (например, iphone 3) и сделайте снимок на этом изображении, созданном камерой с разрешением , тогда должно быть ясно, что это изображение на изображении должно быть таким же, как если бы вы изначально просто используйте камеру с низким разрешением на пейзаж.E[E[Y|σ(X,Z)]|σ(X)]σ(X)σ(X,Z)σ(X,Z)σ(X)

Это обеспечивает интуицию на . Фактически, та же самая интуиция говорит нам, что все еще. Это связано с тем, что: если ваше первое изображение было снято на iphone 1 (т.е. с низким разрешением), и теперь вы хотите использовать более качественную камеру (например, iphone 3) для создания другой фотографии на первой фотографии, то вы никак не можете можно улучшить качество первой фотографии.E[E[Y|X,Z]|X]=E[Y|X]E[E[Y|X]|X,Z]=E[Y|X]


2
любить это! :) отличное объяснение.
джессика

1
@jessica Я рад, что это помогает :-) Мне потребовалось некоторое время, чтобы придумать это объяснение
KevinKim

21

В законе повторного ожидания (LIE) это внутреннее ожидание является случайной величиной, которая оказывается функцией , скажем, , а не является функцией . То, что ожидание этой функции оказалось равным ожиданию является следствием LIE. Все, что это, махнув рукой, это просто утверждение о том, что среднее значение можно найти путем усреднения средних значений при различных условиях. По сути, это всего лишь прямое следствие закона полной вероятности. Например, если иE[E[YX]]=E[Y]Xg(X)YXYYYXY - дискретные случайные величины с объединением pmf , затем \ scriptstyle {\ text {RV} ~ E [Y \ mid X] ~ \ text {имеет значение} ~ E [Y \ mid X = x] ~ \ text {when} ~ X = x} \ end {align} Уведомление как это последнее ожидание относительно ;pX,Y(x,y)

E[Y]=yypY(y)definition=yyxpX,Y(x,y)write in terms of joint pmf=yyxpYX(yX=x)pX(x)write in terms of conditional pmf=xpX(x)yypYX(yX=x)interchange order of summation=xpX(x)E[YX=x]inner sum is conditional expectation=E[E[YX]]RV E[YX] has value E[YX=x] when X=x
XE[YX] является функцией , а не , но тем не менее его средняя такая же , как среднее значение .XYY

Обобщенная ЛОЖЬ , что вы смотрите имеет на левой , в котором внутреннее ожидание есть функция из двух случайных величин и . Аргумент похож на изложенный выше, но теперь мы должны показать, что случайная величина равна другой случайной переменной. Мы делаем это, глядя на значение когда имеет значение . Пропустив объяснения, мы имеем E[E[YX,Z]X]h(X,Z)XZ E[YX]E[YX]Xx

E[YX=x]=yypYX(yX=x)=yypX,Y(x,y)pX(x)=yyzpX,Y,Z(x,y,z)pX(x)=yyzpYX,Z(yX=x,Z=z)pX,Z(x,z)pX(x)=zpX,Z(x,z)pX(x)yypYX,Z(yX=x,Z=z)=zpZX(zX=x)yypYX,Z(yX=x,Z=z)=zpZX(zX=x)E[YX=x,Z=z)=E[E[YX,Z]X=x]
Обратите внимание, что предпоследняя правая часть - это формула для условного ожидаемого значения случайной величиныZ] (функция от и ) обусловленаE[YX,Z]XZна значении . Мы фиксируем чтобы он имел значение , умножая значения случайной величины на условное значение pmf в данного , и суммируя все такие члены.XXxE[YX,Z]ZX

Таким образом, для каждого значения случайной величины значение случайной величины (которое мы отмечали ранее, является функцией , а не ), равно значению случайной величины. переменная , то есть эти две случайные величины равны. Хотел бы я соврать тебе?X E [ Y X ] X Y E [ E [ Y X , Z ] X ]xXE[YX]XYE[E[YX,Z]X]

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.