Распределение выборки из двух независимых популяций Бернулли


17

Предположим, что у нас есть выборки двух независимых случайных величин Бернулли, Ber(θ1) и Ber(θ2) .

Как доказать, что

(X¯1X¯2)(θ1θ2)θ1(1θ1)n1+θ2(1θ2)n2dN(0,1)
?

Предположим, что n1n2 .


Z_i = X_1i - X_2i - последовательность iid rv конечного среднего и дисперсии. Следовательно, он удовлетворяет центральной предельной теореме Леви-Линдерберга, из которой следуют ваши результаты. Или вы просите доказательства самого клина?
Три

@ThreeDiag Как вы применяете LL-версию CLT? Я не думаю, что это правильно. Напишите мне ответ, чтобы проверить детали.
Старик в море.

Все детали уже есть. Чтобы применить LL, вам нужна последовательность iid rv с конечным средним и дисперсией. Переменная Z_i = X_i1 и X_i2 удовлетворяет всем трем требованиям. Независимость следует из независимости двух исходных переменных Бернулли, и вы можете видеть, что E (Z_i) и V (Z_i) конечны, применяя стандартные свойства E и V
Three

1
«выборки двух независимых случайных величин Бернулли» - неверное выражение. Должно быть: «две независимые выборки из распределений Бернулли».
Виктор

1
Пожалуйста, добавьте «как ». n1,n2
Виктор

Ответы:


10

Помещенный = ,b=a=θ1(1θ1)n1 , A=(ˉX1-θ1)/a, B=(ˉX2-θ2)/b. Имеем AdN(0,1),BdN(0,1). В терминах характеристических функций это означает, что ϕA(t)Eeb=θ2(1θ2)n2A=(X¯1θ1)/aB=(X¯2θ2)/bAdN(0,1), BdN(0,1) Мы хотим доказать, что D:= a

ϕA(t)EeitAet2/2, ϕB(t)et2/2.
D:=aa2+b2Aba2+b2BdN(0,1)

Так как и B независимы, φ D ( т ) = φ (AB как мы желаем, чтобы это было.

ϕD(t)=ϕA(aa2+b2t)ϕB(ba2+b2t)et2/2,

Это доказательство неполно. Здесь нужны оценки равномерной сходимости характеристических функций. Однако в рассматриваемом случае мы можем сделать явные вычисления. Положим . ϕ X 1 , 1 ( т )p=θ1, m=n1

ϕX1,1(t)=1+p(eit1),ϕX¯1(t)=(1+p(eit/m1))m,ϕX¯1θ1(t)=(1+p(eit/m1))meipt,ϕA(t)=(1+p(eit/mp(1p)1))meiptm/p(1p)=((1+p(eit/mp(1p)1))eipt/mp(1p))m=(1t22m+O(t3m3/2))m
as t3m3/20. Thus, for a fixed t,
ϕD(t)=(1a2t22(a2+b2)n1+O(n13/2))n1(1b2t22(a2+b2)n2+O(n23/2))n2et2/2
(even if a0 or b0), since |ey(1y/m)m|y2/2m  when  y/m<1/2 (see /math/2566469/uniform-bounds-for-1-y-nn-exp-y/ ).

Note that similar calculations may be done for arbitrary (not necessarily Bernoulli) distributions with finite second moments, using the expansion of characteristic function in terms of the first two moments.


This seems correct. I'll get back to you later on, when I have time to check everything. ;)
An old man in the sea.

-1

Proving your statement is equivalent to proving the (Levy-Lindenberg) Central Limit Theorem which states

If {Zi}i=1n is a sequence of i.i.d random variable with finite mean E(Zi)=μ and finite variance V(Zi)=σ2 then

n(Z¯μ)dN(0,σ2)

Here Z¯=iZi/n that is the sample variance.

Then it is easy to see that if we put

Zi=X1iX2i
with X1i,X2i following a Ber(θ1) and Ber(θ2) respectively the conditions for the theorem are satisfied, in particular

E(Zi)=θ1θ2=μ

and

V(Zi)=θ1(1θ1)+θ2(1θ2)=σ2

(There's a last passage, and you have to adjust this a bit for the general case where n1n2 but I have to go now, will finish tomorrow or you can edit the question with the final passage as an exercise )


I could not obtain what I wanted exactly because of the possibility of n1n2
An old man in the sea.

I will show later if you can't get it. Hint: compute the variance of the sample mean of Z and use that as the variable in the theorem
Three Diag

Three, could you please add the details for when n1n2? Thanks
An old man in the sea.

Will do as soon as find a little timr. There was in fact a subtlety that prevents from using LL clt without adjustment. There are three ways to go, the simplest of which is invoking the fact that for large n1 and n2, X1 and X2 go in distribution to normals, then a linear combination of normal is also normal. This is a property of normals that you can take as given, otherwise you can prove it by characteristic functions.
Three Diag

The other two require either a different clt (Lyapunov possibly) or alternatively treat n1 = i and n2= i +k. Then for large i you can essentially disregard k and you can go back to apply LL (but still it will require some care to nail the right variance)
Three Diag
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.