Ожидание квадратного корня суммы независимых квадратов равномерных случайных величин


9

Пусть - независимые и одинаково распределенные стандартные однородные случайные величины.X1,,XnU(0,1)

Let Yn=inXi2I seek: E[Yn]


Ожидание легко:Yn

E[X2]=01y2y=13E[Yn]=E[inXi2]=inE[Xi2]=n3

Теперь для скучной части. Чтобы применить LOTUS, мне понадобится PDF-файл . Конечно, pdf суммы двух независимых случайных величин - это свертка их pdf. Тем не менее, здесь у нас есть случайных величин, и я думаю, что свертка привела бы к ... запутанному выражению (ужасный каламбур). Есть ли умнее?Ynn

Я бы предпочел увидеть правильное решение , но если это невозможно или слишком сложно, асимптотическое приближение для больших может быть приемлемым. По неравенству Дженсена я знаю, чтоn

E[Yn]=n3E[Yn]

Но это мне мало поможет, если я не найду также нетривиальную нижнюю границу. Обратите внимание, что CLT здесь не применяется напрямую, потому что у нас есть квадратный корень из суммы независимых RV, а не только сумма независимых RV. Может быть, могут быть другие предельные теоремы (которые я игнорирую), которые могут быть здесь полезны.


3
См. Этот вопрос для получения асимптотического результата: stats.stackexchange.com/questions/241504/…
С. Каттералл восстановит Монику

4
Я получаю на основании приведенного выше связанного вопроса. E[Yn]n3115
С. Каттералл восстановил Монику

2
Я не думаю, что я бы использовал какой-либо из подходов, описанных в этом ответе (которых более двух!) :-). Причина в том, что вы можете воспользоваться простыми и понятными симуляциями для оценки ожиданий, в то время как аналитическое решение кажется недостижимым. Мне очень нравится подход @ S.Catterall (+1 за решение, которое я раньше не читал). Симуляция показывает, что он работает хорошо даже для малых . n
whuber

3
Симуляция того стоит :-). Постройте разницу между смоделированным средним и приближенной формулой против . Он ясно покажет, насколько хорошо работает приближение в зависимости от . нnn
whuber

4
Ясно, что то время как приближение дает . В этом случае был бы правильным. Но приближение улучшается после этого. E[Y1]=0.513115=4150.51613112
Генри

Ответы:


11

Один из подходов состоит в том, чтобы сначала вычислить функцию генерирования момента (mgf) для определяемую как где - это независимые и одинаково распределенные стандартные однородные случайные величины ,YnYn=U12++Un2Ui,i=1,,n

Когда у нас это есть, мы можем видеть, что является дробным моментом порядка . Затем мы можем использовать результаты из статьи Ноэля Кресси и Маринуса Боркента: «Функция генерирования момента имеет свои моменты», Журнал статистического планирования и вывода 13 (1986) 337-344, который дает дробные моменты посредством дробного дифференцирования функции, генерирующей моменты ,

EYn
Ynα=1/2

Сначала производящая момент функция , которую мы записываем . и я оценили это (с помощью Maple и Wolphram Alpha), чтобы получить где - мнимая единица. (Wolphram Alpha дает аналогичный ответ, но в терминах интеграла Доусона. ) Оказывается, нам в основном понадобится случай для . Теперь легко найти mgf для : Тогда для результатов из цитируемой статьи. ДляU12M1(t)

M1(t)=EetU12=01etx2xdx
M1(t)=erf(t)π2t
i=1 t<0YnMn(t)=M1(t)nμ>0μfIμf(t)Γ(μ) - 1 t - (t-z) μ - 1 f(z)t<0Yn
Mn(t)=M1(t)n
μ>0они определяют интеграл го порядка функции как Тогда для и нецелого положительное целое число, а такое, что . Тогда производная от порядка определяется как Затем они утверждают (и доказывают) следующий результат для положительной случайной величины : предположим, что (mgf) определено. Тогда дляμf
Iμf(t)Γ(μ)1t(tz)μ1f(z)dz
α>0n0<λ<1α=nλfα
Dαf(t)Γ(λ)1t(tz)λ1dnf(z)dzndz.
XMXα>0 , Теперь мы можем попытаться применить эти результаты к . При находим где штрих обозначает производную. Maple дает следующее решение: я покажу график этого ожидания, выполненный в клене , используя численное интегрирование, вместе с приближенным решением
DαMX(0)=EXα<
Ynα=1/2
EYn1/2=D1/2Mn(0)=Γ(1/2)10|z|1/2Mn(z)dz
0n(erf(z)π2ezz)en(2ln2+2ln(erf(z))ln(z)+ln(π))22π(z)3/2erf(z)dz
A(n)=n/31/15из некоторого комментария (и обсуждается в ответе @Henry). Они замечательно близки:

Сравнение точное и приблизительное

В качестве дополнения приведен график процентной ошибки:

Относительная ошибка (в процентах) на графике выше

Приблизительно выше приближение близко к точному. Ниже кленовый код используется:n=20

int( exp(t*x)/(2*sqrt(x)), x=0..1 ) assuming t>0;
int( exp(t*x)/(2*sqrt(x)), x=0..1 ) assuming t<0;
M := t -> erf(sqrt(-t))*sqrt(Pi)/(2*sqrt(-t))
Mn := (t,n) -> exp(n*log(M(t)))
A  :=  n -> sqrt(n/3 - 1/15)
Ex :=  n ->   int( diff(Mn(z,n),z)/(sqrt(abs(z))*GAMMA(1/2) ), z=-infinity..0 ,numeric=true)

plot([Ex(n),A(n)],n=1..100,color=[blue,red],legend=[exact,approx],labels=[n,expectation],title="expectation of sum of squared uniforms")
plot([((A(n)-Ex(n))/Ex(n))*100],n=1..100,color=[blue],labels=[n,"% error"],title="Percentage error of approximation")

1
очень интересно. Если бы вы могли добавить несколько графиков, это был бы отличный ответ. Однако я отмечу одно явное преимущество приближения CLT здесь. Аппроксимация ясно показывает, что растет как когда . Решение Maple этого не делает (или, по крайней мере, я не могу понять это). E[Yn]nn
DeltaIV

5

В качестве расширенного комментария: здесь ясно, что начинается с когда а затем приближается к при увеличении связано с тем, что дисперсия падает от к . Мой связанный вопрос, на который ответил С. Каттералл, дает обоснование для асимптотического результата в котором каждый имеет среднее значение и дисперсиюE[Yn]=E[iXi2]E[Yn]=12=n3112n=1n3115nYn112115n3115Xi213445 , и для распределения, являющегося приблизительно и асимптотически нормальным.

Этот вопрос фактически касается распределений расстояний от начала координат случайных точек в мерном единичном гиперкубе . Это похоже на вопрос о распределении расстояний между точками в таком гиперкубе , поэтому я могу легко адаптировать то, что я сделал там, чтобы показать плотности для различных от до используя числовую свертку. Для предложенное нормальное приближение, показанное красным, хорошо подходит, а из вы можете увидеть кривую колокольчика. n[0,1]nn116n=16n=4

введите описание изображения здесь

Для и вы получаете резкий пик в режиме с тем, что похоже на одинаковую плотность в обоих случаях. Сравните это с распределением , где кривая колокола появляется при и где дисперсия пропорциональнаn=2n=31iXin=3n


2
Почти постоянная дисперсия приводит к возможно нелогичным результатам. Например , при , (расстояния от начала координат случайной точки в - мерном единичном гиперкубе) может принимать любое значение от до , но случаев будет между и и практически все между иn=400 40002094%11121013Y40040002094%11121013
Генри

1
это немного нелогично, на самом деле. Из-за проклятия размерности я ожидал, что подавляющее большинство точек будет близко к углам (реализация st ). Вместо этого похоже, что подавляющее большинство точек находится далеко от начала координат, но не так далеко, как углы. Вероятно, ошибка заключается в том, что мы должны учитывать расстояние от центра гиперкуба , а не расстояние от начала координат , которое просто один из углов гиперкуба. y400y400=20
DeltaIV

3
@DeltaIV: Если вы сделаете свой гиперкуб на стороне таким образом и измеряете от начала координат, вы получите точно такое же распределение, ожидание и дисперсию. При большинство точек в этом большем гипекубе будет близко к границе этого гиперкуба (типичное расстояние порядка ), но не близко к его углам (типичное расстояние до ближайшего или раз)[ - 1 , 1 ] n n = 400 0,02 11 122[1,1]nn=4000.021112
Генри

1
это имеет смысл - у меня не было времени на математику, но интуитивно я ожидал подобных результатов для . Я ожидал, что ожидание (извините за каламбур) изменится на постоянный фактор, но, как я уже сказал, у меня не было времени проверить это. U([1,1])
DeltaIV
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.