Центральная предельная теорема доказательство без использования характеристических функций


11

Есть ли доказательство того, что CLT не использует характеристические функции, более простой метод?

Может быть, методы Тихомирова или Штейна?

Что-то самодостаточное, что вы можете объяснить студенту университета (первый курс по математике или физике) и занимает меньше одной страницы?


2
Я набросал такой элементарный подход на stats.stackexchange.com/a/3904/919 . Можно утверждать, что использование функций генерации кумулянтов - самый простой из возможных методов: ваш «проще», вероятно, предназначен для чтения «более элементарно».
uuber

2
В более ограничительных условиях, чем при использовании характеристических функций, вы можете вместо этого использовать функции, генерирующие моменты (действительно, первый CLT, который я видел, имел такую ​​форму) - но изложение довольно схоже.
Glen_b

@Glen_b Я также думал, что это может быть проще с моментами. В любом случае, я оставлю открытым вопрос на тот случай, если кто-нибудь еще отправит другую демонстрацию.
Скан

Как доказательство, на самом деле это не так просто (доказательство с cfs может быть записано в той же форме, что и доказательство с mgfs), но может быть предпочтительным для студентов, которые могут не иметь никакого опыта работы с функциями, связанными с . То есть вы можете сохранить введение новых концепций, но если у них уже есть эти концепции, то доказательство соответствующего утверждения с помощью cfs на самом деле не сложнее (хотя оно носит более общий характер). Будет ли это лучше, зависит от студентов, с которыми вы имеете дело. i
Glen_b

Я вспоминаю, как мой профессор статистики первого года обучения предоставил визуальное «доказательство» CLT, показав выборочные распределения среднего значения с при различных вероятностных моделях. Нормальное, конечно, не показывало тенденции, но экспоненциальное, бернуллиевское и различные распределения с тяжелыми хвостами все «округляли» до привычной формы визуально для каждого увеличения . nn=10,100,1000n
AdamO

Ответы:


6

Вы можете доказать это с помощью метода Штейна, однако это спорно , если доказательство элементарно. Плюс метода Штейна в том, что вы получаете немного более слабую форму оценок Берри Эссеена практически бесплатно. Кроме того, метод Штейна - не что иное, как черная магия! Вы можете найти описание доказательства в разделе 6 этой ссылки . Вы также найдете другие доказательства CLT в ссылке.

Вот краткий план:

1) Докажите, используя простую интеграцию по частям и нормальную плотность распределения, то для всех непрерывно дифференцируема тогда и только тогда является распределены. Это проще показать нормальный следует результат и немного сложнее показать обратное, но , возможно , оно может быть принято на веру.A N ( 0 , 1 ) AEf(A)Xf(A)=0AN(0,1)A

2) В более общем смысле, если для каждого непрерывно дифференцируемого с ограниченным, то сходится к в распределении. Доказательством здесь снова является интеграция по частям с некоторыми хитростями. В частности, нам нужно знать, что сходимость в распределении эквивалентна для всех ограниченных непрерывных функций . Исправляя , это используется для переформулировки:Ef(Xn)Xnf(Xn)0ff,fXnN(0,1)Eg(Xn)Eg(A)gg

Eg(Xn)Eg(A)=Ef(Xn)Xnf(Xn),

где один решает для с использованием базовой теории ОДУ, а затем показывает приятно. Таким образом, если мы можем найти такой хороший , по предположению, rhs переходит в 0, и, следовательно, так же, как и в левой части.fff

3) Наконец, докажите центральную предельную теорему для где идентифицированы со средним 0 и дисперсией 1. Это снова использует трюк на шаге 2, где для каждого находим такой, что:Yn:=X1++XnnXigf

Eg(Xn)Eg(A)=Ef(Xn)Xnf(Xn).

6

Вот как бы я это сделал, если бы учился в средней школе.

Возьмите любое распределение вероятностей с плотностью , получите его среднее значение и дисперсию . Затем аппроксимируйте его случайной величиной которая имеет следующий вид: где - случайная величина Бернулли с параметром . Вы можете видеть, что и .f(x)μx,σx2z

z=μxσx+2σxξ,
ξp=1/2μz=μxσz2=σx2

Теперь мы можем посмотреть на сумму

Sn=i=1nzi
=n(μxσx)+2σxi=1nξi

Вы можете распознать биномиальное распределение здесь: , где . Вам не нужна характеристическая функция, чтобы увидеть, что она сходится к форме нормального распределения .η=i=1nξiηB(n,1/2)

Таким образом, в некотором отношении вы можете сказать, что Бернулли является наименее точным приближением для любого распределения, и даже оно сходится к нормальному.

Например, вы можете показать, что моменты соответствуют нормальным. Давайте определим, посмотрим на переменную:y=(Sn/nμx)n

y=σx(1+2η/n)n

Давайте посмотрим, что значит среднее и дисперсия: Вг[г]=σ 2 х Вг[2η/п]п=4σ 2 х /пп(1/4)=сг 2 х

μy=σx(1+2(n/2)/n)n=0
Var[y]=σx2Var[2η/n]n=4σx2/nn(1/4)=σx2

Асимметрия и избыточный эксцесс сходятся к нулю при , это легко показать, подключив известные формулы для Binomial.n


Интересный. Можно ли превратить эту идею в полное доказательство?
Элвис

@ Элвис, я пытался думать так же, как и сам, много лет назад, и я не особо интересовался доказательствами. Одна вещь, о которой я подумал, - представить непрерывное распределение как комбинацию бернулли, но не уверен, возможно ли это
Аксакал

То, что вы написали выше, может быть намного лучше. Не нужно приближенно приближать распределение: грубая аппроксимация переменной, принимающей два разных значения, сделает работу.
Элвис

То есть, если есть возможность получить некоторую оценку точности нормального приближения. Мол, нормальное приближение по крайней мере так же хорошо для исходного распределения, как и для масштабированного Бернулли. Или, скорее, что-то слабее, но все же позволяет сделать вывод.
Элвис
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.