Ошибка аппроксимации доверительного интервала для среднего при


15

Пусть - семейство случайных величин iid, принимающих значения в , имеющих среднее и дисперсию . Простой доверительный интервал для среднего значения, использующий всякий раз, когда он известен, задается как {Икся}язнак равно1N[0,1]μσ2σ

п(|Икс¯-μ|>ε)σ2Nε21Nε2(1),

Кроме того, поскольку асимптотически распределяется как стандартная нормальная случайная величина, нормальное распределение иногда используется для "построения" приблизительного доверительного интервала.Икс¯-μσ/N


В экзаменах по статистике ответов с несколькими вариантами ответов мне приходилось использовать это приближение вместо всякий раз, когда . Я всегда чувствовал себя очень неловко с этим (больше, чем вы можете себе представить), так как ошибка аппроксимации не определяется количественно.(1)N30


  • Зачем использовать нормальное приближение, а не ?(1)

  • Я больше не хочу слепо применять правило . Есть ли хорошие рекомендации, которые могут поддержать меня в отказе сделать это и предоставить подходящие альтернативы? ( является примером того, что я считаю подходящей альтернативой.)N30(1)

Здесь, пока и неизвестны, они легко ограничены.σЕ[|Икс|3]

Обратите внимание, что мой вопрос является справочным запросом, в частности, о доверительных интервалах, и поэтому отличается от вопросов, которые были предложены как частичные дубликаты здесь и здесь . Там нет ответа.


2
Возможно, вам придется улучшить приближение, найденное в классических ссылках, и использовать тот факт, что находятся в ( 0 , 1 ), что, как вы заметили, дает информацию о моментах. Я полагаю, что магическим инструментом будет теорема Берри-Эссеена! Xi(0,1)
Ив

1
с этими границами дисперсия не может быть больше 0,25, намного лучше, чем 1, не так ли?
Карло

Ответы:


3

Зачем использовать нормальное приближение?

Это так же просто, как сказать, что всегда лучше использовать больше информации, чем меньше. В уравнении (1) используется теорема Чебышева . Обратите внимание, что он не использует никакой информации о форме вашего дистрибутива, т.е. он работает для любого дистрибутива с заданной дисперсией. Следовательно, если вы используете некоторую информацию о форме вашего дистрибутива, вы должны получить лучшее приближение. Если вы знали, что ваше распределение является гауссовским, то, используя эти знания, вы получите более точную оценку.

Поскольку вы уже применяете центральную предельную теорему, почему бы не использовать гауссово приближение границ? Они будут лучше, на самом деле, более узкими (или более резкими), потому что эти оценки основаны на знании формы, которая является дополнительной информацией.

Практическое правило 30 - это миф, который выигрывает от предвзятости подтверждения . Он просто копируется из одной книги в другую. Однажды я нашел ссылку на это правило в газете 1950-х годов. Насколько я помню, это не было каким-либо твердым доказательством. Это было какое-то эмпирическое исследование. По сути, единственная причина, по которой он используется - это то, что он работает. Вы не видите, что это часто нарушается.

ОБНОВЛЕНИЕ Посмотрите статью Захария Р. Смита и Крейга Уэллса « Центральная предельная теорема и размер выборки ». Они представляют эмпирическое исследование сходимости к CLT для различных видов распределений. Конечно, магическое число 30 не работает во многих случаях.


+1 Для разумного объяснения. Но разве нет риска использования информации, которая не совсем верна? CLT ничего не говорит о распределении для фиксированного n . X¯n
Оливье

Да, CLT ничего не говорит о распределении конечной выборки, но не делает асимптотических уравнений. Однако, несомненно, они имеют полезную информацию, поэтому ограничивающие отношения используются повсеместно. Проблема с Чебышевым в том, что он настолько широк, что редко используется за пределами класса. Например, для одного стандартного отклонения вероятность, которую он дает, составляет - вряд ли практическая информация<1/k2=1
Аксакал,

Тем не менее, для принимающего значения 0 или 1 с равной вероятностью, ваше применение Чебышева является точным. ;) Проблема в том, что Чебышев, примененный к выборочному среднему, никогда не будет оставаться резким при росте n . Xn
Оливье

Я не знаю о статье Смита и Уэллса, я пытался воспроизвести ее в R и не смог восстановить их выводы ...
Алекс Нельсон

9

Проблема с использованием неравенства Чебышева для получения интервала для истинного значения заключается в том, что он дает только нижнюю границу для вероятности, которая к тому же иногда тривиальна, или, чтобы не быть тривиальной, она может дать очень широкую доверительный интервал. У нас есть

P(|X¯μ|>ε)=1P(X¯εμX¯+ε)

P(X¯εμX¯+ε)11nε2

Мы видим, что, в зависимости также от размера выборки, если мы уменьшим «слишком сильно», мы получим тривиальный ответ «вероятность больше нуля».ε

Кроме того, что мы получаем из этого подхода, так это вывод вида "" вероятность того, что попадет в [ ˉ X ± ε ] , равна или больше ... "μ[X¯±ε]

Но давайте предположим , что мы хорошо с этим, и обозначим минимальная вероятность , с которой мы знакомы. Итак, мы хотимpmin

11nε2=pminε=1(1pmin)n

При небольших размерах выборки и высокой требуемой минимальной вероятности это может дать неудовлетворительно широкий доверительный интервал. Например, для и n = 100 мы получим ε 0,316 , что, например, для переменной, обработанной OP, ограниченной в [ 0 , 1 ], представляется слишком большим, чтобы быть полезным.pmin=0.9n=100ε.316[0,1]

Но этот подход действителен и не распространяется, поэтому могут быть случаи, когда он может быть полезен.

Можно также проверить неравенство Высочанского – Петунина, упомянутое в другом ответе, который справедлив для непрерывных унимодальных распределений и уточняет неравенство Чебышева.


Я не согласен, что проблема с Чебычевым в том, что он дает только нижнюю оценку вероятности. В условиях без распространения нижняя граница - лучшее, на что мы можем надеяться. Важные вопросы: Чебычев острый? Является ли длина Чебычева С.И. систематически завышенной для фиксированного уровня ? Я ответил на это в своем посте, с определенной точки зрения. Тем не менее, я все еще пытаюсь понять, будет ли Чебычев для выборочного среднего значения всегда не быть точным, в более сильном смысле. α
Оливье

Длина КИ не оценивается, поскольку не существует какой-то одной неизвестной длины, поэтому я не уверен, что вы имеете в виду, используя здесь слово «переоценка». Разные методы предоставляют разные КИ, которые мы, конечно, можем попытаться оценить и оценить.
Алекос Пападопулос

Переоценка была плохим выбором слов, спасибо за указание на это. Под «систематически завышенной длиной» я подразумевал, что метод получения КИ всегда дает нечто большее, чем необходимо.
Оливье

1
@Olivier Вообще говоря, неравенство Чебышева, как известно, является слабым неравенством и поэтому больше используется в качестве инструмента в теоретических выводах и доказательствах, чем в прикладных работах.
Алекос Пападопулос

2
@ Оливье "Вообще говоря" охватывает вашу квалификацию, я бы сказал.
Алекос Пападопулос

7

Короткий ответ: все может пойти очень плохо, но только если один или оба хвоста распределения выборки действительно толстые .

Этот код R генерирует миллион наборов из 30 гамма-распределенных переменных и принимает их среднее значение; его можно использовать, чтобы получить представление о том, как выглядит выборочное распределение среднего значения. Если нормальное приближение работает как задумано, результаты должны быть приблизительно нормальными со средним значением 1 и дисперсией 1/(30 * shape).

f = function(shape){replicate(1E6, mean(rgamma(30, shape, shape)))}

При shapeзначении 1,0 гамма-распределение становится экспоненциальным , что довольно ненормально. Тем не менее, негауссовские части в основном усредняются, и поэтому гауссовское приближение не так уж и плохо:

гистограмма и график плотности

Здесь явно есть некоторая предвзятость, и было бы неплохо избежать этого, когда это возможно. Но, честно говоря, такой уровень предвзятости, вероятно, не будет самой большой проблемой, стоящей перед типичным исследованием.

Тем не менее, все может стать намного хуже. При f(0.01)этом гистограмма выглядит так:

гистограмма

Логическое преобразование 30 точек выборки данных перед усреднением очень помогает, хотя:

гистограмма

В общем случае для распределений с длинными хвостами (на одной или обеих сторонах распределения) потребуется наибольшее количество выборок, прежде чем приближение Гаусса станет надежным. Есть даже патологические случаи, когда буквально никогда не будет достаточно данных для работы гауссовского приближения, но у вас, вероятно, будут более серьезные проблемы в этом случае (потому что распределение выборки не имеет четко определенного среднего значения или дисперсии, чтобы начать с).


Я считаю эксперимент очень уместным и интересным. Я не буду принимать это как ответ, однако, поскольку это не решает суть проблемы.
Оливье

1
в чем суть?
Дэвид Дж. Харрис

Ваш ответ не обеспечивает строгой основы для правильной статистической практики. Это только приводит примеры. Также обратите внимание, что случайные величины, которые я рассматриваю, ограничены, что сильно меняет то, что является наихудшим возможным случаем.
Оливье

@Glen_b: этот ответ не имеет отношения к вашей исправленной версии вопроса. Должен ли я просто оставить это здесь, или вы бы порекомендовали что-то еще?
Дэвид Дж. Харрис,

3

Проблема с доверительным интервалом Чебышева

Как упоминалось Карло, мы имеем . Это следует изVar(X)µ(1-µ). Поэтому доверительный интервал дляцдается P(| ˉ Х -ц|е)1σ214Var(X)μ(1μ)μ Проблема в том, что неравенство в определенном смысле довольно свободно, когдаnстановится большим. Улучшение дается границей Хеффдинга и показано ниже. Тем не менее, мы также можем продемонстрировать, насколько плохо это может стать, используятеорему Берри-Эссеена, на которую указал Ив. ПустьX уменяесть дисперсия1

P(|X¯μ|ε)14nε2.
nXi , худший из возможных случаев. Из теоремы вытекает, что P(| ˉ X -µ|ε14 гдеSF- функция выживания стандартного нормального распределения. В частности, приε=16мы получаемSF(16)e-58(по Сципи), так что по существу P(|ˉX-µ|8P(|X¯μ|ε2n)2SF(ε)+8n,SFε=16SF(16)e58 тогда как из неравенства Чебышева следует P ( | ˉ X - µ |8
P(|X¯μ|8n)8n+0,()
Обратите внимание, что я не пытался оптимизировать границы, заданные в(), результат здесь представляет только концептуальный интерес.
P(|X¯μ|8n)1256.
()

Сравнивая длины доверительных интервалов

Рассмотрим длины доверительного интервала Z ( α , n ) и C ( α , n ), полученные с использованием нормального приближения ( σ = 1(1α)Z(α,n)C(α,n)σзнак равно12С(α,N)Z(α,N)NN

С(α,N)знак равноκ(α)Z(α,N),κ(α)знак равно(ISF(α2)α)-1,
ISF

enter image description here

95%2,3


Используя границу Хеффдинга

п(|Икс¯-μ|ε)2е-2Nε2,
(1-α)μ
(X¯ε,X¯+ε),ε=lnα22n,
H(α,n)=2εCσ=1/2ZHα=0.05

enter image description here


P(X¯με)e2nε2P(|X¯μ|ε)2e2nε2;α1α,

Последнее и более важное: я нашел ваш результат невероятным, поэтому я попытался воспроизвести его в R и получил совершенно противоположный результат: нормальное приближение дает мне меньшие доверительные интервалы! это код, который я использовал:curve(sqrt(-log(.025)/2/x), to= 100, col= 'red', xlab= 'n', ylab= 'half interval') #Hoeffding ; curve(qnorm(.975, 0, .5/sqrt(x)), to= 100, add= T, col= 'darkgreen') #normal approximation
Карло

0

давайте начнем с числа 30: это, как кто-нибудь скажет, эмпирическое правило. но как мы можем найти число, которое лучше соответствует нашим данным? На самом деле это в основном вопрос асимметрии: даже самые странные распределения быстро сходятся к нормальным, если они симметричные и непрерывные, искаженные данные будут намного медленнее. Я помню, как узнал, что биномиальное распределение может быть правильно приближено к нормальному, когда его дисперсия больше 9; в этом примере следует учитывать, что дискретное распределение также имеет проблему, заключающуюся в том, что им необходимы большие числа для симуляции непрерывности, но подумайте об этом: симметричное биномиальное распределение достигнет этой дисперсии с n = 36, если вместо p = 0,1, n должно идти до 100 (переменная трансформация, однако, очень поможет)!

Если вы хотите использовать вместо этого только дисперсию, отбрасывая гауссову аппроксимацию, рассмотрите неравенство Высочанского – Петунина по Чебичеву, для этого необходимо допустить унимодальное распределение среднего значения, но это очень безопасное с любым размером выборки, я бы сказал, большим чем 2.


Не могли бы вы добавить ссылку на «неравенство Высочанского – Петунина»? Никогда об этом не слышал!
kjetil b halvorsen

Википедия Docet
Карло

Можете ли вы выразить скорость сближения с точки зрения асимметрии? Почему размер выборки, вы бы сказали 2, достаточен для унимодальности? Как неравенство Высочанского – Петунина улучшится по сравнению с Чебычевым, если вам нужно удвоить или утроить размер выборки для его применения?
Оливье

Я сделал быстрый поиск в Google и обнаружил, что биномиальное распределение на самом деле часто используется для объяснения потребности в искаженных данных разного размера выборки, но я не нашел, и я полагаю, что нет общепринятой "скорости сходимости с точки зрения асимметрии" ».
Карло

Неравенство Высочанского – Петунина более эффективно, чем неравенство Чебычева, поэтому ему вообще не нужна большая выборка, но оно имеет некоторые ограничения использования: во-первых, вы должны иметь непрерывное распределение, чем, оно должно быть унимодальным (без локальных мод разрешается). Может показаться странным отказаться от предположения о нормальности, чтобы принять другое, но если ваши данные не являются дискретными, среднее значение выборки должно исключать локальные моды даже с очень маленькими выборками. Факт заключается в том, что среднее значение имеет большую часть распределения колокольчиков, и, даже если оно может быть перекошено или иметь толстые хвосты, оно быстро будет иметь только один режим.
Карло
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.