Существует ли обратная граница Черноффа, определяющая, что вероятность хвоста хотя бы так велика?
т.е. если являются независимыми биномиальными случайными переменными и . Тогда мы можем доказать для некоторой функции .
Существует ли обратная граница Черноффа, определяющая, что вероятность хвоста хотя бы так велика?
т.е. если являются независимыми биномиальными случайными переменными и . Тогда мы можем доказать для некоторой функции .
Ответы:
Вот явное доказательство того, что стандартная оценка Чернова тесно связана с постоянными множителями в показателе степени для определенного диапазона параметров. (В частности, всякий раз, когда переменные равны 0 или 1, и 1 с вероятностью 1/2 или меньше, и , а верхняя граница Чернова меньше константы.)
Если вы нашли ошибку, пожалуйста, дайте мне знать.
Лемма 1. (теснота границы Чернова). Пусть - среднее значение независимых 0/1 случайных величин (rv). Для любых и , предполагая, что ,
(i) Если каждый rv равен 1 с вероятностью не более , то
(ii) Если каждый rv равен 1 с вероятностью не менее , то
Доказательство. Мы используем следующее наблюдение:
Утверждение 1. Если , то
Доказательство утверждения 1. В приближении Стирлинга где
Таким образом, , который является , по крайней мере, QED
Доказательство леммы 1 часть (i). Без ограничения общности предположим, что каждая 0/1 случайная величина в сумме равна 1 с вероятностью ровно . Примечание. равно сумме , и .
Исправьте . Слагаемые в сумме растут, поэтому каждый член с индексом имеет значение не менее , поэтому их сумма имеет суммарное значение не менее . Для завершения доказательства покажем, что
Предположения и дают , поэтому левая часть выше по крайней мере . Используя пункт 1, чтобы ограничить , это в свою очередь, по крайней мере, где и
Чтобы закончить, мы показываем и .
Утверждение 2.
Доказательство утверждения 2. Предположения и подразумевают (i) .
По определению, . По (i) . Таким образом, (ii) .
Подстановка правой части (ii) для в дает (iii) .
Предположение подразумевает , что с помощью (iii) дает (iv) .
Из следует, что (v) .
(iv) и (v) вместе дают иск. QED
Утверждение 3. .
Доказательство утверждения 3.
Зафиксируйте , чтобы .
Выбор подразумевает , поэтому утверждение будет выполняться до тех пор, пока . Принимая каждую сторону этого последнего неравенства в степень и упрощая, оно эквивалентно
Подставляя и упрощая, он эквивалентен
Утверждения 2 и 3 подразумевают . Это подразумевает часть (i) леммы.
Доказательство леммы 1 ч. (Ii). Без ограничения общности предположим, что каждая случайная величина равна с вероятностью ровно .
Примечание . Исправьте .
Последние члены в общей сумме не менее , что не менее . (Доказательство тому же, что и для (i), за исключением того, что заменяется на а заменяется на , так что .) КЭД
Теорема Берри-Эссеена может дать нижние оценки вероятности хвоста, если они выше, чем .
Еще один инструмент, который вы можете использовать, это неравенство Пейли-Зигмунда . Это означает, что для любого четного целого числа и любой действительной случайной величины ,
Вместе с полиномиальной теоремой для сумма случайных величин rademacher Пейли-Зигмунда может дать вам довольно сильные нижние оценки. Также он работает со случайными переменными с ограниченной независимостью. Например, вы легко получаете, что сумма 4-независимых независимых переменных равна с постоянной вероятностью.
Если вы действительно в порядке с ограничивающими суммами испытаний Бернулли (а не, скажем, ограниченных случайных величин), то следующее довольно трудное.
Неравенство Слуда *. Пусть это ничья из розыгрыша Бернулли с , и пусть задано целое число . Если либо (a) и , либо (b) , то где - это cdf стандартного нормали.
(Рассматривая аргумент как преобразование стандартной нормали, это в точности соответствует тому, что говорит вам CLT; фактически, он говорит нам, что биномы, удовлетворяющие условиям теоремы, будут доминировать над соответствующими им гауссианами на верхних хвостах.)
Отсюда вы можете использовать границы чтобы получить что-то более приятное. Например, в первой книге Феллера в разделе о гауссианах для каждого показано, что где - плотность стандартной нормали. В статье в Википедии есть аналогичные оценки и для «Q-функции».
Помимо этого, и того, что говорили другие люди, вы также можете попробовать использовать Бином непосредственно, возможно, с каким-нибудь Стирлингом.
(*) Некоторые более новые утверждения о неравенстве Слуда исключают некоторые из этих условий; Я воспроизвел один в статье Слуда.
Теорема де Муавра-Лапласа показывает, что переменные типапосле соответствующей нормализации и при определенных условиях сойдутся в распределении к нормальному распределению. Этого достаточно, если вы хотите постоянные нижние границы.
Для нижних границ, таких как , вам понадобится немного более тонкий инструмент. Вот одно упоминание, о котором я знаю (но только случайно - у меня никогда не было возможности использовать такое неравенство самостоятельно). Некоторые явные нижние оценки вероятностей хвостов биномиальных распределений приведены в виде теоремы 1.5 книги Случайные графы Белы Боллобаса, Кембридж, 2-е издание, где даны дополнительные ссылки на Введение в вероятность и ее применения Феллера и Основы вероятности Рени.
Обобщенная теорема Литтлвуда-Оффорда не совсем то, что вам нужно, но она дает то, что я считаю «обратной черновской» границей, показывая, что сумма случайных величин вряд ли попадет в небольшой диапазон вокруг какого-либо конкретного значения (включая ожидание). Возможно, это будет полезно.
Формально теорема состоит в следующем.
Обобщенная теорема Литтлвуда-Оффорда : Пусть и - такие действительные числа, что для и пусть - независимые случайные величины со значениями ноль и единица. Предположим, что для для всех . Тогда для любого , где - константа, зависящая только от .
Показатель степени в стандартной границе Черноффа, как это указано в Википедии, является жестким для 0/1-значных случайных величин. Пусть а - последовательность независимых случайных величин, такая что для каждого , и . Тогда для любого ,
Здесь , что является дивергенцией Кульбака-Лейблера между случайными значениями Бернулли переменные с параметрами и .
Как уже упоминалось, верхняя граница в неравенстве выше доказана в Википедии ( https://en.wikipedia.org/wiki/Chernoff_bound ) под названием «Теорема Чернова-Хеффдинга, аддитивная форма». Нижняя граница может быть доказана с помощью, например, «метода типов». См. Лемму II.2 в [1]. Кроме того, это описано в классическом учебнике по теории информации, написанном Кавером и Томасом.
[1] Имре Цишар: метод типов. IEEE Труды по теории информации (1998). http://dx.doi.org/10.1109/18.720546