Почему в среднем каждый образец начальной загрузки содержит примерно две трети наблюдений?


42

Я перебежать утверждение , что каждый образец самозагрузки (или в мешках дерево) будет содержать в среднем примерно 2/3 наблюдений.

Я понимаю , что шанс не был выбран в любом из n черпает из n образцов с замены (11/n)n , которая работает примерно 1/3 шанс не был выбран.

Что такое математическое объяснение , почему эта формула всегда дает 1/3 ?


10
Я считаю, что это происхождение .632 в правиле начальной загрузки 632+.
gung - Восстановить Монику

Ответы:


29

limn(11/n)n=e1
e1=1/e1/3

Он не работает при очень малых n - например, при n=2 , (11/n)n=14 . Он проходит 13 при n=6 , проходит 0.35 при n=11 и 0.366 при n=99 . Как только вы выйдете за пределы n=11 , 1e будет лучшим приближением, чем 13 .

введите описание изображения здесь

Серая пунктирная линия находится в 13 ; красно-серая линия находится в 1e .

Вместо того, чтобы показывать формальный вывод (который легко найти), я собираюсь дать план (это интуитивно понятный аргумент), почему (немного) более общий результат имеет место:

ex=limn(1+x/n)n

(Многие люди принимают это будет определение из , но вы можете доказать это из более простых результатов , таких как определение , как .)exp(x)elimn(1+1/n)n

Факт 1: Это следует из основных результатов о степенях и возведении в степеньexp(x/n)n=exp(x)

Факт 2: Когда большое, Это следует из разложения в ряд для .nexp(x/n)1+x/nex

(Я могу дать более полные аргументы для каждого из них, но я предполагаю, что вы уже знаете их)

Заменить (2) в (1). Выполнено. (Чтобы это работало как более формальный аргумент, потребовалась бы некоторая работа, потому что вам нужно было бы показать, что оставшиеся термины в факте 2 не становятся достаточно большими, чтобы вызвать проблему при переходе к степени . Но это интуиция а не формальное доказательство.)n

[В качестве альтернативы просто возьмите ряд Тейлора для до первого порядка. Второй простой подход состоит в том, чтобы взять биномиальное разложение и взять ограничение по терминам, показывая, что оно дает члены в ряду для .]exp(x/n)(1+x/n)nexp(x/n)

Так что если , просто подставьте .ex=limn(1+x/n)nx=1

Сразу же у нас есть результат в верхней части этого ответа,limn(11/n)n=e1


Как указывает Ганг в комментариях, результатом вашего вопроса является происхождение правила начальной загрузки 632

например, см.

Efron, B. и R. Tibshirani (1997),
«Усовершенствования перекрестной проверки: метод начальной загрузки .632+»,
журнал Американской статистической ассоциации Vol. 92, № 438. (Jun), с. 548-560.


41

Точнее, каждый образец начальной загрузки (или дерево в мешках) будет содержать образца.11e0.632

Давайте рассмотрим, как работает бутстрап. У нас есть оригинальный образец с элементами в нем. Мы рисуем элементы с заменой из этого исходного набора, пока у нас не будет другого набора размера .x1,x2,xnnn

Из этого следует, что вероятность выбора какого-либо одного предмета (скажем, ) в первом тираже равна . Следовательно, вероятность того, что вы не выберете этот элемент, равна . Это только для первого розыгрыша; Всего существует ничьих, все из которых независимы, поэтому вероятность того, что этот пункт никогда не будет выбран ни в одной из ничьих, равна .x11n11nn(11n)n

Теперь давайте подумаем о том, что происходит, когда становится все больше и больше. Мы можем взять предел, когда стремится к бесконечности, используя обычные трюки с исчислением (или Wolfram Alpha): nn

limn(11n)n=1e0.368

Это вероятность того, что предмет не выбран. Вычтите его из единицы, чтобы найти вероятность выбора предмета, что дает 0,632.


5

Выборка с заменой может быть смоделирована как последовательность биномиальных испытаний, где «успех» является выбранным экземпляром. Для исходного набора данных из экземпляров вероятность «успеха» равна , а вероятность «отказа» равна . Для размера выборки вероятность выбора экземпляра ровно раз определяется биномиальным распределением:n1/n(n1)/nbx

P(x,b,n)=(1n)x(n1n)bx(bx)

В конкретном случае выборки начальной загрузки размер выборки равен числу экземпляров . Позволяя приближаться к бесконечности, мы получаем:bnn

limn(1n)x(n1n)nx(nx)=1ex!

Если наш исходный набор данных большой, мы можем использовать эту формулу для вычисления вероятности того, что экземпляр будет выбран ровно раз в образце начальной загрузки. Для вероятность составляет или примерно . Таким образом, вероятность выборки экземпляра хотя бы один раз составляет .xx=01/e0.36810.368=0.632

Само собой разумеется, я кропотливо получил это, используя ручку и бумагу, и даже не думал об использовании Wolfram Alpha.


4

Просто добавив к ответу @ retsreg, это также можно легко продемонстрировать с помощью численного моделирования в R:

N <- 1e7 # number of instances and sample size
bootstrap <- sample(c(1:N), N, replace = TRUE)
round((length(unique(bootstrap))) / N, 3)
## [1] 0.632

1

Это можно легко увидеть, считая. Сколько всего возможных образцов? п ^ п. Сколько НЕ содержит определенного значения? (П-1) ^ п. Вероятность того, что образец не имеет определенного значения - (1-1 / n) ^ n, что составляет около 1/3 в пределе.

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.