Я тоже был соблазнен как начальной загрузкой, так и теоремой Байеса, но я не мог понять смысла оправдания начальной загрузки, пока я не посмотрел на нее с байесовской точки зрения. Тогда - как я объясню ниже - распределение бутстрапа можно рассматривать как байесовское апостериорное распределение, что делает (a?) Обоснование бутстрапа очевидным, а также имеет преимущество в разъяснении сделанных предположений. Ниже приведено более подробное описание аргумента и сделанных допущений в https://arxiv.org/abs/1803.06214 (стр. 22-26).
В качестве примера, который настроен на электронную таблицу по адресу http://woodm.myweb.port.ac.uk/SL/resample.xlsx (нажмите на вкладку начальной загрузки в нижней части экрана), предположим, что у нас есть выборка из 9 измерений со средним значением 60. Когда я использовал электронную таблицу для получения 1000 повторных выборок с заменой из этой выборки и округлил средние значения до ближайшего четного числа, 82 из этих средних составляли 54. Идея начальной загрузки состоит в том, что мы используйте выборку в качестве «притворной» популяции, чтобы увидеть, насколько изменчивыми могут быть средние значения выборок из 9, так что это предполагает, что вероятность того, что среднее значение по выборке будет на 6 ниже среднего по совокупности (в данном случае притворная совокупность на основе выборка со средним значением 60) составляет 8,2%. И мы можем прийти к аналогичному выводу о других столбцах гистограммы передискретизации.
Теперь давайте представим, что истина в том, что среднее значение реальной популяции составляет 66. Если это так, то наша оценка вероятности того, что среднее значение для выборки будет 60 (т.е. данные), составляет 8,2% (используя заключение в параграфе выше, помня что 60 на 6 ниже среднего значения, предположенного в 66). Давайте напишем это как
P (данные приведены в среднем = 66) = 8,2%
и эта вероятность соответствует значению х 54 в распределении передискретизации. Аналогичные аргументы применимы к каждому возможному среднему значению от 0, 2, 4 ... 100. В каждом случае вероятность исходит из распределения повторной выборки, но это распределение отражается относительно среднего значения 60.
Теперь давайте применим теорему Байеса. Рассматриваемое измерение может принимать значения только от 0 до 100, поэтому при округлении до ближайшего четного числа средние значения вероятности составляют 0, 2, 4, 6, .... 100. Если мы предположим, что предыдущее распределение является плоским, каждое из них имеет априорную вероятность 2% (до 1 dp), и теорема Байеса говорит нам, что
P (PopMean = 66 данных) = 8,2% * 2% / P (данные)
где
P (Данные) = P (PopMean = 0 для данных) * 2% + P (PopMean = 2 для данных) * 2% + ... + P (PopMean = 100 для данных) * 2%
Теперь мы можем отменить 2% и помнить, что сумма вероятностей должна быть 1, так как вероятности просто те из распределения повторной выборки. Что оставляет нас с выводом, что
Р (PopMean = 66) = 8,2%
Помня, что 8,2% - это вероятность из распределения повторной выборки, соответствующего 54 (вместо 66), апостериорное распределение - это просто распределение повторной выборки, отраженное относительно среднего по выборке (60). Кроме того, если распределение повторной выборки симметрично в том смысле, что асимметрии являются случайными - как это происходит в этом и во многих других случаях, мы можем принять распределение повторной выборки как идентичное апостериорному распределению вероятности.
Этот аргумент делает различные предположения, главным из которых является то, что предыдущее распределение является равномерным. Они изложены более подробно в статье, приведенной выше.