Хорошо известно, что если вы бросите n шаров в n корзин, то в самой загруженной корзине, скорее всего, будет шариков. В общем, можно спросить о шарах в корзинах. В статье из RANDOM 1998, опубликованной Раабом и Стегером, это подробно рассматривается, показывая, что с ростом вероятность того, что даже немного превысит ожидаемое значение быстро уменьшится. Грубо говоря, установив , они показывают, что вероятность увидеть больше, чем составляет .
Эта статья появилась в 1998 году, и я не нашел ничего более свежего. Есть ли новые и даже более концентрированные результаты в этом направлении, или есть эвристические / формальные причины подозревать, что это лучшее, что можно получить? Я должен добавить, что в соответствующем документе по варианту с множественным выбором, написанном в соавторстве с Анжеликой Стегер в 2006 году, также нет ссылок на более поздние работы.
Обновление : в ответ на комментарий Питера, позвольте мне уточнить, что я хотел бы знать. У меня здесь две цели.
- Во-первых, мне нужно знать, какую ссылку цитировать, и кажется, что это самая последняя работа по этому вопросу.
- Во-вторых, это правда, что результат достаточно плотный в диапазоне r = 1. Меня интересует диапазон m >> n, в частности, область, где r может быть poly log n или даже n ^ c. Я пытаюсь вставить этот результат в лемму, которую я доказываю, и конкретное ограничение на r контролирует другие части общего алгоритма. Я думаю (но не уверен), что диапазон r, предоставленный в этой статье, может быть достаточным, но я просто хотел убедиться, что не было более жесткой границы (это дало бы лучший результат).