Я читаю книгу Кевина Мерфи: Машинное обучение - вероятностная перспектива. В первой главе автор объясняет проклятие размерности, и есть часть, которую я не понимаю. В качестве примера автор заявляет:
Рассмотрим входы, равномерно распределенные по D-мерному единичному кубу. Предположим, что мы оцениваем плотность меток классов, выращивая гиперкуб вокруг x, пока он не будет содержать искомую дробь точек данных. Ожидаемая длина ребра этого куба составляет .
Это последняя формула, которую я не могу понять. кажется, что если вы хотите покрыть, скажем, 10% точек, то длина ребра должна быть 0,1 по каждому измерению? Я знаю, что мои рассуждения неверны, но я не могу понять, почему.