Смотрите также похожий вопрос на stats.SE .
В таких алгоритмах повышения , как AdaBoost и LPBoost, известно, что «слабые» ученики, которых нужно объединить, должны работать лучше, чем шанс быть полезными, из Википедии:
Используемые им классификаторы могут быть слабыми (т. Е. Отображать значительную частоту ошибок), но до тех пор, пока их производительность не случайна (что приводит к частоте ошибок 0,5 для двоичной классификации), они улучшат окончательную модель. Даже классификаторы с частотой ошибок выше, чем можно было бы ожидать от случайного классификатора, будут полезны, поскольку они будут иметь отрицательные коэффициенты в конечной линейной комбинации классификаторов и, следовательно, вести себя как их обратные.
Каковы преимущества использования слабых по сравнению с сильными учениками? (например, почему бы не повысить с помощью «сильных» методов обучения - мы более склонны к переобучению?)
Есть ли какая-то «оптимальная» сила для слабых учеников? И связано ли это с количеством учеников в ансамбле?
Есть ли теория, подтверждающая ответы на эти вопросы?