Это не гарантировано. Как вы говорите, ансамбль может быть хуже, чем отдельные модели. Например, взятие среднего значения истинной модели и плохой модели даст довольно плохую модель.
Среднее значение моделей будет улучшаться только в том случае, если модели (несколько) не зависят друг от друга. Например, в пакетировании каждая модель строится из случайного подмножества данных, поэтому в нее встроена некоторая независимость. Или модели могут быть построены с использованием различных комбинаций признаков, а затем объединены путем усреднения.К
Кроме того, усреднение моделей работает только тогда, когда отдельные модели имеют высокую дисперсию. Вот почему случайный лес строится из очень больших деревьев. С другой стороны, усреднение множества моделей линейной регрессии все еще дает вам линейную модель, которая вряд ли будет лучше, чем модели, с которыми вы начали (попробуйте!)
Другие ансамблевые методы, такие как усиление и смешивание, работают, принимая результаты отдельных моделей вместе с данными обучения в качестве входных данных для более крупной модели. В этом случае неудивительно, что они часто работают лучше, чем отдельные модели, поскольку на самом деле они более сложны и все еще используют данные обучения.