«Слабый» ученик (классификатор, предиктор и т. Д.) - это тот, кто работает сравнительно плохо - его точность выше шанса, но едва ли. Часто, но не всегда, добавляется, что это просто в вычислительном отношении. Слабый ученик также предполагает, что многие экземпляры алгоритма объединяются (через повышение, упаковку и т. Д.) Вместе для создания «сильного» ансамблевого классификатора.
Это упоминается в оригинальной статье AdaBoost от Freund & Schapire:
Пожалуй, самым удивительным из этих приложений является создание нового приложения для «повышения», то есть преобразования «слабого» алгоритма обучения PAC, который работает чуть лучше, чем случайное угадывание, в произвольно высокую точность. - (Freund & Schapire, 1995)
но я думаю, что эта фраза на самом деле старше этого - я видел, как люди цитируют курсовую работу (?!) Майкла Кернса из 1980-х годов.
Классическим примером слабого ученика является пень принятия решения, одноуровневое дерево решений (1R или OneR - это другой часто используемый слабый ученик; он довольно похож). Было бы несколько странно называть SVM «слабым учеником», даже в ситуациях, когда он плохо работает, но было бы совершенно разумно называть единичный пень решения слабым учеником, даже если он сам по себе удивительно хорош.
Adaboost - это итерационный алгоритм, а обычно обозначает количество итераций или «циклов». Алгоритм начинается с обучения / тестирования слабого ученика на данных, взвешивая каждый пример в равной степени. Неправильно классифицированные примеры увеличивают свои веса в следующем раунде, в то время как правильно классифицированные веса уменьшают свои веса.
T
Я не уверен, что в есть что-то волшебное . В статье 1995 года указан как свободный параметр (т. Е. Вы устанавливаете его самостоятельно).T=10T