Что подразумевается под «слабым учеником»?


34

Может кто-нибудь сказать мне, что подразумевается под фразой «слабый ученик»? Это должна быть слабая гипотеза? Я запутался в отношениях между слабым учеником и слабым классификатором. Оба одинаковы или есть какая-то разница?

В алгоритме adaboost T=10. Что подразумевается под этим? Почему мы выбираем T=10?


1
Добро пожаловать на сайт, @vrushali. Я отредактировал это, чтобы сделать английский более гладким; пожалуйста, убедитесь, что он все еще говорит, что вы имеете в виду. Кроме того, я не уверен, совпадает ли второй набор вопросов (о adaboost) с первым набором вопросов; может иметь смысл разделить их на разные темы.
gung - Восстановить Монику

Ответы:


35

«Слабый» ученик (классификатор, предиктор и т. Д.) - это тот, кто работает сравнительно плохо - его точность выше шанса, но едва ли. Часто, но не всегда, добавляется, что это просто в вычислительном отношении. Слабый ученик также предполагает, что многие экземпляры алгоритма объединяются (через повышение, упаковку и т. Д.) Вместе для создания «сильного» ансамблевого классификатора.

Это упоминается в оригинальной статье AdaBoost от Freund & Schapire:

Пожалуй, самым удивительным из этих приложений является создание нового приложения для «повышения», то есть преобразования «слабого» алгоритма обучения PAC, который работает чуть лучше, чем случайное угадывание, в произвольно высокую точность. - (Freund & Schapire, 1995)

но я думаю, что эта фраза на самом деле старше этого - я видел, как люди цитируют курсовую работу (?!) Майкла Кернса из 1980-х годов.

Классическим примером слабого ученика является пень принятия решения, одноуровневое дерево решений (1R или OneR - это другой часто используемый слабый ученик; он довольно похож). Было бы несколько странно называть SVM «слабым учеником», даже в ситуациях, когда он плохо работает, но было бы совершенно разумно называть единичный пень решения слабым учеником, даже если он сам по себе удивительно хорош.


Adaboost - это итерационный алгоритм, а обычно обозначает количество итераций или «циклов». Алгоритм начинается с обучения / тестирования слабого ученика на данных, взвешивая каждый пример в равной степени. Неправильно классифицированные примеры увеличивают свои веса в следующем раунде, в то время как правильно классифицированные веса уменьшают свои веса.T

Я не уверен, что в есть что-то волшебное . В статье 1995 года указан как свободный параметр (т. Е. Вы устанавливаете его самостоятельно).T=10T


Насколько я знаю, DecisionStump отличается от 1Rule. Stump Decision всегда является двоичным 1-уровневым деревом (как для номинальных, так и для числовых атрибутов). 1Rule может иметь более 2 дочерних элементов (как для именных, так и для числовых), а для числовых атрибутов иметь более сложный тест, чем двоичное разбиение по значению. Также в WEKA есть 2 разных реализации: DecisionStump и OneR.
Рапайо

Хммм ... я думаю, ты прав. В оригинальной статье 1R говорится: «Определенный вид правил, рассматриваемых в этой статье, называемый 1-Правилами, - это правила, которые классифицируют объект на основе одного атрибута (т. Е. Они являются деревьями решений 1-го уровня». Но деревья решений могут быть реализовано многими различными способами. Я отредактирую это ясно
Мэтт Краузе

Существует также встроенная реализация OneR: пакет OneR для CRAN: CRAN.R-project.org/package=OneR , вот виньетка: cran.r-project.org/web/packages/OneR/vignettes/OneR. HTML (полное раскрытие: я являюсь автором этого пакета).
Vonjd

7

Слабый ученик - это ученик, который, независимо от того, каково распределение по обучающим данным, всегда будет лучше, чем случайность, когда он пытается маркировать данные. «Лучше, чем шанс» означает, что у нас всегда будет уровень ошибок менее 1/2.

Это означает, что алгоритм учащегося всегда собирается что-то выучить, не всегда полностью точный, т. Е. Он слабый и плохой, когда речь идет об изучении отношений между (входные данные) и (целевой).XY

Но затем идет повышение , в котором мы начинаем с просмотра обучающих данных и генерируем некоторые распределения, затем находим некоторый набор слабых учеников (классификаторов) с низким уровнем ошибок, и каждый учащийся выводит некоторую гипотезу, . Это генерирует некоторый (метка класса) и в конце объединяет набор хороших гипотез для генерации окончательной гипотезы.HxY

Это в конечном итоге улучшает слабых учеников и превращает их в сильных учеников.

Для получения дополнительной информации: https://youtu.be/zUXJb1hdU0k .


Добро пожаловать в резюме. Поскольку вы новичок здесь, вы можете посетить наш тур , в котором есть информация для новых пользователей. , Этот ответ, по-видимому, не дает чего-то нового или улучшающего по сравнению с предыдущими ответами. Как вы думаете, чего-то не хватает в предыдущих?
TEG - Восстановить Монику

почему это должно быть ниже 1/2. Если коэффициент ошибок выше 1/2, это также должен быть слабый классификатор.
Код Папы

@CodePope, я понял вашу точку зрения, но на самом деле «слабый ученик» формально определяется в таких терминах. Я согласен, что любая модель с ошибкой более 50% также плохая и слабая. Но если говорить о формальных определениях, определенных учеными, слабым учеником считается тот, у которого погрешность составляет менее 1/2 или 50%.
Аниш Сингх Валия

1

Слабый ученик - это то же самое, что слабый классификатор или слабый предсказатель. Идея в том, что вы используете классификатор, который, ну ... не так хорош, но, по крайней мере, лучше, чем случайный. Преимущество состоит в том, что классификатор будет устойчив в переоснащении. Конечно, вы используете не один, а большой набор из них, каждый из которых немного лучше, чем случайный. Точный способ, которым вы выбираете / комбинируете их, зависит от методологии / алгоритма, например, AdaBoost.

На практике в качестве слабого классификатора вы используете что-то вроде простого порога для одной функции. Если свойство превышает пороговое значение, вы прогнозируете, что оно принадлежит положительным, в противном случае вы решите, что оно принадлежит отрицательным. Не уверен насчет T = 10, поскольку здесь нет контекста, но я могу предположить, что это пример порогового значения некоторой функции.

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.