Использование Adaboost с SVM для классификации


11

Я знаю, что Adaboost пытается создать сильный классификатор, используя линейную комбинацию набора слабых классификаторов.

Тем не менее, я читал некоторые статьи, в которых говорится, что Adaboost и SVM работают в гармонии (хотя SVM является сильным классификатором) в определенных условиях и случаях .

Я не могу понять с точки зрения архитектуры и программирования, как они работают в комбинации. Я прочитал много статей (возможно, не тех), которые не объясняли, как они работают вместе.

Может ли кто-то пролить свет на то, как они работают в комбинации для эффективной классификации? Указатели на некоторые статьи / статьи / журналы также будут оценены.

Ответы:


8

Эта статья довольно хорошая. Это просто говорит о том, что SVM может рассматриваться как слабый классификатор, если вы используете меньше образцов для его обучения (скажем, менее половины обучающего набора). Чем выше вес, тем больше шансов, что его тренирует «слабый SVM».

редактировать: ссылка исправлена


Я знаю, что это старый вопрос, но ссылка не работает. Вы случайно не знаете название статьи или имя автора, чтобы я мог найти альтернативную ссылку?
Carlosdc

На случай, если в будущем связь снова исчезнет, ​​Элкин Гарсия и Фернандо Лозано называют статью «Повышение опорных векторов».
Дугал

2

Статья AdaBoost с классификаторами компонентов на основе SVM от Xuchun Li etal также дает интуицию.
В кратком, но, возможно, необъективном резюме: они пытаются сделать svm-классификаторы «слабыми» (чуть более 50%), настраивая параметры, чтобы избежать случаев, когда один классификатор может иметь слишком большой вес или все классификаторы срабатывают аналогичным образом.

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.