Когда Наивный Байес работает лучше, чем SVM?


17

В небольшой проблеме классификации текста, которую я рассматривал, Наивный Байес демонстрирует производительность, аналогичную или превышающую SVM, и я был очень смущен.

Мне было интересно, какие факторы определяют триумф одного алгоритма над другим. Существуют ли ситуации, когда нет смысла использовать наивный байесовский метод вместо SVM? Может кто-то пролить свет на это?


1
Перейдите по этой ссылке для хорошего и уместного урока
q12

Ответы:


27

Не существует единого ответа о том, какой метод классификации является лучшим для данного набора данных . Различные виды классификаторов должны всегда рассматриваться для сравнительного исследования по данному набору данных. Учитывая свойства набора данных, у вас могут быть некоторые подсказки, которые могут отдавать предпочтение некоторым методам. Однако было бы целесообразно поэкспериментировать со всеми, если это возможно.

Наивный байесовский классификатор (NBC) и метод опорных векторов (SVM) имеют различные параметры, включая выбор функции ядра для каждого из них. Они оба чувствительны к оптимизации параметров (т. Е. Выбор различных параметров может существенно изменить их выход) . Итак, если у вас есть результат, показывающий, что NBC работает лучше, чем SVM. Это верно только для выбранных параметров. Тем не менее, для выбора другого параметра, вы можете обнаружить, что SVM работает лучше.

В целом, если предположение о независимости в NBC удовлетворяется переменными вашего набора данных и степень перекрытия классов мала (то есть потенциальная линейная граница принятия решения), ожидается, что NBC достигнет хорошего. Например, для некоторых наборов данных при оптимизации с использованием выбора функции оболочки NBC может победить другие классификаторы. Даже если он достигает сопоставимой производительности, NBC будет более желательным из-за его высокой скорости.

Таким образом, мы не должны отдавать предпочтение какому-либо методу классификации, если он превосходит другие в одном контексте, так как в другом он может серьезно не сработать. ( ЭТО НОРМАЛЬНО В ПРОБЛЕМАХ ОБРАБОТКИ ДАННЫХ ).


7
(+1) Также называется не теоремой бесплатного обеда . Хотя я не полностью согласен с сравнением чувствительности параметров (Единое дерево решений - один из наиболее чувствительных подходов), но мы не должны обсуждать это здесь :).
Штеффен

@steffen, спасибо за ваш ценный комментарий. Есть много разных способов оптимизации моделей, и я согласен, что мы не можем обобщить, какая модель более чувствительна во всех случаях. Для выбора функции DT, вероятно, менее чувствительны, чем NBC, но в целом это может быть не так. Я отредактирую ответ, чтобы учесть ваш комментарий, и если вы хотите, вы также можете отредактировать его. Спасибо :).
Суфаном

3
+1 за комментарий к параметру чувствительности. Стоит также отметить, что большая часть теории, лежащей в основе SVM, применима к моделям с фиксированным ядром, поэтому, как только вы попытаетесь оптимизировать гиперпараметры (что должно быть сделано и сделано тщательно), большая часть теоретической основы больше не применяется.
Дикран Сумчатый
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.