Ответы:
Я думаю, что базовая опорная векторная машина означает жесткую маржу SVM. Итак, давайте рассмотрим:
Короче говоря, мы хотим найти гиперплоскость с наибольшим запасом, которая была бы способна правильно разделить все наблюдения в нашем пространстве обучающей выборки.
Учитывая приведенное выше определение, какую проблему оптимизации мы должны решить?
max(margin)
margin
а также удовлетворить ограничение: нет ошибок в выборкеВозвращаясь к вашему вопросу, поскольку вы упомянули, что набор обучающих данных не является линейно разделимым, при использовании SVM с жестким полем без преобразований функций невозможно найти какую-либо гиперплоскость, которая удовлетворяет «Нет ошибок в выборке» .
Обычно мы решаем задачу оптимизации SVM с помощью квадратичного программирования, потому что она может выполнять задачи оптимизации с ограничениями. Если вы используете Gradient Descent или другие алгоритмы оптимизации, которые не удовлетворяют ограничениям SVM с жестким запасом, вы все равно должны получить результат, но это не гиперплоскость SVM с жестким запасом.
Кстати, с нелинейно разделяемыми данными, обычно мы выбираем