Я знаю, что логистическая регрессия находит гиперплоскость, которая разделяет тренировочные образцы. Я также знаю, что опорные векторные машины находят гиперплоскость с максимальным запасом.
Мой вопрос: есть ли разница между логистической регрессией (LR) и машинами опорных векторов (SVM) в том, что LR находит любую гиперплоскость, которая разделяет обучающие выборки, в то время как SVM находит гиперплоскость с максимальным запасом? Или я не прав?
Примечание: напомним, что в LR, когда логистическая функция дает . Если мы примем в качестве порога классификации, то является гиперплоскостью или границей решения.