Я пытаюсь выяснить, какой SVR подходит для такого рода данных.
Я знаю 4 типа СВР:
- эпсилон
- ню
- наименьших квадратов и
- линейно.
Я понимаю, что линейный SVR более или менее похож на лассо с L1 Reg, но в чем разница между оставшимися 3 методами?
Я пытаюсь выяснить, какой SVR подходит для такого рода данных.
Я знаю 4 типа СВР:
Я понимаю, что линейный SVR более или менее похож на лассо с L1 Reg, но в чем разница между оставшимися 3 методами?
Ответы:
В -SVR параметр используется для определения доли числа векторов поддержки, которые вы хотите сохранить в своем решении, по отношению к общему количеству выборок в наборе данных. В -SVR параметр вводится в постановку задачи оптимизации и оценивается автоматически (оптимально) для вас.ν ν ϵ
Однако в -SVR вы не можете контролировать, сколько векторов данных из набора данных станут опорными векторами, их может быть несколько, может быть много. Тем не менее, вы будете иметь полный контроль над тем, сколько ошибок вы допустите для вашей модели, и все, что находится за пределами указанного значения будет оштрафовано пропорционально , который является параметром регуляризации.ϵ C
В зависимости от того, что я хочу, я выбираю между двумя. Если я действительно отчаянно нуждаюсь в небольшом решении (меньшее количество векторов поддержки), я выбираю -SVR и надеюсь получить приличную модель. Но если я действительно хочу контролировать количество ошибок в моей модели и стремиться к лучшей производительности, я выбираю -SVR и надеюсь, что модель не слишком сложна (много векторов поддержки).ϵ
Разница между -SVR и -SVR заключается в параметризации проблемы обучения. Оба используют тип потери шарнира в функции стоимости. Параметр в -SVM можно использовать для управления количеством опорных векторов в результирующей модели. При соответствующих параметрах та же проблема решена. 1ν ν ν
SVR наименьших квадратов отличается от двух других, используя квадратные остатки в функции стоимости вместо потери шарнира.
1 : С.-С. Чанг и С.-Дж. Лин. Тренинг -поддержка векторной регрессии: теория и алгоритмы . Нейронные вычисления, 14 (8): 1959-1977, 2002.
Мне нравятся ответы Пабло и Марка. Еще один момент:
В статье, цитируемой Марком, написано (раздел 4)
«Мотивация -SVR заключается в том, что может быть нелегко определить параметр . Следовательно, здесь нас интересует возможный диапазон . Как и следовало ожидать, результаты показывают, что связан с целевыми значениями .
[...]
Поскольку на эффективный диапазон влияют целевые значения , способ решить эту проблему для -SVM состоит в масштабировании целевых значений перед тренировкой данных. Например, если все целевые значения масштабируются до , то эффективный диапазон будет равен , так же, как и у . Тогда может быть проще выбрать . "
Это заставляет меня думать, что проще масштабировать целевые переменные и использовать -SVR, чем пытаться решить, использовать ли или SVR.
Что вы думаете?