У меня есть один вопрос, касающийся необходимости использовать методы выбора признаков (значение важности признаков в случайных лесах или методы выбора однофакторных объектов и т. Д.) Перед запуском алгоритма статистического обучения.
Мы знаем, что во избежание переобучения мы можем ввести штраф за регуляризацию весовых векторов.
Поэтому, если я хочу сделать линейную регрессию, я мог бы ввести параметры регуляризации L2 или L1 или даже Elastic net. Чтобы получить разреженные решения, штраф L1 помогает в выборе функции.
Тогда все еще необходимо сделать выбор функции перед запуском регуляризации L1, такой как Лассо? Технически, Лассо помогает мне уменьшить количество функций на штраф L1, тогда зачем нужен выбор функций перед запуском алгоритма?
Я прочитал исследовательскую статью, в которой говорилось, что выполнение Anova и SVM дает лучшую производительность, чем использование одного SVM. Теперь вопрос: SVM по своей природе делает регуляризацию, используя L2-норму. Чтобы максимизировать запас, минимизируется норма вектора веса. Так что это делает регуляризацию в своей целевой функции. Тогда технически алгоритмы, такие как SVM, не должны беспокоиться о методах выбора функций. Но в отчете по-прежнему говорится, что выбор функции Univariate Feature возможен до того, как обычный SVM станет более мощным.
Кто-нибудь с мыслями?