Выбор моделей LASSO и вперед / назад имеет свои сильные и слабые стороны. Никаких далеко идущих рекомендаций сделать нельзя. Моделирование всегда можно изучить, чтобы решить эту проблему.
И то, и другое можно понять в смысле размерности: имеется в виду - количество параметров модели и - количество наблюдений. Если вы смогли подобрать модели с помощью обратного выбора модели, у вас, вероятно, не было . В этом случае «наиболее подходящая» модель - это модель, использующая все параметры ... при внутренней проверке! Это просто вопрос переоснащения.пNр » п
Переоснащение устраняется с помощью перекрестной проверки с разделением выборки (CV) для оценки модели. Поскольку вы не описали это, я полагаю, вы этого не делали. В отличие от пошагового выбора модели, LASSO использует параметр настройки, чтобы штрафовать количество параметров в модели. Вы можете исправить параметр настройки или использовать сложный итерационный процесс, чтобы выбрать это значение. По умолчанию LASSO делает последнее. Это делается с помощью CV, чтобы минимизировать MSE прогнозирования. Мне неизвестно о какой-либо реализации поэтапного выбора модели, в которой используются такие сложные методы, даже BIC в качестве критерия будет страдать от внутреннего смещения проверки. По моему мнению, это автоматически дает LASSO рычаги для поэтапного выбора модели «из коробки».
Наконец, поэтапный выбор модели может иметь разные критерии для включения / исключения разных регрессоров. Если вы используете p-значения для конкретного теста параметров Вальда или полученной модели R ^ 2, у вас ничего не получится, в основном из-за внутреннего смещения проверки (опять же, это можно исправить с помощью CV). Я нахожу удивительным, что такие модели все еще используются. AIC или BIC - намного лучшие критерии для выбора модели.
Есть ряд проблем с каждым методом. Проблемы поэтапного выбора модели гораздо лучше поняты и гораздо хуже, чем у LASSO. Основная проблема, которую я вижу в вашем вопросе, заключается в том, что вы используете инструменты выбора функций для оценки прогноза . Это разные задачи. LASSO лучше для выбора функции или разреженного выбора модели. Регрессия гребня может дать лучший прогноз, поскольку она использует все переменные.
Большая сила LASSO заключается в том, что он может оценивать модели, в которых , как это может быть в случае прямой (но не обратной) ступенчатой регрессии. В обоих случаях эти модели могут быть эффективными для прогнозирования, только когда есть несколько очень мощных предикторов. Если исход лучше прогнозируется многими слабыми предикторами, то регрессия гребня или расфасовка / усиление превзойдут как ступенчатую прямую регрессию, так и LASSO в конечном счете. LASSO намного быстрее, чем прямая ступенчатая регрессия.р » п
Очевидно, что выбор функций и их предсказание сильно перекрываются, но я никогда не говорю вам, насколько хорошо гаечный ключ служит молотком. В общем, для прогнозирования с редким числом коэффициентов модели и я бы предпочел LASSO, а не пошаговый выбор модели вперед.р » п