Извините за мои навыки рисования, я постараюсь дать вам следующую интуицию.
Пусть будет целевой функцией (например, MSE в случае регрессии). Давайте представим контурный контур этой функции красным цветом (разумеется, мы рисуем ее в пространстве , здесь для простоты и ).f(β)ββ1β2
В середине красных кружков есть минимум этой функции. И этот минимум дает нам не наказуемое решение.
Теперь добавим другую цель контур которой показан синим цветом. Либо регуляризатор LASSO, либо регуляризатор ребристой регрессии. Для LASSO , для регрессии гребня ( - штраф параметр). Графики контура показывают область, в которой функция имеет фиксированные значения. Таким образом, чем больше - тем быстрее рост , и тем более «узким» будет контурный график.g(β)g(β)=λ(|β1|+|β2|)g(β)=λ(β21+β22)λλg(x)
Теперь мы должны найти минимум суммы этих двух целей: . И это достигается, когда два контурных участка встречаются друг с другом.f(β)+g(β)
Чем больше штраф, тем «более узкие» синие контуры мы получаем, и тогда графики встречаются друг с другом в точке ближе к нулю. Наоборот, чем меньше штраф, тем больше расширяются контуры, и пересечение синих и красных графиков приближается к центру красного круга (решение без штрафа).
А теперь следует интересная вещь, которая сильно объясняет мне разницу между регрессией гребня и LASSO: в случае LASSO два контурных графика, вероятно, встретятся там, где угол регуляризатора равен ( или ). В случае регрессии гребня это почти никогда не происходит.β1=0β2=0
Вот почему LASSO дает нам разреженное решение, делая некоторые параметры точно равными .0
Надеюсь, что это объяснит некоторую интуицию о том, как штрафная регрессия работает в пространстве параметров.