Существует большое различие между выполнением оценки с использованием штрафов типа гребня и штрафов типа лассо. Оценщики типа гребня имеют тенденцию сжимать все коэффициенты регрессии к нулю и смещены, но имеют легко вывести асимптотическое распределение, потому что они не сокращают любую переменную до точно нуля. Уклон в оценках гребня может быть проблематичным в последующем выполнении проверки гипотезы, но я не эксперт в этом. С другой стороны, штрафы типа Лассо / эластичной сети уменьшают многие коэффициенты регрессии до нуля и поэтому могут рассматриваться как методы выбора модели. Проблема выполнения вывода на моделях, которые были выбраны на основе данных, обычно называется проблемой выборочного вывода или вывода после выбора. В этой области произошло много событий за последние годы.
y∼N(μ,1)μμ|y|>c>0cycy
Аналогично, лассо (или эластичная сетка) ограничивает пространство выборки таким образом, чтобы гарантировать, что выбранная модель была выбрана. Это усечение является более сложным, но может быть описано аналитически.
Основываясь на этом понимании, можно сделать вывод на основе усеченного распределения данных, чтобы получить достоверную статистику теста. Доверительные интервалы и статистику испытаний см. В работе Lee et al .:
http://projecteuclid.org/euclid.aos/1460381681
Их методы реализованы в R-пакете селективных ссылок .
Оптимальная оценка (и тестирование) после выбора модели обсуждается в (для лассо):
https://arxiv.org/abs/1705.09417
и их (гораздо менее полный) программный пакет доступен по адресу :
https://github.com/ammeir2/selectiveMLE