Я полагаю, что вас больше всего интересует регрессия, как и в цитируемой статье, а не другие применения -пенальти (скажем, графического лассо).ℓ1
Затем я полагаю, что некоторые ответы можно найти в статье « О степенях свободы» лассо, выполненной Zou et al. Вкратце, он дает аналитическую формулу для эффективных степеней свободы , которая для квадрата потери ошибок позволяет заменить CV аналитической статистикой типа , скажем.Cp
Еще одно место, которое нужно посмотреть, - это селектор Данцига: статистическая оценка, когда p намного больше n, и документы для обсуждения в том же выпуске Annals of Statistics. Насколько я понимаю, они решают проблему, тесно связанную с регрессией лассо, но с фиксированным выбором коэффициента штрафа. Но, пожалуйста, ознакомьтесь с документами для обсуждения.
Если вы не заинтересованы в прогнозировании, но в выборе модели, я не знаю аналогичных результатов. Оптимальные модели прогнозирования часто приводят к слишком большому количеству выбранных переменных в регрессионных моделях. В статье « Выбор стабильности» Майнсхаузен и Бюльманн представляют метод субсэмплинга, более полезный для выбора модели, но он может быть слишком сложным в вычислительном отношении для ваших нужд.