Мы все знакомы с хорошо документированным в литературе представлением о том, что оптимизация LASSO (для простоты ограничим здесь случай линейной регрессии) эквивалентно линейной модели с гауссовыми ошибками, в которой параметры задаются перед Лапласом \ exp (- \ lambda \ | \ beta \ | _1). Нам также известно, что старшая задает параметр настройки, \ лямбда , чем больше порция параметров устанавливается в ноль. При этом у меня возникает следующий вопрос:
Предположим, что с байесовской точки зрения мы можем вычислить апостериорную вероятность того, что, скажем, ненулевые оценки параметров лежат в любом заданном наборе интервалов, а параметры, установленные LASSO на ноль, равны нулю. Что меня смущает, так как при условии, что априор Лапласа непрерывен (фактически абсолютно непрерывен), тогда как может быть любая масса на любом множестве, являющемся произведением интервалов и синглетонов в ?