Это очевидно по количеству, оптимизируемому LASSO.
Возьмите априор для как независимый Лаплас со средним нулем и некоторой шкалой .βiτ
Итак, .p(β|τ)∝e−12τ∑i|βi|
Модель для данных - это обычное регрессионное предположение .y∼iidN(Xβ,σ2)
f(y|X,β,σ2)∝(σ2)−n/2exp(−12σ2(y−Xβ)T(y−Xβ))
Теперь минус вдвое больше логово задних имеет форму
k(σ2,τ,n,p)+ 1σ2(y−Xβ)T(y−Xβ)+1τ∑i|βi|
Пусть и мы получим posterior ofλ=σ2/τ−2log
k(σ2,λ,n,p)+ 1σ2[(y−Xβ)T(y−Xβ)+λ∑i|βi|]
Оценка MAP для сводит к минимуму вышеизложенное, что минимизируетβ
S=(y−Xβ)T(y−Xβ)+λ∑i|βi|
Таким образом, оценщик MAP для - это LASSO.β
(Здесь я рассматривал как эффективно исправленный, но вы можете делать с ним другие вещи и при этом получать LASSO.)σ2
Изменить: это то, что я получаю за составление ответа в автономном режиме; Я не видел, чтобы хороший ответ был уже отправлен Эндрю. Мой действительно ничего не делает, его уже нет. Сейчас я оставлю свой, потому что он дает еще пару деталей развития с точки зрения .β