Нет, это не оправданно. Огромное препятствие, которое призваны преодолеть процедуры выбора модели, заключается в том, что мощность истинной поддержкинеизвестно (Здесь мы имеем, что является «истинным» коэффициентом.) Потому чтонеизвестно, процедура выбора модели должна провести тщательный поиск по всем возможным моделям; однако, если бы мы зналимы могли бы просто проверить модели , что намного меньше.β ∗ | S ∗ | 2 р | S ∗ ||S∗|=∣∣{j:β∗j≠0}∣∣β∗|S∗|2p|S∗|(p|S∗|)
Теория лассо основывается на достаточно большом параметре регуляризации , чтобы сделать выбранную модель достаточно разреженной. Может случиться так, что ваши 10 функций слишком много или слишком мало, так как нетрудно превратить нижнюю границу в верхнюю границу,λλ|S∗|
Пусть будет нашей управляемой данными оценкой для , и положим . Тогда, возможно, вы пытаетесь убедиться, что чтобы вы восстановили хотя бы соответствующие функции? Или, может быть, вы пытаетесь установить этот чтобы вы знали, что все найденные вами функции имеют смысл? В этих случаях ваша процедура была бы более оправданной, если бы у вас была предварительная информация об относительных размерах .β^β∗S^={j:β^j≠0}S∗⊆S^S^⊆S∗S∗
Кроме того, обратите внимание, что некоторые коэффициенты можно оставить невыполненными, например, при выполнении лассо в glmnet
.