Предположим, я пытаюсь оценить большое количество параметров по многомерным данным, используя некие регуляризованные оценки. Регуляризатор вносит некоторую погрешность в оценки, но это все же может быть хорошим компромиссом, потому что уменьшение дисперсии должно более чем компенсировать это.
Проблема возникает, когда я хочу оценить доверительные интервалы (например, используя приближение Лапласа или начальную загрузку). В частности, смещение в моих оценках приводит к плохому покрытию в моих доверительных интервалах, что затрудняет определение частотных свойств моей оценки.
Я нашел несколько работ, обсуждающих эту проблему (например, «Асимптотические доверительные интервалы в регрессии гребня на основе расширения Эджворта» ), но математика в основном выше моей головы. В связанном документе уравнения 92-93, кажется, обеспечивают поправочный коэффициент для оценок, которые были упорядочены с помощью регрессии гребня, но мне было интересно, существуют ли хорошие процедуры, которые будут работать с рядом различных регуляризаторов.
Даже исправление первого порядка было бы чрезвычайно полезно.