Хребетная регрессия оценивает параметры в линейной модели by где - параметр регуляризации. Хорошо известно, что он часто работает лучше, чем регрессия OLS (с ), когда существует много коррелированных предикторов.у = Х & beta ; & beta ; А , = ( Х ⊤ Х + А , I ) - 1 х ⊤ у , А , А , = 0
Теорема существования регрессионного гребня гласит, что всегда существует параметр такой, что среднеквадратичная ошибка строго меньше среднеквадратичной ошибки OLS оценка . Другими словами, оптимальное значение всегда ненулевое. Это было, очевидно, впервые доказано в Hoerl and Kennard, 1970 и повторяется во многих заметках к лекциям, которые я нахожу в Интернете (например, здесь и здесь ). Мой вопрос о предположениях этой теоремы:
Есть ли предположения о ковариационной матрице ?
Есть ли предположения о размерности ?
В частности, остается ли теорема верной, если предикторы ортогональны (т. диагональна) или даже если ? И все еще верно, если есть только один или два предиктора (скажем, один предиктор и перехват)?
Если теорема не делает таких предположений и остается верной даже в этих случаях, то почему регрессия гребня обычно рекомендуется только в случае коррелированных предикторов и никогда (?) Не рекомендуется для простой (то есть не множественной) регрессии?
Это связано с моим вопросом о едином взгляде на усадку: какова связь (если таковая имеется) между парадоксом Штейна, регрессией гребня и случайными эффектами в смешанных моделях? Но пока нет ответов, проясняю этот момент до сих пор.