Есть несколько работ, посвященных этому вопросу. Я бы посмотрел в произвольном порядке:
Pen.LME: Говард Д. Бонделл, Арун Кришна и Суджит К. Гхош. Совместный выбор переменных для фиксированных и случайных эффектов в линейных моделях смешанных действий. Biometrics, 66 (4): 1069-1077, 2010.
GLMMLASSO: Юрг Шеллдорфер, Питер Бульманн, Сара ван де Гир. Оценка для многомерных линейных смешанных моделей с использованием L1-штрафования. Скандинавский журнал статистики, 38 (2): 197-214, 2011.
который можно найти в Интернете.
Я заканчиваю работу по применению эластичного чистого штрафа к смешанной модели (LMMEN) сейчас и планирую отправить его для обзора журнала в следующем месяце.
- LMMEN: Сиди, Ритов, Унгер. Регуляризация и классификация линейных смешанных моделей через штраф за упругую сеть
В общем, если вы моделируете данные, которые либо являются ненормальными, либо не имеют идентификационной ссылки, я бы пошел с GLMMLASSO, (но учтите, что он не может обрабатывать много RE). В противном случае Pen.LME хорош, учитывая, что у вас нет сильно коррелированных данных, будь то фиксированные или случайные эффекты. В последнем случае вы можете написать мне, и я был бы рад выслать вам код / бумагу (я поставлю его на кран в ближайшем будущем).
Я загрузил в CRAN сегодня - lmmen . Он решает задачу линейной смешанной модели с штрафом типа упругой сети на фиксированные и случайные эффекты одновременно.
В нем также есть функции cv для пакетов lmmlasso и glmmLasso .