Многократное вменение довольно просто, если у вас есть априори линейная модель, которую вы хотите оценить. Тем не менее, вещи кажутся немного сложнее, когда вы на самом деле хотите сделать выбор модели (например, найти «лучший» набор переменных-предикторов из большего набора переменных-кандидатов - я думаю конкретно о LASSO и дробных многочленах с использованием R).
Одной из идей будет подгонка модели в исходных данных с отсутствующими значениями, а затем переоценка этой модели в наборах данных MI и объединение оценок, как обычно. Тем не менее, это кажется проблематичным, так как вы ожидаете предвзятости (или вообще, почему ИМ в первую очередь?), Что может привести к выбору «неправильной» модели с самого начала.
Другая идея состояла бы в том, чтобы пройти через любой процесс выбора модели, который вы используете в каждом наборе данных MI - но как бы вы тогда объединили результаты, если бы они включали разные наборы переменных?
Одна из моих мыслей состояла в том, чтобы сложить наборы данных MI и проанализировать их как один большой набор данных, который вы затем использовали бы для подбора одной «лучшей» модели, и включить случайный эффект, чтобы учесть тот факт, что вы используете повторные измерения для каждое наблюдение.
Это звучит разумно? Или, может быть, невероятно наивный? Любые указатели по этому вопросу (выбор модели с множественным вменением) будет принята с благодарностью.