Рассмотрим эксперимент с несколькими участниками, каждый из которых измерен несколько раз в двух условиях. Модель смешанных эффектов может быть сформулирована (используя синтаксис lme4 ) как:
fit = lmer(
formula = measure ~ (1|participant) + condition
)
Теперь, скажем, я хочу создать доверительные интервалы для предсказаний этой модели. Я думаю, что я придумал простой и эффективный в вычислительном отношении метод, и я уверен, что я не первый, кто задумывается об этом, но у меня возникают проблемы с поиском любых предыдущих публикаций, описывающих этот подход. Вот:
- Установите модель (как указано выше), назовите ее «оригинальная модель»
- Получите прогнозы из исходной модели, назовите их «оригинальные прогнозы»
- Получить остатки из исходной модели, связанной с каждым ответом от каждого участника
- Повторная выборка остатков, выборка участников с заменой
- Подгоните линейную модель смешанных эффектов с гауссовой ошибкой к остаткам , назовите это «промежуточной моделью»
- Вычислить прогнозы из промежуточной модели для каждого условия (эти прогнозы будут очень близки к нулю), назовите их «промежуточные прогнозы»
- Добавьте промежуточные прогнозы к исходным прогнозам, назовите результат «повторные выборки»
- Повторите шаги с 4 по 7 много раз, создавая распределение повторных прогнозов для каждого условия, из которого один раз можно вычислить CI.
Я видел процедуры «остаточной начальной загрузки» в контексте простой регрессии (т. Е. Не смешанной модели), где остатки отбираются как единица повторной выборки, а затем добавляются к прогнозам исходной модели, прежде чем подгонять новую модель на каждой итерации бутстрап, но это, кажется, несколько отличается от подхода, который я описываю, где остатки никогда не пересматриваются, люди и только послепромежуточная модель получается, когда в игру вступают предсказания исходной модели. Эта последняя особенность имеет действительно хороший побочный эффект в том, что независимо от сложности исходной модели, промежуточная модель всегда может быть использована в качестве гауссовой линейной смешанной модели, которая в некоторых случаях может быть значительно быстрее. Например, недавно у меня были биномиальные данные и 3 предикторные переменные, одна из которых, как я подозревал, вызывала сильно нелинейные эффекты, поэтому мне пришлось использовать обобщенное аддитивное смешанное моделирование с использованием функции биномиальной связи. Подгонка исходной модели в этом случае заняла более часа, тогда как подгонка гауссова LMM на каждой итерации заняла всего несколько секунд.
Я действительно не хочу претендовать на приоритет, если это уже известная процедура, поэтому я был бы очень признателен, если бы кто-нибудь смог предоставить информацию о том, где это могло быть описано ранее. (Также, если есть какие-то явные проблемы с этим подходом, дайте мне знать!)