Во-первых, я представлю еще четвертую модель для обсуждения в своем ответе:
fit1,5 <- лм (y_2 ~ x_1 + x_2 + y_1)
Часть 0
Разница между fit1 и fit1.5 лучше всего суммировать как разницу между ограниченной разницей и оптимальной разницей.
Я собираюсь использовать более простой пример, чтобы объяснить это, чем приведенный выше. Начнем с fit1.5. Более простая версия модели была бы
Конечно, когда мы получим оценку OLS, она найдет «оптимальный» выбор для . И, хотя кажется странным, что писать так, мы могли бы переписать формулу как
Мы можем думать об этом как об «оптимальной» разнице между двумя переменными .
y2=b0+b1⋅x+b2⋅y1
b2y2−b2⋅y1=b0+b1⋅x
y
Теперь, если мы решим ограничить , тогда формула / модель станет
что является просто (ограниченной) разницей.b2=1
y2−y1=b0+b1⋅x
Обратите внимание, что в вышеприведенной демонстрации, если вы позволите быть дихотомической переменной, а - предварительным тестом, а - парным результатом теста, тогда моделью ограниченных разностей будут просто независимые выборки -test для усиления в оценках. в то время как оптимальной разностной моделью будет тест ANCOVA с оценками перед тестом, используемыми в качестве ковариат.xy1y2t
Часть 1
Модель fit2 лучше всего можно представить аналогично разностному подходу, который использовался выше. Хотя это упрощение (поскольку я намеренно термины ошибок), модель может быть представлена как
где для значений и для значений , Вот упрощение ... это давайте напишем
Написано иначе, , Тогда как для модели fit1.5 значение было оптимальным для проведения анализа OLS, здесьt = 0 y 1 t = 1 y 2 y 1
y=b0+b1⋅x+b2⋅t
t=0y1t=1y2 y2-y1=b2b2b2yy1y2=b0+b1⋅x=b0+b1⋅x+b2
y2−y1=b2b2b2по сути, это просто средняя разница между значениями (после учета других ковариат).
y
Часть 2
Так в чем же разница между моделями fit2 и fit3 ... на самом деле очень мало. Модель fit3 учитывает корреляцию в терминах ошибок, но это только меняет процесс оценки, и, таким образом, различия между двумя результатами модели будут минимальными (за исключением того факта, что fit3 оценивает коэффициент авторегрессии).
Часть 2.5
И я включу еще одну модель в эту дискуссию
fit4 <- lmer (y ~ time + x1 + x2 + (1 | id), data = df.long)
Эта модель смешанных эффектов делает немного другую версию авторегрессионного подхода. Если бы мы включили временной коэффициент в случайные эффекты, это было бы сравнимо с вычислением разницы между s для каждого субъекта. (Но это не сработает ... и модель не запустится.)y
Holland, Paul & Donald Rubin. 1983. On Lord’s Paradox. In Principles of modern psychological measurement: A festchrift for Frederic M. Lord edited by Wainer, Howard & Samuel Messick pgs:3-25. Lawrence Erlbaum Associates. Hillsdale, NJ.