Повторные измерения anova: lm vs lmer


10

Я пытаюсь воспроизвести несколько тестов взаимодействия между обоими lmи lmerна повторных измерениях (2x2x2). Причина, по которой я хочу сравнить оба метода, состоит в том, что GLM SPSS для повторных измерений дает те же самые результаты, что и lmподход, представленный здесь, поэтому в конце я хочу сравнить SPSS с R-lmer. Пока что мне удалось воспроизвести (близко) только некоторые из этих взаимодействий.

Ниже вы найдете сценарий, чтобы лучше проиллюстрировать мою точку зрения:

library(data.table)
library(tidyr)
library(lmerTest)
library(MASS)

set.seed(1)

N     <- 100 # number of subjects
sigma <- 1   # popuplation sd
rho   <- .6  # correlation between variables

# X1:   a  a  a  a  b  b  b  b
# X2:   a  a  b  b  a  a  b  b
# X3:   a  b  a  b  a  b  a  b
mu <- c(5, 3, 3, 5, 3, 5, 5, 3) # means

# Simulate the data
sigma.mat <- rep(sigma, length(mu))
S <- matrix(sigma.mat, ncol = length(sigma.mat), nrow = length(sigma.mat))
Sigma <- t(S) * S * rho  
diag(Sigma) <- sigma**2
X <- data.table( mvrnorm(N, mu, Sigma) )
setnames(X, names(X), c("aaa", "aab", "aba", "abb", "baa", "bab", "bba", "bbb"))
X[, id := 1:.N]

# Long format
XL <- data.table( gather(X, key, Y, aaa:bbb) )
XL[, X1 := substr(key, 1, 1)]
XL[, X2 := substr(key, 2, 2)]
XL[, X3 := substr(key, 3, 3)]

# Recode long format (a = +1; b = -1)
XL[, X1c := ifelse(X1 == "a", +1, -1)]
XL[, X2c := ifelse(X2 == "a", +1, -1)]
XL[, X3c := ifelse(X3 == "a", +1, -1)]


### Composite scores to be used with lm
# X2:X3 2-way interaction (for half the data; i.e. when X1 == "a")
X[, X1a_X2.X3 := (aaa - aab) - (aba - abb)]

# X2:X3 2-way interaction (for all the data)
X[, aa := (aaa + baa) / 2]
X[, ab := (aab + bab) / 2]
X[, ba := (aba + bba) / 2]
X[, bb := (abb + bbb) / 2]
X[, X2.X3 := (aa - ab) - (ba - bb)]

# X1:X2:X3 3-way interaction (for all the data)
X[, X1.X2.X3 := ( (aaa - aab) - (aba - abb) ) - ( (baa - bab) - (bba - bbb) )]


### Fit models
# X2:X3 2-way interaction (for half the data; i.e. when X1 == "a")
summary( lm(X1a_X2.X3 ~ 1, X) ) # t = 34.13303
summary( lmer(Y ~ X2c*X3c + (X2c+X3c|id), XL[X1 == "a"]) ) # t = 34.132846  close match
summary( lmer(Y ~ X2c*X3c + (X2c+X3c||id), XL[X1 == "a"]) ) # t = 34.134624  close match

# X2:X3 2-way interaction (for all the data) 
summary( lm(X2.X3 ~ 1, X) ) # t = 0.3075025
summary( lmer(Y ~ X2c*X3c + (X2c+X3c|id), XL) ) # t = 0.1641932
summary( lmer(Y ~ X2c*X3c + (X2c+X3c||id), XL) ) # t = 0.1640710
summary( lmer(Y ~ X2c*X3c + (X2c*X3c|id), XL) ) # t = 0.1641765
anova(   lmer(Y ~ X2c*X3c + (X2c*X3c|id), XL), ddf = "Kenward-Roger" ) # t = 0.1643168
summary( lmer(Y ~ X2c*X3c + (X2c*X3c|id), XL, REML = FALSE) ) # t = 0.1645303
summary( lmer(Y ~ X2c*X3c + (X2c*X3c||id), XL) ) # t = 0.1640704

# X1:X2:X3 3-way interaction (for all the data)
summary( lm(X1.X2.X3 ~ 1, X) ) # t = 46.50177
summary( lmer(Y ~ X1c*X2c*X3c + (X1c*X2c*X3c - X1c:X2c:X3c|id), XL) ) # t = 49.0317599
anova(   lmer(Y ~ X1c*X2c*X3c + (X1c*X2c*X3c - X1c:X2c:X3c|id), XL), ddf = "Kenward-Roger" ) # t = 49.03176
summary( lmer(Y ~ X1c*X2c*X3c + (X1c*X2c*X3c - X1c:X2c:X3c|id), XL, REML = FALSE) ) # t = 49.2677606
summary( lmer(Y ~ X1c*X2c*X3c + (X1c*X2c*X3c - X1c:X2c:X3c||id), XL) ) # t = 46.5193774 close match
summary( lmer(Y ~ X1c*X2c*X3c + (X1c*X2c*X3c|id), XL) ) # unidentifiable
summary( lmer(Y ~ X1c*X2c*X3c + (X1c*X2c*X3c|id), XL,
              control = lmerControl(check.nobs.vs.nRE="ignore")) ) # t = 46.5148684 close match

Как видно из вышеизложенного, ни одна из lmоценок точно не совпадает с оценками lmer. Хотя некоторые результаты очень похожи и могут отличаться только из-за численных / вычислительных причин. Разрыв между обоими методами оценки особенно велик для X2:X3 2-way interaction (for all the data).

Мой вопрос, если есть способ , чтобы получить точные одинаковые результаты с обеими методами, и если есть правильный путь для выполнения анализа с lmer(хотя это может не соответствовать lmрезультатам).


Бонус:

Я заметил, что t valueсвязанное с трехсторонним взаимодействием зависит от способа кодирования факторов, что мне кажется очень странным:

summary( lmer(Y ~ X1*X2*X3 + (X1*X2*X3 - X1:X2:X3||id), XL) ) # t = 48.36
summary( lmer(Y ~ X1c*X2c*X3c + (X1c*X2c*X3c - X1c:X2c:X3c||id), XL) ) # t = 56.52

1
+1, потому что это выглядит интересно, но я понятия не имею, что вы здесь делаете :) Можете ли вы объяснить словами или математикой, почему эти вызовы lm и lmer должны давать одинаковые коэффициенты? И какова логика всего этого упражнения?
амеба

@amoeba Я обновил свой пост, чтобы уточнить цель этого поста. По сути, я хочу воспроизвести результаты SPSS (которые можно преобразовать в lmмодель) lmer, а также узнать, каков правильный lmer анализ для такого рода данных.
мат

Причиной большого расхождения в случае двустороннего взаимодействия для полных данных является то, что у вас есть 2 точки данных на комбинацию параметров. Интуиция заключается в том, что эффективный размер выборки для смешанной модели в 2 раза меньше, чем для lm; Я подозреваю, что поэтому t-статистика примерно в два раза меньше lmer. Вы, вероятно, сможете наблюдать то же явление, используя более простой дизайн 2x2 и рассматривая основные эффекты, не беспокоясь о 2x2x2 и сложных взаимодействиях.
амеба

Ответы:


3

Странно, когда я использую вашу последнюю модель, я нахожу идеальное совпадение, а не близкое совпадение:

Fixed effects:
            Estimate Std. Error       df t value Pr(>|t|)    
(Intercept)  3.91221    0.07242 99.00001  54.025   <2e-16 ***
X1c          0.03277    0.05006 99.00000   0.655    0.514    
X2c         -0.04836    0.04644 99.00000  -1.042    0.300    
X3c          0.04248    0.05009 99.00001   0.848    0.398    
X1c:X2c      0.08370    0.08747 98.99998   0.957    0.341    
X1c:X3c     -0.07025    0.08895 98.99994  -0.790    0.432    
X2c:X3c     -0.02957    0.09616 99.00000  -0.308    0.759    
X1c:X2c:X3c -8.14099    0.17507 99.00003 -46.502   <2e-16 ***

1
Просто чтобы было понятно, на какую модель вы ссылаетесь?
мат

сводка (lmer (Y ~ X1c X2c X3c + (X1c X2c X3c | id), XL, control = lmerControl (check.nobs.vs.nRE = "ignore")))
user244839

Это действительно очень странно! summary( lmer(Y ~ X1c*X2c*X3c + (X1c*X2c*X3c|id), XL, control=lmerControl(check.nobs.vs.nRE="ignore")) )$coefficientsвозвращается t = 46.5148684за мной. Может быть проблема с версией? Я использую R version 3.5.3 (2019-03-11)и lmerTest 3.1-0.
мат

У меня те же версии R & lmerTest, что и у @mat, и я получаю те же результаты, что и они (хотя и со многими предупреждениями - сбой при конвергенции и т. Д.).
mkt - Восстановить Монику

1
@mat Возможно, я не был уверен - я получаю те же результаты, что и вы! Я думаю, что вы, вероятно, правы, что user244839 использует другую версию, чем мы.
mkt - Восстановить Монику
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.