Я думаю, что разница в том, какие тесты вычисляются. car::Anova
использует тесты Вальда, тогда как drop1
исправляет модель, отбрасывая отдельные термины. Джон Фокс однажды написал мне, что тесты Уолда и тесты из усовершенствованных моделей с использованием тестов отношения правдоподобия (т. Е. Стратегии из drop1
) согласуются для линейных, но не обязательно нелинейных моделей. К сожалению, это письмо не было в списке и не содержало ссылок. Но я знаю, что в его книге есть глава о тестах Вальда, которая может содержать необходимую информацию.
Помощь car::Anova
говорит:
Тесты типа II рассчитываются по принципу маржинальности, проверяя каждый термин за всеми другими, за исключением игнорирования родственников высшего порядка; так называемые тесты типа III нарушают маржинальность, проверяя каждый член в модели после всех остальных. Это определение тестов типа II соответствует тестам, разработанным SAS для моделей дисперсионного анализа, где все предикторы являются факторами, но не в более общем смысле (т. Е. Когда существуют количественные предикторы). Будьте очень осторожны при формулировании модели для испытаний типа III, иначе проверенные гипотезы не будут иметь смысла.
К сожалению, я не могу ответить вам на второй или третий вопрос, поскольку я также хотел бы знать это.
Обновление комментария к комментарию :
Для обобщенных смешанных моделей тесты Вальда, LR и F отсутствуют. Anova
просто позволяет "chisq"
и "F"
тестирует смешанные модели (т.е. "mer"
объекты, возвращаемые lmer
). Раздел использования говорит:
## S3 method for class 'mer'
Anova(mod, type=c("II","III", 2, 3),
test.statistic=c("chisq", "F"), vcov.=vcov(mod), singular.ok, ...)
Но поскольку F-тесты для mer
объектов рассчитываются с помощью pbkrtest
, который, насколько мне известно, работает только для линейных смешанных моделей, Anova
для GLMM должны всегда возвращаться chisq
(следовательно, вы не видите никакой разницы).
Обновление относительно вопроса:
Мой предыдущий ответ только что попытался ответить на ваш главный вопрос, разницу между Anova()
и drop1()
. Но теперь я понимаю, что вы хотите проверить, являются ли определенные фиксированные эффекты значительными или нет. В FAQ по смешанному моделированию R-sig говорится следующее:
Тесты отдельных параметров
От худшего к лучшему:
- Wald Z-тесты
- Для сбалансированных вложенных LMM, где можно вычислить df: t-тесты Вальда
- Проверка отношения правдоподобия, либо путем настройки модели так, чтобы параметр можно было изолировать / отбросить (через anova или drop1), либо с помощью вычисления профилей правдоподобия
- MCMC или параметрические доверительные интервалы начальной загрузки
Тесты эффектов (то есть тестирование нескольких параметров одновременно равными нулю)
От худшего к лучшему:
- Тесты хи-квадрат Вальда (например, автомобиль :: Anova)
- Проверка отношения правдоподобия (через anova или drop1)
- Для сбалансированных вложенных LMM, где можно вычислить df: условные F-тесты
- Для LMM: условные F-тесты с коррекцией df (например, Kenward-Roger в пакете pbkrtest)
- MCMC или параметрические, или непараметрические, начальные сравнения (непараметрическая начальная загрузка должна быть тщательно реализована для учета факторов группировки)
(выделение добавлено)
Это указывает на то, что ваш подход к использованию car::Anova()
для GLMM, как правило, не рекомендуется, но следует использовать подход с использованием MCMC или начальной загрузки. Я не знаю , если pvals.fnc
из languageR
пакета ковшики с GLMMs, но стоит попробовать.