Пусть - случайное значение из распределения 1, а - случайное значение из распределения 2. Я думал, что нулевой гипотезой для теста Манна-Уитни было P (X_1 <X_2) = P (X_2 <X_1) .
Если я запускаю симуляции теста Манна-Уитни на данных из нормальных распределений с равными средними и равными дисперсиями с , я получаю частоту ошибок типа I, которая очень близка к 0,05. Однако, если я сделаю различия неравными (но оставлю равными средние значения), доля симуляций, в которых отклоняется нулевая гипотеза, станет больше 0,05, чего я не ожидал, так как все еще держится. Это происходит , когда я использую wilcox.test
в R, независимо от того, есть ли у меня exact=TRUE
, exact=FALSE, correct=TRUE
или exact=FALSE, correct=FALSE
.
Является ли нулевая гипотеза чем-то отличным от того, что я написал выше, или это просто то, что тест является неточным с точки зрения ошибки типа I, если отклонения неравны?