Я понимаю, что критерий Вальда для коэффициентов регрессии основан на следующем свойстве, которое выполняется асимптотически (например, Вассерман (2006): Вся статистика , стр. 153, 214-215): Где обозначает предполагаемый коэффициент регрессии, обозначает стандартную ошибку коэффициента регрессии, а представляет собой интересующее значение ( обычно равно 0, чтобы проверить, является ли коэффициент значительно отличается от 0). Итак, тест size Wald: отклонить когдаβ^се(β)β0β0αH0| W| >zα/2
Но когда вы выполняете линейную регрессию с помощью lm
в R, значение вместо значения используется для проверки, значительно ли отличаются коэффициенты регрессии от 0 (с ). Кроме того, вывод в R иногда дает - и иногда качестве тестовой статистики. По-видимому, значения используются, когда предполагается, что параметр дисперсии известен, а значения используются, когда оценивается параметр дисперсии (см. Эту ссылку ).з з т з тsummary.lm
glm
Может ли кто-нибудь объяснить, почему распределение иногда используется для теста Вальда, даже если предполагается, что отношение коэффициента и его стандартной ошибки распределено как стандартная норма?
Изменить после ответа на вопрос
Этот пост также предоставляет полезную информацию к вопросу.
lm
glm