Я запускаю регрессию на основе GAM, используя пакет R gamlss и предполагаю, что бета-распределение данных с нулевым раздуванием. У меня есть только один объясняющей переменной в моей модели, так это в основном: mymodel = gamlss(response ~ input, family=BEZI)
.
Алгоритм дает мне коэффициент для влияния объясняющей переменной на среднее ( ) и связанное с ней значение p для , что-то вроде:
Mu link function: logit
Mu Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) -2.58051 0.03766 -68.521 0.000e+00
input -0.09134 0.01683 -5.428 6.118e-08
Как видно из приведенного выше примера, гипотеза о отвергается с высокой достоверностью.
Затем я запускаю нулевую модель: null = gamlss(response ~ 1, family=BEZI)
и сравниваю вероятности, используя критерий отношения правдоподобия:
p=1-pchisq(-2*(logLik(null)[1]-logLik(mymodel)[1]), df(mymodel)-df(null)).
В ряде случаев я получаю даже если сообщается, что коэффициенты на входе являются очень значимыми (как указано выше). Я нахожу это довольно необычным - по крайней мере, такого никогда не случалось в моем опыте с линейной или логистической регрессией (на самом деле, этого также никогда не случалось, когда я использовал гамму с нулевой поправкой).
Мой вопрос: могу ли я доверять зависимости между ответом и вкладом, когда это так?