Значение (GAM) коэффициентов регрессии, когда вероятность модели не значительно выше нуля


10

Я запускаю регрессию на основе GAM, используя пакет R gamlss и предполагаю, что бета-распределение данных с нулевым раздуванием. У меня есть только один объясняющей переменной в моей модели, так это в основном: mymodel = gamlss(response ~ input, family=BEZI).

Алгоритм дает мне коэффициент для влияния объясняющей переменной на среднее ( ) и связанное с ней значение p для , что-то вроде:kμk(input)=0

Mu link function:  logit                                               
Mu Coefficients:                                                      
              Estimate  Std. Error  t value   Pr(>|t|)                  
(Intercept)  -2.58051     0.03766  -68.521  0.000e+00                  
input        -0.09134     0.01683   -5.428  6.118e-08

Как видно из приведенного выше примера, гипотеза о отвергается с высокой достоверностью.k(input)=0

Затем я запускаю нулевую модель: null = gamlss(response ~ 1, family=BEZI)и сравниваю вероятности, используя критерий отношения правдоподобия:

p=1-pchisq(-2*(logLik(null)[1]-logLik(mymodel)[1]), df(mymodel)-df(null)).

В ряде случаев я получаю даже если сообщается, что коэффициенты на входе являются очень значимыми (как указано выше). Я нахожу это довольно необычным - по крайней мере, такого никогда не случалось в моем опыте с линейной или логистической регрессией (на самом деле, этого также никогда не случалось, когда я использовал гамму с нулевой поправкой).p>0.05

Мой вопрос: могу ли я доверять зависимости между ответом и вкладом, когда это так?

Ответы:


1

Я не вижу непосредственной причины, почему это должно быть связано с GAM. Дело в том, что вы используете два теста для одной и той же вещи. Поскольку в статистике нет абсолютной уверенности, вполне возможно, что один из них даст значительный результат, а другой нет.

Возможно, один из двух тестов является просто более мощным (но тогда, возможно, опирается на некоторые дополнительные предположения), или, может быть, единственным значимым является ваша ошибка типа один из двадцати.

Хорошим примером являются тесты на предмет того, поступают ли образцы из одного и того же распределения: для этого у вас есть очень параметрические тесты (для этого можно использовать T-тест: если средние значения разные, то и распределения должны быть одинаковыми), а также непараметрические из них: может случиться, что параметрический дает значительный результат, а непараметрический - нет. Это может быть потому , что предположения параметрического теста являются ложными, так как данные просто необыкновенные (типа I), или потому , что размер выборки не является достаточным для непараметрического теста , чтобы забрать разницу, или, наконец, из - за аспект из то, что вы действительно хотите протестировать (разные дистрибутивы), которое проверяется разными тестами, просто отличается (разный означает <-> вероятность быть «выше, чем»).

Если один результат теста показывает существенные результаты, а другой только незначительно, я бы не стал сильно беспокоиться.

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.