Когда я анализирую свои переменные в двух отдельных (одномерных) моделях логистической регрессии, я получаю следующее:
Predictor 1: B= 1.049, SE=.352, Exp(B)=2.85, 95% CI=(1.43, 5.69), p=.003
Constant: B=-0.434, SE=.217, Exp(B)=0.65, p=.046
Predictor 2: B= 1.379, SE=.386, Exp(B)=3.97, 95% CI=(1.86, 8.47), p<.001
Constant: B=-0.447, SE=.205, Exp(B)=0.64, p=.029
но когда я ввожу их в одну модель множественной логистической регрессии, я получаю:
Predictor 1: B= 0.556, SE=.406, Exp(B)=1.74, 95% CI=(0.79, 3.86), p=.171
Predictor 2: B= 1.094, SE=.436, Exp(B)=2.99, 95% CI=(1.27, 7.02), p=.012
Constant: B=-0.574, SE=.227, Exp(B)=0.56, p=.012
Оба предиктора являются дихотомическими (категориальными). Я проверил на мультиколлинеарность.
Я не уверен, предоставил ли я достаточно информации, но не могу понять, почему предиктор 1 перешел от существенного к незначительному и почему отношения шансов так различны в модели множественной регрессии. Кто-нибудь может дать базовое объяснение того, что происходит?