Мой набор данных ( ) имеет зависимую переменную (DV), пять независимых «базовых» переменных (P1, P2, P3, P4, P5) и одну независимую интересующую переменную (Q).
Я запустил линейные регрессии OLS для следующих двух моделей:
DV ~ 1 + P1 + P2 + P3 + P4 + P5
-> R-squared = 0.125
DV ~ 1 + P1 + P2 + P3 + P4 + P5 + Q
-> R-squared = 0.124
Т.е. добавление предиктора Q уменьшило величину дисперсии, объясненной в линейной модели. Насколько я понимаю, этого не должно быть .
Для ясности, это значения R-квадрата, а не скорректированные значения R-квадрата.
Я проверил значения R-квадрат с помощью Jasp и языка Python statsmodels .
Есть ли причина, по которой я мог видеть это явление? Возможно, что-то относящееся к методу OLS?
1
числовые вопросы? Цифры довольно близки друг к другу ...
@ user2137591 Это то, о чем я думаю, но я не знаю, как это проверить. Абсолютная разница в значениях R-квадрат является 0,000513569, которая мала, но не , что мало.
—
Цай
Я надеюсь, что вы знаете линейную алгебру: если является матрицей проектирования, описанной выше, не могли бы вы вычислить , где - транспонирование матрицы и является определитель матрицы? дет X T X T дет
—
Кларнетист
Отсутствующие значения автоматически удаляются?
—
generic_user