В t -значение и R2 используются для оценки очень разных вещей. Значения t используются для оценки точности вашей оценки βi , но R2 измеряет величину вариации вашей переменной отклика, объясненную вашими ковариатами. Предположим, вы оцениваете регрессионную модель с n наблюдениями,
Yi=β0+β1X1i+...+βkXki+ϵi
где ϵi∼i.i.dN(0,σ2) , i=1,...,n .
Большие t (в абсолютном значении) приводят к отказу от нулевой гипотезы, что βi=0 . Это означает, что вы можете быть уверены, что правильно оценили знак коэффициента. Также, если |t|> 4 и у вас n>5 , то 0 не находится в доверительном интервале 99% для коэффициента. Значение t для коэффициента βi является разностью между оценкой βi^ и 0, нормированной стандартной ошибкой se{βi^} .
t=βi^se{βi^}
которая является просто оценкой, деленной на меру ее изменчивости. Если у вас достаточно большой набор данных, у вас всегда будут статистически значимые (большие) t . Это не обязательно означает, что ваши ковариаты объясняют большую часть различий в переменной ответа.
Как уже упоминалось в @Stat, R2 измеряет количество вариаций в вашей переменной ответа, объясняемое вашими зависимыми переменными. Чтобы узнать больше о R2 , перейдите в Википедию . В вашем случае оказывается, что у вас достаточно большой набор данных для точной оценки βi , но ваши ковариаты плохо справляются с объяснением и \ или прогнозированием значений ответа.