Я понимаю, что это (очень) устаревшая ветка, но поскольку один из моих коллег задал мне этот же самый вопрос на этой неделе и не нашел в Интернете ничего, на что я мог бы указать ему, я решил добавить свои два цента "для потомков" Вот. Я не уверен, что ответы, предоставленные на сегодняшний день, отвечают на вопрос ОП.
Я собираюсь упростить задачу, включив в нее только две независимые переменные; очень просто расширить его до более чем двух. Рассмотрим следующий сценарий: две независимые переменные (X1 и X2), зависимая переменная (Y), 1000 наблюдений, две независимые переменные сильно коррелируют друг с другом (r = .99), и каждая независимая переменная коррелируется с зависимой переменная (r = .60). Без потери общности стандартизируйте все переменные со средним значением нуля и стандартным отклонением, равным единице, поэтому член перехвата будет равен нулю в каждой из регрессий.
Выполнение простой линейной регрессии Y на X1 приведет к r-квадрату .36 и значению b1 0,6. Точно так же, выполнение простой линейной регрессии Y на X2 даст r-квадрат 0,66 и значение b1 0,6.
Выполнение множественной регрессии Y на X1 и X2 приведет к получению r-квадрата всего на крошечный бит выше, чем .36, и оба b1 и b2 принимают значение 0,3. Таким образом, общее изменение в Y зафиксировано в ОБА b1 и b2 (в равной степени).
Я думаю, что OP, возможно, сделал ложное (но вполне понятное) предположение: а именно, что, когда X1 и X2 становятся все ближе и ближе к идеальной корреляции, их значения b в уравнении множественной регрессии становятся все ближе и ближе к нулю. Это не относится к делу. Фактически, когда X1 и X2 становятся все ближе и ближе к идеальной корреляции, их значения b в множественной регрессии становятся все ближе и ближе к ПОЛОВИНЕ значения b в простой линейной регрессии любого из них. Тем не менее, когда X1 и X2 становятся все ближе и ближе к идеальной корреляции, СТАНДАРТНАЯ ОШИБКА b1 и b2 перемещается все ближе и ближе к бесконечности, поэтому значения t сходятся к нулю. Таким образом, значения t будут сходиться к нулю (т. Е. Нет УНИКАЛЬНОЙ линейной зависимости между X1 и Y или X2 и Y),
Таким образом, ответ на вопрос OP заключается в том, что, поскольку корреляция между X1 и X2 приближается к единице, КАЖДЫЙ из коэффициентов частичного наклона приближается, внося одинаковый вклад в предсказание значения Y, даже если ни одна независимая переменная не предлагает какого-либо УНИКАЛЬНОГО объяснения зависимой переменная.
Если вы хотите проверить это эмпирически, создайте сфабрикованный набор данных (... я использовал макрос SAS с именем Corr2Data.sas ...), который имеет характеристики, описанные выше. Проверьте значения b, стандартные ошибки и t-значения: вы обнаружите, что они в точности соответствуют описанным здесь.
HTH // Фил