Я знаю, что в ситуации регрессии, если у вас есть набор сильно коррелированных переменных, это обычно «плохо» из-за нестабильности оценочных коэффициентов (дисперсия движется к бесконечности, так как детерминант движется к нулю).
Мой вопрос заключается в том, сохраняется ли эта «плохость» в ситуации PCA. Не становятся ли коэффициенты / нагрузки / веса / собственные векторы для любого конкретного ПК нестабильными / произвольными / неуникальными, когда ковариационная матрица становится сингулярной? Меня особенно интересует случай, когда сохраняется только первый главный компонент, а все остальные отклоняются как «шум», «что-то еще» или «неважно».
Я не думаю, что это так, потому что у вас останется несколько основных компонентов, которые имеют нулевую или близкую к нулю дисперсию.
Легко видеть, что это не так в простом крайнем случае с 2 переменными - предположим, что они идеально коррелируют. Тогда первый ПК будет иметь точную линейную зависимость, а второй ПК будет перпендикулярен первому ПК, при этом все значения ПК равны нулю для всех наблюдений (т. Е. Нулевая дисперсия). Интересно, если это более общее.