Анализ основных компонентов может использовать матричную декомпозицию, но это всего лишь инструмент для достижения этой цели.
Как бы вы нашли главные компоненты без использования матричной алгебры?
Какова целевая функция (цель) и каковы ограничения?
Анализ основных компонентов может использовать матричную декомпозицию, но это всего лишь инструмент для достижения этой цели.
Как бы вы нашли главные компоненты без использования матричной алгебры?
Какова целевая функция (цель) и каковы ограничения?
Ответы:
Не пытаясь дать полное представление о PCA, с точки зрения оптимизации, основной целевой функцией является коэффициент Рэлея . Матрица, которая фигурирует в частном, является (несколько кратной) выборочной ковариационной матрицей , где каждый представляет собой вектор функций и является матрицей , так что й строки является .
PCA стремится решить ряд задач по оптимизации. Первой в последовательности является проблема без ограничений
Так какуказанная выше безусловная проблема эквивалентна ограниченной задаче
Вот где вступает матричная алгебра. Поскольку - симметричная положительная полуопределенная матрица (по построению!), Она имеет разложение по собственным значениям вида где - это ортогональная матрица (поэтому ) и - диагональная матрица с неотрицательными элементами такими что .
Следовательно, . Поскольку ограничено в задаче одной единицей, то так же, как и , поскольку ортогонально.
Но если мы хотим максимизировать количество при ограничениях, которые , то лучшее, что мы можем сделать, это set , то есть и для .
Теперь, возвращаясь к соответствующему , что мы и искали, мы получаем где обозначает первый столбец , то есть собственный вектор , соответствующий наибольшего собственного значения . Значение целевой функции также легко увидеть как .
Остальные векторы главных компонентов затем находят путем решения последовательности (индексируемой ) задач оптимизации Итак, проблема та же, за исключением того, что мы добавили дополнительное ограничение, согласно которому решение должно быть ортогональным ко всем предыдущим решениям в последовательности. Это не трудно расширить аргумент выше индуктивно , чтобы показать , что решение - го проблема, на самом деле, , тем й собственный вектор .
Решение PCA также часто выражается через разложение по сингулярным числам . Чтобы понять , почему, пусть . Тогда и так (строго говоря, с точностью до знака сальто) и .
Главные компоненты находят, проецируя на векторы главных компонент. Из приведенной выше формулировки SVD легко увидеть, что
Простота представления как главных компонентных векторов, так и самих основных компонентов в терминах SVD матрицы признаков является одной из причин, по которым SVD проявляется так заметно в некоторых вариантах лечения PCA.
Представленное кардиналом решение фокусируется на выборочной ковариационной матрице. Другой отправной точкой является ошибка восстановления данных по q- мерной гиперплоскости. Если p- мерными точками данных являются задача состоит в том, чтобы решить
для матрицы с ортонормированными столбцами и . Это дает наилучшую ранговую q- реконструкцию, измеренную евклидовой нормой, а столбцы решения являются первыми векторами q главных компонент.
Для фиксированного решения для и (это регрессия):
Для простоты обозначений предположим, что были центрированы в следующих вычислениях. Затем мы должны минимизировать
более с ортонормированными столбцами. Обратите внимание, что является проекцией на q- мерное пространство столбцов. Следовательно, задача эквивалентна минимизации
над рангом Q проекций . То есть нам нужно максимизировать
по проекциям ранга q , где - выборочная ковариационная матрица. В настоящее время
Ошибка реконструкции предполагает ряд полезных обобщений, например разреженных главных компонентов или реконструкций по низкоразмерным многообразиям вместо гиперплоскостей. Подробности см. В разделе 14.5 «Элементы статистического обучения» .