Обе модели - главный компонент и общий фактор - являются похожими прямыми линейными регрессионными моделями, предсказывающими наблюдаемые переменные по скрытым переменным. Пусть у нас есть центрированные переменные V1 V2 ... Vp, и мы решили извлечь 2 компонента / фактора FI и FII . Тогда модель представляет собой систему уравнений:
В1= а1 яFя+ а1 яяFяя+ E1
В2= а2 яFя+ а2 яяFяя+ E2
, , ,
Вп= …
где коэффициент a представляет собой нагрузку, F является фактором или компонентом, а переменная E является остатками регрессии. Здесь модель FA отличается от модели PCA именно тем, что FA накладывает требование: переменные E1, E2 ... Ep (члены ошибки, которые не связаны с F s) не должны коррелировать друг с другом ( см. Рисунки ). Эти переменные ошибки FA называют «уникальными факторами»; их дисперсии известны («уникальности»), а их регистр значений - нет. Поэтому факторные оценки F рассчитываются только как хорошие приближения, они не являются точными.
(Представление матричной алгебры этой модели общего факторного анализа приведено в сноске )1
Принимая во внимание, что в PCA переменные ошибки от предсказания различных переменных могут свободно коррелировать: на них ничего не накладывается. Они представляют тот «окаменелость», для которого мы взяли оставленные размеры p-2 . Мы знаем значения E и поэтому можем вычислить оценки компонентов F как точные значения.
В этом была разница между моделью PCA и моделью FA.
Именно из-за вышеупомянутой разницы FA может объяснить парные корреляции (ковариации). PCA обычно не может этого сделать (если только число извлеченных компонентов не равно p ); это может только объяснить многомерную дисперсию . Таким образом, если термин «факторный анализ» определен с целью объяснения корреляций, PCA не является факторным анализом. Если «Факторный анализ» определяется более широко как метод, обеспечивающий или предлагающий скрытые «черты», которые могут быть интерпретированы, PCA может рассматриваться как особая и самая простая форма факторного анализа.2
Иногда - в некоторых наборах данных при определенных условиях - PCA оставляет термины E, которые почти не коррелируют. Тогда PCA может объяснить корреляции и стать как FA. Нередко встречаются наборы данных со многими переменными. Это заставило некоторых наблюдателей утверждать, что результаты PCA становятся ближе к результатам FA по мере роста данных. Я не думаю, что это правило, но тенденция действительно может быть. В любом случае, учитывая их теоретические различия, всегда хорошо выбирать метод осознанно. FA - более реалистичная модель, если вы хотите уменьшить переменные до значений, которые вы будете рассматривать как реальные скрытые признаки, стоящие за переменными и заставляющие их коррелировать.
Но если у вас есть другая цель - уменьшить размерность при максимально возможном сохранении расстояний между точками облака данных - PCA лучше, чем FA. (Тем не менее, процедура итеративного многомерного масштабирования (MDS) будет даже лучше, чем тогда. PCA представляет собой неитеративную метрическую MDS.) Если вы в дальнейшем не сильно беспокоитесь о расстояниях и заинтересованы только в сохранении как можно большей части общей дисперсии данных По возможности, в нескольких измерениях - PCA - оптимальный выбор.
1 Модель данных факторного анализа: , где - анализируемые данные (столбцы центрированы или стандартизированы), - общие значения факторов (неизвестные истинные) , не факторные оценки) с единичной дисперсией, - матрица нагрузок общего фактора (матрица шаблонов), - уникальные значения фактора (неизвестно), - вектор нагрузок уникального фактора, равный sq. корень уникальности ( ). Часть может быть помечена как " EV F A E u u 2 E d i a g ( u )V = F A'+ E dя г( и )Вn cases x p variables
Fn x m
Ap x m
En x p
up
u2Ediag(u)«Для простоты, как это в формулах, открывающих ответ.
Основные предположения модели:
- E E F VFПеременные и (общие и уникальные факторы соответственно) имеют нулевые средние и единичные дисперсии;
обычно считается многомерным нормальным, но в общем случае не обязательно должен быть многомерным нормальным (если оба предполагаются многомерным нормальным, то тоже таковы);EEFV
- FEПеременные не связаны друг с другом и не связаны с переменнымиF
A A ( м ) Σ2 Из общих факторного анализа модели , что загрузки из м общих факторов ( м < р переменных), также обозначается , следует тщательно воспроизвести наблюдаемые ковариации (или корреляцию) между переменным, . Так что если факторы ортогональны, теорема фундаментального фактора утверждает, чтоAA(m)Σ
Е≈ Е +dIвг(у2)Σ^=AA′ и ,Σ≈Σ^+diag(u2)
где - матрица воспроизводимых ковариаций (или корреляций) с общими дисперсиями ("сообществами") на диагонали; и уникальные отклонения («уникальности»), которые представляют собой отклонения минус сообщества, представляют собой вектор . Недиагональное расхождение ( ) Связано с тем, что факторы представляют собой теоретическую модель, генерирующую данные, и как таковую, она проще, чем наблюдаемые данные, на которых она была построена. Основными причинами расхождений между наблюдаемой и воспроизводимой ковариациями (или корреляциями) могут быть: (1) число факторов m не является статистически оптимальным; (2) частичные корреляции (это U2≈Σ^u2≈p(p-1)/2
факторы, которые не относятся к общим факторам) (3) общины плохо собраны, их первоначальные ценности были плохими; (4) отношения не являются линейными, использование линейной модели вызывает сомнения; (5) модель «подтип», полученная методом извлечения, не является оптимальной для данных (см. О различных методах извлечения ). Другими словами, некоторые предположения о данных FA не полностью соблюдаются.
Что касается простого PCA , он воспроизводит ковариации по нагрузкам именно тогда, когда m = p (используются все компоненты), и обычно не делает этого, если m < p (сохраняется только несколько первых компонентов). Фактор теоремы для PCA:
Σ=AA′(p)=AA′(m)+AA′(p−m) ,
поэтому как загрузки, так и отброшенные загрузки представляют собой смеси общностей и уникальностей, и ни одна из них не может помочь восстановить ковариации. Чем ближе m к p , тем лучше PCA, как правило, восстанавливает ковариации, но маленькие m (что часто представляет наш интерес) не помогают. Это отличается от FA, который предназначен для восстановления ковариаций с довольно небольшим оптимальным количеством факторов. Если приближается к диагонали, PCA становится похожим на FA, сA(m)A(p−m)AA′(p−m)A(m)восстановление всех ковариаций. Это случается иногда с PCA, как я уже упоминал. Но у PCA отсутствует алгоритмическая способность форсировать такую диагонализацию. Это алгоритмы FA, которые делают это.
FA, а не PCA, является моделью генерации данных: она предполагает несколько «истинных» общих факторов (обычно неизвестного числа, поэтому вы пробуете m в пределах диапазона), которые генерируют «истинные» значения для ковариаций. Наблюдаемые ковариации являются «истинными» + небольшой случайный шум. (Это происходит из - за проведенную диагонализацию , что лиственный единственный восстановитель всех ковариаций, что выше шум может быть маленьким и случайным образом .) Попытки поместить больше факторов , чем оптимальные количества для переобучения попытки, а не обязательно эффективная попытка переоснащения.A(m)
И FA, и PCA стремятся максимизировать , но для PCA это единственная цель; для FA это является сопутствующей целью, а другая заключается в диагонализации уникальности. Этот след является суммой собственных значений в PCA. Некоторые методы извлечения в FA добавляют больше сопутствующих целей за счет максимизации трассировки, поэтому это не принципиально важно.trace(A′A(m))
Подведем итоги объясненных различий между двумя методами. ФА направлена ( прямо или косвенно ) на минимизацию различий между отдельными соответствующими недиагональными элементами и . Успешная модель FA - это та, которая оставляет ошибки для ковариаций малыми и случайными (нормальные или однородные около 0, нет выбросов / толстых хвостов). PCA максимизирует только которая равна (и' т г а гр е ( А А ' ) т т с е ( ' A ) A 'ΣAA′trace(AA′)trace(A′A)A′Aравен ковариационной матрице главных компонентов, которая является диагональной матрицей). Таким образом, PCA не «занят» всеми отдельными ковариациями: он просто не может, просто являясь формой ортогонального вращения данных.
Благодаря максимизации следа - дисперсия объяснена м компонентов - PCA является учет ковариаций, так как ковариация разделяет дисперсию. В этом смысле PCA является «приближением низкого ранга» всей ковариационной матрицы переменных. И если смотреть с точки зрения наблюдений, то это приближение является приближением матрицы наблюдений евклидова расстояния (именно поэтому PCA является метрической системой MDS, называемой «анализ главных координат). Этот факт не должен отрывать нас от реальности того, что PCA не моделирует ковариационная матрица (каждая ковариация), генерируемая несколькими живыми скрытыми чертами, которые можно представить как трансцендентные по отношению к нашим переменным, аппроксимация PCA остается неизменной, даже если это хорошо: это упрощение данных.
Если вы хотите увидеть пошаговые вычисления, сделанные в PCA и FA, прокомментировать и сравнить, пожалуйста, посмотрите здесь .