Компоненты с низкой дисперсией в PCA, действительно ли они просто шум? Есть ли способ проверить это?


18

Я пытаюсь решить, следует ли сохранить компонент PCA или нет. Существует множество критериев, основанных на величине собственного значения, которые описаны и сравнены, например, здесь или здесь .

Однако в моем приложении я знаю, что малое (est) собственное значение будет небольшим по сравнению с большим (st) собственным значением, и критерии, основанные на величине, будут отвергать малое (est) значение. Это не то, что я хочу. Что меня интересует: существует ли какой-либо метод, который учитывает фактический соответствующий компонент малого собственного значения в смысле: действительно ли это «просто» шум, как подразумевается во всех учебниках, или есть «что-то» потенциального интерес остался? Если это действительно шум, удалите его, в противном случае сохраните его, независимо от величины собственного значения.

Существует ли какой-либо установленный тест на случайность или распределение компонентов в PCA, который я не могу найти? Или кто-нибудь знает причину, по которой это было бы глупо?

Обновить

Гистограммы (зеленая) и нормальные приближения (синие) компонентов в двух случаях использования: однажды, вероятно, действительно шум, однажды, вероятно, не просто шум (да, значения малы, но, вероятно, не случайны). Наибольшее единственное значение составляет ~ 160 в обоих случаях, наименьшее, т. Е. Это единственное значение, составляет 0,0хх - слишком мало для любого из методов отсечения.

То, что я ищу, это способ формализовать это ...

наверное действительно "просто" шум вероятно не шум, но может содержать интересные биты


2
Многие из упомянутых вами тестов имеют именно то свойство, о котором вы просили: они пытаются отличить «шум» от «сигнала».
whuber

2
Недавно меня интересовал аналогичный вопрос, но в конкретной ситуации, когда у вас есть несколько измерений для каждой точки данных. См. Выбор количества компонентов PCA, когда доступно несколько выборок для каждой точки данных . Может быть, это относится и к вашему делу?
говорит амеба: восстанови Монику

Использование тестов распределения на ПК для определения их случайности звучит как очень интересная идея (которую я никогда не применял); Нечто подобное сделано в ICA, которое специально ищет максимально негауссовские компоненты. Выполнение PCA, а затем отбрасывание компонентов, которые являются «слишком гауссовыми», имеет вкус ICA и может действительно работать!
говорит амеба: восстанови Монику

Ответы:


20

Один из способов проверки случайности небольшого главного компонента (ПК) состоит в том, чтобы рассматривать его как сигнал вместо шума: т. Е. Пытаться предсказать другую переменную, представляющую интерес для него. По сути это регрессия основных компонентов (ПЦР) .

В предиктивном контексте ПЦР, Lott (1973) рекомендует выбирать ПК таким образом, чтобы максимизировать ; Ганст и Мейсон (1977) фокусируются на . ПК с небольшими собственными значениями (даже самыми маленькими!) Могут улучшать предсказания (Hotelling, 1957; Massy, ​​1965 ; Hawkins, 1973; Hadi & Ling, 1998 ; Jackson, 1991) , и оказались очень интересными в некоторых опубликованных предсказательных приложениях ( Jolliffe). , 1982 , 2010 ) . Это включает: M S Eр2MSЕ

  • Химическая инженерная модель с использованием ПК 1, 3, 4, 6, 7 и 8 из 9 ( Smith & Campbell, 1980 )
  • Модель муссонов с использованием ПК 8, 2 и 10 (в порядке важности) из 10 ( Kung & Sharif, 1980 )
  • Экономическая модель с использованием ПК 4 и 5 из 6 (Hill, Fomby & & Johnson, 1977)

ПК в приведенных выше примерах нумеруются в соответствии с ранжированными размерами их собственных значений. Джолифф (Jolliffe, 1982) описывает облачную модель, в которую последний компонент вносит наибольший вклад. Он делает вывод:

Приведенные выше примеры показали, что нет необходимости находить неясные или причудливые данные, чтобы последние несколько основных компонентов играли важную роль в регрессии главных компонентов. Скорее кажется, что такие примеры могут быть довольно распространенными на практике. Hill et al. (1977) дают подробное и полезное обсуждение стратегий выбора основных компонентов, которые должны были навсегда похоронить идею выбора, основанную исключительно на величине дисперсии. К сожалению, этого, похоже, не произошло, и эта идея сейчас, возможно, более распространена, чем 20 лет назад.

SS

(п-1)Y

Икс

Я обязан этим ответом @Scortchi, который исправил мои собственные неправильные представления о выборе ПК в PCR с помощью нескольких очень полезных комментариев, в том числе: « Jolliffe (2010) рассматривает другие способы выбора ПК». Эта ссылка может быть хорошим местом для поиска дальнейших идей.

Ссылки

- Gunst, RF & Mason, RL (1977). Смещенная оценка в регрессии: оценка с использованием среднеквадратической ошибки. Журнал Американской статистической ассоциации, 72 (359), 616–628.
- Хади А.С. и Лин, РФ (1998). Некоторые предостерегающие замечания по использованию регрессии основных компонентов. Американский статистик, 52 (1), 15–19. Получено с http://www.uvm.edu/~rsingle/stat380/F04/possible/Hadi+Ling-AmStat-1998_PCRegression.pdf .
Хокинс Д.М. (1973). Об исследовании альтернативных регрессий методом главных компонент. Прикладная статистика, 22 (3), 275–286.
- Hill, RC, Fomby, TB, & Johnson, SR (1977). Нормы выбора компонентов для регрессии главных компонентов.Сообщения в статистике - теория и методика, 6 (4), 309–334.
- Хотеллинг, Х. (1957). Связь новейших многомерных статистических методов с факторным анализом. Британский журнал статистической психологии, 10 (2), 69–79.
- Джексон Э. (1991). Руководство пользователя по основным компонентам . Нью-Йорк: Уайли.
- Jolliffe, IT (1982). Обратите внимание на использование основных компонентов в регрессии. Прикладная статистика, 31 (3), 300–303. Получено с http://automatica.dei.unipd.it/public/Schenato/PSC/2010_2011/gruppo4-Building_termo_identification/IdentificazioneTermodinamica20072008/Biblio/Articoli/PCR%20vecchio%2082.pdf .
- Jolliffe, IT (2010).Анализ основных компонентов (2-е изд.). Springer.
- Kung EC и Sharif TA (1980). Регрессионное прогнозирование наступления бабьего летнего муссона с предшествующими верхними воздушными условиями. Журнал прикладной метеорологии, 19 (4), 370–380. Получено с http://iri.columbia.edu/~ousmane/print/Onset/ErnestSharif80_JAS.pdf .
- Лотт, WF (1973). Оптимальный набор ограничений главных компонент на регрессию наименьших квадратов. Сообщения в статистике - теория и методика, 2 (5), 449–464.
- Мейсон Р.Л. и Ганст Р.Ф. (1985). Выбор основных компонентов в регрессии. Статистика и вероятностные письма, 3 (6), 299–301.
- Massy, ​​WF (1965). Основные компоненты регрессии в поисковых статистических исследованиях. Журнал Американской статистической ассоциации, 60 (309), 234–256. Получено с http://automatica.dei.unipd.it/public/Schenato/PSC/2010_2011/gruppo4-Building_termo_identification/IdentificazioneTermodinamica20072008/Biblio/Articoli/PCR%20vecchio%2065.pdf .
- Smith, G. & Campbell, F. (1980). Критика некоторых методов регрессии гребня. Журнал Американской статистической ассоциации, 75 (369), 74–81. Получено с https://cowles.econ.yale.edu/P/cp/p04b/p0496.pdf .


4
... и нет никакой гарантии, что эффект, который вам нужен для решения вашей проблемы, больше, чем другие эффекты, которые являются просто шумом. проблема под рукой. Я видел данные, в которых 95% дисперсии составлял шум из-за некоторых физических эффектов ...
cbeleites поддерживает Monica

3
Очень хороший обзор, но (извините придираться снова) темп Хади и Ling, выбирая ПК , чтобы сохранить в регрессии на основе их прочные отношения к ответу, это так опасно , как выбрать оригинальные предикторы , основанные на их прочные отношения к ответу. Перекрестная проверка важна и усадка предпочтительна. Лично я предпочел бы разумное использование PCA вместе со знанием предмета, чтобы направлять сокращение данных на предикторах, не обращая внимания на ответ, например, используя первый ПК из групп предикторов, измеряющих почти одно и то же, или определяемых с помощью переменной кластеризации.
Scortchi - Восстановить Монику

2
+1 (давным-давно) к этому ответу, но после просмотра этой ветки я должен сказать, что этот ответ почти не отвечает на первоначальный вопрос: OP спрашивал о том, можно ли использовать какие-либо тесты распределения компонентов для оценки их случайность. Смотрите также мой последний комментарий к ОП.
говорит амеба: восстанови Монику

2

В дополнение к ответу @Nick Stauner, когда вы имеете дело с подпространственной кластеризацией, PCA часто является плохим решением.

При использовании PCA больше всего заботятся о собственных векторах с самыми высокими собственными значениями, которые представляют направления, в которых данные «растягиваются» больше всего. Если ваши данные состоят из небольших подпространств, PCA будет торжественно игнорировать их, поскольку они не вносят большой вклад в общую дисперсию данных.

Таким образом, маленькие собственные векторы не всегда являются чистым шумом.

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.