Вопросы с тегом «pca»

Анализ главных компонентов (PCA) - это метод линейного уменьшения размерности. Он сводит многомерный набор данных к меньшему набору построенных переменных, сохраняя как можно больше информации (как можно больше дисперсии). Эти переменные, называемые основными компонентами, являются линейными комбинациями входных переменных.

3
Является ли ядро ​​PCA с линейным ядром эквивалентным стандартному PCA?
Если в ядре PCA я выберу линейное ядро , будет ли результат отличаться от обычного линейного PCA ? Решения принципиально отличаются или существует какое-то четко определенное отношение?K(x,y)=x⊤yK(x,y)=x⊤yK(\mathbf{x},\mathbf{y}) = \mathbf x^\top \mathbf y
17 pca  kernel-trick 

1
Каковы эффективные алгоритмы для вычисления разложения по сингулярным числам (SVD)?
В статье Википедии об анализе основных компонентов говорится, что Существуют эффективные алгоритмы для вычисления SVD без необходимости формирования матрицы , поэтому вычисление SVD теперь является стандартным способом вычисления анализа главных компонентов из матрицы данных, если только не требуется лишь несколько компонентов.XXXXTXXTXX^TX Может кто-нибудь сказать мне, каковы эффективные алгоритмы, о которых …
17 pca  algorithms  svd  numerics 

1
Надежные методы действительно лучше?
У меня есть две группы субъектов, A и B, каждая из которых имеет размер около 400 и около 300 предикторов. Моя цель - построить модель прогнозирования для бинарной переменной ответа. Мой клиент хочет увидеть результат применения модели, построенной из A на B. (В своей книге «Стратегии регрессионного моделирования», @FrankHarrell упоминает, …

4
«Нормализующие» переменные для SVD / PCA
Предположим, у нас есть NNN измеримых переменных (a1,a2,…,aN)(a1,a2,...,aN)(a_1, a_2, \ldots, a_N) , мы выполняем ряд измерений M>NM>NM > N , а затем хотим выполнить разложение по сингулярным значениям результатов, чтобы найти оси наибольшей дисперсии для MMM точек в NNN мерном пространстве. ( Примечание: предположим , что средства я уже вычитали, …

3
Анализ основных компонентов «в обратном направлении»: насколько дисперсия данных объясняется заданной линейной комбинацией переменных?
Я провел анализ главных компонентов шести переменных , B , C , D , E и F . Если я правильно понимаю, необращенный ПК1 говорит мне, какая линейная комбинация этих переменных описывает / объясняет наибольшую дисперсию в данных, а ПК2 говорит мне, какая линейная комбинация этих переменных описывает следующую наибольшую …

1
Надежный PCA против надежного расстояния Махаланобиса для обнаружения выбросов
Надежный PCA (разработанный Candes et al. 2009 или более поздней версии Netrepalli et al 2014 ) является популярным методом многомерного обнаружения выбросов , но расстояние Махаланобиса также можно использовать для обнаружения выбросов с помощью надежной регуляризованной оценки ковариационной матрицы . Мне любопытно (не) преимущества использования одного метода перед другим. Моя …

1
Какова правильная мера связи переменной с компонентом PCA (на биплоте / графике загрузки)?
Я использую, FactoMineRчтобы свести мой набор данных измерений к скрытым переменным. Карта переменная выше ясно для меня , чтобы интерпретировать, но я смущен , когда речь идет о связях между переменными и компонента 1. Посмотрев на переменной карте, ddpи covочень близко к компоненту в карте, и ddpAbsнемного дальше прочь. Но …

2
Зачем преобразовывать данные в журнал перед выполнением анализа главных компонентов?
Я следую учебному пособию здесь: http://www.r-bloggers.com/computing-and-visualizing-pca-in-r/, чтобы лучше понять PCA. Учебное пособие использует набор данных Iris и применяет преобразование журнала до PCA: Обратите внимание, что в следующем коде мы применяем логарифмическое преобразование к непрерывным переменным, как предложено в [1], и устанавливаем centerи scaleравняемся TRUEпри вызове prcompдля стандартизации переменных до применения …

1
Являются ли компоненты PCA многомерных гауссовских данных статистически независимыми?
Являются ли компоненты PCA (в анализе главных компонентов) статистически независимыми, если наши данные многомерны и нормально распределены? Если да, то как это можно продемонстрировать / доказать? Я спрашиваю, потому что я видел этот пост , где верхний ответ гласит: PCA не делает явного предположения гауссовости. Он находит собственные векторы, которые …
16 pca  independence  svd 

2
Отображение пространственной и временной корреляции на картах
У меня есть данные для сети метеостанций по всей территории Соединенных Штатов. Это дает мне фрейм данных, который содержит дату, широту, долготу и некоторое измеренное значение. Предположим, что данные собираются один раз в день и определяются погодой регионального масштаба (нет, мы не будем вдаваться в это обсуждение). Я хотел бы …

2
Когда мы объединяем уменьшение размерности с кластеризацией?
Я пытаюсь выполнить кластеризацию на уровне документов. Я построил матрицу частот термина-документа, и я пытаюсь кластеризовать эти высокоразмерные векторы с помощью k-средних. Вместо непосредственной кластеризации я сначала применил разложение сингулярных векторов LSA (скрытый семантический анализ) для получения матриц U, S, Vt, выбрал подходящий порог с использованием графика осей и применил …

2
Оценка надежности вопросника: размерность, проблемные элементы, а также следует ли использовать альфа, лямбда6 или какой-то другой индекс?
Я анализирую оценки участников эксперимента. Я хочу оценить надежность моей анкеты, которая состоит из 6 пунктов, направленных на оценку отношения участников к продукту. Я вычислил альфу Кронбаха, рассматривая все элементы как одну шкалу (альфа был около 0,6) и удаляя один элемент за раз (максимальная альфа была около 0,72). Я знаю, …

3
Интерпретация баллов PCA
Может ли кто-нибудь помочь мне в интерпретации результатов PCA? Мои данные взяты из анкеты об отношении к медведям. Согласно нагрузкам, я интерпретировал один из моих основных компонентов как «страх медведей». Будут ли оценки этого основного компонента связаны с тем, как каждый респондент оценивает этот основной компонент (оценивает ли он / …
16 pca 

1
Какова связь между частичными наименьшими квадратами, регрессией пониженного ранга и регрессией главных компонент?
Являются ли регрессия с пониженным рангом и регрессия главных компонентов просто частными случаями частичных наименьших квадратов? В этом руководстве (Страница 6, «Сравнение целей») утверждается, что когда мы делаем частичные наименьшие квадраты без проецирования X или Y (то есть «не частичные»), оно становится соответственно уменьшенной ранговой регрессией или регрессией главных компонент. …

2
PCA и k-кратная перекрестная проверка в пакете каретки в R
Я только что посмотрел лекцию из курса машинного обучения на Coursera. В разделе, где профессор обсуждает PCA для предварительной обработки данных в контролируемых учебных приложениях, он говорит, что PCA следует выполнять только на обучающих данных, а затем отображение используется для преобразования перекрестной проверки и тестовых наборов. См. Также PCA и …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.