Вопросы с тегом «svd»

Разложение по сингулярным числам (SVD) матрицы задается как где и являются ортогональными матрицами, а - диагональная матрица. AA=USVUVS

3
LSA против PCA (кластеризация документов)
Я изучаю различные методы, используемые в кластеризации документов, и я хотел бы прояснить некоторые сомнения, касающиеся PCA (анализ главных компонентов) и LSA (скрытый семантический анализ). Первое - какие различия между ними? Я знаю, что в PCA декомпозиция SVD применяется к матрице терминов-ковариаций, в то время как в LSA это матрица …

2
Почему PCA данных с помощью SVD данных?
Этот вопрос касается эффективного способа вычисления основных компонентов. Многие тексты по линейному PCA рекомендуют использовать разложение по регистру данных по сингулярным значениям . То есть, если у нас есть данные и мы хотим заменить переменные (их столбцы ) на главные компоненты, мы делаем SVD: , особые значения (квадратные корни из …

3
Что происходит, когда вы применяете SVD к проблеме совместной фильтрации? Какая разница между двумя?
В совместной фильтрации у нас есть значения, которые не заполняются. Предположим, что пользователь не смотрел фильм, тогда мы должны добавить туда «na». Если я собираюсь взять SVD этой матрицы, то я должен добавить туда некоторое число - скажем, 0. Теперь, если я разложу матрицу, у меня есть метод для поиска …

3
Спс, когда размерность больше количества образцов
Я столкнулся со сценарием, где у меня есть 10 сигналов на человека на 10 человек (таким образом, 100 выборок), содержащих 14000 точек данных (измерений), которые мне нужно передать в классификатор. Я хотел бы уменьшить размерность этих данных, и PCA, кажется, является способом сделать это. Тем не менее, мне удалось найти …

3
Странные корреляции в результатах SVD случайных данных; у них есть математическое объяснение или это ошибка LAPACK?
Я наблюдаю очень странное поведение в результате SVD случайных данных, которое я могу воспроизвести как в Matlab, так и в R. Это похоже на некоторую числовую проблему в библиотеке LAPACK; это? Я рисую выборок из мерного гауссиана с нулевым средним и единичной ковариацией: . Я собрать их в данных матрица …

1
Доказательство коэффициентов сжатия с помощью регрессии гребня посредством «спектрального разложения»
Я понял, как регрессия гребня сжимает коэффициенты геометрически к нулю. Более того, я знаю, как доказать это в специальном «ортонормированном случае», но я не совсем понимаю, как это работает в общем случае с помощью «спектральной декомпозиции».

2
Есть ли какое-либо преимущество SVD перед PCA?
Я знаю, как математически рассчитать PCA и SVD, и я знаю, что оба могут быть применены к регрессии линейных наименьших квадратов. Основным преимуществом SVD математически представляется то, что его можно применять к неквадратным матрицам. Оба сосредоточены на разложении матрицыПомимо упомянутого преимущества SVD, есть ли какие-либо дополнительные преимущества или идеи, предоставляемые …
20 pca  least-squares  svd 

6
PCA негауссовых данных
У меня есть пара быстрых вопросов о PCA: Предполагает ли PCA, что набор данных является гауссовским? Что происходит, когда я применяю PCA к нелинейным данным? Учитывая набор данных, процесс должен сначала нормализовать среднее значение, установить дисперсию 1, взять SVD, уменьшить ранг и, наконец, отобразить набор данных в новое пространство с …
20 pca  svd 

1
Расположение стрелок на биплоте PCA
Я ищу, чтобы реализовать биплот для анализа основных компонентов (PCA) в JavaScript. Мой вопрос, как мне определить координаты стрелок из выходных данных сингулярного векторного разложения (SVD) матрицы данных?U,V,DU,В,DU,V,D Вот пример биплота R: biplot(prcomp(iris[,1:4])) Я попытался найти его в статье в Википедии о биплоте, но это не очень полезно. Или правильно. …
18 pca  svd  biplot 

5
Основные статьи о матричных разложениях
Недавно я прочитал книгу Скилликорна о разложении матриц, и был немного разочарован, поскольку она была нацелена на студенческую аудиторию. Я хотел бы составить (для себя и других) краткую библиографию основных работ (обзоров, но также прорывных работ) по разложению матриц. Я имею в виду, прежде всего, что-то о SVD / PCA …

1
Каковы преимущества ядра PCA перед стандартным PCA?
Я хочу реализовать алгоритм в статье, которая использует ядро ​​SVD для декомпозиции матрицы данных. Итак, я читал материалы о методах ядра, ядре PCA и т. Д. Но это все еще очень неясно для меня, особенно когда речь идет о математических деталях, и у меня есть несколько вопросов. Почему методы ядра? …
18 pca  svd  kernel-trick 

1
Обновление декомпозиции SVD после добавления одной новой строки в матрицу
Предположим , что у меня плотную матрицу AA \textbf{A} из m×nm×nm \times n размера, с SVD разложения A=USV⊤.A=USV⊤.\mathbf{A}=\mathbf{USV}^\top.В Rможно вычислить СВД следующим образом : svd(A). Если в добавлена новая -я строка , можно ли вычислить новую декомпозицию SVD на основе старой (т. Е. Используя , и ), без пересчета СВД …

1
Каковы эффективные алгоритмы для вычисления разложения по сингулярным числам (SVD)?
В статье Википедии об анализе основных компонентов говорится, что Существуют эффективные алгоритмы для вычисления SVD без необходимости формирования матрицы , поэтому вычисление SVD теперь является стандартным способом вычисления анализа главных компонентов из матрицы данных, если только не требуется лишь несколько компонентов.XXXXTXXTXX^TX Может кто-нибудь сказать мне, каковы эффективные алгоритмы, о которых …
17 pca  algorithms  svd  numerics 

4
«Нормализующие» переменные для SVD / PCA
Предположим, у нас есть NNN измеримых переменных (a1,a2,…,aN)(a1,a2,...,aN)(a_1, a_2, \ldots, a_N) , мы выполняем ряд измерений M>NM>NM > N , а затем хотим выполнить разложение по сингулярным значениям результатов, чтобы найти оси наибольшей дисперсии для MMM точек в NNN мерном пространстве. ( Примечание: предположим , что средства я уже вычитали, …

1
Являются ли компоненты PCA многомерных гауссовских данных статистически независимыми?
Являются ли компоненты PCA (в анализе главных компонентов) статистически независимыми, если наши данные многомерны и нормально распределены? Если да, то как это можно продемонстрировать / доказать? Я спрашиваю, потому что я видел этот пост , где верхний ответ гласит: PCA не делает явного предположения гауссовости. Он находит собственные векторы, которые …
16 pca  independence  svd 

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.