Вопросы с тегом «eigenvalues»

По вопросам, связанным с вычислением или интерпретацией собственных значений или собственных векторов.

28
Осмысление анализа главных компонент, собственных векторов и собственных значений
На сегодняшнем занятии по распознаванию образов мой профессор говорил о PCA, собственных векторах и собственных значениях. Я понял математику этого. Если меня попросят найти собственные значения и т.д., я сделаю это правильно, как машина. Но я этого не поняла . Я не понял цели этого. Я не чувствовал этого. Я …

3
Почему корреляционная матрица должна быть положительной полуопределенной и что значит быть или не быть положительной полуопределенной?
Я исследовал значение положительного полуопределенного свойства матриц корреляции или ковариации. Я ищу любую информацию о Определение положительной полуопределенности; Его важные свойства, практические последствия; Последствия отрицательного фактора, влияние на многомерный анализ или результаты моделирования и т. Д.

1
Если я генерирую случайную симметричную матрицу, какова вероятность того, что она положительно определена?
У меня возник странный вопрос, когда я экспериментировал с некоторыми выпуклыми оптимизациями. Вопрос в том: Предположим, что я случайно (скажем, стандартное нормальное распределение) генерирую симметричную матрицу (например, я генерирую верхнюю треугольную матрицу и заполняю нижнюю половину, чтобы убедиться, что она симметричная), какова вероятность того, что она является положительно определенной матрица? …

1
Как центрирование влияет на PCA (для SVD и собственного разложения)?
Какое значение имеет центрирование (или де-смысл) ваших данных для PCA? Я слышал, что это облегчает математику или препятствует доминированию переменных на первом компьютере, но я чувствую, что пока не смог твердо понять концепцию. Например, главный ответ здесь. Как центрирование данных избавляет от перехвата в регрессии и PCA? описывает, как не …
30 r  pca  svd  eigenvalues  centering 

4
Почему Эндрю Нг предпочитает использовать SVD, а не EIG ковариационной матрицы для PCA?
Я изучаю PCA из курса Coursera Эндрю Нг и других материалов. В первом задании Stanford NLP cs224n и в видео лекции Эндрю Нг они проводят разложение по сингулярным значениям вместо разложения по ковариационной матрице по собственным векторам, и Нг даже говорит, что SVD численно более устойчив, чем собственное разложение. Насколько …

1
Почему существует только
В PCA, когда число измерений больше (или даже равно) количеству выборок N , почему у вас будет не более N - 1 ненулевых собственных векторов? Другими словами, ранг ковариационной матрицы среди измерений d ≥ N равен N - 1 .dddNNNN−1N−1N-1d≥Nd≥Nd\ge NN−1N−1N-1 Пример: ваши образцы - это векторизованные изображения размером , …

1
В чем смысл собственных векторов взаимной информационной матрицы?
При взгляде на собственные векторы ковариационной матрицы мы получаем направления максимальной дисперсии (первый собственный вектор - это направление, в котором данные наиболее сильно варьируются и т. Д.); это называется анализ главных компонентов (PCA). Мне было интересно, что это будет означать, чтобы посмотреть на собственные векторы / значения матрицы взаимной информации, …

1
Объясните, как `eigen` помогает инвертировать матрицу
Мой вопрос относится к вычислительной технике, используемой в geoR:::.negloglik.GRFили geoR:::solve.geoR. В линейной смешанной модели: Y=Xβ+Zb+eY=Xβ+Zb+e Y=X\beta+Zb+e где ββ\beta и bbb - фиксированные и случайные эффекты соответственно. Также Σ=cov(Y)Σ=cov(Y)\Sigma=\text{cov}(Y) При оценке последствий, необходимо , чтобы вычислить , которые обычно можно сделать , используя что - то вроде , но иногда ( …

1
Почему собственные и svd-разложения ковариационной матрицы на основе разреженных данных дают разные результаты?
Я пытаюсь разложить ковариационную матрицу на основе набора данных разреженных / gappy. Я замечаю, что сумма лямбда (объясненная дисперсия), рассчитанная с помощью svd, усиливается с помощью все более и более дурацких данных. Без пробелов, да svdи eigenте же результаты. Это, кажется, не происходит с eigenразложением. Я склонялся к использованию, svdпотому …
12 r  svd  eigenvalues 

3
Является ли каждая корреляционная матрица положительно определенной?
Я говорю здесь о матрицах корреляций Пирсона. Я часто слышал, что все корреляционные матрицы должны быть положительными полуопределенными. Насколько я понимаю, положительно определенные матрицы должны иметь собственные значения , в то время как положительные полуопределенные матрицы должны иметь собственные значения . Это заставляет меня думать, что мой вопрос можно перефразировать …

2
Почему PCA максимизирует общую дисперсию проекции?
Кристофер Бишоп пишет в своей книге « Распознавание образов и машинное обучение», доказывая, что каждый последовательный главный компонент максимизирует дисперсию проекции в одно измерение после того, как данные были спроецированы в ортогональное пространство для ранее выбранных компонентов. Другие показывают аналогичные доказательства. Однако это только доказывает, что каждый последующий компонент является …

1
Запутался в визуальном объяснении собственных векторов: как визуально разные наборы данных могут иметь одинаковые собственные векторы?
Многие учебники статистики предоставляют интуитивно понятную иллюстрацию того, каковы собственные векторы ковариационной матрицы: Векторы u и z образуют собственные векторы (ну, собственные оси). Это имеет смысл. Но меня смущает то, что мы извлекаем собственные векторы из корреляционной матрицы, а не необработанные данные. Кроме того, исходные наборы данных, которые весьма различны, …

1
В документе упоминается «моделирование по методу Монте-Карло для определения количества основных компонентов»; как это работает?
Я делаю анализ Matlab на данных МРТ, где я выполнил PCA на матрице размером 10304x236, где 10304 - это количество вокселей (представьте их как пиксели), а 236 - количество временных точек. PCA дает мне 236 собственных значений и связанных с ними коэффициентов. Это все хорошо. Однако, когда приходит время решить, …

2
Почему я не могу получить действительный SVD X через разложение по собственным значениям XX 'и X'X?
Я пытаюсь сделать SVD вручную: m<-matrix(c(1,0,1,2,1,1,1,0,0),byrow=TRUE,nrow=3) U=eigen(m%*%t(m))$vector V=eigen(t(m)%*%m)$vector D=sqrt(diag(eigen(m%*%t(m))$values)) U1=svd(m)$u V1=svd(m)$v D1=diag(svd(m)$d) U1%*%D1%*%t(V1) U%*%D%*%t(V) Но последняя строка не возвращается mобратно. Почему? Кажется, что-то связано с признаками этих собственных векторов ... Или я неправильно понял процедуру?
9 r  svd  eigenvalues 

2
Почему величина дисперсии, описанная моим первым компьютером, так близка к средней попарной корреляции?
Какова связь между первым основным компонентом (ами) и средней корреляцией в матрице корреляции? Например, в эмпирическом приложении я наблюдаю, что средняя корреляция почти совпадает с отношением дисперсии первого главного компонента (первого собственного значения) к общей дисперсии (сумме всех собственных значений). Есть математические отношения? Ниже приведена таблица эмпирических результатов. Где корреляция …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.