Вопросы с тегом «linear-algebra»

Область математики связана с изучением конечномерных векторных пространств, включая матрицы и их манипуляции, которые важны в статистике.

9
Почему внезапное увлечение тензорами?
Недавно я заметил, что многие люди разрабатывают тензорные эквиваленты многих методов (тензорная факторизация, тензорные ядра, тензоры для тематического моделирования и т. Д.). Мне интересно, почему мир внезапно очарован тензорами? Существуют ли недавние документы / стандартные результаты, которые особенно удивляют, которые привели к этому? Это в вычислительном отношении намного дешевле, чем …

9
Справочник по линейной алгебре применительно к статистике?
Я немного работал в R и сталкивался с такими вещами, как PCA, SVD, QR-разложения и многими такими результатами линейной алгебры (при проверке оценки взвешенных регрессий и т. Д.), Поэтому я хотел знать, есть ли у кого-нибудь рекомендации относительно хорошего всеобъемлющая книга по линейной алгебре, которая не слишком теоретическая, но математически …

5
Каково интуитивное объяснение того, как PCA превращается из геометрической задачи (с расстояниями) в задачу линейной алгебры (с собственными векторами)?
Я много читал о PCA, включая различные учебники и вопросы (такие как этот , этот , этот и этот ). Геометрическая проблема, которую пытается оптимизировать PCA, мне ясна: PCA пытается найти первый главный компонент, сводя к минимуму ошибку реконструкции (проекции), которая одновременно максимизирует дисперсию проецируемых данных. Когда я впервые прочитал …

3
Какая интуиция стоит за СВД?
Я читал о разложении сингулярных значений (SVD). Почти во всех учебниках упоминается, что она разбивает матрицу на три матрицы с заданной спецификацией. Но какова интуиция, лежащая в основе разделения матрицы в такой форме? PCA и другие алгоритмы уменьшения размерности интуитивно понятны в том смысле, что алгоритм обладает хорошим свойством визуализации, …


3
Почему инверсия ковариационной матрицы дает частичные корреляции между случайными величинами?
Я слышал, что частичные корреляции между случайными переменными можно найти, инвертировав ковариационную матрицу и взяв соответствующие ячейки из такой результирующей матрицы точности (этот факт упоминается в http://en.wikipedia.org/wiki/Partial_correlation , но без доказательства) , Почему это так?

3
Почему ковариационная матрица выборки является единственной, если размер выборки меньше числа переменных?
Допустим, у меня есть ppp мерное многомерное распределение Гаусса. И я беру nnn наблюдения (каждый из них ppp -векторных) от этого распределения и вычислить образец ковариационной матрицы SSS . В этой статье авторы утверждают, что выборочная ковариационная матрица, рассчитанная при p>np>np > n является сингулярной. Как это правда или выведено? …

4
Почему Эндрю Нг предпочитает использовать SVD, а не EIG ковариационной матрицы для PCA?
Я изучаю PCA из курса Coursera Эндрю Нг и других материалов. В первом задании Stanford NLP cs224n и в видео лекции Эндрю Нг они проводят разложение по сингулярным значениям вместо разложения по ковариационной матрице по собственным векторам, и Нг даже говорит, что SVD численно более устойчив, чем собственное разложение. Насколько …

3
Распределение скалярных произведений двух случайных единичных векторов в измерениях
Если и являются двумя независимыми случайными единичными векторами в (равномерно распределенными по единичной сфере), каково распределение их скалярного произведения (точечного произведения) ?xx\mathbf{x}yy\mathbf{y}RDRD\mathbb{R}^Dx⋅yx⋅y\mathbf x \cdot \mathbf y Я думаю, что по мере роста распределение быстро (?) Становится нормальным с нулевым средним и уменьшением дисперсии в более высоких измерениях но существует ли …

3
Странные корреляции в результатах SVD случайных данных; у них есть математическое объяснение или это ошибка LAPACK?
Я наблюдаю очень странное поведение в результате SVD случайных данных, которое я могу воспроизвести как в Matlab, так и в R. Это похоже на некоторую числовую проблему в библиотеке LAPACK; это? Я рисую выборок из мерного гауссиана с нулевым средним и единичной ковариацией: . Я собрать их в данных матрица …

7
Почему симметричные матрицы с положительным определением (SPD) так важны?
Я знаю определение симметричной положительно определенной (SPD) матрицы, но хочу понять больше. Почему они так важны, интуитивно понятно? Вот что я знаю. Что еще? Для заданных данных матрица Co-дисперсии является SPD. Ковариационная матрица является важной метрикой, см. Этот превосходный пост для интуитивного объяснения. Квадратичная форма является выпуклой, если SPD. Выпуклость …

1
Геометрическое понимание СПС в предметном (двойственном) пространстве
Я пытаюсь получить интуитивное понимание того, как анализ главных компонентов (PCA) работает в предметном (двойном) пространстве . Рассмотрим двумерный набор данных с двумя переменными, x1x1x_1 и x2x2x_2 , и nnn точками данных (матрица данных XX\mathbf X имеет n×2n×2n\times 2 и предполагается, что она центрирована). Обычное представление PCA состоит в том, …

1
Как отбелить данные с помощью анализа основных компонентов?
Я хочу преобразовать свои данные так, чтобы отклонения были равны единице, а ковариации были равны нулю (т.е. я хочу отбелить данные). Кроме того, средства должны быть нулевыми.XX\mathbf X Я знаю, что доберусь туда, выполнив Z-стандартизацию и PCA-преобразование, но в каком порядке я должен их делать? Следует добавить, что составное отбеливающее …

2
Почему информационная матрица Фишера является положительной полуопределенной?
Пусть . Информационная матрица Фишера определяется как:θ∈Rnθ∈Rn\theta \in R^{n} I(θ)i,j=−E[∂2log(f(X|θ))∂θi∂θj∣∣∣θ]I(θ)i,j=−E[∂2log⁡(f(X|θ))∂θi∂θj|θ]I(\theta)_{i,j} = -E\left[\frac{\partial^{2} \log(f(X|\theta))}{\partial \theta_{i} \partial \theta_{j}}\bigg|\theta\right] Как я могу доказать, что информационная матрица Фишера является положительной полуопределенной?

1
Многомерный нормальный задний
Это очень простой вопрос, но я не могу найти вывод ни в Интернете, ни в книге. Я хотел бы увидеть, как один байесовский обновляет многомерное нормальное распределение. Например: представьте, что P(x|μ,Σ)P(μ)==N(μ,Σ)N(μ0,Σ0).P(x|μ,Σ)=N(μ,Σ)P(μ)=N(μ0,Σ0). \begin{array}{rcl} \mathbb{P}({\bf x}|{\bf μ},{\bf Σ}) & = & N({\bf \mu}, {\bf \Sigma}) \\ \mathbb{P}({\bf \mu}) &= & N({\bf \mu_0}, …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.