Вопросы с тегом «linear-algebra»

Область математики связана с изучением конечномерных векторных пространств, включая матрицы и их манипуляции, которые важны в статистике.

3
Почему матричной нормой по умолчанию является спектральная норма, а не норма Фробениуса?
Для векторной нормы L2-норма или «евклидово расстояние» является широко используемым и интуитивным определением. Но почему определение «наиболее используемой» или «стандартной» для матрицы является спектральной нормой , а не нормой Фробениуса (которая аналогична норме L2 для векторов)? Имеет ли это какое-то отношение к итерационным алгоритмам / степеням матрицы (если спектральный радиус …

1
Обновление декомпозиции SVD после добавления одной новой строки в матрицу
Предположим , что у меня плотную матрицу AA \textbf{A} из m×nm×nm \times n размера, с SVD разложения A=USV⊤.A=USV⊤.\mathbf{A}=\mathbf{USV}^\top.В Rможно вычислить СВД следующим образом : svd(A). Если в добавлена новая -я строка , можно ли вычислить новую декомпозицию SVD на основе старой (т. Е. Используя , и ), без пересчета СВД …

2
Почему ранг ковариационной матрицы не более
Как указано в этом вопросе, максимальный ранг ковариационной матрицы равен n−1n−1n-1 где nnn - размер выборки, поэтому, если размер ковариационной матрицы равен размеру выборки, он будет единственным. Я не могу понять, почему мы вычитаем 111 из максимального ранга nnn ковариационной матрицы.

1
Что означают стрелки в биплоте PCA?
Рассмотрим следующий биплот PCA: library(mvtnorm) set.seed(1) x <- rmvnorm(2000, rep(0, 6), diag(c(5, rep(1,5)))) x <- scale(x, center=T, scale=F) pc <- princomp(x) biplot(pc) Есть куча красных стрелок, что они означают? Я знал, что первая стрелка, помеченная «Var1», должна указывать самое изменяющееся направление набора данных (если мы считаем их 2000 точками данных, …
14 r  pca  linear-algebra  biplot 

1
Как NumPy решает наименьшие квадраты для недоопределенных систем?
Скажем, у нас есть X формы (2, 5) и y формы (2,) Это работает: np.linalg.lstsq(X, y) Мы ожидаем, что это сработает, только если X имеет форму (N, 5), где N> = 5. Но почему и как? Мы получаем 5 весов, как и ожидалось, но как решить эту проблему? Разве у …

1
Пакет GBM против Карет с использованием GBM
Я занимался настройкой модели caret, но затем перезапустил модель, используя gbmпакет. Насколько я понимаю, caretпакет использует gbmи вывод должен быть одинаковым. Тем не менее, только быстрый запуск теста data(iris)показывает несоответствие в модели около 5% с использованием RMSE и R ^ 2 в качестве метрики оценки. Я хочу найти оптимальную производительность …

2
Является ли ожидание таким же, как среднее?
Я делаю ML в моем университете, и профессор упомянул термин «ожидание» (E), в то время как он пытался объяснить нам некоторые вещи о гауссовских процессах. Но по тому, как он это объяснил, я понял, что E - это то же самое, что и среднее значение μ. Я правильно понял? Если …

2
Инкрементная Гауссова регрессия процесса
Я хочу реализовать постепенную гауссовскую регрессию процесса, используя скользящее окно над точками данных, которое приходит один за другим через поток. Пусть обозначает размерность входного пространства. Итак, каждая точка данных имеет количество элементов.dddxixix_iddd Пусть будет размером скользящего окна.nnn Чтобы делать предсказания, мне нужно вычислить обратную матрицу грамм , где а k …

4
Строго говоря, «случайная проекция» не является проекцией?
Текущие реализации алгоритма случайного Проекционного уменьшить размерность выборок данных путем сопоставления их с к с использованием проекции матрицы , элементы которой являются IID из подходящего распределения (например , из ):рdRd\mathbb R^dRkRk\mathbb R^kd×kd×kd\times kRRRN(0,1)N(0,1)\mathcal N(0,1) x′=1k√xRx′=1kxRx^\prime = \frac{1}{\sqrt k}xR Удобно, что существуют теоретические доказательства, показывающие, что это отображение приблизительно сохраняет попарные …

1
Каково значение двойных столбцов и 2 внизу в обычных наименьших квадратах?
Я видел это обозначение для обычных наименьших квадратов здесь . минвес∥ Xж - у∥22minw‖Xw−y‖22 \min_w \left\| Xw - y \right\|^2_2 Я никогда не видел двойных баров и 2 внизу. Что означают эти символы? У них есть определенная терминология для них?

1
Как получить «собственные значения» (проценты объясненной дисперсии) векторов, которые не являются собственными векторами PCA?
Я хотел бы понять, как я могу получить процент дисперсии набора данных не в координатном пространстве, предоставленном PCA, а по отношению к немного другому набору (повернутых) векторов. set.seed(1234) xx <- rnorm(1000) yy <- xx * 0.5 + rnorm(1000, sd = 0.6) vecs <- cbind(xx, yy) plot(vecs, xlim = c(-4, 4), …

2
Подходящая мера для поиска наименьшей ковариационной матрицы
В учебнике, который я читаю, они используют положительную определенность (полуположительную определенность) для сравнения двух ковариационных матриц. Идея заключается в том , что если имеет полидисперсность , то меньше , чем . Но я изо всех сил пытаюсь получить интуицию этих отношений?A−BA−BA-BBBBAAA Здесь есть похожая тема: /math/239166/what-is-the-intuition-for-using-definiteness-to-compare-matrices Какова интуиция для использования …

1
R линейная регрессия категориальной переменной «скрытое» значение
Это всего лишь пример, с которым я сталкивался несколько раз, поэтому у меня нет примеров данных. Запуск модели линейной регрессии в R: a.lm = lm(Y ~ x1 + x2) x1является непрерывной переменной x2является категориальным и имеет три значения, например, «Низкий», «Средний» и «Высокий». Однако вывод, заданный R, будет выглядеть примерно …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

2
Как изменяется косинусное сходство после линейного преобразования?
Есть ли математическая связь между: косинусное сходство двух векторов и , иA Bsim(A,B)sim⁡(A,B)\operatorname{sim}(A, B)AAABBB косинусное сходство для и , неравномерно масштабированное с помощью заданной матрицы ? Здесь - заданная диагональная матрица с неравными элементами на диагонали.A Bsim(MA,MB)sim⁡(MA,MB)\operatorname{sim}(MA, MB)AAABBBМMMMMMM Я попытался просмотреть вычисления, но не смог найти простую / интересную ссылку …

1
инвариантность корреляции к линейному преобразованию:
Это на самом деле является одной из проблем в 4-й редакции «Базовой эконометрики» Гуджарати (Q3.11), в которой говорится, что коэффициент корреляции инвариантен относительно изменения происхождения и масштаба, то есть где , , , - произвольные постоянные.corr(aX+b,cY+d)=corr(X,Y)corr(aX+b,cY+d)=corr(X,Y)\text{corr}(aX+b, cY+d) = \text{corr}(X,Y)aaabbbcccddd Но мой главный вопрос заключается в следующем: пусть и являются парными …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.