Вопросы с тегом «matrix-decomposition»

Разложение матрицы относится к процессу факторизации матрицы в продукт меньших матриц. Разложив большую матрицу, можно эффективно выполнить множество матричных алгоритмов.

1
Уменьшение размерности (SVD или PCA) на большой разреженной матрице
/ edit: далее следите, теперь вы можете использовать irlba :: prcomp_irlba / edit: следите за своим собственным постом. irlbaтеперь имеет аргументы "center" и "scale", которые позволяют использовать его для вычисления основных компонентов, например: pc <- M %*% irlba(M, nv=5, nu=0, center=colMeans(M), right_only=TRUE)$v У меня есть большой набор Matrixфункций, которые я …

1
Какая норма ошибки восстановления минимизируется матрицей аппроксимации низкого ранга, полученной с помощью PCA?
Учитывая приближение PCA (или SVD) матрицы с матрицей , мы знаем , что является лучшим низкоразрядным приближением .XXXX^X^\hat XX^X^\hat XXXX Это в соответствии с индуцированной нормой∥⋅∥2∥⋅∥2\parallel \cdot \parallel_2 (т. Е. Самой большой нормой собственных значений) или в соответствии с нормой Фробениуса ?∥⋅∥F∥⋅∥F\parallel \cdot \parallel_F

2
Почему PCA данных с помощью SVD данных?
Этот вопрос касается эффективного способа вычисления основных компонентов. Многие тексты по линейному PCA рекомендуют использовать разложение по регистру данных по сингулярным значениям . То есть, если у нас есть данные и мы хотим заменить переменные (их столбцы ) на главные компоненты, мы делаем SVD: , особые значения (квадратные корни из …

1
Эффективный расчет обратной матрицы в R
Мне нужно рассчитать обратную матрицу и использовать solveфункцию. Хотя он хорошо работает на маленьких матрицах, он solveимеет тенденцию быть очень медленным на больших матрицах. Мне было интересно, есть ли какая-либо другая функция или комбинация функций (через SVD, QR, LU или другие функции разложения), которые могут дать мне более быстрые результаты.

5
Основные статьи о матричных разложениях
Недавно я прочитал книгу Скилликорна о разложении матриц, и был немного разочарован, поскольку она была нацелена на студенческую аудиторию. Я хотел бы составить (для себя и других) краткую библиографию основных работ (обзоров, но также прорывных работ) по разложению матриц. Я имею в виду, прежде всего, что-то о SVD / PCA …

1
Обновление декомпозиции SVD после добавления одной новой строки в матрицу
Предположим , что у меня плотную матрицу AA \textbf{A} из m×nm×nm \times n размера, с SVD разложения A=USV⊤.A=USV⊤.\mathbf{A}=\mathbf{USV}^\top.В Rможно вычислить СВД следующим образом : svd(A). Если в добавлена новая -я строка , можно ли вычислить новую декомпозицию SVD на основе старой (т. Е. Используя , и ), без пересчета СВД …

1
Собственные функции матрицы смежности временного ряда?
Рассмотрим простой временной ряд: > tp <- seq_len(10) > tp [1] 1 2 3 4 5 6 7 8 9 10 мы можем вычислить матрицу смежности для этого временного ряда, представляющего временные связи между выборками. При вычислении этой матрицы мы добавляем воображаемый сайт в момент времени 0, а связь между …

2
Как построить эллипс из собственных значений и собственных векторов в R? [закрыто]
Закрыто. Этот вопрос не по теме . В настоящее время он не принимает ответы. Хотите улучшить этот вопрос? Обновите вопрос, чтобы он соответствовал теме перекрестной проверки. Закрыто 2 года назад . Может ли кто-нибудь придумать R- код для построения эллипса из собственных значений и собственных векторов следующей матрицы А = …

3
Как выбрать оптимальное количество скрытых факторов при неотрицательной матричной факторизации?
Принимая во внимание матрицы Vm×nVm×n\mathbf V^{m \times n} , неотрицательная матрица Факторизация (ФС) находит две неотрицательных матрицы Wm×kWm×k\mathbf W^{m \times k} и Hk×nHk×n\mathbf H^{k \times n} (то есть со всеми элементами ≥0≥0\ge 0 ) , чтобы представить разложившуюся матрицу , как: V≈WH,V≈WH,\mathbf V \approx \mathbf W\mathbf H, например, требуя , …

1
Современное состояние совместной фильтрации
Я работаю над проектом для совместной фильтрации (CF), т.е. завершаю частично наблюдаемую матрицу или, в более общем случае, тензор. Я новичок в этой области, и для этого проекта, в конце концов, мне нужно сравнить наш метод с другими известными, которые в настоящее время сравнивают предложенные методы с ними, а именно, …

1
Объясните, как `eigen` помогает инвертировать матрицу
Мой вопрос относится к вычислительной технике, используемой в geoR:::.negloglik.GRFили geoR:::solve.geoR. В линейной смешанной модели: Y=Xβ+Zb+eY=Xβ+Zb+e Y=X\beta+Zb+e где ββ\beta и bbb - фиксированные и случайные эффекты соответственно. Также Σ=cov(Y)Σ=cov(Y)\Sigma=\text{cov}(Y) При оценке последствий, необходимо , чтобы вычислить , которые обычно можно сделать , используя что - то вроде , но иногда ( …

1
R / mgcv: Почему тензорные продукты te () и ti () производят разные поверхности?
mgcvПакет Rимеет две функции для установки взаимодействия Тензор продукта: te()и ti(). Я понимаю основное разделение труда между ними (подгонка нелинейного взаимодействия против разложения этого взаимодействия на основные эффекты и взаимодействие). Чего я не понимаю, так это почему te(x1, x2)и ti(x1) + ti(x2) + ti(x1, x2)может дать (немного) разные результаты. MWE …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

1
Почему неотрицательность важна для систем совместной фильтрации / рекомендации?
Во всех современных рекомендательных системах, которые я видел, которые основаны на факторизации матрицы, неотрицательная матричная факторизация выполняется для матрицы фильма пользователя. Я могу понять, почему неотрицательность важна для интерпретируемости и / или если вам нужны редкие факторы. Но если вас интересует только прогнозирование, как, например, в конкурсе на призы netflix, …

1
Быстрое вычисление / оценка линейной системы низкого ранга
Линейные системы уравнений распространены в вычислительной статистике. Одна особая система, с которой я столкнулся (например, в факторном анализе), это система A x = bAx=bAx=b где Здесь D - диагональная матрица n × n со строго положительной диагональю, Ω - симметричная положительная полуопределенная матрица m × m (с m ≪ n …

2
Совместная фильтрация через матричную факторизацию с функцией логистических потерь
Рассмотрим проблему совместной фильтрации. У нас есть матрица размера #users * #items. если пользователь i любит элемент j, если пользователь i не любит элемент j иесли нет данных о (i, j) паре. Мы хотим предсказать для будущего пользователя, пары предметов.MMMMя , дж= 1Mя,Jзнак равно1M_{i,j} = 1Mя , дж= 0Mя,Jзнак равно0M_{i,j} …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.