Вопросы с тегом «covariance-matrix»

k×k матрица ковариаций между всеми парами kслучайные переменные. Она также называется дисперсионно-ковариационной матрицей или просто ковариационной матрицей.

3
Дисперсионно-ковариационная матрица ошибок в линейной регрессии
Как на практике вычисляется матрица ошибок var / cov с помощью пакетов статистического анализа? Эта идея понятна мне в теории. Но не на практике. Я имею в виду, что если у меня есть вектор случайных величин , я понимаю, что матрице дисперсии / ковариации Σ будет дан внешний продукт отклонения …

1
Что делать, если выборочная ковариационная матрица не обратима?
Я работаю над некоторыми методами кластеризации, где для данного кластера векторов d-размерности я предполагаю многомерное нормальное распределение и вычисляю выборочный средний вектор d-размерности и выборочную ковариационную матрицу. Затем, пытаясь решить, принадлежит ли новый, невидимый, d-мерный вектор этому кластеру, я проверяю его расстояние с помощью этой меры: (Xi−μ^X)′σ^−1X(Xi−μ^X)>B0.95(p2,−p2)(Xi−μ^X)′σ^X−1(Xi−μ^X)>B0.95(p2,−p2)\left(X_i-\hat{\mu}_X\right)'\hat{\sigma}_X^{-1}\left(X_i-\hat{\mu}_X\right)>B_{0.95}\left(\frac{p}{2},\frac{-p}{2}\right) Что требует от …

1
Как проверить, не является ли кросс-ковариационная матрица ненулевой?
Предпосылки моего исследования : В выборках Гиббса , где мы образец (переменные интересы) и из и соответственно, где и являются - мерными случайными векторами. Мы знаем, что процесс обычно делится на два этапа:XXXYYYP(X|Y)P(X|Y)P(X|Y)P(Y|X)P(Y|X)P(Y|X)XXXYYYkkk Период выгорания, где мы отбрасываем все образцы. Обозначим образцы как и .X1∼XtX1∼XtX_1\sim X_tY1∼YtY1∼YtY_1\sim Y_t Период после прожигания, …

3
Как провести факторный анализ, если ковариационная матрица не является положительно определенной?
У меня есть набор данных, который состоит из 717 наблюдений (строк), которые описываются 33 переменными (столбцами). Данные стандартизируются путем z-оценки всех переменных. Нет двух переменных линейно зависимых ( ). Я также удалил все переменные с очень низкой дисперсией (менее ). На рисунке ниже показана соответствующая матрица корреляции (в абсолютных значениях).r=1r=1r=10.10.10.1 …

3
Измерение нелинейной зависимости
Ковариация между двумя случайными переменными определяет меру того, насколько тесно они линейно связаны друг с другом. Но что, если совместное распределение является циркулярным? Конечно, есть структура в распределении. Как эта структура извлекается?

3
Является ли каждая корреляционная матрица положительно определенной?
Я говорю здесь о матрицах корреляций Пирсона. Я часто слышал, что все корреляционные матрицы должны быть положительными полуопределенными. Насколько я понимаю, положительно определенные матрицы должны иметь собственные значения , в то время как положительные полуопределенные матрицы должны иметь собственные значения . Это заставляет меня думать, что мой вопрос можно перефразировать …

1
Почему все компоненты PLS вместе объясняют только часть дисперсии исходных данных?
У меня есть набор данных, состоящий из 10 переменных. Я запустил частичные наименьшие квадраты (PLS), чтобы предсказать одну переменную ответа по этим 10 переменным, извлек 10 компонентов PLS, а затем вычислил дисперсию каждого компонента. По исходным данным я взял сумму дисперсий всех переменных, которая составляет 702. Затем я разделил дисперсию …

1
Запутался в визуальном объяснении собственных векторов: как визуально разные наборы данных могут иметь одинаковые собственные векторы?
Многие учебники статистики предоставляют интуитивно понятную иллюстрацию того, каковы собственные векторы ковариационной матрицы: Векторы u и z образуют собственные векторы (ну, собственные оси). Это имеет смысл. Но меня смущает то, что мы извлекаем собственные векторы из корреляционной матрицы, а не необработанные данные. Кроме того, исходные наборы данных, которые весьма различны, …

2
Подходящая мера для поиска наименьшей ковариационной матрицы
В учебнике, который я читаю, они используют положительную определенность (полуположительную определенность) для сравнения двух ковариационных матриц. Идея заключается в том , что если имеет полидисперсность , то меньше , чем . Но я изо всех сил пытаюсь получить интуицию этих отношений?A−BA−BA-BBBBAAA Здесь есть похожая тема: /math/239166/what-is-the-intuition-for-using-definiteness-to-compare-matrices Какова интуиция для использования …

1
Почему Anova () и drop1 () предоставили разные ответы для GLMM?
У меня есть GLMM формы: lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) Когда я использую drop1(model, test="Chi"), я получаю другие результаты, чем если бы я использовал Anova(model, type="III")из пакета автомобиля или summary(model). Последние два дают одинаковые ответы. Используя кучу сфабрикованных данных, я обнаружил, …
10 r  anova  glmm  r  mixed-model  bootstrap  sample-size  cross-validation  roc  auc  sampling  stratification  random-allocation  logistic  stata  interpretation  proportion  r  regression  multiple-regression  linear-model  lm  r  cross-validation  cart  rpart  logistic  generalized-linear-model  econometrics  experiment-design  causality  instrumental-variables  random-allocation  predictive-models  data-mining  estimation  contingency-tables  epidemiology  standard-deviation  mean  ancova  psychology  statistical-significance  cross-validation  synthetic-data  poisson-distribution  negative-binomial  bioinformatics  sequence-analysis  distributions  binomial  classification  k-means  distance  unsupervised-learning  euclidean  correlation  chi-squared  spearman-rho  forecasting  excel  exponential-smoothing  binomial  sample-size  r  change-point  wilcoxon-signed-rank  ranks  clustering  matlab  covariance  covariance-matrix  normal-distribution  simulation  random-generation  bivariate  standardization  confounding  z-statistic  forecasting  arima  minitab  poisson-distribution  negative-binomial  poisson-regression  overdispersion  probability  self-study  markov-process  estimation  maximum-likelihood  classification  pca  group-differences  chi-squared  survival  missing-data  contingency-tables  anova  proportion 


2
Дисперсионно-ковариационная структура для случайных эффектов в lme4
Какова структура дисперсии-ковариации по умолчанию для случайных эффектов в glmerили lmerв lme4пакете? Как определить другую дисперсионно-ковариационную структуру для случайных эффектов в коде? Я не мог найти информацию об этом в lme4документации.

2
Как найти ковариационную матрицу многоугольника?
Представьте, что у вас есть многоугольник, определенный набором координат и его центр масс находится в . Вы можете рассматривать полигон как равномерное распределение с полигональной границей. (x1,y1)...(xn,yn)(x1,y1)...(xn,yn)(x_1,y_1)...(x_n,y_n)(0,0)(0,0)(0,0) Мне нужен метод, который найдет ковариационную матрицу многоугольника . Я подозреваю, что ковариационная матрица многоугольника тесно связана со вторым моментом площади , но …

3
Что делать с корреляцией случайных эффектов, равной 1 или -1?
Нередко случается, когда имеет дело со сложными максимальными смешанными моделями (оценка всех возможных случайных эффектов для данных и модели), это идеальная (+1 или -1) или почти идеальная корреляция между некоторыми случайными эффектами. В целях обсуждения давайте рассмотрим следующую модель и краткое изложение модели Model: Y ~ X*Cond + (X*Cond|subj) # …
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.