Вопросы с тегом «correlation»

Мера степени линейной ассоциации между парой переменных.

2
Когда ковариация расстояния менее подходит, чем линейная ковариация?
Я только что познакомился (смутно) с броуновской / дистанционной ковариацией / корреляцией . Это кажется особенно полезным во многих нелинейных ситуациях при тестировании на зависимость. Но это, кажется, не используется очень часто, хотя ковариация / корреляция часто используются для нелинейных / хаотических данных. Это заставляет меня думать, что у ковариации …

5
Пример сильного коэффициента корреляции с высоким значением p
Мне было интересно, возможно ли иметь очень сильный коэффициент корреляции (скажем, 0,9 или выше), с высоким значением р (скажем, 0,25 или выше)? Вот пример низкого коэффициента корреляции с высоким значением p: set.seed(10) y <- rnorm(100) x <- rnorm(100)+.1*y cor.test(x,y) кор = 0,03908927, р = 0,6994 Высокий коэффициент корреляции, низкое значение …

3
Коэффициент определения (
Я хочу полностью понять понятие описывающее количество вариаций между переменными. Каждое веб-объяснение немного механическое и тупое. Я хочу «получить» концепцию, а не просто механически использовать числа.р2р2r^2 Например: количество изученных часов и результаты теста ррr = 0,8 р2р2r^2 = .64 Итак, что это значит? 64% вариабельности результатов теста можно объяснить часами? …

1
Генерация коррелированных биномиальных случайных величин
Мне было интересно, возможно ли генерировать коррелированные случайные биномиальные переменные, следуя подходу линейного преобразования? Ниже я попробовал что-то простое в R, и оно дает некоторую корреляцию. Но мне было интересно, есть ли принципиальный способ сделать это? X1 = rbinom(1e4, 6, .5) ; X2 = rbinom(1e4, 6, .5) ; X3 = …

4
Как спроецировать новый вектор на пространство PCA?
После выполнения анализа главных компонентов (PCA) я хочу спроецировать новый вектор на пространство PCA (т.е. найти его координаты в системе координат PCA). Я рассчитал PCA на языке R, используя prcomp. Теперь я должен быть в состоянии умножить свой вектор на матрицу вращения PCA. Должны ли главные компоненты в этой матрице …
21 r  pca  r  variance  heteroscedasticity  misspecification  distributions  time-series  data-visualization  modeling  histogram  kolmogorov-smirnov  negative-binomial  likelihood-ratio  econometrics  panel-data  categorical-data  scales  survey  distributions  pdf  histogram  correlation  algorithms  r  gpu  parallel-computing  approximation  mean  median  references  sample-size  normality-assumption  central-limit-theorem  rule-of-thumb  confidence-interval  estimation  mixed-model  psychometrics  random-effects-model  hypothesis-testing  sample-size  dataset  large-data  regression  standard-deviation  variance  approximation  hypothesis-testing  variance  central-limit-theorem  kernel-trick  kernel-smoothing  error  sampling  hypothesis-testing  normality-assumption  philosophical  confidence-interval  modeling  model-selection  experiment-design  hypothesis-testing  statistical-significance  power  asymptotics  information-retrieval  anova  multiple-comparisons  ancova  classification  clustering  factor-analysis  psychometrics  r  sampling  expectation-maximization  markov-process  r  data-visualization  correlation  regression  statistical-significance  degrees-of-freedom  experiment-design  r  regression  curve-fitting  change-point  loess  machine-learning  classification  self-study  monte-carlo  markov-process  references  mathematical-statistics  data-visualization  python  cart  boosting  regression  classification  robust  cart  survey  binomial  psychometrics  likert  psychology  asymptotics  multinomial 

5
Каков интуитивный смысл наличия линейных отношений между логами двух переменных?
У меня есть две переменные, которые не показывают большой корреляции при построении графика друг против друга, как есть, но очень четкие линейные отношения, когда я строю журналы каждой переменной против другой. Таким образом, я бы в конечном итоге с моделью типа: log(Y)=alog(X)+blog⁡(Y)=alog⁡(X)+b\log(Y) = a \log(X) + b , что математически …

1
Связаны ли случайные переменные тогда и только тогда, когда их ранги коррелированы?
Предположим, что - непрерывные случайные величины с конечными вторыми моментами. Популяционная версия рангового коэффициента корреляции Спирмена ρ_s может быть определена как коэффициент произведения-момента Пирсона ρ для интегралов вероятности F_X (X) и F_Y (Y) , где F_X, F_Y - это cdf для X и Y , т.е.Икс, YX,YX,YF X (X) F …

2
Насколько устойчив коэффициент корреляции Пирсона к нарушениям нормальности?
Данные по определенным переменным типам имеют тенденцию быть ненормальными при измерении в определенных группах населения (например, уровни депрессии в группе людей с серьезным депрессивным расстройством). Учитывая, что Пирсона предполагает нормальность, насколько надежна статистика теста в условиях ненормальности? У меня есть ряд переменных, для которых я хотел бы получить коэффициенты корреляции, …

4
Усреднение значений корреляции
Допустим, я проверяю, как переменная Yзависит от переменной Xв различных экспериментальных условиях, и получаю следующий график: Штриховые линии на графике выше представляют линейную регрессию для каждого ряда данных (экспериментальная установка), а цифры в легенде обозначают корреляцию Пирсона для каждого ряда данных. Я хотел бы рассчитать «среднюю корреляцию» (или «среднюю корреляцию») …

4
Каковы правильные значения для точности и отзыва в крайних случаях?
Точность определяется как: p = true positives / (true positives + false positives) Является ли это исправить , что, как true positivesи false positivesподход 0, точность приближается к 1? Тот же вопрос для отзыва: r = true positives / (true positives + false negatives) В настоящее время я выполняю статистический …
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 

3
Можно ли интуитивно объяснить алгоритм MIC для обнаружения нелинейных корреляций?
Совсем недавно я прочитал две статьи. Первый - об истории корреляции, а второй - о новом методе, названном максимальным информационным коэффициентом (MIC). Мне нужна ваша помощь, чтобы понять метод MIC для оценки нелинейных корреляций между переменными. Более того, инструкции по его использованию в R можно найти на сайте автора (в …

4
Отношения между корреляцией и причинностью
На странице Википедии под названием корреляция не подразумевается причинно-следственная связь , Для любых двух коррелированных событий A и B различные возможные отношения включают в себя: А вызывает Б (прямая причинность); B вызывает A (обратная причина); А и В являются следствиями общего дела, но не вызывают друг друга; A и B …

5
Как использовать разложение Холецкого или альтернативу для моделирования коррелированных данных
Я использую разложение Холецкого для моделирования коррелированных случайных величин с учетом матрицы корреляции. Дело в том, что результат никогда не воспроизводит структуру корреляции так, как он задан. Вот небольшой пример на Python, чтобы проиллюстрировать ситуацию. import numpy as np n_obs = 10000 means = [1, 2, 3] sds = [1, …

3
Как работает формула для генерации коррелированных случайных величин?
Если у нас есть 2 нормальные некоррелированные случайные величины то мы можем создать 2 коррелированные случайные величины с формулойИкс1, X2X1,X2X_1, X_2 Y= ρ X1+ 1 - ρ2-----√Икс2Y=ρX1+1−ρ2X2Y=\rho X_1+ \sqrt{1-\rho^2} X_2 и тогда у будет корреляция с .ρ X 1YYYρρ\rhoИкс1X1X_1 Может кто-нибудь объяснить, откуда взялась эта формула?

3
Как я могу сгенерировать данные с помощью заранее определенной матрицы корреляции?
Я пытаюсь сгенерировать коррелированную случайную последовательность со средним значением = , дисперсией = , коэффициентом корреляции = . В приведенном ниже коде я использую & как стандартные отклонения, а & как средство.0001110.80.80.8s1s2m1m2 p = 0.8 u = randn(1, n) v = randn(1, n) x = s1 * u + m1 …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.