Вопросы с тегом «multivariate-analysis»

Анализирует, когда одновременно анализируется более одной переменной, и эти переменные являются либо зависимыми (ответными), либо единственными в анализе. Это можно сравнить с «множественным» или «многовариантным» анализом, который подразумевает более одной (независимой) предикторной переменной.

3
Какой тест я могу использовать для сравнения уклонов двух или более регрессионных моделей?
Я хотел бы проверить разницу в ответе двух переменных на один предиктор. Вот минимальный воспроизводимый пример. library(nlme) ## gls is used in the application; lm would suffice for this example m.set <- gls(Sepal.Length ~ Petal.Width, data = iris, subset = Species == "setosa") m.vir <- gls(Sepal.Length ~ Petal.Width, data = …

6
Процедура выбора переменной для двоичной классификации
Какие переменные / характеристики вы предпочитаете для бинарной классификации, когда в наборе обучения гораздо больше переменных / функций, чем наблюдений? Цель здесь состоит в том, чтобы обсудить, какова процедура выбора признаков, которая наилучшим образом уменьшает ошибку классификации. Мы можем зафиксировать обозначения для согласованности: для пусть { x i 1 , …

5
Измерение «расстояния» между двумя многомерными распределениями
Я ищу хорошую терминологию для описания того, что я пытаюсь сделать, чтобы упростить поиск ресурсов. Итак, скажем, у меня есть две группы точек A и B, каждая из которых связана с двумя значениями, X и Y, и я хочу измерить «расстояние» между A и B - то есть, насколько вероятно, …

1
Могут ли степени свободы быть нецелым числом?
Когда я использую GAM, он дает мне остаточный DF, (последняя строка в коде). Что это значит? Выходя за рамки примера GAM, в общем, может ли число степеней свободы быть нецелым числом?26,626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

11
Книга рекомендаций для многомерного анализа
Я заинтересован в том, чтобы получить несколько книг о многомерном анализе, и мне нужны ваши рекомендации. Бесплатные книги всегда приветствуются, но если вы знаете о какой-то замечательной несвободной книге MVA, пожалуйста, укажите это.

4
Для чего нужны переменные рейтинги важности?
Я стал чем-то вроде нигилистов, когда дело доходит до переменных уровней ранжирования (в контексте многомерных моделей всех видов). Часто в ходе моей работы меня просят либо помочь другой команде составить рейтинг с переменной степенью важности, либо создать рейтинг с переменной степенью важности из моей собственной работы. В ответ на эти …

2
Распределение наблюдательного уровня по расстоянию Махаланобиса
Если у меня есть многовариантный нормальный пример iid , и я определяю (что-то вроде расстояния Махаланобиса [в квадрате] от точки выборки до вектора с использованием матрицы для взвешивания), каково распределение (расстояние Махаланобиса до среднее значение с использованием выборочной ковариационной матрицы )?d 2 i ( b , A ) = ( …

2
Случайные леса для многомерной регрессии
У меня проблема регрессии с несколькими выходами с входными функциями и выходными . Выходы имеют сложную нелинейную корреляционную структуру.dxdxd_xdydyd_y Я хотел бы использовать случайные леса, чтобы сделать регрессию. Насколько я могу судить, случайные леса для регрессии работают только с одним выходом, поэтому мне пришлось бы тренировать случайные леса - по …

2
Что такое «регрессия пониженного ранга»?
Я читал «Элементы статистического обучения» и не мог понять, что такое раздел 3.7 «Сжатие и выбор нескольких результатов». В нем говорится о RRR (регрессии пониженного ранга), и я могу только понять, что предпосылка заключается в обобщенной многомерной линейной модели, в которой коэффициенты неизвестны (и должны оцениваться), но известно, что они …

3
Что говорит о моих данных неположительно определенная ковариационная матрица?
У меня есть несколько многовариантных наблюдений, и я хотел бы оценить плотность вероятности по всем переменным. Предполагается, что данные нормально распределены. При небольших количествах переменных все работает так, как я ожидал, но переход к большим числам приводит к тому, что ковариационная матрица становится не положительно определенной. Я уменьшил проблему в …

4
Сводка результатов «Большой p, маленький n»
Кто-нибудь может указать мне на обзорную статью о «Большой , Малый » результаты? Меня интересует, как эта проблема проявляется в различных исследовательских контекстах, например, регрессии, классификации, тесте Хотеллинга и т . Д.ппpNNn

2
Что в названии: Точность (обратная дисперсия)
Интуитивно понятно, что среднее - это просто среднее из наблюдений. Разница заключается в том, насколько эти наблюдения отличаются от среднего значения. Я хотел бы знать, почему обратная дисперсия называется точностью. Какую интуицию мы можем извлечь из этого? И почему матрица точности так же полезна, как ковариационная матрица в многомерном (нормальном) …

3
Как выполнить изометрическое логарифмическое преобразование
У меня есть данные о поведении при движении (время, проведенное во сне, сидячий образ жизни и выполнение физических упражнений), которое составляет приблизительно 24 (как в часах в день). Я хочу создать переменную, которая фиксирует относительное время, затрачиваемое на каждое из этих поведений, - мне сказали, что изометрическое преобразование логарифмического соотношения …

1
Построение распределения Дирихле с гамма-распределением
Пусть X1,…,Xk+1X1,…,Xk+1X_1,\dots,X_{k+1} - взаимно независимые случайные величины, каждая из которых имеет гамма-распределение с параметрами αi,i=1,2,…,k+1αi,i=1,2,…,k+1\alpha_i,i=1,2,\dots,k+1 показывают, что Yi=XiX1+⋯+Xk+1,i=1,…,kYi=XiX1+⋯+Xk+1,i=1,…,kY_i=\frac{X_i}{X_1+\cdots+X_{k+1}},i=1,\dots,k, имеют совместное распределение какDirichlet(α1,α2,…,αk;αk+1)Dirichlet(α1,α2,…,αk;αk+1)\text{Dirichlet}(\alpha_1,\alpha_2,\dots,\alpha_k;\alpha_{k+1}) Объединенный pdf из (X1,…,Xk+1)=e−∑k+1i=1xixα1−11…xαk+1−1k+1Γ(α1)Γ(α2)…Γ(αk+1)(X1,…,Xk+1)=e−∑i=1k+1xix1α1−1…xk+1αk+1−1Γ(α1)Γ(α2)…Γ(αk+1)(X_1,\dots,X_{k+1})=\frac{e^{-\sum_{i=1}^{k+1}x_i}x_1^{\alpha_1-1}\dots x_{k+1}^{\alpha_{k+1}-1}}{\Gamma(\alpha_1)\Gamma(\alpha_2)\dots \Gamma(\alpha_{k+1})} Затем, чтобы найти совместную pdf из(Y1,…,Yk+1)(Y1,…,Yk+1)(Y_1,\dots,Y_{k+1})я не могу найти якобиан, т. Е.J(x1,…,xk+1y1,…,yk+1)J(x1,…,xk+1y1,…,yk+1)J(\frac{x_1,\dots,x_{k+1}}{y_1,\dots,y_{k+1}})

2
классификация переменной превращает ее из незначительной в значительную
У меня есть числовая переменная, которая оказывается несущественной в многомерной модели логистической регрессии. Однако, когда я делю это на группы, это внезапно становится значительным. Это очень нелогично для меня: при категоризации переменной мы отказываемся от некоторой информации. Как это может быть?

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.