Вопросы с тегом «weighted-regression»

Взвешенная регрессия наименьших квадратов - это обобщение регрессии OLS, используемой, когда разные точки данных имеют разную важность или «веса». См. Также [взвешенные данные].

9
Справочник по линейной алгебре применительно к статистике?
Я немного работал в R и сталкивался с такими вещами, как PCA, SVD, QR-разложения и многими такими результатами линейной алгебры (при проверке оценки взвешенных регрессий и т. Д.), Поэтому я хотел знать, есть ли у кого-нибудь рекомендации относительно хорошего всеобъемлющая книга по линейной алгебре, которая не слишком теоретическая, но математически …

2
Как вы находите веса для регрессии взвешенных наименьших квадратов?
Я немного потерян в процессе регрессии WLS. Мне дали набор данных, и моя задача состоит в том, чтобы проверить, есть ли гетероскедентность, и если да, я должен запустить регрессию WLS. Я провел тест и нашел доказательства гетероскедентности, поэтому мне нужно запустить WLS. Мне сказали, что WLS - это в основном …

1
Какова интуиция за сменными образцами при нулевой гипотезе?
Тесты перестановки (также называемые тестом рандомизации, тестом повторной рандомизации или точным тестом) очень полезны и оказываются полезными, когда предположение о нормальном распределении, требуемое, например, t-testне выполняется, и когда преобразование значений путем ранжирования непараметрическое тестирование, как, Mann-Whitney-U-testможет привести к потере большего количества информации. Тем не менее, одно и только одно предположение …
15 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 

2
R: функция glm со спецификацией family = «binomial» и «weight»
Меня очень смущает то, как вес работает в glm с family = "binomial". В моем понимании вероятность появления glm с family = "binomial" определяется следующим образом: где - «доля наблюдаемого успеха», а n - известное количество испытаний.е( у) = ( пп у) рп у( 1 - р )n ( 1 …

1
Соотношения в регрессии, ака Вопросы о Кронмале
В последнее время вопросы случайного просмотра вызвали у меня воспоминания о том, что один из моих профессоров несколько лет назад предупреждал об использовании коэффициентов в регрессионных моделях. Так что я начал читать об этом, что привело к Кронмал 1993 года. Я хочу убедиться, что я правильно интерпретирую его предложения о …

2
Гармоническое среднее минимизирует сумму квадратов относительных ошибок
Я ищу ссылку, где доказано, что гармоническое среднее x¯h=n∑ni=11xix¯h=n∑i=1n1xi\bar{x}^h = \frac{n}{\sum_{i=1}^n \frac{1}{x_i}} минимизирует (в zzz ) сумму квадратов относительных ошибок ∑i=1n((xi−z)2xi).∑i=1n((xi−z)2xi).\sum_{i=1}^n \left( \frac{(x_i - z)^2}{x_i}\right).

5
Как выполнить вменение значений в очень большом количестве точек данных?
У меня очень большой набор данных и около 5% случайных значений отсутствуют. Эти переменные связаны друг с другом. В следующем примере набор данных R - просто игрушечный пример с фиктивными коррелированными данными. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), ncol = 10000) colnames(xmat) <- …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 

2
Теория весового аргумента в R при использовании lm ()
После года, проведенного в аспирантуре, мое понимание «взвешенных наименьших квадратов» таково: пусть , будет некоторой матрицей проектирования, \ boldsymbol \ beta \ in \ mathbb {R} ^ p - вектор параметров, \ boldsymbol \ epsilon \ in \ mathbb {R} ^ n - вектор ошибок, такой что \ boldsymbol \ …

1
Интуитивно понятное объяснение обратной вероятности веса лечения (IPTWs) в оценке веса склонности?
Я понимаю механизм вычисления весов, используя оценки склонности : а затем применяют веса в регрессионном анализе, и эти веса служат для «контролировать» или разъединять эффекты ковариат в группах лечения и контрольной группы с переменной результата.w i , j = t r e a tp(xi)p(xi)p(x_i)wi,j=treatwi,j=control=1p(xi)=11−p(xi)wi,j=treat=1p(xi)wi,j=control=11−p(xi)\begin{align} w_{i, j={\rm treat}} &= \frac{1}{p(x_i)} \\[5pt] …

3
Взвешенная обобщенная регрессия в BUGS, JAGS
В R«предварительном весе» мы можем glmрегрессировать через параметр весов . Например: glm.D93 <- glm(counts ~ outcome + treatment, family = poisson(), weights=w) Как это можно сделать в JAGSили BUGSмодели? Я нашел некоторые документы, обсуждающие это, но ни один из них не дает пример. Меня интересуют в основном примеры Пуассона и …

1
Определение весов наименьших квадратов: функция R lm против
Может кто-нибудь сказать мне, почему я получаю разные результаты от Rвзвешенных наименьших квадратов и ручного решения с помощью матричной операции ? В частности, я пытаюсь вручную решить , где - диагональная матрица весов, - матрица данных, - ответ вектор. W A bWAx=WbWAx=Wb\mathbf W \mathbf A\mathbf x=\mathbf W \mathbf bWW\mathbf WAA\mathbf …

2
Добавление весов для сильно искаженных наборов данных в логистической регрессии
Я использую стандартную версию логистической регрессии для подгонки моих входных переменных к двоичным выходным переменным. Однако в моей задаче отрицательные выходы (0 с) намного превосходят положительные (1 с). Соотношение составляет 20: 1. Поэтому, когда я обучаю классификатор, кажется, что даже функции, которые настоятельно предполагают возможность положительного результата, все еще имеют …
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.