Вопросы с тегом «least-squares»

Относится к общей методике оценки, которая выбирает значение параметра для минимизации квадрата разности между двумя величинами, такими как наблюдаемое значение переменной и ожидаемое значение этого наблюдения, обусловленного значением параметра. Гауссовские линейные модели подгоняются по методу наименьших квадратов, а метод наименьших квадратов - это идея, лежащая в основе использования среднеквадратичной ошибки (MSE) в качестве способа оценки оценки.

2
Онлайн ссылки, дающие введение в OLS
Я начал изучать оценки наименьших квадратов (OLS) и все еще в самом начале. Я уже купил несколько книг по эконометрике, но я ничего не нашел в Интернете. Так что мне было интересно, существует ли веб-сайт, домашняя страница или другие онлайн-ресурсы, которые утомительно объясняют оценки наименьших квадратов. Я ищу материал, который …

3
Когда наименьшие квадраты будут плохой идеей?
Если у меня есть модель регрессии: где и ,Y= Хβ+ εY=Xβ+ε Y = X\beta + \varepsilon V [ε]=Id∈ Rn × nV[ε]=Id∈Rn×n\mathbb{V}[\varepsilon] = Id \in \mathcal{R} ^{n \times n}E [ε]=(0,…,0)E[ε]=(0,…,0)\mathbb{E}[\varepsilon]=(0, \ldots , 0) когда использование , обычного метода наименьших квадратов , будет плохим выбором для оценки?βМНКβOLS\beta_{\text{OLS}}ββ\beta Я пытаюсь понять пример, где …

3
Почему OLS-оценка коэффициента AR (1) смещена?
Я пытаюсь понять, почему OLS дает необъективную оценку процесса AR (1). Рассмотрим В этой модели строгая экзогенность нарушается, т. е. и коррелируют, а и не коррелированы. Но если это правда, то почему следующий простой вывод не выполняется? утεтут-1εтPlim βytϵt=α+βyt−1+ϵt,∼iidN(0,1).yt=α+βyt−1+ϵt,ϵt∼iidN(0,1). \begin{aligned} y_{t} &= \alpha + \beta y_{t-1} + \epsilon_{t}, \\ \epsilon_{t} …

3
Вычисление p-значений в ограниченных (неотрицательных) наименьших квадратах
Я использовал Matlab для выполнения неограниченных наименьших квадратов (обычных наименьших квадратов), и он автоматически выводит коэффициенты, тестовую статистику и p-значения. Мой вопрос заключается в том, что при выполнении ограниченных наименьших квадратов (строго неотрицательных коэффициентов) он выводит только коэффициенты, БЕЗ тестовой статистики, p-значения. Можно ли рассчитать эти значения для обеспечения значимости? …


2
Почему наклон всегда равен 1 при регрессии ошибок на остатках с использованием OLS?
Я экспериментировал с отношением между ошибками и невязками, используя несколько простых симуляций в R. Одна вещь, которую я обнаружил, заключается в том, что независимо от размера выборки или дисперсии ошибок, я всегда получаю ровно для наклона, когда вы подходите к модели111 е т г о т ы ~ β0+ β1× …

1
Каково значение двойных столбцов и 2 внизу в обычных наименьших квадратах?
Я видел это обозначение для обычных наименьших квадратов здесь . минвес∥ Xж - у∥22minw‖Xw−y‖22 \min_w \left\| Xw - y \right\|^2_2 Я никогда не видел двойных баров и 2 внизу. Что означают эти символы? У них есть определенная терминология для них?

2
Условная средняя независимость подразумевает объективность и непротиворечивость оценки МНК.
Рассмотрим следующую модель множественной регрессии: Y=Xβ+Zδ+U.(1)(1)Y=Xβ+Zδ+U.Y=X\beta+Z\delta+U.\tag{1} Здесь YYY - вектор столбца n×1n×1n\times 1 ; Матрица XXX a n×(k+1)n×(k+1)n\times (k+1) ; ββ\beta a (k+1)×1(k+1)×1(k+1)\times 1 вектор-столбец; Матрица ZZZ a n×ln×ln\times l ; δδ\deltal×1l×1l\times 1 вектор - столбец; и UUU - член ошибки, вектор столбца n×1n×1n\times1 . ВОПРОС Мой преподаватель, учебник Введение …

1
Обобщенные наименьшие квадраты: от коэффициентов регрессии к коэффициентам корреляции?
Для наименьших квадратов с одним предиктором: Y= βх + ϵYзнак равноβИкс+εy = \beta x + \epsilon Если и стандартизированы до подгонки (то есть ), то:y ∼ N ( 0 , 1 )ИксИксxYYy∼ N( 0 , 1 )~N(0,1)\sim N(0,1) rββ\beta совпадает с коэффициентом корреляции Пирсона, .ррr x = β y + …

1
Как мне включить инновационный выброс при наблюдении 48 в мою модель ARIMA?
Я работаю над набором данных. После использования некоторых методов идентификации моделей я разработал модель ARIMA (0,2,1). Я использовал detectIOфункцию в пакете TSAв R, чтобы обнаружить инновационный выброс (IO) на 48-м наблюдении за моим исходным набором данных. Как включить этот выброс в мою модель, чтобы я мог использовать его для целей …
10 r  time-series  arima  outliers  hypergeometric  fishers-exact  r  time-series  intraclass-correlation  r  logistic  glmm  clogit  mixed-model  spss  repeated-measures  ancova  machine-learning  python  scikit-learn  distributions  data-transformation  stochastic-processes  web  standard-deviation  r  machine-learning  spatial  similarities  spatio-temporal  binomial  sparse  poisson-process  r  regression  nonparametric  r  regression  logistic  simulation  power-analysis  r  svm  random-forest  anova  repeated-measures  manova  regression  statistical-significance  cross-validation  group-differences  model-comparison  r  spatial  model-evaluation  parallel-computing  generalized-least-squares  r  stata  fitting  mixture  hypothesis-testing  categorical-data  hypothesis-testing  anova  statistical-significance  repeated-measures  likert  wilcoxon-mann-whitney  boxplot  statistical-significance  confidence-interval  forecasting  prediction-interval  regression  categorical-data  stata  least-squares  experiment-design  skewness  reliability  cronbachs-alpha  r  regression  splines  maximum-likelihood  modeling  likelihood-ratio  profile-likelihood  nested-models 

3
связь между
Очень простой вопрос, касающийся OLS регрессийр2р2R^2 запустить регрессию OLS y ~ x1, у нас есть р2р2R^2 , скажем, 0,3 запустить регрессию OLS y ~ x2, у нас есть еще один р2р2R^2 , скажем, 0,4 Теперь мы запустим регрессию y ~ x1 + x2, какое значение может иметь R в квадрате …


4
Модель истории дискретного времени (выживания) в R
Я пытаюсь вписать модель с дискретным временем в R, но я не уверен, как это сделать. Я читал, что вы можете организовать зависимую переменную в разных строках, по одной для каждого временного наблюдения, и использовать glmфункцию со ссылкой logit или cloglog. В этом смысле, у меня есть три колонки: ID, …
10 r  survival  pca  sas  matlab  neural-networks  r  logistic  spatial  spatial-interaction-model  r  time-series  econometrics  var  statistical-significance  t-test  cross-validation  sample-size  r  regression  optimization  least-squares  constrained-regression  nonparametric  ordinal-data  wilcoxon-signed-rank  references  neural-networks  jags  bugs  hierarchical-bayesian  gaussian-mixture  r  regression  svm  predictive-models  libsvm  scikit-learn  probability  self-study  stata  sample-size  spss  wilcoxon-mann-whitney  survey  ordinal-data  likert  group-differences  r  regression  anova  mathematical-statistics  normal-distribution  random-generation  truncation  repeated-measures  variance  variability  distributions  random-generation  uniform  regression  r  generalized-linear-model  goodness-of-fit  data-visualization  r  time-series  arima  autoregressive  confidence-interval  r  time-series  arima  autocorrelation  seasonality  hypothesis-testing  bayesian  frequentist  uninformative-prior  correlation  matlab  cross-correlation 

1
R линейная регрессия категориальной переменной «скрытое» значение
Это всего лишь пример, с которым я сталкивался несколько раз, поэтому у меня нет примеров данных. Запуск модели линейной регрессии в R: a.lm = lm(Y ~ x1 + x2) x1является непрерывной переменной x2является категориальным и имеет три значения, например, «Низкий», «Средний» и «Высокий». Однако вывод, заданный R, будет выглядеть примерно …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

1
Связь между MLE и наименьшими квадратами в случае линейной регрессии
Хасти и Тибширани упоминают в разделе 4.3.2 своей книги, что в случае линейной регрессии подход наименьших квадратов фактически является частным случаем максимальной вероятности. Как мы можем доказать этот результат? PS: не жалейте математических деталей.

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.