Вопросы с тегом «least-squares»

Относится к общей методике оценки, которая выбирает значение параметра для минимизации квадрата разности между двумя величинами, такими как наблюдаемое значение переменной и ожидаемое значение этого наблюдения, обусловленного значением параметра. Гауссовские линейные модели подгоняются по методу наименьших квадратов, а метод наименьших квадратов - это идея, лежащая в основе использования среднеквадратичной ошибки (MSE) в качестве способа оценки оценки.

2
Предположения наименьших квадратов
Предположим следующую линейную зависимость: , где - зависимая переменная, - одна независимая переменная, а - термин ошибки.Y i X i u iYi=β0+β1Xi+uiYi=β0+β1Xi+uiY_i = \beta_0 + \beta_1 X_i + u_iYiYiY_iXiXiX_iuiuiu_i Согласно Stock & Watson (Введение в эконометрику; глава 4 ), третье предположение о наименьших квадратах состоит в том, что четвертые моменты …

1
Линейная модель, где данные имеют неопределенность, используя R
Допустим, у меня есть данные, которые имеют некоторую неопределенность. Например: X Y 1 10±4 2 50±3 3 80±7 4 105±1 5 120±9 Природой неопределенности могут быть, например, повторные измерения или эксперименты, или неопределенность измерительного прибора. Я хотел бы подогнать к нему кривую, используя R, то, что я обычно делаю lm. …

1
Определение весов наименьших квадратов: функция R lm против
Может кто-нибудь сказать мне, почему я получаю разные результаты от Rвзвешенных наименьших квадратов и ручного решения с помощью матричной операции ? В частности, я пытаюсь вручную решить , где - диагональная матрица весов, - матрица данных, - ответ вектор. W A bWAx=WbWAx=Wb\mathbf W \mathbf A\mathbf x=\mathbf W \mathbf bWW\mathbf WAA\mathbf …

1
Что обычного, в обычных наименьших квадратах?
Мой друг недавно спросил, что же такого обычного, в отношении наименьших квадратов. Похоже, мы ни к чему не привели в обсуждении. Мы оба согласились, что OLS является частным случаем линейной модели, она имеет много применений, хорошо известна и является частным случаем многих других моделей. Но действительно ли это все? Поэтому …

2
АМС асимптотически эффективен при гетероскедастичности
Я знаю, что МНК беспристрастна, но не эффективна при гетероскедастичности в условиях линейной регрессии. В википедии http://en.wikipedia.org/wiki/Minimum_mean_square_error Оценщик MMSE асимптотически несмещен и сходится по распределению к нормальному распределению: n−−√(x^−x)→dN(0,I−1(x))n(x^−x)→dN(0,I−1(x))\sqrt{n}(\hat{x} - x) \xrightarrow{d} \mathcal{N}\left(0 , I^{-1}(x)\right) , где (х) информация Фишера х. Таким образом, оценщик MMSE асимптотически эффективен. MMSE считается асимптотически …

2
Как остатки связаны с основными нарушениями?
В методе наименьших квадратов мы хотим оценить неизвестные параметры в модели: YJ= α + βИксJ+ εJ( j = 1 ... n )YJзнак равноα+βИксJ+εJ(Jзнак равно1 ...N)Y_j = \alpha + \beta x_j + \varepsilon_j \enspace (j=1...n) Как только мы это сделаем (для некоторых наблюдаемых значений), мы получим подогнанную линию регрессии: YJ= α^+ …

1
Применение регрессии гребня для недоопределенной системы уравнений?
Когда Y= Хβ+ еYзнак равноИксβ+еy = X\beta + e , задача наименьших квадратов, которая накладывает сферическое ограничение на значение может быть записана как для переопределенной системы. \ | \ cdot \ | _2 - евклидова норма вектора.δδ\deltaββ\betaмин ∥ у- Хβ∥22с . т . ∥ β∥22≤ δ2мин⁡ | |Y-Иксβ| |22s,T,⁡ | …

1
При каких допущениях обычный метод наименьших квадратов дает эффективные и объективные оценки?
Правда ли, что в предположениях Гаусса-Маркова обычный метод наименьших квадратов дает эффективные и объективные оценки? Так: для всех tЕ( тыT) = 0E(ut)=0E(u_t)=0 Ttt для t = sЕ( тыTUs) = σ2E(utus)=σ2E(u_tu_s)=\sigma^2 т = сt=st=s для т ≠ sЕ( тыTUs) = 0E(utus)=0E(u_tu_s)=0 т ≠ ыt≠st\neq s где остатки.Uuu

2
Теорема Гаусса-Маркова: СИНИЙ и МНК
Я читаю теорему Гасса-Маркова о википедии и надеялся, что кто-нибудь сможет помочь мне понять суть этой теоремы. Мы предполагаем, что линейная модель в матричной форме имеет вид: и мы ищем СИНИЙ, .y=Xβ+ηy=Xβ+η y = X\beta +\eta βˆβ^ \widehat\beta В соответствии с этим я бы обозначил как "остаток", а как "ошибку". …

2
Параметрический, полупараметрический и непараметрический бутстрап для смешанных моделей
Следующие прививки взяты из этой статьи . Я новичок в начальной загрузке и пытаюсь реализовать параметрическую, полупараметрическую и непараметрическую загрузку начальной загрузки для линейной смешанной модели с R bootпакетом. Код R Вот мой Rкод: library(SASmixed) library(lme4) library(boot) fm1Cult <- lmer(drywt ~ Inoc + Cult + (1|Block) + (1|Cult), data=Cultivation) fixef(fm1Cult) …
9 r  mixed-model  bootstrap  central-limit-theorem  stable-distribution  time-series  hypothesis-testing  markov-process  r  correlation  categorical-data  association-measure  meta-analysis  r  anova  confidence-interval  lm  r  bayesian  multilevel-analysis  logit  regression  logistic  least-squares  eda  regression  notation  distributions  random-variable  expected-value  distributions  markov-process  hidden-markov-model  r  variance  group-differences  microarray  r  descriptive-statistics  machine-learning  references  r  regression  r  categorical-data  random-forest  data-transformation  data-visualization  interactive-visualization  binomial  beta-distribution  time-series  forecasting  logistic  arima  beta-regression  r  time-series  seasonality  large-data  unevenly-spaced-time-series  correlation  statistical-significance  normalization  population  group-differences  demography 
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.