Вопросы с тегом «least-squares»

Относится к общей методике оценки, которая выбирает значение параметра для минимизации квадрата разности между двумя величинами, такими как наблюдаемое значение переменной и ожидаемое значение этого наблюдения, обусловленного значением параметра. Гауссовские линейные модели подгоняются по методу наименьших квадратов, а метод наименьших квадратов - это идея, лежащая в основе использования среднеквадратичной ошибки (MSE) в качестве способа оценки оценки.

1
Эквивалентность наименьших квадратов и MLE в гауссовой модели
Я новичок в машинном обучении и пытаюсь научиться этому сам. Недавно я читал некоторые конспекты лекций и у меня возник основной вопрос. Слайд 13 говорит, что «Оценка по методу наименьших квадратов такая же, как и оценка максимального правдоподобия по гауссовой модели». Кажется, это что-то простое, но я не могу этого …

2
Корреляция между оценками OLS для перехвата и наклона
В простой регрессионной модели, y=β0+β1x+ε,y=β0+β1x+ε, y = \beta_0 + \beta_1 x + \varepsilon, оценки OLS и коррелированы.β^OLS0β^0OLS\hat{\beta}_0^{OLS}β^OLS1β^1OLS\hat{\beta}_1^{OLS} Формула для корреляции между двумя оценками (если я вывел ее правильно): Corr(β^OLS0,β^OLS1)=−∑ni=1xin−−√∑ni=1x2i−−−−−−−√.Corr⁡(β^0OLS,β^1OLS)=−∑i=1nxin∑i=1nxi2. \operatorname{Corr}(\hat{\beta}_0^{OLS},\hat{\beta}_1^{OLS}) = \frac{-\sum_{i=1}^{n}x_i}{\sqrt{n} \sqrt{\sum_{i=1}^{n}x_i^2} }. Вопросов: Что такое интуитивное объяснение наличия корреляции? Имеет ли наличие корреляции какие-либо важные последствия? Сообщение было …

4
ANOVA против множественной линейной регрессии? Почему ANOVA так часто используется в экспериментальных исследованиях?
ANOVA против множественной линейной регрессии? Я понимаю, что оба эти метода, похоже, используют одну и ту же статистическую модель. Однако при каких обстоятельствах я должен использовать какой метод? Каковы преимущества и недостатки этих методов при сравнении? Почему ANOVA так часто используется в экспериментальных исследованиях, а я вряд ли когда-нибудь найду …

1
Интервал прогнозирования линейной регрессии
Если наилучшим линейным приближением (с использованием наименьших квадратов) моих точек данных является линия y=mx+by=mx+by=mx+b , как я могу рассчитать ошибку аппроксимации? Если я вычислю стандартное отклонение различий между наблюдениями и предсказаниями , могу ли я потом сказать, что действительное (но не наблюдаемое) значение принадлежит интервалу ( ) с вероятностью ~ …

1
Как рассчитать интервал прогнозирования для множественной регрессии МНК?
Что такое алгебраическая запись для вычисления интервала прогнозирования множественной регрессии? Это звучит глупо, но у меня возникают проблемы с нахождением четкой алгебраической записи этого.

6
Почему мы обычно выбираем минимизацию суммы квадратичных ошибок (SSE) при подборе модели?
Вопрос очень прост: почему, когда мы пытаемся приспособить модель к нашим данным, линейным или нелинейным, мы обычно пытаемся минимизировать сумму квадратов ошибок, чтобы получить нашу оценку для параметра модели? Почему бы не выбрать другую целевую функцию, чтобы минимизировать? Я понимаю, что по техническим причинам квадратичная функция лучше, чем некоторые другие …

3
Что означает «при прочих равных» в множественной регрессии?
Когда мы делаем множественные регрессии и говорим, что смотрим на среднее изменение переменной для изменения переменной , сохраняя все остальные переменные постоянными, при каких значениях мы держим другие переменные постоянными? Их значит? Нуль? Любое значение?yyyxxx Я склонен думать, что это любой ценностью; просто ищу разъяснений. Если бы у кого-то было …

5
Когда квантильная регрессия хуже, чем OLS?
Помимо некоторых уникальных обстоятельств, когда мы абсолютно должны понимать условные средние отношения, в каких ситуациях исследователь должен выбрать OLS вместо квантильной регрессии? Я не хочу, чтобы ответ был «если нет смысла в понимании отношений хвоста», так как мы могли бы просто использовать медианную регрессию в качестве замены OLS.

4
Почему решение наименьших квадратов дает плохие результаты в этом случае?
На странице 204 в главе 4 «Распознавание образов и машинное обучение» Бишопа есть изображение, где я не понимаю, почему решение по методу наименьших квадратов дает плохие результаты: Предыдущий абзац был о том факте, что решениям наименьших квадратов не хватает устойчивости к выбросам, как вы видите на следующем изображении, но я …

2
Доказательство того, что F-статистика следует F-распределению
В свете этого вопроса: Доказательство того, что коэффициенты в модели OLS следуют t-распределению с (nk) степенями свободы Я хотел бы понять, почему F=(TSS−RSS)/(p−1)RSS/(n−p),F=(TSS−RSS)/(p−1)RSS/(n−p), F = \frac{(\text{TSS}-\text{RSS})/(p-1)}{\text{RSS}/(n-p)}, где - число параметров модели, а - число наблюдений, а - полная дисперсия, - остаточная дисперсия, следует распределению .n T S S R S …

2
Есть ли какое-либо преимущество SVD перед PCA?
Я знаю, как математически рассчитать PCA и SVD, и я знаю, что оба могут быть применены к регрессии линейных наименьших квадратов. Основным преимуществом SVD математически представляется то, что его можно применять к неквадратным матрицам. Оба сосредоточены на разложении матрицыПомимо упомянутого преимущества SVD, есть ли какие-либо дополнительные преимущества или идеи, предоставляемые …
20 pca  least-squares  svd 

2
Как имеет смысл делать OLS после выбора переменной LASSO?
Недавно я обнаружил, что в литературе по прикладной эконометрике, когда речь идет о проблемах выбора признаков, нередко выполняется LASSO с последующей регрессией OLS с использованием выбранных переменных. Мне было интересно, как мы можем квалифицировать обоснованность такой процедуры. Это вызовет проблемы, такие как пропущенные переменные? Какие-либо доказательства того, что это более …

2
Что происходит, когда я включаю квадратную переменную в регрессию?
Я начну с моей регрессии OLS: где D - фиктивная переменная, оценки становятся отличными от нуля с низким значением p. Затем я предварительно провожу тест СБРОСА Рэмси и нахожу, что у меня есть некоторая неправильная оценка уравнения, поэтому я включаю квадрат x: y = β 0 + β 1 x …

3
Может ли быть несколько локальных оптимальных решений, когда мы решаем линейную регрессию?
Я прочитал это утверждение на одном старом истинном / ложном экзамене: Мы можем получить несколько локальных оптимальных решений, если решим задачу линейной регрессии путем минимизации суммы квадратов ошибок с использованием градиентного спуска. Решение: Неверно У меня вопрос, какая часть этого вопроса не так? Почему это утверждение неверно?

6
Интуитивное объяснение
Если имеет полный ранг, существует обратное к и мы получаем оценку наименьших квадратов: иХ Т Х β = ( Х Т Х ) - 1 х YXXXXTXXTXX^TXβ^=(XTX)−1XYβ^=(XTX)−1XY\hat\beta = (X^TX)^{-1}XYVar(β^)=σ2(XTX)−1Var⁡(β^)=σ2(XTX)−1\operatorname{Var}(\hat\beta) = \sigma^2(X^TX)^{-1} Как мы можем интуитивно объяснить в формуле дисперсии? Техника деривации для меня понятна.(XTX)−1(XTX)−1(X^TX)^{-1}

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.