Вопросы с тегом «multiple-regression»

Регрессия, включающая две или более непостоянных независимых переменных.

4
ANOVA против множественной линейной регрессии? Почему ANOVA так часто используется в экспериментальных исследованиях?
ANOVA против множественной линейной регрессии? Я понимаю, что оба эти метода, похоже, используют одну и ту же статистическую модель. Однако при каких обстоятельствах я должен использовать какой метод? Каковы преимущества и недостатки этих методов при сравнении? Почему ANOVA так часто используется в экспериментальных исследованиях, а я вряд ли когда-нибудь найду …

1
Геометрическая интерпретация коэффициента множественной корреляции и коэффициента детерминации
Меня интересует геометрический смысл множественной корреляции и коэффициента детерминации в регрессии или в векторной записи,R 2 y i = β 1 + β 2 x 2 , i + ⋯ + β k x k , i + ϵ iRRRR2R2R^2yi=β1+β2x2,i+⋯+βkxk,i+ϵiyi=β1+β2x2,i+⋯+βkxk,i+ϵiy_i = \beta_1 + \beta_2 x_{2,i} + \dots + \beta_k x_{k,i} …

2
В каком порядке следует проводить линейную регрессионную диагностику?
В линейном регрессионном анализе мы анализируем выбросы, исследуем мультиколлинеарность, тестируем гетероскедастичность. Вопрос в том, есть ли порядок их применения? Я имею в виду, нужно ли сначала анализировать выбросы, а затем изучать мультиколлинеарность? Или поменять? Есть ли эмпирическое правило по этому поводу?

3
Имеет ли значение порядок объясняющих переменных при расчете их коэффициентов регрессии?
Сначала я думал, что порядок не имеет значения, но потом я прочитал о процессе ортогонализации Грамма-Шмидта для вычисления множественных коэффициентов регрессии, и теперь у меня возникли вторые мысли. Согласно процессу Грамма-Шмидта, чем позже объясняющая переменная индексируется среди других переменных, тем меньше ее остаточный вектор, потому что из него вычитаются остаточные …

1
Как рассчитать интервал прогнозирования для множественной регрессии МНК?
Что такое алгебраическая запись для вычисления интервала прогнозирования множественной регрессии? Это звучит глупо, но у меня возникают проблемы с нахождением четкой алгебраической записи этого.

6
Примеры расширенного регрессионного моделирования
Я ищу расширенное тематическое исследование линейной регрессии, иллюстрирующее шаги, необходимые для моделирования сложных, множественных нелинейных отношений с использованием GLM или OLS. На удивление трудно найти ресурсы, выходящие за рамки базовых школьных примеров: большинство книг, которые я прочитал, не пойдет дальше, чем лог-преобразование ответа в сочетании с BoxCox одного предиктора или …

3
Что означает «при прочих равных» в множественной регрессии?
Когда мы делаем множественные регрессии и говорим, что смотрим на среднее изменение переменной для изменения переменной , сохраняя все остальные переменные постоянными, при каких значениях мы держим другие переменные постоянными? Их значит? Нуль? Любое значение?yyyxxx Я склонен думать, что это любой ценностью; просто ищу разъяснений. Если бы у кого-то было …

4
Многократное вменение и выбор модели
Многократное вменение довольно просто, если у вас есть априори линейная модель, которую вы хотите оценить. Тем не менее, вещи кажутся немного сложнее, когда вы на самом деле хотите сделать выбор модели (например, найти «лучший» набор переменных-предикторов из большего набора переменных-кандидатов - я думаю конкретно о LASSO и дробных многочленах с …

4
Важность предикторов в множественной регрессии: частичное против стандартизированных коэффициентов
Мне интересно, какова точная связь между частичным и коэффициентами в линейной модели и должен ли я использовать только один или оба, чтобы проиллюстрировать важность и влияние факторов.R2R2R^2 Насколько я знаю, с помощью summaryя получаю оценки коэффициентов, а с anovaсуммой квадратов для каждого фактора - доля суммы квадратов одного фактора, деленная …

2
Как описать или визуализировать модель множественной линейной регрессии
Я пытаюсь приспособить модель множественной линейной регрессии к моим данным с помощью пары входных параметров, скажем, 3. F( х )F( х )= A x1+ B x2+ CИкс3+ дили= ( A B C )Т( х1 Икс2 Икс3) + d(я)(II)(я)F(Икс)знак равноAИкс1+ВИкс2+СИкс3+dили(II)F(Икс)знак равно(A В С)Т(Икс1 Икс2 Икс3)+d\begin{align} F(x) &= Ax_1 + Bx_2 + …

5
Допущения множественной регрессии: чем предположение о нормальности отличается от предположения о постоянной дисперсии?
Я прочитал, что это условия для использования модели множественной регрессии: остатки модели почти нормальные, изменчивость остатков почти постоянна остатки независимы, и каждая переменная линейно связана с результатом. Чем отличаются 1 и 2? Вы можете увидеть один здесь прямо: Таким образом, вышеприведенный график говорит, что остаток, составляющий 2 стандартных отклонения, находится …

1
Доказательство коэффициентов сжатия с помощью регрессии гребня посредством «спектрального разложения»
Я понял, как регрессия гребня сжимает коэффициенты геометрически к нулю. Более того, я знаю, как доказать это в специальном «ортонормированном случае», но я не совсем понимаю, как это работает в общем случае с помощью «спектральной декомпозиции».

2
Преобразование многомерной линейной модели в множественную регрессию
Является ли преобразование модели многомерной линейной регрессии в множественную линейную регрессию полностью эквивалентным? Я не имею в виду , просто запустив TTt отдельных регрессий. Я читал это в нескольких местах (Байесовский анализ данных - Гельман и др. И Многовариантная старая школа - Марден), что многомерная линейная модель может быть легко …

1
Сэндвич оценщик интуиции
Википедия и виньетка R-сэндвич-пакетов дают хорошую информацию о допущениях, подтверждающих стандартные ошибки коэффициента OLS, и математических основах сэндвич-оценок. Мне все еще неясно, как решается проблема гетероскедастичности остатков, возможно потому, что я не совсем понимаю стандартную оценку дисперсии коэффициентов OLS. Какова интуиция за сэндвич-оценщиком?

2
Что происходит, когда я включаю квадратную переменную в регрессию?
Я начну с моей регрессии OLS: где D - фиктивная переменная, оценки становятся отличными от нуля с низким значением p. Затем я предварительно провожу тест СБРОСА Рэмси и нахожу, что у меня есть некоторая неправильная оценка уравнения, поэтому я включаю квадрат x: y = β 0 + β 1 x …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.