Каковы обычные предположения для линейной регрессии?
Они включают в себя:
- линейная зависимость между независимой и зависимой переменной
- независимые ошибки
- нормальное распределение ошибок
- гомоскедастичность
Есть ли другие?
Каковы обычные предположения для линейной регрессии?
Они включают в себя:
Есть ли другие?
Ответы:
Ответ сильно зависит от того, как вы определяете, полный и обычный. Предположим, мы напишем модель линейной регрессии следующим образом:
где - вектор переменных-предикторов, - интересующий параметр, - переменная ответа, а - помеха. Одной из возможных оценок является оценка наименьших квадратов:
В настоящее время практически все учебники имеют дело с предположениями, когда эта оценка имеет желательные свойства, такие как непредвзятость, согласованность, эффективность, некоторые свойства распределения и т. Д.
Каждое из этих свойств требует определенных допущений, которые не совпадают. Поэтому лучшим вопросом было бы спросить, какие предположения необходимы для требуемых свойств оценки LS.
Свойства, которые я упоминал выше, требуют некоторой вероятностной модели для регрессии. И здесь мы имеем ситуацию, когда разные модели используются в разных прикладных областях.
Простой случай состоит в том, чтобы рассматривать как независимые случайные переменные, причем является случайным. Мне не нравится слово обычное, но мы можем сказать, что это обычный случай в большинстве прикладных областей (насколько я знаю).
Вот список некоторых желательных свойств статистических оценок:
существование
Свойство существования может показаться странным, но это очень важно. В определении мы инвертируем матрицу
Не гарантируется, что обратная сторона этой матрицы существует для всех возможных вариантов . Итак, мы сразу получаем наше первое предположение:
Матрица должна иметь полный ранг, т.е. быть обратимой.
беспристрастность
У нас есть
если
Мы можем назвать это вторым допущением, но, возможно, мы прямо сформулировали его, поскольку это один из естественных способов определения линейных отношений.
Обратите внимание, что для получения объективности нам нужно только, чтобы для всех , а были константами. Независимость собственности не требуется.
консистенция
Чтобы получить допущения для согласованности, нам нужно более четко указать, что мы подразумеваем под . Для последовательностей случайных величин мы имеем разные способы сходимости: по вероятности, почти наверняка, по распределению и по смыслу момента. Предположим, мы хотим получить сходимость по вероятности. Мы можем использовать либо закон больших чисел, либо непосредственно использовать многомерное неравенство Чебышева (используя тот факт, что ):
(Этот вариант неравенства вытекает непосредственно из применения неравенства Маркова к , отмечая, что .)
Поскольку сходимость по вероятности означает, что левый член должен исчезать для любого при , нам нужно, чтобы при . Это вполне разумно, поскольку при большем количестве данных точность, с которой мы оцениваем должна возрасти.
У нас есть
Независимость гарантирует, что , поэтому выражение упрощается до
Теперь предположим, что , затем
Теперь, если мы дополнительно требуем, чтобы был ограничен для каждого , мы немедленно получаем
Таким образом, чтобы получить согласованность, мы предположили, что автокорреляции нет ( ), дисперсия постоянна, и не растут слишком сильно. Первое предположение выполняется, если исходит из независимых выборок.
КПД
Классическим результатом является теорема Гаусса-Маркова . Условия для него - это как раз первые два условия последовательности и условие беспристрастности.
Распределительные свойства
Если нормальные, мы сразу получаем, что нормальный, поскольку это линейная комбинация нормальных случайных величин. Если мы примем предыдущие предположения о независимости, некоррелированности и постоянной дисперсии, мы получим, что
где .
Если не являются нормальными, но независимыми, мы можем получить приблизительное распределение благодаря центральной предельной теореме. Для этого мы должны считать , что
для некоторой матрицы . Постоянная дисперсия для асимптотической нормальности не требуется, если предположить, что
Обратите внимание , что при постоянной дисперсии , имеем . Центральная предельная теорема дает нам следующий результат:
Итак, из этого мы видим, что независимость и постоянная дисперсия для и некоторые допущения для дают нам много полезных свойств для оценки LS .
Дело в том, что эти предположения можно ослабить. Например, мы требовали, чтобы не были случайными переменными. Это предположение неосуществимо в эконометрических приложениях. Если мы позволим быть случайным, мы можем получить аналогичные результаты, если использовать условные ожидания и учитывать случайность . Предположение о независимости также может быть ослаблено. Мы уже продемонстрировали, что иногда необходима только некоррелированность. Даже это может быть дополнительно смягчено, и все еще возможно показать, что оценка LS будет последовательной и асимптотически нормальной. Смотрите, например , книгу Уайта для более подробной информации.
Здесь есть много хороших ответов. Мне приходит в голову, что есть одно предположение, которое, однако, не было высказано (по крайней мере, явно). В частности, регрессионная модель предполагает, что (значения ваших объясняющих / предикторных переменных) фиксированы и известны , и что вся неопределенность в ситуации существует в переменнойКроме того, эта неопределенность считается только ошибкой выборки .
Вот два способа думать об этом: если вы строите объяснительную модель (моделирование экспериментальных результатов), вы точно знаете, каковы уровни независимых переменных, потому что вы манипулировали ими / управляли ими. Более того, вы решили, какими будут эти уровни, прежде чем начнете собирать данные. Таким образом, вы понимаете всю неопределенность в отношениях как существующую в ответе. С другой стороны, если вы строите прогностическую модель, это правда, что ситуация отличается, но вы по-прежнему относитесь к предикторам, как если бы они были фиксированными и известными, потому что в будущем, когда вы будете использовать модель для прогнозирования о вероятном значении , у вас будет вектор,и модель предназначена для обработки этих значений, как если бы они были правильными. То есть вы будете воспринимать неопределенность как неизвестное значение .
Эти предположения можно увидеть в уравнении для прототипа регрессионной модели: Модель с неопределенностью (возможно, из-за ошибки измерения) в также может иметь тот же процесс генерирования данных, но модель это будет выглядеть примерно так: где представляет случайную ошибку измерения. (Ситуации, подобные последней, привели к работе над ошибками в моделях переменных ; основной результат заключается в том, что если в есть ошибка измерения , то наивный
Одним из практических следствий асимметрии, свойственной типичному предположению, является то, что регрессия на отличается от регрессии на . (См. Мой ответ здесь: в чем разница между выполнением линейной регрессии для y с x по сравнению с x с y? Для более подробного обсуждения этого факта.)
Допущения классической модели линейной регрессии включают в себя:
Хотя ответы здесь уже дают хороший обзор классического допущения OLS, вы можете найти более полное описание допущения классической модели линейной регрессии здесь:
https://economictheoryblog.com/2015/04/01/ols_assumptions/
Кроме того, в статье описываются последствия в случае нарушения определенных предположений.
Что дает?!
Ответ заключается в том, что несколько иные наборы допущений могут быть использованы для обоснования использования оценки наименьших квадратов (OLS). OLS - это инструмент, похожий на молоток: вы можете использовать молоток на гвоздях, но вы также можете использовать его на колышках, чтобы разбить лед и т.д.
Две широкие категории допущений - это те, которые применяются к малым выборкам, и те, которые основаны на больших выборках, так что можно применить центральную предельную теорему .
Небольшие выборочные предположения, как обсуждалось в Hayashi (2000):
При (1) - (4) применяется теорема Гаусса-Маркова , и обычная оценка наименьших квадратов является наилучшей линейной несмещенной оценкой.
Дальнейшее допущение нормальных условий ошибки позволяет проверять гипотезы . Если условия ошибки условно нормальны, распределение оценщика OLS также условно нормально.
Другим примечательным моментом является то, что в норме оценщик OLS также является оценщиком максимальной вероятности .
Эти предположения могут быть изменены / ослаблены, если у нас достаточно большая выборка, чтобы мы могли опираться на закон больших чисел (для непротиворечивости оценки OLS) и центральную предельную теорему (чтобы распределение выборки оценки OLS сходилось к нормальное распределение, и мы можем провести проверку гипотез, поговорить о p-значениях и т. д.).
Хаяси - специалист по макроэкономике, и его большие выборочные предположения сформулированы с учетом контекста временных рядов:
Вы можете столкнуться с более сильными версиями этих предположений, например, что термины ошибок независимы.
Правильные допущения для большой выборки позволяют получить асимптотически нормальное распределение выборки оценки МНК .
Хаяси, Фумио, 2000, Эконометрика
Это все о том, что вы хотите сделать со своей моделью. Представьте, что ваши ошибки были положительно искажены / ненормальны. Если вы хотите сделать интервал прогнозирования, вы можете добиться большего успеха, чем использовать t-распределение. Если ваша дисперсия меньше при меньших прогнозируемых значениях, опять-таки, вы сделаете интервал прогнозирования слишком большим.
Лучше понять, почему существуют предположения.
На следующих диаграммах показано, какие предположения необходимы, чтобы получить какие последствия в конечных и асимптотических сценариях.
Я думаю, что важно думать не только о том, каковы предположения, но каковы последствия этих предположений. Например, если вы заботитесь только о несмещенных коэффициентах, вам не нужна гомоскедастичность.
Ниже приведены предположения о линейном регрессионном анализе.
Правильная спецификация . Линейная функциональная форма указана правильно.
Строгая экзогенность . Ошибки в регрессии должны иметь условный средний ноль.
Нет мультиколлинеарности . Все регрессоры в X должны быть линейно независимыми.
Гомоскедастичность, которая означает, что погрешность имеет одинаковую дисперсию в каждом наблюдении.
Нет автокорреляции : ошибки не коррелируют между наблюдениями.
Нормальность. Иногда дополнительно предполагается, что ошибки имеют нормальное распределение, обусловленное регрессорами.
Наблюдения Iid : не зависит и имеет то же распределение, что и для всех .
Для получения дополнительной информации посетите эту страницу .
Единого списка допущений не существует, их будет как минимум 2: один для фиксированной и один для случайной матрицы проектирования. Кроме того, вы можете посмотреть на предположения для регрессий временных рядов (см. Стр. 13)
Случай, когда матрица замыкания является фиксированной, может быть наиболее распространенным, и его предположения часто выражаются в виде теоремы Гаусса-Маркова . Фиксированная конструкция означает, что вы действительно контролируете регрессоры. Например, вы проводите эксперимент и можете установить такие параметры, как температура, давление и т. Д. См. Также стр. 13 здесь .
К сожалению, в таких социальных науках, как экономика, вы редко можете контролировать параметры эксперимента. Обычно вы наблюдаете, что происходит в экономике, записываете показатели среды, а затем регрессируете на них. Оказывается, это совсем другая и более сложная ситуация, называемая случайным дизайном. В этом случае теорема Гаусса-Маркова модифицируется, см. Также п.12 здесь . Вы можете видеть, как условия теперь выражаются в терминах условных вероятностей, что не является безобидным изменением.
В эконометрике предположения имеют имена:
Обратите внимание, что я никогда не упоминал нормальность. Это не стандартное предположение. Он часто используется в курсах интрогрессии, потому что облегчает некоторые деривации, но не требуется, чтобы регрессия работала и имела хорошие свойства.
Предположение о линейности состоит в том, что модель является линейной по параметрам. Хорошо иметь регрессионную модель с эффектами квадратичного или более высокого порядка, если степенная функция независимой переменной является частью линейной аддитивной модели. Если модель не содержит условий более высокого порядка, когда это необходимо, то на графике остатков будет видно отсутствие соответствия. Однако стандартные регрессионные модели не включают модели, в которых независимая переменная возводится в степень параметра (хотя существуют и другие подходы, которые можно использовать для оценки таких моделей). Такие модели содержат нелинейные параметры.
Коэффициент регрессии наименьших квадратов позволяет суммировать тренд первого порядка в любых данных. Ответ @mpiktas - это тщательное рассмотрение условий, при которых метод наименьших квадратов становится все более оптимальным. Я бы хотел пойти другим путем и показать наиболее общий случай, когда работает метод наименьших квадратов. Давайте посмотрим на самую общую формулировку уравнения наименьших квадратов:
Это просто линейная модель для условного среднего ответа.
Обратите внимание, что я ошибся термином ошибки. Если вы хотите обобщить неопределенность , вы должны обратиться к центральной предельной теореме. Наиболее общий класс оценщиков наименьших квадратов сходится к нормальному, когда выполняется условие Линдеберга : в сложенном виде условие Линдеберга для наименьших квадратов требует, чтобы доля наибольшего квадрата невязки к сумме суммы квадратов невязок была равна 0 как . Если ваш дизайн будет продолжать отбирать все большие и большие остатки, то эксперимент «мертв в воде».
Когда условие Линдеберга выполнено, параметр регрессии корректно определен, а оценщик является несмещенной оценкой, которая имеет известное аппроксимирующее распределение. Могут существовать более эффективные оценщики. В других случаях гетероскедастичности или коррелированных данных обычно взвешенная оценка более эффективна . Вот почему я бы никогда не выступил за использование наивных методов, когда есть лучшие. Но они часто нет!