Почему GLM отличается от LM с преобразованной переменной


16

Как поясняется в раздаточном материале этого курса (стр. 1) , линейная модель может быть записана в виде:

y=β1x1++βpxp+εi,

где - переменная ответа, а - пояснительная переменная .yxiith

Часто с целью удовлетворения предположений теста можно преобразовать переменную ответа. Например, мы применяем функцию log к каждому . Преобразование переменной ответа НЕ равносильно выполнению GLM.yi

GLM может быть написано в следующей форме (из раздаточного материала курса (стр. 3) )

g(u)=β1x1++βпИксп+εя,

где - просто еще один символ для как я понял на странице 2 раздаточного материала курса. называется функцией связи.UYграмм()

Я не очень понимаю разницу между GLM и LM с преобразованной переменной из слайдов в курсе. Вы можете помочь мне с этим?


2
Возможно, вам будет интересно рассмотреть тот факт, что все преобразования двоичного результата являются аффинными, что, таким образом, ограничит вас обычной регрессией наименьших квадратов. Это, очевидно, не то, что выполняет логистическая регрессия (стандартная GLM для бинарных ответов). (Доказательство: пусть конечные значения закодированы как и и пусть будет любым преобразованием. Записывая и мы находим согласен с с (аффинным преобразованием ), где иy0y1ϕz0=ϕ(y0)z1=ϕ(y1)ϕ{y0,y1}yλy+μyλ=(z1z0)/(y1y0)μ=z0λy0 .)
whuber

Ответы:


15

Преобразование ответа до выполнения линейной регрессии делает это:

E(g(Y))β0+β1x1++βpxp

где - заданная функция, и мы предполагаем, что g ( Y ) имеет заданное распределение (обычно нормальное).gg(Y)

Обобщенная линейная модель делает это:

g(E(Y))β0+β1x1++βpxp

где такой же, как и раньше, и мы предполагаем, что Y имеет заданное распределение (обычно ненормальное).gY


что Е в вашем уравнении?
user1406647 20.10.15

1
E(X)X

Я также нашел это полезным: christoph-scherber.de/content/PDF%20Files/…
Адитья,

22

Я не уверен, будет ли это полным ответом для вас, но это может помочь освободиться от концептуальных проблем.

Кажется, в вашем аккаунте есть два заблуждения:

  1. Имейте в виду, что обычная наименьших квадратов (OLS - «линейная») регрессия является частным случаем обобщенной линейной модели. Таким образом, когда вы говорите «[t] преобразование переменной ответа НЕ равносильно выполнению GLM», это неверно. Подгонка линейной модели или преобразование переменной отклика, а затем подгонка линейной модели представляют собой «выполнение GLM».

  2. uμXuyYyiYiy

    (Я не хочу говорить об ошибках, я просто подозреваю, что это может привести к вашей путанице.)

  3. Есть еще один аспект обобщенной линейной модели, о котором я не упоминаю. То есть мы указываем распределение ответов. В случае регрессии OLS распределение ответа является гауссовым (нормальным), а функция связи является тождественной функцией. В случае, скажем, логистической регрессии (которая может быть тем, о чем люди впервые думают, когда они думают о GLM), распределение ответов - это Бернулли (/ binomial), а функция связи - это logit. При использовании преобразований для обеспечения выполнения предположений для OLS мы часто пытаемся сделать условное распределение ответов приемлемым нормальным. Однако никакое такое преобразование не сделает распределение Бернулли приемлемо нормальным.

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.