Почему методы регрессии методом наименьших квадратов и максимального правдоподобия не эквивалентны, когда ошибки обычно не распределяются?


11

Название говорит обо всем. Я понимаю, что наименьшие квадраты и максимальное правдоподобие дадут одинаковый результат для коэффициентов регрессии, если ошибки модели будут нормально распределены. Но что произойдет, если ошибки не распределяются нормально? Почему два метода больше не эквивалентны?


Вы имеете в виду (а) использование MLE, когда предположение о нормальности не выполняется, или (б) использование негауссовой функции правдоподобия?
Тим

(а), когда предположение о нормальности не выполняется
Shuklaswag

Даже если предположение не выполняется (т.е. наблюдаемые значения не распределены по Гауссу) ... если вы вычисляете MLE с использованием функции правдоподобия Гаусса, тогда вы делаете то же самое, что и оптимизация по методу наименьших квадратов. Методы оптимизации математически эквивалентны и не зависят от того, было ли предположение о нормальности верным или нет.
Секст Эмпирик

Даже при нормальных распределениях наименьших квадратов накладывается фиксированная дисперсия.
CodesInChaos

См. Также этот связанный вопрос: stats.stackexchange.com/questions/173621/…
kjetil b halvorsen

Ответы:


16

Короткий ответ

Плотность вероятности многомерной гауссовской распределенной переменной со средним значением связана с квадратом евклидова расстояние между средним и переменной ( ) или, другими словами, сумма квадратов.x=(x1,x2,...,xn)μ=(μ1,μ2,...,μn)|μx|22


Длинный ответ

Если вы умножите несколько гауссовых распределений для ваших ошибок, где вы предполагаете равные отклонения, то вы получите сумму квадратов.n

L(μj,xij)=P(xij|μj)=i=1n12πσ2exp[(xijμi)22σ2]=(12πσ2)nexp[i=1n(xijμi)22σ2]

или в удобной логарифмической форме:

log(L(μj,xij))=nlog(12πσ2)12σ2i=1n(xijμj)2

Поэтому оптимизация для минимизации суммы квадратов равна максимизации (логарифмической) вероятности (т. Е. Произведение нескольких гауссовских распределений или многомерного гауссовского распределения).μ

Именно этот вложенный квадрат разности внутри экспоненциальной структуры , которого другие распределения не имеют.(μx)exp[(xiμ)2]


Сравните, например, со случаем для распределений Пуассона

log(L)=log(μjxijxij!exp[μj])=μjlog(xij!)+log(μj)xij

который имеет максимум, когда следующее минимизировано:

μjlog(μj)xij

который другой зверь.


Кроме того (история)

История нормального распределения (игнорирование перехода deMoivre к этому распределению как приближения для биномиального распределения) фактически является обнаружением распределения, которое делает MLE соответствующим методу наименьших квадратов (а не методом наименьших квадратов, являющимся методом который может выразить MLE нормального распределения, сначала появился метод наименьших квадратов, затем - распределение Гаусса)

Обратите внимание, что Гаусс, соединяя «метод максимального правдоподобия» с «методом наименьших квадратов», придумал «гауссово распределение», , как единственное распределение ошибок, которое приводит нас к сделать эту связь между двумя методами.ex2

Из перевода Чарльза Генри Дэвиса (Теория движения небесных тел, движущихся вокруг Солнца в конических сечениях. Перевод Гаусса "Theoria motus", с приложением) ...

Гаусс определяет:

Соответственно, вероятность присвоения каждой ошибке будет выражаться функцией которую мы будем обозначать .ΔΔψΔ

(Курсив сделан мной)

И продолжает ( в разделе 177 с. 258 ):

... откуда легко сделать вывод, что должно быть постоянной величиной. который мы будем обозначать через . Следовательно, у нас есть обозначает основание гиперболического логарифма через и принимаетψΔΔk

log ψΔ=12kΔΔ+Constant
ψΔ=xe12kΔΔ
e
Constant=logx

в конечном итоге (после нормализации и реализации ) вk<0

ψΔ=hπehhΔΔ


Автор StackExchangeStrike


Вы помните, откуда вы получили эти знания? Не могли бы вы добавить источник в свой пост? (Мне трудно найти учебник, который хорошо объясняет это.)
Joooeey

@Joooeey Я добавил название источника для переведенных цитат Гаусса, а также ссылку на один из многих онлайн-источников. Этот оригинальный текст тяжелый, но вы должны встретить более легкие договоры в любом описании истории нормального распространения.
Секст Эмпирик

Функции правдоподобия появляются во многих местах. Если вы ищете источники, где я получил это «знание», то, я думаю, я мог бы сказать статью Пирсона 1900 года о тесте хи-квадрат, где многомерное нормальное распределение рассматривается геометрически. Также Фишер несколько раз использовал геометрические представления (например, в 20-х годах была одна статья об эффективности оценок, где он сравнивает среднеквадратическую ошибку и среднюю абсолютную ошибку и где он говорит о поверхностях в гиперпространстве).
Секст Эмпирик

@Joooeey Я упомянул эту статью Фишера раньше здесь . И в моем ответе здесь используется геометрическая точка зрения для получения свойства t-распределения, которая также относится к Фишеру (я полагаю, статья, в которой он доказывает t-распределение Госсета, или, может быть, немного более поздняя статья).
Секст Эмпирик

5

Потому что MLE выводится из предположения об остаточном распределении.

Обратите внимание, что

minβ  Xβy2

Не имеет вероятностного значения : просто найдите который минимизирует функцию квадрата потерь. Все детерминировано, и там нет случайных компонентов.β

Где понятие вероятности и вероятности приходит, мы предполагаем

y=Xβ+ϵ

Где мы рассматриваем как случайную величину, а обычно распределяется.ϵyϵ


@ Мэтью Друри, зачем менять матричные обозначения и добавлять знак суммы?
Haitao Du

Я подумал, что это будет ясно, но если вы утверждаете, что утверждение не имеет пробалистического значения, вы не можете использовать выражение с символами, которые лучше всего интерпретировать как случайные величины. Проблема оптимизации, которую вы восстанавливаете, связана с фиксированными данными, я сделал это явным.
Мэтью Друри

5

Наименьшие квадраты и максимальное (гауссовское) соответствие правдоподобия всегда эквивалентны. То есть они минимизируются одним и тем же набором коэффициентов.

Изменение предположения об ошибках изменяет вашу функцию вероятности (максимизация вероятности модели эквивалентна максимизации вероятности ошибки), и, следовательно, функция больше не будет минимизироваться с помощью того же набора коэффициентов.

Таким образом, на практике они одинаковы, но в теории, когда вы максимизируете другую вероятность, вы получите другой ответ, чем наименьшие квадраты


"или всегда эквивалентно"?
августа

0

Конкретный пример: предположим, что мы берем простую функцию ошибок p (1) =. 9, p (-9) = .10. Если мы возьмем две точки, то LS просто проведет линию через них. ML, с другой стороны, будет предполагать, что обе точки на одну единицу слишком высоки, и, таким образом, будут проходить линию через точки, сдвинутые на единицу.


2
Ваш пример неясен; в частности, трудно понять, какую модель вы пытаетесь описать или почему ML даст результат, на который вы претендуете. Не могли бы вы подробнее уточнить этот ответ?
whuber

Модель состоит в том, что y = mx + b + error, где вероятность ошибки составляет 90% и вероятность 10% -9. При любой наблюдаемой точке истинная точка имеет вероятность 90% быть на одну единицу ниже и вероятность 10% быть на девять единиц выше. Таким образом, ML дает, что истинная точка на одну единицу ниже. Что ты не понимаешь по этому поводу?
Аккумуляция

2
Ваш комментарий полезен, но ваш ответ по-прежнему не описывает модель в четкой или понятной форме. Не могли бы вы включить это объяснение в сам ответ? Это хороший пример.
whuber
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.