Как указывал kjetil b halvorsen, по-своему чудом является то, что линейная регрессия допускает аналитическое решение. И это только в силу линейности задачи (по параметрам). В OLS у вас есть
который имеет условия первого порядка
Для проблемы с переменные (в том числе постоянные, если необходимо - есть и регрессия через проблемы происхождения), это система с уравнениями и неизвестными. Самое главное, что это линейная система, поэтому вы можете найти решение, используя стандартную теорию и практику линейной алгебры.-2 ∑ i (yi-x ′ i β)xi=0ppp
Σя( уя- х'яβ)2→ минβ,
- 2 ∑я( уя- х'яβ) хя= 0
ппп, Эта система будет иметь решение с вероятностью 1, если у вас нет идеально коллинеарных переменных.
Теперь, с логистической регрессией, все уже не так просто. Записать логарифмическую функцию правдоподобия:
и, взяв его производную для нахождения MLE, получим
Параметры вводят это очень нелинейным образом: для каждого есть нелинейная функция, и они складываются вместе. Аналитического решения не существует (кроме, вероятно, в тривиальной ситуации с двумя наблюдениями или чем-то в этом роде), и вы должны использовать∂ l
л ( у; х , β) = ∑яYяперпя+ ( 1 - уя) Ин( 1 - ря) ,пя= ( 1 + опыт( - θя) )- 1,θя= х'яβ,
∂L∂β'= ∑яд ряд θ( уяпя- 1 - йя1 - ря) хя= ∑я[ уя- 11 + опыт( х'яβ)] хя
βяметоды нелинейной оптимизации для нахождения оценок .
β^
Несколько более глубокий взгляд на проблему (с учетом второй производной) показывает, что это является выпуклой оптимизационной задачей поиска максимума вогнутой функции (прославленной многомерной параболы), поэтому любая из них существует, и любой разумный алгоритм должен находить ее достаточно быстро, или вещи уносятся в бесконечность. Последнее действительно случается с логистической регрессией, когда для некоторого , т. вас есть идеальный прогноз. Это довольно неприятный артефакт: вы можете подумать, что когда у вас есть идеальный прогноз, модель работает отлично, но, как ни странно, все наоборот.П р о б [ Yя= 1 | Икс'яβ> с ] = 1с