Я хотел бы дать прямой ответ.
В чем основное различие между оценкой максимального правдоподобия (MLE) и оценкой наименьших квадратов (LSE)?
Как прокомментировал @TrynnaDoStat, минимизация квадратичной ошибки эквивалентна максимизации вероятности в этом случае. Как сказано в Википедии ,
В линейной модели, если ошибки принадлежат нормальному распределению, оценки наименьших квадратов также являются оценками максимального правдоподобия.
они могут рассматриваться как одинаковые в вашем случае,
yYi=λ1Xi+λ2+ϵi where ϵ∼N(0,σ2)
L(Y1,…,Yn;λ1,λ2,σ2)=1(2π)n2σnexp(−12σ2(∑i=1n(Yi−λ1Xi−λ2)2))
∑i=1n(Yi−λ1Xi−λ2)2
y
y