Я думаю, что проблема, которая вас смущает, заключается в том, что вы привыкли иметь аддитивную ошибку. Большинство моделей не будут.
Думайте о линейной регрессии не как о линейном среднем с аддитивной ошибкой, а как об условно нормальном отклике:
( Y| Икс) ∼ N( Хβ, σ2я)
Тогда сходство с GLM, в частности, с пуассоновской регрессией и логистической регрессией, становится более очевидным.
( Y| Икс)Е( Y| Икс)Y- E( Y| Икс)
[Вы можете взять любую конкретную комбинацию предикторов и записать переменную ответа с точки зрения ее ожидания и отклонения от этого - если хотите, «ошибки», но это не особенно поучительно, когда объект отличается от любой другой комбинации предикторов. Обычно более информативно и более интуитивно просто написать ответ в виде распределения, являющегося функцией предикторов, чем в форме отклонения от ожидания.]
Так что, хотя вы можете написать это «с ошибочным термином», сделать это гораздо менее удобно и концептуально сложнее, чем заняться другими делами.