В общем, предположим, что вы решили взять модель в форме
п( у= 1 | Икс= х ) = ч ( х ; Θ )
для некоторого параметра . Тогда вы просто записываете вероятность этого, т.е.Θ
L ( Θ ) = ∏я ∈ { 1 , . , , , N} , уя= 1п( у= 1 | х = х ; Θ ) ⋅ ∏я ∈ { 1 , . , , , N} , уя= 0п( у= 0 | х = х ; Θ )
который так же, как
L ( Θ ) = ∏я ∈ { 1 , . , , , N} , уя= 1п( у= 1 | х = х ; Θ ) ⋅ ∏я ∈ { 1 , . , , , N} , уя= 0( 1 - П( у= 1 | х = х ; Θ ) )
Теперь вы решили «принять» (модель)
п( у= 1 | Икс= х ) = σ( Θ0+ Θ1х )
где
σ( з) = 1 / ( 1 + е- з)
поэтому вы просто вычисляете формулу для вероятности и выполняете некоторый алгоритм оптимизации, чтобы найти , например, метод ньютонов или любой другой метод на основе градиента.ArgmaxΘL ( Θ )
Обратите внимание, что иногда люди говорят, что когда они выполняют логистическую регрессию, они не максимизируют вероятность (как мы / вы сделали выше), а скорее минимизируют функцию потерь
l ( Θ ) = - ∑я = 1NYяжурнал( P( Yя= 1 | Икс= х ; Θ ) ) + ( 1 - уя) журнал( P( Yя= 0 | Икс= х ; Θ ) )
- журнал( L ( Θ ) ) = l ( Θ )
п