Предположим, у меня есть простая однослойная нейронная сеть с n входами и одним выходом (задача двоичной классификации). Если я установлю функцию активации в выходном узле как сигмовидную функцию, то результатом будет классификатор логистической регрессии.
В этом же сценарии, если я изменю выходную активацию на ReLU (выпрямленная линейная единица), то будет ли результирующая структура такой же или похожей на SVM?
Если нет, то почему?