На самом деле есть большая существенная разница, которая связана с техническими различиями, которые вы упомянули. Логистическая регрессия моделирует функцию среднего распределения Бернулли как линейное уравнение (среднее значение равно вероятности p события Бернулли). Используя ссылку logit как функцию от среднего значения ( p ), логарифм шансов (log-odds) можно получить аналитически и использовать в качестве ответа так называемой обобщенной линейной модели. Оценка параметров в этом GLM является статистическим процессом, который дает p-значения и доверительные интервалы для параметров модели. Вдобавок к предсказанию, это позволяет интерпретировать модель в причинно-следственной связи. Это то, чего вы не можете достичь с помощью линейного персептрона.
Перцептрон - это процесс обратного инжиниринга логистической регрессии: вместо логита y он принимает обратную логит (логистическую) функцию wx и не использует вероятностные допущения ни для модели, ни для оценки ее параметров. Онлайновое обучение даст вам точно такие же оценки для весов / параметров модели, но вы не сможете интерпретировать их в причинно-следственной связи из-за отсутствия p-значений, доверительных интервалов и, следовательно, базовой вероятностной модели.
Короче говоря, логистическая регрессия - это GLM, который может выполнять прогнозирование и вывод, тогда как линейный Перцептрон может только достигать прогнозирования (в этом случае он будет выполнять то же самое, что логистическая регрессия). Разница между ними также является фундаментальной разницей между статистическим моделированием и машинным обучением.