Короче говоря, логистическая регрессия имеет вероятностные коннотации, которые выходят за рамки использования классификатора в ОД. У меня есть некоторые заметки о логистической регрессии здесь .
Гипотеза в логистической регрессии обеспечивает меру неопределенности в возникновении бинарного исхода на основе линейной модели. Выходные данные асимптотически ограничены между и и зависят от линейной модели, так что когда базовая линия регрессии имеет значение , логистическое уравнение равно , обеспечивая естественная точка отсечения для целей классификации. Однако это происходит за счет выброса информации о вероятности в фактический результат , что часто интересно (например, вероятность дефолта по кредиту с учетом дохода, кредитный рейтинг, возраст и т. Д.).1 0 0,5 = е 0010 h(ΘTx)=e Θ T x0,5 = е01 + е0ч ( ΘTх ) = еΘTИкс1 + еΘTИкс
Алгоритм классификации персептрона является более базовой процедурой, основанной на точечных произведениях между примерами и весами . Всякий раз, когда пример неправильно классифицирован, знак точечного произведения расходится со значением классификации ( и ) в обучающем наборе. Чтобы исправить это, примерный вектор будет итеративно добавляться или вычитаться из вектора весов или коэффициентов, постепенно обновляя его элементы:1- 11
В векторном виде функций или атрибутов примера являются , и идея состоит в том, чтобы "передать" пример, если:хdИкс
Σ1dθяИкся> theshold или ...
1 - 1 0 1h ( x ) = знак ( ∑1dθяИкся- theshold ) . Функция знака приводит к или , в отличие от и в логистической регрессии.1- 101
Порог будет поглощен в коэффициент смещения , . Формула сейчас:+ θ0
h ( x ) = знак ( ∑0dθяИкся) или векторизованный: .h ( x ) = знак ( θTх )
У неправильно классифицированных точек будет , что означает, что произведение точек и будет положительным (векторы в одном и том же направлении), когда отрицательно, или скалярное произведение будет отрицательным (векторы в противоположных направлениях), а положительным.знак ( θTх ) ≠ уNΘИксNYNYN
Я работал над различиями между этими двумя методами в наборе данных из того же курса , в котором результаты теста в двух отдельных экзаменах связаны с окончательным поступлением в колледж:
Границу решения можно легко найти с помощью логистической регрессии, но было интересно увидеть, что хотя коэффициенты, полученные с помощью персептрона, значительно отличались от коэффициентов логистической регрессии, простое применение функции к результатам дало такой же хороший алгоритм классификации. Фактически максимальная точность (предел, установленный линейной неразделимостью некоторых примеров) была достигнута второй итерацией. Вот последовательность линий деления границы, когда итераций аппроксимировали веса, начиная со случайного вектора коэффициентов:знак ( ⋅ )10
Точность классификации в зависимости от числа итераций быстро возрастает и составляет , что соответствует тому, насколько быстро достигается почти оптимальная граница решения в видеоролике выше. Вот график кривой обучения:90 %
Код используется здесь .