Почему логистическая регрессия является линейным классификатором?


49

Поскольку мы используем логистическую функцию для преобразования линейной комбинации входных данных в нелинейный выход, как логистическую регрессию можно считать линейным классификатором?

Линейная регрессия похожа на нейронную сеть без скрытого слоя, так почему же нейронные сети считаются нелинейными классификаторами, а логистическая регрессия является линейной?


7
Преобразование «линейная комбинации входа в нелинейном выход» является одним из основной части определения о наличии линейного классификатора . Это сводит этот вопрос ко второй части, которая представляет собой демонстрацию того, что нейронные сети, как правило, не могут быть выражены как линейные классификаторы.
whuber

1
@whuber: Как вы объясните тот факт, что модель логистической регрессии может принимать полиномиальные переменные предиктора (например, ) для получения нелинейной границы решения? Это все еще линейный классификатор? w1x12+w2x23
stackoverflowuser2010

4
@Stack Концепция «линейного классификатора», по-видимому, зародилась в концепции линейной модели. «Линейность» в модели может принимать несколько форм, как описано на stats.stackexchange.com/a/148713 . Если мы примем характеристику линейных классификаторов из Википедии , то ваш полиномиальный пример будет рассматриваться как нелинейный с точки зрения заданных «признаков» и x 2, но он будет линейным с точки зрения признаков x 2 1 и x 3 2 . Это различие обеспечивает полезный способ использовать свойства линейности.x1x2x12x23
whuber

1
Я все еще немного озадачен вопросом о том, является ли граница принятия решения логистическим классификатором линейной? Я прошел курс обучения машинному обучению Эндрю Нга на Coursera, и он упомянул следующее :! [Введите описание изображения здесь ] ( i.stack.imgur.com/gHxfr.png ) Так что на самом деле мне кажется, что никто не может ответить на него зависит от линейности или нелинейности границы решения, которая зависит от функции Гипотезы, определенной как Htheta (X), где X - вход, а Theta - переменные нашей задачи. Это имеет смысл для вас?
Brokensword

Ответы:


42

p^=11+eμ^, where μ^=θ^x.
μ^xx

x

{x:p^=0.5}θ^x=0


2
xθ

1
тогда и твоим объяснением. Можно ли сказать, что предикация нейронной сети является линейной функцией активаций последнего скрытого слоя?
Джек Твен,

2
θ^xθ^xxx

3
xx

3
@Pegah Я знаю, что это старо, но: Логистическая регрессия имеет линейную границу решения. Сам выход, конечно, не линейный, а логистический. В зависимости от того, с какой стороны линии падает точка, общий выходной сигнал приблизится (но никогда не достигнет) к 0 или 1 соответственно. И чтобы добавить к ответу Стефана Вагнера: последнее предложение не совсем правильно, нейронная сеть нелинейна, когда она содержит нелинейные активации или выходные функции. Но он также может быть линейным (если не были добавлены нелинейности).
Крис

20

Как отмечает Стефан Вагнер, граница принятия решения для логистического классификатора является линейной. (Классификатор требует, чтобы входные данные были линейно разделимыми.) Я хотел бы расширить математические расчеты, если это не очевидно.

11+eθx=0.5

1=eθx

и, взяв натуральное бревно обеих сторон,

0=θx=i=0nθixi

таким образом, граница решения является линейной.

Причина, по которой граница принятия решения для нейронной сети не является линейной, заключается в том, что в нейронной сети имеется два уровня сигмоидальных функций: по одному в каждом из выходных узлов, плюс дополнительная сигмовидная функция для объединения и порогового значения результатов каждого выходного узла.


2
На самом деле, вы можете получить нелинейную границу решения только с одним слоем, имеющим активацию. См. Стандартный пример XOR с двухслойной прямой связью.
Джеймс Хиршорн

5

C0C1

P(C0|x)=P(x|C0)P(C0)P(x)
P(C0|x)=P(x|C0)P(C0)P(x|C0)P(C0)+P(x|C1)P(C1)=11+exp(logP(x|C0)P(x|C1)logP(C0)P(C1))
1+eωx

P(x|Ci)=exp(θixb(θi)a(ϕ)+c(x,ϕ))
logP(x|C0)P(x|C1)=[(θ0θ1)xb(θ0)+b(θ1)]/a(ϕ)

Обратите внимание, что мы предполагаем, что оба распределения принадлежат одному семейству и имеют одинаковые параметры дисперсии. Но в этом предположении логистическая регрессия может моделировать вероятности для всего семейства экспоненциальных распределений.

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.