Вы упоминаете линейную регрессию. Это связано с логистической регрессией , которая имеет аналогичный алгоритм быстрой оптимизации. Если у вас есть границы целевых значений, например, с проблемой классификации, вы можете рассматривать логистическую регрессию как обобщение линейной регрессии.
Нейронные сети являются строго более общими, чем логистическая регрессия на исходных входах, поскольку это соответствует сети с пропуском (с соединениями, напрямую связывающими входы с выходами) с скрытыми узлами.0
Когда вы добавляете такие функции, как , это похоже на выбор весов для нескольких скрытых узлов в одном скрытом слое. Существует не совсем корреспонденции, так как моделировать функцию как с сигмоида может занять более чем один скрытый нейрон. Когда вы тренируете нейронную сеть, вы позволяете ей находить свои скрытые веса, которые могут быть лучше. Это также может занять больше времени и может быть противоречивым. Вы можете начать с приближения к логистической регрессии с помощью дополнительных функций и медленно обучать веса ввода-скрытия, что в конечном итоге должно быть лучше, чем логистическая регрессия с дополнительными функциями. В зависимости от проблемы время обучения может быть незначительным или непомерным. 1 - 1 х 3x31−1x3
Одна промежуточная стратегия состоит в том, чтобы выбрать большое количество случайных узлов, аналогично тому, что происходит, когда вы инициализируете нейронную сеть, и исправляете веса ввода-скрытия. Оптимизация по весам * для вывода остается линейной. Это называется экстремальной обучающей машиной . Это работает по крайней мере так же, как оригинальная логистическая регрессия.