Ответы:
«Backprop» - это то же самое, что и «backpropagation»: это просто более короткий способ сказать это. Это иногда сокращается как "BP".
«Backprop» - это сокращение от «обратное распространение ошибки» во избежание путаницы при использовании термина обратного распространения .
По существу обратное распространение относится к способу вычисления градиента функции ошибок по случаю относительно весов для сети Werbos с прямой связью . И backprop относится к методу обучения, который использует обратное распространение для вычисления градиента.
Таким образом, мы можем сказать, что сеть backprop - это сеть прямой связи, обученная backpropagation .
Термин «стандартный backprop» является эвфемизмом для обобщенного правила дельты, которое является наиболее широко используемым методом контролируемого обучения.
Источник: Что такое бэкпроп? в FAQ группы новостей Usenet comp.ai.neural-сети
Ссылки:
Да, как правильно сказал Франк, «backprop» означает обратное распространение, которое часто используется в области нейронных сетей для оптимизации ошибок.
Для подробного объяснения я хотел бы указать это руководство по концепции обратного распространения очень хорошей книги Майкла Нильсена.
В машинном обучении обратное распространение (backprop, BP) является широко используемым алгоритмом при обучении нейронных сетей прямой связи для контролируемого обучения. Обобщения обратного распространения существуют для других искусственных нейронных сетей (ANN), а для функций в целом - класса алгоритмов, обычно называемых «обратным распространением».
Это причудливое название для правила многомерной цепочки.