Я начал с изучения нейронных сетей с помощью учебника по нейронным сетям и углублённому изучению точек. В частности, в 3-й главе есть раздел о функции кросс-энтропии, который определяет потерю кросс-энтропии как:
Однако, читая введение Tensorflow , потеря перекрестной энтропии определяется как:
(при использовании тех же символов, что и выше)
Затем, отыскивая, что происходит, я нашел другой набор заметок: ( https://cs231n.github.io/linear-classify/#softmax-classifier ), который использует совершенно другое определение перекрестной потери энтропии, хотя это время для классификатора softmax, а не для нейронной сети.
Может кто-нибудь объяснить мне, что здесь происходит? Почему есть расхождения между прочим. как люди определяют потерю кросс-энтропии? Есть ли какой-то всеобъемлющий принцип?