Недавно я наткнулся на tf.nn.sparse_softmax_cross_entropy_with_logits, и я не могу понять, в чем разница по сравнению с tf.nn.softmax_cross_entropy_with_logits .
Является единственным отличие , что обучающие векторы y
должны быть один горячей закодированными при использовании sparse_softmax_cross_entropy_with_logits
?
Читая API, я не нашел другой разницы по сравнению с softmax_cross_entropy_with_logits
. Но зачем тогда нужна дополнительная функция?
Не должен softmax_cross_entropy_with_logits
давать такие же результаты, как sparse_softmax_cross_entropy_with_logits
если бы он был снабжен однократно закодированными обучающими данными / векторами?