Ответы:
Потеря журнала имеет приятное свойство - это дифференцируемая функция. Точность может быть более важной и определенно более интерпретируемой, но ее нельзя напрямую использовать при обучении сети из-за алгоритма обратного распространения, который требует, чтобы функция потерь была дифференцируемой. Когда предпочтительный убыток не может быть напрямую оптимизирован (например, точность), вы используете функцию потерь, которая ведет себя аналогично прокси истинной метрики. В случае двоичной классификации вы должны использовать сигмоид в конце и потерю в журнале для приблизительной точности. Они сильно коррелированы.
Да, они оба измеряют точность y и y_hat, и да, они обычно коррелируют. Иногда функция потерь может не соответствовать точности, но вы по-прежнему заинтересованы в измерении точности, даже если вы не оптимизируете ее напрямую. Пример Google TensorFlow MNIST минимизирует / оптимизирует перекрестную потерю энтропии, но отображает точность для пользователя при сообщении результатов, и это вполне нормально.
Иногда вы не хотите оптимизировать точность напрямую. Например, если у вас серьезный дисбаланс классов, ваша модель максимизирует точность, просто всегда выбирая наиболее распространенный класс, но это не будет полезной моделью. В этом случае энтропия / логарифмическая потеря была бы лучшей функцией потерь для оптимизации.
show_accuracy
параметра установлено значение «Истина» (например, при подгонке или при оценке). Это верно?
def your_own_metric(y_true, y_pred)
функцию и передайте ееmodel.compile(..., metrics=[your_own_metric])