Этот вопрос дает количественное определение кросс-энтропии с точки зрения ее формулы.
Я ищу более условное определение, википедия говорит:
В теории информации кросс-энтропия между двумя распределениями вероятностей измеряет среднее число битов, необходимое для идентификации события из набора возможностей, если схема кодирования используется на основе заданного распределения вероятности q, а не «истинного» распределения p ,
Я подчеркнул ту часть, которая доставляет мне затруднения в понимании этого. Мне бы хотелось хорошее определение, которое не требует отдельного (уже существующего) понимания энтропии.