Недавно я прочитал эту статью об энтропии дискретного распределения вероятностей. Он описывает хороший способ восприятия энтропии как ожидаемых числовых битов (по крайней мере, при использовании в определении энтропии), необходимых для кодирования сообщения, когда ваша кодировка оптимальна, учитывая распределение вероятностей используемых вами слов.
Однако при распространении на непрерывный случай, как здесь, я считаю, что этот способ мышления нарушается, поскольку для любого непрерывного распределения вероятности p ( x ) (пожалуйста, исправьте меня, если это не так), поэтому я был интересно, есть ли хороший способ думать о том, что означает непрерывная энтропия, как в случае с дискретным случаем.