Большинство из нас знакомы или, по крайней мере, слышали о энтропии Шеннона случайной величины, , и обо всех связанных с этим теоретико-информационных мерах, таких как относительная энтропия, взаимная информация и так далее. Есть несколько других мер энтропии, которые обычно используются в теоретической информатике и теории информации, такие как мин-энтропия случайной величины.
Я начал видеть эти так называемые энтропии Реньи чаще, когда просматриваю литературу. Они обобщают энтропию Шеннона и мин-энтропию и фактически предоставляют целый спектр энтропийных мер случайной величины. Я работаю в основном в области квантовой информации, где также часто рассматривается квантовая версия энтропии Реньи.
То, что я не понимаю, почему они полезны. Я слышал, что часто с ними аналитически легче работать, чем, скажем, с энтропией Шеннона / фон Неймана или мин-энтропией. Но они также могут быть связаны с энтропией / мин-энтропией Шеннона.
Может ли кто-нибудь привести примеры (классические или квантовые) того, когда использование энтропий Реньи является «правильным решением»? То, что я ищу, - это какой-то «умственный крючок» или «шаблон», позволяющий узнать, когда я захочу использовать энтропии Рени.
Благодарность!