Есть ли какое-либо применение для количества в статистике или теории информации?
Есть ли какое-либо применение для количества в статистике или теории информации?
Ответы:
Полагая обозначает функцию плотности вероятности (либо по отношению к Лебегу или счетной мере, соответственно), количество известен как энтропия Реньи порядка . Это обобщение энтропии Шеннона, которая сохраняет многие из тех же свойств. Для случая мы интерпретируем как , и это соответствует стандартной энтропии Шеннона . α≥0α=1H1(f)limα→1Hα(f)H(f)
Рени представил это в своей статье
А. Рени, О мерах информации и энтропии , Учеб. 4-й Беркли Симп. по математике, стат. и проб. (1960), с. 547–561.
что стоит прочитать не только за идеи, но и за образцовый стиль экспозиции.
Случай является одним из наиболее распространенных вариантов для и этот частный случай (также) часто называют энтропией Реньи. Здесь мы видим, что для случайная величина, распределенная с плотностью .α H 2 ( f ) = - log ( ∫ f 2 d μ ) = - log ( E f ( X ) ) f
Обратите внимание, что - выпуклая функция, и поэтому по неравенству Дженсена где правая часть обозначает энтропию Шеннона. Следовательно, энтропия Реньи дает нижнюю границу для энтропии Шеннона и во многих случаях ее легче вычислить.
Другой естественный случай, когда возникает энтропия Реньи, - это рассмотрение дискретной случайной величины и независимой копии . В некоторых сценариях мы хотим знать вероятность того, что , что по элементарному вычислению равно
Здесь обозначает плотность по отношению к счетной мере на множестве значений .
(Общая) энтропия Реньи, по-видимому, также связана со свободной энергией системы в тепловом равновесии, хотя я лично не в курсе этого. (Очень) недавняя статья на эту тему
JC Baez, Энтропия Реньи и свободная энергия , arXiv [Quant-Ph] 1101.2098 (февраль 2011).