Я знаю работу Шеннона с энтропией, но в последнее время я работал над краткими структурами данных, в которых эмпирическая энтропия часто используется как часть анализа хранилища.
Шеннон определил энтропию информации, создаваемой отдельным источником информации, как , где - вероятность события , например, сгенерированного конкретного символа, и есть возможных событий.
Как указывает MCH в комментариях, эмпирическая энтропия является энтропией эмпирического распределения этих событий и поэтому определяется как где - количество наблюдаемых случаев события а - общее количество наблюдаемых событий. Это называется эмпирической энтропией нулевого порядка . Понятие Шеннона об условной энтропии имеет аналогичную эмпирическую версию более высокого порядка .
Шеннон не использовал термин «эмпирическая энтропия», хотя он, безусловно, заслуживает похвалы за эту концепцию. Кто первым использовал эту идею, а кто первым использовал (очень логичное) название эмпирической энтропии для ее описания?