Эндрю Мор определяет получение информации как:
где - условная энтропия . Однако Википедия называет вышеуказанное количество взаимной информацией .
В Википедии, с другой стороны, прирост информации определяется как расхождение Кульбака – Лейблера (иначе говоря, расхождение информации или относительная энтропия) между двумя случайными переменными:
где определяется как кросс-энтропия .
Эти два определения кажутся несовместимыми друг с другом.
Я также видел, как другие авторы говорили о двух дополнительных связанных понятиях, а именно: дифференциальной энтропии и относительном получении информации.
Каково точное определение или связь между этими величинами? Есть хороший учебник, который охватывает их все?
- Получение информации
- Взаимная информация
- Перекрестная энтропия
- Условная энтропия
- Дифференциальная энтропия
- Относительный прирост информации