Хорошее введение в различные виды энтропии


18

Я ищу книгу или онлайн-ресурс, который объясняет различные виды энтропии, такие как Sample Entropy и Shannon Entropy, а также их преимущества и недостатки. Может ли кто-нибудь указать мне правильное направление?

Ответы:


9

Обложка и книга Томаса « Элементы теории информации» - хороший источник информации об энтропии и ее приложениях, хотя я не знаю, как она решает именно те проблемы, которые вы имеете в виду.


4
Также в статье «Информационно-теоретические неравенства» Дембо Кавера и Томаса раскрывается много глубоких аспектов
Робин Джирард,

1
Тем не менее, ни одна из этих книг не утверждает, что существует более одной энтропии.



2

Энтропия только одна (как концепция) - количество информации, необходимое для описания некоторой системы; Есть только много его обобщений. Выборочная энтропия - это только некоторый энтропийный дескриптор, используемый в анализе сердечного ритма.


Я знаю, однако, что это не помогает мне решить, подходит ли использование данных энтропии, энтропии Шеннона или какого-либо другого вида энтропии для данных, с которыми я работаю.
Кристиан,

2
В своем посте я написал только то, что для определенного типа данных / процесса / системы существует только одно истинное определение энтропии. Образец энтропии - это не мера энтропии, это просто некоторая статистика с непонятным названием. Задайте вопрос, где вы определите данные, для которых вы хотите рассчитать энтропию, и получите формулу.

Я не заинтересован в правде, но в получении функции, которая работает. Я биоинформатик и научил не искать догматическую правду, а искать статистику, которая работает. Я не думаю, что есть работа с теми данными, с которыми я хочу работать, которые определяют, какая энтропия работает лучше всего. Вот почему я хочу работать с данными.
Кристиан

2
Да, но речь идет не о догматических истинах, а о словах. Вы спрашивали об энтропии, поэтому я ответил об энтропии. Потому что теперь я вижу, что вам действительно нужен ответ о дескрипторах временных рядов, напишите вопрос о дескрипторах временных рядов, и только тогда вы получите полезный ответ.

2

Джейнс показывает, как вывести энтропию Шеннона из основных принципов в своей книге .

n!nn

1nlogn!(np1)!(npd)!

dp


1
nnn!log(n!)nlognn+O(1)np1++pd=1

2

В статье Грюнвальда и Давида теория игр, максимальная энтропия, минимальное расхождение и надежная байесовская теория принятия решений обсуждаются обобщения традиционного понятия энтропии. Учитывая потерю, связанная с ней энтропийная функция представляет собой отображение распределения на минимально достижимую ожидаемую потерю для этого распределения. Обычная энтропийная функция - это обобщенная энтропия, связанная с потерями в журнале. Другие варианты потерь приводят к другой энтропии, такой как энтропия Реньи.


1
Итак, сигма - это энтропия N (0, сигма), соответствующая квадрату ошибки, а min (p, 1-p) - энтропия Бернулли (p), соответствующая 0,1 прогнозируемой потере? Похоже, довольно обобщение!
Ярослав Булатов

Да. Энтропия для потери в квадрате постоянна, а энтропия для потери 0-1 является минимальной (p, 1-p). Также интересно то, что они также имеют сильное соответствие с расхождениями. Квадратная потеря для дивергенции Хеллингера и 0-1 потеря для вариационной дивергенции. Поскольку энтропии определены так, они обязательно являются вогнутыми функциями, и получается f-дивергенция, построенная с использованием f (p) = -энтропии (p). Боб Уильямсон и я изучили некоторые из них в нашей статье: arxiv.org/abs/0901.0356 . Это забавная штука.
Марк Рейд

1
Вот кое-что интересное, что я недавно обнаружил о расхождениях - каждый шаг распространения веры можно рассматривать как проекцию
Ярослав Булатов,
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.