«Каков наиболее информационно-физически-теоретический правильный способ вычисления энтропии изображения?»
Отличный и своевременный вопрос.
Вопреки распространенному мнению, действительно возможно определить интуитивно (и теоретически) естественную информационную энтропию для изображения.
Рассмотрим следующий рисунок:
Мы можем видеть, что дифференциальное изображение имеет более компактную гистограмму, поэтому его информационная энтропия Шеннона ниже. Таким образом, мы можем получить меньшую избыточность, используя энтропию Шеннона второго порядка (т.е. энтропию, полученную из дифференциальных данных). Если мы сможем изотропно распространить эту идею на 2D, то можно ожидать хороших оценок информационной энтропии изображения.
Двумерная гистограмма градиентов позволяет 2D расширение.
Мы можем формализовать аргументы, и, действительно, это было недавно завершено. Кратко повторю:
Замечание, что простое определение (см., Например, определение энтропии изображения в MATLAB) игнорирует пространственную структуру, имеет решающее значение. Чтобы понять, что происходит, стоит кратко вернуться к делу 1D. Давно известно, что использование гистограммы сигнала для вычисления его информации / энтропии Шеннона игнорирует временную или пространственную структуру и дает плохую оценку собственной сжимаемости или избыточности сигнала. Решение уже было доступно в классическом тексте Шеннона; использовать свойства сигнала второго порядка, то есть вероятности перехода. Наблюдение в 1971 году (Рис & Это означает, что лучшим предиктором значения пикселя при растровом сканировании является значение предыдущего пикселя, что сразу же приводит к дифференциальному предиктору и энтропии Шеннона второго порядка, которая согласуется с простыми идеями сжатия, такими как кодирование длин серий. Эти идеи были усовершенствованы в конце 80-х годов, что привело к появлению некоторых классических методов кодирования изображений без потерь (дифференциального), которые все еще используются (PNG, JPG без потерь, GIF, JPG2000 без потерь), в то время как вейвлеты и DCT используются только для кодирования с потерями.
Переходим сейчас в 2D; Исследователи обнаружили, что очень трудно распространить идеи Шеннона на более высокие измерения без введения ориентационной зависимости. Интуитивно можно ожидать, что информационная энтропия Шеннона изображения не будет зависеть от его ориентации. Мы также ожидаем, что изображения со сложной пространственной структурой (как пример случайного шума спрашивающего) будут иметь более высокую информационную энтропию, чем изображения с простой пространственной структурой (как пример гладкой серой шкалы спрашивающего). Оказывается, причина, по которой было так трудно распространить идеи Шеннона с 1D на 2D, заключается в том, что в первоначальной формулировке Шеннона есть (односторонняя) асимметрия, которая препятствует симметричной (изотропной) формулировке в 2D. Как только 1D-асимметрия исправлена, 2D-расширение может продолжаться легко и естественно.
Переход к поиску (заинтересованные читатели могут ознакомиться с подробной экспозицией в препринте arXiv по адресу https://arxiv.org/abs/1609.01117 ), где энтропия изображения вычисляется по двумерной гистограмме градиентов (функция плотности вероятности градиента).
Сначала 2D pdf вычисляется путем биннинга оценок производных x и y изображений. Это напоминает операцию биннинга, используемую для генерации более распространенной гистограммы интенсивности в 1D. Производные могут быть оценены по 2-пиксельным конечным разностям, вычисленным в горизонтальном и вертикальном направлениях. Для квадратного изображения NxN f (x, y) мы вычисляем значения NxN частной производной fx и значения NxN fy. Мы сканируем разностное изображение и для каждого пикселя, который мы используем (fx, fy), чтобы найти дискретный контейнер в массиве назначения (2D pdf), который затем увеличивается на единицу. Мы повторяем для всех NxN пикселей. Результирующий 2D PDF должен быть нормализован, чтобы иметь общую единичную вероятность (для этого достаточно просто разделить на NxN). 2D PDF теперь готов к следующему этапу.
Вычисление информационной энтропии 2D Шеннона по 2D градиенту pdf простое. Классическая формула логического логического суммирования Шеннона применяется непосредственно, за исключением критического коэффициента, равного половине, который исходит из специальных соображений ограниченного диапазона выборки для градиентного изображения (подробности см. В статье arXiv). Полуфактор делает вычисленную двумерную энтропию еще более низкой по сравнению с другими (более избыточными) методами оценки двумерной энтропии или сжатия без потерь.
Извините, я не написал здесь необходимые уравнения, но все доступно в препринте. Вычисления являются прямыми (не итеративными), а вычислительная сложность имеет порядок (количество пикселей) NxN. Конечная вычисленная информация-энтропия Шеннона не зависит от вращения и точно соответствует числу битов, необходимых для кодирования изображения в не избыточном градиентном представлении.
Кстати, новая двумерная мера энтропии предсказывает (интуитивно приятную) энтропию в 8 бит на пиксель для случайного изображения и 0,000 бит на пиксель для изображения с плавным градиентом в исходном вопросе.