Я попробую это сделать, хотя это немного над моей головой, так что побалуйте насыпью соли ...
Ты не совсем неправ. Я думаю, что если ваш мысленный эксперимент провалится, то дифференциальная энтропия не является ограничивающим случаем энтропии. Я предполагаю, что из-за этого параллели между ним и колмогоровской сложностью потеряны.
Допустим, мы имеем дискретную случайную величину . Мы можем вычислить его энтропию Шеннона следующим образом, суммируя по всем возможным значениям ,
х я Н ( Х ) = - Σ я Р ( Х = х я ) журнал ( Р ( Х = х я ) ) .Xxi
H(X)=−∑iP(X=xi)log(P(X=xi)).
Пока все так скучно. Теперь предположим, что является квантованной версией непрерывной случайной величины - скажем, у нас есть функция плотности которая генерирует выборки из набора действительных чисел, и мы превращаем это в гистограмму. У нас будет достаточно тонкая гистограмма, чтобы функция плотности была по существу линейной. В этом случае у нас будет энтропия что-то вроде этого,
где - ширина бинов нашей гистограммы, а - середина каждого. У нас есть продукт внутри этого логарифма - давайте выделим его и используем свойство вероятностных распределений, суммирующих 1, чтобы вывести его за пределы суммирования, давая нам
Xp()
H(X)≈−∑ip(X=xi)δxlog(p(X=xi)δx),
δxxiH(X)≈−log(δx)−∑ip(X=xi)δxlog(p(X=xi)).
Если мы берем предел, позволяя и превращаем суммирование в интегрирование, наше приближение становится точным, и мы получаем следующее:
δx→dx
H(X)=−log(dx)−∫xp(X=x)log(p(X=x))dx.
Термин с правой стороны является дифференциальной энтропией. Но посмотрите на этот ужасный термин . Мы должны игнорировать это, чтобы все наши ответы не были NaN. Боюсь, это означает, что дифференциальная энтропия не является ограничивающим случаем энтропии Шеннона.log(dx)
Итак, мы теряем некоторые свойства. Да, изменение масштаба ваших данных изменяет дифференциальную энтропию - дифференциальная энтропия является своего рода мерой того, насколько «тесно упакован» PDF-файл. Если вы измените масштаб, это изменится. Еще одно интересное свойство в том, что оно может стать отрицательным, в отличие от энтропии Шеннона - попробуйте установить действительно очень маленьким и посмотреть, что произойдет. Потеря связи со сложностью Колмогорова, я думаю, просто очередная жертва.σ
К счастью, мы не совсем потеряны. Расхождения Кульбака – Лейблера и, как следствие, взаимная информация, ведут себя довольно хорошо, так как все delta'ы исключают. Например, вы можете вычислить
где - некоторое эталонное распределение - скажем, единый. Это всегда положительно, и когда вы масштабируете переменную она меняет и и , поэтому результаты намного менее серьезны.δ
∫xp(X=x)log(p(X=x)q(X=x))dx
q(X)Xp(X)q(X)