Энтропия говорит вам, сколько неопределенности в системе. Допустим, вы ищете кошку и знаете, что она находится где-то между вашим домом и соседями, в 1 миле от вас. Ваши дети говорят вам, что вероятность того, что кошка окажется на расстоянии от вашего дома, лучше всего описывается бета-распределением f ( x ; 2 , 2 ) . Так что кошка может быть где -то между 0 и 1, но более вероятно, будет в середине, то есть х м а х = 1 / 2 .x f(x;2,2)xmax=1/2
Давайте включим бета-распределение в ваше уравнение, тогда вы получите .H=−0.125
Затем вы спрашиваете свою жену, и она говорит вам, что лучшим распределением, описывающим ее знания о вашей кошке, является равномерное распределение. Если вы подключите его к уравнению энтропии, вы получите .H=0
Распределение как по форме, так и по бета-версии позволяет кошке находиться в пределах 0-1 мили от вашего дома, но в униформе больше неопределенности, потому что ваша жена на самом деле не имеет ни малейшего понятия, где прячется кошка, в то время как у детей есть какая-то идея , они думают, что это больше скорее всего, будет где-то посередине. Вот почему энтропия беты ниже, чем у униформы.
Вы можете попробовать другие дистрибутивы, может быть , ваш сосед говорит вам кошка любит быть рядом с любой из домов, так что его бета - распределение с . Его H должно быть ниже, чем у униформы, потому что вы получаете представление о том, где искать кошку. Угадайте, выше или ниже информационная энтропия вашего соседа, чем у ваших детей? Я бы сделал ставку на детей в любой день по этим вопросам.α=β=1/2H
ОБНОВИТЬ:
Как это работает? Один из способов думать об этом - начать с равномерного распределения. Если вы согласны с тем, что это тот, кто обладает наибольшей неопределенностью, подумайте о том, чтобы его беспокоить Давайте посмотрим на дискретный случай для простоты. Возьмите из одной точки и добавьте его в другую следующим образом:
p ′ i = p - Δ p p ′ j = p + Δ pΔp
p′i=p−Δp
p′j=p+Δp
H−H′=pilnpi−piln(pi−Δp)+pjlnpj−pjln(pj+Δp)
=plnp−pln[p(1−Δp/p)]+plnp−pln[p(1+Δp/p)]
=−ln(1−Δp/p)−ln(1+Δp/p)>0
nn→∞nn=1n=13
x = 0:0.01:1;
for k=1:5
i = 1 + (k-1)*3;
idx(k) = i;
f = @(x)bates_pdf(x,i);
funb=@(x)f(x).*log(f(x));
fun = @(x)arrayfun(funb,x);
h(k) = -integral(fun,0,1);
subplot(1,5+1,k)
plot(x,arrayfun(f,x))
title(['Bates(x,' num2str(i) ')'])
ylim([0 6])
end
subplot(1,5+1,5+1)
plot(idx,h)
title 'Entropy'