Как энтропия зависит от местоположения и масштаба?


14

Энтропии непрерывного распределения с функцией плотности f определяются как негатив ожидания log(f), и , следовательно , равны

Hf=log(f(x))f(x)dx.

Мы также говорим, что любая случайная величина X , распределение которой имеет плотность f имеет энтропию Hf. (Этот интеграл является четким, даже если f имеет нули, потому что log(f(x))f(x) можно принять равным нулю при таких значениях.)

Когда X и Y являются случайными переменными, для которых Y=X+μ ( μ является константой), Y называется версией X смещенной на μ. Точно так же, когда Y=Xσ ( σ - положительная постоянная), Y называется версией X масштабированной по σ.Объединение шкалы со сдвигом дает Y=Xσ+μ.

Эти отношения встречаются часто. Например, изменение единиц измерения X сдвигает и масштабирует его.

Как энтропия Y=Xσ+μ связана с энтропией X?

Ответы:


17

Поскольку элемент вероятности X равен f(x)dx, изменение переменной y=xσ+μ эквивалентно x=(yμ)/σ, откуда

f(x)dx=f(yμσ)d(yμσ)=1σf(yμσ)dy

отсюда следует , что плотность Y является

fY(y)=1σf(yμσ).

Следовательно, энтропия Y является

H(Y)=log(1σf(yμσ))1σf(yμσ)dy

которая, при изменении переменной обратно к x=(yμ)/σ, производит

H(Y)=log(1σf(x))f(x)dx=(log(1σ)+log(f(x)))f(x)dx=log(σ)f(x)dxlog(f(x))f(x)dx=log(σ)+Hf.

f(x)dx

Вывод

Y=Xσ+μXlog(σ).

σ1log(σ).


μσ(μ,σ)μ=0σ=1.

log(f(x))=12log(2π)x2/2,

откуда

H=E[12log(2π)X2/2]=12log(2π)+12.

(μ,σ)logσ

H=12log(2π)+12+log(σ)=12log(2πeσ2)

как сообщает Википедия .

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.