2
Что энтропия говорит нам?
Я читаю об энтропии и мне трудно понять, что это означает в непрерывном случае. На вики-странице указано следующее: Распределение вероятностей событий в сочетании с объемом информации о каждом событии образует случайную величину, ожидаемое значение которой представляет собой средний объем информации или энтропию, генерируемую этим распределением. Так что, если я вычислю …
32
entropy