Я пытаюсь применить идею взаимной информации к выбору функций, как описано в этих примечаниях к лекции (на странице 5).
Моя платформа - Matlab. Одна проблема, которую я нахожу при вычислении взаимной информации из эмпирических данных, состоит в том, что число всегда смещено вверх. Я нашел около 3 ~ 4 разных файлов для расчета MI в Matlab Central, и все они дают большие числа (например,> 0,4), когда я передаю независимые случайные величины.
Я не эксперт, но, похоже, проблема в том, что если вы просто используете совместную и предельную плотности для вычисления MI, в процессе возникает смещение, потому что MI по определению положительный. У кого-нибудь есть практические советы о том, как точно оценить взаимную информацию?
Схожий вопрос на практике, как люди на самом деле используют МИ для выбора функций? Для меня не очевидно, как придумать пороговое значение, поскольку МИ теоретически не ограничено. Или люди просто ранжируют функции по MI и получают лучшие k функций?