Первый из них может быть «интерпретирован» следующим образом: если предиктор важен в вашей текущей модели, то присвоение других значений этому предиктору случайным образом, но «реалистично» (т. Е. Перестановка значений этого предиктора по вашему набору данных), должно оказать негативное влияние на прогнозирование, то есть: использование одной и той же модели для прогнозирования на основе данных, которые являются одинаковыми, за исключением одной переменной, должно давать худшие прогнозы.
Итак, вы берете прогнозирующую меру (MSE) с исходным набором данных, а затем с «перестановочным» набором данных и сравниваете их каким-то образом. Одним из способов, особенно потому, что мы ожидаем, что оригинальная MSE всегда будет меньше, можно принять разницу. Наконец, для того, чтобы сделать значения сравнимыми по переменным, они масштабируются.
Для второго: при каждом разделении вы можете рассчитать, насколько это разделение уменьшает загрязнение узла (для деревьев регрессии, действительно, разница между RSS до и после разделения). Это суммируется по всем расщеплениям для этой переменной, по всем деревьям.
Примечание: хорошее прочтение - « Элементы статистического обучения » Хасти, Тибширани и Фридмана ...
?importance
? Там есть объяснение того, что означают обе меры ...