Я читаю о двух популярных методах интерпретации специальных моделей: LIME и SHAP
У меня проблемы с пониманием ключевой разницы в этих двух методах.
По словам Скотта Лундберга , мозги, стоящие за SHAP:
Значения SHAP поставляются с преимуществами локальной оценки для черного ящика, а также с теоретическими гарантиями согласованности и локальной точности из теории игр (атрибуты других методов, которые мы объединили)
У меня возникли проблемы с пониманием того, что такое « теоретические гарантии согласованности и локальной точности из теории игр ». Поскольку SHAP был разработан после LIME, я предполагаю, что он заполняет некоторые пробелы, которые LIME не может устранить. Что это?
Книга Кристофа Молнара в главе об оценке Шепли гласит:
Разница между прогнозом и средним прогнозом справедливо распределяется между значениями признаков экземпляра - свойством эффективности Шепли. Это свойство устанавливает значение Shapley отдельно от других методов, таких как LIME. LIME не гарантирует идеальное распределение эффектов. Это может сделать значение Шепли единственным методом, обеспечивающим полное объяснение.
Читая это, я чувствую, что SHAP - это не локальное, а глобальное объяснение точки данных. Я могу ошибаться, и мне нужно немного понять, что означает эта цитата выше. Подводя итог моей просьбе: ИЗВЕСТЬ производит местные объяснения. Чем объяснения SHAP отличаются от объяснений LIME?