Сравнение между SHAP (объяснение аддитивной формы Шепли) и LIME (локальное интерпретируемое объяснение, основанное на модели)


20

Я читаю о двух популярных методах интерпретации специальных моделей: LIME и SHAP

У меня проблемы с пониманием ключевой разницы в этих двух методах.

По словам Скотта Лундберга , мозги, стоящие за SHAP:

Значения SHAP поставляются с преимуществами локальной оценки для черного ящика, а также с теоретическими гарантиями согласованности и локальной точности из теории игр (атрибуты других методов, которые мы объединили)

У меня возникли проблемы с пониманием того, что такое « теоретические гарантии согласованности и локальной точности из теории игр ». Поскольку SHAP был разработан после LIME, я предполагаю, что он заполняет некоторые пробелы, которые LIME не может устранить. Что это?

Книга Кристофа Молнара в главе об оценке Шепли гласит:

Разница между прогнозом и средним прогнозом справедливо распределяется между значениями признаков экземпляра - свойством эффективности Шепли. Это свойство устанавливает значение Shapley отдельно от других методов, таких как LIME. LIME не гарантирует идеальное распределение эффектов. Это может сделать значение Шепли единственным методом, обеспечивающим полное объяснение.

Читая это, я чувствую, что SHAP - это не локальное, а глобальное объяснение точки данных. Я могу ошибаться, и мне нужно немного понять, что означает эта цитата выше. Подводя итог моей просьбе: ИЗВЕСТЬ производит местные объяснения. Чем объяснения SHAP отличаются от объяснений LIME?


2
Хороший вопрос (+1), я постараюсь ответить на него, когда у меня будет время, но следует заметить, что LIME не предлагает глобально согласованного объяснения, в то время как SHAP это делает. Кроме того, SHAP определенно был разработан до LIME. SHAP в значительной степени опирается на работы Струмбеля и Кононенко, начиная с конца 00-х / начала 10-х годов, а также на экономические аспекты переносимых утилитарных кооперативных игр (например, Lipovetsky & Conklin (2001)). Кроме того, много работы по измерению чувствительности анализа (например, индексы Соболя) также идет в этом направлении. Основные идеи SHAP были в целом хорошо известны до NIPS 2017.
usεr11852 говорит восстановить Monic

2
(Просто чтобы прояснить в отношении второй половины моего комментария выше: я не предполагаю, что статья NIPS 2017 является продуктом плагиата или чего-то подобного. Просто я часто вижу людей, не обращающих внимания на большую часть предыдущей работы над поле и лечение в последнее сечение иначе органической эволюции области знаний в качестве основного методологического прорыва В данном конкретном случае:. алгоритмическая теория игр была вокруг в течение десятилетий , как часть ИИ, только теперь он стал пол прохладно . )
usεr11852 говорит восстановить Monic

1
@ usεr11852 Жду вашего ответа. Пожалуйста, поделитесь своими идеями по этому вопросу.
user248884

2
У меня еще нет всего необходимого времени; Я написал около 400 слов, но мне нужно, по крайней мере, еще 6-7 часов работы, так как мне нужно перечитать некоторые статьи и сжать текст - объяснение SHAP без чрезмерных упрощений является немного сложной задачей (по крайней мере, для меня). Вероятно, я сделаю это до середины декабря ... :)
usεr11852 говорит восстановить Monic

1
@ usεr11852 Конечно. Будем ждать :)
user248884

Ответы:


8

LIME создает суррогатную модель локально вокруг единицы, предсказание которой вы хотите понять. Таким образом, это изначально локально. Великолепные значения «разлагают» окончательный прогноз на вклад каждого атрибута - это то, что некоторые подразумевают под «непротиворечивостью» (значения складываются в фактический прогноз истинной модели, это не то, что вы получаете с LIME). Но чтобы на самом деле получить правильные значения, необходимо принять решение о том, что делать / как обрабатывать значения атрибутов, которые «пропущены», - так получаются значения. В этом решении есть некоторый выбор, который может изменить интерпретацию. Если я «пропущу» атрибут, усредняю ​​ли я все возможности? Выберите какой-нибудь «базовый уровень»?

Таким образом, Shapely на самом деле говорит вам, аддитивным образом, как вы получили свой счет, но есть некоторый выбор в отношении «отправной точки» (то есть решение об опущенных атрибутах).

LIME просто говорит вам, в локальном смысле, что является самым важным атрибутом вокруг интересующей точки данных.


Можете ли вы также добавить, как каждая модель зарабатывает свои баллы (например, баллы по профилю) - эти баллы меня раздражают, так как они не нормализуются, и я не понимаю, что они значат!
user4581
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.