Там был недавний всплеск интереса к электронному X plainable A rtificial I ntelligence (ХАИ). Вот миссия XAI, как указано на странице DARPA :
Программа Explainable AI (XAI) направлена на создание набора методов машинного обучения, которые:
- Создание более объяснимых моделей при сохранении высокого уровня эффективности обучения (точность прогнозирования); а также
- Предоставьте пользователям возможность понимать, надлежащим образом доверять и эффективно управлять новым поколением искусственно интеллектуальных партнеров.
Статья New York Times Может ли AI научиться объяснять себя? хорошо объясняет необходимость XAI с точки зрения человеческих интересов, а также дает представление о методах, разрабатываемых для них. Похоже, что движущая сила движения XAI сосредоточена вокруг (восходящей и будущей?) Концепции права на объяснение , то есть требования, чтобы приложения ИИ, которые существенно влияют на жизнь людей посредством своих решений, могли объяснить заинтересованным сторонам факторы / причины, приводящие к на указанное решение.
Насколько разумно право на объяснение, учитывая текущие стандарты, в соответствии с которыми мы привлекаем друг друга к ответственности?