Насколько разумно «право на объяснение»?


8

Там был недавний всплеск интереса к электронному X plainable A rtificial I ntelligence (ХАИ). Вот миссия XAI, как указано на странице DARPA :

Программа Explainable AI (XAI) направлена ​​на создание набора методов машинного обучения, которые:

  • Создание более объяснимых моделей при сохранении высокого уровня эффективности обучения (точность прогнозирования); а также
  • Предоставьте пользователям возможность понимать, надлежащим образом доверять и эффективно управлять новым поколением искусственно интеллектуальных партнеров.

Статья New York Times Может ли AI научиться объяснять себя? хорошо объясняет необходимость XAI с точки зрения человеческих интересов, а также дает представление о методах, разрабатываемых для них. Похоже, что движущая сила движения XAI сосредоточена вокруг (восходящей и будущей?) Концепции права на объяснение , то есть требования, чтобы приложения ИИ, которые существенно влияют на жизнь людей посредством своих решений, могли объяснить заинтересованным сторонам факторы / причины, приводящие к на указанное решение.

Насколько разумно право на объяснение, учитывая текущие стандарты, в соответствии с которыми мы привлекаем друг друга к ответственности?


В статье « Искусственный интеллект (ИИ)» компьютер говорит «нет»: почему создание ИИ справедливым, подотчетным и прозрачным является решающим условием того, что Европа опережает другие части мира в разработке правил по защите людей от плохо сделанного или используемого ИИ . Тем не менее, эти правила немного слабые: например, они не применяются к случаям, когда вовлечены люди или их решения (кроме решений AI).
nbro

Ответы:


3

Насколько разумно право на объяснение, учитывая текущие стандарты, в соответствии с которыми мы привлекаем друг друга к ответственности?

Короче говоря, это вполне разумно.

В частности, обоснование ответственности ИИ за объяснение решения кажется разумным, поскольку

  • Люди (в данном случае DARPA) решили создавать, поднимать и развивать ИИ на деньги налогоплательщиков. Также и в нашем обществе, когда люди собираются вместе для какой-то цели (какой-то формальной договоренности, такой как правительство или иное), ответственность и ответственность принимаются и распределяются. Таким образом, ожидание того, что ИИ (который будет принимать решения от нашего имени) объяснит свои решения, кажется только естественным продолжением того, как люди работают в настоящее время .

  • У людей ( как правило, по крайней мере) нет сверхдержавы или ресурсов, чтобы контролировать и манипулировать остальным населением. Но когда они это делают (как наши политические лидеры ), мы хотим, чтобы они были подотчетны.

  • В редких случаях могущественные люди становятся могущественными благодаря вещам, которые доступны каждому , в то время как сверхдержава ИИ не будет. Таким образом, наша цивилизация чувствовала бы себя в большей безопасности и, следовательно, в меньшей безопасности с ИИ, который не закрывает дверь, когда задают вопросы.

Другие преимущества ИИ, которые предлагают объяснение того, как принимается решение

  • Гораздо проще отлаживать и улучшать на ранней стадии.

  • Может быть изменен в дальнейшем (и по пути), чтобы усилить определенные аспекты, такие как социальное обеспечение, прибыльность и т. Д.


0

В статье Раб алгоритму? Почему «право на объяснение», вероятно, не является средством правовой защиты, которое вы ищете , авторы утверждают, что «право на объяснение» вряд ли обеспечит полное исправление алгоритмического вреда по крайней мере по двум причинам

  1. Неясно, когда какое-либо право, связанное с объяснением, может быть вызвано

  2. Требуемые законом объяснения «значимая информация о логике обработки» могут не предоставляться современными (объяснимыми) методами ИИ

Затем авторы приходят к выводу, что «право на объяснение» отвлекает , но что другие законы Общего регламента ЕС о защите данных, такие как

  1. право быть забытым
  2. право на переносимость данных
  3. конфиденциальность по замыслу

может компенсировать недостатки "права на объяснение".

В заключение, «право на объяснение» является попыткой защитить граждан от возможных нежелательных последствий использования методов ИИ. Тем не менее, оно не является безупречным, и, возможно, необходимо обнародовать более четкие права.

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.