Статья « Дети, избивающие робота», вдохновляет новую систему маневров по спасению , основана на двух исследовательских работах об эксперименте в японском торговом центре, который привел к нападению на роботов детей без присмотра. Исследовательский документ, который вас интересует, - это « Избежать от насилия над детьми со стороны социальных роботов» .
В этой исследовательской работе исследователи смогли запрограммировать роботов следовать моделированию планирования, чтобы уменьшить вероятность жестокого обращения со стороны детей. Если он обнаруживает детей, робот запрограммирован на отступление в толпу взрослых (которые могут при необходимости дисциплинировать детей). Это произошло потому, что исследователи увидели, что только дети избивали роботов в торговом центре.
Они обсуждают попробовать другие варианты, хотя:
В этой работе стратегия робота по предотвращению злоупотреблений заключалась в том, чтобы «сбежать», т. Е. Переместиться в место, где с меньшей вероятностью произойдет злоупотребление. Можно спросить, почему робот не может преодолеть злоупотребления. В наших предварительных испытаниях мы попробовали несколько подходов, но мы обнаружили, что роботу очень трудно убедить детей не злоупотреблять им. Например, мы изменили формулировки робота многими способами, используя сильные слова, эмоциональные или вежливые выражения, но ни одно из них не было успешным. Одной из частично успешных стратегий был робот, «физически» толкающий детей. Когда его путь был заблокирован, он просто пытался продолжать движение и вести себя так, как будто он столкнется с детьми и пробьется (под тщательным наблюдением оператора-человека). Мы заметили, что дети сначала приняли запросы робота и повиновались им; но, очень скоро они узнали, что они сильнее робота, поэтому они могут выиграть, если нажмут, а также что они могут остановить его, нажав на переключатель бампера (прикрепленный к роботу в целях безопасности). Осознав это, они просто продолжили оскорбительное поведение. Очевидно, что наличие более сильного робота представляет проблему для безопасности и социальной приемлемости, поэтому работа с такими оскорбительными ситуациями остается сложной.
Но давайте разберем ваш вопрос дальше:
Если сознательный ИИ возможен и широко распространен, разве не будет легко для тех, кто знает, что они делают, пытать ИИ?
Почему вы считаете такие пытки неправильными ? В конце концов, можно утверждать, что на самом деле машина не будет «испытывать» боль, если вы пытаете ее… так что тогда пытать машину должно быть морально нормально. Он может реагировать так, как если бы ему было больно, но сомнительно, эквивалентна ли способность имитировать эмоциональное состояние, такое как «быть в боли», фактическому пребыванию в этом эмоциональном состоянии. См. Вопрос Является ли симуляция эмоциональных состояний эквивалентной переживанию эмоций? для дальнейшего обсуждения по этой теме.
Вы можете привести такой аргумент, но он не будет работать на эмоциональном уровне, потому что большинство людей чувствуют сочувствие к машине. Это может быть трудно обосновать логически (и это может быть основано на склонности человека к антропоморфизму ), но мы чувствуем эту эмпатию. Именно это сочувствие заставило вас задать этот вопрос в первую очередь, побудило исследователей выяснить, как защитить робота от избиений, дало возможность полицейским арестовать пьяного японца за избиение робота SoftBank и сделало много людей расстроился из-за уничтожения автостопа . И этокак избежать злоупотребления ИИ - человеческое сочувствие. Если большинство людей заботятся о благополучии машин, они сделают приоритетом остановку тех немногих людей, которые могут и хотят злоупотреблять машинами.
РЕДАКТИРОВАТЬ: ОП отредактировал свой вопрос, чтобы уточнить, что он говорит о программном обеспечении , а не о роботах. Для роботов вы можете полагаться на антропоморфизм для получения некоторого уровня симпатии, но трудно сочувствовать необработанным строкам кода.
Вы не собираетесь прекращать злоупотребление алгоритмами. Откровенно говоря, поскольку алгоритмы не похожи на нас, мы не собираемся распространять такое же сочувствие, как на роботов. Даже чат-роботы немного сомнительны. Если вы могли бы заставить людей симпатизировать строкам кода (возможно, убедительно симулируя эмоции и разум), то ответ вышеизложенный применим - люди антропоморфизируют машину и придумают контрмеры. Мы еще не достигли такого уровня, поэтому «прекращение злоупотребления ИИ» будет низким приоритетом.
Тем не менее, некоторые отказоустойчивые программы могут быть запрограммированы для ограничения ущерба от злоупотреблений, как подробно описано в этой теме о злоупотреблении чат-ботами - заставляя бота реагировать скучно, чтобы обидчику стало скучно и перейти к следующей цели, отвечая обратно обидчику в «битве умов», или даже просто блокируя нарушителей от использования сервиса.
Эти отказы являются холодным утешением для тех, кто хочет предотвратить злоупотребления, а не реагировать на них.
Кроме того ... обидчик может с радостью научиться программировать ИИ, чтобы потом злоупотреблять его / ее сердцем. Ничто не может быть сделано, чтобы остановить это, и любые возможные меры, чтобы остановить упомянутое злоупотребление (такие как мониторинг каждого человека, чтобы убедиться, что они не программируют ИИ на злоупотребление), вероятно, нанесут больший ущерб, чем это решит.