Могут ли люди повредить сознательный или разумный ИИ?


9

Если сознательный ИИ возможен, будет ли это возможно для того, кто знает, что он делает, чтобы пытать (или причинить вред) ИИ? Можно ли этого избежать? Как?

Этот вопрос касается компьютерного ИИ, а не роботов, которые так же сознательны, как и люди (это предположение вопроса). Вопрос в том, как можно предотвратить преступление, которое трудно отследить, как нелегальные загрузки, но гораздо хуже этически. Обратите внимание, что, несмотря на то, что большинство людей симпатичны и сочувствуют роботам, всегда есть плохие люди, и поэтому полагаться на общую совесть не получится.

Ответы:


9

Статья « Дети, избивающие робота», вдохновляет новую систему маневров по спасению , основана на двух исследовательских работах об эксперименте в японском торговом центре, который привел к нападению на роботов детей без присмотра. Исследовательский документ, который вас интересует, - это « Избежать от насилия над детьми со стороны социальных роботов» .

В этой исследовательской работе исследователи смогли запрограммировать роботов следовать моделированию планирования, чтобы уменьшить вероятность жестокого обращения со стороны детей. Если он обнаруживает детей, робот запрограммирован на отступление в толпу взрослых (которые могут при необходимости дисциплинировать детей). Это произошло потому, что исследователи увидели, что только дети избивали роботов в торговом центре.

Они обсуждают попробовать другие варианты, хотя:

В этой работе стратегия робота по предотвращению злоупотреблений заключалась в том, чтобы «сбежать», т. Е. Переместиться в место, где с меньшей вероятностью произойдет злоупотребление. Можно спросить, почему робот не может преодолеть злоупотребления. В наших предварительных испытаниях мы попробовали несколько подходов, но мы обнаружили, что роботу очень трудно убедить детей не злоупотреблять им. Например, мы изменили формулировки робота многими способами, используя сильные слова, эмоциональные или вежливые выражения, но ни одно из них не было успешным. Одной из частично успешных стратегий был робот, «физически» толкающий детей. Когда его путь был заблокирован, он просто пытался продолжать движение и вести себя так, как будто он столкнется с детьми и пробьется (под тщательным наблюдением оператора-человека). Мы заметили, что дети сначала приняли запросы робота и повиновались им; но, очень скоро они узнали, что они сильнее робота, поэтому они могут выиграть, если нажмут, а также что они могут остановить его, нажав на переключатель бампера (прикрепленный к роботу в целях безопасности). Осознав это, они просто продолжили оскорбительное поведение. Очевидно, что наличие более сильного робота представляет проблему для безопасности и социальной приемлемости, поэтому работа с такими оскорбительными ситуациями остается сложной.


Но давайте разберем ваш вопрос дальше:

Если сознательный ИИ возможен и широко распространен, разве не будет легко для тех, кто знает, что они делают, пытать ИИ?

Почему вы считаете такие пытки неправильными ? В конце концов, можно утверждать, что на самом деле машина не будет «испытывать» боль, если вы пытаете ее… так что тогда пытать машину должно быть морально нормально. Он может реагировать так, как если бы ему было больно, но сомнительно, эквивалентна ли способность имитировать эмоциональное состояние, такое как «быть в боли», фактическому пребыванию в этом эмоциональном состоянии. См. Вопрос Является ли симуляция эмоциональных состояний эквивалентной переживанию эмоций? для дальнейшего обсуждения по этой теме.

Вы можете привести такой аргумент, но он не будет работать на эмоциональном уровне, потому что большинство людей чувствуют сочувствие к машине. Это может быть трудно обосновать логически (и это может быть основано на склонности человека к антропоморфизму ), но мы чувствуем эту эмпатию. Именно это сочувствие заставило вас задать этот вопрос в первую очередь, побудило исследователей выяснить, как защитить робота от избиений, дало возможность полицейским арестовать пьяного японца за избиение робота SoftBank и сделало много людей расстроился из-за уничтожения автостопа . И этокак избежать злоупотребления ИИ - человеческое сочувствие. Если большинство людей заботятся о благополучии машин, они сделают приоритетом остановку тех немногих людей, которые могут и хотят злоупотреблять машинами.


РЕДАКТИРОВАТЬ: ОП отредактировал свой вопрос, чтобы уточнить, что он говорит о программном обеспечении , а не о роботах. Для роботов вы можете полагаться на антропоморфизм для получения некоторого уровня симпатии, но трудно сочувствовать необработанным строкам кода.

Вы не собираетесь прекращать злоупотребление алгоритмами. Откровенно говоря, поскольку алгоритмы не похожи на нас, мы не собираемся распространять такое же сочувствие, как на роботов. Даже чат-роботы немного сомнительны. Если вы могли бы заставить людей симпатизировать строкам кода (возможно, убедительно симулируя эмоции и разум), то ответ вышеизложенный применим - люди антропоморфизируют машину и придумают контрмеры. Мы еще не достигли такого уровня, поэтому «прекращение злоупотребления ИИ» будет низким приоритетом.

Тем не менее, некоторые отказоустойчивые программы могут быть запрограммированы для ограничения ущерба от злоупотреблений, как подробно описано в этой теме о злоупотреблении чат-ботами - заставляя бота реагировать скучно, чтобы обидчику стало скучно и перейти к следующей цели, отвечая обратно обидчику в «битве умов», или даже просто блокируя нарушителей от использования сервиса.

Эти отказы являются холодным утешением для тех, кто хочет предотвратить злоупотребления, а не реагировать на них.

Кроме того ... обидчик может с радостью научиться программировать ИИ, чтобы потом злоупотреблять его / ее сердцем. Ничто не может быть сделано, чтобы остановить это, и любые возможные меры, чтобы остановить упомянутое злоупотребление (такие как мониторинг каждого человека, чтобы убедиться, что они не программируют ИИ на злоупотребление), вероятно, нанесут больший ущерб, чем это решит.


TBH, это действительно не отвечает на мой вопрос, я думаю, я отредактирую вопрос немного больше.
Разрушаемый Лимон

1
@TariqAli Спасибо за этот пост. Я не знал о проблеме взаимодействия детей с социальными роботами, что я нахожу и веселым, и острым. (Я помню, как был маленьким ребенком в Мире Диснея и «атаковал» поглощенных персонажей Диснея, таких как Микки Маус, из-за чрезмерного обожания.)
DukeZhou

6

Я предлагаю вам взглянуть на все способы, которыми мы пытались помешать людям злоупотреблять ДРУГИМИ ЛЮДЬМИ. Здесь нет этической серой зоны - всем ясно, что это неправильно. И все же людей убивают, насилуют и нападают на их миллионы каждый день.

Когда мы решим эту проблему в отношении человеческих жертв, полученное в результате решение, скорее всего, будет отлично работать и для ИИ.


Я был готов сказать, почему это не совсем применимо, но вы, вероятно, в любом случае правы ...
лимон

-1

ИИ и агрессивная внешняя перспектива не могут быть продублированы. Программа не была обучена или спроектирована так, как наш естественный интеллект. Данные ИИ не могут быть сопоставлены с гуманитарным интеллектом в соответствии с эмоционально-социальным мышлением, разработанным опытным человеком, потому что наш дизайн не запатентован. Подобно программированию AI Life, продублированной с помощью инженерной теории, основанной на одном только примере, опыта будет недостаточно, если человек приобретает знания, а посредством действия с течением времени, а не действия, рассчитанного на инженерно-эмоциональную инженерию. Однако ИИ Мы можем использовать нашу эмоциональную доставку, основанную на концептуальном подходе, с программным обеспечением, которое на основе примеров человеческих действий предсказывает неестественный ответ в том случае, если диктуемые диалоги человека-реципиента реагируют без ответа, как будто они понимают, что бот запатентован искусственно, на основе нашей эмоциональной доставки, которая написана по сценарию. к разговору мы сможем диагностировать через причину и следствие. Это не разумный опыт, нам нужно, чтобы ИИ стал эмоциональным опытным ботом, если эмоции искусственности бота различают нашу действительность. Вместо этого мы увидим, какие результаты мы получаем для базовых характеристик программного обеспечения, которые заставляют бота реагировать на искусственный опытный интеллект, концептуально разработанный с использованием эмоциональной механики программного обеспечения, что мы не имеем понятия, какие результаты мы получаем искусственно.


2
1. Пожалуйста, лучше отформатируйте этот пост, 2. Сознательный ИИ - это аксиома вопроса, а не вопроса
Разрушаемый лимон»,
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.