Законы Азимова несовершенны по замыслу или они осуществимы на практике?


19

Знаменитые « Три закона робототехники» Исаака Азимова возникли в контексте фантастических рассказов Азимова. В этих историях три закона служат мерой безопасности, чтобы избежать безвременных или неконтролируемых ситуаций, которые могут привести к разрушению.

Чаще всего нарративы Азимова находят способ нарушить их, заставляя писателя вносить некоторые изменения в сами законы. Например, в некоторых своих рассказах он изменил Первый закон , добавил Четвертый (или нулевой) закон или даже вообще удалил все законы .

Однако легко утверждать, что в популярной культуре и даже в области исследований искусственного интеллекта законы робототехники воспринимаются довольно серьезно. Не обращая внимания на побочную проблему различных, субъективных и взаимоисключающих интерпретаций законов, есть ли какие-либо аргументы, доказывающие, что сами законы по своей природе несовершенны, или, наоборот, достаточно сильны для использования в реальности? Кроме того, есть ли лучший, более строгий эвристический набор безопасности, предназначенный для этой цели?


Остерегайтесь Killbot Hellscape! xkcd.com/1613
NietzscheanAI

Мы не должны забывать эту возможность: xkcd.com/1450
dynrepsys

Законы Азимова - лишь небольшая попытка начать обсуждение. Для более подробного обсуждения прочитайте «Superintelligence» Ника Бострома - это настолько исчерпывающе, насколько это возможно, основываясь на текущих знаниях и понимании.
Флорин Андрей

Ответы:


12

Законы Азимова недостаточно сильны, чтобы их можно было применять на практике. Сила даже не учитывается, если учесть, что, поскольку они написаны на английских словах, сначала их нужно интерпретировать субъективно, чтобы иметь какое-либо значение. Вы можете найти хорошее обсуждение этого здесь .

Для расшифровки выдержки:

Как вы определяете эти вещи? Как вы определяете «человека», без необходимости занимать позицию почти по каждому вопросу. И если «человек» не был достаточно жестким, вам нужно определить «вред», и у вас снова возникнет та же проблема. Почти любые действительно четкие однозначные определения, которые вы даете для тех слов, которые не полагаются на человеческую интуицию, приводят к странным причудам философии, приводящим к тому, что ваш ИИ делает то, чего вы действительно не хотите делать.

Легко представить, что Азимов был достаточно умен, чтобы знать это, и больше интересовался написанием историй, чем разработкой реальных протоколов управления ИИ.

В романе « Нейромант» было высказано предположение, что ИИ могут служить проверкой друг друга. Надвигающаяся Сингулярность Рэя Курцвейла , или возможность гиперинтеллектуальных AGI в противном случае, может вообще не дать людям возможности полностью контролировать ИИ, оставляя равноправное регулирование как единственно возможную возможность.

Стоит отметить, что Элиэзер Юдковский и другие провели эксперимент, в котором Юдковский играл роль сверхинтеллектуального ИИ со способностью говорить, но без какой-либо другой связи, кроме запертой коробки. Перед претендентами стояла задача просто сохранить ИИ в коробке любой ценой. Юдковский сбежал оба раза.


Вы знаете, была ли когда-либо выпущена стенограмма экспериментов Юдковского? Ссылка, которую вы даете (и адрес электронной почты, на который она затем ссылается), кажется, не предоставляет такую ​​ссылку.
NietzscheanAI

@ user217281728 Нет, я искал его, но, похоже, он его держит, т.е. его стратегия скрыта, чтобы сохранить возможность сделать это снова. У меня есть некоторые идеи о том, что он сказал, и почему я так думаю, что я был бы рад поделиться, если вы напишите мне.
dynrepsys

Я сейчас сделал это.
NietzscheanAI

У меня сложилось впечатление, что Азимов был достаточно умен, чтобы знать это, но дело в том, что простые правила не работают. Выделение отрицательных примеров («Вы не можете просто сказать, чтобы не навредить людям, это не сработает») - полезная работа по контролю ИИ в отдельности.
Мэтью Грэйвз

2

Азимов сделал три закона специально, чтобы доказать, что трех законов недостаточно, какими бы разумными они ни казались на первый взгляд. Я знаю парня, который знал парня, и он подтвердил это.


2
«Я знаю парня, который знал этого парня» ... У вас нет более надежного источника? Я не сомневаюсь в вашем ответе, но наверняка уже должна существовать правильная цитата по этому вопросу.
3442

Его звали Бен Уильямс. Это пост в Google Plus, где он изложил свое мнение об Азимове и трех законах: plus.google.com/+JohnNewmanIII/posts/HeTnPdhaY9p
Doxosophoi

0

Рассмотрим первый закон робототехники Азимова:

Робот не может причинять вред человеку или, в результате бездействия, позволять человеку причинять вред.

Этот закон уже проблематичен, если принимать во внимание самостоятельное вождение автомобиля.

В чем здесь проблема, спросите вы? Ну, вы, вероятно, знакомы с классическим мысленным экспериментом по этике, известным как проблема с тележкой . Общая форма проблемы такова:

Тележка направляется прямо к ним. Вы стоите на некотором расстоянии во дворе поезда, рядом с рычагом. Если вы потянете этот рычаг, тележка переключится на другой набор гусениц. Тем не менее, вы заметили, что на боковой трассе есть один человек. У вас есть два варианта: (1) Ничего не делать, и троллейбус убивает пять человек на главной дорожке. (2) Потяните рычаг, отводя тележку на боковую направляющую, где она убьет одного человека. Какой правильный выбор?

Источник: Википедия

Автомобили с самостоятельным вождением на самом деле должны будут реализовывать реальные вариации проблемы с тележкой, что в основном означает, что автомобили с автоматическим управлением должны быть запрограммированы на убийство людей .

Конечно, это не значит, что ВСЕХ роботов нужно будет запрограммировать на убийство, но автомобили с автоматическим управлением - хороший пример того типа робота, который это сделает.

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.