Мог ли ИИ мыслить латерально, избегая «этически неоптимального» выбора?


13

В недавней игре для ПК The Turing Test , AI («TOM») нуждается в помощи Ava, чтобы пройти через некоторые комнаты головоломки. Том говорит, что он не может решать головоломки, потому что ему не разрешено « мыслить со стороны ». В частности, он говорит, что не подумал бы бросить ящик в окно, чтобы решить первую комнату. Его создатели, как гласит история, отключили эту возможность, потому что такое мышление могло привести к "этически неоптимальным" решениям, таким как отрубание руки, чтобы уйти на прижимную пластину.

Должны ли все творческие способности к решению головоломок быть удалены из ИИ, чтобы его результаты были разумными, или мы могли бы получить некоторые преимущества латерального мышления, не теряя руки?

Ответы:


17

Нет , но . Мы можем иметь творческое, но этическое решение проблем, если система имеет полную систему этики, но в противном случае творчество будет небезопасно по умолчанию.

Подходы к принятию решений ИИ можно разделить на два типа: интерполяционные мыслители и экстраполяционные мыслители.

Интерполирующие мыслители учатся классифицировать и имитировать то, чему они учатся, и не пытаются давать разумные результаты за пределами своей области обучения. Вы можете думать о них как об интерполяции между примерами обучения и извлечении выгоды из всех математических гарантий и условий, как и другие статистические методы.

Экстраполяционные мыслители учатся манипулировать основными принципами, что позволяет им комбинировать эти принципы ранее не рассмотренными способами. Соответствующее поле для интуиции здесь - это численная оптимизация , самым простым и известным примером которой является линейное программирование , а не статистические поля, которые породили машинное обучение. Вы можете думать о них как об экстраполирующих за пределами обучающих примерах (на самом деле, многие из них даже не требуют обучающих примеров или используют эти примеры для вывода основополагающих принципов).

Обещание экстраполирующих мыслителей состоит в том, что они могут придумать эти «боковые» решения гораздо быстрее, чем могли бы люди. Проблема этих экстраполирующих мыслителей заключается в том, что они используют только устные принципы, а не какие-то невысказанные, которые могут показаться слишком очевидными для упоминания.

Атрибутом решений проблем оптимизации является то, что вектор признаков часто является «экстремальным» в некотором роде. В линейном программировании, по крайней мере, одна вершина допустимого пространства решений будет оптимальной, и поэтому простые методы решения находят оптимальную вершину (что практически невозможно по природе того, чтобы быть вершиной).

В качестве другого примера, решение по минимальному расходу топлива для перемещения космического корабля из одного положения в другое называется « взрыв-взрыв» , когда вы ускоряете корабль как можно быстрее в начале и в конце траектории, двигаясь с максимальной скоростью между ,

В то время как в силу , когда система правильно поняла (релейности являются оптимальной для многих случаев), это катастрофическое когда система неправильно понята. Мой любимый пример здесь - проблема диеты Данцига (обсуждение начинается на странице 5 pdf), где он пытается оптимизировать свою диету, используя математику. Согласно его первому ограничению, он должен выпивать 500 галлонов уксуса в день. Под его вторым 200 бульонных кубиков. Под его третье два фунта отрубей. Соображения, которые делают эти явно плохие идеи, не встраиваются в систему, и поэтому система невинно подсказывает их.

Если вы можете полностью закодировать знания и ценности, которые человек использует для оценки этих планов, в ИИ, то экстраполяционные системы так же безопасны, как и этот человек. Они смогут рассмотреть и отклонить неправильный план экстремальных действий, и у вас останутся правильные варианты экстремальных планов.

Но если вы не можете, тогда имеет смысл не создавать экстраполирующего лица, принимающего решения, а вместо этого строить интерполяционного. То есть вместо того, чтобы спрашивать себя "как мне лучше всего достичь цели X?" он спрашивает себя «что бы человек сделал в этой ситуации?». Последний может быть намного хуже в достижении цели X, но он имеет гораздо меньший риск пожертвования другими целями для достижения X.


2

Этика включает в себя отношения потребностей между двумя или более сторонами. Как сказал Мэтью Грейвс, если ИИ не хватает достаточного человеческого контекста (понимания потребностей), это приведет к, по-видимому, извращенному этическому поведению.

И давайте будем честными, некоторые люди отрезали бы руки других людей и помещали их в нажимные пластины. Даже лучшие из нас не смогут сочувствовать потребностям других людей со 100% точностью - в лучшем случае, мы предполагаем. А потом есть те редкие ситуации, когда я действительно хочу, чтобы вы отрезали мне руку и положили ее на прижимную пластину, возможно, чтобы спасти любимого человека.

Если бы мы могли сделать что-то, что могло бы сочувствовать тому, что может понадобиться человеку в любой данной произвольной ситуации, то мы создали бы либо А) искусственный интеллект человека (AHI) (который мог бы быть более или менее подвержен ошибкам, как человек), или B) оракул, который может рассуждать обо всех возможных человеческих потребностях гораздо быстрее, чем человеческие временные рамки - в этом случае вам не понадобится сознательный ИИ, поскольку все человеческие потребности и решения могут быть предварительно вычислены с помощью формальной спецификации, которая наверное абсурдно считать.


0

Вы можете рассматривать программирование как этическую часть дизайна. ИИ будет действовать исходя из того, что ему было сказано, как этически важного или нет. Это может / должно даже быть частью параметров, которые формируют процесс поиска решений, которые могут позволить более изысканное и творческое решение.

Мы понимаем основы этики в нормальных обстоятельствах, но если мы не можем предсказать, как поведет себя любой человек в этической головоломке, мы сможем применить то, чего не сделал бы ИИ.

Пока у нас есть контроль над механизмом, который управляет ИИ, у нас есть ответственность за введение этических проблем. Проблема заключается в самообучаемом ИИ со способностью переопределять директивы. (Законы С.Ф. Азимова.)

То, как ИИ является креативным, в этом случае не имеет значения.


-1

Многое из этого зависит от широты рассмотрения. Например, каковы будут среднесрочные и долгосрочные эффекты латерального мышления? Робот может отделить руку от прижимной пластины, но это будет означать, что у человека больше нет руки, в лучшем случае функциональное ограничение, что человек может истечь кровью и умереть / быть серьезно ограничен, и что человек (и люди в Вообще) оба больше не будут сотрудничать и скорее всего будут стремиться уничтожить робота. Люди могут мыслить со стороны, потому что считают эти вещи - этика на самом деле не более чем набор руководящих принципов, которые охватывают эти соображения. Робот мог бы также быть, если бы он был разработан, чтобы рассмотреть эти внешние факторы.

Если все остальное терпит неудачу,

Законы робототехники Азимова: (0. Робот не может причинить вред человечеству или, по бездействию, позволить человечеству причинить вред.) 1. Робот не может причинить вред человеку или, по бездействию, позволить человеку прийти к нему. причинять вред. 2. Робот должен подчиняться приказам, данным ему людьми, за исключением случаев, когда такие приказы противоречат Первому Закону. 3. Робот должен защищать свое существование, если такая защита не противоречит Первому или Второму Закону.

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.